DE10392817T5 - Elektronisches Gerät und Verfahren zur Steuerung seiner Tastatur - Google Patents
Elektronisches Gerät und Verfahren zur Steuerung seiner Tastatur Download PDFInfo
- Publication number
- DE10392817T5 DE10392817T5 DE10392817T DE10392817T DE10392817T5 DE 10392817 T5 DE10392817 T5 DE 10392817T5 DE 10392817 T DE10392817 T DE 10392817T DE 10392817 T DE10392817 T DE 10392817T DE 10392817 T5 DE10392817 T5 DE 10392817T5
- Authority
- DE
- Germany
- Prior art keywords
- keyboard
- key
- tactile
- processing unit
- appearance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Input From Keyboards Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Switches That Are Operated By Magnetic Or Electric Fields (AREA)
Abstract
einem Touch-Pad (106),
einer mit dem Touch-Pad (106) über eine Datenübertragungsverbindung verbundenen Verarbeitungseinheit (600), welche Verarbeitungseinheit (600) konfiguriert ist, eine virtuelle Tastatur (104) für das Touch-Pad (106) und ein taktiles Aussehen der Tastatur (104) zu bestimmen, durch das Drücken einer Taste der Tastatur (104) produzierte Information zu empfangen und die gedrückte Taste aufgrund der Information zu identifizieren, und
einer mit der Verarbeitungseinheit (600) über eine Datenübertragungsverbindung verbundenen Feedback-Einheit (612), welche Feedback-Einheit (612) konfiguriert ist, taktiles Feedback über die Benutzung der Tastatur (104) für den Gerätbenutzer zu geben,
dadurch gekennzeichnet, dass die Verarbeitungseinheit (600) weiterhin konfiguriert ist, Information über die Tastendrücke zu sammeln und sie zu analysieren sowie das taktile Aussehen der Tastatur (104) aufgrund der gesammelten Information und der durchgeführten Analyse wieder zu bestimmen, um die Tastatur ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur (104) leichter und/oder das...
Description
- BEREICH
- Die Erfindung bezieht sich auf ein elektronisches Gerät und auf ein Verfahren zur Steuerung der virtuellen Tastatur des elektronischen Geräts.
- HINTERGRUND
- Elektronische Geräte, z.B. tragbare Teilnehmerendgeräte eines Mobilkommunikationssystems, weisen meistens eine Tastatur auf. Die Tastatur kann als virtuelle Tastatur beispielsweise anhand eines Touch-Pads ausgeführt werden. Das Touch-Pad kann auch mit einem Display versehen sein; diese Lösung ist als Touch-Screen bekannt. Die Benutzung einer virtuellen Tastatur wird dadurch erleichtert, dass man dem Benutzer taktiles Feedback über ihre Verwendung gibt. Wenn die Geräte kleiner ausgebildet werden, kann auch die Größe der virtuellen Tastatur verkleinert werden. Wenn der Benutzer auf Tastaturtasten drückt, kann er auch auf falsche Tasten drücken. Die kleine Tastengröße kann die Anzahl falscher Tastendrücke vermehren. Die Dimensionen von Händen von Benutzern sind unterschiedlich und auch die Weise, auf die man auf die Tasten drückt, variiert: einige benutzen den Daumen, die anderen den Zeigefinger. Somit ist das taktile Aussehen der Tastatur meistens immer ein Kompromiss; es eignet sich für einen Durchschnittsbenutzer sehr gut aber ist nicht nach den Bedürfnissen und Routinen eines einzelnen Benutzers entwickelt worden. Da die Anwendung von verschiedenen elektronischen Geräten mit Tastaturen die ganze Zeit üblicher wird, besteht ein großer Bedarf, die Ergonomie von Tastaturen zu verbessern.
- KURZE BESCHREIBUNG
- Der Erfindung liegt die Aufgabe zugrunde, ein verbessertes elektronisches Gerät und ein verbessertes Verfahren zur Steuerung der virtuellen Tastatur des elektronischen Geräts zustande zu bringen.
- Ein Aspekt der Erfindung bezieht sich auf ein elektronisches Gerät mit einem Touch-Pad, einer mit dem Touch-Pad über eine Datenübertragungsverbindung verbundenen Verarbeitungseinheit, welche Verarbeitungseinheit konfiguriert ist, eine virtuelle Tastatur auf dem Touch-Pad und ein taktiles Aussehen des Touch-Pads zu bestimmen, durch das Drücken einer Tastaturtaste produzierte Information zu empfangen und die gedrückte Taste auf grund der Information zu identifizieren, und einer mit der Verarbeitungseinheit über eine Datenübertragungsverbindung verbundenen Feedback-Einheit, welche Feedback-Einheit konfiguriert ist, taktiles Feedback über die Tastaturbenutzung für den Gerätbenutzer zu geben. Die Verarbeitungseinheit ist weiterhin konfiguriert, Information über Tastendrücke zu sammeln und sie zu analysieren sowie das taktile Aussehen der Tastatur aufgrund der gesammelten Information und der durchgeführten Analyse wieder zu bestimmen, um die Tastatur ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur leichter und/oder das Drücken einer falschen Taste weniger wahrscheinlich macht.
- Ein Aspekt der Erfindung bezieht sich auf ein Verfahren zur Steuerung der virtuellen Tastatur eines elektronischen Geräts, aufweisend: Bestimmen eines taktilen Aussehens der virtuellen Tastatur; Empfangen von durch das Drücken einer Tastaturtaste produzierter Information und Identifizieren der gedrückten Taste aufgrund der Information. Weiterhin umfasst das Verfahren: Sammeln von Information über die Tastendrücke und Durchführen einer Analyse darüber; und Wiederbestimmen des taktilen Aussehens der Tastatur aufgrund der gesammelten Information und der durchgeführten Analyse, um die Tastatur ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur leichter und/oder das Drücken einer falschen Taste weniger wahrscheinlich macht.
- Die bevorzugten Ausführungsformen der Erfindung bilden den Gegenstand der abhängigen Ansprüche.
- Der Erfindung liegt der Gedanke zugrunde, dass das elektronische Gerät automatisch analysiert, wie erfolgreich die Benutzung der Tastatur ist. Aufgrund der Analyse wird das taktile Aussehen der Tastatur besser auf die Bedürfnisse und Routinen des Benutzers abgestimmt.
- Das Gerät und das Verfahren der Erfindung weisen mehrere Vorteile auf. Es ist möglich, für jeden Benutzer eine persönliche Tastatur mit relativ wenigem Berechnen auszuführen. Insbesondere kann die Nutzbarkeit von kleinen Tastaturen verbessert werden. Das beschriebene Verfahren kann auch in der Produktentwicklungsphase ausgenutzt werden, wobei aufgrund der empirischen an den Benutzern durchgeführten Tests das taktile Aussehen der Tastatur möglichst ergonomisch für eine große Menge Menschen entwickelt werden kann.
- FIGURLISTE
- Im folgenden wird die Erfindung anhand von bevorzugten Ausführungsformen unter Bezugnahme auf die beigefügten Zeichnungen ausführlicher beschrieben, wobei
-
1A ,1B und1C eine Ausführung einer virtuellen Tastatur und Beispiele für das Aussehen eines elektronischen Geräts mit einer Tastatur illustrieren, -
2 ,3 ,4 und5 von der Anmelderin durchgeführte Tests illustrieren; -
6 ein vereinfachtes Blockdiagramm der Struktur eines elektronischen Geräts ist; -
7A und7B die Geräte gemäß1B und1C illustrieren, nachdem das taktile Aussehen ihrer Tastaturen ergonomischer gemacht worden sind; -
8 die Struktur einer Verarbeitungseinheit des elektronischen Geräts illustriert; -
9 einige Prinzipien illustriert, nach denen das taktile Aussehen der Tastatur wiederbestimmt werden kann; und -
10 ein Flussdiagramm ist, das ein Verfahren zur Steuerung der Tastatur des elektronischen Geräts illustriert. - BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
- Das elektronische Gerät kann zum Beispiel ein tragbares Gerät für allgegenwärtige Datenverarbeitung, wie ein Teilnehmerendgerät eines Funksystems, z.B. eines Mobilkommunikationssystems, ein PDA-Gerät (Personal Digital Assistant) oder ein anderes Gerät, z.B. ein elektronisches Messgerät mit der eine Tastatur aufweisenden Benutzerschnittstelle, sein. Das Gerät kann auch verschiedene Funktionen kombinieren, d.h. es kann zum Beispiel eine Kombination eines Teilnehmerendgeräts und eines PDA-Geräts sein. Ein Beispiel für ein solches kombiniertes Gerät ist Nokia® Communicator®.
- Das elektronische Gerät weist eine virtuelle Tastatur auf, die taktiles Feedback gibt und anhand der z.B. in
1A dargestellten Struktur gebildet werden kann. Der oberste Teil ist ein Touch-Pad106 , unter dem sich ein Display befinden kann, und der unterste Teil ist eine Feedback-Einheit108 , die taktiles Feedback gibt.US 5,977,867 , US 2003/0038776 und WO 03/038800, worauf hier Bezug genommen wird, beschreiben verschiedene Lösungen, um taktiles Feedback zu geben. Die beschriebenen Lösungen können gegebenenfalls in Verbindung mit der in1A beschriebenen Struktur angewandt werden. Das Touch-Pad106 kann durch Lösungen nach dem Stand der Technik ausgeführt werden, die auf kapazitiven oder Widerstandssensoren basieren können. Wenn der Benutzer beispielsweise mit seinem Finger das Touch-Pad106 berührt, können die berührte Stelle und gewöhnlich auch die Berührungskraft bestimmt werden. Das Display102 kann durch Lösungen nach dem Stand der Technik ausgeführt werden; falls das Display beispielsweise flach sein sollte, kann ein Flüssigkristalldisplay (LCD), ein Plasmadisplay oder ein Dünnfilmtransistordisplay (TFT) verwendet werden. Die taktiles Feedback gebende Feedback-Einheit108 kann durch Lösungen nach dem Stand der Technik, z.B. durch ein piezoelektrisches Element oder einen linearen Vibrator auf Solenoidbasis ausgeführt werden. Die Feedback-Einheit108 produziert eine mechanische Bewegung, die der Benutzer durch den Tastsinn spürt. Die Frequenz, Amplitude und Dauer der Bewegung können gesteuert werden. Die Bewegung kann als Jitter und Vibrationen wahrgenommen werden. Die Bewegung kann beispielsweise das durch einen Tastendruck produzierte Klicken simulieren. Im kompliziertesten Falle kann das taktile Feedback die Textur einer Oberfläche imitieren. Die Homepage einer piezoelektrische Elemente herstellenden Firma ist unter www.americanpiezo.com zu finden. Dieser Hersteller nennt diese piezoelektrischen Elemente "disc benders". -
1B und1C illustrieren eine Vorderansicht über das Aussehen des Geräts und eine Seitenansicht darüber, wie die in1A dargestellten Komponenten im Prinzip angeordnet sind. Im Beispiel gemäß1B ist das Gerät100 ein Teilnehmerendgerät eines Funksystems, das mit einem Display102 versehen ist. In1A ist das Display102 ein Touch-Screen, auf dem eine Tastatur104 ausgebildet ist. In unserem Beispiel umfasst die Tastatur zwölf Tasten, d.h. "1", "2", "3", "4", "5", "6", "7", "8", "9", "0", "*" und "#". Wie beschrieben wurde, ist das Display102 mit einem Touch-Pad106 und einer Feedback-Einheit102 versehen.1C illustriert ein Teilnehmerendgerät100 , das ein Display102 und ein Touch-Pad106 aufweist, auf dem eine virtuelle Tastatur ausgebildet ist. Wie beschrieben, kann das Bild104 der Tastatur, d.h. die Konturen einzelner Tasten, auf der Oberfläche des Touch-Pads106 während dessen Herstellung aufgedruckt werden, aber das ist nicht erforderlich. Wie beschrieben, kann das Display102 ein separater Teil sein, und das Touch-Pad106 und die Feedback-Einheit108 sind miteinander verbunden. - Als nächstes wird die Struktur des elektronischen Geräts unter Bezugnahme auf
6 beschrieben. Da wir ein Teilnehmerendgerät als Beispiel benutzen, weist das Gerät100 eine Antenne604 und einen Funksender-Empfänger602 auf. Der Funksender-Empfänger602 ist z.B. ein Sender-Empfänger einer Mobilstation nach dem Stand der Technik, der beispielsweise im GSM-System (Global System for Mobile Communications), GPRS-System (General Packet Radio Service) oder im UMTS-System (Universal Mobile Telecommunications System) funktioniert. Neben der oben erwähnten virtuellen Tastatur104 , dem Display102 , dem Touch-Pad106 und der Feedback-Einheit108 zur Ausführung der Benutzerschnittstelle umfasst ein typisches Gerät100 ein Mikrofon608 und einen Lautsprecher610 zur Tonverarbeitung. Eine wiederaufladbare Batterie606 funktioniert meistens als Stromquelle. - Das Gerät
100 weist auch eine Verarbeitungseinheit600 auf, die den Betrieb des Geräts und deren verschiedene Teile steuert und kontrolliert. Die Verarbeitungseinheit600 umfasst auch Anwenderprogramme des Geräts100 z.B. für Funksignalverarbeitung und Verwaltung von Benutzerschnittstellen. Heutzutage wird die Verarbeitungseinheit600 in der Regel als Prozessor mit dessen Software ausgeführt, aber auch verschiedene Hardwarelösungen, z.B. eine aus separaten Logikkomponenten bestehende Schaltung oder eine oder mehrere anwendungsspezifische integrierte Schaltungen (ASIC) sind möglich. Gegebenenfalls kann auch mehr als ein Prozessor vorhanden sein. Auch ist eine Hybride dieser Lösungen möglich. Beim Aussuchen des Implementierungsverfahrens berücksichtigt ein Fachmann natürlich die an die Größe und den Stromverbrauch des Geräts gestellten Forderungen, die erforderliche Verarbeitungsleistung, Herstellungskosten und Produktionsmengen. - Oben wurde ein elektronisches Gerät
100 mit einem Touch-Pad106 , einer mit dem Touch-Pad106 über eine Datenübertragungsverbindung verbundenen Verarbeitungseinheit600 und einer mit der Verarbeitungseinheit600 über eine Datenübertragungsverbindung verbundenen Feedback-Einheit612 beschrieben. Die Verarbeitungseinheit600 ist konfiguriert, eine virtuelle Tastatur104 für das Touch-Pad106 und ein taktiles Aussehen der Tastatur104 zu bestimmen. Die Feedback-Einheit612 ist konfiguriert, taktiles Feedback über die Benutzung der Tastatur104 für den Gerätbenutzer zu geben. - Zur Steuerung der Tastatur
104 ist die Verarbeitungseinheit600 konfiguriert, durch das Drücken der Taste einer Tastatur104 produzierte Information zu empfangen und die gedrückte Taste aufgrund der Information zu identifizieren. Das Touch-Pad106 gibt meistens Information über die Stelle, wo auf den Bildschirm gedrückt wurde, z.B. als X- und Y-Koordinaten, und auch über die Kraft, mit der auf die Taste gedrückt wurde. Auch andere Steuerdaten können vom Touch-Pad106 zur Verarbeitungseinheit600 übertragen werden. - Die Verarbeitungseinheit
600 ist weiterhin konfiguriert, die oben erwähnte Information über die Tastendrücke zu sammeln und sie zu analysieren. Die Analyse wird dafür benutzt, dass zumindest eins der folgenden Ergebnisse erreicht wird: Koordinaten eines akzeptierten Tastendrucks, Koordinaten eines abgelehnten Tastendrucks, Koordinaten eines korrigierten Tastendrucks, für aufeinanderfolgende Tastendrücke verwendete Zeit, Durchschnitt der Koordinaten der Drücke einer Taste, Varianz der Koordinaten der Drücke einer Taste, eine andere statistische, die Drücke einer Taste beschreibende Variable. Die Koordinaten können sich auf Koordinaten beziehen, die die gedrückte Stelle mit erwünschter Genauigkeit definieren, z.B. den Mittelpunkt eines Drucks oder den berührten Bereich, der durch die Grenzlinien eines Drucks definiert wird. Die statistische Variable bezieht sich auf andere mögliche Weisen, die Statistik für einen Tastendruck zu bestimmen, z.B. der Median oder die durchschnittliche Größe des berührten Bereichs, angegeben in Breite und Höhe oder in Radius. Der berührte Bereich kann auch als elliptischer Bereich bestimmt werden, wo der berührte Bereich durch den Mittelpunkt und die Hauptachsen der Ellipse definiert wird. Die Verarbeitungseinheit600 kann konfiguriert werden, einen Druck an der Grenze von zwei Tasten oder ausserhalb der Tastatur104 als abgelehnter Tastendruck zu identifizieren. Zudem kann die Verarbeitungseinheit600 konfiguriert werden, die folgende Sequenz als korrigierter Tastendruck zu identifizieren: der erste Tastendruck wird mit der Löschtaste gelöscht, worauf auf eine andere Taste gedrückt wird. - Aufgrund der gesammelten Information und der durchgeführten Analyse bestimmt die Verarbeitungseinheit
600 dann das taktile Aussehen der Tastatur104 wieder, um die Tastatur104 ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur104 leichter und/oder das Drücken einer falschen Taste weniger wahrscheinlich macht. Das taktile Aussehen der Tastatur104 beinhaltet zumindest eins der folgenden: Tastengröße, Tasten form und Tastenlage. Die Tastenform kann auch als Tastenposition bestimmt werden; falls die Taste beispielsweise als Ellipse ausgeführt wird, wird die Tastenposition als Hauptachsenrichtungen der Ellipse bestimmt. Somit kann die Tastenform durch die Drehung der die Form definierenden Ellipse eingestellt werden. Je nach den physikalischen Dimensionen des Geräts100 ist die Verarbeitungseinheit600 konfiguriert, Grenzen für das Aussehen der Tastatur104 zu bestimmen, die es nicht überschreiten kann. -
8 illustriert eine mögliche Struktur der Verarbeitungseinheit600 . Die zur Verarbeitungseinheit600 gehörenden Blöcke sind strukturelle Einheiten, die z.B. als Programmmodule, d.h. durch eine Programmiersprache, wie die C-Programmiersprache, die C++-Programmiersprache, die Computersprache oder durch einen Assemblierer ausgeführt werden können, die als ablauffähige Versionen in einem im Prozessor angeordneten Speicher gespeichert sind und mit dem Prozessor abgelaufen werden. Anstatt übersetzbarer Programmiersprachen können natürlich auch andere interpretierbare Programmiersprachen verwendet werden, vorausgesetzt, dass sie die erforderliche Verarbeitungsrate und -kapazität haben. Wenn die Verarbeitungseinheit600 als ASIC implementiert wird, sind die strukturellen Einheiten ASIC-Blöcke. Information wird vom Touch-Pad106 zur Verarbeitungseinheit600 übertragen. Falls die Information nicht in Form von X- und Y-Koordinaten ist, kann sie vom Block800 in diese Form umgewandelt werden. Block800 kann natürlich auch in Verbindung mit dem Touch-Pad106 angeordnet werden, z.B. in Verbindung mit dem Touch-Screen102 , wenn die Touch-Screen-Technik angewandt wird. Die verarbeitete Information, die z.B. als X- und Y-Koordinaten dargestellt wird, wird dann dem Block802 gespeist, wo die gedrückte Taste identifiziert wird. Die Information über die identifizierte Taste wird der Anwendung804 gespeist, die diese Information benötigt. Die Information über die identifizierte Taste wird auch dem Block806 gespeist, der Information sammelt und eine Analyse durchführt, aufgrund derer das taktile Aussehen der Tastatur104 geändert wird. Die Definitionen des neuen taktilen Aussehens der Tastatur104 werden dann vom Block806 zum Block808 gespeist, der die Bestimmung des Aussehens der Tastatur104 steuert. Der ganze Block808 oder ein Teil davon kann in Verbindung mit dem Touch-Pad106 angeordnet sein, z.B. in Verbindung mit dem Touch-Screen102 , wenn die Touch-Screen-Technologie angewandt wird. Wie aus8 ersichtlich, existiert eine Verbindung auch vom Block802 zum Block808 : taktiles Feedback über die Tastaturbenutzung wird von der Feed back-Einheit612 gegeben, die mit einer Verbindung zum Block808 versehen ist. - In einer Ausführungsform ist die Verarbeitungseinheit
600 konfiguriert, neben dem taktilen Aussehen der Tastatur104 ihr visuelles Aussehen zu bestimmen. In diesem Falle wird das visuelle Aussehen der Tastatur104 aufgrund der gesammelten Information und der durchgeführten Analyse wiederbestimmt, um die Tastatur104 ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur104 leichter und/oder das Drücken einer falschen Taste weniger wahrscheinlich macht. Die Bestimmung eines visuellen Aussehens wird in der finnischen Anmeldung 20021162 beschrieben, auf die hier Bezug genommen wird. Bei der in8 dargestellten Struktur kann das visuelle Aussehen im Block808 bestimmt werden, der mit einer Verbindung zum Display102 versehen ist. In einer Ausführungsform ist die Verarbeitungseinheit600 konfiguriert, das taktile Aussehen der Tastatur104 und das visuelle Aussehen der Tastatur104 so zu bestimmen, dass sie einander entsprechen. - Es gibt verschiedene Möglichkeiten, wie die Form einer einzelnen Taste geändert werden kann; die Tastenform wird beispielsweise in den Hauptrichtungen, d.h. in den X- und Y-Richtungen, geändert oder die Tastenform wird willkürlich geändert, was bedeutet, dass die Taste so gebildet ist, dass sie der Druckweise der Taste am besten entspricht, oder das vorbestimmte Aussehen der Taste (z.B. die vorläufige Form und Lage der Taste) adaptiv im Rahmen der festgesetzten Grenzen geändert wird. Die Verarbeitungseinheit
600 kann konfiguriert werden, den Mittelpunkt einer Taste nach dem Durchschnitt der Koordinaten von Tastendrücken zu verstellen. Die Verarbeitungseinheit kann konfiguriert werden, die Tastenform nach der Varianz der Koordinaten von Tastendrücken zu ändern. Einige Änderungsweisen der Tastenform werden nachfolgend ausführlicher behandelt, aber zumindest die folgenden Clusteringstechniken können angewandt werden, um die Tastenform zu ändern: Vektorquantisierung VQ und Erwartungsmaximierung EM. Auch andere geeignete adaptive und/oder optimierende Verfahren können für Änderung der Tastenform angewandt werden. - Im folgenden werden von der Anmelderin durchgeführte Tests an der neuen adaptiven Tastatur
104 unter Bezugnahme auf2 ,3 ,4 und5 beschrieben. Ein tragbarer Computer mit einem Touch-Screen wurde im Test verwendet. Eine in2 dargestellte Tastatur104 wurde sowohl auf der linken als auch auf der rechten Seite des Touch-Screens gebildet. Somit bestand das Aussehen der Tastatur aus nebeneinander liegenden rechteckigen Tasten: "1", "2", "3", "4", "5", "6", "7", "8" und "9". Die Tastatur104 auf der linken Seite des Touch-Screens wurde für die Simulation einer Situation verwendet, wo der Benutzer des Teilnehmerendgeräts100 auf die Tasten mit seinem linken Daumen drückt, und die Tastatur104 auf der rechten Seite wurde dementsprechend für die Simulation einer Situation verwendet, wo der Benutzer des Teilnehmerendgeräts100 auf die Tasten mit dem rechten Daumen drückt. - Jede Taste "1" bis "9" wurde gemäß
3 anhand des Mittelpunkts320 ,322 ,324 ,326 ,328 ,330 ,334 ,336 der Taste parametrisiert. Die Grenzlinien300 ,302 ,304 ,306 ,308 ,310 ,312 ,314 zwischen den Tasten wurden implizit anhand der aus Vektorquantisierung bekannten Voronoi-Gebiete der Mittelpunkte bestimmt. Zum Beispiel das Voronoi-Gebiet der Taste "1" ist das rechteckige Gebiet, das durch die Grenzlinien300 ,302 ,308 und319 definiert ist und näher am Mittelpunkt320 der Taste "1" ist als an irgendeinem anderen Mittelpunkt. Prinzipien von Vektorquantisierung und Berechnen von Voronoi-Gebieten sind in Allen Gersho & Robert M. Gray: Vector Quantization and Signal Compression, The Kluwer International Series in Engineering and Computer Science, 1992 beschrieben, worauf hier Bezug genommen wird. Neben den neun adaptiven Mittelpunkten320 ,322 ,324 ,326 ,328 ,330 ,332 ,334 ,336 der Tasten wurden sechzehn feste Mittelpunkte340 ,342 ,344 ,346 ,348 ,350 ,352 ,354 ,356 ,358 ,360 ,363 ,364 ,366 ,368 ,370 bestimmt. Diese wurden mit dem Wert "Null" oder mit dem Rand der Tastatur104 assoziiert. Die Voronoi-Gebiete dieser festen Mittelpunkte wurden als Gebiete ausserhalb des Randes der Tastatur104 bestimmt. - Danach fing der eigentliche Test an. Der Test wurde zuerst an der Tastatur
104 auf der linken Seite und dann an der Tastatur auf der rechten Seite durchgeführt. Eine aus vier zufälligen Nummern R1, R2, R3, R4 bestehende Sequenz wurde dem Benutzer (auf dem Touch-Screen) gezeigt. Die zufälligen Nummern wurden unter 1 bis 9 ausgewählt. Der Benutzer versuchte, diese Nummern anhand der zu testenden Tastatur104 mit seinem betreffenden Daumen einzugeben. Die Eingabe wurde also durch Drücken der betreffenden Taste der Tastatur104 , d.h. des Voronoi-Gebiets des mit der betroffenen Taste assoziierten Codebuchvektors durchgeführt. - Die reellen Koordinaten P1 = (x1, y1), P2 = (x2, y2), P3 = (x3, y3) und P4 = (x4, y4) jedes Tastendrucks wurden gespeichert. Jeder Druck Pi wurde mit dem Index (d.h. der Taste "1" bis "9") des Codebuchvektors C(1) bis C(9), der nächst am Druck war, assoziiert. Somit wurde eine Input-Sequenz von I1, I2, I3, I4 erhalten.
- Falls li dasselbe wie die Nummer Ri war, wurden die Koordinaten (xi, yi) des Drucks Pi in der Gruppe L(Ri) von akzeptierten Tastendrücken für die besagte Taste C(Ri) gespeichert. Falls li mit einer Taste assoziiert wurde, die anders war als die Nummer Ri, wurde sie abgelehnt.
- Nachdem eine adäquate Probe von Tastendrücken, z.B. ein Hundert aus vier Nummern bestehende Sequenzen, gesammelt worden war, wurden neue Codebuchvektoren C(1) bis C(9) für Tasten "1" bis "9" gerechnet. Der neue Codebuchvektor wurde als Durchschnitt der Koordinaten der betreffenden Taste in der Gruppe L(1) bis L(9) der Koordinaten der Drücke dieser Taste bestimmt. Danach wurde eine Tastatur
104 , deren Aussehen wiederbestimmt worden war, um sie ergonomischer für den Benutzer der Tastatur104 zu machen, dem Benutzer gezeigt. -
4 illustriert das Aussehen der für den linken Daumen wiederbestimmten Tastatur104 und5 illustriert das Aussehen der Tastatur104 , die für den rechten Daumen wiederbestimmt ist. In4 beschreibt der mit Strichlinien bezeichnete Bereich400 die Tatsache, dass Grenzen (z.B. die maximale Größe) für das Aussehen der Tastatur104 bestimmt werden können, die das Aussehen der Tastatur104 nicht überschreiten kann. Die Aussehen der Tastaturen104 sind einigermaßen symmetrisch zueinander und somit kann vermutet werden, dass es ergonomisch bestimmt worden ist, die Funktion der Daumen der Testperson zu unterstützen. Obwohl das visuelle Aussehen einer virtuellen Tastatur104 in den Tests bestimmt wurde, sind das beschriebene Verfahren und die Ergebnisse direkt anwendbar auf die Wiederbestimmung des taktilen Aussehens einer virtuellen Tastatur104 . -
7A und7B illustrieren, wie die Tastatur der in1B und1C dargestellten Teilnehmerendgeräte100 aussehen könnte, nachdem ihr taktiles Aussehen durch das vorliegende Verfahren ergonomischer gemacht worden ist. Das Aussehen von Tasten "*", "0" und "#" ist eine Schätzung, aber das Aussehen der anderen Tasten basiert auf dem oben beschriebenen Test. Falls das elektronische Gerät100 von mehr als einer Person verwendet wird, kann das Gerät eine Alternative für jede Person aufweisen. Somit kann das Gerät100 anhand des beschriebenen Verfahrens eine separate Tastatur104 für jeden Benutzer bestimmen, die sich am besten für seine Ergonomie eignet. Das vorliegende Verfahren kann auch in der Produktentwicklungsphase ange wandt werden, wobei das Aussehen der Tastatur104 aufgrund der oben beschriebenen Tests möglichst ergonomisch für viele Menschen entwickelt werden kann. - Es gibt mehrere Alternativen für das taktile Aussehen einer virtuellen Tastatur
104 . In einer Ausführungsform ist die Verarbeitungseinheit600 konfiguriert, das taktile Aussehen der Tastatur104 zu bestimmen, indem ein erstes taktiles Feedback über einen Tastendruck gegeben wird. Das erste taktile Feedback kann beispielsweise das durch das Drücken einer normalen elektromechanischen Taste produzierte Klicken imitieren. In einer Ausführungsform ist die Verarbeitungseinheit600 konfiguriert, mehrere erste taktile Feedbacks zu bestimmen, ein separates Feedback entweder für jede Taste oder für jede Tastengruppe. In einer Ausführungsform ist die Verarbeitungseinheit600 konfiguriert, das taktile Aussehen der Tastatur104 zu bestimmen, indem ein zweites taktiles Feedback über die Taste gegeben wird, wenn auf sie nicht gedrückt wird. Das zweite Feedback kann zum Beispiel schwache Vibration sein. In einer Ausführungsform ist die Verarbeitungseinheit600 konfiguriert, das taktile Aussehen der Tastatur104 zu bestimmen, indem ein drittes taktiles Feedback über einen Bereich gegeben wird, der ausserhalb der Tasten liegt aber zum taktilen Aussehen der Tastatur104 gehört. Wenn der Benutzer beispielsweise das in7 dargestellte Touch-Pad aber keine der zur virtuellen Tastatur104 gehörenden Tasten berührt, wird ein drittes Feedback gegeben. Am einfachsten kann das dritte taktile Feedback so bestimmt werden, dass es einer Situation entspricht, wo kein Feedback von der Feedback-Einheit612 gegeben wird. -
9 illustriert einige Prinzipien, nach denen das Aussehen der Tastatur104 wiederbestimmt werden kann. Auf der linken Seite der9 befinden sich vier Tasten900 ,904 ,908 ,912 . Die Punkte stellen die Koordinaten von Tastendrücken dar. Die Strichlinie bezeichnet die Lage und Größe von neuen Tasten902 ,906 ,910 ,914 . Wie ersichtlich, ist die Lage der Tasten so geändert worden, dass der Mittelpunkt der Taste dem Mittelpunkt der Drücke besser entspricht. Die Größe der Tasten ist mit Rücksicht auf die Varianz von Tastendrücken geändert worden. In diesem Beispiel ist eine Bedingung an das Aussehen der Tasten gestellt worden: die Taste muss ringförmig sein. Die Varianz der Drücke der oberen Tasten900 ,904 ist kleiner als die Varianz der Drücke der unteren Tasten908 ,912 , und somit ist die Größe der neuen oberen Tasten902 ,906 in Bezug auf ihre ursprüngliche Größe verkleinert worden, während die Größe der neuen unteren Tasten910 ,914 in Bezug auf ihre ursprüngliche Größe vergrößert worden ist. Die rechte Seite von9 illustriert eine Weise zur Ausführung von Vektorquantisierung, wobei mit Punkten bezeichnete Tastendrücke als Datencluster betrachtet werden. Das Aussehen der ursprünglichen, aus vier Rechtecken bestehenden Tastatur920 ist durch Vektorquantisierung in eine neuartige Tastatur922 umgewandelt worden, die aus vier Bereichen besteht, die nicht mehr Rechtecke sind. - Im folgenden wird ein Verfahren zur Steuerung der virtuellen Tastatur eines elektronischen Geräts unter Bezugnahme auf
10 beschrieben. Das Verfahren wird in1000 begonnen, z.B. wenn das Gerät eingeschaltet wird. Dann wird das taktile Aussehen der Tastatur in1002 bestimmt. Die oben in Zusammenhang mit dem Gerät beschriebenen Ausführungsformen können zur Bestimmung des taktilen Aussehens verwendet werden. Nachdem die Tastatur bestimmt worden ist, kann der Benutzer anfangen, sie zu benutzen. Wenn der Benutzer die Tastatur benutzt, wird durch das Drücken der Tastaturtasten produzierte Information in1004 empfangen, und in1006 wird die gedrückte Taste aufgrund der Information identifiziert. Danach wird bis zu1008 fortgesetzt, wo Information über die Benutzung der Tastatur gesammelt wird. Die Information enthält zumindest eins der folgenden: Tastendruckkoordinaten, Tastatursteuerdaten und Kraft des Tastendrucks. - Nach dem Verfahren wird das taktile Aussehen der virtuellen Tastatur nicht unbedingt kontinuierlich wiederbestimmt, sondern z.B. in bestimmten Abständen, wenn das Gerät einen neuen Benutzer erkennt oder wenn der Benutzer eine Wahl trifft, nach der das Gerät das Aussehen wiederbestimmt. Gemäß
1010 kann das Verfahren das Testen aufweisen, ob eine Bedingung zur Wiederbestimmung des taktilen Aussehens der Tastatur erfüllt wird. Falls die Bedingung in1010 nicht erfüllt wird, wird bis zu1004 , ansonsten bis zu1012 vorgerückt, wo die Tastendrücke analysiert werden. - Die Analyse wird verwendet, um zumindest eins der folgenden Ergebnisse zu erhalten: Koordinaten eines akzeptierten Tastendrucks, Koordinaten eines abgelehnten Tastendrucks, Koordinaten eines korrigierten Tastendrucks, für aufeinanderfolgende Tastendrücke verwendete Zeit, Durchschnitt der Koordinaten der Drücke einer Taste, Varianz der Koordinaten der Drücke einer Taste, eine andere statistische die Drücke einer Taste beschreibende Variable. Ein Tastendruck an der Grenze von zwei Tasten oder ein Tastendruck ausserhalb der Tastatur kann als abgelehnter Druck identifiziert werden.
- Eine Sequenz, wo der Druck der ersten Taste mit der Löschtaste gelöscht wird, worauf auf eine andere Taste gedrückt wird, kann als korrigierter Tastendruck identifiziert werden.
- Die Funktion von
1008 wird natürlich nicht durchgeführt, falls man das taktile Aussehen der Tastatur nicht wiederbestimmen will. Falls man jedoch das Aussehen bestimmen will, wird das taktile Aussehen der Tastatur in1014 aufgrund der gesammelten Information und der durchgeführten Analyse wiederbestimmt, um die Tastatur ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur leichter und das Drücken einer falschen Taste weniger wahrscheinlich macht. Das taktile Aussehen der Tastatur weist zumindest eins der folgenden auf: Tastengröße, Tastenform und Tastenlage. Grenzen, die das Aussehen der Tastatur nicht überschreiten darf, können definiert werden. Die Tastenform kann in den Hauptrichtungen auf oben beschriebene Weise geändert werden, die Tastenform kann willkürlich geändert werden, der Tastenmittelpunkt kann nach dem Durchschnitt der Koordinaten von Tastendrücken verstellt werden, die Tastenform kann nach der Varianz der Koordinaten von Tastendrücken geändert werden oder die Tastenform wird durch Vektorquantisierung, Erwartungsmaximierung oder Clustering geändert. Auch andere geeignete adaptive und/oder optimierende Verfahren können angewandt werden, um die Tastenform zu ändern. - Die Ausschaltung des Geräts kann in Block
1016 getestet werden. Falls das Gerät ausgeschaltet ist, wird bis zu1018 vorgerückt, wo die bestimmte Tastatur für den betreffenden Benutzer gespeichert werden kann, wobei das Verfahren zu Ende kommt. Falls das Gerät nicht ausgeschaltet wird, wird von1018 bis zu1004 vorgerückt. Natürlich kann1016 auch an anderen Stellen der Verfahrenssequenz vorhanden sein. In einer Ausführungsform des Verfahrens wird die oben beschriebene Bestimmung des visuellen Aussehens der Tastatur angewandt. Ein oben beschriebenes Gerät100 eignet sich für die Durchführung des Verfahrens, aber auch andere Geräte, in denen die Tastaturform geändert werden kann, sind anwendbar. - Obwohl die Erfindung unter Bezugnahme auf ein Beispiel gemäß den beigefügten Zeichnungen beschrieben wurde, ist es klar, dass die Erfindung nicht darauf beschränkt wird, sondern im Rahmen der in den beigefügten Ansprüchen vorgeführten erfinderischen Idee vielfach variiert werden kann.
- (57) Zusammenfassung
- Die Erfindung bezieht sich auf ein elektronisches Gerät und auf ein Verfahren zur Steuerung einer virtuellen Tastatur des elektronischen Geräts. Das Gerät umfasst ein Touch-Pad (
106 ), eine Verarbeitungseinheit (600 ) und eine Feedback-Einheit (612 ), die eine taktile Feedback-Einheit (612 ) für den Benutzer gibt. Die Verarbeitungseinheit (600 ) ist konfiguriert, eine virtuelle Tastatur (104 ) für das Touch-Pad (106 ) und ein taktiles Aussehen der Tastatur (104 ) zu bestimmen, durch das Drücken einer Taste der Tastatur (104 ) produzierte Information zu empfangen und die gedrückte Taste aufgrund der Information zu identifizieren. Die Verarbeitungseinheit (600 ) ist weiterhin konfiguriert, Information über die Tastendrücke zu sammeln und sie zu analysieren sowie das taktile Aussehen der Tastatur (104 ) aufgrund der gesammelten Information und der durchgeführten Analyse wieder zu bestimmen, um die Tastatur ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur (104 ) leichter und/oder das Drücken einer falschen Taste weniger wahrscheinlich macht. - (
7A )
Claims (36)
- Elektronisches Gerät mit einem Touch-Pad (
106 ), einer mit dem Touch-Pad (106 ) über eine Datenübertragungsverbindung verbundenen Verarbeitungseinheit (600 ), welche Verarbeitungseinheit (600 ) konfiguriert ist, eine virtuelle Tastatur (104 ) für das Touch-Pad (106 ) und ein taktiles Aussehen der Tastatur (104 ) zu bestimmen, durch das Drücken einer Taste der Tastatur (104 ) produzierte Information zu empfangen und die gedrückte Taste aufgrund der Information zu identifizieren, und einer mit der Verarbeitungseinheit (600 ) über eine Datenübertragungsverbindung verbundenen Feedback-Einheit (612 ), welche Feedback-Einheit (612 ) konfiguriert ist, taktiles Feedback über die Benutzung der Tastatur (104 ) für den Gerätbenutzer zu geben,dadurch gekennzeichnet , dass die Verarbeitungseinheit (600 ) weiterhin konfiguriert ist, Information über die Tastendrücke zu sammeln und sie zu analysieren sowie das taktile Aussehen der Tastatur (104 ) aufgrund der gesammelten Information und der durchgeführten Analyse wieder zu bestimmen, um die Tastatur ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur (104 ) leichter und/oder das Drücken einer falschen Taste weniger wahrscheinlich macht. - Gerät nach Anspruch 1, dadurch gekennzeichnet, dass die Information zumindest eins der folgenden enthält: Tastendruckkoordinaten, Tastatursteuerdaten und Kraft des Tastendrucks.
- Gerät nach Anspruch 1, dadurch gekennzeichnet, dass die Analyse dafür benutzt wird, dass zumindest eins der folgenden Ergebnisse erreicht wird: Koordinaten eines akzeptablen Tastendrucks, Koordinaten eines abgelehnten Tastendrucks, Koordinaten eines korrigierten Tastendrucks, für aufeinanderfolgende Tastendrücke verwendete Zeit, Durchschnitt der Koordinaten der Drücke einer Taste, Varianz der Drücke einer Taste, eine andere statistische, die Drücke einer Taste beschreibende Variable.
- Gerät nach Anspruch 3, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, einen Druck an der Grenze von zwei Tasten oder ausserhalb der Tastatur als abgelehnter Tastendruck zu identifizieren.
- Gerät nach Anspruch 3, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, die folgende Sequenz als korrigierter Tastendruck zu identifizieren: der erste Tastendruck wird mit der Löschtaste gelöscht, worauf auf eine andere Taste gedrückt wird.
- Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das taktile Aussehen der Tastatur zumindest eins der folgenden beinhaltet: Tastengröße, Tastenform und Tastenlage.
- Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, Grenzen für das taktile Aussehen der Tastatur zu bestimmen, die das taktile Aussehen der Tastatur nicht überschreiten kann.
- Gerät nach Anspruch 6, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, die Tastenform in den Hauptrichtungen zu ändern.
- Gerät nach Anspruch 6, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, die Tastenform willkürlich zu ändern.
- Gerät nach Anspruch 6, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, den Tastenmittelpunkt nach dem Durchschnitt der Koordinaten von Tastendrücken zu verstellen.
- Gerät nach Anspruch 6, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, die Tastenform nach der Varianz der Koordinaten von Tastendrücken zu ändern.
- Gerät nach Anspruch 6, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, die Tastenform durch Vektorquantisierung, Erwartungsmaximierung, Clustering oder ein anderes geeignetes adaptives und/oder optimierendes Verfahren zu ändern.
- Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, das taktile Aussehen der Tastatur zu bestimmen, indem ein erstes taktiles Feedback über einen Tastendruck gegeben wird.
- Gerät nach Anspruch 13, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, mehrere erste taktile Feedbacks zu bestimmen, ein separates Feedback entweder für jede Taste oder für jede Tastengruppe.
- Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, das taktile Aussehen der Tastatur zu bestimmen, indem ein zweites taktiles Feedback über die Taste gegeben wird, wenn auf sie nicht gedrückt wird.
- Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, das taktile Aussehen der Tastatur zu bestimmen, indem ein drittes taktiles Feedback über einen Bereich gegeben wird, der ausserhalb der Tasten liegt aber zum taktilen Aussehen der Tastatur gehört.
- Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, aufgrund der gesammelten Information und der durchgeführten Analyse das visuelle Aussehen der Tastatur zu bestimmen und wieder zu bestimmen, um die Tastatur ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur leichter und/oder das Drücken einer falschen Taste weniger wahrscheinlich macht.
- Gerät nach Anspruch 17, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, das taktile Aussehen der Tastatur und das visuelle Aussehen der Tastatur so zu bestimmen, dass sie einander entsprechen.
- Verfahren zur Steuerung einer virtuellen Tastatur eines elektronischen Geräts, aufweisend: Bestimmen (
1002 ) eines taktilen Aussehens der virtuellen Tastatur; und Empfangen (1004 ) von durch das Drücken einer Tastaturtaste produzierter Information und Identifizieren (1006 ) der gedrückten Taste aufgrund der Information; dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Sammeln (1008 ) von Information über die Tastendrücke und Durchführen (1012 ) einer Analyse darüber; und Wiederbestimmen (1014 ) des taktilen Aussehens der Tastatur aufgrund der gesammelten Information und der durchgeführten Analyse, um die Tastatur ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur leichter und/oder das Drücken einer falschen Taste weniger wahrscheinlich macht. - Verfahren nach Anspruch 19, dadurch gekennzeichnet, dass die Information zumindest eins der folgenden enthält: Tastendruckkoordinaten, Tastatursteuerdaten und Kraft des Tastendrucks.
- Verfahren nach dem vorhergehenden Anspruch 19 oder 20, dadurch gekennzeichnet, dass die Analyse dafür benutzt wird, dass zumindest eins der folgenden Ergebnisse erreicht wird: Koordinaten eines akzeptierten Tastendrucks, Koordinaten eines abgelehnten Tastendrucks, Koordinaten eines korrigierten Tastendrucks, für aufeinanderfolgende Tastendrücke verwendete Zeit, Durchschnitt der Koordinaten der Drücke einer Taste, Varianz der Drücke einer Taste, eine andere statistische, die Drücke einer Taste beschreibende Variable.
- Verfahren nach Anspruch 21, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Identifizieren eines Drucks an der Grenze von zwei Tasten oder ausserhalb der Tastatur als abgelehnter Tastendruck.
- Verfahren nach Anspruch 21, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Identifizieren der folgenden Sequenz als korrigierter Tastendruck: der erste Tastendruck wird mit der Löschtaste gelöscht, worauf auf eine andere Taste gedrückt wird.
- Verfahren nach einem der Ansprüche 19 bis 23, dadurch gekennzeichnet, dass das taktile Aussehen der Tastatur zumindest eins der folgenden beinhaltet: Tastengröße, Tastenform und Tastenlage.
- Verfahren nach einem der Ansprüche 19 bis 24, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Bestimmen von Grenzen für das Aussehen der Tastatur, die das Aussehen der Tastatur nicht überschreiten kann.
- Verfahren nach Anspruch 24, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Ändern der Tastenform in den Hauptrichtungen.
- Verfahren nach Anspruch 24, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: willkürliches Ändern der Tastenform.
- Verfahren nach Anspruch 24, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Verstellen des Tastenmittelpunkts nach dem Durchschnitt der Koordinaten von Tastendrücken.
- Verfahren nach Anspruch 24, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Ändern der Tastenform nach der Varianz der Koordinaten von Tastendrücken.
- Verfahren nach Anspruch 24, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Ändern der Tastenform durch Vektor quantisierung, Erwartungsmaximierung, Clustering oder ein anderes geeignetes adaptives und/oder optimierendes Verfahren.
- Verfahren nach einem der vorhergehenden Ansprüche 19 bis 30, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Bestimmen des taktilen Aussehens der Tastatur, indem ein erstes taktiles Feedback über einen Tastendruck gegeben wird.
- Gerät nach Anspruch 31, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Bestimmen von mehreren ersten Feedbacks, ein separates Feedback entweder für jede Taste oder für jede Tastengruppe.
- Verfahren nach einem der vorhergehenden Ansprüche 19 bis 32, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Bestimmen des taktilen Aussehens der Tastatur, indem ein zweites taktiles Feedback über die Taste gegeben wird, wenn auf sie nicht gedrückt wird.
- Verfahren nach einem der vorhergehenden Ansprüche 19 bis 33, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Bestimmen des taktilen Aussehens der Tastatur, indem ein drittes taktiles Feedback über einen Bereich gegeben wird, der ausserhalb der Tasten liegt aber zum taktilen Aussehen der Tastatur gehört.
- Verfahren nach einem der vorhergehenden Ansprüche 19 bis 34, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Bestimmen des visuellen Aussehens der Tastatur und Wiederbestimmen des visuellen Aussehens der Tastatur aufgrund der gesammelten Information und der durchgeführten Analyse, um die Tastatur ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur leichter und/oder das Drücken einer falschen Taste weniger wahrscheinlich macht.
- Verfahren nach Anspruch 35, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Bestimmen des taktilen Aussehens der Tastatur und des visuellen Aussehens der Tastatur so, dass sie einander entsprechen.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FI20021162A FI20021162A0 (fi) | 2002-06-14 | 2002-06-14 | Elektroninen laite ja menetelmä sen näppäimistön hallintaan |
FI20021162 | 2002-06-14 | ||
PCT/FI2003/000470 WO2003107168A1 (en) | 2002-06-14 | 2003-06-12 | Electronic device and method of managing its keyboard |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10392817T5 true DE10392817T5 (de) | 2005-06-02 |
Family
ID=8564160
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10392817T Withdrawn DE10392817T5 (de) | 2002-06-14 | 2003-06-12 | Elektronisches Gerät und Verfahren zur Steuerung seiner Tastatur |
Country Status (7)
Country | Link |
---|---|
US (2) | US7170428B2 (de) |
JP (2) | JP4847010B2 (de) |
AU (1) | AU2003232279A1 (de) |
DE (1) | DE10392817T5 (de) |
FI (1) | FI20021162A0 (de) |
GB (1) | GB2405687B (de) |
WO (1) | WO2003107168A1 (de) |
Families Citing this family (152)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7614008B2 (en) | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
US20060033724A1 (en) * | 2004-07-30 | 2006-02-16 | Apple Computer, Inc. | Virtual input device placement on a touch screen user interface |
US9292111B2 (en) | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
US9239673B2 (en) | 1998-01-26 | 2016-01-19 | Apple Inc. | Gesturing with a multipoint sensing device |
US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US7333092B2 (en) | 2002-02-25 | 2008-02-19 | Apple Computer, Inc. | Touch pad for handheld device |
US8381135B2 (en) | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
JP2006079136A (ja) * | 2004-09-06 | 2006-03-23 | Fujitsu Component Ltd | 触覚提示装置 |
US7382357B2 (en) * | 2005-04-25 | 2008-06-03 | Avago Technologies Ecbu Ip Pte Ltd | User interface incorporating emulated hard keys |
US20070013662A1 (en) * | 2005-07-13 | 2007-01-18 | Fauth Richard M | Multi-configurable tactile touch-screen keyboard and associated methods |
EP1752860B1 (de) * | 2005-08-12 | 2015-03-18 | LG Electronics Inc. | Mobiles Endgerät mit berührungsempfindlichem Bildschirm mit haptischer Rückmeldung und entsprechendes Verfahren |
US9244602B2 (en) * | 2005-08-24 | 2016-01-26 | Lg Electronics Inc. | Mobile communications terminal having a touch input unit and controlling method thereof |
US20080098331A1 (en) * | 2005-09-16 | 2008-04-24 | Gregory Novick | Portable Multifunction Device with Soft Keyboards |
US7694231B2 (en) * | 2006-01-05 | 2010-04-06 | Apple Inc. | Keyboards for portable electronic devices |
US20070152980A1 (en) * | 2006-01-05 | 2007-07-05 | Kenneth Kocienda | Touch Screen Keyboards for Portable Electronic Devices |
US20070152983A1 (en) * | 2005-12-30 | 2007-07-05 | Apple Computer, Inc. | Touch pad with symbols based on mode |
US7509588B2 (en) * | 2005-12-30 | 2009-03-24 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
US7860536B2 (en) * | 2006-01-05 | 2010-12-28 | Apple Inc. | Telephone interface for a portable communication device |
US8918736B2 (en) * | 2006-01-05 | 2014-12-23 | Apple Inc. | Replay recommendations in a text entry interface |
US7574672B2 (en) * | 2006-01-05 | 2009-08-11 | Apple Inc. | Text entry interface for a portable communication device |
JP4628295B2 (ja) * | 2006-03-30 | 2011-02-09 | 京セラ株式会社 | 携帯端末装置における操作キー群のレイアウト方法および携帯端末装置 |
US20080046496A1 (en) * | 2006-05-18 | 2008-02-21 | Arthur Kater | Multi-functional keyboard on touch screen |
US20070271520A1 (en) * | 2006-05-19 | 2007-11-22 | Sun Microsystems, Inc. | Method for transforming a graphical user interface |
US8022935B2 (en) | 2006-07-06 | 2011-09-20 | Apple Inc. | Capacitance sensing electrode with integrated I/O mechanism |
US10313505B2 (en) | 2006-09-06 | 2019-06-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for configuring and displaying widgets |
US7940250B2 (en) | 2006-09-06 | 2011-05-10 | Apple Inc. | Web-clip widgets on a portable multifunction device |
US8564544B2 (en) | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
CN101523332B (zh) * | 2006-09-28 | 2012-10-24 | 京瓷株式会社 | 便携式终端设备中操作键组的布局方法及实现该布局方法的便携式终端设备 |
US8274479B2 (en) | 2006-10-11 | 2012-09-25 | Apple Inc. | Gimballed scroll wheel |
US7667148B2 (en) * | 2006-10-13 | 2010-02-23 | Apple Inc. | Method, device, and graphical user interface for dialing with a click wheel |
JP4863211B2 (ja) * | 2006-12-15 | 2012-01-25 | 株式会社日立ソリューションズ | 文字データ入力装置 |
US8074172B2 (en) | 2007-01-05 | 2011-12-06 | Apple Inc. | Method, system, and graphical user interface for providing word recommendations |
US8519964B2 (en) | 2007-01-07 | 2013-08-27 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
US8788954B2 (en) | 2007-01-07 | 2014-07-22 | Apple Inc. | Web-clip widgets on a portable multifunction device |
EP2135154B1 (de) * | 2007-04-12 | 2017-10-25 | Nokia Technologies Oy | Tastenfeld |
US20080280657A1 (en) * | 2007-05-09 | 2008-11-13 | Nokia Corporation | Seal and actuator assembly |
US20080303793A1 (en) * | 2007-06-05 | 2008-12-11 | Microsoft Corporation | On-screen keyboard |
US9772751B2 (en) | 2007-06-29 | 2017-09-26 | Apple Inc. | Using gestures to slide between user interfaces |
US8619038B2 (en) | 2007-09-04 | 2013-12-31 | Apple Inc. | Editing interface |
US9619143B2 (en) | 2008-01-06 | 2017-04-11 | Apple Inc. | Device, method, and graphical user interface for viewing application launch icons |
US11126321B2 (en) | 2007-09-04 | 2021-09-21 | Apple Inc. | Application menu user interface |
JP4958979B2 (ja) * | 2007-12-27 | 2012-06-20 | パイオニア株式会社 | 記録媒体再生装置、記録媒体再生方法、記録媒体再生プログラムおよび記録媒体再生プログラムを格納した記録媒体 |
US8138896B2 (en) * | 2007-12-31 | 2012-03-20 | Apple Inc. | Tactile feedback in an electronic device |
US8456438B2 (en) | 2008-01-04 | 2013-06-04 | Tactus Technology, Inc. | User interface system |
US8570295B2 (en) | 2008-01-04 | 2013-10-29 | Tactus Technology, Inc. | User interface system |
US8922503B2 (en) | 2008-01-04 | 2014-12-30 | Tactus Technology, Inc. | User interface system |
US9274612B2 (en) | 2008-01-04 | 2016-03-01 | Tactus Technology, Inc. | User interface system |
US9128525B2 (en) | 2008-01-04 | 2015-09-08 | Tactus Technology, Inc. | Dynamic tactile interface |
US8928621B2 (en) | 2008-01-04 | 2015-01-06 | Tactus Technology, Inc. | User interface system and method |
US8947383B2 (en) | 2008-01-04 | 2015-02-03 | Tactus Technology, Inc. | User interface system and method |
US8547339B2 (en) | 2008-01-04 | 2013-10-01 | Tactus Technology, Inc. | System and methods for raised touch screens |
US9588683B2 (en) | 2008-01-04 | 2017-03-07 | Tactus Technology, Inc. | Dynamic tactile interface |
US8553005B2 (en) | 2008-01-04 | 2013-10-08 | Tactus Technology, Inc. | User interface system |
US9612659B2 (en) | 2008-01-04 | 2017-04-04 | Tactus Technology, Inc. | User interface system |
US9063627B2 (en) | 2008-01-04 | 2015-06-23 | Tactus Technology, Inc. | User interface and methods |
US9367132B2 (en) | 2008-01-04 | 2016-06-14 | Tactus Technology, Inc. | User interface system |
US9557915B2 (en) | 2008-01-04 | 2017-01-31 | Tactus Technology, Inc. | Dynamic tactile interface |
US9430074B2 (en) | 2008-01-04 | 2016-08-30 | Tactus Technology, Inc. | Dynamic tactile interface |
US8922510B2 (en) | 2008-01-04 | 2014-12-30 | Tactus Technology, Inc. | User interface system |
US8154527B2 (en) | 2008-01-04 | 2012-04-10 | Tactus Technology | User interface system |
US9298261B2 (en) | 2008-01-04 | 2016-03-29 | Tactus Technology, Inc. | Method for actuating a tactile interface layer |
US9052790B2 (en) | 2008-01-04 | 2015-06-09 | Tactus Technology, Inc. | User interface and methods |
RU2010132306A (ru) * | 2008-01-04 | 2012-02-10 | Эрговеркс, Ллс (Us) | Виртуальная клавиатура и экранная клавиатура |
US9720501B2 (en) | 2008-01-04 | 2017-08-01 | Tactus Technology, Inc. | Dynamic tactile interface |
US9552065B2 (en) | 2008-01-04 | 2017-01-24 | Tactus Technology, Inc. | Dynamic tactile interface |
US9423875B2 (en) | 2008-01-04 | 2016-08-23 | Tactus Technology, Inc. | Dynamic tactile interface with exhibiting optical dispersion characteristics |
US20160187981A1 (en) | 2008-01-04 | 2016-06-30 | Tactus Technology, Inc. | Manual fluid actuator |
US8243038B2 (en) | 2009-07-03 | 2012-08-14 | Tactus Technologies | Method for adjusting the user interface of a device |
US8232973B2 (en) | 2008-01-09 | 2012-07-31 | Apple Inc. | Method, device, and graphical user interface providing word recommendations for text input |
US20090181724A1 (en) | 2008-01-14 | 2009-07-16 | Sony Ericsson Mobile Communications Ab | Touch sensitive display with ultrasonic vibrations for tactile feedback |
US9176665B2 (en) * | 2008-01-30 | 2015-11-03 | Hewlett-Packard Development Company, L.P. | Flexible user input device system |
US20090231282A1 (en) * | 2008-03-14 | 2009-09-17 | Steven Fyke | Character selection on a device using offset contact-zone |
US8358277B2 (en) * | 2008-03-18 | 2013-01-22 | Microsoft Corporation | Virtual keyboard based activation and dismissal |
US8570279B2 (en) | 2008-06-27 | 2013-10-29 | Apple Inc. | Touch screen device, method, and graphical user interface for inserting a character from an alternate keyboard |
KR101020045B1 (ko) * | 2008-08-29 | 2011-03-09 | 삼성전자주식회사 | 키 캡 없는 자판의 키 영역 조절 장치 및 방법 |
CA2734463A1 (en) | 2008-09-11 | 2010-03-18 | Thomson Licensing | Touch panel device having inclined finger tip detection regions |
US10289199B2 (en) * | 2008-09-29 | 2019-05-14 | Apple Inc. | Haptic feedback system |
US10402087B2 (en) * | 2008-09-29 | 2019-09-03 | Intel Corporation | Adaptive keyboard for ultra-mobile devices |
US8584031B2 (en) | 2008-11-19 | 2013-11-12 | Apple Inc. | Portable touch screen device, method, and graphical user interface for using emoji characters |
US9600070B2 (en) | 2008-12-22 | 2017-03-21 | Apple Inc. | User interface having changeable topography |
US9588684B2 (en) | 2009-01-05 | 2017-03-07 | Tactus Technology, Inc. | Tactile interface for a computing device |
EP2414010B1 (de) * | 2009-03-31 | 2019-02-20 | Sanofi-Aventis Deutschland GmbH | Arzneimittelabgabevorrichtung |
TWI490736B (zh) * | 2009-04-30 | 2015-07-01 | Asustek Comp Inc | 顯示裝置與反應裝置 |
US10705692B2 (en) * | 2009-05-21 | 2020-07-07 | Sony Interactive Entertainment Inc. | Continuous and dynamic scene decomposition for user interface |
JP5301361B2 (ja) * | 2009-06-01 | 2013-09-25 | 株式会社エヌ・ティ・ティ・ドコモ | 情報処理装置、通信システム及び情報処理方法 |
CN102483675B (zh) | 2009-07-03 | 2015-09-09 | 泰克图斯科技公司 | 用户界面增强系统 |
US9122393B2 (en) * | 2009-09-30 | 2015-09-01 | At&T Mobility Ii Llc | Predictive sensitized keypad |
US8812972B2 (en) * | 2009-09-30 | 2014-08-19 | At&T Intellectual Property I, L.P. | Dynamic generation of soft keyboards for mobile devices |
KR101115467B1 (ko) * | 2009-09-30 | 2012-02-24 | 주식회사 팬택 | 가상 키보드 제공 단말 및 그 방법 |
US8810516B2 (en) | 2009-09-30 | 2014-08-19 | At&T Mobility Ii Llc | Angular sensitized keypad |
US20110074692A1 (en) * | 2009-09-30 | 2011-03-31 | At&T Mobility Ii Llc | Devices and Methods for Conforming a Virtual Keyboard |
US9128610B2 (en) * | 2009-09-30 | 2015-09-08 | At&T Mobility Ii Llc | Virtual predictive keypad |
US8816965B2 (en) * | 2009-09-30 | 2014-08-26 | At&T Mobility Ii Llc | Predictive force sensitive keypad |
CA2717396C (en) | 2009-10-13 | 2015-11-24 | Research In Motion Limited | Mobile wireless device with integrated antenna and audio transducer assembly and related methods |
EP2312690B1 (de) | 2009-10-13 | 2020-12-02 | BlackBerry Limited | Drahtlose mobile Vorrichtung mit Antenne mit mehreren Einspeisungspunkten und Audiowandler und zugehörige Verfahren |
US8627224B2 (en) * | 2009-10-27 | 2014-01-07 | Qualcomm Incorporated | Touch screen keypad layout |
US20110109560A1 (en) | 2009-11-06 | 2011-05-12 | Santiago Carvajal | Audio/Visual Device Touch-Based User Interface |
US8669949B2 (en) * | 2009-11-06 | 2014-03-11 | Bose Corporation | Touch-based user interface touch sensor power |
US8692815B2 (en) * | 2009-11-06 | 2014-04-08 | Bose Corporation | Touch-based user interface user selection accuracy enhancement |
US8638306B2 (en) * | 2009-11-06 | 2014-01-28 | Bose Corporation | Touch-based user interface corner conductive pad |
US20110113371A1 (en) * | 2009-11-06 | 2011-05-12 | Robert Preston Parker | Touch-Based User Interface User Error Handling |
US9201584B2 (en) | 2009-11-06 | 2015-12-01 | Bose Corporation | Audio/visual device user interface with tactile feedback |
US8350820B2 (en) * | 2009-11-06 | 2013-01-08 | Bose Corporation | Touch-based user interface user operation accuracy enhancement |
US8686957B2 (en) * | 2009-11-06 | 2014-04-01 | Bose Corporation | Touch-based user interface conductive rings |
US8581850B2 (en) * | 2009-11-19 | 2013-11-12 | Blackberry Limited | Adaptive keyboard with physical feedback |
WO2011087816A1 (en) | 2009-12-21 | 2011-07-21 | Tactus Technology | User interface system |
US9239623B2 (en) | 2010-01-05 | 2016-01-19 | Tactus Technology, Inc. | Dynamic tactile interface |
US8806362B2 (en) * | 2010-01-06 | 2014-08-12 | Apple Inc. | Device, method, and graphical user interface for accessing alternate keys |
JP2011150489A (ja) * | 2010-01-20 | 2011-08-04 | Sony Corp | 情報処理装置及びプログラム |
US8619035B2 (en) * | 2010-02-10 | 2013-12-31 | Tactus Technology, Inc. | Method for assisting user input to a device |
US8644894B2 (en) | 2010-03-12 | 2014-02-04 | Blackberry Limited | Mobile wireless device with multi-band antenna and related methods |
DE102011006344B4 (de) | 2010-03-31 | 2020-03-12 | Joyson Safety Systems Acquisition Llc | Insassenmesssystem |
US9007190B2 (en) | 2010-03-31 | 2015-04-14 | Tk Holdings Inc. | Steering wheel sensors |
JP5759230B2 (ja) | 2010-04-02 | 2015-08-05 | ティーケー ホールディングス,インコーポレーテッド | 手センサを有するステアリング・ホイール |
WO2011133604A1 (en) | 2010-04-19 | 2011-10-27 | Tactus Technology | User interface system |
WO2011133605A1 (en) | 2010-04-19 | 2011-10-27 | Tactus Technology | Method of actuating a tactile interface layer |
JP5550435B2 (ja) * | 2010-04-26 | 2014-07-16 | アルパイン株式会社 | 入力補助機能付タッチセンサー |
FR2961610B1 (fr) * | 2010-06-18 | 2013-01-18 | Thales Sa | Dispositif d'interaction haptique asservi a l'effort |
US8508481B1 (en) * | 2010-07-01 | 2013-08-13 | Sprint Communications Company L.P. | Adaptive touch keyboard |
WO2012054780A1 (en) | 2010-10-20 | 2012-04-26 | Tactus Technology | User interface system |
US20120249427A1 (en) * | 2011-03-28 | 2012-10-04 | Infanti James C | Portable electronic device with a display and a feedback module |
US9636582B2 (en) | 2011-04-18 | 2017-05-02 | Microsoft Technology Licensing, Llc | Text entry by training touch models |
EP2717126B1 (de) | 2011-05-23 | 2019-05-22 | Huawei Device Co., Ltd. | Eingabeverfahren, eingabevorrichtung und endgerät |
JP5265819B2 (ja) * | 2011-06-07 | 2013-08-14 | パナソニック株式会社 | 電子機器 |
JP5790203B2 (ja) * | 2011-06-29 | 2015-10-07 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、および遠隔操作システム |
US20130044063A1 (en) * | 2011-08-19 | 2013-02-21 | Apple Inc. | Touch correcting keypad |
US8963561B2 (en) * | 2011-11-03 | 2015-02-24 | Atmel Corporation | Randomizing one or more micro-features of a touch sensor |
CH705918A2 (de) * | 2011-12-19 | 2013-06-28 | Ralf Trachte | Feld-Analysen für flexible Computer-Eingabe. |
WO2013154720A1 (en) | 2012-04-13 | 2013-10-17 | Tk Holdings Inc. | Pressure sensor including a pressure sensitive material for use with control systems and methods of using the same |
JP5910345B2 (ja) * | 2012-06-21 | 2016-04-27 | 富士通株式会社 | 文字入力プログラム、情報処理装置および文字入力方法 |
US9836213B2 (en) | 2012-07-27 | 2017-12-05 | Symbol Technologies, Llc | Enhanced user interface for pressure sensitive touch screen |
GB2505413A (en) * | 2012-08-28 | 2014-03-05 | Ge Aviat Systems Ltd | An input device with a touch screen, track ball and palm rest |
WO2014043664A1 (en) | 2012-09-17 | 2014-03-20 | Tk Holdings Inc. | Single layer force sensor |
CN104662497A (zh) | 2012-09-24 | 2015-05-27 | 泰克图斯科技公司 | 动态触觉界面和方法 |
US9405417B2 (en) | 2012-09-24 | 2016-08-02 | Tactus Technology, Inc. | Dynamic tactile interface and methods |
US9304683B2 (en) | 2012-10-10 | 2016-04-05 | Microsoft Technology Licensing, Llc | Arced or slanted soft input panels |
JP6135242B2 (ja) * | 2013-03-28 | 2017-05-31 | 富士通株式会社 | 端末装置、キー入力方法及びキー入力プログラム |
US9268485B2 (en) | 2013-04-30 | 2016-02-23 | Microth, Inc. | Lattice keyboards with related devices |
JP2014235612A (ja) | 2013-06-03 | 2014-12-15 | 富士通株式会社 | 端末装置、補正方法および補正プログラム |
US9557813B2 (en) | 2013-06-28 | 2017-01-31 | Tactus Technology, Inc. | Method for reducing perceived optical distortion |
WO2015053775A1 (en) * | 2013-10-10 | 2015-04-16 | Empire Technology Development Llc | Shape changing device |
US9182823B2 (en) * | 2014-01-21 | 2015-11-10 | Lenovo (Singapore) Pte. Ltd. | Actuating haptic element of a touch-sensitive device |
US9817489B2 (en) * | 2014-01-27 | 2017-11-14 | Apple Inc. | Texture capture stylus and method |
US10019155B2 (en) | 2014-06-30 | 2018-07-10 | Honda Motor Co., Ltd. | Touch control panel for vehicle control system |
JP5950362B2 (ja) * | 2014-08-27 | 2016-07-13 | トムソン ライセンシングThomson Licensing | タッチ・パネル装置 |
US9400570B2 (en) | 2014-11-14 | 2016-07-26 | Apple Inc. | Stylus with inertial sensor |
US9575573B2 (en) | 2014-12-18 | 2017-02-21 | Apple Inc. | Stylus with touch sensor |
US11394385B1 (en) * | 2016-09-20 | 2022-07-19 | Apple Inc. | Input device having adjustable input mechanisms |
US10936189B2 (en) * | 2017-10-24 | 2021-03-02 | BBPOS Limited | System and method for a keypad on a touch screen device |
CN110069147B (zh) * | 2018-01-23 | 2023-02-03 | 可赛尔内存股份有限公司 | 操控装置及其控制方法 |
US11440767B2 (en) | 2018-07-30 | 2022-09-13 | Otis Elevator Company | Dynamic assignment of selection buttons on a destination entry system of an elevator |
US10817074B2 (en) * | 2018-10-19 | 2020-10-27 | International Business Machines Corporation | Adaptive keyboard |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60134962A (ja) * | 1983-12-23 | 1985-07-18 | Nippon Telegr & Teleph Corp <Ntt> | キ−ボ−ド装置 |
US5128672A (en) * | 1990-10-30 | 1992-07-07 | Apple Computer, Inc. | Dynamic predictive keyboard |
JPH04180116A (ja) * | 1990-11-14 | 1992-06-26 | Nec Niigata Ltd | キーボード |
US5963671A (en) * | 1991-11-27 | 1999-10-05 | International Business Machines Corporation | Enhancement of soft keyboard operations using trigram prediction |
JPH05233623A (ja) * | 1991-11-27 | 1993-09-10 | Internatl Business Mach Corp <Ibm> | ストローク構文入力装置 |
US5828323A (en) * | 1994-05-03 | 1998-10-27 | Bartet; Juan F. | High speed keyboard for computers |
JPH0863289A (ja) * | 1994-08-17 | 1996-03-08 | Omron Corp | タッチ入力装置および取引処理装置 |
JP3375773B2 (ja) * | 1995-02-10 | 2003-02-10 | 株式会社リコー | タッチパネル付き入力表示装置 |
US5748512A (en) * | 1995-02-28 | 1998-05-05 | Microsoft Corporation | Adjusting keyboard |
US5797098A (en) * | 1995-07-19 | 1998-08-18 | Pacific Communication Sciences, Inc. | User interface for cellular telephone |
US5984502A (en) * | 1996-06-14 | 1999-11-16 | The Foxboro Company | Keypad annunciator graphical user interface |
US6097374A (en) * | 1997-03-06 | 2000-08-01 | Howard; Robert Bruce | Wrist-pendent wireless optical keyboard |
US6104384A (en) * | 1997-09-12 | 2000-08-15 | Ericsson, Inc. | Image based keyboard for a small computing device |
US5887995A (en) * | 1997-09-23 | 1999-03-30 | Compaq Computer Corporation | Touchpad overlay with tactile response |
JP3987182B2 (ja) * | 1998-01-26 | 2007-10-03 | Idec株式会社 | 情報表示装置および操作入力装置 |
US5977867A (en) * | 1998-05-29 | 1999-11-02 | Nortel Networks Corporation | Touch pad panel with tactile feedback |
JP2000010689A (ja) | 1998-06-22 | 2000-01-14 | Sharp Corp | フリーキーレイアウト設定装置 |
US6429846B2 (en) * | 1998-06-23 | 2002-08-06 | Immersion Corporation | Haptic feedback for touchpads and other touch controls |
JP4551507B2 (ja) * | 1998-08-17 | 2010-09-29 | ソニー株式会社 | 入力操作装置及び入力操作方法 |
AU9060498A (en) * | 1998-09-09 | 2000-03-27 | Qi Hao | Keyboard and thereof input method |
US6004049A (en) | 1998-10-29 | 1999-12-21 | Sun Microsystems, Inc. | Method and apparatus for dynamic configuration of an input device |
US6259436B1 (en) * | 1998-12-22 | 2001-07-10 | Ericsson Inc. | Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch |
TW546943B (en) * | 1999-04-29 | 2003-08-11 | Inventec Corp | Chinese character input method and system with virtual keyboard |
US6172625B1 (en) * | 1999-07-06 | 2001-01-09 | Motorola, Inc. | Disambiguation method and apparatus, and dictionary data compression techniques |
US6498601B1 (en) * | 1999-11-29 | 2002-12-24 | Xerox Corporation | Method and apparatus for selecting input modes on a palmtop computer |
DE10012671C2 (de) | 2000-03-15 | 2003-09-04 | Hans-Peter Guetter | Mobiltelefon mit ergonomisch angeordneten Tasten |
FR2806491B1 (fr) | 2000-03-16 | 2004-07-23 | Duminda Kenneth Ratnayake | Pointeur virtuel d'objets graphiques ou textuels situes sur un ecran |
JP2001306233A (ja) * | 2000-04-26 | 2001-11-02 | Nec Corp | キーカスタマイズ方法及び携帯端末装置 |
US6459364B2 (en) * | 2000-05-23 | 2002-10-01 | Hewlett-Packard Company | Internet browser facility and method for the visually impaired |
FI112706B (fi) * | 2000-06-28 | 2003-12-31 | Nokia Corp | Menetelmä ja järjestely tiedon syöttämiseksi elektroniseen laitteeseen ja elektroninen laite |
US6789967B1 (en) * | 2001-02-02 | 2004-09-14 | George Forester | Distal chording keyboard |
US6724370B2 (en) * | 2001-04-12 | 2004-04-20 | International Business Machines Corporation | Touchscreen user interface |
GB0116083D0 (en) * | 2001-06-30 | 2001-08-22 | Koninkl Philips Electronics Nv | Text entry method and device therefor |
US6703924B2 (en) * | 2001-12-20 | 2004-03-09 | Hewlett-Packard Development Company, L.P. | Tactile display apparatus |
US6847311B2 (en) * | 2002-03-28 | 2005-01-25 | Motorola Inc. | Method and apparatus for character entry in a wireless communication device |
-
2002
- 2002-06-14 FI FI20021162A patent/FI20021162A0/fi unknown
-
2003
- 2003-06-12 US US10/517,751 patent/US7170428B2/en not_active Expired - Lifetime
- 2003-06-12 DE DE10392817T patent/DE10392817T5/de not_active Withdrawn
- 2003-06-12 WO PCT/FI2003/000470 patent/WO2003107168A1/en active Application Filing
- 2003-06-12 GB GB0427429A patent/GB2405687B/en not_active Expired - Fee Related
- 2003-06-12 AU AU2003232279A patent/AU2003232279A1/en not_active Abandoned
- 2003-06-12 JP JP2004513918A patent/JP4847010B2/ja not_active Expired - Fee Related
- 2003-06-12 US US10/459,742 patent/US7194239B2/en active Active
-
2009
- 2009-05-27 JP JP2009127653A patent/JP4847558B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP4847010B2 (ja) | 2011-12-28 |
US20040009788A1 (en) | 2004-01-15 |
FI20021162A0 (fi) | 2002-06-14 |
GB2405687B (en) | 2006-04-19 |
AU2003232279A1 (en) | 2003-12-31 |
US7170428B2 (en) | 2007-01-30 |
JP2005530235A (ja) | 2005-10-06 |
WO2003107168A1 (en) | 2003-12-24 |
GB2405687A (en) | 2005-03-09 |
US7194239B2 (en) | 2007-03-20 |
JP2009217843A (ja) | 2009-09-24 |
JP4847558B2 (ja) | 2011-12-28 |
US20050253816A1 (en) | 2005-11-17 |
GB0427429D0 (en) | 2005-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10392817T5 (de) | Elektronisches Gerät und Verfahren zur Steuerung seiner Tastatur | |
DE60114540T2 (de) | Doppelseitige Tastatur mit zwei Schaltmatten und einer Aktivierungsmatte | |
DE69830865T2 (de) | Fernsprechgerät zur Anzeige der verschiedenen Funktionalitäten einer Multifunktionstaste | |
DE102006017486B4 (de) | Elektronische Vorrichtung und Verfahren zum Vereinfachen einer Texteingabe unter Verwendung einer Soft-Tastatur | |
DE102007061993B4 (de) | Mobiles Endgerät mit einer Anzeigeeinheit sowie Anzeigeverfahren für ein mobiles Endgerät | |
DE102007059694B4 (de) | Mobiles Kommunikationsendgerät zur Schaffung eines taktilen Inferface | |
DE60317414T2 (de) | Druckknopf für mobiles Telekommunikationsgerät mit vibrationsverhindernder Vorrichtung | |
DE102006060068B4 (de) | Anzeigegerät und Verfahren, das für kleine Handgeräte angepasst ist | |
DE60130071T2 (de) | Elektromechanische Berührungsvorrichtung zur Dateneingabe | |
DE60311608T2 (de) | Verfahren und Vorrichtung zum Schalten der Steuerung zwischen verbundenen Vorrichtungen | |
DE19525644C2 (de) | Vorrichtung zur Eingabe von Daten in einen Computer | |
DE69821026T2 (de) | Dateneingabevorrichtung | |
DE60007631T2 (de) | Tragbares oder taschenformat elektronisches gerät und tragbares eingabegerät | |
DE60132464T2 (de) | Mobil-telekommunikationsdatendienst | |
WO2002008880A2 (de) | Verfahren und eingabeeinrichtung zur insbesondere einhändigen eingabe von zeichen aus einem zeichensatz | |
DE102007003269A1 (de) | Eingabevorrichtung für ein elektronisches Gerät und damit ausgestattetes elektronisches Gerät | |
DE602005001982T2 (de) | Eingabetastatur mit vereinfachter Eingabe von Nummern und entsprechendes elektronisches Gerät | |
DE10351018A1 (de) | Verfahren und Vorrichtung zum Eingeben von Daten | |
DE102013004373A1 (de) | Informationsverarbeitungsverfahren, verfahren zum ansteuern einer bildsammeleinheit und elektrische vorrichtung | |
DE112008001805T5 (de) | Zeichenwert-Anordnung auf einer handgehaltenen bzw. tragbaren Tastatur | |
DE60124781T2 (de) | Schalteranordnung | |
DE69731776T2 (de) | Universale eingabevorrichtung und system | |
WO2007112467A1 (de) | Kommunikationsgerät zur übertragung von informationen zwischen einem elektronischen gerät und einem benutzer | |
DE102016101050A1 (de) | Zeigegerät, Tastaturaufbau und tragbarer Computer | |
WO2018223162A2 (de) | Verfahren zur eingabe und ausgabe eines aus zeichen bestehenden textes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
R082 | Change of representative |
Representative=s name: SAMSON & PARTNER, PATENTANWAELTE, 80538 MUENCHEN, Representative=s name: SAMSON & PARTNER, PATENTANWAELTE, DE |
|
R082 | Change of representative |
Representative=s name: SAMSON & PARTNER, PATENTANWAELTE, DE |
|
R081 | Change of applicant/patentee |
Owner name: NOKIA TECHNOLOGIES OY, FI Free format text: FORMER OWNER: NOKIA CORPORATION, ESPOO, FI Effective date: 20150312 Owner name: NOKIA TECHNOLOGIES OY, FI Free format text: FORMER OWNER: NOKIA CORPORATION, 02610 ESPOO, FI Effective date: 20150312 |
|
R082 | Change of representative |
Representative=s name: SAMSON & PARTNER PATENTANWAELTE MBB, DE Effective date: 20120502 Representative=s name: SAMSON & PARTNER PATENTANWAELTE MBB, DE Effective date: 20150312 |
|
R120 | Application withdrawn or ip right abandoned |