DE10392817T5 - Elektronisches Gerät und Verfahren zur Steuerung seiner Tastatur - Google Patents

Elektronisches Gerät und Verfahren zur Steuerung seiner Tastatur Download PDF

Info

Publication number
DE10392817T5
DE10392817T5 DE10392817T DE10392817T DE10392817T5 DE 10392817 T5 DE10392817 T5 DE 10392817T5 DE 10392817 T DE10392817 T DE 10392817T DE 10392817 T DE10392817 T DE 10392817T DE 10392817 T5 DE10392817 T5 DE 10392817T5
Authority
DE
Germany
Prior art keywords
keyboard
key
tactile
processing unit
appearance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10392817T
Other languages
English (en)
Inventor
Johan Himberg
Jani Mäntyjärvi
Jonna Häkkilä
Turo Keski-Jaskari
Roope Takala
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Technologies Oy
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oyj filed Critical Nokia Oyj
Publication of DE10392817T5 publication Critical patent/DE10392817T5/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Switches That Are Operated By Magnetic Or Electric Fields (AREA)

Abstract

Elektronisches Gerät mit
einem Touch-Pad (106),
einer mit dem Touch-Pad (106) über eine Datenübertragungsverbindung verbundenen Verarbeitungseinheit (600), welche Verarbeitungseinheit (600) konfiguriert ist, eine virtuelle Tastatur (104) für das Touch-Pad (106) und ein taktiles Aussehen der Tastatur (104) zu bestimmen, durch das Drücken einer Taste der Tastatur (104) produzierte Information zu empfangen und die gedrückte Taste aufgrund der Information zu identifizieren, und
einer mit der Verarbeitungseinheit (600) über eine Datenübertragungsverbindung verbundenen Feedback-Einheit (612), welche Feedback-Einheit (612) konfiguriert ist, taktiles Feedback über die Benutzung der Tastatur (104) für den Gerätbenutzer zu geben,
dadurch gekennzeichnet, dass die Verarbeitungseinheit (600) weiterhin konfiguriert ist, Information über die Tastendrücke zu sammeln und sie zu analysieren sowie das taktile Aussehen der Tastatur (104) aufgrund der gesammelten Information und der durchgeführten Analyse wieder zu bestimmen, um die Tastatur ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur (104) leichter und/oder das...

Description

  • BEREICH
  • Die Erfindung bezieht sich auf ein elektronisches Gerät und auf ein Verfahren zur Steuerung der virtuellen Tastatur des elektronischen Geräts.
  • HINTERGRUND
  • Elektronische Geräte, z.B. tragbare Teilnehmerendgeräte eines Mobilkommunikationssystems, weisen meistens eine Tastatur auf. Die Tastatur kann als virtuelle Tastatur beispielsweise anhand eines Touch-Pads ausgeführt werden. Das Touch-Pad kann auch mit einem Display versehen sein; diese Lösung ist als Touch-Screen bekannt. Die Benutzung einer virtuellen Tastatur wird dadurch erleichtert, dass man dem Benutzer taktiles Feedback über ihre Verwendung gibt. Wenn die Geräte kleiner ausgebildet werden, kann auch die Größe der virtuellen Tastatur verkleinert werden. Wenn der Benutzer auf Tastaturtasten drückt, kann er auch auf falsche Tasten drücken. Die kleine Tastengröße kann die Anzahl falscher Tastendrücke vermehren. Die Dimensionen von Händen von Benutzern sind unterschiedlich und auch die Weise, auf die man auf die Tasten drückt, variiert: einige benutzen den Daumen, die anderen den Zeigefinger. Somit ist das taktile Aussehen der Tastatur meistens immer ein Kompromiss; es eignet sich für einen Durchschnittsbenutzer sehr gut aber ist nicht nach den Bedürfnissen und Routinen eines einzelnen Benutzers entwickelt worden. Da die Anwendung von verschiedenen elektronischen Geräten mit Tastaturen die ganze Zeit üblicher wird, besteht ein großer Bedarf, die Ergonomie von Tastaturen zu verbessern.
  • KURZE BESCHREIBUNG
  • Der Erfindung liegt die Aufgabe zugrunde, ein verbessertes elektronisches Gerät und ein verbessertes Verfahren zur Steuerung der virtuellen Tastatur des elektronischen Geräts zustande zu bringen.
  • Ein Aspekt der Erfindung bezieht sich auf ein elektronisches Gerät mit einem Touch-Pad, einer mit dem Touch-Pad über eine Datenübertragungsverbindung verbundenen Verarbeitungseinheit, welche Verarbeitungseinheit konfiguriert ist, eine virtuelle Tastatur auf dem Touch-Pad und ein taktiles Aussehen des Touch-Pads zu bestimmen, durch das Drücken einer Tastaturtaste produzierte Information zu empfangen und die gedrückte Taste auf grund der Information zu identifizieren, und einer mit der Verarbeitungseinheit über eine Datenübertragungsverbindung verbundenen Feedback-Einheit, welche Feedback-Einheit konfiguriert ist, taktiles Feedback über die Tastaturbenutzung für den Gerätbenutzer zu geben. Die Verarbeitungseinheit ist weiterhin konfiguriert, Information über Tastendrücke zu sammeln und sie zu analysieren sowie das taktile Aussehen der Tastatur aufgrund der gesammelten Information und der durchgeführten Analyse wieder zu bestimmen, um die Tastatur ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur leichter und/oder das Drücken einer falschen Taste weniger wahrscheinlich macht.
  • Ein Aspekt der Erfindung bezieht sich auf ein Verfahren zur Steuerung der virtuellen Tastatur eines elektronischen Geräts, aufweisend: Bestimmen eines taktilen Aussehens der virtuellen Tastatur; Empfangen von durch das Drücken einer Tastaturtaste produzierter Information und Identifizieren der gedrückten Taste aufgrund der Information. Weiterhin umfasst das Verfahren: Sammeln von Information über die Tastendrücke und Durchführen einer Analyse darüber; und Wiederbestimmen des taktilen Aussehens der Tastatur aufgrund der gesammelten Information und der durchgeführten Analyse, um die Tastatur ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur leichter und/oder das Drücken einer falschen Taste weniger wahrscheinlich macht.
  • Die bevorzugten Ausführungsformen der Erfindung bilden den Gegenstand der abhängigen Ansprüche.
  • Der Erfindung liegt der Gedanke zugrunde, dass das elektronische Gerät automatisch analysiert, wie erfolgreich die Benutzung der Tastatur ist. Aufgrund der Analyse wird das taktile Aussehen der Tastatur besser auf die Bedürfnisse und Routinen des Benutzers abgestimmt.
  • Das Gerät und das Verfahren der Erfindung weisen mehrere Vorteile auf. Es ist möglich, für jeden Benutzer eine persönliche Tastatur mit relativ wenigem Berechnen auszuführen. Insbesondere kann die Nutzbarkeit von kleinen Tastaturen verbessert werden. Das beschriebene Verfahren kann auch in der Produktentwicklungsphase ausgenutzt werden, wobei aufgrund der empirischen an den Benutzern durchgeführten Tests das taktile Aussehen der Tastatur möglichst ergonomisch für eine große Menge Menschen entwickelt werden kann.
  • FIGURLISTE
  • Im folgenden wird die Erfindung anhand von bevorzugten Ausführungsformen unter Bezugnahme auf die beigefügten Zeichnungen ausführlicher beschrieben, wobei
  • 1A, 1B und 1C eine Ausführung einer virtuellen Tastatur und Beispiele für das Aussehen eines elektronischen Geräts mit einer Tastatur illustrieren,
  • 2, 3, 4 und 5 von der Anmelderin durchgeführte Tests illustrieren;
  • 6 ein vereinfachtes Blockdiagramm der Struktur eines elektronischen Geräts ist;
  • 7A und 7B die Geräte gemäß 1B und 1C illustrieren, nachdem das taktile Aussehen ihrer Tastaturen ergonomischer gemacht worden sind;
  • 8 die Struktur einer Verarbeitungseinheit des elektronischen Geräts illustriert;
  • 9 einige Prinzipien illustriert, nach denen das taktile Aussehen der Tastatur wiederbestimmt werden kann; und
  • 10 ein Flussdiagramm ist, das ein Verfahren zur Steuerung der Tastatur des elektronischen Geräts illustriert.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Das elektronische Gerät kann zum Beispiel ein tragbares Gerät für allgegenwärtige Datenverarbeitung, wie ein Teilnehmerendgerät eines Funksystems, z.B. eines Mobilkommunikationssystems, ein PDA-Gerät (Personal Digital Assistant) oder ein anderes Gerät, z.B. ein elektronisches Messgerät mit der eine Tastatur aufweisenden Benutzerschnittstelle, sein. Das Gerät kann auch verschiedene Funktionen kombinieren, d.h. es kann zum Beispiel eine Kombination eines Teilnehmerendgeräts und eines PDA-Geräts sein. Ein Beispiel für ein solches kombiniertes Gerät ist Nokia® Communicator®.
  • Das elektronische Gerät weist eine virtuelle Tastatur auf, die taktiles Feedback gibt und anhand der z.B. in 1A dargestellten Struktur gebildet werden kann. Der oberste Teil ist ein Touch-Pad 106, unter dem sich ein Display befinden kann, und der unterste Teil ist eine Feedback-Einheit 108, die taktiles Feedback gibt. US 5,977,867 , US 2003/0038776 und WO 03/038800, worauf hier Bezug genommen wird, beschreiben verschiedene Lösungen, um taktiles Feedback zu geben. Die beschriebenen Lösungen können gegebenenfalls in Verbindung mit der in 1A beschriebenen Struktur angewandt werden. Das Touch-Pad 106 kann durch Lösungen nach dem Stand der Technik ausgeführt werden, die auf kapazitiven oder Widerstandssensoren basieren können. Wenn der Benutzer beispielsweise mit seinem Finger das Touch-Pad 106 berührt, können die berührte Stelle und gewöhnlich auch die Berührungskraft bestimmt werden. Das Display 102 kann durch Lösungen nach dem Stand der Technik ausgeführt werden; falls das Display beispielsweise flach sein sollte, kann ein Flüssigkristalldisplay (LCD), ein Plasmadisplay oder ein Dünnfilmtransistordisplay (TFT) verwendet werden. Die taktiles Feedback gebende Feedback-Einheit 108 kann durch Lösungen nach dem Stand der Technik, z.B. durch ein piezoelektrisches Element oder einen linearen Vibrator auf Solenoidbasis ausgeführt werden. Die Feedback-Einheit 108 produziert eine mechanische Bewegung, die der Benutzer durch den Tastsinn spürt. Die Frequenz, Amplitude und Dauer der Bewegung können gesteuert werden. Die Bewegung kann als Jitter und Vibrationen wahrgenommen werden. Die Bewegung kann beispielsweise das durch einen Tastendruck produzierte Klicken simulieren. Im kompliziertesten Falle kann das taktile Feedback die Textur einer Oberfläche imitieren. Die Homepage einer piezoelektrische Elemente herstellenden Firma ist unter www.americanpiezo.com zu finden. Dieser Hersteller nennt diese piezoelektrischen Elemente "disc benders".
  • 1B und 1C illustrieren eine Vorderansicht über das Aussehen des Geräts und eine Seitenansicht darüber, wie die in 1A dargestellten Komponenten im Prinzip angeordnet sind. Im Beispiel gemäß 1B ist das Gerät 100 ein Teilnehmerendgerät eines Funksystems, das mit einem Display 102 versehen ist. In 1A ist das Display 102 ein Touch-Screen, auf dem eine Tastatur 104 ausgebildet ist. In unserem Beispiel umfasst die Tastatur zwölf Tasten, d.h. "1", "2", "3", "4", "5", "6", "7", "8", "9", "0", "*" und "#". Wie beschrieben wurde, ist das Display 102 mit einem Touch-Pad 106 und einer Feedback-Einheit 102 versehen. 1C illustriert ein Teilnehmerendgerät 100, das ein Display 102 und ein Touch-Pad 106 aufweist, auf dem eine virtuelle Tastatur ausgebildet ist. Wie beschrieben, kann das Bild 104 der Tastatur, d.h. die Konturen einzelner Tasten, auf der Oberfläche des Touch-Pads 106 während dessen Herstellung aufgedruckt werden, aber das ist nicht erforderlich. Wie beschrieben, kann das Display 102 ein separater Teil sein, und das Touch-Pad 106 und die Feedback-Einheit 108 sind miteinander verbunden.
  • Als nächstes wird die Struktur des elektronischen Geräts unter Bezugnahme auf 6 beschrieben. Da wir ein Teilnehmerendgerät als Beispiel benutzen, weist das Gerät 100 eine Antenne 604 und einen Funksender-Empfänger 602 auf. Der Funksender-Empfänger 602 ist z.B. ein Sender-Empfänger einer Mobilstation nach dem Stand der Technik, der beispielsweise im GSM-System (Global System for Mobile Communications), GPRS-System (General Packet Radio Service) oder im UMTS-System (Universal Mobile Telecommunications System) funktioniert. Neben der oben erwähnten virtuellen Tastatur 104, dem Display 102, dem Touch-Pad 106 und der Feedback-Einheit 108 zur Ausführung der Benutzerschnittstelle umfasst ein typisches Gerät 100 ein Mikrofon 608 und einen Lautsprecher 610 zur Tonverarbeitung. Eine wiederaufladbare Batterie 606 funktioniert meistens als Stromquelle.
  • Das Gerät 100 weist auch eine Verarbeitungseinheit 600 auf, die den Betrieb des Geräts und deren verschiedene Teile steuert und kontrolliert. Die Verarbeitungseinheit 600 umfasst auch Anwenderprogramme des Geräts 100 z.B. für Funksignalverarbeitung und Verwaltung von Benutzerschnittstellen. Heutzutage wird die Verarbeitungseinheit 600 in der Regel als Prozessor mit dessen Software ausgeführt, aber auch verschiedene Hardwarelösungen, z.B. eine aus separaten Logikkomponenten bestehende Schaltung oder eine oder mehrere anwendungsspezifische integrierte Schaltungen (ASIC) sind möglich. Gegebenenfalls kann auch mehr als ein Prozessor vorhanden sein. Auch ist eine Hybride dieser Lösungen möglich. Beim Aussuchen des Implementierungsverfahrens berücksichtigt ein Fachmann natürlich die an die Größe und den Stromverbrauch des Geräts gestellten Forderungen, die erforderliche Verarbeitungsleistung, Herstellungskosten und Produktionsmengen.
  • Oben wurde ein elektronisches Gerät 100 mit einem Touch-Pad 106, einer mit dem Touch-Pad 106 über eine Datenübertragungsverbindung verbundenen Verarbeitungseinheit 600 und einer mit der Verarbeitungseinheit 600 über eine Datenübertragungsverbindung verbundenen Feedback-Einheit 612 beschrieben. Die Verarbeitungseinheit 600 ist konfiguriert, eine virtuelle Tastatur 104 für das Touch-Pad 106 und ein taktiles Aussehen der Tastatur 104 zu bestimmen. Die Feedback-Einheit 612 ist konfiguriert, taktiles Feedback über die Benutzung der Tastatur 104 für den Gerätbenutzer zu geben.
  • Zur Steuerung der Tastatur 104 ist die Verarbeitungseinheit 600 konfiguriert, durch das Drücken der Taste einer Tastatur 104 produzierte Information zu empfangen und die gedrückte Taste aufgrund der Information zu identifizieren. Das Touch-Pad 106 gibt meistens Information über die Stelle, wo auf den Bildschirm gedrückt wurde, z.B. als X- und Y-Koordinaten, und auch über die Kraft, mit der auf die Taste gedrückt wurde. Auch andere Steuerdaten können vom Touch-Pad 106 zur Verarbeitungseinheit 600 übertragen werden.
  • Die Verarbeitungseinheit 600 ist weiterhin konfiguriert, die oben erwähnte Information über die Tastendrücke zu sammeln und sie zu analysieren. Die Analyse wird dafür benutzt, dass zumindest eins der folgenden Ergebnisse erreicht wird: Koordinaten eines akzeptierten Tastendrucks, Koordinaten eines abgelehnten Tastendrucks, Koordinaten eines korrigierten Tastendrucks, für aufeinanderfolgende Tastendrücke verwendete Zeit, Durchschnitt der Koordinaten der Drücke einer Taste, Varianz der Koordinaten der Drücke einer Taste, eine andere statistische, die Drücke einer Taste beschreibende Variable. Die Koordinaten können sich auf Koordinaten beziehen, die die gedrückte Stelle mit erwünschter Genauigkeit definieren, z.B. den Mittelpunkt eines Drucks oder den berührten Bereich, der durch die Grenzlinien eines Drucks definiert wird. Die statistische Variable bezieht sich auf andere mögliche Weisen, die Statistik für einen Tastendruck zu bestimmen, z.B. der Median oder die durchschnittliche Größe des berührten Bereichs, angegeben in Breite und Höhe oder in Radius. Der berührte Bereich kann auch als elliptischer Bereich bestimmt werden, wo der berührte Bereich durch den Mittelpunkt und die Hauptachsen der Ellipse definiert wird. Die Verarbeitungseinheit 600 kann konfiguriert werden, einen Druck an der Grenze von zwei Tasten oder ausserhalb der Tastatur 104 als abgelehnter Tastendruck zu identifizieren. Zudem kann die Verarbeitungseinheit 600 konfiguriert werden, die folgende Sequenz als korrigierter Tastendruck zu identifizieren: der erste Tastendruck wird mit der Löschtaste gelöscht, worauf auf eine andere Taste gedrückt wird.
  • Aufgrund der gesammelten Information und der durchgeführten Analyse bestimmt die Verarbeitungseinheit 600 dann das taktile Aussehen der Tastatur 104 wieder, um die Tastatur 104 ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur 104 leichter und/oder das Drücken einer falschen Taste weniger wahrscheinlich macht. Das taktile Aussehen der Tastatur 104 beinhaltet zumindest eins der folgenden: Tastengröße, Tasten form und Tastenlage. Die Tastenform kann auch als Tastenposition bestimmt werden; falls die Taste beispielsweise als Ellipse ausgeführt wird, wird die Tastenposition als Hauptachsenrichtungen der Ellipse bestimmt. Somit kann die Tastenform durch die Drehung der die Form definierenden Ellipse eingestellt werden. Je nach den physikalischen Dimensionen des Geräts 100 ist die Verarbeitungseinheit 600 konfiguriert, Grenzen für das Aussehen der Tastatur 104 zu bestimmen, die es nicht überschreiten kann.
  • 8 illustriert eine mögliche Struktur der Verarbeitungseinheit 600. Die zur Verarbeitungseinheit 600 gehörenden Blöcke sind strukturelle Einheiten, die z.B. als Programmmodule, d.h. durch eine Programmiersprache, wie die C-Programmiersprache, die C++-Programmiersprache, die Computersprache oder durch einen Assemblierer ausgeführt werden können, die als ablauffähige Versionen in einem im Prozessor angeordneten Speicher gespeichert sind und mit dem Prozessor abgelaufen werden. Anstatt übersetzbarer Programmiersprachen können natürlich auch andere interpretierbare Programmiersprachen verwendet werden, vorausgesetzt, dass sie die erforderliche Verarbeitungsrate und -kapazität haben. Wenn die Verarbeitungseinheit 600 als ASIC implementiert wird, sind die strukturellen Einheiten ASIC-Blöcke. Information wird vom Touch-Pad 106 zur Verarbeitungseinheit 600 übertragen. Falls die Information nicht in Form von X- und Y-Koordinaten ist, kann sie vom Block 800 in diese Form umgewandelt werden. Block 800 kann natürlich auch in Verbindung mit dem Touch-Pad 106 angeordnet werden, z.B. in Verbindung mit dem Touch-Screen 102, wenn die Touch-Screen-Technik angewandt wird. Die verarbeitete Information, die z.B. als X- und Y-Koordinaten dargestellt wird, wird dann dem Block 802 gespeist, wo die gedrückte Taste identifiziert wird. Die Information über die identifizierte Taste wird der Anwendung 804 gespeist, die diese Information benötigt. Die Information über die identifizierte Taste wird auch dem Block 806 gespeist, der Information sammelt und eine Analyse durchführt, aufgrund derer das taktile Aussehen der Tastatur 104 geändert wird. Die Definitionen des neuen taktilen Aussehens der Tastatur 104 werden dann vom Block 806 zum Block 808 gespeist, der die Bestimmung des Aussehens der Tastatur 104 steuert. Der ganze Block 808 oder ein Teil davon kann in Verbindung mit dem Touch-Pad 106 angeordnet sein, z.B. in Verbindung mit dem Touch-Screen 102, wenn die Touch-Screen-Technologie angewandt wird. Wie aus 8 ersichtlich, existiert eine Verbindung auch vom Block 802 zum Block 808: taktiles Feedback über die Tastaturbenutzung wird von der Feed back-Einheit 612 gegeben, die mit einer Verbindung zum Block 808 versehen ist.
  • In einer Ausführungsform ist die Verarbeitungseinheit 600 konfiguriert, neben dem taktilen Aussehen der Tastatur 104 ihr visuelles Aussehen zu bestimmen. In diesem Falle wird das visuelle Aussehen der Tastatur 104 aufgrund der gesammelten Information und der durchgeführten Analyse wiederbestimmt, um die Tastatur 104 ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur 104 leichter und/oder das Drücken einer falschen Taste weniger wahrscheinlich macht. Die Bestimmung eines visuellen Aussehens wird in der finnischen Anmeldung 20021162 beschrieben, auf die hier Bezug genommen wird. Bei der in 8 dargestellten Struktur kann das visuelle Aussehen im Block 808 bestimmt werden, der mit einer Verbindung zum Display 102 versehen ist. In einer Ausführungsform ist die Verarbeitungseinheit 600 konfiguriert, das taktile Aussehen der Tastatur 104 und das visuelle Aussehen der Tastatur 104 so zu bestimmen, dass sie einander entsprechen.
  • Es gibt verschiedene Möglichkeiten, wie die Form einer einzelnen Taste geändert werden kann; die Tastenform wird beispielsweise in den Hauptrichtungen, d.h. in den X- und Y-Richtungen, geändert oder die Tastenform wird willkürlich geändert, was bedeutet, dass die Taste so gebildet ist, dass sie der Druckweise der Taste am besten entspricht, oder das vorbestimmte Aussehen der Taste (z.B. die vorläufige Form und Lage der Taste) adaptiv im Rahmen der festgesetzten Grenzen geändert wird. Die Verarbeitungseinheit 600 kann konfiguriert werden, den Mittelpunkt einer Taste nach dem Durchschnitt der Koordinaten von Tastendrücken zu verstellen. Die Verarbeitungseinheit kann konfiguriert werden, die Tastenform nach der Varianz der Koordinaten von Tastendrücken zu ändern. Einige Änderungsweisen der Tastenform werden nachfolgend ausführlicher behandelt, aber zumindest die folgenden Clusteringstechniken können angewandt werden, um die Tastenform zu ändern: Vektorquantisierung VQ und Erwartungsmaximierung EM. Auch andere geeignete adaptive und/oder optimierende Verfahren können für Änderung der Tastenform angewandt werden.
  • Im folgenden werden von der Anmelderin durchgeführte Tests an der neuen adaptiven Tastatur 104 unter Bezugnahme auf 2, 3, 4 und 5 beschrieben. Ein tragbarer Computer mit einem Touch-Screen wurde im Test verwendet. Eine in 2 dargestellte Tastatur 104 wurde sowohl auf der linken als auch auf der rechten Seite des Touch-Screens gebildet. Somit bestand das Aussehen der Tastatur aus nebeneinander liegenden rechteckigen Tasten: "1", "2", "3", "4", "5", "6", "7", "8" und "9". Die Tastatur 104 auf der linken Seite des Touch-Screens wurde für die Simulation einer Situation verwendet, wo der Benutzer des Teilnehmerendgeräts 100 auf die Tasten mit seinem linken Daumen drückt, und die Tastatur 104 auf der rechten Seite wurde dementsprechend für die Simulation einer Situation verwendet, wo der Benutzer des Teilnehmerendgeräts 100 auf die Tasten mit dem rechten Daumen drückt.
  • Jede Taste "1" bis "9" wurde gemäß 3 anhand des Mittelpunkts 320, 322, 324, 326, 328, 330, 334, 336 der Taste parametrisiert. Die Grenzlinien 300, 302, 304, 306, 308, 310, 312, 314 zwischen den Tasten wurden implizit anhand der aus Vektorquantisierung bekannten Voronoi-Gebiete der Mittelpunkte bestimmt. Zum Beispiel das Voronoi-Gebiet der Taste "1" ist das rechteckige Gebiet, das durch die Grenzlinien 300, 302, 308 und 319 definiert ist und näher am Mittelpunkt 320 der Taste "1" ist als an irgendeinem anderen Mittelpunkt. Prinzipien von Vektorquantisierung und Berechnen von Voronoi-Gebieten sind in Allen Gersho & Robert M. Gray: Vector Quantization and Signal Compression, The Kluwer International Series in Engineering and Computer Science, 1992 beschrieben, worauf hier Bezug genommen wird. Neben den neun adaptiven Mittelpunkten 320, 322, 324, 326, 328, 330, 332, 334, 336 der Tasten wurden sechzehn feste Mittelpunkte 340, 342, 344, 346, 348, 350, 352, 354, 356, 358, 360, 363, 364, 366, 368, 370 bestimmt. Diese wurden mit dem Wert "Null" oder mit dem Rand der Tastatur 104 assoziiert. Die Voronoi-Gebiete dieser festen Mittelpunkte wurden als Gebiete ausserhalb des Randes der Tastatur 104 bestimmt.
  • Danach fing der eigentliche Test an. Der Test wurde zuerst an der Tastatur 104 auf der linken Seite und dann an der Tastatur auf der rechten Seite durchgeführt. Eine aus vier zufälligen Nummern R1, R2, R3, R4 bestehende Sequenz wurde dem Benutzer (auf dem Touch-Screen) gezeigt. Die zufälligen Nummern wurden unter 1 bis 9 ausgewählt. Der Benutzer versuchte, diese Nummern anhand der zu testenden Tastatur 104 mit seinem betreffenden Daumen einzugeben. Die Eingabe wurde also durch Drücken der betreffenden Taste der Tastatur 104, d.h. des Voronoi-Gebiets des mit der betroffenen Taste assoziierten Codebuchvektors durchgeführt.
  • Die reellen Koordinaten P1 = (x1, y1), P2 = (x2, y2), P3 = (x3, y3) und P4 = (x4, y4) jedes Tastendrucks wurden gespeichert. Jeder Druck Pi wurde mit dem Index (d.h. der Taste "1" bis "9") des Codebuchvektors C(1) bis C(9), der nächst am Druck war, assoziiert. Somit wurde eine Input-Sequenz von I1, I2, I3, I4 erhalten.
  • Falls li dasselbe wie die Nummer Ri war, wurden die Koordinaten (xi, yi) des Drucks Pi in der Gruppe L(Ri) von akzeptierten Tastendrücken für die besagte Taste C(Ri) gespeichert. Falls li mit einer Taste assoziiert wurde, die anders war als die Nummer Ri, wurde sie abgelehnt.
  • Nachdem eine adäquate Probe von Tastendrücken, z.B. ein Hundert aus vier Nummern bestehende Sequenzen, gesammelt worden war, wurden neue Codebuchvektoren C(1) bis C(9) für Tasten "1" bis "9" gerechnet. Der neue Codebuchvektor wurde als Durchschnitt der Koordinaten der betreffenden Taste in der Gruppe L(1) bis L(9) der Koordinaten der Drücke dieser Taste bestimmt. Danach wurde eine Tastatur 104, deren Aussehen wiederbestimmt worden war, um sie ergonomischer für den Benutzer der Tastatur 104 zu machen, dem Benutzer gezeigt.
  • 4 illustriert das Aussehen der für den linken Daumen wiederbestimmten Tastatur 104 und 5 illustriert das Aussehen der Tastatur 104, die für den rechten Daumen wiederbestimmt ist. In 4 beschreibt der mit Strichlinien bezeichnete Bereich 400 die Tatsache, dass Grenzen (z.B. die maximale Größe) für das Aussehen der Tastatur 104 bestimmt werden können, die das Aussehen der Tastatur 104 nicht überschreiten kann. Die Aussehen der Tastaturen 104 sind einigermaßen symmetrisch zueinander und somit kann vermutet werden, dass es ergonomisch bestimmt worden ist, die Funktion der Daumen der Testperson zu unterstützen. Obwohl das visuelle Aussehen einer virtuellen Tastatur 104 in den Tests bestimmt wurde, sind das beschriebene Verfahren und die Ergebnisse direkt anwendbar auf die Wiederbestimmung des taktilen Aussehens einer virtuellen Tastatur 104.
  • 7A und 7B illustrieren, wie die Tastatur der in 1B und 1C dargestellten Teilnehmerendgeräte 100 aussehen könnte, nachdem ihr taktiles Aussehen durch das vorliegende Verfahren ergonomischer gemacht worden ist. Das Aussehen von Tasten "*", "0" und "#" ist eine Schätzung, aber das Aussehen der anderen Tasten basiert auf dem oben beschriebenen Test. Falls das elektronische Gerät 100 von mehr als einer Person verwendet wird, kann das Gerät eine Alternative für jede Person aufweisen. Somit kann das Gerät 100 anhand des beschriebenen Verfahrens eine separate Tastatur 104 für jeden Benutzer bestimmen, die sich am besten für seine Ergonomie eignet. Das vorliegende Verfahren kann auch in der Produktentwicklungsphase ange wandt werden, wobei das Aussehen der Tastatur 104 aufgrund der oben beschriebenen Tests möglichst ergonomisch für viele Menschen entwickelt werden kann.
  • Es gibt mehrere Alternativen für das taktile Aussehen einer virtuellen Tastatur 104. In einer Ausführungsform ist die Verarbeitungseinheit 600 konfiguriert, das taktile Aussehen der Tastatur 104 zu bestimmen, indem ein erstes taktiles Feedback über einen Tastendruck gegeben wird. Das erste taktile Feedback kann beispielsweise das durch das Drücken einer normalen elektromechanischen Taste produzierte Klicken imitieren. In einer Ausführungsform ist die Verarbeitungseinheit 600 konfiguriert, mehrere erste taktile Feedbacks zu bestimmen, ein separates Feedback entweder für jede Taste oder für jede Tastengruppe. In einer Ausführungsform ist die Verarbeitungseinheit 600 konfiguriert, das taktile Aussehen der Tastatur 104 zu bestimmen, indem ein zweites taktiles Feedback über die Taste gegeben wird, wenn auf sie nicht gedrückt wird. Das zweite Feedback kann zum Beispiel schwache Vibration sein. In einer Ausführungsform ist die Verarbeitungseinheit 600 konfiguriert, das taktile Aussehen der Tastatur 104 zu bestimmen, indem ein drittes taktiles Feedback über einen Bereich gegeben wird, der ausserhalb der Tasten liegt aber zum taktilen Aussehen der Tastatur 104 gehört. Wenn der Benutzer beispielsweise das in 7 dargestellte Touch-Pad aber keine der zur virtuellen Tastatur 104 gehörenden Tasten berührt, wird ein drittes Feedback gegeben. Am einfachsten kann das dritte taktile Feedback so bestimmt werden, dass es einer Situation entspricht, wo kein Feedback von der Feedback-Einheit 612 gegeben wird.
  • 9 illustriert einige Prinzipien, nach denen das Aussehen der Tastatur 104 wiederbestimmt werden kann. Auf der linken Seite der 9 befinden sich vier Tasten 900, 904, 908, 912. Die Punkte stellen die Koordinaten von Tastendrücken dar. Die Strichlinie bezeichnet die Lage und Größe von neuen Tasten 902, 906, 910, 914. Wie ersichtlich, ist die Lage der Tasten so geändert worden, dass der Mittelpunkt der Taste dem Mittelpunkt der Drücke besser entspricht. Die Größe der Tasten ist mit Rücksicht auf die Varianz von Tastendrücken geändert worden. In diesem Beispiel ist eine Bedingung an das Aussehen der Tasten gestellt worden: die Taste muss ringförmig sein. Die Varianz der Drücke der oberen Tasten 900, 904 ist kleiner als die Varianz der Drücke der unteren Tasten 908, 912, und somit ist die Größe der neuen oberen Tasten 902, 906 in Bezug auf ihre ursprüngliche Größe verkleinert worden, während die Größe der neuen unteren Tasten 910, 914 in Bezug auf ihre ursprüngliche Größe vergrößert worden ist. Die rechte Seite von 9 illustriert eine Weise zur Ausführung von Vektorquantisierung, wobei mit Punkten bezeichnete Tastendrücke als Datencluster betrachtet werden. Das Aussehen der ursprünglichen, aus vier Rechtecken bestehenden Tastatur 920 ist durch Vektorquantisierung in eine neuartige Tastatur 922 umgewandelt worden, die aus vier Bereichen besteht, die nicht mehr Rechtecke sind.
  • Im folgenden wird ein Verfahren zur Steuerung der virtuellen Tastatur eines elektronischen Geräts unter Bezugnahme auf 10 beschrieben. Das Verfahren wird in 1000 begonnen, z.B. wenn das Gerät eingeschaltet wird. Dann wird das taktile Aussehen der Tastatur in 1002 bestimmt. Die oben in Zusammenhang mit dem Gerät beschriebenen Ausführungsformen können zur Bestimmung des taktilen Aussehens verwendet werden. Nachdem die Tastatur bestimmt worden ist, kann der Benutzer anfangen, sie zu benutzen. Wenn der Benutzer die Tastatur benutzt, wird durch das Drücken der Tastaturtasten produzierte Information in 1004 empfangen, und in 1006 wird die gedrückte Taste aufgrund der Information identifiziert. Danach wird bis zu 1008 fortgesetzt, wo Information über die Benutzung der Tastatur gesammelt wird. Die Information enthält zumindest eins der folgenden: Tastendruckkoordinaten, Tastatursteuerdaten und Kraft des Tastendrucks.
  • Nach dem Verfahren wird das taktile Aussehen der virtuellen Tastatur nicht unbedingt kontinuierlich wiederbestimmt, sondern z.B. in bestimmten Abständen, wenn das Gerät einen neuen Benutzer erkennt oder wenn der Benutzer eine Wahl trifft, nach der das Gerät das Aussehen wiederbestimmt. Gemäß 1010 kann das Verfahren das Testen aufweisen, ob eine Bedingung zur Wiederbestimmung des taktilen Aussehens der Tastatur erfüllt wird. Falls die Bedingung in 1010 nicht erfüllt wird, wird bis zu 1004, ansonsten bis zu 1012 vorgerückt, wo die Tastendrücke analysiert werden.
  • Die Analyse wird verwendet, um zumindest eins der folgenden Ergebnisse zu erhalten: Koordinaten eines akzeptierten Tastendrucks, Koordinaten eines abgelehnten Tastendrucks, Koordinaten eines korrigierten Tastendrucks, für aufeinanderfolgende Tastendrücke verwendete Zeit, Durchschnitt der Koordinaten der Drücke einer Taste, Varianz der Koordinaten der Drücke einer Taste, eine andere statistische die Drücke einer Taste beschreibende Variable. Ein Tastendruck an der Grenze von zwei Tasten oder ein Tastendruck ausserhalb der Tastatur kann als abgelehnter Druck identifiziert werden.
  • Eine Sequenz, wo der Druck der ersten Taste mit der Löschtaste gelöscht wird, worauf auf eine andere Taste gedrückt wird, kann als korrigierter Tastendruck identifiziert werden.
  • Die Funktion von 1008 wird natürlich nicht durchgeführt, falls man das taktile Aussehen der Tastatur nicht wiederbestimmen will. Falls man jedoch das Aussehen bestimmen will, wird das taktile Aussehen der Tastatur in 1014 aufgrund der gesammelten Information und der durchgeführten Analyse wiederbestimmt, um die Tastatur ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur leichter und das Drücken einer falschen Taste weniger wahrscheinlich macht. Das taktile Aussehen der Tastatur weist zumindest eins der folgenden auf: Tastengröße, Tastenform und Tastenlage. Grenzen, die das Aussehen der Tastatur nicht überschreiten darf, können definiert werden. Die Tastenform kann in den Hauptrichtungen auf oben beschriebene Weise geändert werden, die Tastenform kann willkürlich geändert werden, der Tastenmittelpunkt kann nach dem Durchschnitt der Koordinaten von Tastendrücken verstellt werden, die Tastenform kann nach der Varianz der Koordinaten von Tastendrücken geändert werden oder die Tastenform wird durch Vektorquantisierung, Erwartungsmaximierung oder Clustering geändert. Auch andere geeignete adaptive und/oder optimierende Verfahren können angewandt werden, um die Tastenform zu ändern.
  • Die Ausschaltung des Geräts kann in Block 1016 getestet werden. Falls das Gerät ausgeschaltet ist, wird bis zu 1018 vorgerückt, wo die bestimmte Tastatur für den betreffenden Benutzer gespeichert werden kann, wobei das Verfahren zu Ende kommt. Falls das Gerät nicht ausgeschaltet wird, wird von 1018 bis zu 1004 vorgerückt. Natürlich kann 1016 auch an anderen Stellen der Verfahrenssequenz vorhanden sein. In einer Ausführungsform des Verfahrens wird die oben beschriebene Bestimmung des visuellen Aussehens der Tastatur angewandt. Ein oben beschriebenes Gerät 100 eignet sich für die Durchführung des Verfahrens, aber auch andere Geräte, in denen die Tastaturform geändert werden kann, sind anwendbar.
  • Obwohl die Erfindung unter Bezugnahme auf ein Beispiel gemäß den beigefügten Zeichnungen beschrieben wurde, ist es klar, dass die Erfindung nicht darauf beschränkt wird, sondern im Rahmen der in den beigefügten Ansprüchen vorgeführten erfinderischen Idee vielfach variiert werden kann.
  • (57) Zusammenfassung
  • Die Erfindung bezieht sich auf ein elektronisches Gerät und auf ein Verfahren zur Steuerung einer virtuellen Tastatur des elektronischen Geräts. Das Gerät umfasst ein Touch-Pad (106), eine Verarbeitungseinheit (600) und eine Feedback-Einheit (612), die eine taktile Feedback-Einheit (612) für den Benutzer gibt. Die Verarbeitungseinheit (600) ist konfiguriert, eine virtuelle Tastatur (104) für das Touch-Pad (106) und ein taktiles Aussehen der Tastatur (104) zu bestimmen, durch das Drücken einer Taste der Tastatur (104) produzierte Information zu empfangen und die gedrückte Taste aufgrund der Information zu identifizieren. Die Verarbeitungseinheit (600) ist weiterhin konfiguriert, Information über die Tastendrücke zu sammeln und sie zu analysieren sowie das taktile Aussehen der Tastatur (104) aufgrund der gesammelten Information und der durchgeführten Analyse wieder zu bestimmen, um die Tastatur ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur (104) leichter und/oder das Drücken einer falschen Taste weniger wahrscheinlich macht.
  • (7A)

Claims (36)

  1. Elektronisches Gerät mit einem Touch-Pad (106), einer mit dem Touch-Pad (106) über eine Datenübertragungsverbindung verbundenen Verarbeitungseinheit (600), welche Verarbeitungseinheit (600) konfiguriert ist, eine virtuelle Tastatur (104) für das Touch-Pad (106) und ein taktiles Aussehen der Tastatur (104) zu bestimmen, durch das Drücken einer Taste der Tastatur (104) produzierte Information zu empfangen und die gedrückte Taste aufgrund der Information zu identifizieren, und einer mit der Verarbeitungseinheit (600) über eine Datenübertragungsverbindung verbundenen Feedback-Einheit (612), welche Feedback-Einheit (612) konfiguriert ist, taktiles Feedback über die Benutzung der Tastatur (104) für den Gerätbenutzer zu geben, dadurch gekennzeichnet, dass die Verarbeitungseinheit (600) weiterhin konfiguriert ist, Information über die Tastendrücke zu sammeln und sie zu analysieren sowie das taktile Aussehen der Tastatur (104) aufgrund der gesammelten Information und der durchgeführten Analyse wieder zu bestimmen, um die Tastatur ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur (104) leichter und/oder das Drücken einer falschen Taste weniger wahrscheinlich macht.
  2. Gerät nach Anspruch 1, dadurch gekennzeichnet, dass die Information zumindest eins der folgenden enthält: Tastendruckkoordinaten, Tastatursteuerdaten und Kraft des Tastendrucks.
  3. Gerät nach Anspruch 1, dadurch gekennzeichnet, dass die Analyse dafür benutzt wird, dass zumindest eins der folgenden Ergebnisse erreicht wird: Koordinaten eines akzeptablen Tastendrucks, Koordinaten eines abgelehnten Tastendrucks, Koordinaten eines korrigierten Tastendrucks, für aufeinanderfolgende Tastendrücke verwendete Zeit, Durchschnitt der Koordinaten der Drücke einer Taste, Varianz der Drücke einer Taste, eine andere statistische, die Drücke einer Taste beschreibende Variable.
  4. Gerät nach Anspruch 3, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, einen Druck an der Grenze von zwei Tasten oder ausserhalb der Tastatur als abgelehnter Tastendruck zu identifizieren.
  5. Gerät nach Anspruch 3, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, die folgende Sequenz als korrigierter Tastendruck zu identifizieren: der erste Tastendruck wird mit der Löschtaste gelöscht, worauf auf eine andere Taste gedrückt wird.
  6. Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das taktile Aussehen der Tastatur zumindest eins der folgenden beinhaltet: Tastengröße, Tastenform und Tastenlage.
  7. Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, Grenzen für das taktile Aussehen der Tastatur zu bestimmen, die das taktile Aussehen der Tastatur nicht überschreiten kann.
  8. Gerät nach Anspruch 6, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, die Tastenform in den Hauptrichtungen zu ändern.
  9. Gerät nach Anspruch 6, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, die Tastenform willkürlich zu ändern.
  10. Gerät nach Anspruch 6, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, den Tastenmittelpunkt nach dem Durchschnitt der Koordinaten von Tastendrücken zu verstellen.
  11. Gerät nach Anspruch 6, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, die Tastenform nach der Varianz der Koordinaten von Tastendrücken zu ändern.
  12. Gerät nach Anspruch 6, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, die Tastenform durch Vektorquantisierung, Erwartungsmaximierung, Clustering oder ein anderes geeignetes adaptives und/oder optimierendes Verfahren zu ändern.
  13. Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, das taktile Aussehen der Tastatur zu bestimmen, indem ein erstes taktiles Feedback über einen Tastendruck gegeben wird.
  14. Gerät nach Anspruch 13, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, mehrere erste taktile Feedbacks zu bestimmen, ein separates Feedback entweder für jede Taste oder für jede Tastengruppe.
  15. Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, das taktile Aussehen der Tastatur zu bestimmen, indem ein zweites taktiles Feedback über die Taste gegeben wird, wenn auf sie nicht gedrückt wird.
  16. Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, das taktile Aussehen der Tastatur zu bestimmen, indem ein drittes taktiles Feedback über einen Bereich gegeben wird, der ausserhalb der Tasten liegt aber zum taktilen Aussehen der Tastatur gehört.
  17. Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, aufgrund der gesammelten Information und der durchgeführten Analyse das visuelle Aussehen der Tastatur zu bestimmen und wieder zu bestimmen, um die Tastatur ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur leichter und/oder das Drücken einer falschen Taste weniger wahrscheinlich macht.
  18. Gerät nach Anspruch 17, dadurch gekennzeichnet, dass die Verarbeitungseinheit konfiguriert ist, das taktile Aussehen der Tastatur und das visuelle Aussehen der Tastatur so zu bestimmen, dass sie einander entsprechen.
  19. Verfahren zur Steuerung einer virtuellen Tastatur eines elektronischen Geräts, aufweisend: Bestimmen (1002) eines taktilen Aussehens der virtuellen Tastatur; und Empfangen (1004) von durch das Drücken einer Tastaturtaste produzierter Information und Identifizieren (1006) der gedrückten Taste aufgrund der Information; dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Sammeln (1008) von Information über die Tastendrücke und Durchführen (1012) einer Analyse darüber; und Wiederbestimmen (1014) des taktilen Aussehens der Tastatur aufgrund der gesammelten Information und der durchgeführten Analyse, um die Tastatur ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur leichter und/oder das Drücken einer falschen Taste weniger wahrscheinlich macht.
  20. Verfahren nach Anspruch 19, dadurch gekennzeichnet, dass die Information zumindest eins der folgenden enthält: Tastendruckkoordinaten, Tastatursteuerdaten und Kraft des Tastendrucks.
  21. Verfahren nach dem vorhergehenden Anspruch 19 oder 20, dadurch gekennzeichnet, dass die Analyse dafür benutzt wird, dass zumindest eins der folgenden Ergebnisse erreicht wird: Koordinaten eines akzeptierten Tastendrucks, Koordinaten eines abgelehnten Tastendrucks, Koordinaten eines korrigierten Tastendrucks, für aufeinanderfolgende Tastendrücke verwendete Zeit, Durchschnitt der Koordinaten der Drücke einer Taste, Varianz der Drücke einer Taste, eine andere statistische, die Drücke einer Taste beschreibende Variable.
  22. Verfahren nach Anspruch 21, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Identifizieren eines Drucks an der Grenze von zwei Tasten oder ausserhalb der Tastatur als abgelehnter Tastendruck.
  23. Verfahren nach Anspruch 21, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Identifizieren der folgenden Sequenz als korrigierter Tastendruck: der erste Tastendruck wird mit der Löschtaste gelöscht, worauf auf eine andere Taste gedrückt wird.
  24. Verfahren nach einem der Ansprüche 19 bis 23, dadurch gekennzeichnet, dass das taktile Aussehen der Tastatur zumindest eins der folgenden beinhaltet: Tastengröße, Tastenform und Tastenlage.
  25. Verfahren nach einem der Ansprüche 19 bis 24, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Bestimmen von Grenzen für das Aussehen der Tastatur, die das Aussehen der Tastatur nicht überschreiten kann.
  26. Verfahren nach Anspruch 24, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Ändern der Tastenform in den Hauptrichtungen.
  27. Verfahren nach Anspruch 24, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: willkürliches Ändern der Tastenform.
  28. Verfahren nach Anspruch 24, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Verstellen des Tastenmittelpunkts nach dem Durchschnitt der Koordinaten von Tastendrücken.
  29. Verfahren nach Anspruch 24, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Ändern der Tastenform nach der Varianz der Koordinaten von Tastendrücken.
  30. Verfahren nach Anspruch 24, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Ändern der Tastenform durch Vektor quantisierung, Erwartungsmaximierung, Clustering oder ein anderes geeignetes adaptives und/oder optimierendes Verfahren.
  31. Verfahren nach einem der vorhergehenden Ansprüche 19 bis 30, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Bestimmen des taktilen Aussehens der Tastatur, indem ein erstes taktiles Feedback über einen Tastendruck gegeben wird.
  32. Gerät nach Anspruch 31, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Bestimmen von mehreren ersten Feedbacks, ein separates Feedback entweder für jede Taste oder für jede Tastengruppe.
  33. Verfahren nach einem der vorhergehenden Ansprüche 19 bis 32, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Bestimmen des taktilen Aussehens der Tastatur, indem ein zweites taktiles Feedback über die Taste gegeben wird, wenn auf sie nicht gedrückt wird.
  34. Verfahren nach einem der vorhergehenden Ansprüche 19 bis 33, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Bestimmen des taktilen Aussehens der Tastatur, indem ein drittes taktiles Feedback über einen Bereich gegeben wird, der ausserhalb der Tasten liegt aber zum taktilen Aussehen der Tastatur gehört.
  35. Verfahren nach einem der vorhergehenden Ansprüche 19 bis 34, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Bestimmen des visuellen Aussehens der Tastatur und Wiederbestimmen des visuellen Aussehens der Tastatur aufgrund der gesammelten Information und der durchgeführten Analyse, um die Tastatur ergonomischer für den Benutzer zu machen, was die Benutzung der Tastatur leichter und/oder das Drücken einer falschen Taste weniger wahrscheinlich macht.
  36. Verfahren nach Anspruch 35, dadurch gekennzeichnet, dass das Verfahren weiterhin umfasst: Bestimmen des taktilen Aussehens der Tastatur und des visuellen Aussehens der Tastatur so, dass sie einander entsprechen.
DE10392817T 2002-06-14 2003-06-12 Elektronisches Gerät und Verfahren zur Steuerung seiner Tastatur Withdrawn DE10392817T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FI20021162A FI20021162A0 (fi) 2002-06-14 2002-06-14 Elektroninen laite ja menetelmä sen näppäimistön hallintaan
FI20021162 2002-06-14
PCT/FI2003/000470 WO2003107168A1 (en) 2002-06-14 2003-06-12 Electronic device and method of managing its keyboard

Publications (1)

Publication Number Publication Date
DE10392817T5 true DE10392817T5 (de) 2005-06-02

Family

ID=8564160

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10392817T Withdrawn DE10392817T5 (de) 2002-06-14 2003-06-12 Elektronisches Gerät und Verfahren zur Steuerung seiner Tastatur

Country Status (7)

Country Link
US (2) US7170428B2 (de)
JP (2) JP4847010B2 (de)
AU (1) AU2003232279A1 (de)
DE (1) DE10392817T5 (de)
FI (1) FI20021162A0 (de)
GB (1) GB2405687B (de)
WO (1) WO2003107168A1 (de)

Families Citing this family (152)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US20060033724A1 (en) * 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7333092B2 (en) 2002-02-25 2008-02-19 Apple Computer, Inc. Touch pad for handheld device
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
JP2006079136A (ja) * 2004-09-06 2006-03-23 Fujitsu Component Ltd 触覚提示装置
US7382357B2 (en) * 2005-04-25 2008-06-03 Avago Technologies Ecbu Ip Pte Ltd User interface incorporating emulated hard keys
US20070013662A1 (en) * 2005-07-13 2007-01-18 Fauth Richard M Multi-configurable tactile touch-screen keyboard and associated methods
EP1752860B1 (de) * 2005-08-12 2015-03-18 LG Electronics Inc. Mobiles Endgerät mit berührungsempfindlichem Bildschirm mit haptischer Rückmeldung und entsprechendes Verfahren
US9244602B2 (en) * 2005-08-24 2016-01-26 Lg Electronics Inc. Mobile communications terminal having a touch input unit and controlling method thereof
US20080098331A1 (en) * 2005-09-16 2008-04-24 Gregory Novick Portable Multifunction Device with Soft Keyboards
US7694231B2 (en) * 2006-01-05 2010-04-06 Apple Inc. Keyboards for portable electronic devices
US20070152980A1 (en) * 2006-01-05 2007-07-05 Kenneth Kocienda Touch Screen Keyboards for Portable Electronic Devices
US20070152983A1 (en) * 2005-12-30 2007-07-05 Apple Computer, Inc. Touch pad with symbols based on mode
US7509588B2 (en) * 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US7860536B2 (en) * 2006-01-05 2010-12-28 Apple Inc. Telephone interface for a portable communication device
US8918736B2 (en) * 2006-01-05 2014-12-23 Apple Inc. Replay recommendations in a text entry interface
US7574672B2 (en) * 2006-01-05 2009-08-11 Apple Inc. Text entry interface for a portable communication device
JP4628295B2 (ja) * 2006-03-30 2011-02-09 京セラ株式会社 携帯端末装置における操作キー群のレイアウト方法および携帯端末装置
US20080046496A1 (en) * 2006-05-18 2008-02-21 Arthur Kater Multi-functional keyboard on touch screen
US20070271520A1 (en) * 2006-05-19 2007-11-22 Sun Microsystems, Inc. Method for transforming a graphical user interface
US8022935B2 (en) 2006-07-06 2011-09-20 Apple Inc. Capacitance sensing electrode with integrated I/O mechanism
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US7940250B2 (en) 2006-09-06 2011-05-10 Apple Inc. Web-clip widgets on a portable multifunction device
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
CN101523332B (zh) * 2006-09-28 2012-10-24 京瓷株式会社 便携式终端设备中操作键组的布局方法及实现该布局方法的便携式终端设备
US8274479B2 (en) 2006-10-11 2012-09-25 Apple Inc. Gimballed scroll wheel
US7667148B2 (en) * 2006-10-13 2010-02-23 Apple Inc. Method, device, and graphical user interface for dialing with a click wheel
JP4863211B2 (ja) * 2006-12-15 2012-01-25 株式会社日立ソリューションズ 文字データ入力装置
US8074172B2 (en) 2007-01-05 2011-12-06 Apple Inc. Method, system, and graphical user interface for providing word recommendations
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US8788954B2 (en) 2007-01-07 2014-07-22 Apple Inc. Web-clip widgets on a portable multifunction device
EP2135154B1 (de) * 2007-04-12 2017-10-25 Nokia Technologies Oy Tastenfeld
US20080280657A1 (en) * 2007-05-09 2008-11-13 Nokia Corporation Seal and actuator assembly
US20080303793A1 (en) * 2007-06-05 2008-12-11 Microsoft Corporation On-screen keyboard
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US9619143B2 (en) 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US11126321B2 (en) 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
JP4958979B2 (ja) * 2007-12-27 2012-06-20 パイオニア株式会社 記録媒体再生装置、記録媒体再生方法、記録媒体再生プログラムおよび記録媒体再生プログラムを格納した記録媒体
US8138896B2 (en) * 2007-12-31 2012-03-20 Apple Inc. Tactile feedback in an electronic device
US8456438B2 (en) 2008-01-04 2013-06-04 Tactus Technology, Inc. User interface system
US8570295B2 (en) 2008-01-04 2013-10-29 Tactus Technology, Inc. User interface system
US8922503B2 (en) 2008-01-04 2014-12-30 Tactus Technology, Inc. User interface system
US9274612B2 (en) 2008-01-04 2016-03-01 Tactus Technology, Inc. User interface system
US9128525B2 (en) 2008-01-04 2015-09-08 Tactus Technology, Inc. Dynamic tactile interface
US8928621B2 (en) 2008-01-04 2015-01-06 Tactus Technology, Inc. User interface system and method
US8947383B2 (en) 2008-01-04 2015-02-03 Tactus Technology, Inc. User interface system and method
US8547339B2 (en) 2008-01-04 2013-10-01 Tactus Technology, Inc. System and methods for raised touch screens
US9588683B2 (en) 2008-01-04 2017-03-07 Tactus Technology, Inc. Dynamic tactile interface
US8553005B2 (en) 2008-01-04 2013-10-08 Tactus Technology, Inc. User interface system
US9612659B2 (en) 2008-01-04 2017-04-04 Tactus Technology, Inc. User interface system
US9063627B2 (en) 2008-01-04 2015-06-23 Tactus Technology, Inc. User interface and methods
US9367132B2 (en) 2008-01-04 2016-06-14 Tactus Technology, Inc. User interface system
US9557915B2 (en) 2008-01-04 2017-01-31 Tactus Technology, Inc. Dynamic tactile interface
US9430074B2 (en) 2008-01-04 2016-08-30 Tactus Technology, Inc. Dynamic tactile interface
US8922510B2 (en) 2008-01-04 2014-12-30 Tactus Technology, Inc. User interface system
US8154527B2 (en) 2008-01-04 2012-04-10 Tactus Technology User interface system
US9298261B2 (en) 2008-01-04 2016-03-29 Tactus Technology, Inc. Method for actuating a tactile interface layer
US9052790B2 (en) 2008-01-04 2015-06-09 Tactus Technology, Inc. User interface and methods
RU2010132306A (ru) * 2008-01-04 2012-02-10 Эрговеркс, Ллс (Us) Виртуальная клавиатура и экранная клавиатура
US9720501B2 (en) 2008-01-04 2017-08-01 Tactus Technology, Inc. Dynamic tactile interface
US9552065B2 (en) 2008-01-04 2017-01-24 Tactus Technology, Inc. Dynamic tactile interface
US9423875B2 (en) 2008-01-04 2016-08-23 Tactus Technology, Inc. Dynamic tactile interface with exhibiting optical dispersion characteristics
US20160187981A1 (en) 2008-01-04 2016-06-30 Tactus Technology, Inc. Manual fluid actuator
US8243038B2 (en) 2009-07-03 2012-08-14 Tactus Technologies Method for adjusting the user interface of a device
US8232973B2 (en) 2008-01-09 2012-07-31 Apple Inc. Method, device, and graphical user interface providing word recommendations for text input
US20090181724A1 (en) 2008-01-14 2009-07-16 Sony Ericsson Mobile Communications Ab Touch sensitive display with ultrasonic vibrations for tactile feedback
US9176665B2 (en) * 2008-01-30 2015-11-03 Hewlett-Packard Development Company, L.P. Flexible user input device system
US20090231282A1 (en) * 2008-03-14 2009-09-17 Steven Fyke Character selection on a device using offset contact-zone
US8358277B2 (en) * 2008-03-18 2013-01-22 Microsoft Corporation Virtual keyboard based activation and dismissal
US8570279B2 (en) 2008-06-27 2013-10-29 Apple Inc. Touch screen device, method, and graphical user interface for inserting a character from an alternate keyboard
KR101020045B1 (ko) * 2008-08-29 2011-03-09 삼성전자주식회사 키 캡 없는 자판의 키 영역 조절 장치 및 방법
CA2734463A1 (en) 2008-09-11 2010-03-18 Thomson Licensing Touch panel device having inclined finger tip detection regions
US10289199B2 (en) * 2008-09-29 2019-05-14 Apple Inc. Haptic feedback system
US10402087B2 (en) * 2008-09-29 2019-09-03 Intel Corporation Adaptive keyboard for ultra-mobile devices
US8584031B2 (en) 2008-11-19 2013-11-12 Apple Inc. Portable touch screen device, method, and graphical user interface for using emoji characters
US9600070B2 (en) 2008-12-22 2017-03-21 Apple Inc. User interface having changeable topography
US9588684B2 (en) 2009-01-05 2017-03-07 Tactus Technology, Inc. Tactile interface for a computing device
EP2414010B1 (de) * 2009-03-31 2019-02-20 Sanofi-Aventis Deutschland GmbH Arzneimittelabgabevorrichtung
TWI490736B (zh) * 2009-04-30 2015-07-01 Asustek Comp Inc 顯示裝置與反應裝置
US10705692B2 (en) * 2009-05-21 2020-07-07 Sony Interactive Entertainment Inc. Continuous and dynamic scene decomposition for user interface
JP5301361B2 (ja) * 2009-06-01 2013-09-25 株式会社エヌ・ティ・ティ・ドコモ 情報処理装置、通信システム及び情報処理方法
CN102483675B (zh) 2009-07-03 2015-09-09 泰克图斯科技公司 用户界面增强系统
US9122393B2 (en) * 2009-09-30 2015-09-01 At&T Mobility Ii Llc Predictive sensitized keypad
US8812972B2 (en) * 2009-09-30 2014-08-19 At&T Intellectual Property I, L.P. Dynamic generation of soft keyboards for mobile devices
KR101115467B1 (ko) * 2009-09-30 2012-02-24 주식회사 팬택 가상 키보드 제공 단말 및 그 방법
US8810516B2 (en) 2009-09-30 2014-08-19 At&T Mobility Ii Llc Angular sensitized keypad
US20110074692A1 (en) * 2009-09-30 2011-03-31 At&T Mobility Ii Llc Devices and Methods for Conforming a Virtual Keyboard
US9128610B2 (en) * 2009-09-30 2015-09-08 At&T Mobility Ii Llc Virtual predictive keypad
US8816965B2 (en) * 2009-09-30 2014-08-26 At&T Mobility Ii Llc Predictive force sensitive keypad
CA2717396C (en) 2009-10-13 2015-11-24 Research In Motion Limited Mobile wireless device with integrated antenna and audio transducer assembly and related methods
EP2312690B1 (de) 2009-10-13 2020-12-02 BlackBerry Limited Drahtlose mobile Vorrichtung mit Antenne mit mehreren Einspeisungspunkten und Audiowandler und zugehörige Verfahren
US8627224B2 (en) * 2009-10-27 2014-01-07 Qualcomm Incorporated Touch screen keypad layout
US20110109560A1 (en) 2009-11-06 2011-05-12 Santiago Carvajal Audio/Visual Device Touch-Based User Interface
US8669949B2 (en) * 2009-11-06 2014-03-11 Bose Corporation Touch-based user interface touch sensor power
US8692815B2 (en) * 2009-11-06 2014-04-08 Bose Corporation Touch-based user interface user selection accuracy enhancement
US8638306B2 (en) * 2009-11-06 2014-01-28 Bose Corporation Touch-based user interface corner conductive pad
US20110113371A1 (en) * 2009-11-06 2011-05-12 Robert Preston Parker Touch-Based User Interface User Error Handling
US9201584B2 (en) 2009-11-06 2015-12-01 Bose Corporation Audio/visual device user interface with tactile feedback
US8350820B2 (en) * 2009-11-06 2013-01-08 Bose Corporation Touch-based user interface user operation accuracy enhancement
US8686957B2 (en) * 2009-11-06 2014-04-01 Bose Corporation Touch-based user interface conductive rings
US8581850B2 (en) * 2009-11-19 2013-11-12 Blackberry Limited Adaptive keyboard with physical feedback
WO2011087816A1 (en) 2009-12-21 2011-07-21 Tactus Technology User interface system
US9239623B2 (en) 2010-01-05 2016-01-19 Tactus Technology, Inc. Dynamic tactile interface
US8806362B2 (en) * 2010-01-06 2014-08-12 Apple Inc. Device, method, and graphical user interface for accessing alternate keys
JP2011150489A (ja) * 2010-01-20 2011-08-04 Sony Corp 情報処理装置及びプログラム
US8619035B2 (en) * 2010-02-10 2013-12-31 Tactus Technology, Inc. Method for assisting user input to a device
US8644894B2 (en) 2010-03-12 2014-02-04 Blackberry Limited Mobile wireless device with multi-band antenna and related methods
DE102011006344B4 (de) 2010-03-31 2020-03-12 Joyson Safety Systems Acquisition Llc Insassenmesssystem
US9007190B2 (en) 2010-03-31 2015-04-14 Tk Holdings Inc. Steering wheel sensors
JP5759230B2 (ja) 2010-04-02 2015-08-05 ティーケー ホールディングス,インコーポレーテッド 手センサを有するステアリング・ホイール
WO2011133604A1 (en) 2010-04-19 2011-10-27 Tactus Technology User interface system
WO2011133605A1 (en) 2010-04-19 2011-10-27 Tactus Technology Method of actuating a tactile interface layer
JP5550435B2 (ja) * 2010-04-26 2014-07-16 アルパイン株式会社 入力補助機能付タッチセンサー
FR2961610B1 (fr) * 2010-06-18 2013-01-18 Thales Sa Dispositif d'interaction haptique asservi a l'effort
US8508481B1 (en) * 2010-07-01 2013-08-13 Sprint Communications Company L.P. Adaptive touch keyboard
WO2012054780A1 (en) 2010-10-20 2012-04-26 Tactus Technology User interface system
US20120249427A1 (en) * 2011-03-28 2012-10-04 Infanti James C Portable electronic device with a display and a feedback module
US9636582B2 (en) 2011-04-18 2017-05-02 Microsoft Technology Licensing, Llc Text entry by training touch models
EP2717126B1 (de) 2011-05-23 2019-05-22 Huawei Device Co., Ltd. Eingabeverfahren, eingabevorrichtung und endgerät
JP5265819B2 (ja) * 2011-06-07 2013-08-14 パナソニック株式会社 電子機器
JP5790203B2 (ja) * 2011-06-29 2015-10-07 ソニー株式会社 情報処理装置、情報処理方法、プログラム、および遠隔操作システム
US20130044063A1 (en) * 2011-08-19 2013-02-21 Apple Inc. Touch correcting keypad
US8963561B2 (en) * 2011-11-03 2015-02-24 Atmel Corporation Randomizing one or more micro-features of a touch sensor
CH705918A2 (de) * 2011-12-19 2013-06-28 Ralf Trachte Feld-Analysen für flexible Computer-Eingabe.
WO2013154720A1 (en) 2012-04-13 2013-10-17 Tk Holdings Inc. Pressure sensor including a pressure sensitive material for use with control systems and methods of using the same
JP5910345B2 (ja) * 2012-06-21 2016-04-27 富士通株式会社 文字入力プログラム、情報処理装置および文字入力方法
US9836213B2 (en) 2012-07-27 2017-12-05 Symbol Technologies, Llc Enhanced user interface for pressure sensitive touch screen
GB2505413A (en) * 2012-08-28 2014-03-05 Ge Aviat Systems Ltd An input device with a touch screen, track ball and palm rest
WO2014043664A1 (en) 2012-09-17 2014-03-20 Tk Holdings Inc. Single layer force sensor
CN104662497A (zh) 2012-09-24 2015-05-27 泰克图斯科技公司 动态触觉界面和方法
US9405417B2 (en) 2012-09-24 2016-08-02 Tactus Technology, Inc. Dynamic tactile interface and methods
US9304683B2 (en) 2012-10-10 2016-04-05 Microsoft Technology Licensing, Llc Arced or slanted soft input panels
JP6135242B2 (ja) * 2013-03-28 2017-05-31 富士通株式会社 端末装置、キー入力方法及びキー入力プログラム
US9268485B2 (en) 2013-04-30 2016-02-23 Microth, Inc. Lattice keyboards with related devices
JP2014235612A (ja) 2013-06-03 2014-12-15 富士通株式会社 端末装置、補正方法および補正プログラム
US9557813B2 (en) 2013-06-28 2017-01-31 Tactus Technology, Inc. Method for reducing perceived optical distortion
WO2015053775A1 (en) * 2013-10-10 2015-04-16 Empire Technology Development Llc Shape changing device
US9182823B2 (en) * 2014-01-21 2015-11-10 Lenovo (Singapore) Pte. Ltd. Actuating haptic element of a touch-sensitive device
US9817489B2 (en) * 2014-01-27 2017-11-14 Apple Inc. Texture capture stylus and method
US10019155B2 (en) 2014-06-30 2018-07-10 Honda Motor Co., Ltd. Touch control panel for vehicle control system
JP5950362B2 (ja) * 2014-08-27 2016-07-13 トムソン ライセンシングThomson Licensing タッチ・パネル装置
US9400570B2 (en) 2014-11-14 2016-07-26 Apple Inc. Stylus with inertial sensor
US9575573B2 (en) 2014-12-18 2017-02-21 Apple Inc. Stylus with touch sensor
US11394385B1 (en) * 2016-09-20 2022-07-19 Apple Inc. Input device having adjustable input mechanisms
US10936189B2 (en) * 2017-10-24 2021-03-02 BBPOS Limited System and method for a keypad on a touch screen device
CN110069147B (zh) * 2018-01-23 2023-02-03 可赛尔内存股份有限公司 操控装置及其控制方法
US11440767B2 (en) 2018-07-30 2022-09-13 Otis Elevator Company Dynamic assignment of selection buttons on a destination entry system of an elevator
US10817074B2 (en) * 2018-10-19 2020-10-27 International Business Machines Corporation Adaptive keyboard

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60134962A (ja) * 1983-12-23 1985-07-18 Nippon Telegr & Teleph Corp <Ntt> キ−ボ−ド装置
US5128672A (en) * 1990-10-30 1992-07-07 Apple Computer, Inc. Dynamic predictive keyboard
JPH04180116A (ja) * 1990-11-14 1992-06-26 Nec Niigata Ltd キーボード
US5963671A (en) * 1991-11-27 1999-10-05 International Business Machines Corporation Enhancement of soft keyboard operations using trigram prediction
JPH05233623A (ja) * 1991-11-27 1993-09-10 Internatl Business Mach Corp <Ibm> ストローク構文入力装置
US5828323A (en) * 1994-05-03 1998-10-27 Bartet; Juan F. High speed keyboard for computers
JPH0863289A (ja) * 1994-08-17 1996-03-08 Omron Corp タッチ入力装置および取引処理装置
JP3375773B2 (ja) * 1995-02-10 2003-02-10 株式会社リコー タッチパネル付き入力表示装置
US5748512A (en) * 1995-02-28 1998-05-05 Microsoft Corporation Adjusting keyboard
US5797098A (en) * 1995-07-19 1998-08-18 Pacific Communication Sciences, Inc. User interface for cellular telephone
US5984502A (en) * 1996-06-14 1999-11-16 The Foxboro Company Keypad annunciator graphical user interface
US6097374A (en) * 1997-03-06 2000-08-01 Howard; Robert Bruce Wrist-pendent wireless optical keyboard
US6104384A (en) * 1997-09-12 2000-08-15 Ericsson, Inc. Image based keyboard for a small computing device
US5887995A (en) * 1997-09-23 1999-03-30 Compaq Computer Corporation Touchpad overlay with tactile response
JP3987182B2 (ja) * 1998-01-26 2007-10-03 Idec株式会社 情報表示装置および操作入力装置
US5977867A (en) * 1998-05-29 1999-11-02 Nortel Networks Corporation Touch pad panel with tactile feedback
JP2000010689A (ja) 1998-06-22 2000-01-14 Sharp Corp フリーキーレイアウト設定装置
US6429846B2 (en) * 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
JP4551507B2 (ja) * 1998-08-17 2010-09-29 ソニー株式会社 入力操作装置及び入力操作方法
AU9060498A (en) * 1998-09-09 2000-03-27 Qi Hao Keyboard and thereof input method
US6004049A (en) 1998-10-29 1999-12-21 Sun Microsystems, Inc. Method and apparatus for dynamic configuration of an input device
US6259436B1 (en) * 1998-12-22 2001-07-10 Ericsson Inc. Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch
TW546943B (en) * 1999-04-29 2003-08-11 Inventec Corp Chinese character input method and system with virtual keyboard
US6172625B1 (en) * 1999-07-06 2001-01-09 Motorola, Inc. Disambiguation method and apparatus, and dictionary data compression techniques
US6498601B1 (en) * 1999-11-29 2002-12-24 Xerox Corporation Method and apparatus for selecting input modes on a palmtop computer
DE10012671C2 (de) 2000-03-15 2003-09-04 Hans-Peter Guetter Mobiltelefon mit ergonomisch angeordneten Tasten
FR2806491B1 (fr) 2000-03-16 2004-07-23 Duminda Kenneth Ratnayake Pointeur virtuel d'objets graphiques ou textuels situes sur un ecran
JP2001306233A (ja) * 2000-04-26 2001-11-02 Nec Corp キーカスタマイズ方法及び携帯端末装置
US6459364B2 (en) * 2000-05-23 2002-10-01 Hewlett-Packard Company Internet browser facility and method for the visually impaired
FI112706B (fi) * 2000-06-28 2003-12-31 Nokia Corp Menetelmä ja järjestely tiedon syöttämiseksi elektroniseen laitteeseen ja elektroninen laite
US6789967B1 (en) * 2001-02-02 2004-09-14 George Forester Distal chording keyboard
US6724370B2 (en) * 2001-04-12 2004-04-20 International Business Machines Corporation Touchscreen user interface
GB0116083D0 (en) * 2001-06-30 2001-08-22 Koninkl Philips Electronics Nv Text entry method and device therefor
US6703924B2 (en) * 2001-12-20 2004-03-09 Hewlett-Packard Development Company, L.P. Tactile display apparatus
US6847311B2 (en) * 2002-03-28 2005-01-25 Motorola Inc. Method and apparatus for character entry in a wireless communication device

Also Published As

Publication number Publication date
JP4847010B2 (ja) 2011-12-28
US20040009788A1 (en) 2004-01-15
FI20021162A0 (fi) 2002-06-14
GB2405687B (en) 2006-04-19
AU2003232279A1 (en) 2003-12-31
US7170428B2 (en) 2007-01-30
JP2005530235A (ja) 2005-10-06
WO2003107168A1 (en) 2003-12-24
GB2405687A (en) 2005-03-09
US7194239B2 (en) 2007-03-20
JP2009217843A (ja) 2009-09-24
JP4847558B2 (ja) 2011-12-28
US20050253816A1 (en) 2005-11-17
GB0427429D0 (en) 2005-01-19

Similar Documents

Publication Publication Date Title
DE10392817T5 (de) Elektronisches Gerät und Verfahren zur Steuerung seiner Tastatur
DE60114540T2 (de) Doppelseitige Tastatur mit zwei Schaltmatten und einer Aktivierungsmatte
DE69830865T2 (de) Fernsprechgerät zur Anzeige der verschiedenen Funktionalitäten einer Multifunktionstaste
DE102006017486B4 (de) Elektronische Vorrichtung und Verfahren zum Vereinfachen einer Texteingabe unter Verwendung einer Soft-Tastatur
DE102007061993B4 (de) Mobiles Endgerät mit einer Anzeigeeinheit sowie Anzeigeverfahren für ein mobiles Endgerät
DE102007059694B4 (de) Mobiles Kommunikationsendgerät zur Schaffung eines taktilen Inferface
DE60317414T2 (de) Druckknopf für mobiles Telekommunikationsgerät mit vibrationsverhindernder Vorrichtung
DE102006060068B4 (de) Anzeigegerät und Verfahren, das für kleine Handgeräte angepasst ist
DE60130071T2 (de) Elektromechanische Berührungsvorrichtung zur Dateneingabe
DE60311608T2 (de) Verfahren und Vorrichtung zum Schalten der Steuerung zwischen verbundenen Vorrichtungen
DE19525644C2 (de) Vorrichtung zur Eingabe von Daten in einen Computer
DE69821026T2 (de) Dateneingabevorrichtung
DE60007631T2 (de) Tragbares oder taschenformat elektronisches gerät und tragbares eingabegerät
DE60132464T2 (de) Mobil-telekommunikationsdatendienst
WO2002008880A2 (de) Verfahren und eingabeeinrichtung zur insbesondere einhändigen eingabe von zeichen aus einem zeichensatz
DE102007003269A1 (de) Eingabevorrichtung für ein elektronisches Gerät und damit ausgestattetes elektronisches Gerät
DE602005001982T2 (de) Eingabetastatur mit vereinfachter Eingabe von Nummern und entsprechendes elektronisches Gerät
DE10351018A1 (de) Verfahren und Vorrichtung zum Eingeben von Daten
DE102013004373A1 (de) Informationsverarbeitungsverfahren, verfahren zum ansteuern einer bildsammeleinheit und elektrische vorrichtung
DE112008001805T5 (de) Zeichenwert-Anordnung auf einer handgehaltenen bzw. tragbaren Tastatur
DE60124781T2 (de) Schalteranordnung
DE69731776T2 (de) Universale eingabevorrichtung und system
WO2007112467A1 (de) Kommunikationsgerät zur übertragung von informationen zwischen einem elektronischen gerät und einem benutzer
DE102016101050A1 (de) Zeigegerät, Tastaturaufbau und tragbarer Computer
WO2018223162A2 (de) Verfahren zur eingabe und ausgabe eines aus zeichen bestehenden textes

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R082 Change of representative

Representative=s name: SAMSON & PARTNER, PATENTANWAELTE, 80538 MUENCHEN,

Representative=s name: SAMSON & PARTNER, PATENTANWAELTE, DE

R082 Change of representative

Representative=s name: SAMSON & PARTNER, PATENTANWAELTE, DE

R081 Change of applicant/patentee

Owner name: NOKIA TECHNOLOGIES OY, FI

Free format text: FORMER OWNER: NOKIA CORPORATION, ESPOO, FI

Effective date: 20150312

Owner name: NOKIA TECHNOLOGIES OY, FI

Free format text: FORMER OWNER: NOKIA CORPORATION, 02610 ESPOO, FI

Effective date: 20150312

R082 Change of representative

Representative=s name: SAMSON & PARTNER PATENTANWAELTE MBB, DE

Effective date: 20120502

Representative=s name: SAMSON & PARTNER PATENTANWAELTE MBB, DE

Effective date: 20150312

R120 Application withdrawn or ip right abandoned