DE102006039767A1 - Eingabevorrichtung - Google Patents

Eingabevorrichtung Download PDF

Info

Publication number
DE102006039767A1
DE102006039767A1 DE102006039767A DE102006039767A DE102006039767A1 DE 102006039767 A1 DE102006039767 A1 DE 102006039767A1 DE 102006039767 A DE102006039767 A DE 102006039767A DE 102006039767 A DE102006039767 A DE 102006039767A DE 102006039767 A1 DE102006039767 A1 DE 102006039767A1
Authority
DE
Germany
Prior art keywords
touch
finger
touch pad
input device
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102006039767A
Other languages
English (en)
Inventor
Tomoo Kariya Nomura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE102006039767A1 publication Critical patent/DE102006039767A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Eine Eingabevorrichtung (10) hat ein Touch Pad (1), welches eine Berührung durch einen Finger erfasst, um selektiv eine Mehrzahl von Anweisungstypen für eine angeschlossene Vorrichtung bereitzustellen und enthält eine Fingertyperkennungseinheit (2) zur Erkennung eines Fingertyps des Fingers, der von dem Touch Pad (1) erfasst wurde, sowie eine Anweisungsausgabeeinheit (3) zur Ausgabe der Anweisung abhängig von dem Fingertyp, der von der Fingertyperkennungseinheit (2) erkannt wurde.

Description

  • Die vorliegende Erfindung betrifft allgemein eine Eingabevorrichtung, insbesondere zur Verwendung in einem Kraftfahrzeug.
  • In den letzten Jahren wurden verschiedene Eingabevorrichtungen verwendet, um Daten und/oder einen Befehl oder eine Anweisung in eine Vorrichtung, beispielsweise einen Computer, einen Rechner, ein tragbares Telefon oder dergleichen einzugeben. Eine bestimmte Betriebsfunktion wird einer jeden Taste einer Tastatur in der Eingabevorrichtung zugewiesen, um beispielsweise Ziffern oder Befehle einzugeben. Somit verwendet der Benutzer beispielsweise eines Computers eine oder mehrere Tasten zur Eingabe einer gewünschten Ziffer oder eines gewünschten Befehls, wenn er eine bestimmte Anweisung für den Computer eingeben möchte.
  • Die Eingabevorrichtung zur Eingabe der Anweisung kann einen Berührungsschalter aufweisen, wie beispielsweise bei einem Navigationssystem. Der Berührungsschalter erfasst eine Berührung des Schalters zum Empfang von Anweisungen von dem Benutzer. Der Berührungsschalter wird in Form eines sogenannten Touch Panel (berührungsempfindlicher Schirm) an einer Anzeigeeinheit des Navigationssystems angeordnet. Der Berührungspunkt auf dem Touch Panel wird von einem optischen Sensor erfasst und die Berührung wird als entsprechende Anweisung an das Navigationssystem eingegeben.
  • Der Berührungspunkt auf dem Touch Panel für eine bestimmte Anweisung wird durch eine Taste oder durch einen Schaltknopf geführt, der an einer beliebigen Position auf der Anzeigeeinheit dargestellt wird. Weiterhin dient ein berührungsempfindlicher Bereich, der als ein bestimmter Abschnitt des Touch Panels definiert ist, als Eingabeknopf auf der Anzeigeeinheit. Das japanische Patentdokument JP-A-2002-108544 beschreibt eine Eingabevorrichtung, welche separat von der Anzeigeeinheit für einen einfacheren Betrieb angeordnet ist. Das japanische Patentdokument JP-A-2001-143077 beschreibt eine Personenidentifikations-Autorisierungsvorrichtung zur Verifizierung eines Benutzers basierend auf der Eingabe eines Fingerabdrucks des Benutzers.
  • Eine Eingabevorrichtung in Form einer Tastatur oder dergleichen verwendet eine festgelegte Funktion, welche jeder der Tasten der Tastatur zugewiesen ist. Der Benutzer vergewissert sich daher im wesentlichen stets der Position einer jeden Taste auf der Tastatur, bevor eine oder mehrere Tasten gedrückt werden, oder er ist in der Lage, Tastenbetätigungen ohne Blick auf die Tastatur durchzuführen (Blindbetätigung) oder dergleichen. Die gleiche Situation lässt sich beobachten, wenn Eingaben unter Verwendung des Touch Panels an der Anzeigeeinheit gemacht werden. Das heißt, wenn der Betrieb des Touch Panels durch bestimmte Menüknöpfe oder dergleichen geführt wird, welche auf der Anzeigeeinheit dargestellt werden, muss der Benutzer die Position dieser Menüknöpfe feststellen, bevor er sie tatsächlich berühren kann.
  • Die Feststellung der Position der Menüknöpfe auf der Anzeigeeinheit führt jedoch zu einer Ablenkung des Benutzers, was beispielsweise beim Fahrer eines Fahrzeuges sehr unerwünscht ist. Weiterhin führt eine hierarchische Struktur von Menüs aufgrund eines beschränkten Anzeigeplatzes auf der Anzeigeeinheit zu wiederholten Betätigungen der Menüknöpfe auf der Anzeigeeinheit, so dass die Wahrscheinlichkeit, dass die Aufmerksamkeit des Fahrers vom Fahrbetrieb abgelenkt wird, erhöht wird. Dies deshalb, als der Fahrer die Anzeigeeinheit sehr aufmerksam im Auge behalten muss, um die Positionen von Menüknöpfen festzustellen, wann immer er einen Menüknopf in jeder der Menühierarchien betätigt. Daher ist die Notwendigkeit, die Lage der Menüknöpfe vor der tatsächlichen Betätigung des Knopfs in jedem der hierarchischen Menüs zum Betrieb beispielsweise eines Navigationssystems feststellen zu müssen, nicht wünschenswert.
  • Angesichts der oben beschriebenen und weiterer Probleme ist es Aufgabe der vorliegenden Erfindung, eine Eingabevorrichtung zu schaffen, welche es einem Benutzer gestattet, verschiedene Anweisungen oder Befehle mittels einer Berührbetätigung eingeben zu können, ohne dass eine Position eines Eingabemenüknopfes auf einer Anzeigeeinheit festgestellt werden muss.
  • Die Lösung dieser Aufgabe erfolgt durch die im Anspruch 1 angegebenen Merkmale, wobei die Unteransprüche vorteilhafte Weiterbildungen zum Inhalt haben.
  • Gegenstand der vorliegenden Erfindung ist auch ein Verfahren zur Bereitstellung mehrerer Arten oder Typen von Anweisungen basierend auf der Berührung eines Touch Pad mittels eines Fingers, wie im Anspruch 9 angegeben und in den zugehörigen Unteransprüchen weitergebildet.
  • Die erfindungsgemäße Eingabevorrichtung hat ein Touch Pad (berührungsempfindliches Kissen oder berührungsempfindliche Fläche allgemein), welches die Berührung durch einen Finger erfasst, um selektiv eine Mehrzahl von Anweisungstypen für eine angeschlossene Vorrichtung bereitzustellen und enthält eine Fingertyperkennungseinheit zur Erkennung eines Fingertyps des Fingers, der von dem Touch Pad erfasst wird und eine Anweisungsausgabeeinheit zur Ausgabe einer Anweisung abhängig von dem Fingertyp, der von der Fingertyperkennungseinheit erkannt wurde. Auf diese Weise kann die Eingabe einer Anweisung seitens des Benutzers abgeschlossen werden, ungeachtet einer Position der Berührung auf dem Touch Pad. Mit anderen Worten, der Benutzer muss die Position der Berührung (den Berührungspunkt) auf dem Touch Pad nicht feststellen oder verifizieren. Daher kann die erfindungsgemäße Eingabevorrichtung verwendet werden, den Eingabevorgang durch den Benutzer zu vereinfachen.
  • Gemäß einem weiteren Aspekt der vorliegenden Erfindung erkennt die Eingabevorrichtung einen Fingertyp, was mit dem Berührungspunkt auf dem Touch Pad kombiniert werden kann, um verschiedene Anweisungen an ein angeschlossenes Gerät oder eine angeschlossene Vorrichtung auszugeben. Auf diese Weise kann ein beschränkter Platz auf dem Touch Pad zum Empfang verschiedenster Eingaben zur Bereitstellung von Anweisungen verwendet werden.
  • Die Eingabevorrichtung kann darüber hinaus separat von der angeschlossenen Vorrichtung angeordnet sein oder sie kann einstückig mit der angeschlossenen Vorrichtung abhängig von der Eingabesituation angeordnet sein.
  • Die Eingabevorrichtung kann weiterhin einen Fingerabdruck des Benutzers erkennen, um den Finger zu unterscheiden, der das Touch Pad berührt oder berührt hat. Auf diese Weise kann ein Fingertyp für eine spätere Benutzung mit der Eingabevorrichtung unterschieden werden.
  • Die Eingabevorrichtung kann weiterhin die Form der Hand erkennen, um den Finger festzustellen, der das Touch Pad berührt oder berührt hat. Auf diese Weise kann der Fingertyp für eine spätere Benutzung in der Eingabevorrichtung festgestellt oder unterschieden werden.
  • Die Eingabevorrichtung mit den oben genannten Einzelheiten und Merkmalen, sowie den sich weiter unten noch ergebenden Einzelheiten und Merkmalen dient dazu, den Bestätigungsvorgang zum Bestätigen oder Feststellen des Berührungspunktes durch den Benutzer unnötig zu machen. Die Eingabevorrichtung wird bevorzugt zur Eingabe von Anweisungen an ein Fahrzeugnavigationssystem oder einen PC verwendet.
  • Weitere Einzelheiten, Aspekte und Vorteile der vorliegenden Erfindung ergeben sich besser aus der folgenden detaillierten Beschreibung unter Bezugnahme auf die beigefügte Zeichnung.
  • Es zeigt:
  • 1 ein Flussdiagramm eines Ablaufprozesses einer Eingabevorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung;
  • 2A und 2B Darstellungen eines Touch Pad (berührungsempfindlichen Kissens) in Kombination mit einer Kamera in der Eingabevorrichtung;
  • 3A eine perspektivische Ansicht eines Touch Pad der Eingabevorrichtung zur Verwendung bei der Steuerung eines Navigationssystems in einem Fahrzeug;
  • 3B bis 3D Tabellen der Abläufe spezieller Funktionen in dem Navigationssystem;
  • 4 ein Flussdiagramm eine Ablaufprozesses der Eingabevorrichtung zur Verwendung bei einem PC gemäß einer zweiten Ausführungsform der vorliegenden Erfindung; und
  • 5 eine Tabelle für eine spezielle Eingabe auf dem PC.
  • Ausführungsformen der vorliegenden Erfindung werden nun unter Bezugnahme auf die Zeichnung beschrieben. Die Ausführungsformen der vorliegenden Beschreibung sind nicht notwendigerweise als auf die konkreten Arten und Formen einschränkend zu verstehen, sondern können sich innerhalb dessen bewegen, was ein Fachmann auf dem vorliegenden Gebiet in Betracht ziehen wird.
  • (Erste Ausführungsform)
  • 1 zeigt ein Flussdiagramm eines Ablaufprozesses einer Eingabevorrichtung 10 gemäß einer ersten Ausführungsform der vorliegenden Erfindung. Bei diesem Flussdiagramm ist jeder der Schritte des Flussdiagramms einem Bestandteil/einer Funktion der Eingabevorrichtung 10 zugeordnet. Das heißt, Schritt S10 ist die Funktion eines Touch Pad 1, Schritt S20 ist die Funktion einer Kamera 2a oder 2b und die Schritte S31 bis S40 sind Funktionen einer Anweisungseingabevorrichtung 3. Details der Bestandteile und Funktionen werden nachfolgend näher erläutert.
  • Die 2A und 2B zeigen Darstellungen des Touch Pad 1 in Kombination mit den Kameras 2a und 2b in der Eingabevorrichtung 10. Die Kameras 2a und 2b werden verwendet, um einen Fingertyp zu erkennen, der zur Eingabe der Anweisung verwendet wird.
  • 3a zeigt eine perspektivische Ansicht des Touch Pad 1 der Eingabevorrichtung 10, wie es zur Steuerung eines Navigationssystems in einem Fahrzeug verwendet wird.
  • Wie die Anordnung der genannten Figuren bereits impliziert, wird die Eingabevorrichtung 10 der vorliegenden Erfindung zunächst anhand von konzeptuellen Aspekten unter Verwendung des Flussdiagramms beschrieben und dann werden Implementierungsaspekte unter Bezugnahme auf die weiteren Darstellungen und Tabellen erläutert.
  • Die Eingabevorrichtung 10 der vorliegenden Erfindung sei mit einer Vorrichtung in einem Fahrzeug verbunden und zur Eingabe von Befehlen oder Anweisungen an die Vorrichtung verwendet. Von daher erkennt im Schritt S10 des Flussdiagramms von 1 der Ablaufprozess eine Berührung des Touch Pad 1, um eine Benutzereingabe zu erkennen (Schritt S10: JA). Der Ablauf geht zum Schritt S20, wenn die Berührung erkannt worden ist. Der Ablauf wiederholt Schritt S10 wenn keine Berührung erkannt wird (Schritt S10: NEIN).
  • Sodann erkennt im Schritt S20 der Ablauf einen Berührungsfinger, der verwendet wird, das Touch Pad 1 zu berühren, in dem die Kamera 2a oder 2b verwendet wird.
  • Sodann gibt in einem der Schritte S31 bis S40 der Ablauf eine Betriebsanweisung von der Anweisungsausgabeeinheit 3 aus, wobei diese Anweisung dem Berührungsfinger zugeordnet ist und dieser Berührungsfinger im Schritt S20 erkannt wurde. Das heißt, eine von Betriebsanweisungen 1 bis 10, jeweils zugeordnet einem der zehn Finger an beiden Händen, wird basierend auf dem berührenden Finger durchgeführt, der im Schritt S20 erkannt worden ist.
  • Die Eingabevorrichtung 10 kann einen Berührungspunktsensor (in der Zeichnung nicht dargestellt) haben, um eine Berührungsposition durch den Benutzer auf dem Touch Pad 1 erkennen zu können. Der Berührungspunktsensor assoziiert eine Kombination des Berührungsfingers (Finger, der die Berührung durchführt) und der Berührungsposition oder des Berührungspunktes mit wenigstens einer bestimmten Anweisung an die Vorrichtung, um diese zu steuern.
  • Die Kamera 2a oder 2b in der Eingabevorrichtung 10 wird verwendet, einen Fingerabdruck des Benutzers zu erkennen, um den Berührungsfinger zu identifizieren, wenn eine Fingerabdruck-Authentisierungsvorrichtung den Fingerabdruck zur Identifizierung des Benutzers erkennt. Das heißt, der Fingerabdruck des Berührungsfingers wird verwendet, um den Berührungsfinger zu erkennen, indem der Fingerabdruck von der Kamera 2a in 2A von der anderen Seite des Touch Pads 1 her abgebildet wird. Der Fingerabdruck kann auch vom Touch Pad 1 selbst erkannt werden, wenn die Auflösung des Touch Pad 1 ausreichend hoch zur Analyse des Fingerabdrucks ist.
  • Der Berührungsfinger kann von der Kamera 2b in 2B erkannt werden. In diesem Fall nimmt die Kamera 2b die Form einer Hand des Benutzers einschließlich der Formen der Finger auf, wobei beispielsweise ein Infrarotsensor oder dergleichen verwendet wird. Die Berührung auf dem Touch Pad 1 wird dem Berührungsfinger basierend auf der Form des Fingers zum Zeitpunkt der Berührung am Touch Pad 1 zugeordnet.
  • Das Touch Pad 1 der Eingabevorrichtung 10 von 1 kann gemäß 3 als separates Touch Pad 1a zur Steuerung des Navigationssystems angeordnet werden. Das heißt, das Touch Pad 1a wird verwendet, um quasi eine Fernsteuerung eines Anzeigeschirms des Navigationssystems aus Gründen einer einfacheren Bedienung zu steuern. Die Anordnung des Touch Pad 1a kann auf der linken oder der rechten Seite des Fahrers, abhängig von den Vorlieben des Benutzers, der jeweiligen Einbaulage des Fahrersitzes etc., sein. Das Touch Pad 1a kann auch auf dem Anzeigeschirm wie bei einem herkömmlichen Navigationssystem angeordnet werden, wenn dann die Betätigung des Navigationssystems einfacher wird.
  • Die Betriebsanweisungen 1 bis 10 in 1 können als die Vorgänge in den Tabellen der 3B bis 3D definiert werden. Genauer gesagt, die Tabelle von 3B ist ein Beispiel von Navigationssystemsteuerbefehlen, um ein Navigationssystem steuern zu können. Die Tabelle in 3C ist ein Beispiel einer Zeicheneingabeanordnung, welche den Betriebsanweisungen 1 bis 5 zugewiesen ist, wenn das Navigationssystem einen Zeicheneingabeschirm darstellt. Die Tabelle in 3B ist ein Beispiel von Kartensteuerbefehlen, wenn das Touch Pad 1a auf dem Anzeigeschirm des Navigationssystems angeordnet ist. Der Fahrer des Fahrzeugs kann einen gewünschten Vorgang aus den Vorgängen der Tabellen in den 3B bis 3D auswählen und durchführen, indem das Touch Pad 1a mit dem Berührungsfinger berührt wird, der der gewünschten Betätigung oder dem gewünschten Vorgang zugeordnet ist. Die Eingabe der gewünschten Betriebsanweisung wird abgeschlossen, wenn der Fahrer das Touch Pad 1a berührt. Beispielsweise kann der Fahrer eine Zeicheneingabe an das Navigationssystem einfach und flüssig durchführen, indem das Touch Pad 1a ohne Beobachtung des Anzeigebildschirms verwendet wird. In diesem Fall kann die Berührung des Touch Pads 1a irgendwo auf dem Touch Pad 1a für die Zeicheneingabe erfolgen. Weiterhin kann die Zeicheneingabe durch die selektive Verwendung der Berührungsfinger die Sicherheit während des Fahrens erheblich verbessern, da die Aufmerksamkeit des Fahrers durch den Berührungsvorgang weitaus weniger gestört oder beeinträchtigt wird.
  • Die Eingabevorrichtung 10 der vorliegenden Erfindung erkennt den Berührungsfinger unter Verwendung der Kamera 2a oder 2b und führt den entsprechenden Vorgang durch, der dem Berührungsfinger zugeordnet ist. Auf diese Weise kann der Fahrer oder der Benutzer der Vorrichtung, welche mit der Eingabevorrichtung 10 verbunden ist, den Eingabevorgang abschließen, indem lediglich das Touch Pad 1a berührt wird, ohne dass die Berührungsposition auf dem Anzeigeschirm festgestellt und überwacht werden muss.
  • Die Eingabevorrichtung 10 der vorliegenden Ausführungsform kann auf folgende Weise benutzt werden, wenn die Eingabevorrichtung 10 mit dem Berührungspunktsensor ausgestattet ist: Der gewünschte Vorgang ist einer Kombination aus Berührungsposition oder Berührungspunkt am Touch Pad 1a und dem Berührungsfinger zugewiesen. Damit ist die Eingabevorrichtung 10 gemäß 1 effizient hinsichtlich des Raums oder Platzes, der jedem der gewünschten Vorgänge zugeordnet ist, betreibbar, da der Raum oder Platz für einen einzelnen Knopf oder eine einzelne Schalterfläche verschiedenen Vorgängen oder Anweisungen zugeordnet sein kann, und zwar abhängig von der Kombination des gleichen Raums oder Platzes (Berührungspunkt) mit unterschiedlichen Fingern.
  • Zusätzlich kann der Platz auf dem Touch Pad 1a auf effiziente Weise verwendet werden, wenn eine Einschränkung des Platzes auf dem Touch Pad 1a eine hierarchische Menüstruktur fordert. Das heißt, wiederholte Eingangsvorgänge, um die hierarchische Menüstruktur einzugrenzen, da die Bereitstellung einer Mehrzahl von Knöpfen oder Schaltflächen auf einem Bildschirm begrenzt ist, kann entfallen, da unterschiedliche Vorgänge oder Anweisungen einem einzelnen Knopf oder einer einzelnen Schaltfläche zugewiesen sind. Weiterhin wird eine gleichzeitige (visuelle) Bestätigung der Eingabeposition bei jedem der Eingabevorgänge beseitigt, d.h. nicht mehr nötig, so dass die Sicherheit beim Fahren aufgrund wesentlich verringerter Ablenkungsmöglichkeiten verbessert ist.
  • Die Eingabevorrichtung 10 der vorliegenden Ausführungsform schafft ein Eingabeverfahren, welches keinen Bestätigungsvorgang oder zumindest weitaus weniger Bestätigungsvorgänge hinsichtlich der Eingabeposition auf dem Anzeigeschirm benötigt. Somit hat das Eingabeverfahren, welches durch die Eingabevorrichtung 10 möglich wird, den Vorteil, dass bei der Verwendung mit einem Navigationssystem oder dergleichen keine oder weitaus weniger Kompromisse hinsichtlich des Fahrbetriebs durch das Fahrzeug seitens des Fahrers gemacht werden müssen.
  • (Zweite Ausführungsform)
  • Eine zweite Ausführungsform der vorliegenden Erfindung wird weiterhin unter Bezugnahme auf die Zeichnung beschrieben. Bei der zweiten Ausführungsform wird die Eingabevorrichtung 10 verwendet, Zeichen (Buchstaben, Zahlen etc.) in einen Personalcomputer (PC) einzugeben. Das heißt, die Eingabevorrichtung 10 wird nach Art einer Tastatur für den PC verwendet. Bei der zweiten Ausführungsform werden gleiche Bezugszeichen verwendet, um gleiche oder einander entsprechende Teile wie in der ersten Ausführungsform zu bezeichnen.
  • 4 zeigt ein Flussdiagramm des Ablaufprozesses der Eingabevorrichtung 10a in Verwendung mit dem PC. 5 zeigt eine Betriebs- oder Betätigungstabelle für eine bestimmte Eingabe des PCs, welche von der Eingabevorrichtung 10a bereitgestellt wird.
  • Eine obere Hälfte des Flussdiagramms von 4 beschreibt das Eingabeverfahren für die Eingabevorrichtung 10a. Das Eingabeverfahren der Eingabevorrichtung 10a ist das gleiche wie für die Eingabevorrichtung 10, welches unter Bezugnahme auf das Flussdiagramm von 1 für die erste Ausführungsform beschrieben wurde. Eine genauere Beschreibung der oberen Hälfte des Flussdiagramms von 4 wird daher weggelassen.
  • Eine untere Hälfte des Flussdiagramms von 4 beschreibt ein Blindberührungseingabeverfahren zur Eingabe eines Zeichens von der Eingabevorrichtung 10a. Die Zuweisung des Zeichens zu jedem Vorgang in Assoziation mit der Berührung durch den Berührungsfinger ist in der Tabelle von 5 zusammengefasst. Beispielsweise wird die Berührung des Touch Pad 1 durch den Zeigefinger der rechten Hand zyklisch als Anweisung zur Eingabe der Zeichen 6, 7, y, u, h, j, n oder m verwendet, wie durch die Reihe „Betätigung 7" der Tabelle von 5 angegeben. Auf diese Weise wird das Touch Pad 1 der Eingabevorrichtung 10a als eine Art Tastatur in flacher Form zum Empfang einer Blindberührung durch den Benutzer verwendet. Das heißt, das Touch Pad 1 dient als virtuelle Tastatur zur Annahme einer Eingabe seitens des Benutzers ohne Verwendung eines mechanischen Schalters.
  • Im Schritt S50 speichert der Ablaufprozess der Eingabevorrichtung 10a die eingegebenen Zeichen, beispielsweise eine Textfolge oder -sequenz (String), in einem Puffer der Eingabevorrichtung 10a. Die Eingabevorrichtung 10a ist mit einer Schlussfolgerungsmaschine zur Erleichterung des Eingabevorgangs ausgestattet.
  • Im Schritt S60 gibt der Prozess einen Kandidaten für eine nachfolgende Eingabe an den Anzeigeschirm basierend auf einer Schlussfolgerung durch die Schlussfolgerungsmaschine aus. Das heißt, die Textsequenz in dem Puffer wird mit einer Art Wörterbuch in einer Steuerung der Eingabevorrichtung 10 verglichen und ähnliche Strings werden als Eingangskandidat bereitgestellt.
  • Im Schritt S70 bestimmt der Prozessablauf den Textstring, der von dem Benutzer beabsichtigt ist. Der Ablauf geht zum Schritt S80, wo der Benutzer den von der Steuerung abgefragten Textstring bejahend beurteilt (Schritt S70: JA). Diese bejahende Bestimmung kann vom Benutzer beispielsweise durch eine Kombination zweiter-Finger (beispielsweise gleichzeitige Berührungen mit den kleinen Fingern an beiden Händen) erzeugt werden. Der Ablauf kehrt zum Schritt S10 zurück, um den Eingabevorgang zu wiederholen, wenn der Benutzer den Textstring, der durch die Schlussfolgerung bestimmt wurde, negativ beurteilt (Schritt S70: NEIN).
  • Im Schritt S80 gibt der Ablauf den festgelegten Textstring an den PC aus.
  • Die Eingabevorrichtung 10a gemäß 4 dient als virtuelle Tastatur in einem begrenzten oder kleinen Raum. Die Kleinheit des Eingabevorrichtung 10a ermöglicht erhöhte Flexibilität bei Design und Styling. Das Touch Pad 1 kann vom Filmtypmaterial sein, um die Eingabevorrichtung 10a auf Stoffen, beispielsweise Hosen oder dergleichen, anzuordnen oder auf dem Stoff einer Tasche oder dergleichen. In diesem Fall kann das Touch Pad 1 mit hoher Auflösung verwendet werden, um den Fingertyp basierend auf der Erkennung des Fingerabdrucks an jedem Finger zu unterscheiden.
  • Die Eingabevorrichtung der vorliegenden Erfindung hat den Vorteil, dass sie es dem Benutzer ermöglicht, verschiedene Befehle oder Vorgangsanweisungen durch einen Berührungsvorgang an dem Touch Pad 1 ohne Bestätigung der Berührungsposition oder des Berührungspunktes einzugeben. Das Eingabeverfahren unter Verwendung der Eingabevorrichtung 10 hat daher eine Vielzahl von Anwendungsfällen, bei denen Anweisungen für Vorrichtungen in einem Fahrzeug oder dergleichen gegeben werden müssen.
  • Obgleich die vorliegende Erfindung im Zusammenhang mit momentan bevorzugten Ausführungsformen hiervon und unter Bezugnahme auf die beigefügte Zeichnung beschrieben worden ist, versteht sich, dass eine Vielzahl von Änderungen und Modifikationen gemacht werden kann, ohne vom Umfang der Erfindung abzuweichen.
  • Beispielsweise kann die zyklische Bereitstellung von Eingabekandidaten vom Benutzer geändert oder neu angeordnet werden, um die Eingabeeffizienz zu erhöhen. Eine Anweisung 9 kann beispielsweise verwendet werden, um ein Zeichen a, s, d, f, g, h oder j einzugeben.
  • Derartige Änderungen und Abwandlungen liegen im Rahmen der vorliegenden Erfindung, wie er durch die nachfolgenden Ansprüche und deren Äquivalente definiert ist.

Claims (14)

  1. Eine Eingabevorrichtung (10) mit einer berührungsempfindlichen Fläche, insbesondere einem Touch Pad (1), welches eine Berührung durch einen Finger erfasst, um selektiv eine Mehrzahl von Anweisungstypen für eine angeschlossene Vorrichtung bereitzustellen, wobei die Eingabevorrichtung (10) aufweist: eine Fingertyperkennungseinheit (2) zur Erkennung eines Fingertyps des Fingers, der von dem Touch Pad (1) erfasst wurde; und eine Anweisungsausgabeeinheit (3) zur Ausgabe wenigstens eines der Mehrzahl von Typen von Anweisungen abhängig von dem Fingeryp, der von der Fingertyperkennungseinheit (2) erkannt wurde.
  2. Die Eingabevorrichtung nach Anspruch 1, weiterhin mit einer Berührungspunkterkennungseinheit (1) zur Erkennung eines Berührungspunktes auf dem Touch Pad (1), wobei die Anweisungsausgabeeinheit (3) wenigstens eine aus der Mehrzahl von Typen von Anweisungen, abhängig von dem Berührungspunkt, erkannt durch die Berührungspunkterkennungseinheit (1) zusammen mit dem Fingertyp, erkannt durch die Fingertyperkennungseinheit (2), ausgibt.
  3. Die Eingabevorrichtung nach Anspruch 1 oder 2, wobei das Touch Pad (1) separat von einer Anzeigeeinheit angeordnet ist, welche einen Betriebszustand der Vorrichtung anzeigt.
  4. Die Eingabevorrichtung nach Anspruch 1 oder 2, wobei das Touch Pad (1) integral auf der Anzeigeeinheit angeordnet ist, welche einen Betriebszustand der Vorrichtung anzeigt.
  5. Die Eingabevorrichtung nach einem der Ansprüche 1 bis 4, wobei die Fingertyperkennungseinheit (2) den Fingertyp des Fingers, der von dem Touch Pad (1) erfasst worden ist, auf der Grundlage der Erkennung eines Fingerabdrucks des Fingers erkennt.
  6. Die Eingabevorrichtung nach einem der Ansprüche 1 bis 4, wobei die Fingertyperkennungseinheit (2) den Fingertyp des Fingers, der von dem Touch Pad (1) basierend auf der Erkennung der Handform erkannt wird, erkennt, welche auf das Touch Pad (1) projiziert wird, wenn die Berührung von dem Touch Pad (1) erfasst wird.
  7. Die Eingabevorrichtung nach einem der Ansprüche 1 bis 6, wobei die Vorrichtung ein Fahrzeugnavigationssystem ist.
  8. Die Eingabevorrichtung nach einem der Ansprüche 1 bis 6, wobei die Vorrichtung ein Personal Computer ist.
  9. Ein Verfahren zur Bereitstellung einer Mehrzahl von Anweisungstypen für eine angeschlossene Vorrichtung basierend auf einer Berührung durch einen Finger auf einer berührungsempfindlichen Fläche, insbesondere einem Touch Pad (1), aufweisend: Erkennen eines Fingertyps des Fingers basierend auf der Berührung auf dem Touch Pad (1); und Assoziieren des vom Touch Pad (1) erkannten Fingertyps mit der Anweisung, wobei wenigstens einer aus einer Mehrzahl von Anweisungstypen, welche dem vom Touch Pad (1) erkannten Fingertyp zugeordnet sind, für die angeschlossene Vorrichtung bereitgestellt wird.
  10. Das Verfahren nach Anspruch 9, weiterhin mit: Erkennen eines Berührungspunktes auf dem Touch Pad (1), wobei wenigstens einer aus einer Mehrzahl von Anweisungstypen für die angeschlossene Vorrichtung basierend auf dem Fingertyp, erkannt durch das Touch Pad (1) und den Berührungspunkt bereitgestellt wird.
  11. Das Verfahren nach Anspruch 10, wobei der Fingertyp basierend auf einem Fingerabdruck erkannt wird, der von dem Touch Pad (1) erkannt wird.
  12. Das Verfahren nach Anspruch 9 oder 10, wobei der Fingertyp basierend auf einer Form der Hand erkannt wird, welche von dem Touch Pad (1) erfasst wird.
  13. Das Verfahren nach einem der Ansprüche 9 bis 12, wobei die angeschlossene Vorrichtung ein Fahrzeugnavigationssystem ist.
  14. Das Verfahren nach einem der Ansprüche 9 bis 12, wobei die angeschlossene Vorrichtung ein Personal Computer ist.
DE102006039767A 2005-09-05 2006-08-24 Eingabevorrichtung Ceased DE102006039767A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-256488 2005-09-05
JP2005256488A JP2007072578A (ja) 2005-09-05 2005-09-05 入力装置

Publications (1)

Publication Number Publication Date
DE102006039767A1 true DE102006039767A1 (de) 2007-03-15

Family

ID=37763295

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006039767A Ceased DE102006039767A1 (de) 2005-09-05 2006-08-24 Eingabevorrichtung

Country Status (3)

Country Link
US (1) US20070052686A1 (de)
JP (1) JP2007072578A (de)
DE (1) DE102006039767A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012022362A1 (de) 2012-11-15 2014-05-15 GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) Eingabevorrichtung für ein Kraftfahrzeug
DE102015211521A1 (de) * 2015-06-23 2016-12-29 Robert Bosch Gmbh Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102017101669A1 (de) 2017-01-27 2018-08-02 Trw Automotive Electronics & Components Gmbh Verfahren zum Betreiben einer Mensch-Maschinen-Schnittstelle sowie Mensch-Maschinen-Schnittstelle
DE102019122630A1 (de) * 2019-08-22 2021-02-25 Bayerische Motoren Werke Aktiengesellschaft Bedienvorrichtung für ein Kraftfahrzeug

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8706023B2 (en) 2008-01-04 2014-04-22 3D Radio Llc Multi-tuner radio systems and methods
WO2002067447A2 (en) 2001-02-20 2002-08-29 Ellis Caron S Enhanced radio systems and methods
US8699995B2 (en) 2008-04-09 2014-04-15 3D Radio Llc Alternate user interfaces for multi tuner radio device
US8868023B2 (en) 2008-01-04 2014-10-21 3D Radio Llc Digital radio systems and methods
JP5224355B2 (ja) * 2008-10-21 2013-07-03 Necカシオモバイルコミュニケーションズ株式会社 携帯端末及びプログラム
JP5392900B2 (ja) * 2009-03-03 2014-01-22 現代自動車株式会社 車載機器の操作装置
US8111247B2 (en) * 2009-03-27 2012-02-07 Sony Ericsson Mobile Communications Ab System and method for changing touch screen functionality
GB0908456D0 (en) * 2009-05-18 2009-06-24 L P Touch screen, related method of operation and systems
US8390584B1 (en) * 2009-10-13 2013-03-05 Intuit Inc. Digit aware touchscreen
JP2011180843A (ja) * 2010-03-01 2011-09-15 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2012215632A (ja) * 2011-03-31 2012-11-08 Fujifilm Corp レンズ装置及びその操作制御方法
JP6089305B2 (ja) * 2014-09-26 2017-03-08 裕一朗 今田 ポインチング装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02188818A (ja) * 1989-01-18 1990-07-24 Hitachi Ltd 手書き入出力装置並びにこの手書き入出力装置を用いた手書き入力システム
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6512838B1 (en) * 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
KR101332168B1 (ko) * 1999-10-27 2013-11-25 피루쯔 가사비안 일체화된 키패드 시스템
US6654484B2 (en) * 1999-10-28 2003-11-25 Catherine Topping Secure control data entry system
US20040151353A1 (en) * 1999-10-28 2004-08-05 Catherine Topping Identification system
US20050111709A1 (en) * 1999-10-28 2005-05-26 Catherine Topping Identification system
JP4434424B2 (ja) * 2000-04-18 2010-03-17 株式会社ルネサステクノロジ ホームエレクトロニクスシステム、ホームサーバ装置およびコンピュータをホームサーバ装置として機能させるためのプログラムを記録したコンピュータ読取可能な記録媒体
DE10039432C1 (de) * 2000-08-11 2001-12-06 Siemens Ag Bedieneinrichtung
WO2005122401A2 (en) * 2004-06-04 2005-12-22 Keyless Systems Ltd Systems to enhance data entry in mobile and fixed environment
US20040085300A1 (en) * 2001-05-02 2004-05-06 Alec Matusis Device and method for selecting functions based on intrinsic finger features
KR101128724B1 (ko) * 2001-07-12 2012-06-12 벤자민 피루쯔 가사빈 데이터 입력 방법
WO2003017244A1 (en) * 2001-08-17 2003-02-27 Multidigit, Inc. System and method for selecting actions based on the identification of user's fingers
CA2522604A1 (en) * 2003-04-18 2004-11-04 Benjamin Firooz Ghassabian Systems to enhance data entry in mobile and fixed environment
US20070097084A1 (en) * 2004-06-25 2007-05-03 Hiroyuki Niijima Command input device using touch panel display
JP2006134184A (ja) * 2004-11-08 2006-05-25 Honda Access Corp 遠隔制御スイッチ
EP2393204A3 (de) * 2005-06-16 2013-03-06 Systems Ltd Keyless Dateneingabesystem

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012022362A1 (de) 2012-11-15 2014-05-15 GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) Eingabevorrichtung für ein Kraftfahrzeug
DE102015211521A1 (de) * 2015-06-23 2016-12-29 Robert Bosch Gmbh Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102017101669A1 (de) 2017-01-27 2018-08-02 Trw Automotive Electronics & Components Gmbh Verfahren zum Betreiben einer Mensch-Maschinen-Schnittstelle sowie Mensch-Maschinen-Schnittstelle
DE102019122630A1 (de) * 2019-08-22 2021-02-25 Bayerische Motoren Werke Aktiengesellschaft Bedienvorrichtung für ein Kraftfahrzeug

Also Published As

Publication number Publication date
US20070052686A1 (en) 2007-03-08
JP2007072578A (ja) 2007-03-22

Similar Documents

Publication Publication Date Title
DE102006039767A1 (de) Eingabevorrichtung
DE602004013116T2 (de) Haptische tastengesteuerte Dateneingabe
EP3213171B1 (de) Benutzerschnittstelle und verfahren zur bedienung eines systems
DE102006017486B4 (de) Elektronische Vorrichtung und Verfahren zum Vereinfachen einer Texteingabe unter Verwendung einer Soft-Tastatur
DE69533479T2 (de) Zeichensatz mit zeichen aus mehreren strichen und handschrifterkennungssystem
EP3213178B1 (de) Benutzerschnittstelle und verfahren zur geschützten eingabe von zeichen
WO2008071669B1 (de) Bedieneinheit mit touchscreen-tasten
DE60309889T2 (de) Peripheriegerät für ein Datenverarbeitungssystem
EP2951663B1 (de) Systeminitiierte hilfefunktion für die bedienung von einer, einem fahrzeug zugeordneten vorrichtung - eingabe von leerzeichen
DE102016108899A1 (de) Kombiniertes Ein- und Ausgabegerät und Verfahren zur Bedienung eines Ein- und Ausgabegerätes
DE102012219129B4 (de) Verfahren zum Betreiben einer Vorrichtung, die eine Benutzerschnittstelle mit einem Berührungssensor aufweist, sowie entsprechende Vorrichtung
WO2009056637A2 (de) Verfahren und vorrichtung zum bedienen einer einrichtung eines fahrzeugs mit einer sprachsteuerung
WO2017186369A1 (de) Bedienpanel zum steuern einer industriellen anlage
DE10154643A1 (de) Bedienvorrichtung für einen bildschirmgesteuerten Prozess
DE102015016443A1 (de) Berühungseingabeeinrichtung und Fahrzeug mit dieser
WO2019076598A2 (de) Vorrichtung, system und verfahren zur bedienung einer graphischen benutzeroberfläche sowie kraftfahrzeug
EP3312711A1 (de) Verfahren zur schnellen navigation in einer benutzeroberfläche, verfahren zum herstellen eines produkts aus thermoplastischem kunststoff, anlagensteuerung zur schnellen navigation in einer benutzeroberfäche und anlage zum herstellen eines produkts aus thermoplastischem kunststoff
DE19959218A1 (de) Bedienereinheit für Banknotenbearbeitungsmaschinen
EP1850305A2 (de) Anzeigevorrichtung zur taktil erfassbaren Darstellung von Anzeigeelementen sowie Anzeigesystem mit einer solchen Anzeigevorrichtung
DE10201192A1 (de) Tastatur zur Zeicheneingabe bei elektronischen Geräten bestehend aus einem Sensorstreifen und ein Verfahren zur Benutzung eines Sensorstreifens zur Zeicheneingabe
DE102014018407B4 (de) Bedienvorrichtung zum Steuern eines Geräts eines Kraftfahrzeugs sowie Kraftfahrzeug und Verfahren
DE102021127036A1 (de) System zum Bedienen eines Kraftfahrzeugs
EP4180931A1 (de) Benutzerschnittstellengerät mit berührungsempfindlichem bildschirm
DE102013202818B4 (de) Verfahren zur Steuerung einer Applikation und zugehöriges System
EP2407859A1 (de) Dynamische Anpassung einer Bedienfläche auf einem Sensorbildschirm

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection