DE102007045967A1 - Verfahren und Vorrichtung zur berührungslosen Eingabe von Schriftzeichen - Google Patents

Verfahren und Vorrichtung zur berührungslosen Eingabe von Schriftzeichen Download PDF

Info

Publication number
DE102007045967A1
DE102007045967A1 DE200710045967 DE102007045967A DE102007045967A1 DE 102007045967 A1 DE102007045967 A1 DE 102007045967A1 DE 200710045967 DE200710045967 DE 200710045967 DE 102007045967 A DE102007045967 A DE 102007045967A DE 102007045967 A1 DE102007045967 A1 DE 102007045967A1
Authority
DE
Germany
Prior art keywords
person
characters
sensors
data
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE200710045967
Other languages
English (en)
Inventor
Nhu Nguyen Dr. Thien
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive GmbH
Original Assignee
Continental Automotive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive GmbH filed Critical Continental Automotive GmbH
Priority to DE200710045967 priority Critical patent/DE102007045967A1/de
Priority to PCT/EP2008/062581 priority patent/WO2009040322A1/de
Publication of DE102007045967A1 publication Critical patent/DE102007045967A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Character Discrimination (AREA)

Abstract

Es werden ein Verfahren und eine Vorrichtung zur berührungslosen Eingabe von Schriftzeichen, insbesondere alphanumerischen Zeichen (Z), vorgeschlagen sowie eine Verwendung der Vorrichtung in einem in einem Fahrzeug installierten Nutzersystem, insbesondere Navigationssystem, Kommunikationssystem, Entertainmentsystem, Fahrtschreiber und/oder Tachographen. Dazu umfasst die Vorrichtung eine mit mehreren zueinander beabstandeten Sensoren (21) verbundene Sensoreinheit (20), die Position und Bewegung einer Hand (40) einer Person (P) in Form von Positionsdaten (PD) erfasst, eine damit verbundene Auswerteeinheit (50), die aus den Positionsdaten (PD) Schreibspurdaten (SD) für eine Schreibspur berechnet, die zur Bewegung der Hand (40) korrespondiert, sowie eine damit verbundene Erkennungseinheit (31), die die Schreibspurdaten (SD) mittels einer Hand (Z) wandelt. Vorzugsweise werden auch die Positionsdaten (PD) mindestens einer Position ausgewertet, um alle erfassten Positionsdaten (PD) und/oder die Schreibspurdaten (SP) einem virtuellen Schreibbereich (24') und/oder Person (P') zuzuordnen.

Description

  • Die Erfindung betrifft ein Verfahren zur berührungslosen Eingabe von Schriftzeichen, insbesondere von alphanumerischen Zeichen, sowie eine das Verfahren ausführende Vorrichtung und ihre Verwendung.
  • Insbesondere betrifft die Erfindung ein Verfahren sowie eine Vorrichtung, bei denen die Schriftzeichen als Eingabe für ein in einem Fahrzeug installierten Nutzersystem, insbesondere Navigationssystem, Kommunikationssystem, Entertainmentsystem, Fahrtschreiber, insbesondere mit elektronischem Fahrtenbuch, Tachographen und/oder Komfortsystem, insbesondere für Klimaanlage oder Sitzverstellung, überträgt.
  • Üblicherweise erfolgt die Eingabe von Schriftzeichen manuell über Tastaturen bzw. Tastenfelder, die als Eingabevorrichtungen für z. B. Computer ausgestaltet sind oder in Benutzergeräten, wie z. B. Navigationsgeräten und dergleichen, integriert sind. Die bekannten Tastaturen sind häufig mit mechanischen Tasten ausgestattet, können aber auch beispielsweise mit einem berührungssensitiven Eingabefeld (sogenanntes Touchpad) ausgestattet sein. Es ist auch bekannt, Bildschirme mit berührungsempfindlichen Oberflächen als sogenannte Touchscreens auszugestalten, bei denen der Benutzer auf dem Bildschirm selbst die Eingabe vornehmen kann. Neben der Eingabe von einzelnen Zeichen können hier auch handschriftliche Eingaben gemacht werden, die als grafischer Schriftzug erkannt und verarbeitet werden.
  • Bei diesen bekannten Verfahren und Vorrichtungen erfolgt jedoch die Eingabe immer durch Berühren von entsprechenden Tasten bzw. sensitiven Berührungsflächen. Dies erfordert von dem Benutzer eine gewisse manuelle Geschicklichkeit und bringt Probleme, wie etwa Verschmutzung und mechanischen Verschleiß der Eingabevorrichtung mit sich. Außerdem besteht beim Hinschauen auf Tastatur oder Bedienfeld das Problem der Ablenkung des Benutzers, insbesondere während der Fahrt in einem Fahrzeug.
  • In der DE 103 12 812 A1 wird beispielsweise eine solche Vorrichtung als kombinierte Anzeige- und Eingabeeinrichtung für Kraftfahrzeuge beschrieben. Diese verfügt über einen als Handschrifteingabefläche ausgebildeten Bildschirmbereich, auf dem der Benutzer Eingaben vornehmen kann, welche mittels eines Handschriftenerkennungsmoduls als handschriftlich vorgenommene Eingaben erkannt und verarbeitet werden. Auch hier ist es erforderlich, dass der Benutzer dazu den als Touchscreen ausgebildeten Bildschirm berührt.
  • In der DE 102 11 307 A1 werden ein Verfahren und eine Vorrichtung zur opto-elektronischen Erkennung der Bewegung bzw. Position eines Objektes, z. B. des Fingers einer Hand, vorgestellt. Hier wird jeweils eine Taste durch optoelektrische Bauteile (Sendeelement und Empfangselement) so nachgebildet, dass die Betätigung der Taste berührungslos erfolgen kann. Somit wird eine optoelektrische Tastatur gebildet, die eine mechanische Tastatur ersetzen kann. Die dortige Lösung dient insbesondere zur berührungslosen Eingabe einzelner Zeichen. Dort wird auch die Möglichkeit einer Schriftenerkennung erwähnt, ohne jedoch näher hierauf einzugehen. Wünschenswert wäre es aber, eine Lösung für die berührungslose Eingabe von Schriftzeichen in beliebiger Form zu haben.
  • Weitere bekannte Verfahren und Vorrichtungen zur berührungslosen Eingabe sind lediglich im Zusammenhang mit der Eingabe von Befehlen bzw. zur Detektion von Gesten (sogenannten „gestures") bekannt, um damit eine anwenderseitige Steuerung von Systemen und Geräten vorzunehmen. Beispielsweise wird in der DE 20 2006 001 037 U1 eine Vorrichtung in Gestalt einer elektrischen Schaltungsanordnung zur Generierung von Signal ereignissen beschrieben, die zur Generierung eines Eingabeereignisses bzw. eines Schaltsignals über eine Eingabekomponente verfügt, welche über Sensoren berührungslos feldelektrische Wechselwirkungseffekte mit Hand oder Finger einer Person erfasst und daraus berührungslos die Position bzw. Bewegung der Hand bzw. des Fingers erkennt. Außerdem können modulierte Signale über den Körper der Person an die Eingabekomponente übertragen werden, um beispielsweise die Person anhand des modulierten Signals zu identifizieren. Die hier beschriebene Lösung dient jedoch lediglich zur anwenderseitig durchgeführten Steuerung von Systemen bzw. Geräten, wie z. B. der Sitz-, Spiegel- und Lenkradkonfiguration in einem Fahrzeug. Über die Eingabe von Schriftzeichen, insbesondere von alphanumerischen Zeichen, wird dort nichts beschrieben.
  • Daher ist es Aufgabe der vorliegenden Erfindung, die Probleme der oben genannten bekannten Lösungen in vorteilhafter Weise zu überwinden. Insbesondere sollen ein Verfahren und eine Vorrichtung zur berührungslosen Eingabe von Schriftzeichen, insbesondere von alphanumerischen Zeichen, vorgeschlagen werden, die besonders benutzerfreundlich realisiert werden können. Außerdem sollen sehr praktische Verwendungen für die Vorrichtung vorgeschlagen werden.
  • Gelöst wird die Aufgabe durch ein Verfahren mit den Merkmalen des Anspruchs 1 und durch eine danach arbeitende Vorrichtung mit den Merkmalen des nebengeordneten Anspruchs sowie durch ihre hier vorgeschlagene Verwendung.
  • Demnach wird ein Verfahren vorgeschlagen, bei dem mittels mehrerer zueinander beabstandeter Sensoren die Position und Bewegung von Hand oder Finger einer Person in Form von Positionsdaten erfasst werden, bei der mittels Auswertung der Positionsdaten Schreibspurdaten für eine Schreibspur berechnet werden, die zur Bewegung der Hand bzw. des Fingers korrespondiert, und bei dem die Schreibspurdaten mittels einer Handschriftenerkennung in entsprechende Schriftzeichen gewandelt werden. Unter Schriftzeichen werden hier auch Zeichen und Symbole verstanden, die vom Benutzer selbst definiert und dem System antrainiert worden sind. Die hier vorgeschlagene Vorrichtung weist dementsprechend eine mit mehreren zueinander beabstandeten Sensoren verbundene Sensoreinheit auf, die Position und Bewegung von Hand oder Finger einer Person in Form von Positionsdaten erfasst, und die eine damit verbundene Auswerteeinheit aufweist, die aus den Positionsdaten Schreibspurdaten berechnet, sowie eine damit verbundene Erkennungseinheit aufweist, die die Schreibspurdaten mittels einer Handschriftenerkennung in entsprechende Schriftzeichen wandelt. Es kann also eine allgemeine wie auch individuelle Handschriftenerkennung durchgeführt werden.
  • Insbesondere liegt der Erfindung auch die Erkenntnis zu Grunde, dass eine Kombination von einer mit mehreren Sensoren ausgestatteten Sensorik mit einer intelligenten Handschriftenerkennung, insbesondere in Gestalt einer solchen Vorrichtung, besonders gut zur berührungslosen Eingabe von Schriftzeichen verwendet werden kann. Dies kann insbesondere in einem in einem Fahrzeug installierten Nutzersystem realisiert werden, wie etwa in einem Navigationssystem, Kommunikationssystem, Entertainmentsystem, Fahrtschreiber, insbesondere mit elektronischen Fahrtenbuch, Tachographen und/oder Komfortsystem, insbesondere für Klimaanlage oder Sitzverstellung.
  • Durch die Erfindung wird in vorteilhafter Weise eine mit mehreren zueinander beabstandeten Sensoren ausgestattete Sensorik mit einer intelligenten Handschriftenerkennung kombiniert, sodass eine berührungslose Eingabe von Schriftzeichen in sehr anwenderfreundlicher Weise realisierbar ist. Für die Eingabe braucht der Anwender lediglich seine Hand bzw. den Finger im Bereich der Sensorik zu führen, so dass er quasi einfach und ohne Mühe „in der Luft" schreiben kann.
  • Bevorzugt werden die Positionsdaten fortlaufend erfasst, um die Schreibspurdaten zu berechnen, wobei auch die Positions daten mindestens einer Position ausgewertet werden, um alle erfassten Positionsdaten und/oder die Schreibspurdaten einem virtuellen Schreibbereich und/oder einer Person zuzuordnen. Hierdurch erfolgt mittels der Sensorik nicht bloß eine fortlaufende Erkennung der Position bzw. die eigentliche Nachverfolgung der Hand bzw. des Fingers, um die gewünschten Schreibspurdaten zu erhalten, sondern auch eine Zuordnung der Schreibspurdaten zu einem virtuellen Schreibbereich und/oder einer Person. In diesem Zusammenhang wird z. B. mittels mindestens jeweils zwei, vorzugsweise vier, Sensoren ein Sensorfeld definiert, das dem virtuellen Schreibbereich und/oder der Person zugeordnet wird. Insbesondere können hierzu mindestens zwei verschiedene Sensorfelder definiert werden, die jeweils einen virtuellen Schreibbereich und/oder einer Person zugeordnet werden.
  • Mit einer solchen Untergliederung der Sensorik in verschiedene Sensorfelder wird somit eine sehr einfach realisierbare Zuordnung der gewonnenen Schreibspurdaten erreicht, so dass diese Daten gezielt (z. B. bereichsbezogen, funktionsbezogen und/oder personenbezogen) weiter verarbeitet werden können. Werden die Sensoren beispielsweise in einem Fahrzeug installiert, so kann auf diese Weise sehr einfach erkannt werden, ob die handschriftliche berührungslose Eingabe etwa auf der Fahrerseite oder auf der Beifahrerseite erfolgt. Somit können die gewonnenen Schreibspurdaten dann sofort der in Frage kommenden Person, d. h. dem Fahrer oder dem Beifahrer, zugeordnet werden. Vorzugsweise werden dann die Schreibspurdaten mittels einer solchen Handschriftenerkennung verarbeitet, die auch auf diese Person hin trainiert worden sein könnte. Es können auch individuell definierte Zeichen und Symbole erkannt werden. Ebenso kann die Verarbeitung funktionsbezogen erfolgen, indem z. B. erkannt wird, dass die Eingabe in der Nähe der Anzeige des Navigationssystems erfolgte, so dass die Eingabe automatisch den entsprechenden Funktionen, wie z. B. der Zieleingabe, zugewiesen werden kann.
  • Als Sensoren können z. B. elektro-optische, akustische, induktive und/kapazitive Sensoren verwendet werden. Bei der Verwendung von kapazitiven Sensoren wird vorzugsweise über den Körper der Person zur Hand bzw. zum Finger hin ein moduliertes Signal übertragen, das die dort im Sensorfeld vorherrschende elektrische Feldstärke verändert bzw. manipuliert, wobei dieses Signal mittels der kapazitiven Sensoren detektiert wird. Somit ist es möglich, zusätzlich zur räumlichen Erkennung der Handposition bzw. -bewegung über die Sensorik auch ein moduliertes Informationssignal zu empfangen, das beispielsweise Informationen über die Person selbst wiedergibt.
  • Vorzugsweise werden das Verfahren und die Vorrichtung für ein in einem Fahrzeug installiertes Benutzersystem eingesetzt, insbesondere in Navigationssystemen, Kommunikationssystemen, Entertainmentsystemen, Fahrtschreibern, insbesondere mit elektronischen Fahrtenbuch, Tachographen und/oder Komfortsystemen, insbesondere für Klimaanlage oder Sitzverstellung.
  • Diese und weitere Vorteile ergeben sich auch aus den Unteransprüchen.
  • Im folgenden wird die Erfindung im Detail anhand von Ausführungsbeispielen und unter Bezugnahme auf die beiliegenden Figuren beschrieben, wobei:
  • 1 ein Blockschaltbild einer erfindungsgemäßen Vorrichtung darstellt;
  • 2 eine Aufteilung der Sensorik in verschiedene Sensorfelder darstellt;
  • 3 eine zusätzliche Übertragung eines modulierten Signals über den Körper der Person darstellt;
  • 4 ein Ablaufdiagramm für ein erfindungsgemäßes Verfahren darstellt.
  • Die 1 zeigt eine Anordnung mit einer erfindungsgemäßen Vorrichtung, die zur berührungslosen Eingabe von Schriftzeichen eine Sensoreinheit 20 aufweist, welche mittels mehrerer zueinander beabstandeter Sensoren 21 die Position und Bewegung einer Hand 40 bzw. eines Fingers in Form von Positionsdaten PD erfasst. Die Vorrichtung weist weiterhin eine mit der Sensoreinheit 20 verbundene Auswerteeinheit 50 auf, die aus den Positionsdaten PD Schreibspurdaten SD für eine Schreibspur berechnet, welche zur Bewegung der Hand 40 korrespondiert. Außerdem weist die Vorrichtung eine mit der Auswerteeinheit 50 verbundene Erkennungseinheit 31 auf, die die Schreibspurdaten SD mittels einer Handschriftenerkennung in entsprechende Schriftzeichen (Z) wandelt.
  • Die Erkennungseinheit 31 ist in diesem Beispiel in ein Anwendungssystem 30 integriert, welches hier als Navigationssystem ausgebildet ist. Das Navigationssystem 30 hat insbesondere ein Anwendungsmodul 32, welches von der Handschriftenerkennung 31 die gewonnenen Schriftzeichen Z empfängt und als Eingabedaten verarbeitet. Somit können aus der detektierten Hand- oder Fingerbewegung die von dem Benutzer handschriftlich und berührungslos eingegebenen Schriftzeichen Z erkannt werden, also z. B. alphanumerische Zeichen A, B, C, ... sowie Zahlen 0, 1, 2, ... usw. Die mittels der Sensorschaltung 20 durchgeführte Detektion der Position und Bewegung der Hand 40 kann z. B. anhand bekannter Verfahren durchgeführt werden, die eingangs bereits genannt worden sind. Die fortlaufende Erfassung der sich ändernden Positionsdaten PD erfolgt über einen vorgebbaren Zeitraum hinweg, um die Bewegung der Hand zu erfassen und um daraus einen Schreibzug zu erkennen. Die in der Erkennungseinheit 50 erfolgende Berechnung der Schreibspurdaten SD kann ebenfalls mittels herkömmlicher Verfahren, wie eingangs genannt, erfolgen.
  • Die Erkennungseinheit kann auch extern und getrennt vom Anwendungsmodul implementiert sein, wobei diese dann über eine geeignete Schnittstelle in Verbindung miteinander stehen.
  • Es liegt nun der Erfindung insbesondere auch die Erkenntnis zu Grunde, dass eine Kombination von einer mit mehreren Sensoren ausgestatteten Sensorik mit einer intelligenten Handschriftenerkennung, insbesondere in Gestalt derart ausgestatteten Vorrichtung, besonders gut zur berührungslosen Eingabe von Schriftzeichen verwendet werden kann. Als Verwendungsgebiet eignen sich insbesondere die in einem Fahrzeug installierten Nutzersysteme, wie etwa Navigationssysteme, Kommunikationssysteme, Entertainmentsysteme, Fahrtschreibern und/oder Tachographen sowie Komfortsystemen.
  • Bevorzugt wird nun auch mittels der hier vorgestellten Vorrichtung eine Zuordnung der Schreibspurdaten SD zu einer virtuellen Schreibfläche bzw. zu einer Person durchgeführt. Dieses wird nachfolgend näher anhand der 2 bis 4 beschrieben. Außerdem wird nachfolgend noch näher beschrieben, dass über den Körper der Person, insbesondere über die Hand 40, modulierte Signale an die Sensoreinheit 20 übertragen werden können, um Zusatzinformationen an das Anwendungsmodul 32 weiterzuleiten. Die hierfür erforderlichen Baugruppen bzw. Komponenten sind in der 1 in Form eines Signalgebers 11 und eines Signalempfängers 22 dargestellt, wobei der Signalgeber 11 beispielsweise in einem Fahrzeugsitz 10 integriert sein kann. Auch dieser und weitere Aspekte der Erfindung werden nachfolgend näher beschrieben.
  • Die 2 zeigt die Anordnung von mehreren Sensoren, die beispielsweise in einem Fahrzeug derart angeordnet sind, dass sie ein erstes Sensorfeld 23' und ein zweites Sensorfeld 23'' bilden bzw. definieren. In dem dargestellten Beispiel umfasst die Sensorik 23 insgesamt sechs räumlich zueinander beabstandete Sensoren 21A bis 21F, wobei die Sensoren 21A, 21B, 21D und 21E ein rechteckiges erstes Sensorfeld 23' aufspannen.
  • Dieses erste Sensorfeld 23' befindet sich links in einem Fahrzeug im Nahbereich einer ersten Person P', die beispielsweise durch den Fahrer repräsentiert wird. Das zweite Sensorfeld 23'' wird durch die Sensoren 21B, 21C, 21E und 21F im rechten Teil des Fahrzeugs aufgespannt und ist einer zweiten Person P'' zugeordnet, die beispielsweise durch den Beifahrer bzw. Passagier repräsentiert wird. Befindet sich nun eine Hand links in dem ersten Sensorfeld 23', so wird diese als eine zur ersten Person P' gehörende Hand erkannt. Eine in dem anderen, linken Sensorfeld 23'' detektierte Hand wird wiederum der zweiten Person P'' zugeordnet.
  • Damit kann bereits durch die Sensorik 23 selbst eine Zuordnung bzw. Identifikation derjenigen Person durchgeführt werden, die die Eingabe macht. In jedem Sensorfeld 23' oder 23'' kann zudem eine virtuelle Schreibfläche 24' bzw. 24'' definiert werden, die jeweils den für die Eingabe zulässigen Bereich darstellt. Außerhalb der Schreibflächen werden keine Eingaben zugelassen. Die Sensoren können beispielsweise so angeordnet werden, dass sich die entsprechenden Schreibflächen 24' bzw. 24'' in unmittelbarer Nähe zu einem Bedienungsgerät, insbesondere zu einem dortigen Bildschirm bzw. Anzeige-Display, ausgerichtet sind. Somit befindet sich die jeweilige virtuelle Schreibfläche oberhalb einer jeweiligen Bildschirmfläche oder Bedienvorrichtung, wodurch eine Eingabe durch Anzeige von möglichen Hilfssymbolen und dergleichen erleichtert werden kann. Dadurch ist eine direkte und berührungslose Benutzerführung möglich.
  • Die hier in 2 dargestellte Sensorik 23 umfasst vorzugsweise elektro-optische Sensoren 21A bis 21F, die räumlich gezielt verteilt in dem Fahrzeug angeordnet sind und mehrere Sensorfelder 23', 23'', ... bzw. mehrere virtuelle Schreibflächen 24', 24'', ... definieren. Dabei kann ein Sensorfeld auch mehrere virtuelle Schreibflächen aufweisen, um eine weitere Differenzierung zu ermöglichen.
  • Es wird nachfolgend ein Beispiel für ein Verfahren zur berührungslosen Eingabe beschrieben, das mit der in der 1 dargestellten Vorrichtung und in der 2 gezeigten Anordnung ausgeführt werden kann, wobei hier auch auf das Ablaufdiagramm nach 4 Bezug genommen wird: Beispielsweise detektieren die Sensoren 21A, 21B, 21D und 21E in einem ersten Schritt 110, dass sich eine Hand auf der linken virtuellen Schreibfläche 24' befindet. Dann wird eine fortlaufende Detektion der Position bzw. Bewegung der Hand oder des Fingers durchgeführt, um fortlaufend die Positionsdaten PD (siehe auch 1) zu erfassen. In einem nachfolgenden Schritt 120 werden aus den gewonnenen Positionsdaten die Schreibspurdaten SD berechnet, welche zur Bewegung der Hand bzw. des Fingers korrespondieren. Dann wird in einem späteren Schritt 140 mittels einer Handschriftenerkennung eine Umwandlung bzw. Umsetzung der Schreibspurdaten in entsprechende Schriftzeichen Z durchgeführt.
  • Vor dem Schritt 140 erfolgt vorzugsweise noch eine Zuordnung der erkannten Schreibspurdaten zu der eingebenden Person, d. h. hier zu der ersten Person P', die z. B. durch den Fahrer repräsentiert wird. Diese Zuordnung wird in einem Schritt 130 durchgeführt, wobei mittels der Positionsdaten, vorzugsweise der Anfangs-Positionsdaten, erkannt wird, dass die Hand sich auf der linken virtuellen Schreibfläche 24' befindet und somit der Person P' zuzuordnen ist. Dann kann in dem weiteren Schritt 140 die Handschriftenerkennung personenbezogen optimiert werden, wobei vorzugsweise auf bereits durch diese Person P' trainierte Daten oder individuelle Symbole und Zeichen zurückgegriffen wird.
  • Somit erfolgt nicht nur eine allgemeine Erfassung von Position und Bewegung der Hand, sondern auch eine Handschriftenerkennung und/oder Zuordnung zu einer virtuellen Schreibfläche. Neben der Möglichkeit, die erkannte Handschrift einer bestimmten Person zuordnen zu können, besteht durch die mittels der Sensorik 23 erreichten Zuordnung zu verschiedenen Schreibflächen auch die Möglichkeit, die erkannten bzw. berechneten Schreibspurdaten einer bestimmten Funktion zuzuordnen. Beispielsweise ist die erste virtuelle Schreibfläche 24' der Fahrerposition zugeordnet, so dass dort erkannte Eingaben auch als Fahrer-funktionsspezifische Eingaben erkannt und zugelassen werden können. Dies können beispielsweise Funktionen für die Abfrage und Einstellung von Fahrzeugdaten z. B. für das Motormanagement und dergleichen sein, welche nicht von anderen Personen ausführbar sein sollten. Die andere, rechte Schreibfläche 24'' wird hingegen der Funktion eines Mitfahrers zugeordnet, so dass dortige Eingaben nur für entsprechende Funktionen frei geschaltet werden. Somit kann auch in einfacher Art und Weise eine funktionsspezifische Differenzierung von Eingaben durchgeführt werden.
  • Die 3 zeigt als weiteres Ausführungsbeispiel die Eingabe von einer Person P an einer erfindungsgemäßen Vorrichtung mit einer Sensorik 23, welche vier räumlich zueinander beabstandete Sensoren 21 aufweist. Die Sensoren 21 spannen eine virtuelle Schreibfläche 24 auf, die berührungslos mittels der Hand 40 bedient werden kann. Die Person P sei beispielsweise der Fahrer eines Fahrzeugs, welcher über die erfindungsgemäße Sensorik 23 und nachgeschalte Elektronik, Eingaben für ein Navigationssystem vornimmt. Der Fahrer P befindet sich auf dem Fahrersitz 10, in welchem eine leitende Folie 11' integriert ist, die mit einem Signalgeber 11 verbunden ist (siehe auch 1).
  • Der Signalgeber 11 erzeugt nun ein moduliertes Signal S, welches über die Folie 11' in den Körper der Person P eingekoppelt wird und über die Hand 40 bis hin zur Eingabevorrichtung bzw. Sensorik 23 übertragen wird. Die Sensoren 21 sind in diesem Beispiel kapazitive Sensoren, welche sowohl die Position der Hand selbst wie auch das darin eingekoppelte Signal S anhand von feldelektrischen Wechselwirkungen erkennen. Es wird also die physikalische Erscheinung ausgenutzt, die auf tretende Wechselwirkung auf das im Bereich der Sensorik 23 vorherrschende E-Feld mit einer Modulation von Daten bzw. Informationen zu beaufschlagen und diese über die Sensorik 23 zu empfangen. Somit können beispielsweise zusätzliche Informationen über die Person P bei der Eingabe erfasst und später weiterverarbeitet werden.
  • Das vorgeschlagene Verfahren sowie die Erfindung zur berührungslosen Eingabe von Schriftzeichen ist besonders gut zum Einsatz in Benutzersystemen geeignet, welche in einem Fahrzeug integrierbar sind, wie beispielsweise in Navigationssystemen. Die zueinander beabstandeten Sensoren, welche sich an der Schreibfläche oder dort, wo die Eingabe erfolgt, befinden, detektieren die Annäherung der Hand bzw. des Fingers und erkennen die Position sowie Bewegung, so dass der Nutzer berührungslos auf einer virtuellen Schreibfläche handschriftliche Eingaben ausführen kann. Die erfassten und in der Auswerteelektronik berechneten Positionsdaten geben den beschriebenen Schriftzug bzw. die Schreibspur wieder und werden als Eingangsdaten für eine Handschriftenerkennung verwendet. Diese wiederum führt eine allgemeine oder gar individuelle Handschriftenerkennung aus und liefert die gesuchten Schriftzeichen zur Weiterleitung an die jeweiligen Anwendungen. Die Sensorik kann leicht an beliebigen Orten installiert werden.
  • Mit der vorgeschlagenen Lösung wird somit auch das Problem eines optimalen Einbauortes für Eingabe- bzw. Schreibflächen gelöst. Auf mechanische Eingabevorrichtungen kann aufgrund der Sensorik und der damit geschaffenen virtuellen bzw. imaginären Schreibflächen verzichtet werden. Durch die räumliche Zuordnung mehrerer Sensoren zu bestimmten Teilbereichen kann eine personen- und/oder funktionsbezogene Zuordnung, insbesondere im Bereich von Automotive-Anwendungen, realisiert werden. So kann beispielsweise die ergonomische Problematik bei Rechts-/Linkslenkfahrzeugen, Rechts-/Linkshänder oder Fahrer-/Beifahrer-Kombinationen durch eine vielseitig modifi zierbare Einbauweise von imaginären Schreibflächen im Fahrzeuginterieur gelöst werden. Beispiele für die Anordnung von imaginären Schreibflächen sind die Mittelkonsole, die Mittelarmlehne, die Fahrer- bzw. Beifahrertür, der Bereich oberhalb des Lenkrades, der Handschuhfachdeckel usw.
  • Dadurch, dass keine berührungs- bzw. drucksensitiven Eingabemedien benötigt werden, ergibt sich zudem ein Kostenvorteil. Auch sind keine konstruktiven Schutzmaßnahmen, z. B. gegen Spritzwasser, Staub oder dergleichen, erforderlich. Durch die zusätzliche Verwendung von Signalgebern und Signalempfängern ist eine weiterreichende Individualisierung der Eingabe, insbesondere eine Nutzerunterscheidung, möglich. Die mittels der Erfindung berechneten Eingabedaten bzw. Schriftzeichen können für vielerlei Anwendungen, wie beispielsweise zur Eingabe von Navigationszielen, Rufnummern und dergleichen verwendet werden. Die Erfindung ist jedoch auf die hier konkret beschriebenen Anwendungsbeispiele nicht beschränkt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - DE 10312812 A1 [0005]
    • - DE 10211307 A1 [0006]
    • - DE 202006001037 U1 [0007]

Claims (19)

  1. Verfahren (100) zur berührungslosen Eingabe von Schriftzeichen, insbesondere alphanumerischen Zeichen (Z), mit folgenden Schritten: mittels mehrerer zueinander beabstandeter Sensoren (21) werden Position und Bewegung einer Hand (40) oder Finger einer Person (P) in Form von Positionsdaten (PD) erfasst (Schritt 110); mittels Auswertung der Positionsdaten (PD) werden Schreibspurdaten (SD) für eine Schreibspur berechnet, die zur Bewegung der Hand (40) oder Finger korrespondiert (Schritt 120), und die Schreibspurdaten (SD) werden mittels einer Handschriftenerkennung in entsprechende Schriftzeichen (Z) gewandelt (Schritt 140).
  2. Verfahren (100) nach Anspruch 1, wobei die Positionsdaten (PD) fortlaufend erfasst werden, um die Schreibspurdaten (SD) zu berechnen, und die Positionsdaten (PD) mindestens einer Position ausgewertet werden, um alle erfassten Positionsdaten (PD) und/oder die Schreibspurdaten (SP) einem virtuellen Schreibbereich (24') und/oder einer Person (P') zuzuordnen (Schritt 130).
  3. Verfahren (100) nach Anspruch 1 oder 2, wobei mittels jeweils mindestens zwei, insbesondere vier, Sensoren (21A, 21B, 21D, 21E) ein Sensorfeld (23') definiert wird, dem ein virtueller Schreibbereich (24') und/oder eine Person (P') zugeordnet wird (Schritt 130).
  4. Verfahren (100) nach Anspruch 3, wobei mindestens zwei verschiedene Sensorfelder (23'; 23'') definiert werden, die jeweils einem virtuellen Schreibbereich (24'; 24'') und/oder einer Person (P'; P'') zugeordnet werden (Schritt 130).
  5. Verfahren (100) nach einem der Ansprüche 2 bis 4, wobei die Schreibspurdaten (SD) mittels einer auf die Person (P') trainierten Handschriftenerkennung in entsprechende Schriftzeichen (Z) gewandelt werden (Schritt 140).
  6. Verfahren (100) nach einem der vorhergehenden Ansprüche, wobei die von der Handschriftenerkennung erkennbaren Schriftzeichen (Z) auch von der Person (P, P') definierte Zeichen und Symbole umfassen.
  7. Verfahren (100) nach einem der vorhergehenden Ansprüche, wobei als Sensoren (21) elektro-optische, akustische, induktive und/oder kapazitive Sensoren verwendet werden.
  8. Verfahren (100) nach einem der vorhergehenden Ansprüche, wobei kapazitive Sensoren (21) verwendet werden und über den Körper der Person (P) zu der Hand (40) ein moduliertes Signal (S) übertragen wird, das die dort vorherrschende elektrische Feldstärke verändert, und wobei das Signal (S) mittels der kapazitiven Sensoren (21) detektiert wird.
  9. Verfahren (100) nach einem der vorhergehenden Ansprüche, wobei die Schriftzeichen (Z) als Eingabe für ein in einem Fahrzeug installiertes Benutzersystem, insbesondere Navigationssystem, Kommunikationssystem, Entertainmentsystem, Fahrtschreiber, insbesondere mit elektronischem Fahrtenbuch, Tachographen und/oder Komfortsysteme, insbesondere für Klimaanlage oder Sitzverstellung, verwendet werden.
  10. Vorrichtung zur berührungslosen Eingabe von Schriftzeichen, insbesondere alphanumerischen Zeichen (Z), mit: einer mit mehreren zueinander beabstandeter Sensoren (21) verbundenen Sensoreinheit (20), die Position und Bewegung einer Hand (40) einer Person (P) in Form von Positionsdaten (PD) erfasst; einer damit verbundenen Auswerteeinheit (50), die aus den Positionsdaten (PD) Schreibspurdaten (SD) für eine Schreibspur berechnet, die zur Bewegung der Hand (40) korrespondiert; und mit einer damit verbundenen Erkennungseinheit (31), die die Schreibspurdaten (SD) mittels einer Handschriftenerkennung in entsprechende Schriftzeichen (Z) wandelt.
  11. Vorrichtung nach Anspruch 10, wobei die Auswerteeinheit (50) die Positionsdaten (PD) fortlaufend erfasst, um die Schreibspurdaten (SD) zu berechnen, und die Positionsdaten (PD) mindestens einer Position auswertet, um alle erfassten Positionsdaten (PD) und/oder die Schreibspurdaten (SP) einem virtuellen Schreibbereich (24') und/oder einer Person (P') zuzuordnen.
  12. Vorrichtung nach Anspruch 10 oder 11, wobei mindestens zwei, insbesondere vier, Sensoren (21A, 21B, 21D, 21D) ein Sensorfeld (23') definieren, dem mindestens ein virtueller Schreibbereich (24') und/oder eine Person (P') zugeordnet ist.
  13. Vorrichtung nach Anspruch 12, wobei mindestens zwei verschiedene Sensorfelder (23'; 23'') definiert sind, die jeweils einem virtuellen Schreibbereich (24'; 24'') und/oder einer Person (P'; P'') zugeordnet sind.
  14. Vorrichtung nach einem der Ansprüche 10 bis 13, wobei die Erkennungseinheit (31) die Schreibspurdaten (SD) mittels einer auf die Person (P') trainierten Handschriftenerkennung in entsprechende Schriftzeichen (Z) wandelt.
  15. Vorrichtung nach einem der Ansprüche 10 bis 14, wobei die Sensoren (21) elektro-optische, akustische, induktive und/oder kapazitive Sensoren sind.
  16. Vorrichtung nach einem der Ansprüche 10 bis 15, wobei die Sensoren kapazitive Sensoren (21) sind und wobei die Vorrichtung einen Signalempfänger (22) aufweist, der ein moduliertes Signal (S) empfängt, das über den Körper der Person (P) zu der Hand (40) übertragen wird und die dort vorherrschende elektrische Feldstärke verändert, wobei das Signal (S) mittels der kapazitiven Sensoren (21) detektiert wird.
  17. Vorrichtung nach einem der Ansprüche 10 bis 16, wobei die Erkennungseinheit (31) die Schriftzeichen (Z) als Eingabe an ein in einem Fahrzeug installiertes Benutzersystem, insbesondere Navigationssystem, Kommunikationssystem, Entertainmentsystem, Fahrtschreiber, insbesondere mit elektronischem Fahrtenbuch, Tachographen und/oder Komfortsystem, insbesondere für Klimaanlage oder Sitzverstellung, überträgt.
  18. Vorrichtung nach einem der Ansprüche 10 bis 17, wobei die Erkennungseinheit getrennt zum Anwendungsmodul, insbesondere extern eines in einem Fahrzeug installierten Benutzersystems, angeordnet ist.
  19. Verwendung einer Vorrichtung nach einem der Ansprüche 10 bis 18, wobei die Vorrichtung zur berührungslosen Eingabe von Schriftzeichen in einem in ein Fahrzeug installiertes Nutzersystem, insbesondere Navigationssystem, Kommunikationssystem, Entertainmentsystem, Fahrtschreiber, insbesondere mit elektronischem Fahrtenbuch, Tachographen und/oder Komfortsystem, insbesondere für Klimaanlage oder Sitzverstellung, verwendet wird.
DE200710045967 2007-09-25 2007-09-25 Verfahren und Vorrichtung zur berührungslosen Eingabe von Schriftzeichen Ceased DE102007045967A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE200710045967 DE102007045967A1 (de) 2007-09-25 2007-09-25 Verfahren und Vorrichtung zur berührungslosen Eingabe von Schriftzeichen
PCT/EP2008/062581 WO2009040322A1 (de) 2007-09-25 2008-09-19 Verfahren und vorrichtung zur berührungslosen eingabe von schriftzeichen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200710045967 DE102007045967A1 (de) 2007-09-25 2007-09-25 Verfahren und Vorrichtung zur berührungslosen Eingabe von Schriftzeichen

Publications (1)

Publication Number Publication Date
DE102007045967A1 true DE102007045967A1 (de) 2009-04-02

Family

ID=40003076

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200710045967 Ceased DE102007045967A1 (de) 2007-09-25 2007-09-25 Verfahren und Vorrichtung zur berührungslosen Eingabe von Schriftzeichen

Country Status (2)

Country Link
DE (1) DE102007045967A1 (de)
WO (1) WO2009040322A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011025884A1 (en) * 2009-08-28 2011-03-03 Robert Bosch Gmbh Gesture-based information and command entry for motor vehicle
DE102011121585A1 (de) * 2011-12-16 2013-06-20 Audi Ag Kraftfahrzeug
FR2995417A1 (fr) * 2012-09-12 2014-03-14 Continental Automotive Gmbh Dispositif de saisie
DE102014206443A1 (de) 2014-04-03 2015-10-08 Continental Automotive Gmbh Verfahren und Vorrichtung zum berührungslosen Eingeben von Schriftzeichen
DE102014224618A1 (de) * 2014-12-02 2016-06-02 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung
DE102013013697B4 (de) * 2013-08-16 2021-01-28 Audi Ag Vorrichtung und Verfahren zum Eingeben von Schriftzeichen im freien Raum

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103577843B (zh) * 2013-11-22 2016-06-22 中国科学院自动化研究所 一种空中手写字符串识别方法
US10078207B2 (en) 2015-03-18 2018-09-18 Endochoice, Inc. Systems and methods for image magnification using relative movement between an image sensor and a lens assembly
CN109344793B (zh) * 2018-10-19 2021-03-16 北京百度网讯科技有限公司 用于识别空中手写的方法、装置、设备以及计算机可读存储介质
US10956016B1 (en) 2019-11-14 2021-03-23 Rockwell Collins, Inc. No look touchscreen panel / CDU

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10211307A1 (de) 2002-03-13 2003-11-20 Mechaless Systems Gmbh Vorrichtung und Verfahren zur optoelektronischen Erkennung der Bewegung und/oder Position eines Objekts
DE10242890A1 (de) * 2002-09-16 2004-03-25 Technische Universität München Kostenbewusste visuelle Interaktion über ein Distanzsensorenfeld
DE10312812A1 (de) 2003-03-21 2004-10-07 Siemens Ag Kombinierte Anzeige- und Eingabeeinrichtung für Kraftfahrzeuge

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3752246B2 (ja) * 2003-08-11 2006-03-08 学校法人慶應義塾 ハンドパターンスイッチ装置
GB0412787D0 (en) * 2004-06-09 2004-07-14 Koninkl Philips Electronics Nv Input system
US20070130547A1 (en) * 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10211307A1 (de) 2002-03-13 2003-11-20 Mechaless Systems Gmbh Vorrichtung und Verfahren zur optoelektronischen Erkennung der Bewegung und/oder Position eines Objekts
DE10242890A1 (de) * 2002-09-16 2004-03-25 Technische Universität München Kostenbewusste visuelle Interaktion über ein Distanzsensorenfeld
DE10312812A1 (de) 2003-03-21 2004-10-07 Siemens Ag Kombinierte Anzeige- und Eingabeeinrichtung für Kraftfahrzeuge

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011025884A1 (en) * 2009-08-28 2011-03-03 Robert Bosch Gmbh Gesture-based information and command entry for motor vehicle
DE102011121585A1 (de) * 2011-12-16 2013-06-20 Audi Ag Kraftfahrzeug
DE102011121585B4 (de) * 2011-12-16 2019-08-29 Audi Ag Kraftfahrzeug
FR2995417A1 (fr) * 2012-09-12 2014-03-14 Continental Automotive Gmbh Dispositif de saisie
WO2014040946A1 (de) * 2012-09-12 2014-03-20 Continental Automotive Gmbh Eingabeeinrichtung
CN104620202A (zh) * 2012-09-12 2015-05-13 大陆汽车有限责任公司 输入装置
CN104620202B (zh) * 2012-09-12 2017-09-08 大陆汽车有限责任公司 输入装置
DE102013013697B4 (de) * 2013-08-16 2021-01-28 Audi Ag Vorrichtung und Verfahren zum Eingeben von Schriftzeichen im freien Raum
DE102014206443A1 (de) 2014-04-03 2015-10-08 Continental Automotive Gmbh Verfahren und Vorrichtung zum berührungslosen Eingeben von Schriftzeichen
WO2015150036A1 (de) 2014-04-03 2015-10-08 Continental Automotive Gmbh Verfahren und vorrichtung zum berührungslosen eingeben von schriftzeichen
DE102014224618A1 (de) * 2014-12-02 2016-06-02 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung

Also Published As

Publication number Publication date
WO2009040322A1 (de) 2009-04-02

Similar Documents

Publication Publication Date Title
DE102007045967A1 (de) Verfahren und Vorrichtung zur berührungslosen Eingabe von Schriftzeichen
EP3040816B1 (de) Verfahren und vorrichtung zur eingabe von daten mit zwei eingabearten und haptischer rückkopplung, insbesondere in einem kraftfahrzeug
EP2179346B1 (de) Anzeige- und bedienvorrichtung für ein kraftfahrzeug mit einer multi-view-anzeigevorrichtung
DE102016104695A1 (de) Näherungsschalteranordnung mit haptischer Rückmeldung und Verfahren
EP2121372B1 (de) Berührungslos aktivierbare anzeige- und bedienvorrichtung
DE102015211358A1 (de) Eingabevorrichtung für fahrzeuge und fahrzeugcockpitmodul
DE102016106799A1 (de) Bewegungsbasiertes kapazitives Sensorsystem
EP2643746B1 (de) Bedienvorrichtung
DE102012005800A1 (de) Eingabevorrichtung
WO2013034294A1 (de) Bedienvorrichtung für ein kraftfahrzeug und verfahren zum bedienen der bedienvorrichtung für ein kraftfahrzeug
EP3040817A1 (de) Vorrichtung und verfahren zur eingabe eines textes über virtuelle bedienelemente mit haptischer rückkopplung zur simulation einer tastenhaptik, insbesondere in einem kraftfahrzeug
DE102012005084A1 (de) Eingabevorrichtung
DE102008061987A1 (de) Bedienverfahren und Bedieneinrichtung
DE102016224635A1 (de) Bedieneinrichtung für ein Infotainmentsystem eines Kraftfahrzeugs, Verfahren zur Ermittlung des Aufenthaltsortes einer Bedienperson eines solchen Bedienelements
DE102016108899A1 (de) Kombiniertes Ein- und Ausgabegerät und Verfahren zur Bedienung eines Ein- und Ausgabegerätes
DE102007054310A1 (de) Multifunktionsanzeige- und Bediensystem und Verfahren zum Bedienen von Funktionen oder Fahrzeugsystemen mit einem assistierten Bedienmodus
DE102009052078A1 (de) Tragbare Fernbedienungsvorrichtung für ein Fahrzeug
WO2014108152A2 (de) Kraftfahrzeug-bedienschnittstelle mit einem bedienelement zum erfassen einer bedienhandlung
DE102009037401A1 (de) Fahrzeug mit einer Bedieneinrichtung
WO2014173518A1 (de) Bedienvorrichtung für ein kraftfahrzeug
WO2014056838A1 (de) Eingabe/ausgabe-einheit
DE102019206606A1 (de) Verfahren zur berührungslosen Interaktion mit einem Modul, Computerprogrammprodukt, Modul sowie Kraftfahrzeug
DE102008011442A1 (de) Bedienvorrichtung für Einrichtungen eines Fahrzeugs
DE102012203164A1 (de) Zeichenerkennungssystem
DE102010033740A1 (de) Druckmaschinenleitstand

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R002 Refusal decision in examination/registration proceedings
8131 Rejection
R003 Refusal decision now final

Effective date: 20110308