DE102012020607B4 - Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements - Google Patents

Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements Download PDF

Info

Publication number
DE102012020607B4
DE102012020607B4 DE102012020607.0A DE102012020607A DE102012020607B4 DE 102012020607 B4 DE102012020607 B4 DE 102012020607B4 DE 102012020607 A DE102012020607 A DE 102012020607A DE 102012020607 B4 DE102012020607 B4 DE 102012020607B4
Authority
DE
Germany
Prior art keywords
hand
finger
selection element
gesture
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102012020607.0A
Other languages
English (en)
Other versions
DE102012020607A1 (de
Inventor
Marcus Kühne
Johann Schneider
Ulrich Müller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102012020607.0A priority Critical patent/DE102012020607B4/de
Publication of DE102012020607A1 publication Critical patent/DE102012020607A1/de
Application granted granted Critical
Publication of DE102012020607B4 publication Critical patent/DE102012020607B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Verfahren zum Steuern eines Auswahlelements (44, 62) auf einem Bildschirm (18) eines elektronischen Geräts (16), mit den Schritten: – Erzeugen einer Bildsequenz (20) einer Hand (28) eines Benutzers des elektronischen Geräts (16) durch eine Bildgebungseinrichtung (14); – Erkennen einer Lage der Hand (28) im Raum durch eine Erkennungseinrichtung (30) auf der Grundlage der Bildsequenz (20), – Festlegen einer Position des Auswahlelements (44, 62) in Abhängigkeit von der erkannten Lage durch eine Steuerungseinrichtung (32); dadurch gekennzeichnet, dass – durch das Festlegen der Position des Auswahlelements (44) eine Auswahl aus einer Liste (34) von Musiktiteln oder einer Liste (34) mit Funktionen eines Bedienmenüs gesteuert wird und – durch die Erkennungseinrichtung (30) anhand der Bildsequenz (20) zusätzlich eine relative Lage eines Fingers (38) der Hand (28) bezüglich eines anderen Bereichs (46) der Hand (28) ermittelt wird und überwacht wird, ob der Benutzer den Finger (38) in eine vorbestimmte Bestätigungsgeste bewegt, und bei Erkennen dieser Bewegung durch die Erkennungseinrichtung (30) ein weiteres Verändern der Position des Auswahlelements (44, 62) blockiert wird, und – in Abhängigkeit von der ermittelten relativen Lage, wenn als Fingerstellung die Bestätigungsgeste erreicht ist, durch die Steuerungseinrichtung (32) in Abhängigkeit von der aktuellen Position des Auswahlelements eine Funktion des elektronischen Geräts (16) aktiviert wird.

Description

  • Die Erfindung betrifft ein Verfahren zum Steuer eines Zeiger- oder Auswahlelements auf einem Bildschirm eines elektronischen Geräts mittels einer Gestensteuerung. Zu der Erfindung gehört auch ein entsprechender Kraftwagen mit einem elektronischen Gerät und einer Gestensteuerungseinrichtung für das elektronische Gerät. Bei dem Auswahlelement, das auf dem Bildschirm mittels Gestensteuerung steuerbar ist, kann es sich beispielsweise um einen Mauszeiger oder um eine Markierung zum Auswählen eines Eintrags aus einer Liste handeln, also beispielsweise einer Liste von Musiktiteln oder einer Liste mit Funktionen eines Bedienmenüs.
  • Das Bedienen eines elektronischen Geräts sollte insbesondere in einem Kraftfahrzeug mit einer möglichst geringen Ablenkung des Fahrers vom Fahrgeschehen möglich sein. In diesem Zusammenhang hat sich eine Mensch-Maschine-Interaktion auf der Grundlage einer Gestenerkennung bewährt. Bei dieser wird das Schwenken einer Hand des Benutzers im Raum von einer Erfassungseinrichtung erkannt und daraus ein entsprechender Steuerbefehl zum Positionieren des Auswahlelements auf einem Bildschirm des elektronischen Geräts generiert.
  • Bei einem Fahrzeug, aber auch bei anderen per Gestik bedienbaren Geräten, sind die meisten Bildschirmdarstellungen zweidimensional. Die Bewegung der Hand wird entsprechend für die Positionierung des Auswahlelements nur in Bezug auf eine zweidimensionale Bewegungsebene ausgewertet. Mit anderen Worten wird die Bewegung der Hand im Raum in dieser 2D-Ebene verortet und das Auswahlelement beispielsweise innerhalb einer 2D-Menüstruktur positioniert.
  • Um eine vollständige Bedienung des elektronischen Geräts per Gestik zu ermöglichen, also beispielsweise auch die abschließende Auswahl eines Menüelements in der 2D-Menüstruktur zu ermöglichen, muss neben der Verortung des Auswahlelements innerhalb einer Menüstruktur auch eine Bestätigungsgeste definiert werden, mit welcher eine Auswahl desjenigen Menüpunkts möglich ist, auf welchen das Auswahlelement momentan zeigt.
  • Besonders intuitiv ist hierbei als eine Bestätigungsgeste eine kurze Tippbewegung nach vorne. Dies hat sich aber in der Umsetzung als impraktikabel erwiesen. Denn eine solche Tippbewegung hat den Nachteil, dass sie nur unzuverlässig von einer Gestenerkennung erkannt werden kann. Erfolgt die Tippbewegung nicht genau senkrecht zu der 2D-Ebene für die Erfassung der Handbewegung zur Positionierung des Auswahlelements, so wird ein Bewegungsanteil der Tippbewegung auch als Bewegung zur Änderung der Position des Auswahlelements interpretiert. Mit anderen Worten wird das Auswahlelement noch während der Tippbewegung zunächst verschoben, bevor eine Bestätigungsgeste erkannt wird. Bei einer Auswahl eines Menüpunkts aus einem 2D-Menü springt also zunächst das Auswahlelement auf einen benachbarten Menüpunkt. Die unerwünschte Folge davon ist, dass aus dem 2D-Menü ein falscher Menüeintrag ausgewählt wird.
  • Aus der US 2008/0136775 A1 ist hierzu bekannt, für eine Gestenerkennung Sensoren auf Fingerkuppen des Bedieners anzubringen. Dann kann der Benutzer, ohne die Lage seiner Hand im Raum zu verändern, beispielsweise durch Zusammenführen der Fingerspitzen des Daumens und des Zeigefingers. Das entsprechende Zusammenführen zweier Sensoren kann dann als eine Bestätigung interpretiert werden. Nachteilig bei dieser Form der Erfassung einer Bestätigungsgeste ist allerdings, dass der Benutzer die Sensoren an seinen Fingerspitzen befestigen muss. Insbesondere für eine Gestenerkennung in einem Kraftwagen ist dies unerwünscht umständlich.
  • In der DE 103 49 568 A1 ist ein Handzeichen-Schaltvorrichtung beschrieben, welche in einem Kraftfahrzeug den Fahrer von oben filmt und auf Grundlage der Bildsequenzen der Kamera eine Gestenerkennung durchführt. Um in einem Auswahlmenü ein zu bedienendes Gerät auszuwählen sind Bediengrößen mit einem großen Veränderungsinkrement vorgesehen. Um kontinuierliche Feineinstellungen vorzunehmen, wie beispielsweise das Einstellen einer Lautstärke, sind ein Streckenmodus und ein Zeitmodus für die Gestenerfassung bereitgestellt. Um am Ende einer Feineinstellung einen Gestenwechsel zum Beendigen der Feineinstellung ohne Verreißen zu ermöglichen, sind diskrete Abstandsstufen vorgesehen, innerhalb welcher eine Veränderung des eingestellten Wertes nicht stattfindet.
  • In der DE 10 2009 057 739 A1 ist ein Touchpad beschrieben, welches eine Gestenerkennung durch Druckerkennung unterstützt. Weiterer Bestandteil der Gestenerkennung kann ein Optiksystem sein, welches eine Handsegmentierung durch Infrarot-Linienmuster ermöglicht. Erkannt werden Touch-Gesten, wie Wischen, Schieben, Drehen, indem eine optische Unterbrechung der Infrarot-Linienmuster aufgrund von Abschattung durch die Hand in den Infrarot-Kamerabildern analysiert werden. Ist das Muster für die Kamera gestört, wird angenommen, dass sich ein Gegenstand, insbesondere ein Finger oder eine Hand, auf der Bedienfläche, also im Vordergrund befindet.
  • In der DE 10 2009 023 875 A1 ist ein Gestenerkennungsschnittstellensystem mit vertikaler Anzeigefläche beschrieben. Die Gestenerkennung erfolgt kamerabasiert und auf Grundlage eines Skelettmodells. Mittels jeder Geste wird eine Geräteeingabe erzeugt.
  • In der DE 10 2009 046 376 A1 ist ein Fahrerassistenzsystem für ein Fahrzeug mit einer Eingabevorrichtung zur Eingabe von Daten bekannt. Ein Fahrer kann an einen Head-Up-Display mit einem Finger oder einer Hand eine Auswahl an einer Bedienschnittstelle treffen, wobei die Auswahl kamerabasiert erfolgt.
  • In der US 2011/0080490 A1 ist ein Gestenerkennungssystem zum Bedienen einer Spielekonsole oder eines Kraftfahrzeugs beschrieben. Die Gestenerkennung erfolgt kamerabasiert.
  • Der Erfindung liegt die Aufgabe zugrunde, eine Gestensteuerung für ein elektronisches Gerät bereitzustellen, welche zuverlässig zwischen einer Positionierungsgeste für ein Auswahlelement einerseits und einer Bestätigungs- oder Auswahlgeste für eine Auswahl eines Elements, auf welches das Auswahlelement zeigt, unterscheidet.
  • Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die Unteransprüche gegeben.
  • Die Erfindung bildet den Ansatz der bildgebungsbasierten Gestenerkennung fort. Entsprechend wird bei dem erfindungsgemäßen Verfahren durch eine Bildgebungseinrichtung eine Bildsequenz einer Hand eines Benutzers erzeugt. Bei der Bildgebungseinrichtung kann es sich um eine Kamera oder aber auch z. B. um ein bildgebendes Ultraschallgerät handeln, das eine zwei- oder dreidimensionale Abbildung der Hand erzeugt. Bei den Bildern der Bildsequenz handelt es sich dann entsprechend jeweils um eine bildpunktbasierte Abbildung der Hand, also z. B. ein Videobild, ein Infrarotbild oder auch ein Sonogramm. Die Abbildung kann zweidimensional oder aber auch dreidimensional sein. Letzteres kann beispielsweise bei einer Stereokamera oder einem Ultraschallgerät der Fall sein.
  • Die Bilder der Bildsequenz werden durch eine Erkennungseinrichtung dahingehend ausgewertet, dass eine Position oder Lage der Hand im Raum auf der Grundlage der Bildsequenz erkannt wird. Bei einer Veränderung der Lage der Hand wird dann entsprechend ein Auswahlelement, also beispielsweise ein Mauszeiger, auf einem Bildschirm des elektronischen Geräts positioniert. Mit anderen Worten wird also die Position des Auswahlelements in Abhängigkeit von der erkannten Lage durch eine Steuerungseinrichtung festgelegt. Mit einer Steuerungseinrichtung ist hier eine Einrichtung gemeint, welche in an sich bekannter Weise zu Koordinaten der Hand entsprechende Koordinaten des Auswahlelements auf dem Bildschirm festlegt und die grafischen Steuerbefehle zum Erzeugen einer entsprechenden Anzeige auf dem Bildschirm erzeugt.
  • Bei dem erfindungsgemäßen Verfahren ist nun zusätzlich vorgesehen, dass durch die Erkennungseinrichtung anhand der Bildsequenz auch eine relative Lage eines Fingers der Hand bezüglich eines anderen Bereichs der Hand ermittelt wird. Es wird also nicht nur die Hand als Ganzes und ihre Position im Raum erkannt, sondern auch die Form der Hand, wie sie sich durch beispielsweise Abspreizen oder Anlegen eines Fingers verändern lässt. In Abhängigkeit von der ermittelten relativen Lage des Fingers bezüglich des weiteren Bereichs der Hand, also beispielsweise der Handfläche oder eines anderen Fingers, wird durch die Steuerungseinrichtung dann eine Funktion des elektronischen Geräts aktiviert. Im Folgenden wird die besondere Fingerstellung, durch welche eine Funktion aktiviert wird, als Bestätigungsgeste bezeichnet. Welche Funktion aktiviert wird, ist dabei von der aktuellen Position des Auswahlelements abhängig. Das Aktivieren einer Funktion entspricht somit letztendlich eine Bestätigung einer Auswahl eines Elements, auf welches das Auswahlelement zeigt.
  • Das erfindungsgemäße Verfahren weist den Vorteil auf, dass beispielsweise eine einfache Bewegung des Daumens gegen den seitlichen Mittelfinger als Bestätigungsgeste für die Auswahl eines Menüpunkts ausreicht. Dies ist ebenfalls eine sehr intuitive Art der Bedienung, die aber keine zusätzliche Bewegung der Hand erfordert, so dass ein Umspringen des Auswahlelements während der Bestätigung der Auswahl vermieden ist. Das Verfahren wird bevorzugt zum Bedienen eines elektronischen Geräts in einem Kraftwagen verwendet, also z. B. zum Bedienen eines Infotainmentsystems oder eines Kombiinstruments. Es kann aber auch z. B. durch einen Heimfernseher, einen Personalcomputer, ein Smartphone oder einen Tablet-PC durchgeführt werden.
  • Ein weiterer Vorteil ergibt sich, indem durch die Erkennungseinrichtung anhand der Bildsequenz überwacht wird, ob der Benutzer den Finger in eine vorbestimmte Stellung bewegt, und bei Erkennen dieser Bewegung durch die Erkennungseinrichtung ein weiteres Verändern der Position des Auswahlelements blockiert wird. Bevorzugt wird überwacht, ob der Benutzer seinen Daumen der Hand in Richtung auf den Mittelfinger zu bewegt. Indem dann eine weitere Umpositionierung des Auswahlelements blockiert wird, ist die Gefahr eines Umspringens des Auswahlelements nicht mehr gegeben. Bevorzugt ist ein Toleranzbereich vorgesehen, innerhalb welchen der Finger bewegt werden kann, ohne dass die Umpositionierung blockiert wird. Hierdurch wird vermieden, dass eine willkürliche, geringe Fingerbewegung, z. B. ein Zittern, bereits zur Blockade führt. Es kann auch ein Abstand des Fingers von der endgültigen Stellung ermittelt werden und das Blockieren dann eingeleitet werden, wenn der Abstand kleiner als ein vorbestimmter Wert ist. Das Blockieren erfolgt in einer Weiterbildung des Verfahrens in Abhängigkeit von der Bewegungsgeschwindigkeit des Fingers. Hierdurch kann ebenfalls zuverlässig zwischen einem gezielten Tippen mit dem Finger und einer zufälligen Veränderung der Fingerhaltung unterschieden werden.
  • Während allgemein das Überprüfen irgendeiner relativen Lage eines Fingers bezüglich eines anderen Bereichs der Hand als Geste für die Aktivierung der Funktion erkannt werden kann, ist bei dem erfindungsgemäßen Verfahren bevorzugt vorgesehen durch die Erkennungseinrichtung zu überprüfen, ob der Benutzer mit einem Daumen der Hand einen vorbestimmten Bereich der Hand berührt, insbesondere einen weiteren Finger der Hand. Der Benutzer kann also ähnlich wie beim Klicken einer Maus mit dem Daumen z. B. gegen den Zeigefinger oder den Mittelfinger tippen, um die Auswahl eines Elements auf dem Bildschirm, auf welches das Auswahlelement zeigt, zu bestätigen. Diese Ausführungsform weist den zusätzlichen Vorteil auf, dass durch das Berühren beispielsweise eines anderen Fingers mit dem Daumen der Benutzer zugleich ein haptisches Feedback bei der Auswahl empfindet. Bevorzugt wird als Geste zum Aktivieren der Funktion das Antippen des Mittelfingers mit dem Daumen erkannt.
  • Das erfindungsgemäße Verfahren kommt anders als die aus dem Stand der Technik bekannte Lösung ohne zusätzliche Sensoren an der Hand des Benutzers aus. Es reicht allein die Auswertung der Bildsequenz. In weiterer Ausgestaltung der Erfindung wird hierzu für die Auswertung der Bildsequenz zum Erkennen der relativen Lage des Fingers ein Skelettmodell einer Hand an eine Abbildung der Hand angepasst, wie sie in einem Bild der Bildsequenz erkennbar ist. Ein solches Skelettmodell kann die Form der Hand durch Parameter beschreiben, welche beispielsweise die Beugewinkel der einzelnen Fingergelenke beschreiben. Indem diese Parameter so lange verändert werden, bis das Skelettmodell dieselbe Form der Hand beschreibt, wie sie in dem Bild erkennbar ist, erhält man einen Satz von Parametern, nämlich z. B. die Beugungswinkel der Fingergelenke, anhand welchem durch einen Computer die Auswertung der relativen Lage des Fingers ermittelt werden kann.
  • Wie bereits ausgeführt, kann es sich bei dem Auswahlelement um einen Mauszeiger handeln, dessen Position auf dem Bildschirm durch Schwenken der Hand festgelegt werden kann. Der Mauszeiger kann auf ein auf dem Bildschirm dargestelltes Bedienfeld positioniert und durch Aktivieren der Funktion mittels der Bestätigungsgeste das Bedienfeld ausgewählt werden.
  • Eine andere Ausführungsform sieht vor, dass durch das Festlegen der Position des Auswahlelements eine Auswahl aus einer Liste gesteuert wird. Mit dieser Ausführungsform wird also nicht ein Zeiger auf dem Bildschirm verschwenkt, sondern es wird beispielsweise der Inhalt einer Liste auf dem Bildschirm nach oben oder unten verschoben, so dass in der obersten Zeile der Liste ein anderer Listeneintrag angezeigt wird. Die oberste Zeile kann dabei ein Auswahlelement darstellen. Durch Ausführen der Bestätigungs- oder Auswahlgeste wird dann der aktuell in der obersten Zeile stehende Listeneintrag ausgewählt.
  • Die Bestätigungsgeste kann aber auch in vielerlei anderer Hinsicht zum Aktivieren von Funktionen genutzt werden, die sich alle problemlos mit dem erfindungsgemäßen Verfahren kombinieren lassen. So kann beispielsweise bei Erkennen der Bestätigungsgeste als die Funktion auch ein Schreibmodus aktiviert werden, in welchem eine in der Bildsequenz anschließend durch die Erkennungseinrichtung erkannte Bewegung der (gesamten) Hand als eine Zeichenspur für die Eingabe eines Zeichens interpretiert wird. So kann in vorteilhafter Weise der Benutzer beispielsweise durch Anlegen des Daumens an den Mittelfinger das Zeichnen von Buchstaben aktivieren, die dann anschließend in an sich bekannter Weise durch eine automatische Handschrifterkennung anhand der erfassten Zeichenspur erkannt werden können. Durch anschließendes Abspreizen des Daumens, oder allgemein durch Ausführen eine Beendigungsgeste, die von der Bestätigungsgeste verschieden ist, kann der Schreibmodus wieder beendet werden.
  • Eine andere vorteilhafte Weiterbildung sieht vor, dass bei einer bestimmten Bestätigungsgeste eine Drag-and-Drop-Funktion aktiviert wird, wobei ein Verschiebevorgang eines graphischen Objekts auf dem Bildschirm mit dem Anlegen eines Fingers an einen vorbestimmten Bereich der restlichen Hand begonnen wird, anschließend durch Verändern der Lage der Hand im Raum eine Verschiebung des Objekts auf dem Bildschirm bewirkt wird und der Verschiebevorgang mit dem Abspreizen des Fingers von dem Bereich wieder beendet wird.
  • Ein weiterer Vorteil ergibt sich, wenn eine Zeigerichtung eines ausgestreckten Zeigefingers der Hand durch die Erkennungseinrichtung ermittelt wird und durch die Steuereinrichtung das Auswahlelement an einem Schnittpunkt auf dem Bildschirm positioniert wird, an welchem eine durch die Zeigerichtung beschriebene, gedachte Gerade auf den Bildschirm trifft. Das Auswahlelement befindet sich also immer gerade dort auf dem Bildschirm, wohin der Benutzer gerade zeigt. Es wurde beobachtet, dass Benutzer in der Lage sind, das elektronische Gerät so besonders intuitiv zu bedienen.
  • Wie bereits ausgeführt, gehört zu der Erfindung auch ein Kraftwagen mit einem elektronischen Gerät und einer Gestensteuerungseinrichtung für das elektronische Gerät. Diese Gestensteuerungseinrichtung umfasst eine Bildgebungseinrichtung zum Erfassen einer Bediengeste einer Hand des Benutzers in einem Fahrgastraum des Kraftwagens. Erfindungsgemäß ist die Gestensteuerungseinrichtung dazu ausgelegt, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen, also auch eine relative Bewegung eines Fingers bezüglich des Rests der Hand zu erkennen und daraufhin eine Funktion des elektronischen Geräts zu aktivieren.
  • Vorteilhafte Ausführungsformen des erfindungsgemäßen Gestenerkennungseinrichtung ergeben sich insbesondere durch die Wahl einer bestimmten Bildgebungseinrichtung. Eine Ausführungsform sieht die Verwendung einer PMD-Kamera vor (PMD – Photonic Mixer Device, Photomischdetektor). Dieser Kameratyp weist den Vorteil auf, dass eine relative Lageänderung eines Fingers bezüglich des Handrückens oder anderer Finger verhältnismäßig zuverlässig dadurch erkannt werden kann, dass sich hierbei einzelne Finger gegenseitig überdecken, was mittels eines PMD-Sensors gut erkennbar ist. Eine andere Ausführungsform sieht die Verwendung einer Infrarotkamera vor. Hierdurch wird der Einfluss eines Schlagschattens auf die Bilderkennung vermieden. Eine weitere Ausführungsform sieht die Verwendung einer Stereokamera vor, wodurch sich der Vorteil ergibt, dass das Bildmaterial selbst bereits 3D-Informationen enthält. So ist eventuelle nicht einmal ein Skelettmodell für die Erkennung der Bestätigungsgeste nötig. Natürlich können die Kameratypen auch kombiniert werden. Eine besonders bevorzugte Ausführungsform sieht insbesondere eine Infrarot-Stereokamera vor.
  • Wie eingangs bereits ausgeführt, ermöglicht die Gestenerkennung nicht nur in einem Kraftwagen eine effiziente Bedienung eines elektronischen Geräts. Um das erfindungsgemäße Verfahren auch beispielsweise mittels eines Fernsehers, eines Tablet-PCs oder Smartphones ausführen zu können, sieht die Erfindung auch ein Computerprogrammprodukt vor, welches einen auf zumindest einem Speichermedium gespeicherten Programmcode umfasst, der dazu ausgelegt ist, bei einer Ausführung durch eine Datenverarbeitungseinrichtung eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Beispielsweise kann es sich bei dem Computerprogrammprodukt um eine sogenannte „App” (App – Applikation, Anwendung) handeln, die ein Benutzer aus dem Internet beziehen und beispielsweise auf seinem Smartphone, seinem Tablet-PC oder auch in einem Infotainmentsystem eines Kraftwagens nachträglich installieren kann. Da insbesondere bei Smartphones und Tablet-PCs Kameras bereits für die Bildtelefonie bereitgestellt sind, erlaubt das erfindungsgemäße Computerprogrammprodukt die Durchführung des erfindungsgemäßen Verfahrens mit bereits vorhandenen Komponenten eines Smartphones oder Tablet-PCs.
  • Im Folgenden wird die Erfindung noch einmal genauer anhand eines konkreten Ausführungsbeispiels erläutert. Hierzu zeigt:
  • 1 eine schematische Darstellung einer Gestensteuerungseinrichtung einer Ausführungsform des erfindungsgemäßen Kraftwagens,
  • 2 eine Skizze zur Erläuterung einer Funktionsweise eines Skelettmodells, und
  • 3 eine schematische Darstellung einer Bildsequenz, wie sie durch die Gestensteuerungseinrichtung aus 1 in einem Kraftwagen erkannt werden kann.
  • Dabei stellen die beschriebenen Komponenten der Beispiele und die beschriebenen Schritte des Verfahrens jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln und in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar. Die dargestellten Beispiele stellen dabei bevorzugte Ausführungsformen der Erfindung dar.
  • In 1 ist eine Gestensteuerungseinrichtung 10 gezeigt, die beispielsweise in einem (nicht näher dargestellten) Kraftwagen 12 installiert sein kann. Bei dem Kraftwagen 12 kann es sich beispielsweise um einen Personenkraftwagen handeln. Die Gestensteuerungseinrichtung 10 umfasst eine Kamera 14, ein elektronisches Gerät 16 und eine Anzeigeeinrichtung 18. Das elektronische Gerät 16 weist weitere Funktionalitäten auf, die durch Ausführung von Gesten ausgewählt und aktiviert werden können. Beispielsweise kann es sich bei dem elektronischen Gerät 16 um ein Infotainmentsystem oder ein Navigationssystem oder ein Audiosystem des Kraftwagens 12 handeln.
  • Die Kamera 14 kann auf einen Bereich in einem Fahrgastraum des Kraftwagens 12 gerichtet sein, beispielsweise auf eine Mittelkonsole zwischen einem Fahrersitz und einem Beifahrersitz. Bei der Kamera 14 kann es sich beispielsweise um eine Infrarotkamera, eine Stereokamera oder eine PMD-Kamera handeln oder eine Kamera, welche zwei oder mehr dieser Technologien kombiniert. Mittels der Kamera 14 wird eine Bildsequenz 20 aus zu unterschiedlichen Zeitpunkten erfassten Einzelbildern 22, 24, 26 erzeugt. Die in 1 gezeigten drei Bilder 22, 24, 26 stehen nur exemplarisch für die gesamte Bildsequenz 20.
  • Ein Benutzer der Gestensteuerungseinrichtung 10 hält eine Hand 28 in den Erfassungsbereich der Kamera 14 und führt eine Bediengeste für das elektronische Gerät 16 aus. In den Bildern 22, 24, 26 ist die Hand 28 entsprechend in unterschiedlichen Positionen im Raum und mit unterschiedlichen Fingerstellungen zu sehen. Die Bildsequenz 20 wird von der Kamera 14 zu dem elektronischen Gerät 16 übertragen, in welchem eine Erkennungseinrichtung 30 die Position der Hand 28 im Fahrgastraum oder auch eine Positionsänderung erkennt und zusätzlich auch die Fingerstellungen auswertet.
  • Die von der Erkennungseinrichtung 30 erkannte Position der Hand 28 im Raum und die Fingerstellungen werden an eine Steuerungseinrichtung 32 übertragen, durch welche in dem in 1 gezeigten Beispiel eine Menüauswahl gesteuert wird. Hierzu zeigt die Steuerungseinrichtung 32 auf der Anzeigeeinrichtung 18 ein Menü 34 an, von dem im in 1 Menüeinträge „ABC”, „DEF”, „GHI” und „KLM” beispielhaft gezeigt sind. Die Erkennungseinrichtung 30 und die Steuerungseinrichtung 32 können beispielsweise Programmmodule umfassen, welche durch eine Datenverarbeitungseinrichtung des elektronischen Geräts 16 ausgeführt werden.
  • Der Benutzer hat für die Auswahl eines Menüeintrags zunächst seine Finger gekrümmt und nur den Zeigefinger 36 ausgestreckt. Sein Daumen 38 der Hand 28 steht im gezeigten Beispiel frei vom Rest der Hand ab. Der Benutzer schwenkt seine Hand 28 in Auswahlrichtungen 40 und 42. Dies wird von der Kamera 14 z. B. in dem Einzelbild 22 erfasst, wobei das Einzelbild 22 nur ein Bild aus der entsprechenden Bildsequenz, die einen Teil der Bildsequenz 20 darstellt, repräsentiert. Die Erkennungseinrichtung 30 erkennt die Stellung der Finger 36, 38 der Hand und die Bewegung der Hand 28, d. h. insbesondere die Bewegung des Zeigefingers 36 in die Auswahlrichtungen 40, 42. Die erkannte Fingerstellung und die Bewegung in die Auswahlrichtungen 40, 42 werden an die Steuerungseinrichtung 32 übertragen. Die Steuerungseinrichtung 32 bewegt daraufhin entsprechend die Menüeinträge nach oben 40', was der Bewegungsrichtung 40 entspricht, bzw. nach unten 42', was der Bewegungsrichtung 42 entspricht. Die Menüeinträge werden so unter einem Auswahlfeld 44 des Menüs 34 entlang bewegt. Nachdem sich der gewünschte Listeneintrag (hier „GHI”) in dem Auswahlfeld 44 befindet, unterbricht der Benutzer die Bewegung seiner Hand 28. In 1 ist diese Situation in dem mittleren Einzelbild 24 gezeigt, unter welchem in 1 entsprechend die Anzeige der Anzeigeeinrichtung 18 mit dem entsprechend veränderten Menü 34 dargestellt ist.
  • Der Benutzer möchte nun den Listeneintrag „GHI” auswählen. Hierzu tippt der Benutzer mit seinem Daumen 38 an seinen Mittelfinger 46. Dies entspricht einem „Klick”, wodurch der Benutzer die Auswahl des Menüeintrags GHI bestätigt. Durch das Antippen hat der Benutzer den Mittelfinger 46 mit dem Daumen 38 kurz berührt und danach den Daumen 38 wieder in die Ausgangsstellung gebracht. Anhand der entsprechenden Einzelbilder, also beispielsweise des Einzelbilds 24, wird durch die Erkennungseinrichtung 30 die Veränderung der Fingerstellung, insbesondere des Daumens 38 bezüglich des Zeigefingers 36, erkannt und diese Geste als Bestätigungsgeste der Steuerungseinrichtung 32 gemeldet. Die Steuerungseinrichtung 32 aktiviert daraufhin die Funktion, welche dem Menüeintrag GHI zugeordnet ist. Im vorliegenden Beispiel wird z. B. ein Untermenü 34' aufgerufen, welches u. a. die Menüeinträge „abc”, „def” und „ghi” umfasst. Der Benutzer kann nun wieder durch Schwenken der Hand 38 bei ausgestrecktem Zeigefinger 36 in dem Untermenü die Menüeinträge abc, def, ghi in die Auswahlrichtungen 40', 42' verschieben und so den gewünschten Menüeintrag in dem Auswahlfeld 44 platzieren.
  • Für die Erkennung der Lage der Hand 28 im Fahrgastraum kann die Erkennungseinrichtung 30 einen an sich aus dem Stand der Technik bekannten Algorithmus für die Objekterkennung in Bildern nutzen. Für die Beschreibung der Fingerposition kann die Verwendung eines Skelettmodells vorgesehen sein, wie es im Folgenden anhand von 2 näher erläutert ist.
  • In 2 ist zu dem Skelettmodell 46 veranschaulicht, welche Parameter das Skelettmodell 46 umfassen kann. So kann das Skelettmodell zu einzelnen Gelenken 48 deren jeweiligen Beugungswinkel als Parameterwert repräsentieren. In 2 sind nur einige der Gelenke 48 mit einem Bezugszeichen versehen, um die Übersicht in 2 zu erhalten. In dem Skelettmodell 46 können des Weiteren einzelne Abschnitte der Hand 28 beispielsweise in Bezug auf ihre Länge oder ihre Ausrichtung beschrieben sein, also beispielsweise von dem Daumen 38 die Ausrichtung der Fingerkuppe 50 und des mittleren Knochens 52. Genauso kann zu dem Zeigefinger 36 die Ausrichtung der Fingerspitze 54 beschrieben sein. Eine Ausrichtung kann beispielsweise als Vektor beschrieben sein. Die Erkennungseinrichtung 30 kann anhand der Einzelbilder 22, 24, 26 durch eine entsprechende Bildauswertung, beispielsweise durch Auswerten von Kontrastkanten, die Hand 28 und die Finger 38, 36, 44 in dem Bild segmentieren, d. h. sie als einzelne Objekte identifizieren, und durch Verändern der Parameter des Skelettmodells 46, also der Parameterwerte für die Beugungswinkel der Gelenke 48 und der Ausrichtung der Fingerabschnitte 50, 52, 54 und der übrigen Fingerabschnitte die durch das Skelettmodell 46 nachgebildete Fingerstellung an die tatsächliche, in den Einzelbildern erkennbare Fingerstellung anpassen. Anschließend beschreiben die Parameter des Skelettmodells 46 die in einem Einzelbild jeweils erkannte Stellung der Finger, d. h. also die Geste.
  • In 3 ist ein weiteres Nutzungskonzept der Gestenerkennungseinrichtung 10 veranschaulicht. In 3 sind drei Bilder 56, 58, 60 einer Bildsequenz gezeigt, die von der Kamera 14 erfasst worden sind und an das elektronische Gerät 16 übertragen wurden. Zu Beginn des gezeigten Beispiels (Bild 56) befindet sich die Steuerungseinrichtung 32 in einem Zeigemodus, in welchem auf der Anzeigeeinrichtung 18 beispielsweise ein Cursor 62 angezeigt werden kann, den der Benutzer durch Schwenken seiner Hand 28 im Raum auf der Anzeigeeinrichtung 18 positionieren kann.
  • Durch Anlegen des Daumens 38 an den Mittelfinger 46 wird ein Schreibmodus aktiviert. Dies wird durch die Gestensteuerungseinrichtung 10 beispielsweise anhand des Bildes 58 erkannt. Die nun folgenden Bewegungen der Hand 28, und insbesondere des Zeigefingers 36, bei angelegtem Daumen 38 werden von der Erkennungseinrichtung 30 erkannt und veranlassen die Steuerungseinrichtung 32, auf der Anzeigeeinrichtung 18 eine Zeichenspur 64 darzustellen, welche der erkannten Bewegung der Hand entspricht. Der Benutzer zeichnet in dem vorliegenden Beispiel beispielsweise ein A. Gehen die Finger in die Normalstellung zurück (in Einzelbild 56 und 60 gezeigt), so wird in den Zeigemodus zurückgekehrt. Nachdem der Benutzer also den Daumen 38 wieder von dem Mittelfinger 46 entfernt hat, wird durch die Steuerungseinrichtung 32 der Schreibmodus beendet und die Zeichenspur 64 an eine Handschrifterkennungseinrichtung übergeben, die in an sich bekannter Weise ausgestaltet sein kann. Die Steuerungseinrichtung 32 erhält von der Handschrifterkennungseinrichtung das Erkennungsergebnis als Antwort zurück und stellt den erkannten Buchstaben A auf der Anzeigeeinrichtung 18 dar. Der Benutzer kann nun den Cursor 62 neu positionieren und den nächsten Buchstaben zeichnen.
  • Durch die Beispiele ist gezeigt, wie eine Gestensteuerungseinrichtung um eine Erkennung einer Bestätigungsgeste weitergebildet werden kann, welche ohne Verriss eine Bestätigung der Auswahl eines ausgewählten Elements ermöglicht. Es kann somit ein Auswahlelement sehr präzise auch auf kleinen Bedienflächen platziert werden und eine Auswahl präzise getätigt werden. Entsprechend lassen sich in vorteilhafter Weise auch deutlich komplexere Benutzerschnittstellen mittels Geste intuitiv bedienen.

Claims (10)

  1. Verfahren zum Steuern eines Auswahlelements (44, 62) auf einem Bildschirm (18) eines elektronischen Geräts (16), mit den Schritten: – Erzeugen einer Bildsequenz (20) einer Hand (28) eines Benutzers des elektronischen Geräts (16) durch eine Bildgebungseinrichtung (14); – Erkennen einer Lage der Hand (28) im Raum durch eine Erkennungseinrichtung (30) auf der Grundlage der Bildsequenz (20), – Festlegen einer Position des Auswahlelements (44, 62) in Abhängigkeit von der erkannten Lage durch eine Steuerungseinrichtung (32); dadurch gekennzeichnet, dass – durch das Festlegen der Position des Auswahlelements (44) eine Auswahl aus einer Liste (34) von Musiktiteln oder einer Liste (34) mit Funktionen eines Bedienmenüs gesteuert wird und – durch die Erkennungseinrichtung (30) anhand der Bildsequenz (20) zusätzlich eine relative Lage eines Fingers (38) der Hand (28) bezüglich eines anderen Bereichs (46) der Hand (28) ermittelt wird und überwacht wird, ob der Benutzer den Finger (38) in eine vorbestimmte Bestätigungsgeste bewegt, und bei Erkennen dieser Bewegung durch die Erkennungseinrichtung (30) ein weiteres Verändern der Position des Auswahlelements (44, 62) blockiert wird, und – in Abhängigkeit von der ermittelten relativen Lage, wenn als Fingerstellung die Bestätigungsgeste erreicht ist, durch die Steuerungseinrichtung (32) in Abhängigkeit von der aktuellen Position des Auswahlelements eine Funktion des elektronischen Geräts (16) aktiviert wird.
  2. Verfahren nach Anspruch 1, wobei beim Erkennen der relativen Lage durch die Erkennungseinrichtung (30) überprüft wird, ob der Benutzer mit einem Daumen (38) der Hand (28) einen vorbestimmten Bereich der Hand (28), insbesondere einen weiteren Finger (46) der Hand (28), berührt.
  3. Verfahren nach Anspruch 1 oder 2, wobei zum Erkennen der relativen Lage des Fingers ein Skelettmodell (46) einer Hand an eine in zumindest einem Bild (22, 24, 26, 56, 58, 60) der Bildsequenz (20) enthaltene Abbildung der Hand (28) angepasst wird und die relative Lage des Fingers (38) in Abhängigkeit von Parametern (48, 50, 52, 54) des angepassten Skelettmodells (46) ermittelt wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei durch das Aktivieren der Funktion ein auf dem Bildschirm (18) dargestelltes Bedienfeld ausgewählt wird, auf welchem das Auswahlelement positioniert ist.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei durch das Aktivieren der Funktion ein Schreibmodus aktiviert wird, in welchem eine in der Bildsequenz erkannte Bewegung der Hand (28) durch die Erkennungseinrichtung (30) als eine Zeichenspur (64) für die Eingabe eines Zeichens interpretiert wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine Drag-and-Drop-Funktion aktiviert wird und hierbei ein Verschiebevorgang mit dem Anlegen eines Fingers an einen vorbestimmten Bereich der restlichen Hand begonnen wird, durch Verändern der Lage der Hand im Raum eine Verschiebung bewirkt wird und der Verschiebevorgang mit dem Abspreizen des Fingers von dem Bereich beendet wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine Zeigerichtung eines ausgestreckten Zeigefingers der Hand (28) durch die Erkennungseinrichtung ermittelt wird und durch die Steuereinrichtung das Auswahlelement (44, 62) an einem Schnittpunkt auf dem Bildschirm positioniert wird, an welchem eine durch die Zeigerichtung beschriebene, gedachte Gerade auf den Bildschirm trifft.
  8. Kraftwagen (12) mit einem elektronischen Gerät (16) und einer Gestensteuerungseinrichtung (10) mit einer Bildgebungseinrichtung (14) zum Erfassen einer Bediengeste einer Hand (28) eines Benutzers in einem Fahrgastraum des Kraftwagens (12), dadurch gekennzeichnet, dass die Gestensteuerungseinrichtung (10) dazu ausgelegt ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.
  9. Kraftwagen (12) nach Anspruch 8, wobei die Bildgebungseinrichtung (14) eine PMD-Kamera und/oder eine Infrarotkamera und/oder eine Stereokamera und/oder ein bildgebendes Ultraschallgerät umfasst.
  10. Computerprogrammprodukt mit einem auf zumindest einem Speichermedium gespeicherten Programmcode, welcher dazu ausgelegt ist, bei einer Ausführung durch eine Datenverarbeitungseinrichtung ein Verfahren nach einem der Ansprüche 1 bis 7 durchzuführen.
DE102012020607.0A 2012-10-19 2012-10-19 Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements Active DE102012020607B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102012020607.0A DE102012020607B4 (de) 2012-10-19 2012-10-19 Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012020607.0A DE102012020607B4 (de) 2012-10-19 2012-10-19 Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements

Publications (2)

Publication Number Publication Date
DE102012020607A1 DE102012020607A1 (de) 2014-04-24
DE102012020607B4 true DE102012020607B4 (de) 2015-06-11

Family

ID=50436753

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012020607.0A Active DE102012020607B4 (de) 2012-10-19 2012-10-19 Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements

Country Status (1)

Country Link
DE (1) DE102012020607B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018216330A1 (de) * 2018-09-25 2020-03-26 Bayerische Motoren Werke Aktiengesellschaft Benutzerschnittstellen-System und Fahrzeug
DE102019208434A1 (de) * 2019-06-11 2020-12-17 Conti Temic Microelectronic Gmbh Verfahren und System zur Steuerung einer Fahr- oder Fahrzeugfunktion

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3028221B1 (fr) * 2014-11-12 2018-03-16 Psa Automobiles Sa. Interface homme/machine et procede de controle de fonctions d’un vehicule par detection de mouvement et/ou d’expression du conducteur
DE102014224632A1 (de) * 2014-12-02 2016-06-02 Robert Bosch Gmbh Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE112016006769B4 (de) 2016-05-20 2024-03-28 Ford Global Technologies, Llc Verfahren für Gebärdenspracheneingaben in eine Benutzerschnittstelle eines Fahrzeugs und Fahrzeug
WO2018068821A1 (de) 2016-10-10 2018-04-19 Volkswagen Aktiengesellschaft Verfahren zur anpassung der darstellung und bedienung einer grafischen benutzerschnittstelle
CN107450672B (zh) * 2017-09-19 2024-03-29 曾泓程 一种高识别率的腕式智能装置
CN117523679A (zh) * 2024-01-08 2024-02-06 成都运达科技股份有限公司 一种驾驶员手势识别方法、系统及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10349568A1 (de) * 2002-10-25 2004-05-13 Mitsubishi Fuso Truck And Bus Corp. Handzeichen-Schaltvorrichtung
US20080136775A1 (en) * 2006-12-08 2008-06-12 Conant Carson V Virtual input device for computing
DE102009023875A1 (de) * 2008-06-05 2010-02-04 Northrop Grumman Corp., Los Angeles Gestenerkennungsschittstellensystem mit vertikaler Anzeigefläche
DE102009057739A1 (de) * 2009-12-10 2010-07-22 Daimler Ag Bedienvorrichtung für ein Fahrzeug mit Druck- oder Gestenerfassung
US20110080490A1 (en) * 2009-10-07 2011-04-07 Gesturetek, Inc. Proximity object tracker
DE102009046376A1 (de) * 2009-11-04 2011-05-05 Robert Bosch Gmbh Fahrerassistenzsystem für ein Fahrzeug mit einer Eingabevorrichtung zur Eingabe von Daten

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10349568A1 (de) * 2002-10-25 2004-05-13 Mitsubishi Fuso Truck And Bus Corp. Handzeichen-Schaltvorrichtung
US20080136775A1 (en) * 2006-12-08 2008-06-12 Conant Carson V Virtual input device for computing
DE102009023875A1 (de) * 2008-06-05 2010-02-04 Northrop Grumman Corp., Los Angeles Gestenerkennungsschittstellensystem mit vertikaler Anzeigefläche
US20110080490A1 (en) * 2009-10-07 2011-04-07 Gesturetek, Inc. Proximity object tracker
DE102009046376A1 (de) * 2009-11-04 2011-05-05 Robert Bosch Gmbh Fahrerassistenzsystem für ein Fahrzeug mit einer Eingabevorrichtung zur Eingabe von Daten
DE102009057739A1 (de) * 2009-12-10 2010-07-22 Daimler Ag Bedienvorrichtung für ein Fahrzeug mit Druck- oder Gestenerfassung

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018216330A1 (de) * 2018-09-25 2020-03-26 Bayerische Motoren Werke Aktiengesellschaft Benutzerschnittstellen-System und Fahrzeug
DE102019208434A1 (de) * 2019-06-11 2020-12-17 Conti Temic Microelectronic Gmbh Verfahren und System zur Steuerung einer Fahr- oder Fahrzeugfunktion

Also Published As

Publication number Publication date
DE102012020607A1 (de) 2014-04-24

Similar Documents

Publication Publication Date Title
DE102012020607B4 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
EP2350799B1 (de) Verfahren und vorrichtung zum anzeigen von in listen geordneter information
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
DE102008048825A1 (de) Anzeige- und Bediensystem in einem Kraftfahrzeug mit nutzerbeeinflussbarer Darstellung von Anzeigeobjekten sowie Verfahren zum Betreiben eines solchen Anzeige- und Bediensystems
DE112012007203T5 (de) Informations-Anzeigevorrichtung, Anzeigeinformations-Operationsverfahren
DE102012222972A1 (de) Verfahren und Einrichtung zur Ermittlung einer Trajektorie eines Fahrmanövers
EP2802963A1 (de) Verfahren und vorrichtung zum bedienen von funktionen in einem fahrzeug unter verwendung von im dreidimensionalen raum ausgeführten gesten sowie betreffendes computerprogrammprodukt
DE112012007167T5 (de) Informations-Anzeigevorrichtung, Anzeigeinformations-Operationsverfahren
WO2015110227A1 (de) Anwenderschnittstelle und verfahren zur anpassung einer ansicht auf einer anzeigeeinheit
EP2924551B1 (de) Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle in einem Fahrzeug
WO2014108147A1 (de) Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung
WO2018086826A1 (de) Verfahren zum betreiben eines bediensystems und bediensystem
DE102014224898A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
WO2017140569A1 (de) Kraftfahrzeug-bedienvorrichtung und verfahren zum betreiben einer bedienvorrichtung, um eine wechselwirkung zwischen einer virtuellen darstellungsebene und einer hand zu bewirken
DE102016115479A1 (de) Nutzerschnittstelle für Elektronikgerät, Eingabeverarbeitungsverfahren und Elektronikgerät
DE102016204692A1 (de) Steuerung der Mehrfachauswahl auf berührungsempfindlichen Flächen
DE102009021216A1 (de) Eingabevorrichtung für eine Displayeinheit
DE102014224599A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102013014889A1 (de) Mauszeigersteuerung für eine Bedienvorrichtung
EP2030828A2 (de) Multimodales Bediensystem und Verfahren zum Bedienen von Komponenten und Funktionen in einem Kraftfahrzeug
EP3025214B1 (de) Verfahren zum betreiben einer eingabevorrichtung, sowie eingabevorrichtung
DE102013014877A1 (de) Kraftfahrzeug-Bedieneinrichtung mit selbsterklärender Gestenerkennung
WO2017157542A1 (de) Bedienvorrichtung und verfahren zum erfassen einer benutzerauswahl zumindest einer bedienfunktion der bedienvorrichtung
DE102019131944A1 (de) Verfahren zur Steuerung zumindest einer Anzeigeeinheit, Kraftfahrzeug und Computerprogrammprodukt
DE102014111749A1 (de) Verfahren und Vorrichtung zum Steuern eines technischen Gerätes

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final