DE102012000263A1 - Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt - Google Patents

Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt Download PDF

Info

Publication number
DE102012000263A1
DE102012000263A1 DE102012000263A DE102012000263A DE102012000263A1 DE 102012000263 A1 DE102012000263 A1 DE 102012000263A1 DE 102012000263 A DE102012000263 A DE 102012000263A DE 102012000263 A DE102012000263 A DE 102012000263A DE 102012000263 A1 DE102012000263 A1 DE 102012000263A1
Authority
DE
Germany
Prior art keywords
gesture
detected
function
dimensional space
controlling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102012000263A
Other languages
English (en)
Inventor
Volker Entenmann
Tingting Zhang-Xu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102012000263A priority Critical patent/DE102012000263A1/de
Priority to PCT/EP2012/005080 priority patent/WO2013104389A1/de
Priority to CN201280066638.4A priority patent/CN104040464A/zh
Priority to EP12810080.7A priority patent/EP2802963A1/de
Priority to US14/371,090 priority patent/US20140361989A1/en
Publication of DE102012000263A1 publication Critical patent/DE102012000263A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • B60K35/10
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • B60K2360/146
    • B60K2360/1464
    • B60K2360/21

Abstract

Ein Verfahren zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten weist ein Bestimmen (S100), ob eine im dreidimensionalen Raum durchgeführte erste Geste mittels eines bild-basierten Erfassungsvorgangs erfasst wird oder nicht, ein Bestimmen (S200), ob die erste Geste eine einem Aktivieren eines Steuerns einer Funktion zugeordnete Geste ist oder nicht, falls bestimmt wird, dass die erste Geste erfasst worden ist, ein Aktivieren (S300) des Steuerns der Funktion, falls bestimmt wird, dass die erfasste erste Geste die dem Aktivieren des Steuerns der Funktion zugeordnete Geste ist, ein Bestimmen (S500), ob eine im dreidimensionalen Raum durchgeführte zweiten Geste mittels des bild-basierten Erfassungsvorgangs erfasst wird oder nicht, ein Bestimmen (S600), ob die erfasste zweite Geste eine dem Steuern der Funktion zugeordnete Geste ist oder nicht, falls bestimmt wird, dass die zweite Geste erfasst worden ist; und ein Steuern (S700) der Funktion auf, falls bestimmt worden ist, dass die erfasste erste Geste die dem Aktivieren des Steuerns der Funktion zugeordnete Geste ist, und falls bestimmt wird, dass die erfasste zweite Geste die dem Steuern der Funktion zugeordnete Geste ist. Weiterhin werden eine betreffende Vorrichtung und ein betreffendes Computerprogrammprodukt geschaffen.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie ein betreffendes Computerprogrammprodukt.
  • Aus der US 2008/0065291 A1 sind ein Verfahren und eine Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten bekannt, bei denen bestimmt wird, ob eine im dreidimensionalen Raum durchgeführte Geste mittels eines bild-basierten Erfassungsvorgangs erfasst wird oder nicht, bestimmt wird, ob die erfasste Geste eine einem Steuern einer Funktion zugeordnete Geste ist oder nicht, und die Funktion gesteuert wird, falls bestimmt wird, dass die erfasste Geste die dem Steuern der Funktion zugeordnete Geste ist.
  • Da unmittelbar bestimmt wird, ob eine erfasste Geste eine dem Steuern einer Funktion zugeordnete Geste ist oder nicht, kann eine Bewegung zum Beispiel eines Fingers oder einer Hand eines Nutzers, die in einem Erfassungsbereich einer bild-basierten Gesten-Erfassungseinrichtung durchgeführt wird und nicht zum Steuern einer Funktion gedacht ist, fehlerhaft als die dem Steuern der Funktion zugeordnete Geste bestimmt werden. Folglich wird in diesem Fall die Funktion fehlerhaft bzw. unbeabsichtigt ausgeführt.
  • Es ist die Aufgabe der vorliegenden Erfindung, ein Verfahren, eine Vorrichtung und ein betreffendes Computerprogrammprodukt zu schaffen, die ein gesten-basiertes Bedienen von Funktionen in einem Fahrzeug auf eine einfache und zuverlässige Weise zulassen.
  • Diese Aufgabe wird mit den in den unabhängigen Ansprüchen angegebenen Maßnahmen gelost.
  • Weitere vorteilhafte Ausgestaltungen der vorliegenden Erfindung sind Gegenstand der abhängigen Ansprüche.
  • Gemäß einem ersten Aspekt weist ein Verfahren zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten a) ein Bestimmen, ob eine im dreidimensionalen Raum durchgeführte erste Geste mittels eines bild-basierten Erfassungsvorgangs erfasst wird oder nicht, b) ein Bestimmen, ob die erste Geste eine einem Aktivieren eines Steuerns einer Funktion zugeordnete Geste ist oder nicht, falls bestimmt wird, dass die erste Geste erfasst worden ist, c) ein Aktivieren des Steuerns der Funktion, falls bestimmt wird, dass die erfasste erste Geste die dem Aktivieren des Steuerns der Funktion zugeordnete Geste ist, d) ein Bestimmen, ob eine im dreidimensionalen Raum durchgeführte zweiten Geste mittels des bild-basierten Erfassungsvorgangs erfasst wird oder nicht, e) ein Bestimmen, ob die erfasste zweite Geste eine dem Steuern der Funktion zugeordnete Geste ist oder nicht, falls bestimmt wird, dass die zweite Geste erfasst worden ist, und f) ein Steuern der Funktion auf, falls bestimmt worden ist, dass die erfasste erste Geste die dem Aktivieren des Steuerns der Funktion zugeordnete Geste ist, und falls bestimmt wird, dass die erfasste zweite Geste die dem Steuern der Funktion zugeordnete Geste ist.
  • Gemäß einer Ausgestaltung werden die Schritte d) bis f) unmittelbar hintereinander nach Durchführen der Schritte a) bis c) wiederholt ausgeführt.
  • Gemäß einer weiteren Ausgestaltung wird in Schritt b) bestimmt, dass die erfasste erste Geste die dem Aktivieren des Steuerns der Funktion zugeordnete Geste ist, falls die erfasste erste Geste eine erste vorbestimmte Geste ist, die für eine erste vorbestimmte Zeitdauer in einem Interaktionsbereich des dreidimensionalen Raums statisch ist.
  • Gemäß einer weiteren Ausgestaltung wird in Schritt c) ein das Aktivieren der Funktion darstellendes Anzeigeelement angezeigt.
  • Gemäß einer weiteren Ausgestaltung wird das Aktivieren der Funktion darstellende Anzeigelement nach einer vierten vorbestimmten Zeitdauer, in der keine Geste erfasst wird, nicht mehr auf der Anzeigeeinheit angezeigt.
  • Gemäß einer weiteren Ausgestaltung wird in Schritt e) bestimmt, dass die erfasste zweite Geste die dem Steuern der Funktion zugeordnete Geste ist, falls die erfasste zweite Geste eine zweite vorbestimmte Geste ist, die in dem Interaktionsbereich des dreidimensionalen Raums dynamisch ist.
  • Gemäß einer weiteren Ausgestaltung wird der Interaktionsbereich kleiner als ein maximaler Erfassungsbereich des bild-basierten Erfassungsvorgangs festgelegt.
  • Gemäß einer weiteren Ausgestaltung wird der Interaktionsbereich frei von Störobjekten festgelegt.
  • Gemäß einer weiteren Ausgestaltung wird der Interaktionsbereich kontextabhängig dynamisch adaptiert.
  • Gemäß einer weiteren Ausgestaltung ist der bild-basierte Erfassungsvorgang kamera-basiert ist erfasst eine Position eines eine Geste ausführenden Objekts im dreidimensionalen Raum.
  • Gemäß einem zweiten Aspekt weist eine Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten Einrichtungen auf, die dazu ausgelegt sind, das zuvor beschriebene Verfahren oder dessen Ausgestaltungen auszuführen.
  • Gemäß einem dritten Aspekt ist ein Computerprogrammprodukt zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten dazu ausgelegt, im Zusammenwirken mit einem Computer oder einem Computersystem unmittelbar oder, nach Ausführen einer vorbestimmten Routine, mittelbar das zuvor beschriebene Verfahren oder dessen Ausgestaltungen auszuführen.
  • Gemäß den ersten bis dritten Aspekten und deren Ausgestaltungen wird verhindert, dass eine Bewegung zum Beispiel eines Fingers oder einer Hand eines Nutzers, die nicht zum Steuern einer Funktion gedacht ist, fehlerhaft als die dem Steuern der Funktion zugeordnete Geste bestimmt wird, da vor einem Erfassen der dem Steuern der Funktion zugeordneten Geste eine einem Aktivieren eines Steuerns einer Funktion zugeordnete Geste erfasst werden muss, mittels welcher das Steuern der Funktion aktiviert wird.
  • Die vorliegende Erfindung wird nachstehend anhand eines Ausführungsbeispiels unter Bezugnahme auf die beiliegende Zeichnung näher erläutert.
  • In der Zeichnung zeigt:
  • 1 eine schematische Darstellung eines grundlegenden Aufbaus einer Anzeigeeinheit und eines Erfassungskonzepts gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 2 eine weitere schematische Darstellung des grundlegenden Aufbaus der Anzeigeeinheit und des Erfassungskonzepts gemäß dem Ausführungsbeispiel der vorliegenden Erfindung;
  • 3 eine schematische Darstellung des grundlegenden Aufbaus der Anzeigeeinheit und eines Einbauorts einer Erfassungseinrichtung in einer Dachbedieneinheit gemäß dem Ausführungsbeispiel der vorliegenden Erfindung;
  • 4 eine schematische Darstellung des grundlegenden Aufbaus der Anzeigeeinheit und eines Einbauorts einer Erfassungseinrichtung in einem Innenspiegel gemäß dem Ausführungsbeispiel der vorliegenden Erfindung; und
  • 5 ein Flussdiagramm eines Verfahrens zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten gemäß dem Ausführungsbeispiel der vorliegenden Erfindung.
  • Nachstehend erfolgt die Beschreibung eines Ausführungsbeispiels der vorliegenden Erfindung.
  • Es ist anzumerken, dass im weiteren Verlauf davon ausgegangen wird, dass eine Anzeigeeinheit eine vorzugsweise zentrale Anzeige eines Fahrzeugs, vorzugsweise eines Kraftfahrzeugs, ist und einen Verfahren zum Bedienen von auf der Anzeigeeinheit dargestellten Funktionen unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten in dem Fahrzeug durchgeführt wird.
  • Weiterhin ist eine im weiteren Verlauf beschriebene Geste eine Geste, die durch einen Nutzer des Fahrzeugs mittels einer Hand oder eines Fingers des Nutzers im dreidimensionalen Raum durchgeführt wird, ohne eine Anzeige, wie zum Beispiel einen Touchscreen, oder ein Bedienelement, wie zum Beispiel einen Touchpad, zu berühren.
  • Die nachstehend beschriebene bild-basierte Erfassungseinrichtung kann jede zweckmäßige Kamera sein, die imstande ist, eine Geste im dreidimensionalen Raum zu erfassen, wie zum Beispiel eine Tiefenkamera, eine Kamera mit strukturiertem Licht, eine Stereokamera, eine Kamera basierend auf der Time-of-Flight-Technologie oder eine Infrarot-Kamera kombiniert mit einer Mono-Kamera. Eine Mehrzahl von beliebigen Kombinationen von derartigen Kameras ist möglich. Eine Infrarot-Kamera kombiniert mit einer Mono-Kamera verbessert ein Erfassungsvermögen, da eine Mono-Kamera mit einer hohen Bildauflösung zusätzlich eine Intensitätsinformation liefert, was Vorteile bei einer Hintergrundsegmentierung bietet, und eine Mono-Kamera unempfindlich gegenüber Fremdlicht ist.
  • 1 zeigt eine schematische Darstellung eines grundlegenden Aufbaus einer Anzeigeeinheit und eines Erfassungskonzepts gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • In 1 bezeichnet das Bezugszeichen 10 eine Anzeigeeinheit eines Fahrzeugs, bezeichnet das Bezugszeichen 20 einen gültigen Erfassungsbereich einer bild-basierten Erfassungseinrichtung, bezeichnet das Bezugszeichen 30 eine Dachbedieneinheit des Fahrzeugs, bezeichnet das Bezugszeichen 40 einen Innenspiegel des Fahrzeugs, bezeichnet das Bezugszeichen 50 eine Mittelkonsole des Fahrzeugs und bezeichnet das Bezugszeichen 60 einen Dom des Fahrzeugs.
  • Das grundlegende Bedienkonzept ist, dass eine Gestensteuerung zum Bedienen von Funktionen mittels einer durch eine Hand oder eines Fingers eines Nutzers durchgeführten Geste in dem gültigen Erfassungsbereich 20 im dreidimensionalen Raum durchgeführt wird, falls die durchgeführte Geste in dem Erfassungsbereich 20 mittels der bild-basierten Erfassungseinrichtung als eine vorbestimmte Geste erfasst wird.
  • Der gültige Erfassungsbereich 20 wird durch eine bild-basierte Erfassungseinrichtung festgelegt, die imstande ist, eine dreidimensionale Position der Hand oder des Fingers des Nutzers im dreidimensionalen Raum zu erfassen. Bevorzugt ist die bild-basierte Erfassungseinrichtung eine in das Fahrzeug integrierte Tiefenkamera.
  • Die bild-basierte Erfassungseinrichtung muss derart integriert sein, dass eine Gestensteuerung durch eine entspannte Hand- und/oder Armhaltung des Nutzers an einer beliebigen Position in dem Bereich über dem Dom 60 und der Mittelkonsole 50 des Fahrzeugs zugelassen wird. Daher ist ein gültiger Erfassungsbereich nach oben von einer Oberkante der Anzeigeeinheit 10 und nach unten durch einen Mindestabstand zu dem Dom 60 und der Mittelkonsole 50 begrenzt.
  • Aktiviert wird eine Gestensteuerung, falls eine erste Geste in dem gültigen Erfassungsbereich 20 erfasst wird, die eine erste vorbestimmte Geste ist. Die erste vorbestimmte Geste ist eine statische Geste, die durch Bewegen der Hand oder des Fingers des Nutzers in den gültigen Erfassungsbereich 20 und anschließendes kurzzeitiges Verharren der Hand oder des Fingers des Nutzers für eine erste vorbestimmte Zeitdauer in dem gültigen Erfassungsbereich 20 durchgeführt wird.
  • Deaktiviert wird die Gestensteuerung durch Herausführen der Hand oder des Fingers des Nutzers aus dem gültigen Erfassungsbereich. Ein Ablegen der Hand oder des Arms des Nutzers auf der Mittelkonsole 20 und ein Bedienen von Komponenten des Fahrzeugs wird unter dem gültigen Erfassungsbereich 20 durchgeführt, wodurch keine Gestensteuerung aktiviert wird.
  • Bei einem Gestikulieren in dem Fahrzeug und bei einem Hindurchführen der Hand oder des Fingers des Nutzers zu einem Bedienelement wird keine statische Geste durchgeführt, wodurch keine Gestensteuerung aktiviert wird.
  • 2 zeigt eine weitere schematische Darstellung des grundlegenden Aufbaus der Anzeigeeinheit und des Erfassungskonzepts gemäß dem Ausführungsbeispiel der vorliegenden Erfindung.
  • In 2 bezeichnen die gleichen Bezugszeichen wie in 1 die gleichen Elemente und bezeichnet das Bezugszeichen 70 einen in oder auf der Mittelkonsole 50 vorhandenen Gegenstand als ein Störobjekt, wie zum Beispiel einen Getränkebehälter in einem Getränkehalter.
  • Die zuvor bezüglich 1 gemachten Ausführungen gelten ebenso für 2.
  • Eine untere Grenze des gültigen Erfassungsbereichs 20 wird dynamisch an den Gegenstand 70 angepasst. Ein derart kontext-abhängiges Adaptieren des gültigen Erfassungsbereichs als ein Interaktionsbereich wird derart durchgeführt, dass eine Tiefenkontur des gültigen Erfassungsbereichs mittels einer Tiefeninformation der bild-basierten Erfassungseinrichtung, wie zum Beispiel der Tiefenkamera, in Echtzeit bei einem Erfassen einer Geste durchgeführt wird. Die bedeutet, dass eine gültige Geste über dem Gegenstand 70 durchgeführt werden muss.
  • Eine Anordnen der bild-basierten Erfassungseinrichtung in einem Dachbereich des Fahrzeugs führt zu den folgenden Vorteilen: Es wird kein Sonnenlicht in eine Optik der bild-basierten Erfassungseinrichtung eingestrahlt. Es wird ein vollständiger Erfassungsbereich auch in einem Nahbereich der Anzeigeeinheit 10 als ein gültiger Erfassungsbereich 20 abgedeckt. Es gibt eine hohe Bildauflösung in Hauptinteraktionsrichtungen links, rechts, vor und zurück der Gestensteuerung. Die bild-basierte Erfassungseinrichtung ist aus einem normalen Sichtbereich von Fahrer und Beifahrer. Dachkomponenten können über verschiedene Baureihen hinweg mit weniger Designvarianten stark standardisiert werden. Es sind geringe Anforderungen an eine Erfassungsreichweite erforderlich.
  • Unter Bezugnahme auf 3 und 4 werden zwei mögliche Einbauorte für die bild-basierte Erfassungseinrichtung in dem Dachbereich des Fahrzeugs erläutert.
  • 3 zeigt eine schematische Darstellung des grundlegenden Aufbaus der Anzeigeeinheit und eines Einbauorts der Erfassungseinrichtung in der Dachbedieneinheit gemäß dem Ausführungsbeispiel der vorliegenden Erfindung gemäß dem Ausführungsbeispiel der vorliegenden Erfindung.
  • In 3 bezeichnen die gleichen Bezugszeichen wie in 1 und 2 die gleichen Elemente und bezeichnet das Bezugszeichen 100 einen maximalen Erfassungswinkel einer in der Dachbedieneinheit 30 des Fahrzeugs integrierten bild-basierten Erfassungseinrichtung.
  • Die zuvor bezüglich 1 und 2 gemachten Ausführungen gelten ebenso für 3.
  • Wie es in 3 ersichtlich ist, wird mit der in der Dachbedieneinheit 30 integrierten bild-basierten Erfassungseinrichtung der vollständige gültige Erfassungsbereich 20 abgedeckt. Ein weiterer Vorteil der in der Dachbedieneinheit 30 integrierten bild-basierten Erfassungseinrichtung ist, dass ein größtmöglicher vertikaler Abstand zu dem gültigen Erfassungsbereich 20 erzielt wird.
  • 4 zeigt eine schematische Darstellung des grundlegenden Aufbaus der Anzeigeeinheit und eines Einbauorts einer Erfassungseinrichtung in einem Innenspiegel gemäß dem Ausführungsbeispiel der vorliegenden Erfindung.
  • In 4 bezeichnen die gleichen Bezugszeichen wie in 1 und 2 die gleichen Elemente und bezeichnet das Bezugszeichen 110 einen maximalen Erfassungswinkel einer in dem Innenspiegel 40 des Fahrzeugs integrierten bild-basierten Erfassungseinrichtung.
  • Die zuvor bezüglich 1 und 2 gemachten Ausführungen gelten ebenso für 4.
  • Wie es in 4 ersichtlich ist, wird mit der in der Dachbedieneinheit 30 integrierten bild-basierten Erfassungseinrichtung der vollständige gültige Erfassungsbereich 20 abgedeckt. Um eine sich ändernde Ausrichtung der bild-basierten Erfassungseinrichtung aufgrund eines Verstellens des Innenspiegels 40 zu kompensieren, wird anhand einer Kontur der Mittelkonsole 50 ein Ausrichtungsversatz der bild-basierten Erfassungseinrichtung korrigiert, um eine Positionskalibrierung durchzuführen.
  • 5 zeigt ein Flussdiagramm eines Verfahrens zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten gemäß dem Ausführungsbeispiel der vorliegenden Erfindung.
  • Es ist anzumerken, dass ein Verarbeitungsfluss des Flussdiagramms in 5 zum Beispiel nach einem Initialisierungszeitpunkt, wie zum Beispiel nach einem Einschalten einer Zündung des Fahrzeugs, eingeschaltet wird und zyklisch wiederholt durchgeführt wird, bis ein Beendigungszeitpunkt, wie zum Beispiel ein Ausschalten der Zündung des Fahrzeugs, erreicht ist. Alternativ kann der Initialisierungszeitpunkt zum Beispiel der Zeitpunkt des Startens eines Motors des Fahrzeugs und/oder der Beendigungszeitpunkt der Zeitpunkt des Abstellens des Motors des Fahrzeugs sein. Andere Initialisierungszeitpunkte und Beendigungszeitpunkte sind je nach vorliegendem Anwendungszweck ebenso möglich.
  • Es kann ein Unterscheiden durchgeführt werden, ob eine Geste von einem Fahrer oder einem Beifahrer durchgeführt wird, was insbesondere bei einem sogenannten SplitView-Display vorteilhaft ist, das imstande ist, gleichzeitig unterschiedliche Informationen für den Fahrer und den Beifahrer anzuzeigen. Ebenso ist das Unterscheiden, ob eine Geste von einem Fahrer oder einem Beifahrer durchgeführt wird, im Hinblick auf ein ergonomisches Bedienen durch den Fahrer oder den Beifahrer vorteilhaft.
  • Im weiteren Verlauf wird davon ausgegangen, dass die erfasste Geste sowohl eine von dem Fahrer ausgeführte Geste als auch eine von dem Beifahrer ausgeführte Geste sein kann.
  • Weiterhin ist anzumerken, dass in dem Fall des zuvor beschriebenen Unterscheidens zwischen einer Geste des Fahrers und des Beifahrers das Verfahren des Flussdiagramms in 5 sowohl für die Fahrer- als auch die Beifahrerseite durchgeführt wird. Der in 5 gezeigte Verarbeitungsablauf kann zweckmäßig zum Beispiel parallel, seriell oder auf eine verschachtelte Weise für Fahrer- und Beifahrerseite durchgeführt werden.
  • In Schritt S100 wird bestimmt, ob eine erste Geste erfasst wird oder nicht. Falls die erste Geste nicht erfasst wird, was einer Antwort ”Nein” in Schritt S100 entspricht, kehrt der Verarbeitungsablauf zu Schritt 100 zurück. Falls die erste Geste erfasst wird, was einer Antwort ”Ja” in Schritt S100 entspricht, schreitet der Verarbeitungsablauf zu Schritt S200 fort.
  • In Schritt S200 wird bestimmt, ob die erfasste erste Geste eine einem Aktivieren eines Steuerns einer Funktion zugeordnete Geste ist oder nicht. Falls die erste Geste keine dem Aktivieren des Steuerns der Funktion zugeordnete Geste ist, was einer Antwort ”Nein” in Schritt S200 entspricht, kehrt der Verarbeitungsablauf zu Schritt S100 zurück. Falls die erste Geste die dem Aktivieren des Steuerns der Funktion zugeordnete Geste ist, was einer Antwort ”Ja” in Schritt S200 entspricht, schreitet der Verarbeitungsablauf zu Schritt S300 fort.
  • Die dem Aktivieren des Steuerns der Funktion zugeordnete Geste ist eine erste vorbestimmte Geste, die für eine erste vorbestimmte Zeitdauer in einem Interaktionsbereich des dreidimensionalen Raums statisch ist. Die erste vorbestimmte Geste wird erfasst, wie es zuvor unter Bezugnahme auf die 1 bis 3 beschrieben worden ist. Der Interaktionsbereich entspricht dem zuvor beschriebenen gültigen Erfassungsbereich.
  • In Schritt S300 wird das Steuern der Funktion aktiviert. Nach Schritt S300 schreitet der Verarbeitungsablauf zu Schritt S400 fort.
  • Bei dem Aktivieren des Steuerns der Funktion wird auf der Anzeigeeinheit 10 ein Anzeigeelement angezeigt, das das Aktivieren der Funktion anzeigt.
  • In Schritt S400 wird bestimmt, ob eine vorbestimmte Abbruchbedingung erfüllt ist oder nicht. Falls die vorbestimmte Abbruchbedingung erfüllt ist, was einer Antwort ”Ja” in Schritt S400 entspricht, kehrt der Verarbeitungsablauf zu Schritt S100 zurück. Falls die Abbruchbedingung nicht erfüllt ist, was einer Antwort ”Nein” in Schritt S400 entspricht, schreitet der Verarbeitungsablauf zu Schritt S500 fort.
  • Die vorbestimmte Abbruchbedingung kann zum Beispiel sein, dass für eine vierte vorbestimmte Zeitdauer keine Geste erfasst worden ist. Falls die vorbestimmte Abbruchbedingung in Schritt S400 erfüllt ist, wird das das Aktivieren der Funktion darstellende Anzeigeelement nicht mehr auf der Anzeigeeinheit angezeigt.
  • In Schritt S500 wird bestimmt, ob eine zweite Geste erfasst wird oder nicht. Falls die zweite Geste nicht erfasst wird, was einer Antwort ”Nein” in Schritt S500 entspricht, kehrt der Verarbeitungsablauf zu Schritt S500 zurück. Falls die zweite Geste erfasst wird, was einer Antwort ”Ja” in Schritt S500 entspricht, schreitet der Verarbeitungsablauf zu Schritt S600 fort.
  • In Schritt S600 wird bestimmt, ob die erfasste zweite Geste eine einem Steuern der Funktion zugeordnete Geste ist oder nicht. Falls die zweite Geste keine dem Steuern der Funktion zugeordnete Geste ist, was einer Antwort ”Nein” in Schritt S600 entspricht, kehrt der Verarbeitungsablauf zu Schritt S500 zurück. Falls die zweite Geste die dem Steuern der Funktion zugeordnete Geste ist, was einer Antwort ”Ja” in Schritt S600 entspricht, schreitet der Verarbeitungsablauf zu Schritt S700 fort.
  • Die dem Steuern der Funktion zugeordnete Geste ist eine zweite vorbestimmte Geste, die in dem Interaktionsbereich des dreidimensionalen Raums dynamisch ist.
  • In Schritt S700 wird die Funktion gesteuert. Nach Schritt S700 schreitet der Verarbeitungsablauf zu Schritt S800 fort.
  • Bei dem Steuern der Funktion kann auf der Anzeigeeinheit ein Anzeigeelement angezeigt werden, das das Steuern der Funktion anzeigt.
  • In Schritt S800 wird bestimmt, ob eine vorbestimmte Abbruchbedingung erfüllt ist oder nicht. Falls die vorbestimmte Abbruchbedingung erfüllt ist, was einer Antwort ”Ja” in Schritt S800 entspricht, kehrt der Verarbeitungsablauf zu Schritt S100 zurück. Falls die Abbruchbedingung nicht erfüllt ist, was einer Antwort ”Nein” in Schritt S800 entspricht, kehrt der Verarbeitungsablauf zu Schritt S500 zurück.
  • Die vorbestimmte Abbruchbedingung kann zum Beispiel sein, dass für die vierte vorbestimmte Zeitdauer keine Geste erfasst worden ist. Falls die vorbestimmte Abbruchbedingung in Schritt S800 erfüllt ist, wird das das Steuern der Funktion darstellende Anzeigeelement nicht mehr auf der Anzeigeeinheit angezeigt.
  • Das zuvor beschriebene Verfahren kann mittels Einrichtungen realisiert werden, die eine Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug ausbilden. Eine Anzeigeeinheit ist vorzugsweise eine zentrale Anzeige des Fahrzeugs, vorzugsweise eines Kraftfahrzeugs.
  • Eine Anwendung des zuvor beschriebenen Ausführungsbeispiels ist zum Beispiel ein Bedienen bzw. Vor- und Zurückschalten eines Menüs, wie zum Beispiel eines Hauptmenüs, eines Radiosenders oder eines Mediums, wie zum Beispiel einer CD, in einer zentralen Telematikeinheit des Fahrzeugs mittels Gesten, d. h. Hand- oder Fingerbewegungen durch den Nutzer, ohne eine Anzeige, wie zum Beispiel einen Touchscreen, oder ein Bedienelement, wie zum Beispiel einen Touchpad, zu berühren.
  • Ein Lernprozess des Nutzers kann durch optische und/oder akustische Rückmeldungen während einer Gestenbedienung unterstützt werden, wodurch nach einer Lernphase des Nutzers eine Blindbedienung durch den Nutzer ermöglicht wird. Der Nutzer kann derartige optische und/oder akustische Rückmeldungen manuell ausschalten oder derartige optische und/oder akustische Rückmeldungen werden nach Erkennen einer korrekten Gestenbedienung durch den Nutzer zum Beispiel für eine vorbestimmte Zeitdauer automatisch ausgeschaltet.
  • Obgleich in den 3 und 4 spezifische Einbauorte für jeweilige Kameras gezeigt sind, können jeweilige Kameras an anderen zweckmäßigen Einbauorten angeordnet sein.
  • Durch die zuvor beschriebene bild-basierte Gestenbedienung wird eine einfache und schnelle Bedienbarkeit realisiert, die einen Bedienkomfort, eine Bedienflexibilität und ein Bedienerlebnis für den Nutzer steigert und Gestaltungsfreiheiten für ein Fahrzeug-Interieur maßgeblich steigert.
  • Das zuvor beschriebene Ausführungsbeispiel ist als Computerprogrammprodukt, wie zum Beispiel ein Speichermedium, realisierbar, das dazu ausgelegt ist, im Zusammenwirken mit einem Computer oder mehreren Computern, das heißt Computersystemen, oder sonstigen Recheneinheiten ein Verfahren gemäß dem vorhergehenden Ausführungsbeispiel auszuführen. Das Computerprogrammprodukt kann dazu ausgelegt sein, dass das Verfahren erst nach Durchführen einer vorbestimmten Routine, wie zum Beispiel einer Setup-Routine, ausgeführt wird.
  • Obgleich die vorliegende Erfindung vorhergehend anhand eines Ausführungsbeispiels beschrieben worden ist, versteht es sich, dass verschiedene Ausgestaltungen und Änderungen durchgeführt werden können, ohne den Umfang der vorliegenden Erfindung zu verlassen, wie er in den beiliegenden Ansprüchen definiert ist.
  • Bezüglich weiterer Merkmale und Vorteile der vorliegenden Erfindung wird ausdrücklich auf die Offenbarung der Zeichnung verweisen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2008/0065291 A1 [0002]

Claims (12)

  1. Verfahren zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten, das aufweist: a) Bestimmen, ob eine im dreidimensionalen Raum durchgeführte erste Geste mittels eines bild-basierten Erfassungsvorgangs erfasst wird oder nicht; b) Bestimmen, ob die erste Geste eine einem Aktivieren eines Steuerns einer Funktion zugeordnete Geste ist oder nicht, falls bestimmt wird, dass die erste Geste erfasst worden ist; c) Aktivieren des Steuerns der Funktion, falls bestimmt wird, dass die erfasste erste Geste die dem Aktivieren des Steuerns der Funktion zugeordnete Geste ist; d) Bestimmen, ob eine im dreidimensionalen Raum durchgeführte zweiten Geste mittels des bild-basierten Erfassungsvorgangs erfasst wird oder nicht; e) Bestimmen, ob die erfasste zweite Geste eine dem Steuern der Funktion zugeordnete Geste ist oder nicht, falls bestimmt wird, dass die zweite Geste erfasst worden ist; und f) Steuern der Funktion, falls bestimmt worden ist, dass die erfasste erste Geste die dem Aktivieren des Steuerns der Funktion zugeordnete Geste ist, und falls bestimmt wird, dass die erfasste zweite Geste die dem Steuern der Funktion zugeordnete Geste ist.
  2. Verfahren nach Anspruch 1, gekennzeichnet durch wiederholtes Durchführen der Schritte d) bis f) unmittelbar hintereinander nach Durchführen der Schritte a) bis c).
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass in Schritt b) bestimmt wird, dass die erfasste erste Geste die dem Aktivieren des Steuerns der Funktion zugeordnete Geste ist, falls die erfasste erste Geste eine erste vorbestimmte Geste ist, die für eine erste vorbestimmte Zeitdauer in einem Interaktionsbereich des dreidimensionalen Raums statisch ist.
  4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass in Schritt c) ein das Aktivieren der Funktion darstellendes Anzeigeelement angezeigt wird.
  5. Verfahren nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass das Aktivieren der Funktion darstellende Anzeigelement nach einer vierten vorbestimmten Zeitdauer, in der keine Geste erfasst wird, nicht mehr auf der Anzeigeeinheit angezeigt wird.
  6. Verfahren nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass in Schritt e) bestimmt wird, dass die erfasste zweite Geste die dem Steuern der Funktion zugeordnete Geste ist, falls die erfasste zweite Geste eine zweite vorbestimmte Geste ist, die in dem Interaktionsbereich des dreidimensionalen Raums dynamisch ist.
  7. Verfahren nach einem der Ansprüche 3 bis 6, dadurch gekennzeichnet, dass der Interaktionsbereich kleiner als ein maximaler Erfassungsbereich des bild-basierten Erfassungsvorgangs festgelegt wird.
  8. Verfahren nach einem der Ansprüche 3 bis 7, dadurch gekennzeichnet, dass der Interaktionsbereich frei von Störobjekten festgelegt wird.
  9. Verfahren nach einem der Ansprüche 3 bis 8, dadurch gekennzeichnet, dass der Interaktionsbereich kontextabhängig dynamisch adaptiert wird.
  10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass der bild-basierte Erfassungsvorgang kamera-basiert ist und eine Position eines eine Geste ausführenden Objekts im dreidimensionalen Raum erfasst.
  11. Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten, die Einrichtungen aufweist, die dazu ausgelegt sind, ein Verfahren nach einem der Ansprüche 1 bis 10 auszuführen.
  12. Computerprogrammprodukt zum Bedienen von auf einer Anzeigeeinheit eines Fahrzeugs angezeigten Funktionen unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten, das dazu ausgelegt ist, im Zusammenwirken mit einem Computer oder einem Computersystem unmittelbar oder, nach Ausführen einer vorbestimmten Routine, mittelbar ein Verfahren nach einem der Ansprüche 1 bis 10 auszuführen.
DE102012000263A 2012-01-10 2012-01-10 Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt Withdrawn DE102012000263A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102012000263A DE102012000263A1 (de) 2012-01-10 2012-01-10 Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt
PCT/EP2012/005080 WO2013104389A1 (de) 2012-01-10 2012-12-08 Verfahren und vorrichtung zum bedienen von funktionen in einem fahrzeug unter verwendung von im dreidimensionalen raum ausgeführten gesten sowie betreffendes computerprogrammprodukt
CN201280066638.4A CN104040464A (zh) 2012-01-10 2012-12-08 使用在三维空间中执行的手势以及相关的计算机程序产品控制车辆功能的方法和设备
EP12810080.7A EP2802963A1 (de) 2012-01-10 2012-12-08 Verfahren und vorrichtung zum bedienen von funktionen in einem fahrzeug unter verwendung von im dreidimensionalen raum ausgeführten gesten sowie betreffendes computerprogrammprodukt
US14/371,090 US20140361989A1 (en) 2012-01-10 2012-12-08 Method and Device for Operating Functions in a Vehicle Using Gestures Performed in Three-Dimensional Space, and Related Computer Program Product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012000263A DE102012000263A1 (de) 2012-01-10 2012-01-10 Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt

Publications (1)

Publication Number Publication Date
DE102012000263A1 true DE102012000263A1 (de) 2013-07-11

Family

ID=47504797

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012000263A Withdrawn DE102012000263A1 (de) 2012-01-10 2012-01-10 Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt

Country Status (5)

Country Link
US (1) US20140361989A1 (de)
EP (1) EP2802963A1 (de)
CN (1) CN104040464A (de)
DE (1) DE102012000263A1 (de)
WO (1) WO2013104389A1 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013016490A1 (de) * 2013-10-02 2015-04-02 Audi Ag Kraftfahrzeug mit berührungslos aktivierbarem Handschrifterkenner
DE102013223540A1 (de) 2013-11-19 2015-05-21 Bayerische Motoren Werke Aktiengesellschaft Auswahl von Menüeinträgen über Freiraumgesten
DE102014202836A1 (de) 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer Anwenderschnittstelle
WO2015121173A1 (de) 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und verfahren zum wechseln von einem ersten bedienmodus einer anwenderschnittstelle in einen 3d-gesten-modus
WO2015121187A1 (de) 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und verfahren zum berührungslosen bedienen eines in hardware ausgestalteten bedienelementes in einem 3d-gestenmodus
DE102014006945A1 (de) 2014-05-10 2015-11-12 Audi Ag Fahrzeugsystem, Fahrzeug und Verfahren zum Reagieren auf Gesten
DE102014013763A1 (de) 2014-09-05 2016-03-10 Daimler Ag Bedienvorrichtung und Verfahren zum Bedienen von Funktionen eines Fahrzeugs, insbesondere eines Kraftwagens
DE102014221053A1 (de) 2014-10-16 2016-04-21 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug
WO2024046612A1 (de) * 2022-08-29 2024-03-07 Bayerische Motoren Werke Aktiengesellschaft Steuern einer funktion an bord eines kraftfahrzeugs

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150087544A (ko) * 2014-01-22 2015-07-30 엘지이노텍 주식회사 제스처 장치, 그 동작 방법 및 이를 구비한 차량
KR101556521B1 (ko) * 2014-10-06 2015-10-13 현대자동차주식회사 휴먼 머신 인터페이스 장치, 그를 가지는 차량 및 그 제어 방법
US9547373B2 (en) * 2015-03-16 2017-01-17 Thunder Power Hong Kong Ltd. Vehicle operating system using motion capture
US9550406B2 (en) 2015-03-16 2017-01-24 Thunder Power Hong Kong Ltd. Thermal dissipation system of an electric vehicle
DE102015006613A1 (de) 2015-05-21 2016-11-24 Audi Ag Bediensystem und Verfahren zum Betreiben eines Bediensystems für ein Kraftfahrzeug
FR3048933B1 (fr) 2016-03-21 2019-08-02 Valeo Vision Dispositif de commande d'eclairage interieur d'un vehicule automobile
CN106959747B (zh) * 2017-02-14 2020-02-18 深圳奥比中光科技有限公司 三维人体测量方法及其设备
CN106933352A (zh) * 2017-02-14 2017-07-07 深圳奥比中光科技有限公司 三维人体测量方法和其设备及其计算机可读存储介质
KR20210125631A (ko) * 2020-04-08 2021-10-19 현대자동차주식회사 단말기, 단말기와 통신하는 퍼스널 모빌리티 및 그의 제어 방법
CN111880660B (zh) * 2020-07-31 2022-10-21 Oppo广东移动通信有限公司 显示画面的控制方法、装置、计算机设备和存储介质
WO2022021432A1 (zh) 2020-07-31 2022-02-03 Oppo广东移动通信有限公司 手势控制方法及相关装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080065291A1 (en) 2002-11-04 2008-03-13 Automotive Technologies International, Inc. Gesture-Based Control of Vehicular Components

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3903968B2 (ja) * 2003-07-30 2007-04-11 日産自動車株式会社 非接触式情報入力装置
JP3752246B2 (ja) * 2003-08-11 2006-03-08 学校法人慶應義塾 ハンドパターンスイッチ装置
JP4389855B2 (ja) * 2005-09-05 2009-12-24 トヨタ自動車株式会社 車両用操作装置
US7834847B2 (en) * 2005-12-01 2010-11-16 Navisense Method and system for activating a touchless control
CN101055193A (zh) * 2006-04-12 2007-10-17 株式会社日立制作所 车载装置的非接触输入操作装置
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
EP2188737A4 (de) * 2007-09-14 2011-05-18 Intellectual Ventures Holding 67 Llc Verarbeitung von benutzerinteraktionen auf gestenbasis
EP2304527A4 (de) * 2008-06-18 2013-03-27 Oblong Ind Inc Auf gestik basierendes steuersystem für fahrzeugschnittstellen
DE102008048825A1 (de) * 2008-09-22 2010-03-25 Volkswagen Ag Anzeige- und Bediensystem in einem Kraftfahrzeug mit nutzerbeeinflussbarer Darstellung von Anzeigeobjekten sowie Verfahren zum Betreiben eines solchen Anzeige- und Bediensystems
DE102009046376A1 (de) * 2009-11-04 2011-05-05 Robert Bosch Gmbh Fahrerassistenzsystem für ein Fahrzeug mit einer Eingabevorrichtung zur Eingabe von Daten
CN102236409A (zh) * 2010-04-30 2011-11-09 宏碁股份有限公司 基于影像的动作手势辨识方法及系统
CN102221891A (zh) * 2011-07-13 2011-10-19 广州视源电子科技有限公司 实现视像手势识别的方法和系统
WO2013036621A1 (en) * 2011-09-09 2013-03-14 Thales Avionics, Inc. Controlling vehicle entertainment systems responsive to sensed passenger gestures

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080065291A1 (en) 2002-11-04 2008-03-13 Automotive Technologies International, Inc. Gesture-Based Control of Vehicular Components

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013016490A1 (de) * 2013-10-02 2015-04-02 Audi Ag Kraftfahrzeug mit berührungslos aktivierbarem Handschrifterkenner
DE102013223540A1 (de) 2013-11-19 2015-05-21 Bayerische Motoren Werke Aktiengesellschaft Auswahl von Menüeinträgen über Freiraumgesten
CN106030462A (zh) * 2014-02-17 2016-10-12 大众汽车有限公司 用户接口和用于从用户接口的第一操作模式变换成3d手势模式的方法
DE102014202836A1 (de) 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer Anwenderschnittstelle
WO2015121173A1 (de) 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und verfahren zum wechseln von einem ersten bedienmodus einer anwenderschnittstelle in einen 3d-gesten-modus
DE102014202833A1 (de) 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und Verfahren zum Wechseln von einem ersten Bedienmodus einer Anwenderschnittstelle in einen 3D-Gesten-Modus
WO2015121187A1 (de) 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und verfahren zum berührungslosen bedienen eines in hardware ausgestalteten bedienelementes in einem 3d-gestenmodus
WO2015121175A1 (de) 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei der bedienung einer anwenderschnittstelle
DE102014202834A1 (de) 2014-02-17 2015-09-03 Volkswagen Aktiengesellschaft Anwenderschnittstelle und Verfahren zum berührungslosen Bedienen eines in Hardware ausgestalteten Bedienelementes in einem 3D-Gestenmodus
US11119576B2 (en) 2014-02-17 2021-09-14 Volkswagen Aktiengesellschaft User interface and method for contactlessly operating a hardware operating element in a 3-D gesture mode
DE102014006945A1 (de) 2014-05-10 2015-11-12 Audi Ag Fahrzeugsystem, Fahrzeug und Verfahren zum Reagieren auf Gesten
US9939915B2 (en) 2014-09-05 2018-04-10 Daimler Ag Control device and method for controlling functions in a vehicle, in particular a motor vehicle
DE102014013763A1 (de) 2014-09-05 2016-03-10 Daimler Ag Bedienvorrichtung und Verfahren zum Bedienen von Funktionen eines Fahrzeugs, insbesondere eines Kraftwagens
DE102014221053A1 (de) 2014-10-16 2016-04-21 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug
DE102014221053B4 (de) 2014-10-16 2022-03-03 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug
WO2024046612A1 (de) * 2022-08-29 2024-03-07 Bayerische Motoren Werke Aktiengesellschaft Steuern einer funktion an bord eines kraftfahrzeugs

Also Published As

Publication number Publication date
US20140361989A1 (en) 2014-12-11
EP2802963A1 (de) 2014-11-19
CN104040464A (zh) 2014-09-10
WO2013104389A1 (de) 2013-07-18

Similar Documents

Publication Publication Date Title
DE102012000263A1 (de) Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt
EP2802964B1 (de) Verfahren und vorrichtung zum bedienen von funktionen in einem fahrzeug unter verwendung von im dreidimensionalen raum ausgeführten gesten sowie betreffendes computerprogrammprodukt
EP2802477B1 (de) Verfahren und vorrichtung zum bedienen von auf einer anzeigeeinheit eines fahrzeugs angezeigten funktionen unter verwendung von im dreidimensionalen raum ausgeführten gesten sowie betreffendes computerprogrammprodukt
DE102013000068A1 (de) Verfahren zum Synchronisieren von Anzeigeeinrichtungen eines Kraftfahrzeugs
DE102012020607B4 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
WO2015062751A1 (de) Verfahren zum betreiben einer vorrichtung zur berührungslosen erfassung von gegenständen und/oder personen und von diesen ausgeführten gesten und/oder bedienvorgängen in einem fahrzeuginnenraum
DE102016216577A1 (de) Verfahren zur Interaktion mit Bildinhalten, die auf einer Anzeigevorrichtung in einem Fahrzeug dargestellt werden
DE102014015087A1 (de) Betreiben eines Steuersystems für einen Kraftwagen sowie Steuersystem für einen Kraftwagen
EP3358454A1 (de) Anwenderschnittstelle, fortbewegungsmittel und verfahren zur anwenderunterscheidung
DE102013000066A1 (de) Zoomen und Verschieben eines Bildinhalts einer Anzeigeeinrichtung
DE102012018685B4 (de) System und Verfahren zur Steuerung von zumindest einem Fahrzeugsystem mittels von einem Fahrer durchgeführter Gesten
DE102015201901A1 (de) Bestimmung einer Position eines fahrzeugfremden Objekts in einem Fahrzeug
DE102011117289A1 (de) Verfahren zum Betreiben einer mobilen Vorrichtung in einem Fahrzeug
DE102016001998A1 (de) Kraftfahrzeug-Bedienvorrichtung und Verfahren zum Betreiben einer Bedienvorrichtung, um eine Wechselwirkung zwischen einer virtuellen Darstellungsebene und einer Hand zu bewirken
DE102013011531B4 (de) Verfahren zum Betreiben eines Assistenzsystems eines Kraftwagens und Assistenzsystem für einen Kraftwagen
DE102019206606A1 (de) Verfahren zur berührungslosen Interaktion mit einem Modul, Computerprogrammprodukt, Modul sowie Kraftfahrzeug
DE102018220693A1 (de) Steuerungssystem und Verfahren zum Steuern einer Funktion eines Fahrzeugs
DE102013014877A1 (de) Kraftfahrzeug-Bedieneinrichtung mit selbsterklärender Gestenerkennung
DE102017007120A1 (de) Verfahren zur Fernsteuerung
DE102013016196A1 (de) Kraftfahrzeugbedienung mittels kombinierter Eingabemodalitäten
EP3426516B1 (de) Bedienvorrichtung und verfahren zum erfassen einer benutzerauswahl zumindest einer bedienfunktion der bedienvorrichtung
DE102013011414A1 (de) Verfahren und Vorrichtung zum Steuern von Spiegelfunktionen in einem Fahrzeug sowie betreffendes Computerprogrammprodukt
DE102015201722A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102012218155A1 (de) Erleichtern der Eingabe auf einer berührungsempfindlichen Anzeige in einem Fahrzeug
DE102022102504B9 (de) Verfahren zum Betreiben einer Schnittstellenvorrichtung in einem Fahrzeug, sowie Schnittstellenvorrichtung und Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R120 Application withdrawn or ip right abandoned