DE102013201746A1 - Interaktion mit fahrzeugbedienungselementen durch gestenerkennung - Google Patents

Interaktion mit fahrzeugbedienungselementen durch gestenerkennung Download PDF

Info

Publication number
DE102013201746A1
DE102013201746A1 DE102013201746A DE102013201746A DE102013201746A1 DE 102013201746 A1 DE102013201746 A1 DE 102013201746A1 DE 102013201746 A DE102013201746 A DE 102013201746A DE 102013201746 A DE102013201746 A DE 102013201746A DE 102013201746 A1 DE102013201746 A1 DE 102013201746A1
Authority
DE
Germany
Prior art keywords
vehicle occupant
gesture
vehicle
image
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102013201746A
Other languages
English (en)
Inventor
Anthony Gerald King
Jeffrey Thomas Remillard
Jeff Allen Greenberg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102013201746A1 publication Critical patent/DE102013201746A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/85Arrangements for transferring vehicle- or driver-related data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/148Instrument input by voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/595Data transfer involving internal databases

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Ein gestenbasiertes Erkennungssystem erhält gewünschte Befehlseingaben eines Fahrzeuginsassen durch Erkennung und Interpretation seiner Gesten. Ein Bild des inneren Abschnitts des Fahrzeugs wird aufgenommen, und das Bild des Fahrzeuginsassen wird vom Hintergrund im aufgenommenen Bild getrennt. Das getrennte Bild wird analysiert, und ein Gestenerkennungsprozessor interpretiert die Geste des Fahrzeuginsassen aus dem Bild. Ein Befehlsauslöser gibt den interpretierten gewünschten Befehl zusammen mit einer Bestätigungsmeldung für den Fahrzeuginsassen vor dem Auslösen des Befehls wieder. Wenn der Fahrzeuginsasse bestätigt, löst der Befehlsauslöser den interpretierten Befehl aus. Ferner beurteilt ein Interferenzmaschinenprozessor den Aufmerksamkeitszustand des Fahrzeuginsassen und übermittelt Signale an ein Fahrassistenzsystem, wenn der Fahrzeuginsasse unaufmerksam ist. Das Fahrassistenzsystem liefert Warnsignale an den unaufmerksamen Fahrzeuginsassen, wenn potenzielle Gefahren identifiziert werden. Ferner stellt ein Fahrererkennungsmodul bei Erkennen des Fahrers einen Satz von Personalisierungsfunktionen des Fahrzeugs wieder auf vorgespeicherte Einstellungen ein.

Description

  • Diese Offenbarung betrifft Fahrer- und Maschinenschnittstellen in Fahrzeugen und insbesondere solche Schnittstellen, welche einem Fahrer die Interaktion mit der Maschine ohne physischen Kontakt ermöglichen.
  • Systeme für die Interaktion eines Fahrzeuginsassen mit einem Fahrzeug bekannt. Ein Beispiel ist das 'SYNC'-System, das eine einfache Interaktion eines Fahrers mit dem Fahrzeug bereitstellt und Optionen aufweist, um durch Sprachbefehle Freisprechanrufe zu tätigen, Musikbedienelemente zu handhaben und andere Funktionen zu steuern, eine Push-to-talk-Taste auf dem Lenkrad zu verwenden und nötigenfalls auf das Internet zuzugreifen. Ferner sind viele Fahrzeuge mit Mensch-Maschine-Schnittstellen ausgestattet, die an geeigneten Stellen vorgesehen sind. Dies beinhaltet Schalter auf dem Lenkrad, Knöpfe auf der Mittelkonsole, Touchscreen-Schnittstellen und Trackpads.
  • Hin und wieder sind diese Bedienelemente, insbesondere diejenigen, die auf der Mittelkonsole vorgesehen sind, vom Fahrer nicht leicht zu erreichen. Dies kann den Fahrer dazu veranlassen, nach den gewünschten Schaltern zu suchen, und des Öfteren muss der Fahrer seine Hand ausstrecken, um die gewünschte(n) Steuerungsfunktion(en) zu erreichen. Lenkradschalter sind leicht zu erreichen, aber aufgrund der begrenzten Verfügbarkeit von Platz darauf wird die Bedienung von erweiterten Steuerungsmerkmalen durch Lenkradtasten eingeschränkt. Obwohl Sprachbefehle in dieser Hinsicht hilfreich sein können, kann diese Einrichtung hinderlich sein, wenn für einfache Vorgänge verwendet, die eine veränderliche Eingabe erfordern, wie beispielsweise ein Einstellen der Lautstärke des Musiksystems, Wechseln von Titeln oder Durchsuchen von Alben, Einstellen der Frequenz für das Radiosystem usw. Für solche Aufgaben dauern Sprachbefehlsvorgänge zuweilen länger, und der Fahrer zieht es in Fällen, in welchen das Spracherkennungssystem den gewünschten Befehl bei seiner ersten Äußerung nicht erkennen kann, vor, den gewünschten Vorgang durch seine Hände zu steuern, statt wiederholt Befehle zu geben.
  • Es besteht daher ein Bedarf an einem besseren System zur Ermöglichung der Interaktion zwischen dem Fahrer und den Steuerungsfunktionen des Fahrzeugs, welches die zuvor erwähnten Probleme effektiv bewältigen kann.
  • Die vorliegende Erfindung beschreibt ein gestenbasiertes Erkennungssystem und ein Verfahren zum Interpretieren der Gesten eines Fahrzeuginsassen und Auslösen von entsprechenden gewünschten Befehlen nach der Erkennung.
  • In einer Ausführungsform stellt diese Offenbarung ein gestenbasiertes Erkennungssystem bereit, um die Gesten eines Fahrzeuginsassen zu interpretieren und die gewünschten Befehlseingaben des Fahrzeuginsassen zu erhalten. Das System weist ein Mittel zum Aufnehmen eines Bildes des inneren Abschnitts des Fahrzeugs auf.
  • Das Bild kann ein zweidimensionales Bild oder ein dreidimensionales Tiefenbild sein, das dem inneren Abschnitt des Fahrzeugs entspricht. Ein Gestenerkennungsprozessor trennt das Bild des Fahrzeuginsassen vom Hintergrund im aufgenommenen Bild, analysiert das Bild, interpretiert die Geste des Fahrzeuginsassen aus dem getrennten Bild und erzeugt eine Ausgabe. Ein Befehlsauslöser empfängt die Ausgabe vom Gestenerkennungsprozessor und erzeugt einen interpretierten Befehl. Der Auslöser erzeugt ferner eine Bestätigungsmeldung, die dem interpretierten Befehl entspricht, liefert die Bestätigungsmeldung an den Fahrzeuginsassen und löst den Befehl bei Empfang einer Bestätigung vom Fahrzeuginsassen aus. Das System weist ferner einen Interferenzmaschinenprozessor auf, der mit einem Satz von Sensoren gekoppelt ist. Der Interferenzmaschinenprozessor wertet den Aufmerksamkeitszustand des Fahrzeuginsassen aus und empfängt Signale von den Sensoren, die potenziellen Gefahren entsprechen. Ein Fahrassistenzsystem ist mit dem Interferenzmaschinenprozessor gekoppelt und empfängt Signale von ihm. Das Fahrassistenzsystem liefert basierend auf der Aufmerksamkeit des Fahrzeuginsassen Warnsignale an den Fahrzeuginsassen, wenn die Interferenzmaschine zu einem spezifischen Zeitpunkt eine potenzielle Gefahr wahrnimmt.
  • Bei einer anderen Ausführungsform stellt diese Offenbarung ein Verfahren zum Interpretieren von Gesten eines Fahrzeuginsassen und Erhalten von gewünschten Befehlseingaben des Fahrzeuginsassen bereit. Das Verfahren weist ein Aufnehmen eines Bildes des inneren Abschnitts des Fahrzeugs und Trennen des Bildes des Fahrzeuginsassen vom aufgenommenen Bild auf. Das getrennte Bild wird analysiert, und die Geste des Fahrzeuginsassen wird aus den getrennten Bildern interpretiert. Der gewünschte Befehl des Fahrzeuginsassen wird dann interpretiert, und eine entsprechende Bestätigungsmeldung wird an den Fahrzeuginsassen geliefert. Bei Empfang einer Bestätigung wird der interpretierte Befehl ausgelöst.
  • Zusätzliche Aspekte, Merkmale und Aufgaben der vorliegenden Offenbarung sind aus den Zeichnungen und der ausführlichen Beschreibung der beispielhaften Ausführungsformen ersichtlich, die in Verbindung mit den im Anschluss angehängten Ansprüchen ausgelegt sind.
  • Die Figuren zeigen:
  • 1 ist eine schematische Darstellung eines gestenbasierten Erkennungssystems gemäß der vorliegenden Offenbarung.
  • 2 bis 4 sind typische Gesten, die durch das gestenbasierte Erkennungssystem der vorliegenden Offenbarung interpretiert werden können.
  • 5 ist ein Flussdiagramm, das einem Verfahren zum Interpretieren von Gesten eines Fahrzeuginsassen und Erhalten einer gewünschten Befehlseingabe des Fahrzeuginsassen gemäß der vorliegenden Offenbarung entspricht.
  • Die folgende ausführliche Beschreibung offenbart Aspekte der Offenbarung und die Möglichkeiten zu ihrer Implementierung. Die Erfindung wird durch die Beschreibung jedoch weder definiert noch eingeschränkt, so dass solch eine Definition oder Beschränkung nur in den hierzu angehängten Ansprüchen enthalten ist. Obwohl die beste Form zur Ausführung der Erfindung offenbart wurde, ist für Fachleute zu erkennen, dass auch andere Ausführungsformen zum Ausführen oder Umsetzen der Erfindung möglich sind.
  • Die vorliegende Offenbarung betrifft ein gestenbasiertes Erkennungssystem und ein Verfahren zum Interpretieren der Gesten eines Fahrzeuginsassen und Erhalten von gewünschten Befehlseingaben des Fahrzeuginsassen durch Interpretieren der Gesten.
  • 1 stellt ein beispielhaftes gestenbasiertes Erkennungssystem 100 zum Interpretieren der Gesten eines Fahrzeuginsassen und Erhalten von gewünschten Befehlen des Fahrzeuginsassen durch Erkennung dar. Das System 100 weist ein Mittel 110 zum Aufnehmen eines Bildes des inneren Abschnitts eines Fahrzeugs (nicht dargestellt) auf. Das Mittel 110 weist einen oder mehr innere Bildaufnahmesensoren 112 und einen Satz von äußeren Sensoren 114 auf. Die inneren Bildaufnahmesensoren 112 beobachten kontinuierlich den Innenraum des Fahrzeugs. Der eine oder die mehreren äußeren Sensoren 114 beobachten die äußere Umgebung des Fahrzeugs und nehmen Bilder davon auf. Ferner identifizieren die äußeren Sensoren 114 Fahrzeuge in der Nähe des Fahrzeugs des Fahrzeuginsassen und liefern Warnsignale, die potenziellen Kollisionsgefahren entsprechen, an ein Fahrassistenzsystem 150. Ein zweidimensionaler Bildgeber 116, bei dem es sich um eine Kamera handeln kann, nimmt 2D-Bilder des Innenraums des Fahrzeugs auf. Ferner weist das Mittel 110 einen dreidimensionalen Bildgeber 118 zum Aufnehmen eines Tiefenbildes des inneren Abschnitts des Fahrzeugs auf. Der 3D-Bildgeber 118 kann eine beliebige einschlägige Vorrichtung aufweisen, die auf dem Fachgebiet bekannt, mit Kraftfahrzeuganwendungen kompatibel und für diesen Zweck geeignet ist. Ein geeigneter 3D-Bildgeber ist eine Vorrichtung, die von PMD Technologies hergestellt wird und die einen anwendungsspezifischen Bildgeber verwendet. Ein anderer geeigneter 3D-Bildgeber kann ein CMOS-Bildgeber sein, der durch Messen der Verzerrung des Musters von emittiertem Licht funktioniert. Diese Vorrichtungen beruhen beide auf aktiver Beleuchtung, um das erforderliche Tiefenbild der Fahrzeuginnenräume zu erzeugen. In einem anderen Aspekt kann der 3D-Bildgeber 118 ein Blitzbildaufnahme-LIDAR sein, der die gesamte Innenraumansicht durch einen Laser oder einen Lichtimpuls aufnimmt. Der vom Mittel 110 verwendete Bildgebertyp hängt von Faktoren, einschließlich Kostenbeschränkungen und Gehäusegröße, und der zur Aufnahme von Bildern des inneren Abschnitts des Fahrzeugs erforderlichen Präzision ab.
  • Das Fahrzeug des Fahrzeuginsassen kann auch mit einem hochpräzisen Kollisionserkennungssystem 160 ausgestattet sein, welches jedes geeignete Kollisionserkennungssystem sein kann, das auf dem Fachgebiet allgemein bekannt ist. Das Kollisionserkennungssystem 160 kann einen Satz von Radarsensoren, Bildprozessoren und Seitenkameras usw. aufweisen, die zusammenwirken. Das Kollisionserkennungssystem 160 kann außerdem ein Totwinkel-Überwachungssystem zur Seitenabtastung und Spurwechselassistenz (LCA) aufweisen, wobei es sich um ein Nahbereichsabtastungssystem zum Erkennen eines sich rasch nähernden benachbarten Fahrzeugs handelt. Der Hauptmodus dieses Systems ist ein Nahbereichsabtastmodus, der normalerweise bei etwa 24 GHz arbeitet. Totpunkterkennungssysteme können auch ein bildbasiertes System aufweisen, das Kameras zur Totpunktüberwachung verwendet. In einer anderen Ausführungsform kann das Kollisionserkennungssystem 160 ein Valeo Raytheon System aufweisen, das bei 24 GHz arbeitet und Fahrzeuge in den Totpunktbereichen auf beiden Seiten des Fahrzeugs überwacht. Unter Verwendung mehrerer Strahlen des Mehrstrahlradarsystems bestimmt das Valeo System Position, Abstand und relative Geschwindigkeit eines sich nähernden Fahrzeugs in der Totpunktregion genau. Der Bereich des Systems beträgt etwa 40 Meter bei einem Sichtfeld von etwa 150 Grad.
  • Bei Identifizierung von potenziellen Kollisionsgefahren liefert das Kollisionserkennungssystem 160 entsprechende Signale an einen Gestenerkennungsprozessor 120. Der Einfachheit halber und zur Verringerung der Anzahl der Wörter wird der Gestenerkennungsprozessor 120 im Folgenden als 'Prozessor 120' bezeichnet. Wie in 1 dargestellt, ist der Prozessor 120 mit dem Kollisionserkennungssystem 160 und dem Mittel 110 gekoppelt. Nach der Aufnahme des Bildes des inneren Abschnitts des Fahrzeugs liefert das Mittel 110 das aufgenommene Bild an den Prozessor 120. Der Prozessor 120 analysiert das Bild und interpretiert die Gesten des Fahrzeuginsassen, indem er zuerst das Bild des Fahrzeuginsassen vom Hintergrund im aufgenommenen Bild trennt. Zum Identifizieren und Interpretieren von Gesten des Fahrzeuginsassen interpretiert der Prozessor 120 kontinuierlich Bewegungen, die vom Benutzer durch seine Hände, Arme usw. gemacht werden. Der Prozessor 120 weist eine Gestendatenbank 122 auf, die eine Anzahl von vorgegebenen Bildern enthält, die verschiedenen Gestenpositionen entsprechen. Der Prozessor 120 vergleicht das aufgenommene Bild mit dem Satz von vorgegebenen Bildern, die in der Gestendatenbank 122 gespeichert sind, um die Geste des Fahrzeuginsassen zu interpretieren. In 2 bis 4 sind typische Bilder dargestellt, die in der Gestendatenbank 122 gespeichert sind. Zum Beispiel entspricht das in 2(a) dargestellte Bild einem Knopfeinstellungsbefehl. Dieses Bild stellt den Zeigefinger, den Mittelfinger und den Daumen auf eine Weise in der Luft positioniert dar, die der Handlung des Haltens eines Knopfes gleicht. Eine durch die Analyse von kontinuierlich aufgenommenen Bildern des Fahrzeuginsassen wahrgenommene Drehung der so positionierten Hände von links nach rechts oder umgekehrt veranlasst den Prozessor 120 zu der Interpretation, dass eine Einstellung der Lautstärke des Musiksystems, der Temperaturregelung oder der Lüftergeschwindigkeitsregelung vom Fahrzeuginsassen gewünscht wird. Bei schnellerer Drehung in einer Richtung interpretiert der Prozessor 120 eine größere Änderung der Funktion, die gesteuert wird, und eine langsamere Drehung wird als ein Wunsch zur Vornahme einer feineren Einstellung interpretiert. Das in 2(b) dargestellte Bild entspricht der Einstellung einer Verkleinerung einer Ansicht. Diese Darstellung weist ein Positionieren des Daumens, des Zeigefingers und des Mittelfingers bei anfänglicher Beabstandung des Daumens auf. Der Fahrzeuginsasse muss mit den drei Fingern auf diese Weise in der Luft positioniert beginnen und dann den Zeigefinger und den Mittelfinger in einer Zusammendrückbewegung dem Daumen nähern. Eine langsamere Bewegung ermöglicht eine feinere Einstellung der Zoom-Funktion und ein schnelles Zusammenführen wird als eine schnelle Verkleinerung interpretiert. Das in 2(c) dargestellte Bild entspricht der Einstellung einer Vergrößerung einer Ansicht. Diese Geste ähnelt der tatsächlichen Funktion 'Auseinanderziehen zum Vergrößern' auf Berührungsbildschirmen. Der Daumen wird anfänglich leicht von Zeigefinger und Mittelfinger getrennt, worauf eine Wegbewegung des Daumens von Zeigefinger und Mittelfinger folgt. Wenn der Prozessor 120 diesem Bild ähnliche Gesten interpretiert, die vom Fahrzeuginsassen gemacht werden, aktiviert er bei Bestätigung durch den Fahrzeuginsassen die Vergrößerungsfunktion, wie im Folgenden erläutert. Die Verkleinerungs- und Vergrößerungsgesten werden zum Aktivieren von Funktionen, einschließlich der Zoomeinstellung, auf einem Anzeigebildschirm verwendet. Dies kann, ohne darauf beschränkt zu sein, eine fahrzeuginterne Straßenkarte, welche eine Straßenkarte sein kann, die einer vom GPS-/Navigationssystem des Fahrzeugs geplanten Route entspricht, eine Zoomeinstellung für einen fahrzeuginternen Webbrowser oder eine Steuerung einer beliebigen anderen fahrzeuginternen Funktion beinhalten, bei welcher eine Verkleinerungsoption anwendbar ist, zum Beispiel Albumcovers, einer aktuellen Wiedergabeliste usw.
  • Eine andere Geste, die der Prozessor 120 mit den entsprechenden, in der Datenbank 122 gespeicherten Bildern interpretiert, ist eine Scroll-/Dreh-/Schwenkfunktion, wie in 3(a) dargestellt. Zum Aktivieren dieser Funktion muss der Fahrzeuginsasse den Zeigefinger und den Mittelfinger zusammenlegen und diese nach links, rechts, oben oder unten schieben. Jede dieser Bewegungen führt bei Interpretation durch den Prozessor 120 zu einem Scrollen des Bildschirms in der entsprechenden Richtung. Ferner korreliert die Geschwindigkeit der Bewegung, während die Geste in der Luft gemacht wird, mit der tatsächlichen Geschwindigkeit des Scrollens über einen Anzeigebildschirm. Konkret führt ein schnelleres Streichen der Finger zu einem schnelleren Scrollen durch den Anzeigebildschirm und umgekehrt. Die Anwendung dieser Geste kann, ohne darauf beschränkt zu sein, ein Scrollen durch eine angezeigte Straßenkarte, Durchsuchen einer Liste von Titeln in einem Album, Suchen nach Frequenzen des Radiosystems oder Scrollen durch ein beliebiges Menü beinhalten, das auf dem Bildschirm angezeigt wird.
  • Das in 3(b) dargestellte Bild entspricht einer Auswähl-/Zeigefunktion. Zum Aktivieren dieser Funktion muss der Fahrzeuginsasse den Zeigefinger in der Luft positionieren und ihn leicht vorwärts drücken, um das tatsächliche Drücken einer Schaltfläche oder Auswählen einer Option nachzuahmen. Zum Einleiten einer Auswahl innerhalb eines bestimmten Bereichs auf einem Anzeigebildschirm muss der Fahrzeuginsasse mit dem Zeigefinger im Wesentlichen in Ausrichtung mit dem Bereich virtuell darauf zeigen. Wenn der Fahrzeuginsasse zum Beispiel wünscht, einen bestimmten Ort auf einer angezeigten Straßenkarte auszuwählen, und die Ansicht zu verkleinern, um Bereiche um den Ort zu sehen, muss er mit seinen Fingern in der Luft in Ausrichtung mit dem angezeigten Ort virtuell darauf zeigen. Das Zeigen mit dem Finger auf einen bestimmten virtuellen Bereich, wie in 3(b) dargestellt, führt zur Aktivierung von auswählbaren Optionen in der entsprechenden Richtung, die nach vorne zum Bildschirm projiziert ist. Diese Geste kann für verschiedene Auswahlmöglichkeiten verwendet werden, einschließlich des Auswählens eines bestimmten Liedes in einer Liste, Auswählens eines bestimmten Symbols in einem angezeigten Menü, Erkunden eines Ortes von Interesse auf einer angezeigten Straßenkarte usw.
  • Das in 4(a) dargestellte Bild ist die Geste, die einer 'Klicken und Ziehen'-Option entspricht. Um sie zu aktivieren, muss der Fahrzeuginsasse mit seinem Zeigefinger in der Luft ähnlich dem tatsächlichen Drücken einer Schaltfläche bzw. eines Symbols virtuell auf eine Option zeigen und dann den Finger die gewünschte Richtung entlang bewegen. Eine Interpretation dieser Geste führt zum Ziehen des Elements entlang dieser Richtung. Diese Funktion ist in solchen Fällen nützlich, die ein kontrolliertes Scrollen durch eine angezeigte Straßenkarte, Umordnen einer angezeigten Liste von Elementen durch Hinauf- und Hinunterziehen von bestimmten Elementen usw. aufweisen.
  • Die in 4(b) dargestellte Geste entspricht einer 'Aufwärtsbewegen'-Funktion. Der Fahrzeuginsasse muss mit seinem Zeigefinger auf etwas zeigen und diesen dann rasch nach oben bewegen. Bei Interpretation dieser Geste, führt eine Aktivierung dieser Funktion zum Zurückkehren zu einem Hauptmenü von einem Untermenü, das auf einem Berührungsbildschirm angezeigt wird. Alternativ kann sie auch zum Navigieren innerhalb eines Hauptmenüs verwendet werden, das auf dem Bildschirm wiedergegeben wird.
  • Andere ähnliche erklärbare und möglicherweise anwendbare Gesten und ihre entsprechenden Bilder in der Datenbank 122, obwohl in den Zeichnungen der Offenbarung nicht dargestellt, beinhalten jene, die der Funktion eines Öffnens bzw. Schließens eines Dachfensters entsprechen. Zum Aktivieren dieser Funktion muss der Fahrzeuginsasse eine Eingabe bereitstellen, in dem er eine Geste darstellt, die das Ergreifen einer Leine in der Nähe der Vorderseite des Dachfensters und anschließendes Zurückziehen oder Vorwärtsschieben derselben imitiert. Das kontinuierliche Aufnehmen des Bildes des Fahrzeuginsassen ermöglicht eine bessere Aktivierung dieser gestenbasierten Interpretation, und das Öffnen bzw. Schließen des Dachfensters stoppt an der Stelle, an der die Hand des Fahrzeuginsassen aufhört, sich zu bewegen. Ferner führt ein schnelles Vor- oder Zurückziehen zum vollständigen Öffnen bzw. Schließen des Dachfensters. Eine andere Geste führt zu einem Hochkippen des Dachfensters vom Fahrzeuginsassen weg. Der Fahrzeuginsasse muss seine Hände mit der Handfläche nach oben zum Dachfenster gerichtet in die Nähe desselben bringen und dann die Hand noch etwas weiter nach oben drücken. Zum Schließen eines geöffneten Dachfensters muss der Fahrzeuginsasse seine Hände dem Dachfenster nähern, das Halten einer Leine und ihr anschließendes Herunterziehen imitieren. Eine andere mögliche erklärbare Geste, die durch den Gestenerkennungsprozessor 120 interpretiert werden kann, ist die 'Streifbewegungsgeste' (obwohl in den Figuren nicht dargestellt). Diese Geste wird verwendet, um einen angezeigten Inhalt zwischen der Heads-up-Anzeige (HUD), dem Cluster und der Mittelkonsole des Fahrzeugs zu bewegen. Zum Aktivieren der Funktionalität dieser Geste muss der Fahrzeuginsasse mit seinem Zeigefinger auf den Inhalt zeigen, der bewegt werden soll, und dann den Zeigefinger in einer Weise, die der 'Streifbewegung' gleicht, in die gewünschte Richtung bewegen. Das Bewegen des Zeigefingers zum Beispiel von der Heads-up-Anzeige in Richtung der Mittelkonsole bewegt den anvisierten Inhalt von der HUD zur Mittelkonsole.
  • Der Prozessor 120 weist einen Interferenzmaschinenprozessor 124 (im Folgenden als 'Prozessor 124' bezeichnet) auf. Der Prozessor 124 verwendet das vom Mittel 110 aufgenommene Bild und die Eingaben von den inneren Sensoren 112 und äußeren Sensoren 114 des Fahrzeugs zum Identifizieren des Aufmerksamkeitszustandes des Fahrers. Dies beinhaltet das Identifizieren von Fällen, in welchen erkannt wird, dass der Fahrer unaufmerksam ist, beispielsweise in einem schläfrigen oder schlaftrunkenen Zustand ist oder sich mit dem Beifahrer oder einem Fahrzeuginsassen auf dem Rücksitz unterhält. Wenn in solchen Fällen eine potenzielle Gefahr vorliegt, die durch das Kollisionserkennungssystem 160 identifiziert wird, zum Beispiel wenn sich dem Fahrzeug des Fahrzeuginsassen ein Fahrzeug rasch nähert und eine potenzielle Kollisionsgefahr darstellt, übermittelt das Erkennungssystem 160 Signale hinsichtlich der potenziellen Gefahr an den Prozessor 124. Der Prozessor 124 teilt die Unaufmerksamkeit des Fahrers einem Fahrassistenzsystem 150 mit. Das Fahrassistenzsystem 150 liefert ein Warnsignal an den Fahrer/Fahrzeuginsassen. Solch ein Warnsignal wird entweder durch verbales Kommunizieren mit dem Fahrzeuginsassen oder durch ein akustisches Alarmzeichen mitgeteilt. Alternativ kann das Warnsignal auf einer Benutzeroberfläche wiedergegeben werden, wobei Einzelheiten davon auf der Oberfläche angezeigt werden. Der genaue Zeitpunkt, zu dem solch ein Warnsignal an den Fahrzeuginsassen übermittelt wird, hängt von der Aufmerksamkeit des Fahrzeuginsassen ab. Insbesondere bei einem schläfrigen oder schlaftrunkenen Fahrer werden die Signale unverzüglich und viel früher übermittelt, als wenn das Warnsignal einem aufmerksamen Fahrer vermittelt werden würde. Wenn die äußeren Sensoren 114 des Fahrzeugs eine scharfe Kurve, eine Schwelle zur Geschwindigkeitsbegrenzung oder etwas Ähnliches identifizieren und erkannt wird, dass der Fahrzeuginsasse nicht angegurtet ist, dann kann das Fahrerassistenzsystem 150 ein Signal an den Fahrzeuginsassen liefern, dass er den Sicherheitsgurt anlegen soll.
  • Der Prozessor 120 weist ferner ein Fahrererkennungsmodul 126 auf, das so konfiguriert ist, dass es das Bild des Fahrers erkennt. Konkret ist das Fahrererkennungsmodul 126 so konfiguriert, dass es das Bild des Eigentümers des Autos oder der Person erkennt, die das Auto am häufigsten fährt. In einer Ausführungsform verwendet das Fahrererkennungsmodul 126 ein Gesichtserkennungssystem, das einen Satz von vorgespeicherten Bildern in einer Gesichtsdatenbank aufweist, die dem Eigentümer oder der Person entsprechen, die das Auto am häufigsten fährt. Jedes Mal, wenn der Eigentümer erneut mit dem Auto fährt, erhält das Fahrerkennungsmodul das aufgenommene Bild des inneren Abschnitts des Fahrzeugs vom Mittel 110 und vergleicht das Bild des Fahrzeuginsassen mit den Bildern in der Gesichtsdatenbank. Für Fachleute ist zu erkennen, dass das Fahrererkennungsmodul 126 Merkmale oder Landmarken aus dem aufgenommenen Bild des Fahrzeuginsassen extrahiert und diese Merkmale mit den Bildern in der Gesichtsdatenbank vergleicht. Das Fahrererkennungsmodul kann jeden geeigneten, auf dem Fachgebiet bekannten Erkennungsalgorithmus, einschließlich des Fisherface-Algorithmus, zum Erkennen des Fahrers verwenden, der Elastic Bunch Graph Matching, Linear Discriminate Analysis, Dynamic Link Matching und so weiter verwendet.
  • Sobald das Fahrererkennungsmodul 126 den Fahrer/Eigentümer, der den Fahrersitz einnimmt, erkennt, übermittelt es Signale an einen Personalisierungsfunktionsprozessor 128. Der Personalisierungsfunktionsprozessor 128 stellt einen Satz von Personalisierungsfunktionen des Fahrzeugs wieder auf einen Satz von vorgespeicherten Einstellungen ein. Die voreingestellten Einstellungen entsprechen den Präferenzen des Fahrers, zum Beispiel einem bevorzugten Temperaturwert für die Klimaanlage, einem bevorzugten Lautstärkebereich der Musikbedienelemente, dem am häufigsten eingestellten Funkfrequenzband, dem Wiedereinstellen des Fahrersitzes auf die bevorzugte bequeme Position usw.
  • Ein Befehlsauslöser 130 (im Folgenden als 'Auslöser 130' bezeichnet) ist mit dem Prozessor 120 gekoppelt. Der Auslöser 130 löst den gewünschten Befehl des Fahrzeuginsassen aus, nachdem der Prozessor 120 die Geste des Fahrzeuginsassen interpretiert hat. Konkret erzeugt der Prozessor 120 beim Interpretieren der Geste des Fahrzeuginsassen eine entsprechende Ausgabe und liefert die Ausgabe an den Auslöser 130. Der Auslöser 130 erzeugt den gewünschten Befehl unter Verwendung der Ausgabe und sendet eine Bestätigungsmeldung an den Fahrzeuginsassen, bevor er den Befehl auslöst. Die Bestätigungsmeldung kann dem Fahrzeuginsassen durch ein Kommunikationsmodul 134 verbal in einem Fragemodus kommuniziert werden, oder sie kann über eine Benutzeroberfläche 132 mittels einer darin eingebetteten Genehmigungsoption (d. h. 'Ja'- oder 'Nein'-Symbolen) wiedergegeben werden. Der Fahrzeuginsasse bestätigt den interpretierten Befehl entweder durch Bereitstellen einer verbalen Bestätigung oder durch Anklicken der Genehmigungsoption auf der Benutzeroberfläche 132. Falls der Fahrzeuginsasse eine verbale Bestätigung bereitstellt, interpretiert ein Spracherkennungsmodul 136 die Bestätigung. Schließlich führt der Auslöser 130 den gewünschten Befehl des Fahrzeuginsassen aus. Falls eine Geste fehlinterpretiert wird und eine Ablehnung der Ausführung des interpretierten Befehls vom Fahrzeuginsassen erhalten wird, gibt der Auslöser 130 eine Bestätigungsmeldung wieder, die einer anderen, jedoch der vorherigen ähnlichen Befehlsoption entspricht. Wenn zum Beispiel der gewünschte Befehl ein Erhöhen der Lautstärke des Musiksystems ist und er als Erhöhen der Temperatur der Klimaanlage fehlinterpretiert wird, dann gibt der Auslöser 130 bei Empfang einer Ablehnung vom Fahrzeuginsassen im ersten Versuch Bestätigungsmeldungen wieder, die anderen Befehlen entsprechen, bis der gewünschte Vorgang implementiert werden kann. In einer Ausführungsform stellt der Fahrzeuginsasse eine gestenbasierte Bestätigung der wiedergegebenen Bestätigungsmeldung bereit. Zum Beispiel kann eine Geste, welche der Genehmigung des Fahrzeuginsassen zur Ausführung eines interpretierten Befehls entspricht, ein 'Daumen nach oben' in der Luft sein, und eine Ablehnung kann durch eine 'Daumen nach unten'-Geste interpretiert werden. In diesen Aspekten speichert die Gestendatenbank 122 die entsprechenden Bilder für den Prozessor 120, um die gestenbasierten Genehmigungen zu interpretieren.
  • Das Flussdiagramm in 5 offenbart verschiedene Schritte eines Verfahrens 500 zum Interpretieren von Gesten eines Fahrzeuginsassen und Erhalten von gewünschten Befehlseingaben des Fahrzeuginsassen. Bei Schritt 502 wird ein Bild des inneren Abschnitts des Fahrzeugs und der äußeren Umgebung aufgenommen. Das Bild für den inneren Abschnitt des Fahrzeugs kann ein zweidimensionales Bild, das durch eine Kamera erhalten werden kann, oder ein dreidimensionales Tiefenbild des Fahrzeuginnenraums sein, das durch geeignete, auf dem Fachgebiet bekannte Vorrichtungen erhalten werden kann, wie zuvor erläutert. Bei Schritt 504 analysiert das Verfahren das aufgenommene Bild des inneren Abschnitts und trennt das Bild des Fahrzeuginsassen davon. Bei Schritt 506 wird das getrennte Bild analysiert, und die Geste des Fahrzeuginsassen wird daraus interpretiert. In einer Ausführungsform weist die Interpretation der Geste des Fahrzeuginsassen ein Vergleichen des aufgenommenen Bildes mit einem Satz von vorgespeicherten Bildern auf, die verschiedenen Gesten entsprechen. Zu diesem Zweck können verschiedene, auf dem Fachgebiet verfügbare Algorithmen verwendet werden, wie zuvor erörtert. Der Ansatz, der durch solche Algorithmen verwendet wird, kann entweder ein geometrischer Ansatz, der sich auf die charakteristischen Merkmale des aufgenommenen Bildes konzentriert, oder ein fotometrischer Ansatz sein, der das Bild in Werte destilliert und dann diese Werte mit Merkmalen vorgespeicherter Bilder vergleicht. Bei der Interpretation der Geste des Fahrzeuginsassen wird bei Schritt 508 eine Interpretation eines entsprechenden gewünschten Befehls des Fahrzeuginsassen durchgeführt. Bei Schritt 510 erhält das Verfahren eine Bestätigungsmeldung vom Fahrzeuginsassen im Hinblick darauf, ob der interpretierte Befehl der gewünschte Befehl des Fahrzeuginsassen ist. Dies erfolgt, um Fälle zu berücksichtigen, in welchen die Geste des Fahrzeuginsassen fehlinterpretiert wird. Wenn der Fahrzeuginsasse bestätigt, wird bei Schritt 512 dann der interpretierte Befehl ausgelöst. Wenn der Fahrzeuginsasse den interpretierten Befehl nicht bestätigt und einen anderen Befehl auszuführen wünscht, dann liefert das Verfahren eine andere Bestätigungsmeldung an den Fahrzeuginsassen, die einem anderen möglichen Befehl in Bezug auf die interpretierte Geste entspricht. Falls das Verfahren zum Beispiel die Geste des Fahrzeuginsassen eines Drehens seiner Hände zum Drehen eines Knopfes interpretiert und eine erste Bestätigungsmeldung mit der Frage liefert, ob die Lautstärke des Musiksystems erhöht/verringert werden soll, und der Fahrzeuginsasse die Bestätigung ablehnt, dann kann eine zweite relevante Bestätigungsmeldung wiedergegeben werden, die zum Beispiel ein Erhöhen/Verringern der Lüftergeschwindigkeit sein kann.
  • Bei Schritt 514 wertet das Verfahren den Aufmerksamkeitszustand des Fahrers durch Analysieren des aufgenommenen Bildes für den inneren Abschnitt des Fahrzeugs aus. Bei Schritt 516 identifiziert das Verfahren potenzielle Gefahren, zum Beispiel ein sich rasch näherndes Fahrzeug, eine bevorstehende Schwelle zur Geschwindigkeitsbegrenzung oder eine scharfe Kurve. Zu diesem Zweck können beliebige Mittel verwendet werden, die auf dem Fachgebiet bekannt sind, einschließlich fahrzeuginterner Kollisionserkennungssysteme, Radare, Lidar, innerer und äußerer Fahrzeugsensoren. Wenn eine potenzielle Gefahr vorliegt und erkannt wird, dass der Fahrer unaufmerksam ist, dann werden bei Schritt 520 zu einem bestimmten Zeitpunkt Warnsignale an den Fahrzeuginsassen geliefert. Der genaue Zeitpunkt, zu dem solche Signale bereitgestellt werden, hängt vom Aufmerksamkeitsgrad des Fahrzeuginsassen/Fahrers ab, und im Falle eines schlaftrunkenen/schläfrigen Fahrers werden solche Signale unverzüglich bereitgestellt.
  • Bei Schritt 522 erkennt das Verfahren 500 den Fahrer durch eine Analyse des aufgenommenen Bildes. Für die Erkennung können geeignete Verfahren, einschließlich auf dem Fachgebiet bekannter Gesichtserkennungssysteme, wie zuvor erläutert, verwendet werden. Das Bild des Eigentümers des Autos oder der Person, die das Auto sehr oft fährt, kann in einer Gesichtsdatenbank gespeichert werden. Wenn die gleiche Person erneut in das Auto einsteigt, vergleicht das Verfahren 500 das aufgenommene Bild der Person mit den Bildern in der Gesichtsdatenbank, um sie zu erkennen. Bei Erkennung wird bei Schritt 524 ein Satz von Personalisierungsfunktionen, die der Person entsprechen, auf einen Satz von vorgespeicherten Einstellungen zurückgesetzt. Zum Beispiel kann die Temperatur des Innenraums automatisch auf einen vorher festgelegten Wert gesetzt oder das fahrerseitige Fenster automatisch halb geöffnet werden, wenn die Person den Sitz einnimmt, wie normalerweise von ihr bevorzugt.
  • Das offenbarte gestenbasierte Erkennungssystem kann in jedem Fahrzeug verwendet werden, das mit geeigneten Vorrichtungen, wie zuvor beschrieben, zum Erreichen der Aufgaben der Offenbarung ausgestattet ist.
  • Obwohl die gegenwärtige Erfindung in beträchtlichen Einzelheiten umfassend beschrieben wurde, um die möglichen Aspekte und Ausführungsformen zu erfassen, ist für Fachleute zu erkennen, dass auch andere Varianten der Erfindung möglich sein können.

Claims (10)

  1. Gestenbasiertes Erkennungssystem zum Interpretieren einer Geste eines Fahrzeuginsassen und Erhalten von gewünschten Befehlseingaben des Fahrzeuginsassen durch Gestenerkennung, wobei das System Folgendes aufweist: Mittel zum Aufnehmen eines Bildes des inneren Abschnitts des Fahrzeugs; einen Gestenerkennungsprozessor, der so ausgelegt ist, dass er das Bild des Fahrzeuginsassen vom aufgenommenen Bild trennt, und ferner so ausgelegt ist, dass er Gesten des Fahrzeuginsassen aus dem Bild interpretiert und eine Ausgabe erzeugt; und einen Befehlsauslöser, der mit dem Gestenerkennungsprozessor gekoppelt und so ausgelegt ist, dass er die Ausgabe von ihm empfängt, einen gewünschten Befehl interpretiert und den Befehl basierend auf einer vom Fahrzeuginsassen empfangenen Bestätigung auslöst.
  2. System nach Anspruch 1, wobei das Mittel eine Kamera aufweist, die so konfiguriert ist, dass sie ein zweidimensionales Bild oder ein dreidimensionales Tiefenbild des inneren Abschnitts des Fahrzeugs erhält.
  3. System nach Anspruch 1, wobei der Befehlsauslöser eine Benutzeroberfläche aufweist, die so konfiguriert ist, dass sie den gewünschten Befehl und eine entsprechende Bestätigungsmeldung anzeigt und den Fahrzeuginsassen auffordert, die Bestätigung bereitzustellen.
  4. System nach Anspruch 1, wobei der Befehlsauslöser ein Kommunikationsmodul, das so konfiguriert ist, dass es dem Fahrzeuginsassen die interpretierte Geste des Fahrzeuginsassen verbal kommuniziert, und ein Spracherkennungsmodul aufweist, das so konfiguriert ist, dass es eine entsprechende verbale Bestätigung vom Fahrzeuginsassen erkennt.
  5. System nach Anspruch 1, wobei der Gestenerkennungsprozessor eine Datenbank aufweist, die einen Satz von vorgegebenen Gestenbildern speichert, die verschiedenen gestenbasierten Befehlen entsprechen.
  6. System nach Anspruch 5, wobei die vorgegebenen Bilder mindestens die Bilder aufweisen, welche Knopfeinstellung, Vergrößerungs- und Verkleinerungseinstellungen, Klicken zum Auswählen, Scrollen, Durchblättern und Klicken zum Ziehen entsprechen.
  7. System nach Anspruch 1, wobei der Gestenerkennungsprozessor ferner einen Interferenzmaschinenprozessor aufweist, der so konfiguriert ist, dass er die Aufmerksamkeit des Fahrzeuginsassen beurteilt; wobei das System ferner ein Fahrassistenzsystem aufweist, das mit dem Interferenzmaschinenprozessor gekoppelt ist, um Eingaben von ihm zu empfangen, wenn der Fahrzeuginsasse unaufmerksam ist.
  8. System nach Anspruch 6, ferner aufweisend ein Kollisionserkennungssystem, das mit dem Fahrassistenzsystem und dem Interferenzmaschinenprozessor gekoppelt ist, wobei das Kollisionserkennungssystem so ausgelegt ist, dass es potenzielle Gefahren beurteilt und entsprechende Gefahrensignale an das Fahrassistenzsystem liefert.
  9. System nach Anspruch 1, wobei der Gestenerkennungsprozessor ein Fahrererkennungsmodul aufweist, das so konfiguriert ist, dass es das Bild des Fahrers erkennt und einen Satz von Personalisierungsfunktionen basierend auf der Erkennung wieder auf einen Satz von vorgespeicherten Einstellungen einstellt, die dem Fahrer entsprechen.
  10. System nach Anspruch 9, wobei das Fahrererkennungsmodul eine Gesichtsdatenbank aufweist, die einen Satz von vorgespeicherten Bildern enthält, und so konfiguriert ist, dass es Merkmale aus dem aufgenommenen Bild mit den Bildern in der Gesichtsdatenbank vergleicht.
DE102013201746A 2012-02-06 2013-02-04 Interaktion mit fahrzeugbedienungselementen durch gestenerkennung Withdrawn DE102013201746A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/366388 2012-02-06
US13/366,388 US20130204457A1 (en) 2012-02-06 2012-02-06 Interacting with vehicle controls through gesture recognition

Publications (1)

Publication Number Publication Date
DE102013201746A1 true DE102013201746A1 (de) 2013-08-08

Family

ID=47890913

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013201746A Withdrawn DE102013201746A1 (de) 2012-02-06 2013-02-04 Interaktion mit fahrzeugbedienungselementen durch gestenerkennung

Country Status (4)

Country Link
US (1) US20130204457A1 (de)
CN (1) CN103294190A (de)
DE (1) DE102013201746A1 (de)
GB (1) GB2501575A (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014004675A1 (de) * 2014-03-31 2015-10-01 Audi Ag Gestenbewertungssystem, Verfahren zur Gestenbewertung und Fahrzeug
DE102014207637A1 (de) * 2014-04-23 2015-10-29 Bayerische Motoren Werke Aktiengesellschaft Gesteninteraktion mit einem Fahrerinformationssystem eines Fahrzeuges
DE102014017179A1 (de) 2014-11-20 2016-05-25 Audi Ag Verfahren zum Betreiben eines Navigationssystems eines Kraftfahrzeugs mittels einer Bediengeste
DE102016221564A1 (de) * 2016-10-13 2018-04-19 Bayerische Motoren Werke Aktiengesellschaft Multimodaler Dialog in einem Kraftfahrzeug
DE102020003102A1 (de) 2020-05-22 2020-07-09 Daimler Ag Verfahren zum Verifizieren eines Gestenbefehles und/oder eines Sprachbefehles eines Fahrzeugnutzers
DE102020201235A1 (de) 2020-01-31 2021-08-05 Ford Global Technologies, Llc Verfahren und System zur Steuerung von Kraftfahrzeugfunktionen
DE102021105068A1 (de) 2021-03-03 2022-09-08 Gestigon Gmbh Verfahren und system zur handgestenbasierten vorrichtungssteuerung

Families Citing this family (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8775023B2 (en) 2009-02-15 2014-07-08 Neanode Inc. Light-based touch controls on a steering wheel and dashboard
US20140309930A1 (en) 2013-04-15 2014-10-16 Flextronics Ap, Llc Automatic camera image retrieval based on route traffic and conditions
DE102012216193B4 (de) * 2012-09-12 2020-07-30 Continental Automotive Gmbh Verfahren und Vorrichtung zur Bedienung einer Kraftfahrzeugkomponente mittels Gesten
TWI517992B (zh) * 2012-11-13 2016-01-21 義晶科技股份有限公司 車用影像系統及其影像之顯示控制方法
US9092093B2 (en) 2012-11-27 2015-07-28 Neonode Inc. Steering wheel user interface
US9720504B2 (en) * 2013-02-05 2017-08-01 Qualcomm Incorporated Methods for system engagement via 3D object detection
US11372936B2 (en) 2013-04-15 2022-06-28 Autoconnect Holdings Llc System and method for adapting a control function based on a user profile
WO2014172334A1 (en) * 2013-04-15 2014-10-23 Flextronics Ap, Llc User gesture control of vehicle features
EP2857276B1 (de) * 2013-08-20 2018-12-12 Harman International Industries, Incorporated Fahrerassistenzsystem
EP2857239A1 (de) 2013-10-03 2015-04-08 Volvo Car Corporation Digitale Sonnenblende für Autoglas
US9817521B2 (en) 2013-11-02 2017-11-14 At&T Intellectual Property I, L.P. Gesture detection
US10025431B2 (en) 2013-11-13 2018-07-17 At&T Intellectual Property I, L.P. Gesture detection
DE102014200782A1 (de) * 2014-01-17 2015-07-23 Bayerische Motoren Werke Aktiengesellschaft Betreiben eines Fahrzeugs gemäß dem Wunsch eines Fahrzeuginsassen
US10007329B1 (en) 2014-02-11 2018-06-26 Leap Motion, Inc. Drift cancelation for portable object detection and tracking
US10891022B2 (en) * 2014-03-31 2021-01-12 Netgear, Inc. System and method for interfacing with a display device
US9342797B2 (en) 2014-04-03 2016-05-17 Honda Motor Co., Ltd. Systems and methods for the detection of implicit gestures
US10409382B2 (en) 2014-04-03 2019-09-10 Honda Motor Co., Ltd. Smart tutorial for gesture control system
US10466657B2 (en) 2014-04-03 2019-11-05 Honda Motor Co., Ltd. Systems and methods for global adaptation of an implicit gesture control system
US9754167B1 (en) 2014-04-17 2017-09-05 Leap Motion, Inc. Safety for wearable virtual reality devices via object detection and tracking
US9868449B1 (en) 2014-05-30 2018-01-16 Leap Motion, Inc. Recognizing in-air gestures of a control object to control a vehicular control system
US10936050B2 (en) 2014-06-16 2021-03-02 Honda Motor Co., Ltd. Systems and methods for user indication recognition
US10007350B1 (en) 2014-06-26 2018-06-26 Leap Motion, Inc. Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
US9725098B2 (en) 2014-08-11 2017-08-08 Ford Global Technologies, Llc Vehicle driver identification
JP3194297U (ja) 2014-08-15 2014-11-13 リープ モーション, インコーポレーテッドLeap Motion, Inc. 自動車用及び産業用のモーション感知制御装置
KR101556521B1 (ko) * 2014-10-06 2015-10-13 현대자동차주식회사 휴먼 머신 인터페이스 장치, 그를 가지는 차량 및 그 제어 방법
CN104317397A (zh) * 2014-10-14 2015-01-28 奇瑞汽车股份有限公司 车载人机交互方法
CN104360736B (zh) * 2014-10-30 2017-06-30 广东美的制冷设备有限公司 基于手势的终端控制方法和系统
KR102263723B1 (ko) * 2014-11-12 2021-06-11 현대모비스 주식회사 어라운드 뷰 모니터 시스템 및 그 제어방법
WO2016087902A1 (en) * 2014-12-05 2016-06-09 Audi Ag Operating device for a vehicle, in particular a passenger vehicle; as well as method for operating such an operating device
DE102015204280A1 (de) * 2015-03-10 2016-09-15 Robert Bosch Gmbh Verfahren zur Aktivierung eines Aktuators eines Kraftfahrzeugs, zur Ausführung des Verfahrens eingerichtete Vorrichtung und Computerprogrammprodukt
US9547373B2 (en) 2015-03-16 2017-01-17 Thunder Power Hong Kong Ltd. Vehicle operating system using motion capture
US9550406B2 (en) 2015-03-16 2017-01-24 Thunder Power Hong Kong Ltd. Thermal dissipation system of an electric vehicle
CN104866106A (zh) * 2015-06-03 2015-08-26 深圳市光晕网络科技有限公司 一种结合hud与红外识别的人机交互方法和系统
WO2017015913A1 (zh) * 2015-07-29 2017-02-02 薄冰 通过手势调节风扇使用状态的方法和风扇
US9777516B2 (en) 2015-08-24 2017-10-03 Ford Global Technologies, Llc Gesture-activated hood release system
CN105292019A (zh) * 2015-10-08 2016-02-03 奇瑞汽车股份有限公司 一种智能车机及控制方法
CN105235615B (zh) * 2015-10-27 2018-01-23 浙江吉利控股集团有限公司 一种基于人脸识别的车辆控制系统
US10692126B2 (en) 2015-11-17 2020-06-23 Nio Usa, Inc. Network-based system for selling and servicing cars
DE102016100075A1 (de) * 2016-01-04 2017-07-06 Volkswagen Aktiengesellschaft Verfahren zur Auswertung von Gesten
FR3048933B1 (fr) * 2016-03-21 2019-08-02 Valeo Vision Dispositif de commande d'eclairage interieur d'un vehicule automobile
WO2018009897A1 (en) * 2016-07-07 2018-01-11 Harman International Industries, Incorporated Portable personalization
US20180012197A1 (en) 2016-07-07 2018-01-11 NextEv USA, Inc. Battery exchange licensing program based on state of charge of battery pack
CN106218545A (zh) * 2016-07-26 2016-12-14 惠州市凯越电子股份有限公司 一种基于手势识别功能的智能车载终端
US9928734B2 (en) 2016-08-02 2018-03-27 Nio Usa, Inc. Vehicle-to-pedestrian communication systems
US10071730B2 (en) * 2016-08-30 2018-09-11 GM Global Technology Operations LLC Vehicle parking control
US10031523B2 (en) 2016-11-07 2018-07-24 Nio Usa, Inc. Method and system for behavioral sharing in autonomous vehicles
US10474145B2 (en) 2016-11-08 2019-11-12 Qualcomm Incorporated System and method of depth sensor activation
US10694357B2 (en) 2016-11-11 2020-06-23 Nio Usa, Inc. Using vehicle sensor data to monitor pedestrian health
US10708547B2 (en) 2016-11-11 2020-07-07 Nio Usa, Inc. Using vehicle sensor data to monitor environmental and geologic conditions
US10410064B2 (en) 2016-11-11 2019-09-10 Nio Usa, Inc. System for tracking and identifying vehicles and pedestrians
US10699305B2 (en) 2016-11-21 2020-06-30 Nio Usa, Inc. Smart refill assistant for electric vehicles
WO2018097818A1 (en) * 2016-11-22 2018-05-31 Ford Global Technologies, Llc Virtual reality interface to an autonomous vehicle
US10249104B2 (en) 2016-12-06 2019-04-02 Nio Usa, Inc. Lease observation and event recording
US10670416B2 (en) * 2016-12-30 2020-06-02 DeepMap Inc. Traffic sign feature creation for high definition maps used for navigating autonomous vehicles
DE102017200194A1 (de) * 2017-01-09 2018-07-12 Ford Global Technologies, Llc Fahrzeug mit flexibler Fahrzeugführerposition und Verfahren zum Führen eines Fahrzeugs
US10074223B2 (en) 2017-01-13 2018-09-11 Nio Usa, Inc. Secured vehicle for user use only
US10031521B1 (en) 2017-01-16 2018-07-24 Nio Usa, Inc. Method and system for using weather information in operation of autonomous vehicles
US9984572B1 (en) 2017-01-16 2018-05-29 Nio Usa, Inc. Method and system for sharing parking space availability among autonomous vehicles
US10471829B2 (en) 2017-01-16 2019-11-12 Nio Usa, Inc. Self-destruct zone and autonomous vehicle navigation
US10464530B2 (en) 2017-01-17 2019-11-05 Nio Usa, Inc. Voice biometric pre-purchase enrollment for autonomous vehicles
US10286915B2 (en) 2017-01-17 2019-05-14 Nio Usa, Inc. Machine learning for personalized driving
US10214221B2 (en) * 2017-01-20 2019-02-26 Honda Motor Co., Ltd. System and method for identifying a vehicle driver by a pattern of movement
CN110402424A (zh) * 2017-02-01 2019-11-01 福特全球技术公司 车辆部件致动
US10897469B2 (en) 2017-02-02 2021-01-19 Nio Usa, Inc. System and method for firewalls between vehicle networks
US10053088B1 (en) 2017-02-21 2018-08-21 Zoox, Inc. Occupant aware braking system
FR3063820B1 (fr) * 2017-03-09 2021-06-25 Valeo Comfort & Driving Assistance Procede de commande d'au moins une fonction d'un vehicule par l'accomplissement d'au moins un geste de commande associe a cette fonction
DE102017206312A1 (de) * 2017-04-12 2018-10-18 Ford Global Technologies, Llc Unterstützung einer Handhabung eines innerhalb eines Fahrgastinnenraums befindlichen Gegenstands sowie Kraftfahrzeug
US20200201442A1 (en) * 2017-06-21 2020-06-25 Mitsubishi Electric Corporation Gesture operation device and gesture operation method
US10234302B2 (en) 2017-06-27 2019-03-19 Nio Usa, Inc. Adaptive route and motion planning based on learned external and internal vehicle environment
US10710633B2 (en) 2017-07-14 2020-07-14 Nio Usa, Inc. Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles
US10369974B2 (en) 2017-07-14 2019-08-06 Nio Usa, Inc. Control and coordination of driverless fuel replenishment for autonomous vehicles
JP6414288B2 (ja) * 2017-07-20 2018-10-31 トヨタ自動車株式会社 車両用操作装置
US10837790B2 (en) 2017-08-01 2020-11-17 Nio Usa, Inc. Productive and accident-free driving modes for a vehicle
DE102017216837A1 (de) 2017-09-22 2019-03-28 Audi Ag Gestik- und Mimiksteuerung für ein Fahrzeug
US10635109B2 (en) 2017-10-17 2020-04-28 Nio Usa, Inc. Vehicle path-planner monitor and controller
US10935978B2 (en) 2017-10-30 2021-03-02 Nio Usa, Inc. Vehicle self-localization using particle filters and visual odometry
US10606274B2 (en) 2017-10-30 2020-03-31 Nio Usa, Inc. Visual place recognition based self-localization for autonomous vehicles
US10717412B2 (en) 2017-11-13 2020-07-21 Nio Usa, Inc. System and method for controlling a vehicle using secondary access methods
CN107944376A (zh) * 2017-11-20 2018-04-20 北京奇虎科技有限公司 视频数据实时姿态识别方法及装置、计算设备
JP2019101826A (ja) * 2017-12-04 2019-06-24 アイシン精機株式会社 ジェスチャ判定装置およびプログラム
EP3493116B1 (de) * 2017-12-04 2023-05-10 Aptiv Technologies Limited System und verfahren zur erzeugung eines vertrauenswerts für mindestens einen zustand im innenraum eines fahrzeugs
CN108162811A (zh) * 2017-12-15 2018-06-15 北京汽车集团有限公司 座椅控制方法及装置
CN110374449A (zh) * 2018-04-12 2019-10-25 上海擎感智能科技有限公司 基于姿势识别的车窗控制方法及系统、车载终端
DE102018205753A1 (de) * 2018-04-16 2019-10-17 Bayerische Motoren Werke Aktiengesellschaft Verfahren, Vorrichtung und Fortbewegungsmittel für ein automatisiertes Anfahren eines Fortbewegungsmittels an einer Lichtsignalanlage
US10369966B1 (en) 2018-05-23 2019-08-06 Nio Usa, Inc. Controlling access to a vehicle using wireless access devices
FR3086420B1 (fr) * 2018-09-21 2020-12-04 Psa Automobiles Sa Procede de commande d’un systeme embarque
JP7087919B2 (ja) * 2018-10-31 2022-06-21 トヨタ自動車株式会社 運転支援装置、車両、運転支援方法およびプログラム
CN113165515B (zh) 2018-11-28 2021-11-02 内奥诺德公司 驾驶员用户界面传感器
CN109410691A (zh) * 2018-12-17 2019-03-01 深圳市中智仿真科技有限公司 一种手势控制功能的汽车驾培模拟机
CN111469663A (zh) * 2019-01-24 2020-07-31 宝马股份公司 用于车辆的操控系统
CN109703567A (zh) * 2019-01-25 2019-05-03 安徽酷哇机器人有限公司 车辆控制方法
CN109886199B (zh) * 2019-02-21 2022-04-12 阿波罗智联(北京)科技有限公司 信息处理方法、装置、车辆及移动终端
JP2020147066A (ja) * 2019-03-11 2020-09-17 本田技研工業株式会社 車両制御システム、車両制御方法、及びプログラム
DE102019204054A1 (de) * 2019-03-25 2020-10-01 Volkswagen Aktiengesellschaft Verfahren zur Bereitstellung eines Sprachdialogs in Gebärdensprache bei einem Sprachdialog-System für ein Fahrzeug
EP3796209A1 (de) 2019-09-17 2021-03-24 Aptiv Technologies Limited Verfahren und system zur bestimmung einer aktivität eines insassen eines fahrzeugs
US11873000B2 (en) 2020-02-18 2024-01-16 Toyota Motor North America, Inc. Gesture detection for transport control
US11055998B1 (en) 2020-02-27 2021-07-06 Toyota Motor North America, Inc. Minimizing traffic signal delays with transports
US11290856B2 (en) 2020-03-31 2022-03-29 Toyota Motor North America, Inc. Establishing connections in transports
CN112026790B (zh) * 2020-09-03 2022-04-15 上海商汤临港智能科技有限公司 车载机器人的控制方法及装置、车辆、电子设备和介质
CN112092751A (zh) * 2020-09-24 2020-12-18 上海仙塔智能科技有限公司 一种座舱服务方法及座舱服务系统
US20230406363A1 (en) * 2022-06-20 2023-12-21 International Business Machines Corporation Virtual steering wheel with autonomous vehicle

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7050606B2 (en) * 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US10242255B2 (en) * 2002-02-15 2019-03-26 Microsoft Technology Licensing, Llc Gesture recognition system using depth perceptive sensors
US20080065291A1 (en) * 2002-11-04 2008-03-13 Automotive Technologies International, Inc. Gesture-Based Control of Vehicular Components
JP2004334590A (ja) * 2003-05-08 2004-11-25 Denso Corp 操作入力装置
JP4311190B2 (ja) * 2003-12-17 2009-08-12 株式会社デンソー 車載機器用インターフェース
DE102004039305A1 (de) * 2004-08-12 2006-03-09 Bayerische Motoren Werke Ag Vorrichtung zur Auswertung der Aufmerksamkeit eines Fahrers bei einem Kollisionsvermeidungssystem in Kraftfahrzeugen
US7295904B2 (en) * 2004-08-31 2007-11-13 International Business Machines Corporation Touch gesture based interface for motor vehicle
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US20100185341A1 (en) * 2009-01-16 2010-07-22 Gm Global Technology Operations, Inc. Vehicle mode activation by gesture recognition
US8817087B2 (en) * 2010-11-01 2014-08-26 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications
US20130155237A1 (en) * 2011-12-16 2013-06-20 Microsoft Corporation Interacting with a mobile device within a vehicle using gestures

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014004675A1 (de) * 2014-03-31 2015-10-01 Audi Ag Gestenbewertungssystem, Verfahren zur Gestenbewertung und Fahrzeug
US9874939B2 (en) 2014-03-31 2018-01-23 Audi Ag Using a gesture to evaluate displayed information and initiate an operation of a vehicle system
DE102014207637A1 (de) * 2014-04-23 2015-10-29 Bayerische Motoren Werke Aktiengesellschaft Gesteninteraktion mit einem Fahrerinformationssystem eines Fahrzeuges
WO2015162058A1 (de) * 2014-04-23 2015-10-29 Bayerische Motoren Werke Aktiengesellschaft Gesteninteraktion mit einem fahrerinformationssystem eines fahrzeuges
US10585487B2 (en) 2014-04-23 2020-03-10 Bayerische Motoren Werke Aktiengesellschaft Gesture interaction with a driver information system of a vehicle
DE102014017179A1 (de) 2014-11-20 2016-05-25 Audi Ag Verfahren zum Betreiben eines Navigationssystems eines Kraftfahrzeugs mittels einer Bediengeste
DE102014017179B4 (de) 2014-11-20 2022-10-06 Audi Ag Verfahren zum Betreiben eines Navigationssystems eines Kraftfahrzeugs mittels einer Bediengeste
DE102016221564A1 (de) * 2016-10-13 2018-04-19 Bayerische Motoren Werke Aktiengesellschaft Multimodaler Dialog in einem Kraftfahrzeug
US11551679B2 (en) 2016-10-13 2023-01-10 Bayerische Motoren Werke Aktiengesellschaft Multimodal dialog in a motor vehicle
DE102020201235A1 (de) 2020-01-31 2021-08-05 Ford Global Technologies, Llc Verfahren und System zur Steuerung von Kraftfahrzeugfunktionen
DE102020003102A1 (de) 2020-05-22 2020-07-09 Daimler Ag Verfahren zum Verifizieren eines Gestenbefehles und/oder eines Sprachbefehles eines Fahrzeugnutzers
DE102021105068A1 (de) 2021-03-03 2022-09-08 Gestigon Gmbh Verfahren und system zur handgestenbasierten vorrichtungssteuerung

Also Published As

Publication number Publication date
CN103294190A (zh) 2013-09-11
GB2501575A (en) 2013-10-30
GB201301511D0 (en) 2013-03-13
US20130204457A1 (en) 2013-08-08

Similar Documents

Publication Publication Date Title
DE102013201746A1 (de) Interaktion mit fahrzeugbedienungselementen durch gestenerkennung
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
DE102017119435B4 (de) Fahrzeug-einparksteuerung
DE102013012466B4 (de) Bediensystem und Verfahren zum Bedienen einer fahrzeugseitigen Vorrichtung
EP2720929B1 (de) Verfahren und vorrichtung zur unterstützung eines fahrers bei einer spurführung eines fahrzeugs auf einer fahrbahn
EP2181892B1 (de) Parkassistenzsystem und Verfahren zum Betreiben eines Parkassistenzsystems für ein Kraftfahrzeug
EP2943367B1 (de) Verfahren zum synchronisieren von anzeigeeinrichtungen eines kraftfahrzeugs
EP2424743B1 (de) Verfahren zum anzeigen und eingeben von informationen in einem kraftfahrzeug und anzeigeeinrichtung
EP3358454B1 (de) Anwenderschnittstelle, fortbewegungsmittel und verfahren zur anwenderunterscheidung
DE202017104779U1 (de) Radarbasierte Gestenschnittstelle
DE112018003002T5 (de) Fahrassistenzverfahren, Fahrassistenzprogramm und Fahrzeugsteuervorrichtung
WO2014198552A1 (de) System und verfahren zum überwachen und/oder bedienen einer technischen anlage, insbesondere eines fahrzeugs
DE102012216174A1 (de) Steuerung einer Kraftfahrzeugbewegung von außen
EP2653335B1 (de) Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs
WO2017157787A1 (de) Verfahren zum betrieb eines fahrerassistenzsystems eines kraftfahrzeugs und kraftfahrzeug
EP3116737B1 (de) Verfahren und vorrichtung zum bereitstellen einer graphischen nutzerschnittstelle in einem fahrzeug
EP3573854B1 (de) Verfahren zum betreiben eines bediensystems, bediensystem und fahrzeug mit einem bediensystem
EP3254172B1 (de) Bestimmung einer position eines fahrzeugfremden objekts in einem fahrzeug
DE102020115556A1 (de) Ferngesteuerte anhängermanövrierhilfe
DE102019105490A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Bedienung eines Fahrzeugs mittels eines mobilen Anwendergeräts
WO2014108147A1 (de) Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung
DE102012018685B4 (de) System und Verfahren zur Steuerung von zumindest einem Fahrzeugsystem mittels von einem Fahrer durchgeführter Gesten
WO2015162058A1 (de) Gesteninteraktion mit einem fahrerinformationssystem eines fahrzeuges
DE102016204274A1 (de) System und Verfahren zum Erfassen einer Eingabegeste eines Nutzers
DE102007040288A1 (de) Multimodales Bediensystem und Verfahren zum Bedienen von Komponenten und Funktionen in einem Kraftfahrzeug

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee