DE102013201746A1 - Interaktion mit fahrzeugbedienungselementen durch gestenerkennung - Google Patents
Interaktion mit fahrzeugbedienungselementen durch gestenerkennung Download PDFInfo
- Publication number
- DE102013201746A1 DE102013201746A1 DE102013201746A DE102013201746A DE102013201746A1 DE 102013201746 A1 DE102013201746 A1 DE 102013201746A1 DE 102013201746 A DE102013201746 A DE 102013201746A DE 102013201746 A DE102013201746 A DE 102013201746A DE 102013201746 A1 DE102013201746 A1 DE 102013201746A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle occupant
- gesture
- vehicle
- image
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 16
- 230000003993 interaction Effects 0.000 title description 4
- 230000009467 reduction Effects 0.000 claims description 5
- 230000001755 vocal effect Effects 0.000 claims description 4
- 238000004891 communication Methods 0.000 claims description 3
- 238000012790 confirmation Methods 0.000 abstract description 16
- 210000003811 finger Anatomy 0.000 description 21
- 238000000034 method Methods 0.000 description 15
- 210000003813 thumb Anatomy 0.000 description 8
- 238000013459 approach Methods 0.000 description 6
- 210000004247 hand Anatomy 0.000 description 6
- 210000005224 forefinger Anatomy 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- AAOVKJBEBIDNHE-UHFFFAOYSA-N diazepam Chemical compound N=1CC(=O)N(C)C2=CC=C(Cl)C=C2C=1C1=CC=CC=C1 AAOVKJBEBIDNHE-UHFFFAOYSA-N 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K28/00—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
- B60K28/02—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
- B60K28/06—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/85—Arrangements for transferring vehicle- or driver-related data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
- B60R16/0373—Voice control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
- B60K2360/1464—3D-gesture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/148—Instrument input by voice
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/595—Data transfer involving internal databases
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Multimedia (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Ein gestenbasiertes Erkennungssystem erhält gewünschte Befehlseingaben eines Fahrzeuginsassen durch Erkennung und Interpretation seiner Gesten. Ein Bild des inneren Abschnitts des Fahrzeugs wird aufgenommen, und das Bild des Fahrzeuginsassen wird vom Hintergrund im aufgenommenen Bild getrennt. Das getrennte Bild wird analysiert, und ein Gestenerkennungsprozessor interpretiert die Geste des Fahrzeuginsassen aus dem Bild. Ein Befehlsauslöser gibt den interpretierten gewünschten Befehl zusammen mit einer Bestätigungsmeldung für den Fahrzeuginsassen vor dem Auslösen des Befehls wieder. Wenn der Fahrzeuginsasse bestätigt, löst der Befehlsauslöser den interpretierten Befehl aus. Ferner beurteilt ein Interferenzmaschinenprozessor den Aufmerksamkeitszustand des Fahrzeuginsassen und übermittelt Signale an ein Fahrassistenzsystem, wenn der Fahrzeuginsasse unaufmerksam ist. Das Fahrassistenzsystem liefert Warnsignale an den unaufmerksamen Fahrzeuginsassen, wenn potenzielle Gefahren identifiziert werden. Ferner stellt ein Fahrererkennungsmodul bei Erkennen des Fahrers einen Satz von Personalisierungsfunktionen des Fahrzeugs wieder auf vorgespeicherte Einstellungen ein.
Description
- Diese Offenbarung betrifft Fahrer- und Maschinenschnittstellen in Fahrzeugen und insbesondere solche Schnittstellen, welche einem Fahrer die Interaktion mit der Maschine ohne physischen Kontakt ermöglichen.
- Systeme für die Interaktion eines Fahrzeuginsassen mit einem Fahrzeug bekannt. Ein Beispiel ist das 'SYNC'-System, das eine einfache Interaktion eines Fahrers mit dem Fahrzeug bereitstellt und Optionen aufweist, um durch Sprachbefehle Freisprechanrufe zu tätigen, Musikbedienelemente zu handhaben und andere Funktionen zu steuern, eine Push-to-talk-Taste auf dem Lenkrad zu verwenden und nötigenfalls auf das Internet zuzugreifen. Ferner sind viele Fahrzeuge mit Mensch-Maschine-Schnittstellen ausgestattet, die an geeigneten Stellen vorgesehen sind. Dies beinhaltet Schalter auf dem Lenkrad, Knöpfe auf der Mittelkonsole, Touchscreen-Schnittstellen und Trackpads.
- Hin und wieder sind diese Bedienelemente, insbesondere diejenigen, die auf der Mittelkonsole vorgesehen sind, vom Fahrer nicht leicht zu erreichen. Dies kann den Fahrer dazu veranlassen, nach den gewünschten Schaltern zu suchen, und des Öfteren muss der Fahrer seine Hand ausstrecken, um die gewünschte(n) Steuerungsfunktion(en) zu erreichen. Lenkradschalter sind leicht zu erreichen, aber aufgrund der begrenzten Verfügbarkeit von Platz darauf wird die Bedienung von erweiterten Steuerungsmerkmalen durch Lenkradtasten eingeschränkt. Obwohl Sprachbefehle in dieser Hinsicht hilfreich sein können, kann diese Einrichtung hinderlich sein, wenn für einfache Vorgänge verwendet, die eine veränderliche Eingabe erfordern, wie beispielsweise ein Einstellen der Lautstärke des Musiksystems, Wechseln von Titeln oder Durchsuchen von Alben, Einstellen der Frequenz für das Radiosystem usw. Für solche Aufgaben dauern Sprachbefehlsvorgänge zuweilen länger, und der Fahrer zieht es in Fällen, in welchen das Spracherkennungssystem den gewünschten Befehl bei seiner ersten Äußerung nicht erkennen kann, vor, den gewünschten Vorgang durch seine Hände zu steuern, statt wiederholt Befehle zu geben.
- Es besteht daher ein Bedarf an einem besseren System zur Ermöglichung der Interaktion zwischen dem Fahrer und den Steuerungsfunktionen des Fahrzeugs, welches die zuvor erwähnten Probleme effektiv bewältigen kann.
- Die vorliegende Erfindung beschreibt ein gestenbasiertes Erkennungssystem und ein Verfahren zum Interpretieren der Gesten eines Fahrzeuginsassen und Auslösen von entsprechenden gewünschten Befehlen nach der Erkennung.
- In einer Ausführungsform stellt diese Offenbarung ein gestenbasiertes Erkennungssystem bereit, um die Gesten eines Fahrzeuginsassen zu interpretieren und die gewünschten Befehlseingaben des Fahrzeuginsassen zu erhalten. Das System weist ein Mittel zum Aufnehmen eines Bildes des inneren Abschnitts des Fahrzeugs auf.
- Das Bild kann ein zweidimensionales Bild oder ein dreidimensionales Tiefenbild sein, das dem inneren Abschnitt des Fahrzeugs entspricht. Ein Gestenerkennungsprozessor trennt das Bild des Fahrzeuginsassen vom Hintergrund im aufgenommenen Bild, analysiert das Bild, interpretiert die Geste des Fahrzeuginsassen aus dem getrennten Bild und erzeugt eine Ausgabe. Ein Befehlsauslöser empfängt die Ausgabe vom Gestenerkennungsprozessor und erzeugt einen interpretierten Befehl. Der Auslöser erzeugt ferner eine Bestätigungsmeldung, die dem interpretierten Befehl entspricht, liefert die Bestätigungsmeldung an den Fahrzeuginsassen und löst den Befehl bei Empfang einer Bestätigung vom Fahrzeuginsassen aus. Das System weist ferner einen Interferenzmaschinenprozessor auf, der mit einem Satz von Sensoren gekoppelt ist. Der Interferenzmaschinenprozessor wertet den Aufmerksamkeitszustand des Fahrzeuginsassen aus und empfängt Signale von den Sensoren, die potenziellen Gefahren entsprechen. Ein Fahrassistenzsystem ist mit dem Interferenzmaschinenprozessor gekoppelt und empfängt Signale von ihm. Das Fahrassistenzsystem liefert basierend auf der Aufmerksamkeit des Fahrzeuginsassen Warnsignale an den Fahrzeuginsassen, wenn die Interferenzmaschine zu einem spezifischen Zeitpunkt eine potenzielle Gefahr wahrnimmt.
- Bei einer anderen Ausführungsform stellt diese Offenbarung ein Verfahren zum Interpretieren von Gesten eines Fahrzeuginsassen und Erhalten von gewünschten Befehlseingaben des Fahrzeuginsassen bereit. Das Verfahren weist ein Aufnehmen eines Bildes des inneren Abschnitts des Fahrzeugs und Trennen des Bildes des Fahrzeuginsassen vom aufgenommenen Bild auf. Das getrennte Bild wird analysiert, und die Geste des Fahrzeuginsassen wird aus den getrennten Bildern interpretiert. Der gewünschte Befehl des Fahrzeuginsassen wird dann interpretiert, und eine entsprechende Bestätigungsmeldung wird an den Fahrzeuginsassen geliefert. Bei Empfang einer Bestätigung wird der interpretierte Befehl ausgelöst.
- Zusätzliche Aspekte, Merkmale und Aufgaben der vorliegenden Offenbarung sind aus den Zeichnungen und der ausführlichen Beschreibung der beispielhaften Ausführungsformen ersichtlich, die in Verbindung mit den im Anschluss angehängten Ansprüchen ausgelegt sind.
- Die Figuren zeigen:
-
1 ist eine schematische Darstellung eines gestenbasierten Erkennungssystems gemäß der vorliegenden Offenbarung. -
2 bis4 sind typische Gesten, die durch das gestenbasierte Erkennungssystem der vorliegenden Offenbarung interpretiert werden können. -
5 ist ein Flussdiagramm, das einem Verfahren zum Interpretieren von Gesten eines Fahrzeuginsassen und Erhalten einer gewünschten Befehlseingabe des Fahrzeuginsassen gemäß der vorliegenden Offenbarung entspricht. - Die folgende ausführliche Beschreibung offenbart Aspekte der Offenbarung und die Möglichkeiten zu ihrer Implementierung. Die Erfindung wird durch die Beschreibung jedoch weder definiert noch eingeschränkt, so dass solch eine Definition oder Beschränkung nur in den hierzu angehängten Ansprüchen enthalten ist. Obwohl die beste Form zur Ausführung der Erfindung offenbart wurde, ist für Fachleute zu erkennen, dass auch andere Ausführungsformen zum Ausführen oder Umsetzen der Erfindung möglich sind.
- Die vorliegende Offenbarung betrifft ein gestenbasiertes Erkennungssystem und ein Verfahren zum Interpretieren der Gesten eines Fahrzeuginsassen und Erhalten von gewünschten Befehlseingaben des Fahrzeuginsassen durch Interpretieren der Gesten.
-
1 stellt ein beispielhaftes gestenbasiertes Erkennungssystem100 zum Interpretieren der Gesten eines Fahrzeuginsassen und Erhalten von gewünschten Befehlen des Fahrzeuginsassen durch Erkennung dar. Das System100 weist ein Mittel110 zum Aufnehmen eines Bildes des inneren Abschnitts eines Fahrzeugs (nicht dargestellt) auf. Das Mittel110 weist einen oder mehr innere Bildaufnahmesensoren112 und einen Satz von äußeren Sensoren114 auf. Die inneren Bildaufnahmesensoren112 beobachten kontinuierlich den Innenraum des Fahrzeugs. Der eine oder die mehreren äußeren Sensoren114 beobachten die äußere Umgebung des Fahrzeugs und nehmen Bilder davon auf. Ferner identifizieren die äußeren Sensoren114 Fahrzeuge in der Nähe des Fahrzeugs des Fahrzeuginsassen und liefern Warnsignale, die potenziellen Kollisionsgefahren entsprechen, an ein Fahrassistenzsystem150 . Ein zweidimensionaler Bildgeber116 , bei dem es sich um eine Kamera handeln kann, nimmt 2D-Bilder des Innenraums des Fahrzeugs auf. Ferner weist das Mittel110 einen dreidimensionalen Bildgeber118 zum Aufnehmen eines Tiefenbildes des inneren Abschnitts des Fahrzeugs auf. Der 3D-Bildgeber118 kann eine beliebige einschlägige Vorrichtung aufweisen, die auf dem Fachgebiet bekannt, mit Kraftfahrzeuganwendungen kompatibel und für diesen Zweck geeignet ist. Ein geeigneter 3D-Bildgeber ist eine Vorrichtung, die von PMD Technologies hergestellt wird und die einen anwendungsspezifischen Bildgeber verwendet. Ein anderer geeigneter 3D-Bildgeber kann ein CMOS-Bildgeber sein, der durch Messen der Verzerrung des Musters von emittiertem Licht funktioniert. Diese Vorrichtungen beruhen beide auf aktiver Beleuchtung, um das erforderliche Tiefenbild der Fahrzeuginnenräume zu erzeugen. In einem anderen Aspekt kann der 3D-Bildgeber118 ein Blitzbildaufnahme-LIDAR sein, der die gesamte Innenraumansicht durch einen Laser oder einen Lichtimpuls aufnimmt. Der vom Mittel110 verwendete Bildgebertyp hängt von Faktoren, einschließlich Kostenbeschränkungen und Gehäusegröße, und der zur Aufnahme von Bildern des inneren Abschnitts des Fahrzeugs erforderlichen Präzision ab. - Das Fahrzeug des Fahrzeuginsassen kann auch mit einem hochpräzisen Kollisionserkennungssystem
160 ausgestattet sein, welches jedes geeignete Kollisionserkennungssystem sein kann, das auf dem Fachgebiet allgemein bekannt ist. Das Kollisionserkennungssystem160 kann einen Satz von Radarsensoren, Bildprozessoren und Seitenkameras usw. aufweisen, die zusammenwirken. Das Kollisionserkennungssystem160 kann außerdem ein Totwinkel-Überwachungssystem zur Seitenabtastung und Spurwechselassistenz (LCA) aufweisen, wobei es sich um ein Nahbereichsabtastungssystem zum Erkennen eines sich rasch nähernden benachbarten Fahrzeugs handelt. Der Hauptmodus dieses Systems ist ein Nahbereichsabtastmodus, der normalerweise bei etwa 24 GHz arbeitet. Totpunkterkennungssysteme können auch ein bildbasiertes System aufweisen, das Kameras zur Totpunktüberwachung verwendet. In einer anderen Ausführungsform kann das Kollisionserkennungssystem160 ein Valeo Raytheon System aufweisen, das bei 24 GHz arbeitet und Fahrzeuge in den Totpunktbereichen auf beiden Seiten des Fahrzeugs überwacht. Unter Verwendung mehrerer Strahlen des Mehrstrahlradarsystems bestimmt das Valeo System Position, Abstand und relative Geschwindigkeit eines sich nähernden Fahrzeugs in der Totpunktregion genau. Der Bereich des Systems beträgt etwa 40 Meter bei einem Sichtfeld von etwa 150 Grad. - Bei Identifizierung von potenziellen Kollisionsgefahren liefert das Kollisionserkennungssystem
160 entsprechende Signale an einen Gestenerkennungsprozessor120 . Der Einfachheit halber und zur Verringerung der Anzahl der Wörter wird der Gestenerkennungsprozessor120 im Folgenden als 'Prozessor120 ' bezeichnet. Wie in1 dargestellt, ist der Prozessor120 mit dem Kollisionserkennungssystem160 und dem Mittel110 gekoppelt. Nach der Aufnahme des Bildes des inneren Abschnitts des Fahrzeugs liefert das Mittel110 das aufgenommene Bild an den Prozessor120 . Der Prozessor120 analysiert das Bild und interpretiert die Gesten des Fahrzeuginsassen, indem er zuerst das Bild des Fahrzeuginsassen vom Hintergrund im aufgenommenen Bild trennt. Zum Identifizieren und Interpretieren von Gesten des Fahrzeuginsassen interpretiert der Prozessor120 kontinuierlich Bewegungen, die vom Benutzer durch seine Hände, Arme usw. gemacht werden. Der Prozessor120 weist eine Gestendatenbank122 auf, die eine Anzahl von vorgegebenen Bildern enthält, die verschiedenen Gestenpositionen entsprechen. Der Prozessor120 vergleicht das aufgenommene Bild mit dem Satz von vorgegebenen Bildern, die in der Gestendatenbank122 gespeichert sind, um die Geste des Fahrzeuginsassen zu interpretieren. In2 bis4 sind typische Bilder dargestellt, die in der Gestendatenbank122 gespeichert sind. Zum Beispiel entspricht das in2(a) dargestellte Bild einem Knopfeinstellungsbefehl. Dieses Bild stellt den Zeigefinger, den Mittelfinger und den Daumen auf eine Weise in der Luft positioniert dar, die der Handlung des Haltens eines Knopfes gleicht. Eine durch die Analyse von kontinuierlich aufgenommenen Bildern des Fahrzeuginsassen wahrgenommene Drehung der so positionierten Hände von links nach rechts oder umgekehrt veranlasst den Prozessor120 zu der Interpretation, dass eine Einstellung der Lautstärke des Musiksystems, der Temperaturregelung oder der Lüftergeschwindigkeitsregelung vom Fahrzeuginsassen gewünscht wird. Bei schnellerer Drehung in einer Richtung interpretiert der Prozessor120 eine größere Änderung der Funktion, die gesteuert wird, und eine langsamere Drehung wird als ein Wunsch zur Vornahme einer feineren Einstellung interpretiert. Das in2(b) dargestellte Bild entspricht der Einstellung einer Verkleinerung einer Ansicht. Diese Darstellung weist ein Positionieren des Daumens, des Zeigefingers und des Mittelfingers bei anfänglicher Beabstandung des Daumens auf. Der Fahrzeuginsasse muss mit den drei Fingern auf diese Weise in der Luft positioniert beginnen und dann den Zeigefinger und den Mittelfinger in einer Zusammendrückbewegung dem Daumen nähern. Eine langsamere Bewegung ermöglicht eine feinere Einstellung der Zoom-Funktion und ein schnelles Zusammenführen wird als eine schnelle Verkleinerung interpretiert. Das in2(c) dargestellte Bild entspricht der Einstellung einer Vergrößerung einer Ansicht. Diese Geste ähnelt der tatsächlichen Funktion 'Auseinanderziehen zum Vergrößern' auf Berührungsbildschirmen. Der Daumen wird anfänglich leicht von Zeigefinger und Mittelfinger getrennt, worauf eine Wegbewegung des Daumens von Zeigefinger und Mittelfinger folgt. Wenn der Prozessor120 diesem Bild ähnliche Gesten interpretiert, die vom Fahrzeuginsassen gemacht werden, aktiviert er bei Bestätigung durch den Fahrzeuginsassen die Vergrößerungsfunktion, wie im Folgenden erläutert. Die Verkleinerungs- und Vergrößerungsgesten werden zum Aktivieren von Funktionen, einschließlich der Zoomeinstellung, auf einem Anzeigebildschirm verwendet. Dies kann, ohne darauf beschränkt zu sein, eine fahrzeuginterne Straßenkarte, welche eine Straßenkarte sein kann, die einer vom GPS-/Navigationssystem des Fahrzeugs geplanten Route entspricht, eine Zoomeinstellung für einen fahrzeuginternen Webbrowser oder eine Steuerung einer beliebigen anderen fahrzeuginternen Funktion beinhalten, bei welcher eine Verkleinerungsoption anwendbar ist, zum Beispiel Albumcovers, einer aktuellen Wiedergabeliste usw. - Eine andere Geste, die der Prozessor
120 mit den entsprechenden, in der Datenbank122 gespeicherten Bildern interpretiert, ist eine Scroll-/Dreh-/Schwenkfunktion, wie in3(a) dargestellt. Zum Aktivieren dieser Funktion muss der Fahrzeuginsasse den Zeigefinger und den Mittelfinger zusammenlegen und diese nach links, rechts, oben oder unten schieben. Jede dieser Bewegungen führt bei Interpretation durch den Prozessor120 zu einem Scrollen des Bildschirms in der entsprechenden Richtung. Ferner korreliert die Geschwindigkeit der Bewegung, während die Geste in der Luft gemacht wird, mit der tatsächlichen Geschwindigkeit des Scrollens über einen Anzeigebildschirm. Konkret führt ein schnelleres Streichen der Finger zu einem schnelleren Scrollen durch den Anzeigebildschirm und umgekehrt. Die Anwendung dieser Geste kann, ohne darauf beschränkt zu sein, ein Scrollen durch eine angezeigte Straßenkarte, Durchsuchen einer Liste von Titeln in einem Album, Suchen nach Frequenzen des Radiosystems oder Scrollen durch ein beliebiges Menü beinhalten, das auf dem Bildschirm angezeigt wird. - Das in
3(b) dargestellte Bild entspricht einer Auswähl-/Zeigefunktion. Zum Aktivieren dieser Funktion muss der Fahrzeuginsasse den Zeigefinger in der Luft positionieren und ihn leicht vorwärts drücken, um das tatsächliche Drücken einer Schaltfläche oder Auswählen einer Option nachzuahmen. Zum Einleiten einer Auswahl innerhalb eines bestimmten Bereichs auf einem Anzeigebildschirm muss der Fahrzeuginsasse mit dem Zeigefinger im Wesentlichen in Ausrichtung mit dem Bereich virtuell darauf zeigen. Wenn der Fahrzeuginsasse zum Beispiel wünscht, einen bestimmten Ort auf einer angezeigten Straßenkarte auszuwählen, und die Ansicht zu verkleinern, um Bereiche um den Ort zu sehen, muss er mit seinen Fingern in der Luft in Ausrichtung mit dem angezeigten Ort virtuell darauf zeigen. Das Zeigen mit dem Finger auf einen bestimmten virtuellen Bereich, wie in3(b) dargestellt, führt zur Aktivierung von auswählbaren Optionen in der entsprechenden Richtung, die nach vorne zum Bildschirm projiziert ist. Diese Geste kann für verschiedene Auswahlmöglichkeiten verwendet werden, einschließlich des Auswählens eines bestimmten Liedes in einer Liste, Auswählens eines bestimmten Symbols in einem angezeigten Menü, Erkunden eines Ortes von Interesse auf einer angezeigten Straßenkarte usw. - Das in
4(a) dargestellte Bild ist die Geste, die einer 'Klicken und Ziehen'-Option entspricht. Um sie zu aktivieren, muss der Fahrzeuginsasse mit seinem Zeigefinger in der Luft ähnlich dem tatsächlichen Drücken einer Schaltfläche bzw. eines Symbols virtuell auf eine Option zeigen und dann den Finger die gewünschte Richtung entlang bewegen. Eine Interpretation dieser Geste führt zum Ziehen des Elements entlang dieser Richtung. Diese Funktion ist in solchen Fällen nützlich, die ein kontrolliertes Scrollen durch eine angezeigte Straßenkarte, Umordnen einer angezeigten Liste von Elementen durch Hinauf- und Hinunterziehen von bestimmten Elementen usw. aufweisen. - Die in
4(b) dargestellte Geste entspricht einer 'Aufwärtsbewegen'-Funktion. Der Fahrzeuginsasse muss mit seinem Zeigefinger auf etwas zeigen und diesen dann rasch nach oben bewegen. Bei Interpretation dieser Geste, führt eine Aktivierung dieser Funktion zum Zurückkehren zu einem Hauptmenü von einem Untermenü, das auf einem Berührungsbildschirm angezeigt wird. Alternativ kann sie auch zum Navigieren innerhalb eines Hauptmenüs verwendet werden, das auf dem Bildschirm wiedergegeben wird. - Andere ähnliche erklärbare und möglicherweise anwendbare Gesten und ihre entsprechenden Bilder in der Datenbank
122 , obwohl in den Zeichnungen der Offenbarung nicht dargestellt, beinhalten jene, die der Funktion eines Öffnens bzw. Schließens eines Dachfensters entsprechen. Zum Aktivieren dieser Funktion muss der Fahrzeuginsasse eine Eingabe bereitstellen, in dem er eine Geste darstellt, die das Ergreifen einer Leine in der Nähe der Vorderseite des Dachfensters und anschließendes Zurückziehen oder Vorwärtsschieben derselben imitiert. Das kontinuierliche Aufnehmen des Bildes des Fahrzeuginsassen ermöglicht eine bessere Aktivierung dieser gestenbasierten Interpretation, und das Öffnen bzw. Schließen des Dachfensters stoppt an der Stelle, an der die Hand des Fahrzeuginsassen aufhört, sich zu bewegen. Ferner führt ein schnelles Vor- oder Zurückziehen zum vollständigen Öffnen bzw. Schließen des Dachfensters. Eine andere Geste führt zu einem Hochkippen des Dachfensters vom Fahrzeuginsassen weg. Der Fahrzeuginsasse muss seine Hände mit der Handfläche nach oben zum Dachfenster gerichtet in die Nähe desselben bringen und dann die Hand noch etwas weiter nach oben drücken. Zum Schließen eines geöffneten Dachfensters muss der Fahrzeuginsasse seine Hände dem Dachfenster nähern, das Halten einer Leine und ihr anschließendes Herunterziehen imitieren. Eine andere mögliche erklärbare Geste, die durch den Gestenerkennungsprozessor120 interpretiert werden kann, ist die 'Streifbewegungsgeste' (obwohl in den Figuren nicht dargestellt). Diese Geste wird verwendet, um einen angezeigten Inhalt zwischen der Heads-up-Anzeige (HUD), dem Cluster und der Mittelkonsole des Fahrzeugs zu bewegen. Zum Aktivieren der Funktionalität dieser Geste muss der Fahrzeuginsasse mit seinem Zeigefinger auf den Inhalt zeigen, der bewegt werden soll, und dann den Zeigefinger in einer Weise, die der 'Streifbewegung' gleicht, in die gewünschte Richtung bewegen. Das Bewegen des Zeigefingers zum Beispiel von der Heads-up-Anzeige in Richtung der Mittelkonsole bewegt den anvisierten Inhalt von der HUD zur Mittelkonsole. - Der Prozessor
120 weist einen Interferenzmaschinenprozessor124 (im Folgenden als 'Prozessor124 ' bezeichnet) auf. Der Prozessor124 verwendet das vom Mittel110 aufgenommene Bild und die Eingaben von den inneren Sensoren112 und äußeren Sensoren114 des Fahrzeugs zum Identifizieren des Aufmerksamkeitszustandes des Fahrers. Dies beinhaltet das Identifizieren von Fällen, in welchen erkannt wird, dass der Fahrer unaufmerksam ist, beispielsweise in einem schläfrigen oder schlaftrunkenen Zustand ist oder sich mit dem Beifahrer oder einem Fahrzeuginsassen auf dem Rücksitz unterhält. Wenn in solchen Fällen eine potenzielle Gefahr vorliegt, die durch das Kollisionserkennungssystem160 identifiziert wird, zum Beispiel wenn sich dem Fahrzeug des Fahrzeuginsassen ein Fahrzeug rasch nähert und eine potenzielle Kollisionsgefahr darstellt, übermittelt das Erkennungssystem160 Signale hinsichtlich der potenziellen Gefahr an den Prozessor124 . Der Prozessor124 teilt die Unaufmerksamkeit des Fahrers einem Fahrassistenzsystem150 mit. Das Fahrassistenzsystem150 liefert ein Warnsignal an den Fahrer/Fahrzeuginsassen. Solch ein Warnsignal wird entweder durch verbales Kommunizieren mit dem Fahrzeuginsassen oder durch ein akustisches Alarmzeichen mitgeteilt. Alternativ kann das Warnsignal auf einer Benutzeroberfläche wiedergegeben werden, wobei Einzelheiten davon auf der Oberfläche angezeigt werden. Der genaue Zeitpunkt, zu dem solch ein Warnsignal an den Fahrzeuginsassen übermittelt wird, hängt von der Aufmerksamkeit des Fahrzeuginsassen ab. Insbesondere bei einem schläfrigen oder schlaftrunkenen Fahrer werden die Signale unverzüglich und viel früher übermittelt, als wenn das Warnsignal einem aufmerksamen Fahrer vermittelt werden würde. Wenn die äußeren Sensoren114 des Fahrzeugs eine scharfe Kurve, eine Schwelle zur Geschwindigkeitsbegrenzung oder etwas Ähnliches identifizieren und erkannt wird, dass der Fahrzeuginsasse nicht angegurtet ist, dann kann das Fahrerassistenzsystem150 ein Signal an den Fahrzeuginsassen liefern, dass er den Sicherheitsgurt anlegen soll. - Der Prozessor
120 weist ferner ein Fahrererkennungsmodul126 auf, das so konfiguriert ist, dass es das Bild des Fahrers erkennt. Konkret ist das Fahrererkennungsmodul126 so konfiguriert, dass es das Bild des Eigentümers des Autos oder der Person erkennt, die das Auto am häufigsten fährt. In einer Ausführungsform verwendet das Fahrererkennungsmodul126 ein Gesichtserkennungssystem, das einen Satz von vorgespeicherten Bildern in einer Gesichtsdatenbank aufweist, die dem Eigentümer oder der Person entsprechen, die das Auto am häufigsten fährt. Jedes Mal, wenn der Eigentümer erneut mit dem Auto fährt, erhält das Fahrerkennungsmodul das aufgenommene Bild des inneren Abschnitts des Fahrzeugs vom Mittel110 und vergleicht das Bild des Fahrzeuginsassen mit den Bildern in der Gesichtsdatenbank. Für Fachleute ist zu erkennen, dass das Fahrererkennungsmodul126 Merkmale oder Landmarken aus dem aufgenommenen Bild des Fahrzeuginsassen extrahiert und diese Merkmale mit den Bildern in der Gesichtsdatenbank vergleicht. Das Fahrererkennungsmodul kann jeden geeigneten, auf dem Fachgebiet bekannten Erkennungsalgorithmus, einschließlich des Fisherface-Algorithmus, zum Erkennen des Fahrers verwenden, der Elastic Bunch Graph Matching, Linear Discriminate Analysis, Dynamic Link Matching und so weiter verwendet. - Sobald das Fahrererkennungsmodul
126 den Fahrer/Eigentümer, der den Fahrersitz einnimmt, erkennt, übermittelt es Signale an einen Personalisierungsfunktionsprozessor128 . Der Personalisierungsfunktionsprozessor128 stellt einen Satz von Personalisierungsfunktionen des Fahrzeugs wieder auf einen Satz von vorgespeicherten Einstellungen ein. Die voreingestellten Einstellungen entsprechen den Präferenzen des Fahrers, zum Beispiel einem bevorzugten Temperaturwert für die Klimaanlage, einem bevorzugten Lautstärkebereich der Musikbedienelemente, dem am häufigsten eingestellten Funkfrequenzband, dem Wiedereinstellen des Fahrersitzes auf die bevorzugte bequeme Position usw. - Ein Befehlsauslöser
130 (im Folgenden als 'Auslöser130 ' bezeichnet) ist mit dem Prozessor120 gekoppelt. Der Auslöser130 löst den gewünschten Befehl des Fahrzeuginsassen aus, nachdem der Prozessor120 die Geste des Fahrzeuginsassen interpretiert hat. Konkret erzeugt der Prozessor120 beim Interpretieren der Geste des Fahrzeuginsassen eine entsprechende Ausgabe und liefert die Ausgabe an den Auslöser130 . Der Auslöser130 erzeugt den gewünschten Befehl unter Verwendung der Ausgabe und sendet eine Bestätigungsmeldung an den Fahrzeuginsassen, bevor er den Befehl auslöst. Die Bestätigungsmeldung kann dem Fahrzeuginsassen durch ein Kommunikationsmodul134 verbal in einem Fragemodus kommuniziert werden, oder sie kann über eine Benutzeroberfläche132 mittels einer darin eingebetteten Genehmigungsoption (d. h. 'Ja'- oder 'Nein'-Symbolen) wiedergegeben werden. Der Fahrzeuginsasse bestätigt den interpretierten Befehl entweder durch Bereitstellen einer verbalen Bestätigung oder durch Anklicken der Genehmigungsoption auf der Benutzeroberfläche132 . Falls der Fahrzeuginsasse eine verbale Bestätigung bereitstellt, interpretiert ein Spracherkennungsmodul136 die Bestätigung. Schließlich führt der Auslöser130 den gewünschten Befehl des Fahrzeuginsassen aus. Falls eine Geste fehlinterpretiert wird und eine Ablehnung der Ausführung des interpretierten Befehls vom Fahrzeuginsassen erhalten wird, gibt der Auslöser130 eine Bestätigungsmeldung wieder, die einer anderen, jedoch der vorherigen ähnlichen Befehlsoption entspricht. Wenn zum Beispiel der gewünschte Befehl ein Erhöhen der Lautstärke des Musiksystems ist und er als Erhöhen der Temperatur der Klimaanlage fehlinterpretiert wird, dann gibt der Auslöser130 bei Empfang einer Ablehnung vom Fahrzeuginsassen im ersten Versuch Bestätigungsmeldungen wieder, die anderen Befehlen entsprechen, bis der gewünschte Vorgang implementiert werden kann. In einer Ausführungsform stellt der Fahrzeuginsasse eine gestenbasierte Bestätigung der wiedergegebenen Bestätigungsmeldung bereit. Zum Beispiel kann eine Geste, welche der Genehmigung des Fahrzeuginsassen zur Ausführung eines interpretierten Befehls entspricht, ein 'Daumen nach oben' in der Luft sein, und eine Ablehnung kann durch eine 'Daumen nach unten'-Geste interpretiert werden. In diesen Aspekten speichert die Gestendatenbank122 die entsprechenden Bilder für den Prozessor120 , um die gestenbasierten Genehmigungen zu interpretieren. - Das Flussdiagramm in
5 offenbart verschiedene Schritte eines Verfahrens500 zum Interpretieren von Gesten eines Fahrzeuginsassen und Erhalten von gewünschten Befehlseingaben des Fahrzeuginsassen. Bei Schritt502 wird ein Bild des inneren Abschnitts des Fahrzeugs und der äußeren Umgebung aufgenommen. Das Bild für den inneren Abschnitt des Fahrzeugs kann ein zweidimensionales Bild, das durch eine Kamera erhalten werden kann, oder ein dreidimensionales Tiefenbild des Fahrzeuginnenraums sein, das durch geeignete, auf dem Fachgebiet bekannte Vorrichtungen erhalten werden kann, wie zuvor erläutert. Bei Schritt504 analysiert das Verfahren das aufgenommene Bild des inneren Abschnitts und trennt das Bild des Fahrzeuginsassen davon. Bei Schritt506 wird das getrennte Bild analysiert, und die Geste des Fahrzeuginsassen wird daraus interpretiert. In einer Ausführungsform weist die Interpretation der Geste des Fahrzeuginsassen ein Vergleichen des aufgenommenen Bildes mit einem Satz von vorgespeicherten Bildern auf, die verschiedenen Gesten entsprechen. Zu diesem Zweck können verschiedene, auf dem Fachgebiet verfügbare Algorithmen verwendet werden, wie zuvor erörtert. Der Ansatz, der durch solche Algorithmen verwendet wird, kann entweder ein geometrischer Ansatz, der sich auf die charakteristischen Merkmale des aufgenommenen Bildes konzentriert, oder ein fotometrischer Ansatz sein, der das Bild in Werte destilliert und dann diese Werte mit Merkmalen vorgespeicherter Bilder vergleicht. Bei der Interpretation der Geste des Fahrzeuginsassen wird bei Schritt508 eine Interpretation eines entsprechenden gewünschten Befehls des Fahrzeuginsassen durchgeführt. Bei Schritt510 erhält das Verfahren eine Bestätigungsmeldung vom Fahrzeuginsassen im Hinblick darauf, ob der interpretierte Befehl der gewünschte Befehl des Fahrzeuginsassen ist. Dies erfolgt, um Fälle zu berücksichtigen, in welchen die Geste des Fahrzeuginsassen fehlinterpretiert wird. Wenn der Fahrzeuginsasse bestätigt, wird bei Schritt512 dann der interpretierte Befehl ausgelöst. Wenn der Fahrzeuginsasse den interpretierten Befehl nicht bestätigt und einen anderen Befehl auszuführen wünscht, dann liefert das Verfahren eine andere Bestätigungsmeldung an den Fahrzeuginsassen, die einem anderen möglichen Befehl in Bezug auf die interpretierte Geste entspricht. Falls das Verfahren zum Beispiel die Geste des Fahrzeuginsassen eines Drehens seiner Hände zum Drehen eines Knopfes interpretiert und eine erste Bestätigungsmeldung mit der Frage liefert, ob die Lautstärke des Musiksystems erhöht/verringert werden soll, und der Fahrzeuginsasse die Bestätigung ablehnt, dann kann eine zweite relevante Bestätigungsmeldung wiedergegeben werden, die zum Beispiel ein Erhöhen/Verringern der Lüftergeschwindigkeit sein kann. - Bei Schritt
514 wertet das Verfahren den Aufmerksamkeitszustand des Fahrers durch Analysieren des aufgenommenen Bildes für den inneren Abschnitt des Fahrzeugs aus. Bei Schritt516 identifiziert das Verfahren potenzielle Gefahren, zum Beispiel ein sich rasch näherndes Fahrzeug, eine bevorstehende Schwelle zur Geschwindigkeitsbegrenzung oder eine scharfe Kurve. Zu diesem Zweck können beliebige Mittel verwendet werden, die auf dem Fachgebiet bekannt sind, einschließlich fahrzeuginterner Kollisionserkennungssysteme, Radare, Lidar, innerer und äußerer Fahrzeugsensoren. Wenn eine potenzielle Gefahr vorliegt und erkannt wird, dass der Fahrer unaufmerksam ist, dann werden bei Schritt520 zu einem bestimmten Zeitpunkt Warnsignale an den Fahrzeuginsassen geliefert. Der genaue Zeitpunkt, zu dem solche Signale bereitgestellt werden, hängt vom Aufmerksamkeitsgrad des Fahrzeuginsassen/Fahrers ab, und im Falle eines schlaftrunkenen/schläfrigen Fahrers werden solche Signale unverzüglich bereitgestellt. - Bei Schritt
522 erkennt das Verfahren500 den Fahrer durch eine Analyse des aufgenommenen Bildes. Für die Erkennung können geeignete Verfahren, einschließlich auf dem Fachgebiet bekannter Gesichtserkennungssysteme, wie zuvor erläutert, verwendet werden. Das Bild des Eigentümers des Autos oder der Person, die das Auto sehr oft fährt, kann in einer Gesichtsdatenbank gespeichert werden. Wenn die gleiche Person erneut in das Auto einsteigt, vergleicht das Verfahren500 das aufgenommene Bild der Person mit den Bildern in der Gesichtsdatenbank, um sie zu erkennen. Bei Erkennung wird bei Schritt524 ein Satz von Personalisierungsfunktionen, die der Person entsprechen, auf einen Satz von vorgespeicherten Einstellungen zurückgesetzt. Zum Beispiel kann die Temperatur des Innenraums automatisch auf einen vorher festgelegten Wert gesetzt oder das fahrerseitige Fenster automatisch halb geöffnet werden, wenn die Person den Sitz einnimmt, wie normalerweise von ihr bevorzugt. - Das offenbarte gestenbasierte Erkennungssystem kann in jedem Fahrzeug verwendet werden, das mit geeigneten Vorrichtungen, wie zuvor beschrieben, zum Erreichen der Aufgaben der Offenbarung ausgestattet ist.
- Obwohl die gegenwärtige Erfindung in beträchtlichen Einzelheiten umfassend beschrieben wurde, um die möglichen Aspekte und Ausführungsformen zu erfassen, ist für Fachleute zu erkennen, dass auch andere Varianten der Erfindung möglich sein können.
Claims (10)
- Gestenbasiertes Erkennungssystem zum Interpretieren einer Geste eines Fahrzeuginsassen und Erhalten von gewünschten Befehlseingaben des Fahrzeuginsassen durch Gestenerkennung, wobei das System Folgendes aufweist: Mittel zum Aufnehmen eines Bildes des inneren Abschnitts des Fahrzeugs; einen Gestenerkennungsprozessor, der so ausgelegt ist, dass er das Bild des Fahrzeuginsassen vom aufgenommenen Bild trennt, und ferner so ausgelegt ist, dass er Gesten des Fahrzeuginsassen aus dem Bild interpretiert und eine Ausgabe erzeugt; und einen Befehlsauslöser, der mit dem Gestenerkennungsprozessor gekoppelt und so ausgelegt ist, dass er die Ausgabe von ihm empfängt, einen gewünschten Befehl interpretiert und den Befehl basierend auf einer vom Fahrzeuginsassen empfangenen Bestätigung auslöst.
- System nach Anspruch 1, wobei das Mittel eine Kamera aufweist, die so konfiguriert ist, dass sie ein zweidimensionales Bild oder ein dreidimensionales Tiefenbild des inneren Abschnitts des Fahrzeugs erhält.
- System nach Anspruch 1, wobei der Befehlsauslöser eine Benutzeroberfläche aufweist, die so konfiguriert ist, dass sie den gewünschten Befehl und eine entsprechende Bestätigungsmeldung anzeigt und den Fahrzeuginsassen auffordert, die Bestätigung bereitzustellen.
- System nach Anspruch 1, wobei der Befehlsauslöser ein Kommunikationsmodul, das so konfiguriert ist, dass es dem Fahrzeuginsassen die interpretierte Geste des Fahrzeuginsassen verbal kommuniziert, und ein Spracherkennungsmodul aufweist, das so konfiguriert ist, dass es eine entsprechende verbale Bestätigung vom Fahrzeuginsassen erkennt.
- System nach Anspruch 1, wobei der Gestenerkennungsprozessor eine Datenbank aufweist, die einen Satz von vorgegebenen Gestenbildern speichert, die verschiedenen gestenbasierten Befehlen entsprechen.
- System nach Anspruch 5, wobei die vorgegebenen Bilder mindestens die Bilder aufweisen, welche Knopfeinstellung, Vergrößerungs- und Verkleinerungseinstellungen, Klicken zum Auswählen, Scrollen, Durchblättern und Klicken zum Ziehen entsprechen.
- System nach Anspruch 1, wobei der Gestenerkennungsprozessor ferner einen Interferenzmaschinenprozessor aufweist, der so konfiguriert ist, dass er die Aufmerksamkeit des Fahrzeuginsassen beurteilt; wobei das System ferner ein Fahrassistenzsystem aufweist, das mit dem Interferenzmaschinenprozessor gekoppelt ist, um Eingaben von ihm zu empfangen, wenn der Fahrzeuginsasse unaufmerksam ist.
- System nach Anspruch 6, ferner aufweisend ein Kollisionserkennungssystem, das mit dem Fahrassistenzsystem und dem Interferenzmaschinenprozessor gekoppelt ist, wobei das Kollisionserkennungssystem so ausgelegt ist, dass es potenzielle Gefahren beurteilt und entsprechende Gefahrensignale an das Fahrassistenzsystem liefert.
- System nach Anspruch 1, wobei der Gestenerkennungsprozessor ein Fahrererkennungsmodul aufweist, das so konfiguriert ist, dass es das Bild des Fahrers erkennt und einen Satz von Personalisierungsfunktionen basierend auf der Erkennung wieder auf einen Satz von vorgespeicherten Einstellungen einstellt, die dem Fahrer entsprechen.
- System nach Anspruch 9, wobei das Fahrererkennungsmodul eine Gesichtsdatenbank aufweist, die einen Satz von vorgespeicherten Bildern enthält, und so konfiguriert ist, dass es Merkmale aus dem aufgenommenen Bild mit den Bildern in der Gesichtsdatenbank vergleicht.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/366388 | 2012-02-06 | ||
US13/366,388 US20130204457A1 (en) | 2012-02-06 | 2012-02-06 | Interacting with vehicle controls through gesture recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102013201746A1 true DE102013201746A1 (de) | 2013-08-08 |
Family
ID=47890913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102013201746A Withdrawn DE102013201746A1 (de) | 2012-02-06 | 2013-02-04 | Interaktion mit fahrzeugbedienungselementen durch gestenerkennung |
Country Status (4)
Country | Link |
---|---|
US (1) | US20130204457A1 (de) |
CN (1) | CN103294190A (de) |
DE (1) | DE102013201746A1 (de) |
GB (1) | GB2501575A (de) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014004675A1 (de) * | 2014-03-31 | 2015-10-01 | Audi Ag | Gestenbewertungssystem, Verfahren zur Gestenbewertung und Fahrzeug |
DE102014207637A1 (de) * | 2014-04-23 | 2015-10-29 | Bayerische Motoren Werke Aktiengesellschaft | Gesteninteraktion mit einem Fahrerinformationssystem eines Fahrzeuges |
DE102014017179A1 (de) | 2014-11-20 | 2016-05-25 | Audi Ag | Verfahren zum Betreiben eines Navigationssystems eines Kraftfahrzeugs mittels einer Bediengeste |
DE102016221564A1 (de) * | 2016-10-13 | 2018-04-19 | Bayerische Motoren Werke Aktiengesellschaft | Multimodaler Dialog in einem Kraftfahrzeug |
DE102020003102A1 (de) | 2020-05-22 | 2020-07-09 | Daimler Ag | Verfahren zum Verifizieren eines Gestenbefehles und/oder eines Sprachbefehles eines Fahrzeugnutzers |
DE102020201235A1 (de) | 2020-01-31 | 2021-08-05 | Ford Global Technologies, Llc | Verfahren und System zur Steuerung von Kraftfahrzeugfunktionen |
DE102021105068A1 (de) | 2021-03-03 | 2022-09-08 | Gestigon Gmbh | Verfahren und system zur handgestenbasierten vorrichtungssteuerung |
Families Citing this family (108)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8775023B2 (en) | 2009-02-15 | 2014-07-08 | Neanode Inc. | Light-based touch controls on a steering wheel and dashboard |
US9317983B2 (en) | 2012-03-14 | 2016-04-19 | Autoconnect Holdings Llc | Automatic communication of damage and health in detected vehicle incidents |
DE102012216193B4 (de) * | 2012-09-12 | 2020-07-30 | Continental Automotive Gmbh | Verfahren und Vorrichtung zur Bedienung einer Kraftfahrzeugkomponente mittels Gesten |
TWI517992B (zh) * | 2012-11-13 | 2016-01-21 | 義晶科技股份有限公司 | 車用影像系統及其影像之顯示控制方法 |
US9092093B2 (en) | 2012-11-27 | 2015-07-28 | Neonode Inc. | Steering wheel user interface |
US12032817B2 (en) | 2012-11-27 | 2024-07-09 | Neonode Inc. | Vehicle user interface |
US9720504B2 (en) * | 2013-02-05 | 2017-08-01 | Qualcomm Incorporated | Methods for system engagement via 3D object detection |
WO2014172334A1 (en) * | 2013-04-15 | 2014-10-23 | Flextronics Ap, Llc | User gesture control of vehicle features |
US11372936B2 (en) | 2013-04-15 | 2022-06-28 | Autoconnect Holdings Llc | System and method for adapting a control function based on a user profile |
US12039243B2 (en) | 2013-04-15 | 2024-07-16 | Autoconnect Holdings Llc | Access and portability of user profiles stored as templates |
EP2857276B1 (de) * | 2013-08-20 | 2018-12-12 | Harman International Industries, Incorporated | Fahrerassistenzsystem |
EP2857239A1 (de) * | 2013-10-03 | 2015-04-08 | Volvo Car Corporation | Digitale Sonnenblende für Autoglas |
US9817521B2 (en) | 2013-11-02 | 2017-11-14 | At&T Intellectual Property I, L.P. | Gesture detection |
US10025431B2 (en) | 2013-11-13 | 2018-07-17 | At&T Intellectual Property I, L.P. | Gesture detection |
DE102014200782A1 (de) * | 2014-01-17 | 2015-07-23 | Bayerische Motoren Werke Aktiengesellschaft | Betreiben eines Fahrzeugs gemäß dem Wunsch eines Fahrzeuginsassen |
US10007329B1 (en) | 2014-02-11 | 2018-06-26 | Leap Motion, Inc. | Drift cancelation for portable object detection and tracking |
US10891022B2 (en) * | 2014-03-31 | 2021-01-12 | Netgear, Inc. | System and method for interfacing with a display device |
US9342797B2 (en) | 2014-04-03 | 2016-05-17 | Honda Motor Co., Ltd. | Systems and methods for the detection of implicit gestures |
US10409382B2 (en) | 2014-04-03 | 2019-09-10 | Honda Motor Co., Ltd. | Smart tutorial for gesture control system |
US10466657B2 (en) | 2014-04-03 | 2019-11-05 | Honda Motor Co., Ltd. | Systems and methods for global adaptation of an implicit gesture control system |
US9754167B1 (en) | 2014-04-17 | 2017-09-05 | Leap Motion, Inc. | Safety for wearable virtual reality devices via object detection and tracking |
US9868449B1 (en) | 2014-05-30 | 2018-01-16 | Leap Motion, Inc. | Recognizing in-air gestures of a control object to control a vehicular control system |
US9646201B1 (en) | 2014-06-05 | 2017-05-09 | Leap Motion, Inc. | Three dimensional (3D) modeling of a complex control object |
US10936050B2 (en) | 2014-06-16 | 2021-03-02 | Honda Motor Co., Ltd. | Systems and methods for user indication recognition |
US10007350B1 (en) | 2014-06-26 | 2018-06-26 | Leap Motion, Inc. | Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
JP2016038889A (ja) | 2014-08-08 | 2016-03-22 | リープ モーション, インコーポレーテッドLeap Motion, Inc. | モーション感知を伴う拡張現実 |
US9725098B2 (en) | 2014-08-11 | 2017-08-08 | Ford Global Technologies, Llc | Vehicle driver identification |
JP3194297U (ja) | 2014-08-15 | 2014-11-13 | リープ モーション, インコーポレーテッドLeap Motion, Inc. | 自動車用及び産業用のモーション感知制御装置 |
KR101556521B1 (ko) * | 2014-10-06 | 2015-10-13 | 현대자동차주식회사 | 휴먼 머신 인터페이스 장치, 그를 가지는 차량 및 그 제어 방법 |
CN104317397A (zh) * | 2014-10-14 | 2015-01-28 | 奇瑞汽车股份有限公司 | 车载人机交互方法 |
CN104360736B (zh) * | 2014-10-30 | 2017-06-30 | 广东美的制冷设备有限公司 | 基于手势的终端控制方法和系统 |
KR102263723B1 (ko) * | 2014-11-12 | 2021-06-11 | 현대모비스 주식회사 | 어라운드 뷰 모니터 시스템 및 그 제어방법 |
WO2016087902A1 (en) * | 2014-12-05 | 2016-06-09 | Audi Ag | Operating device for a vehicle, in particular a passenger vehicle; as well as method for operating such an operating device |
DE102015204280A1 (de) * | 2015-03-10 | 2016-09-15 | Robert Bosch Gmbh | Verfahren zur Aktivierung eines Aktuators eines Kraftfahrzeugs, zur Ausführung des Verfahrens eingerichtete Vorrichtung und Computerprogrammprodukt |
US9550406B2 (en) | 2015-03-16 | 2017-01-24 | Thunder Power Hong Kong Ltd. | Thermal dissipation system of an electric vehicle |
US9547373B2 (en) * | 2015-03-16 | 2017-01-17 | Thunder Power Hong Kong Ltd. | Vehicle operating system using motion capture |
CN104866106A (zh) * | 2015-06-03 | 2015-08-26 | 深圳市光晕网络科技有限公司 | 一种结合hud与红外识别的人机交互方法和系统 |
WO2017015913A1 (zh) * | 2015-07-29 | 2017-02-02 | 薄冰 | 通过手势调节风扇使用状态的方法和风扇 |
US9777516B2 (en) | 2015-08-24 | 2017-10-03 | Ford Global Technologies, Llc | Gesture-activated hood release system |
CN105292019A (zh) * | 2015-10-08 | 2016-02-03 | 奇瑞汽车股份有限公司 | 一种智能车机及控制方法 |
CN105235615B (zh) * | 2015-10-27 | 2018-01-23 | 浙江吉利控股集团有限公司 | 一种基于人脸识别的车辆控制系统 |
US10692126B2 (en) | 2015-11-17 | 2020-06-23 | Nio Usa, Inc. | Network-based system for selling and servicing cars |
DE102016100075A1 (de) * | 2016-01-04 | 2017-07-06 | Volkswagen Aktiengesellschaft | Verfahren zur Auswertung von Gesten |
FR3048933B1 (fr) * | 2016-03-21 | 2019-08-02 | Valeo Vision | Dispositif de commande d'eclairage interieur d'un vehicule automobile |
US20180012197A1 (en) | 2016-07-07 | 2018-01-11 | NextEv USA, Inc. | Battery exchange licensing program based on state of charge of battery pack |
CN109416733B (zh) | 2016-07-07 | 2023-04-18 | 哈曼国际工业有限公司 | 便携式个性化 |
CN106218545A (zh) * | 2016-07-26 | 2016-12-14 | 惠州市凯越电子股份有限公司 | 一种基于手势识别功能的智能车载终端 |
US9928734B2 (en) | 2016-08-02 | 2018-03-27 | Nio Usa, Inc. | Vehicle-to-pedestrian communication systems |
US10071730B2 (en) * | 2016-08-30 | 2018-09-11 | GM Global Technology Operations LLC | Vehicle parking control |
US9963106B1 (en) | 2016-11-07 | 2018-05-08 | Nio Usa, Inc. | Method and system for authentication in autonomous vehicles |
US10474145B2 (en) | 2016-11-08 | 2019-11-12 | Qualcomm Incorporated | System and method of depth sensor activation |
US10708547B2 (en) | 2016-11-11 | 2020-07-07 | Nio Usa, Inc. | Using vehicle sensor data to monitor environmental and geologic conditions |
US10694357B2 (en) | 2016-11-11 | 2020-06-23 | Nio Usa, Inc. | Using vehicle sensor data to monitor pedestrian health |
US10410064B2 (en) | 2016-11-11 | 2019-09-10 | Nio Usa, Inc. | System for tracking and identifying vehicles and pedestrians |
US10699305B2 (en) | 2016-11-21 | 2020-06-30 | Nio Usa, Inc. | Smart refill assistant for electric vehicles |
WO2018097818A1 (en) * | 2016-11-22 | 2018-05-31 | Ford Global Technologies, Llc | Virtual reality interface to an autonomous vehicle |
US10249104B2 (en) | 2016-12-06 | 2019-04-02 | Nio Usa, Inc. | Lease observation and event recording |
US10859395B2 (en) * | 2016-12-30 | 2020-12-08 | DeepMap Inc. | Lane line creation for high definition maps for autonomous vehicles |
WO2018126067A1 (en) | 2016-12-30 | 2018-07-05 | DeepMap Inc. | Vector data encoding of high definition map data for autonomous vehicles |
DE102017200194A1 (de) * | 2017-01-09 | 2018-07-12 | Ford Global Technologies, Llc | Fahrzeug mit flexibler Fahrzeugführerposition und Verfahren zum Führen eines Fahrzeugs |
US10074223B2 (en) | 2017-01-13 | 2018-09-11 | Nio Usa, Inc. | Secured vehicle for user use only |
US10471829B2 (en) | 2017-01-16 | 2019-11-12 | Nio Usa, Inc. | Self-destruct zone and autonomous vehicle navigation |
US10031521B1 (en) | 2017-01-16 | 2018-07-24 | Nio Usa, Inc. | Method and system for using weather information in operation of autonomous vehicles |
US9984572B1 (en) | 2017-01-16 | 2018-05-29 | Nio Usa, Inc. | Method and system for sharing parking space availability among autonomous vehicles |
US10286915B2 (en) | 2017-01-17 | 2019-05-14 | Nio Usa, Inc. | Machine learning for personalized driving |
US10464530B2 (en) | 2017-01-17 | 2019-11-05 | Nio Usa, Inc. | Voice biometric pre-purchase enrollment for autonomous vehicles |
US10214221B2 (en) * | 2017-01-20 | 2019-02-26 | Honda Motor Co., Ltd. | System and method for identifying a vehicle driver by a pattern of movement |
US20190354254A1 (en) * | 2017-02-01 | 2019-11-21 | Ford Global Technologies, Llc | Vehicle component actuation |
US10897469B2 (en) | 2017-02-02 | 2021-01-19 | Nio Usa, Inc. | System and method for firewalls between vehicle networks |
US10053088B1 (en) * | 2017-02-21 | 2018-08-21 | Zoox, Inc. | Occupant aware braking system |
FR3063820B1 (fr) * | 2017-03-09 | 2021-06-25 | Valeo Comfort & Driving Assistance | Procede de commande d'au moins une fonction d'un vehicule par l'accomplissement d'au moins un geste de commande associe a cette fonction |
DE102017206312B4 (de) * | 2017-04-12 | 2024-08-01 | Ford Global Technologies, Llc | Unterstützung einer Handhabung eines innerhalb eines Fahrgastinnenraums befindlichen Gegenstands sowie Kraftfahrzeug |
CN110770693A (zh) * | 2017-06-21 | 2020-02-07 | 三菱电机株式会社 | 手势操作装置及手势操作方法 |
US10234302B2 (en) | 2017-06-27 | 2019-03-19 | Nio Usa, Inc. | Adaptive route and motion planning based on learned external and internal vehicle environment |
US10710633B2 (en) | 2017-07-14 | 2020-07-14 | Nio Usa, Inc. | Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles |
US10369974B2 (en) | 2017-07-14 | 2019-08-06 | Nio Usa, Inc. | Control and coordination of driverless fuel replenishment for autonomous vehicles |
JP6414288B2 (ja) * | 2017-07-20 | 2018-10-31 | トヨタ自動車株式会社 | 車両用操作装置 |
US10837790B2 (en) | 2017-08-01 | 2020-11-17 | Nio Usa, Inc. | Productive and accident-free driving modes for a vehicle |
DE102017216837A1 (de) | 2017-09-22 | 2019-03-28 | Audi Ag | Gestik- und Mimiksteuerung für ein Fahrzeug |
US10635109B2 (en) | 2017-10-17 | 2020-04-28 | Nio Usa, Inc. | Vehicle path-planner monitor and controller |
US10606274B2 (en) | 2017-10-30 | 2020-03-31 | Nio Usa, Inc. | Visual place recognition based self-localization for autonomous vehicles |
US10935978B2 (en) | 2017-10-30 | 2021-03-02 | Nio Usa, Inc. | Vehicle self-localization using particle filters and visual odometry |
US10717412B2 (en) | 2017-11-13 | 2020-07-21 | Nio Usa, Inc. | System and method for controlling a vehicle using secondary access methods |
CN107944376A (zh) * | 2017-11-20 | 2018-04-20 | 北京奇虎科技有限公司 | 视频数据实时姿态识别方法及装置、计算设备 |
EP3493116B1 (de) * | 2017-12-04 | 2023-05-10 | Aptiv Technologies Limited | System und verfahren zur erzeugung eines vertrauenswerts für mindestens einen zustand im innenraum eines fahrzeugs |
JP2019101826A (ja) * | 2017-12-04 | 2019-06-24 | アイシン精機株式会社 | ジェスチャ判定装置およびプログラム |
CN108162811A (zh) * | 2017-12-15 | 2018-06-15 | 北京汽车集团有限公司 | 座椅控制方法及装置 |
CN110374449A (zh) * | 2018-04-12 | 2019-10-25 | 上海擎感智能科技有限公司 | 基于姿势识别的车窗控制方法及系统、车载终端 |
DE102018205753A1 (de) * | 2018-04-16 | 2019-10-17 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren, Vorrichtung und Fortbewegungsmittel für ein automatisiertes Anfahren eines Fortbewegungsmittels an einer Lichtsignalanlage |
US10369966B1 (en) | 2018-05-23 | 2019-08-06 | Nio Usa, Inc. | Controlling access to a vehicle using wireless access devices |
FR3086420B1 (fr) * | 2018-09-21 | 2020-12-04 | Psa Automobiles Sa | Procede de commande d’un systeme embarque |
JP7087919B2 (ja) * | 2018-10-31 | 2022-06-21 | トヨタ自動車株式会社 | 運転支援装置、車両、運転支援方法およびプログラム |
EP3887192B1 (de) | 2018-11-28 | 2023-06-07 | Neonode Inc. | Benutzerschnittstellensensor für fahrzeugführer |
DE102018221710A1 (de) | 2018-12-13 | 2020-06-18 | Volkswagen Aktiengesellschaft | Dachkonsole für ein Fahrzeug |
CN109410691A (zh) * | 2018-12-17 | 2019-03-01 | 深圳市中智仿真科技有限公司 | 一种手势控制功能的汽车驾培模拟机 |
CN111469663A (zh) * | 2019-01-24 | 2020-07-31 | 宝马股份公司 | 用于车辆的操控系统 |
CN109703567A (zh) * | 2019-01-25 | 2019-05-03 | 安徽酷哇机器人有限公司 | 车辆控制方法 |
CN109886199B (zh) * | 2019-02-21 | 2022-04-12 | 阿波罗智联(北京)科技有限公司 | 信息处理方法、装置、车辆及移动终端 |
JP2020147066A (ja) * | 2019-03-11 | 2020-09-17 | 本田技研工業株式会社 | 車両制御システム、車両制御方法、及びプログラム |
DE102019204054A1 (de) * | 2019-03-25 | 2020-10-01 | Volkswagen Aktiengesellschaft | Verfahren zur Bereitstellung eines Sprachdialogs in Gebärdensprache bei einem Sprachdialog-System für ein Fahrzeug |
EP3796209A1 (de) | 2019-09-17 | 2021-03-24 | Aptiv Technologies Limited | Verfahren und system zur bestimmung einer aktivität eines insassen eines fahrzeugs |
US11873000B2 (en) | 2020-02-18 | 2024-01-16 | Toyota Motor North America, Inc. | Gesture detection for transport control |
US11055998B1 (en) | 2020-02-27 | 2021-07-06 | Toyota Motor North America, Inc. | Minimizing traffic signal delays with transports |
US11290856B2 (en) | 2020-03-31 | 2022-03-29 | Toyota Motor North America, Inc. | Establishing connections in transports |
US20210304595A1 (en) | 2020-03-31 | 2021-09-30 | Toyota Motor North America, Inc. | Traffic manager transports |
CN112026790B (zh) * | 2020-09-03 | 2022-04-15 | 上海商汤临港智能科技有限公司 | 车载机器人的控制方法及装置、车辆、电子设备和介质 |
CN112092751A (zh) * | 2020-09-24 | 2020-12-18 | 上海仙塔智能科技有限公司 | 一种座舱服务方法及座舱服务系统 |
US12091058B2 (en) * | 2022-06-20 | 2024-09-17 | International Business Machines Corporation | Virtual steering wheel with autonomous vehicle |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7050606B2 (en) * | 1999-08-10 | 2006-05-23 | Cybernet Systems Corporation | Tracking and gesture recognition system particularly suited to vehicular control applications |
US10242255B2 (en) * | 2002-02-15 | 2019-03-26 | Microsoft Technology Licensing, Llc | Gesture recognition system using depth perceptive sensors |
US20080065291A1 (en) * | 2002-11-04 | 2008-03-13 | Automotive Technologies International, Inc. | Gesture-Based Control of Vehicular Components |
JP2004334590A (ja) * | 2003-05-08 | 2004-11-25 | Denso Corp | 操作入力装置 |
JP4311190B2 (ja) * | 2003-12-17 | 2009-08-12 | 株式会社デンソー | 車載機器用インターフェース |
DE102004039305A1 (de) * | 2004-08-12 | 2006-03-09 | Bayerische Motoren Werke Ag | Vorrichtung zur Auswertung der Aufmerksamkeit eines Fahrers bei einem Kollisionsvermeidungssystem in Kraftfahrzeugen |
US7295904B2 (en) * | 2004-08-31 | 2007-11-13 | International Business Machines Corporation | Touch gesture based interface for motor vehicle |
US8086971B2 (en) * | 2006-06-28 | 2011-12-27 | Nokia Corporation | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications |
US20100185341A1 (en) * | 2009-01-16 | 2010-07-22 | Gm Global Technology Operations, Inc. | Vehicle mode activation by gesture recognition |
US8817087B2 (en) * | 2010-11-01 | 2014-08-26 | Robert Bosch Gmbh | Robust video-based handwriting and gesture recognition for in-car applications |
US20130155237A1 (en) * | 2011-12-16 | 2013-06-20 | Microsoft Corporation | Interacting with a mobile device within a vehicle using gestures |
-
2012
- 2012-02-06 US US13/366,388 patent/US20130204457A1/en not_active Abandoned
-
2013
- 2013-01-29 GB GB1301511.0A patent/GB2501575A/en not_active Withdrawn
- 2013-02-04 DE DE102013201746A patent/DE102013201746A1/de not_active Withdrawn
- 2013-02-06 CN CN2013100471043A patent/CN103294190A/zh active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014004675A1 (de) * | 2014-03-31 | 2015-10-01 | Audi Ag | Gestenbewertungssystem, Verfahren zur Gestenbewertung und Fahrzeug |
US9874939B2 (en) | 2014-03-31 | 2018-01-23 | Audi Ag | Using a gesture to evaluate displayed information and initiate an operation of a vehicle system |
DE102014207637A1 (de) * | 2014-04-23 | 2015-10-29 | Bayerische Motoren Werke Aktiengesellschaft | Gesteninteraktion mit einem Fahrerinformationssystem eines Fahrzeuges |
WO2015162058A1 (de) * | 2014-04-23 | 2015-10-29 | Bayerische Motoren Werke Aktiengesellschaft | Gesteninteraktion mit einem fahrerinformationssystem eines fahrzeuges |
US10585487B2 (en) | 2014-04-23 | 2020-03-10 | Bayerische Motoren Werke Aktiengesellschaft | Gesture interaction with a driver information system of a vehicle |
DE102014017179A1 (de) | 2014-11-20 | 2016-05-25 | Audi Ag | Verfahren zum Betreiben eines Navigationssystems eines Kraftfahrzeugs mittels einer Bediengeste |
DE102014017179B4 (de) | 2014-11-20 | 2022-10-06 | Audi Ag | Verfahren zum Betreiben eines Navigationssystems eines Kraftfahrzeugs mittels einer Bediengeste |
DE102016221564A1 (de) * | 2016-10-13 | 2018-04-19 | Bayerische Motoren Werke Aktiengesellschaft | Multimodaler Dialog in einem Kraftfahrzeug |
US11551679B2 (en) | 2016-10-13 | 2023-01-10 | Bayerische Motoren Werke Aktiengesellschaft | Multimodal dialog in a motor vehicle |
DE102020201235A1 (de) | 2020-01-31 | 2021-08-05 | Ford Global Technologies, Llc | Verfahren und System zur Steuerung von Kraftfahrzeugfunktionen |
DE102020003102A1 (de) | 2020-05-22 | 2020-07-09 | Daimler Ag | Verfahren zum Verifizieren eines Gestenbefehles und/oder eines Sprachbefehles eines Fahrzeugnutzers |
DE102021105068A1 (de) | 2021-03-03 | 2022-09-08 | Gestigon Gmbh | Verfahren und system zur handgestenbasierten vorrichtungssteuerung |
Also Published As
Publication number | Publication date |
---|---|
CN103294190A (zh) | 2013-09-11 |
GB2501575A (en) | 2013-10-30 |
GB201301511D0 (en) | 2013-03-13 |
US20130204457A1 (en) | 2013-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102013201746A1 (de) | Interaktion mit fahrzeugbedienungselementen durch gestenerkennung | |
EP1998996B1 (de) | Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung | |
DE102013012466B4 (de) | Bediensystem und Verfahren zum Bedienen einer fahrzeugseitigen Vorrichtung | |
EP2720929B1 (de) | Verfahren und vorrichtung zur unterstützung eines fahrers bei einer spurführung eines fahrzeugs auf einer fahrbahn | |
EP2181892B1 (de) | Parkassistenzsystem und Verfahren zum Betreiben eines Parkassistenzsystems für ein Kraftfahrzeug | |
EP2943367B1 (de) | Verfahren zum synchronisieren von anzeigeeinrichtungen eines kraftfahrzeugs | |
DE102017119435A1 (de) | Fahrzeug-einparksteuerung | |
EP2424743B1 (de) | Verfahren zum anzeigen und eingeben von informationen in einem kraftfahrzeug und anzeigeeinrichtung | |
EP3358454B1 (de) | Anwenderschnittstelle, fortbewegungsmittel und verfahren zur anwenderunterscheidung | |
DE112018003002T5 (de) | Fahrassistenzverfahren, Fahrassistenzprogramm und Fahrzeugsteuervorrichtung | |
EP3254172B1 (de) | Bestimmung einer position eines fahrzeugfremden objekts in einem fahrzeug | |
WO2014198552A1 (de) | System und verfahren zum überwachen und/oder bedienen einer technischen anlage, insbesondere eines fahrzeugs | |
DE102012216174A1 (de) | Steuerung einer Kraftfahrzeugbewegung von außen | |
EP2653335B1 (de) | Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs | |
WO2017157787A1 (de) | Verfahren zum betrieb eines fahrerassistenzsystems eines kraftfahrzeugs und kraftfahrzeug | |
EP3116737B1 (de) | Verfahren und vorrichtung zum bereitstellen einer graphischen nutzerschnittstelle in einem fahrzeug | |
EP3573854B1 (de) | Verfahren zum betreiben eines bediensystems, bediensystem und fahrzeug mit einem bediensystem | |
DE102020115556A1 (de) | Ferngesteuerte anhängermanövrierhilfe | |
DE102019105490A1 (de) | Verfahren, Vorrichtung und Computerprogramm zur Bedienung eines Fahrzeugs mittels eines mobilen Anwendergeräts | |
WO2014108147A1 (de) | Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung | |
DE102012018685B4 (de) | System und Verfahren zur Steuerung von zumindest einem Fahrzeugsystem mittels von einem Fahrer durchgeführter Gesten | |
WO2015162058A1 (de) | Gesteninteraktion mit einem fahrerinformationssystem eines fahrzeuges | |
DE102016204274A1 (de) | System und Verfahren zum Erfassen einer Eingabegeste eines Nutzers | |
DE102007040288A1 (de) | Multimodales Bediensystem und Verfahren zum Bedienen von Komponenten und Funktionen in einem Kraftfahrzeug | |
DE102018218875A1 (de) | Fahrzeugsteuerung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |