DE102018220693B4 - Steuerungssystem und Verfahren zum Steuern einer Funktion eines Fahrzeugs, sowie Fahrzeug mit einem solchen - Google Patents

Steuerungssystem und Verfahren zum Steuern einer Funktion eines Fahrzeugs, sowie Fahrzeug mit einem solchen Download PDF

Info

Publication number
DE102018220693B4
DE102018220693B4 DE102018220693.7A DE102018220693A DE102018220693B4 DE 102018220693 B4 DE102018220693 B4 DE 102018220693B4 DE 102018220693 A DE102018220693 A DE 102018220693A DE 102018220693 B4 DE102018220693 B4 DE 102018220693B4
Authority
DE
Germany
Prior art keywords
detector
user
projector
computing unit
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018220693.7A
Other languages
English (en)
Other versions
DE102018220693A1 (de
Inventor
Philipp Weiß
Daniel Lottes
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102018220693.7A priority Critical patent/DE102018220693B4/de
Publication of DE102018220693A1 publication Critical patent/DE102018220693A1/de
Application granted granted Critical
Publication of DE102018220693B4 publication Critical patent/DE102018220693B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/213Virtual instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/60Structural details of dashboards or instruments
    • B60K2360/66Projection screens or combiners
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/771Instrument locations other than the dashboard on the ceiling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Steuerungssystem (100) für ein Fahrzeug (300), wobei das Steuerungssystem mindestens umfasst:- mindestens einen Detektor (101),- mindestens einen Projektor (103),- mindestens eine Recheneinheit (105),wobei die mindestens eine Recheneinheit dazu konfiguriert ist, unter Verwendung des mindestens einen Detektors eine von einem Nutzer bereitzustellende Aktivierungsgeste und eine räumliche Position eines die Aktivierungsgeste bereitstellenden Teils des Nutzers zu erfassen,wobei die mindestens eine Recheneinheit weiterhin dazu konfiguriert ist, in Abhängigkeit einer erfassten Aktivierungsgeste, ein Projektorsteuerungssignal an den mindestens einen Projektor zu übermitteln, wobei das Projektorsteuerungssignal den mindestens einen Projektor dazu konfiguriert, eine Benutzerschnittstelle (200) an die durch den mindestens einen Detektor erfasste räumliche Position des die Aktivierungsgeste bereitstellenden Teils des Nutzers zu projizieren,wobei die mindestens eine Recheneinheit weiterhin dazu konfiguriert ist, in Abhängigkeit einer erfassten Aktivierungsgeste, unter Verwendung des mindestens einen Detektors mindestens eine durch den Nutzer auf der Benutzerschnittstelle bereitgestellte Bediengeste zu erfassen, undwobei die mindestens eine Recheneinheit weiterhin dazu konfiguriert ist, mindestens eine Funktion eines mit dem Steuerungssystem verbundenen Fahrzeugs in Abhängigkeit einer jeweiligen erfassten Bediengeste zu steuern, undwobei die mindestens eine Recheneinheit dazu konfiguriert ist, den mindestens einen Detektor zum Erfassen einer von einem Nutzer bereitzustellenden Aktivierungsgeste automatisch zu aktivieren, wenn das Fahrzeug von einem manuellen Fahrbetrieb in einen zumindest teilweise automatisierten Fahrbetrieb schaltet, undwobei die mindestens eine Recheneinheit dazu konfiguriert ist, den mindestens einen Projektor in Abhängigkeit von durch den mindestens einen Detektor ermittelten Sensorwerten zu steuern und, dadurch bedingt, eine jeweilige von dem mindestens einen Projektor erzeugte Projektion einer Bewegung des die Aktivierungsgeste bereitstellenden Teils des Nutzers nachzuführen.

Description

  • Die vorgestellte Erfindung betrifft ein Steuerungssystem zum Steuern mindestens einer Funktion eines Fahrzeugs, ein Fahrzeug und ein Verfahren zum Steuern mindestens einer Funktion eines Fahrzeugs.
  • Funktionen von Fahrzeugen nehmen in ihrer Anzahl und Komplexität stetig zu. Entsprechend werden Benutzerschnittstellen zur Eingabe von Steuerungsbefehlen durch einen jeweiligen Nutzer stetig optimiert, um dem Nutzer eine bestmögliche Kontrolle über die Funktionen seines Fahrzeugs zu ermöglichen. Insbesondere mehrfach belegte Eingabeelemente, wie bspw. Touchscreens oder Dreh-/Drückschalter haben sich als geeignete Mittel zur Eingabe von Steuerungsbefehlen erwiesen. Derartige Eingabeelemente sind als sogenannte „Hardware“ in der Regel starr in ein Fahrzeug integriert und entsprechend nur aus einer bestimmten Position heraus bedienbar.
  • Durch eine Aktivierung einer autonomen bzw. teilautonomen Fahrzeugsteuerung wird es einem Nutzer eines Fahrzeugs möglich, sich auch während der Fahrt unabhängig von einer Lenkradposition im Fahrzeug zu bewegen, wodurch es zu Situationen kommen kann, in denen der Nutzer sich von jeweiligen Eingabeelementen, die bspw. in einem Lenkrad oder einem Armaturenbrett des Fahrzeugs integriert sind, weg bewegt und, dadurch bedingt, die Möglichkeit zum Eingeben von Steuerungsbefehlen mittels der Eingabeelemente verliert.
  • Die Druckschrift EP 2 889 733 A1 beschreibt eine Vorrichtung zur Informationseingabe durch einen Nutzer, bei der mittels einer Projektionseinheit ein Eingabefeld auf ein Körperteil des Nutzers projiziert wird. Dabei erfolgt eine Eingabe eines Steuerungsbefehls über eine Berührung des Eingabefelds.
  • Die Druckschrift EP 3 176 675 A1 beschreibt eine Vorrichtung und ein Verfahren zur Informationsverarbeitung, bei dem eine Anzeigefläche projiziert und per Berührung zum Bereitstellen von Steuerungsbefehlen verwendet wird.
  • Die Druckschrift WO 2004 034 699 A1 beschreibt eine Vorrichtung zur Projektion einer Anzeigefläche auf ein Körperteil eines Nutzers.
  • Aus der DE 10 2016 120 995 A1 ist eine Benutzerschnittstelle bekannt, welche eine Bilderzeugungseinheit zur Darstellung von Bildern und Informationen und ein Mittel zur Detektion einer Eingabe umfasst, wobei die Anordnung und das Mittel mit einer zentralen Steuer- und Auswerteeinheit verbunden sind. Als Bilderzeugungseinheit ist eine mindestens ein virtuelles dreidimensionales Bedienelement erzeugende Laserprojektionseinheit und als Mittel zur Detektion einer Eingabe ein Mittel zur Gestenerkennung im Innenraum eines Fahrzeugs angeordnet.
  • Die DE 10 2014 001 183 A1 betrifft ein System und ein Verfahren zum Auslösen wenigstens einer Funktion eines Kraftwagens. Das Verfahren umfasst die Schritte: Darstellen von zumindest einem Gestensymbol auf einem Oberflächenbereich im Fahrgastraum des Kraftwagens; Erfassen einer von einem Fahrzeuginsassen ausgeführten Geste; Vergleichen der erfassten Geste mit dem dargestellten Gestensymbol; Auslösen einer dem dargestellten Gestensymbol zugeordneten Funktion des Kraftwagens, falls die ausgeführte Geste des Fahrzeuginsassen mit dem dargestellten Gestensymbol übereinstimmt.
  • Die WO 2017 / 075 611 A1 offenbart ein tragbares System mit einer durch Gesten bedienten Oberfläche zum Tragen beispielsweise am Handgelenk eines Benutzers. Das System umfasst eine Ultraschall-Transceiver-Array-Struktur und kann ein Pico-Projektor-Anzeigeelement zum Anzeigen eines Bildes auf einer Oberfläche umfassen. Eingaben zu anatomischen Merkmalen des Benutzers werden in Form von Ultraschallsignalen empfangen, die einen räumlich-zeitlichen Querschnitt des Handgelenks des Benutzers darstellen, indem Handgelenk-, Finger- und Handhaltungen artikuliert werden, die in Gesten übersetzt werden. Eingaben von Inertial- und anderen Sensoren werden vom System als Teil des Verfahrens und der Vorrichtung zur Identifizierung der Körperhaltung anatomischer Merkmale verwendet. Gesten werden mithilfe eines mathematisch modellierten, simulationsbasierten Satzes biologischer Metriken von Gewebeobjekten erkannt, die in ausführbare Computeranweisungen umgewandelt werden.
  • Vor diesem Hintergrund ist es eine Aufgabe der vorgestellten Erfindung, einem Nutzer eines Fahrzeugs eine ortsunabhängige Steuerung für Funktionen des Fahrzeugs bereitzustellen.
  • Die voranstehend genannte Aufgabe wird gelöst durch den Gegenstand der jeweiligen unabhängigen Patentansprüche.
  • Ausgestaltungen ergeben sich aus der Beschreibung und den beigefügten Patentansprüchen.
  • Es wird somit ein Steuerungssystem für ein Fahrzeug vorgestellt. Das Steuerungssystem umfasst mindestens einen Detektor, mindestens einen Projektor und mindestens eine Recheneinheit.
  • Die mindestens eine Recheneinheit ist dazu konfiguriert, unter Verwendung des mindestens einen Detektors eine von einem Nutzer bereitzustellende Aktivierungsgeste und eine räumliche Position eines die Aktivierungsgeste bereitstellenden Teils, wie bspw. ein Körperteil oder ein Kleidungsteil des Nutzers, insbesondere eine Hand, zu erfassen und in Abhängigkeit einer erfassten Aktivierungsgeste, ein Projektorsteuerungssignal an den mindestens einen Projektor zu übermitteln.
  • Das Projektorsteuerungssignal konfiguriert den mindestens einen Projektor dazu, eine Benutzerschnittstelle an die durch den mindestens einen Detektor erfasste räumliche Position des die Aktivierungsgeste bereitstellenden Teils des Nutzers zu projizieren.
  • Die mindestens eine Recheneinheit ist weiterhin dazu konfiguriert, in Abhängigkeit einer erfassten Aktivierungsgeste und unter Verwendung des mindestens einen Detektors mindestens eine durch den Nutzer auf der Benutzerschnittstelle bereitzustellende Bediengeste zu erfassen. Die mindestens eine Recheneinheit ist weiterhin dazu konfiguriert, mindestens eine Funktion eines mit dem Steuerungssystem verbundenen Fahrzeugs in Abhängigkeit einer jeweiligen erfassten Bediengeste zu steuern.
  • Das vorgestellte Steuerungssystem dient insbesondere dazu, einem Nutzer, der sich frei innerhalb eines Fahrzeugs bewegt, dynamisch bzw. fortlaufend positionsaktualisiert, eine Benutzerschnittstelle bereitzustellen, so dass der Nutzer an jeder Position im Fahrzeug Steuerungsbefehle an das Fahrzeug übermitteln kann, ohne eine Hardwarekomponente zu berühren. Mit anderen Worten, das vorgestellte Steuerungssystem ermöglicht eine Steuerung von Funktionen eines Fahrzeugs, ohne Kontakt zu einer Hardware bzw. einem Steuerungselement des Fahrzeugs. Stattdessen ist vorgesehen, dass eine auf einem Körperteil bzw. einem Kleidungsteil eines Nutzers projizierte Benutzerschnittstelle verwendet bzw. berührt wird, um Steuerungsbefehle zu übermitteln.
  • Dazu ist vorgesehen, dass eine Position zumindest eines Teils eines jeweiligen Nutzers, wie bspw. dessen Hand erfasst und der erfasste Teil des jeweiligen Nutzers zum Bereitstellen einer Benutzerschnittstelle verwendet wird.
  • Zum Bereitstellen der erfindungsgemäß vorgesehenen Benutzerschnittstelle auf einem jeweiligen Teil eines Nutzers wird mittels eines Projektors, wie bspw. einem LCD-Beamer, einem Laserbeamer oder einem DLP-Beamer, eine Projektion erzeugt, die auf einen zuvor erfassten Teil des Nutzers projiziert wird, so dass der Nutzer die auf den Teil des Nutzers projizierte Benutzerschnittstelle wahrnehmen und mit dieser auf dem Teil des Nutzers interagieren kann. Bspw. kann der Nutzer mittels eines Zeigefingers seiner linken Hand mit einer auf seine rechte Hand projizierten Benutzerschnittstelle interagieren und bspw. Steuerungssymbole aktivieren, indem der Zeigefinger an die Position eines jeweiligen Steuerungssymbols der Benutzerschnittstelle geführt wird und dort bspw. für einen vorgegebenen Zeitraum verweilt.
  • Unter einer Benutzerschnittstelle ist im Kontext der vorgestellten Erfindung eine Darstellung von mindestens einem Steuerungssymbol, das mindestens einer Funktion eines jeweiligen Fahrzeugs zugewiesen ist, zu verstehen.
  • Es ist insbesondere vorgesehen, dass die mindestens eine erfindungsgemäß vorgesehene Recheneinheit des vorgestellten Steuerungssystems den mindestens einen Projektor derart steuert, dass die von dem mindestens einen Projektor bereitgestellte Benutzerschnittstelle, die ggf. aus einer Vielzahl an Teilen bzw. Projektionsflächen bestehen kann, einer Bewegung eines jeweiligen Teils eines Nutzers, auf den die Benutzerschnittstelle zu projizieren ist, nachgeführt wird. Eine solche Nachführung hat den Effekt, dass die Benutzerschnittstelle einer Bewegung des Nutzers dynamisch folgt, wodurch der Nutzer sich frei bewegen kann, ohne die Kontrolle über jeweilige Funktionen des Fahrzeugs zu verlieren.
  • In einer möglichen Ausgestaltung des vorgestellten Steuerungssystems ist vorgesehen, dass die mindestens eine Recheneinheit dazu konfiguriert ist, eine jeweilige Aktivierungsgeste anhand eines Abgleichs von durch den mindestens einen Detektor ermittelten Sensorwerten mit jeweiligen in einer Liste hinterlegten Aktivierungsgesten zugeordneten Sensorwerten zu erkennen und bei positiver Erkennung einer Aktivierungsgeste ein Detektorsteuerungssignal für den mindestens einen Detektor bereitzustellen, das den mindestens einen Detektor dazu konfiguriert, mindestens eine durch den Nutzer auf der Benutzerschnittstelle bereitzustellende Bediengeste zu erfassen und entsprechende Sensorwerte, die die Bediengeste abbilden, für die mindestens eine Recheneinheit bereitzustellen. Entsprechend werden die Sensorwerte bspw. an die mindestens eine Recheneinheit übertragen oder von der mindestens einen Recheneinheit aus bspw. einem Speicher ausgelesen.
  • Um eine jeweilige Benutzerschnittstelle lediglich bei Bedarf bereitzustellen, ist vorgesehen, dass die Benutzerschnittstelle lediglich in Abhängigkeit einer Aktivierungsgeste bereitgestellt wird. Dazu kann bspw. vorgesehen sein, dass ein Nutzer eine vorgegebene Aktivierungsgeste, wie bspw. eine Drehung seiner Hand um ihre Vertikalachse durchführt. Diese Bewegung wird durch den erfindungsgemäß vorgesehenen mindestens einen Detektor erfasst. Weiterhin werden entsprechende Sensorwerte, die die Aktivierungsgeste abbilden, durch den mindestens einen Detektor für die mindestens eine Recheneinheit bereitgestellt. Entsprechend werden die Sensorwerte bspw. an die mindestens eine Recheneinheit übertragen oder von der mindestens einen Recheneinheit aus bspw. einem Speicher ausgelesen.
  • Anhand jeweiliger von dem mindestens einen erfindungsgemäß vorgesehenen Detektor bereitgestellter Sensorwerte ermittelt die mindestens eine erfindungsgemäß vorgesehene Recheneinheit das Vorliegen einer Aktivierungsgeste, indem die Sensorwerte mit vorgegebenen Sensorwerten aus bspw. einer Tabelle bzw. Liste abgeglichen werden. Dabei kann die Tabelle eine Vielzahl Sensorwerte für eine Vielzahl Aktivierungsgesten umfassen. Ferner kann die Tabelle in einem Kalibrierungsprozess nutzerspezifisch bereitgestellt werden.
  • Sobald die mindestens eine Recheneinheit eine jeweilige Aktivierungsgeste erkennt, d. h. jeweilige durch den mindestens einen Detektor bereitgestellte Sensorwerte als innerhalb eines Wertebereichs liegend erkannt werden, der einer jeweiligen Aktivierungsgeste zugeordnet ist, wird durch die mindestens eine Recheneinheit ein Projektorsteuerungssignal für den Projektor bereitgestellt, das den mindestens einen Projektor aktiviert und zur Projektion der Benutzerschnittstelle an eine durch den mindestens einen Detektor erfasste räumliche Position des die Aktivierungsgeste bereitstellenden Teils des Nutzers konfiguriert.
  • In einer weiteren möglichen Ausgestaltung des vorgestellten Steuerungssystems ist vorgesehen, dass die mindestens eine Recheneinheit weiterhin dazu konfiguriert ist, jeweilige durch den mindestens einen Detektor in Reaktion auf das Detektorsteuerungssignal erfasste Sensorwerte mit Sensorwerten einer vorgegebenen Liste an jeweiligen Bediengesten zugeordneten Sensorwerten abzugleichen und bei positiver Erkennung einer Bediengeste ein entsprechendes gemäß einer Zuordnungstabelle für die erkannte Bediengeste vorgesehenes Steuerungssignal für mindestens eine entsprechende Funktion des Fahrzeugs zu erzeugen.
  • Insbesondere ist die mindestens eine Recheneinheit dazu konfiguriert, in Reaktion auf eine erkannte Aktivierungsgeste unter Verwendung des mindestens einen Detektors mindestens eine durch den Nutzer auf der Benutzerschnittstelle bereitzustellende Bediengeste zu erfassen. Dies bedeutet, dass von dem mindestens einen Detektor ermittelte Sensorwerte durch die mindestens eine Recheneinheit mit Sensorwerten aus einer Tabelle abgeglichen werden. Für den Fall, dass jeweilige durch den mindestens einen Detektor ermittelte Sensorwerte in einem Wertebereich liegen, der durch die Tabelle einer jeweiligen Bediengeste zugeordnet ist, d. h. der Nutzer bspw. seinen Zeigefinger auf ein Steuerungssymbol bewegt hat, erzeugt die mindestens eine Recheneinheit einen Steuerungsbefehl zum Steuern einer der jeweiligen Bediengeste zugeordneten Funktion eines jeweiligen Fahrzeugs. Dazu kann die mindestens eine Recheneinheit direkt auf jeweilige Komponenten des Fahrzeugs zugreifen oder den Steuerungsbefehl an ein zwischengeschaltetes Steuerungsgerät, wie bspw. ein Steuerungsgerät eines Entertainmentsystems, übermitteln. Entsprechend dient die erfindungsgemäß vorgesehene Benutzerschnittstelle als Fernbedienung für das Fahrzeug.
  • In einer weiteren möglichen Ausgestaltung des vorgestellten Steuerungssystems ist vorgesehen, dass die mindestens eine Recheneinheit weiterhin dazu konfiguriert ist, in Abhängigkeit einer bezüglich der projizierten Benutzerschnittstelle relativen räumlichen Position und einer Verweildauer eines Bedienobjekts beim Bereitstellen einer Bediengeste durch einen Nutzer, einer jeweilige Bediengeste eine entsprechende Funktion zuzuordnen.
  • Unter einem Bedienobjekt ist im Kontext der vorgestellten Erfindung ein Objekt zum Aktivieren von Steuerungssymbolen auf der erfindungsgemäß vorgesehenen Benutzerschnittstelle zu verstehen. Ein Bedienobjekt kann bspw. ein Finger oder ein Stift sein.
  • Unter einer relativen räumlichen Position eines Bedienobjekts ist im Kontext der vorgestellten Erfindung eine Position eines Bedienobjekts zu verstehen, die relativ zu der erfindungsgemäß vorgesehenen Benutzerschnittstelle festgelegt ist bzw. bestimmt wird. Insbesondere ist unter einer relativen räumlichen Position eines Bedienobjekts eine zumindest teilweise Überlagerung der Benutzerschnittstelle durch das Bedienobjekt an einer bestimmten Stelle zu verstehen.
  • In einer weiteren möglichen Ausgestaltung des vorgestellten Steuerungssystems ist vorgesehen, dass die mindestens eine Recheneinheit dazu konfiguriert ist, den mindestens einen Detektor zum Erfassen einer von einem Nutzer bereitzustellenden Aktivierungsgeste in Abhängigkeit eines Aktivierungsbefehls zu aktivieren, wobei die mindestens eine Recheneinheit weiterhin dazu konfiguriert ist, den Aktivierungsbefehl mittels einer Eingabemethode der folgenden Liste an Eingabemethoden zu erfassen: Spracheingabe, Eingabe mittels Tastenelement, Eingabe mittels einer berührungsempfindlichen Fläche, Eingabe mittels eines mit der mindestens einen Recheneinheit verbundenen Endgeräts.
  • Um einem Nutzer, der sich außerhalb eines Zugriffsbereichs auf jeweilige Eingabeelemente eines Fahrzeugs befindet, eine komfortable Aktivierung des vorgestellten Steuerungssystems bzw. des vorgestellten Verfahrens zu ermöglichen, kann es vorgesehen sein, den mindestens einen Detektor zum Erfassen einer von einem Nutzer bereitzustellenden Aktivierungsgeste in Abhängigkeit eines Aktivierungsbefehls zu aktivieren. Dazu kann der Aktivierungsbefehl über sämtliche technisch geeigneten Fernbedienungskanäle, wie bspw. durch Spracheingabe oder mittels einer Fernbedienung bereitgestellt werden.
  • In dem vorgestellten Steuerungssystem ist vorgesehen, dass die mindestens eine Recheneinheit dazu konfiguriert ist, den mindestens einen Detektor zum Erfassen einer von einem Nutzer bereitzustellenden Aktivierungsgeste automatisch zu aktivieren, wenn das Fahrzeug von einem manuellen Fahrbetrieb in einen zumindest teilweise automatisierten Fahrbetrieb schaltet.
  • Außerdem ist vorgesehen, dass die mindestens eine Recheneinheit dazu konfiguriert ist, den mindestens Projektor in Abhängigkeit von durch den mindestens einen Detektor ermittelten Sensordaten zu steuern und, dadurch bedingt, eine jeweilige von dem mindestens einen Projektor erzeugte Projektion einer Bewegung des die Aktivierungsgeste bereitstellenden Teils des Nutzers nachzuführen.
  • Ferner betrifft die vorgestellte Erfindung ein Fahrzeug, das mit einer möglichen Ausgestaltung des vorgestellten Steuerungssystems ausgestattet ist, wobei der mindestens eine Detektor und/oder der mindestens eine Projektor in einem Dachhimmel des Fahrzeugs, in einem Verkleidungselement des Fahrzeugs oder in einem Interieurelement des Fahrzeugs integriert ist bzw. sind.
  • Insbesondere ist vorgesehen, dass das vorgestellte Steuerungssystem auf mindestens ein Steuerungsgerät des Fahrzeugs zugreifen kann, um einen Status eines Fahrbetriebs des Fahrzeugs zu erfassen und ggf. beim Aktivieren eines zumindest teilweise autonomen Fahrbetriebs des Fahrzeugs zumindest den mindestens einen Detektor zu aktivieren.
  • Das vorgestellte Steuerungssystem dient insbesondere zur Steuerung des vorgestellten Fahrzeugs.
  • Ferner betrifft die vorgestellte Erfindung ein Verfahren zum Steuern mindestens einer Funktion eines Fahrzeugs durch einen Nutzer, bei dem
    • - in einem ersten Schritt mittels mindestens einer Recheneinheit unter Verwendung mindestens eines Detektors eine von dem Nutzer bereitgestellte Aktivierungsgeste und eine räumliche Position eines die Aktivierungsgeste bereitstellenden Teils des Nutzers erfasst wird,
    • - in einem zweiten Schritt mittels der mindestens einen Recheneinheit in Abhängigkeit der in dem ersten Schritt erfassten Aktivierungsgeste, ein Projektorsteuerungssignal an mindestens einen Projektor übermittelt wird,
    • - in einem dritten Schritt in Reaktion auf ein Bereitstellen des Projektorsteuerungssignals der mindestens eine Projektor eine Benutzerschnittstelle an eine, bspw. in dem ersten Schritt durch den mindestens einen Detektor erfasste, räumliche Position des die Aktivierungsgeste bereitstellenden Teils des Nutzers projiziert,
    • - in einem vierten Schritt die mindestens eine Recheneinheit weiterhin dazu verwendet wird in Abhängigkeit der im ersten Schritt erfassten Aktivierungsgeste und unter Verwendung des mindestens einen Detektors mindestens eine durch den Nutzer auf der Benutzerschnittstelle bereitzustellende Bediengeste zu erfassen, und
    • - in einem fünften Schritt die mindestens eine Recheneinheit weiterhin dazu verwendet wird, mindestens eine Funktion eines mit dem Steuerungssystem verbundenen Fahrzeugs in Abhängigkeit der in dem vierten Schritt erfassten Bediengeste zu steuern.
  • Das vorgestellte Verfahren dient insbesondere zur Steuerung des vorgestellten Fahrzeugs mittels des vorgestellten Steuerungssystems.
  • In dem vorgestellten Verfahren ist vorgesehen, dass in dem dritten Schritt die durch den mindestens einen Detektor erfasste räumliche Position des die Aktivierungsgeste bereitstellenden Teils des Nutzers, insbesondere in einer Zeit nachdem die Aktivierungsgeste bereitgestellt wurde, fortlaufend aktualisiert wird.
  • Eine fortlaufend aktualisierte räumliche Position des die Aktivierungsgeste bereitstellenden Teils des Nutzers ermöglicht ein fortlaufendes präzises Nachführen einer jeweiligen bereitzustellenden Benutzerschnittstelle zu einer Bewegung des die Aktivierungsgeste bereitstellenden Teils des Nutzers.
  • Es versteht sich, dass die voranstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
  • Die Erfindung ist anhand einer Ausführungsform in den Zeichnungen schematisch dargestellt und wird unter Bezugnahme auf die Zeichnungen schematisch und ausführlich beschrieben.
    • 1 zeigt eine mögliche Ausgestaltung des erfindungsgemäßen Steuerungssystems.
    • 2 zeigt eine mögliche Ausgestaltung der erfindungsgemäß vorgesehenen Benutzerschnittstelle.
    • 3 zeigt eine mögliche Ausgestaltung des erfindungsgemäßen Fahrzeugs.
    • 4 zeigt eine mögliche Ausgestaltung des erfindungsgemäßen Verfahrens.
  • In 1 ist eine mögliche Ausgestaltung des vorgestellten Steuerungssystems 100 dargestellt.
  • Das Steuerungssystem 100 umfasst einen Detektor 101, einen Projektor 103 und eine Recheneinheit 105.
  • Das Steuerungssystem 100 ist zum Einsatz in einem Fahrzeug konfiguriert.
  • Der Detektor 101 ist dazu konfiguriert, einen Innenraum des Fahrzeugs abzutasten und mögliche Bewegungen eines Nutzers innerhalb des Fahrzeugs zu erfassen. Insbesondere ist der Detektor 101 dazu konfiguriert, Sensorwerte, die einer erfassten Bewegung eines Nutzers entsprechen, für die Recheneinheit 105 bereitzustellen. Dies bedeutet, der Detektor 101 kann die Sensorwerte an die Recheneinheit 105 übermitteln oder die Recheneinheit 105 kann die Sensorwerte von dem Detektor 101 abfragen bzw. herunterladen. Dazu können der Detektor 101 und die Recheneinheit 105 jeweils einen Speicher umfassen.
  • Der Detektor 101 kann bspw. als Laserscanner, als optische Kamera oder als jedes weitere technische geeignete Positionserfassungsgerät ausgestaltet sein. Der Detektor 101 kann als integraler Bestandteil des Projektors 103 ausgestaltet sein. Insbesondere kann der Detektor 101 als Kamerasystem mit integrierter Gestenerkennung ausgestaltet sein. In diesem Fall ist zumindest ein Teil der Recheneinheit 105 als integraler Bestandteil des Detektors 101 ausgestaltet.
  • Der Projektor 103 ist dazu konfiguriert, eine Benutzerschnittstelle auf einen Teil eines Nutzers zu projizieren. Der Projektor 103 kann als integraler Bestandteil des Detektors 101 ausgestaltet sein.
  • Die Recheneinheit 105 ist dazu konfiguriert, von dem Detektor 101 bereitgestellte Sensorwerte auszuwerten, d. h. bspw. die von dem Detektor 101 bereitgestellten Sensorwerte mit in einer Zuordnungstabelle vorgegebenen Sensorwerten abzugleichen und, dadurch bedingt, auf das Bereitstellen einer Aktivierungsgeste und/oder einer Bediengeste durch einen Nutzer zu schließen. Dazu kann die Recheneinheit 105 bspw. einen maschinellen Lerner, insbesondere ein künstliches neuronales Netzwerk oder eine sogenannte „Support Vector Machine“ einsetzen.
  • Entsprechend ist die Recheneinheit 105 dazu konfiguriert, eine Bewegung des Nutzers, die relativ zu einer durch den Projektor 103 bereitgestellten Benutzerschnittstelle ausgeführt wird, einem Steuerungsbefehl zuzuordnen und eine dem Steuerungsbefehl zugeordnete Funktion des Fahrzeugs zu steuern bzw. den Steuerungsbefehl an das Fahrzeug zu übermitteln.
  • Um eine Eingabe unter Verwendung des Steuerungssystems 100 durchzuführen bzw. einen Steuerungsbefehl an ein jeweiliges Fahrzeug zu übermitteln, kann das Steuerungssystem 100 bspw. einen Status eines Fahrmodus des Fahrzeugs durch die Recheneinheit 105 ermitteln, und das Steuerungssystem 100 in Reaktion auf eine Aktivierung eines zumindest teilautonomen Fahrbetriebs in einen aktivierten Betriebsmodus schalten, in dem bspw. der Detektor 101 aktiviert wird.
  • Ferner ist die Recheneinheit 105 dazu konfiguriert, den Projektor 103 dann zu steuern bzw. ein Projektorsteuerungssignal bereitzustellen, das den Projektor 103 dazu konfiguriert, die Benutzerschnittstelle zu projizieren, wenn durch den Detektor 101 Sensorwerte bereitgestellt werden, die einer Aktivierungsgeste entsprechen bzw. einer Aktivierungsgeste zuzuordnen sind.
  • Eine Aktivierungsgeste kann bspw. eine Drehbewegung einer Hand des Nutzers um deren Vertikalachse sein.
  • In 2 ist eine Benutzerschnittstelle 200 dargestellt, die auf einen Teil 211 eines Nutzers, in diesem Fall eine Hand, projiziert ist.
  • Die Benutzerschnittstelle wird bspw. durch das Steuerungssystem 100, wie es in 1 dargestellt ist, bereitgestellt.
  • Die Benutzerschnittstelle 200 umfasst Steuerungssymbole 201, 203, 205 und 207, die jeweils unterschiedlichen Funktionen eines Fahrzeugs zugeordnet sind.
  • Um eine dem Steuerungssymbol 201 zugeordnete Funktion des Fahrzeugs zu aktivieren, führt der Nutzer ein Bedienobjekt 209, wie bspw. seinen Finger oder einen Stift, auf das Steuerungssymbol 201, so dass das Bedienobjekt 209 das Steuerungssymbol 201 zumindest teilweise überlagert.
  • Der Detektor 101 erfasst die Überlagerungsbewegung des Steuerungssymbols 201 durch das Bedienobjekt 209 und stellt entsprechende Sensorwerte für die Recheneinheit 105 bereit. Die Recheneinheit 105 gleicht die Sensorwerte mit einer Zuordnungstabelle ab und prüft, ob die bereitgestellten Sensorwerte in einem vorgegebenen Bereich, der einer jeweiligen Bediengeste zugeordnet ist, liegen. Für den Fall, das die Sensorwerte in einem Bereich liegen, der einer jeweiligen Bediengeste zugeordnet ist, wird die jeweilige Bediengeste als erkannt gewertet. Vorliegend entsprechen die Sensorwerte der Bediengeste „Überlagerung von Steuerungssymbol 201“.
  • Sobald eine jeweilige Bediengeste als erkannt gewertet wird, erzeugt die Recheneinheit 105 einen der Bediengeste bspw. durch eine weitere Zuordnungstabelle der Bediengeste zugeordneten Steuerungsbefehl für eine Funktion, vorliegend eine Wiedergabe einer Audiodatei durch ein Entertainmentsystem des Fahrzeugs und übermittelt den Steuerungsbefehl an das Fahrzeug.
  • In 3 ist ein Fahrzeug 300 dargestellt.
  • In dem Fahrzeug 300 ist das Steuerungssystem 100, wie es in 1 dargestellt ist, angeordnet.
  • Der Detektor 101 und der Projektor 103 befinden sich als funktionale Einheit in einem Dachhimmel 301 des Fahrzeugs 300. Entsprechend können der Detektor 101 und der Projektor 103 einen Großteil eines Innenraums des Fahrzeugs 300 bzgl. der Erfassung von Sensorwerten bzw. bzgl. des Projizierens der Benutzerschnittstelle abdecken.
  • In 4 ist ein Ablauf einer möglichen Ausgestaltung des vorgestellten Verfahrens 400 unter Verwendung des Steuerungssystem 100, wie es bzgl. 1 beschrieben ist, dargestellt.
  • In einem ersten Schritt 401 wird mittels der Recheneinheit 105 unter Verwendung des Detektors 101 eine von dem Nutzer bereitgestellte Aktivierungsgeste und eine räumliche Position eines die Aktivierungsgeste bereitstellenden Teils des Nutzers erfasst.
  • In einem zweiten Schritt 403 wird mittels der Recheneinheit 105 in Abhängigkeit der in dem ersten Schritt 401 erfassten Aktivierungsgeste, ein Projektorsteuerungssignal an den Projektor 103 übermittelt.
  • In einem dritten Schritt 405 wird in Reaktion auf ein Bereitstellen des Projektorsteuerungssignals durch den Projektor 103 eine Benutzerschnittstelle an eine durch den Detektor 101 erfasste räumliche Position des die Aktivierungsgeste bereitstellenden Teils des Nutzers projiziert.
  • In einem vierten Schritt 407 wird die mindestens eine Recheneinheit 105 weiterhin dazu verwendet, in Abhängigkeit der in dem ersten Schritt 401 erfassten Aktivierungsgeste und unter Verwendung des mindestens einen Detektors 101 mindestens eine durch den Nutzer auf der Benutzerschnittstelle bereitzustellende Bediengeste zu erfassen.
  • In einem fünften Schritt 409 wird die mindestens eine Recheneinheit 105 weiterhin dazu verwendet, mindestens eine Funktion eines mit dem Steuerungssystem verbundenen Fahrzeugs in Abhängigkeit einer in dem vierten Schritt 407 erfassten Bediengeste zu steuern.
  • Die Verfahrensschritte von dem ersten Schritt 401 bis zu dem fünften Schritt 409 können insbesondere zeitlich aufeinanderfolgend durchgeführt werden.
  • Bezugszeichenliste
  • 100
    Steuerungssystem
    101
    Detektor
    103
    Projektor
    105
    Recheneinheit
    200
    Benutzerschnittstelle
    201
    erstes Steuerungssymbol
    203
    zweites Steuerungssymbol
    205
    drittes Steuerungssymbol
    207
    viertes Steuerungssymbol
    209
    Bedienobjekt
    211
    Teil eines Nutzers
    300
    Fahrzeug
    301
    Dachhimmel
    400
    Ablaufdiagramm
    401
    erster Schritt
    403
    zweiter Schritt
    405
    dritter Schritt
    407
    vierter Schritt
    409
    fünfter Schritt

Claims (8)

  1. Steuerungssystem (100) für ein Fahrzeug (300), wobei das Steuerungssystem mindestens umfasst: - mindestens einen Detektor (101), - mindestens einen Projektor (103), - mindestens eine Recheneinheit (105), wobei die mindestens eine Recheneinheit dazu konfiguriert ist, unter Verwendung des mindestens einen Detektors eine von einem Nutzer bereitzustellende Aktivierungsgeste und eine räumliche Position eines die Aktivierungsgeste bereitstellenden Teils des Nutzers zu erfassen, wobei die mindestens eine Recheneinheit weiterhin dazu konfiguriert ist, in Abhängigkeit einer erfassten Aktivierungsgeste, ein Projektorsteuerungssignal an den mindestens einen Projektor zu übermitteln, wobei das Projektorsteuerungssignal den mindestens einen Projektor dazu konfiguriert, eine Benutzerschnittstelle (200) an die durch den mindestens einen Detektor erfasste räumliche Position des die Aktivierungsgeste bereitstellenden Teils des Nutzers zu projizieren, wobei die mindestens eine Recheneinheit weiterhin dazu konfiguriert ist, in Abhängigkeit einer erfassten Aktivierungsgeste, unter Verwendung des mindestens einen Detektors mindestens eine durch den Nutzer auf der Benutzerschnittstelle bereitgestellte Bediengeste zu erfassen, und wobei die mindestens eine Recheneinheit weiterhin dazu konfiguriert ist, mindestens eine Funktion eines mit dem Steuerungssystem verbundenen Fahrzeugs in Abhängigkeit einer jeweiligen erfassten Bediengeste zu steuern, und wobei die mindestens eine Recheneinheit dazu konfiguriert ist, den mindestens einen Detektor zum Erfassen einer von einem Nutzer bereitzustellenden Aktivierungsgeste automatisch zu aktivieren, wenn das Fahrzeug von einem manuellen Fahrbetrieb in einen zumindest teilweise automatisierten Fahrbetrieb schaltet, und wobei die mindestens eine Recheneinheit dazu konfiguriert ist, den mindestens einen Projektor in Abhängigkeit von durch den mindestens einen Detektor ermittelten Sensorwerten zu steuern und, dadurch bedingt, eine jeweilige von dem mindestens einen Projektor erzeugte Projektion einer Bewegung des die Aktivierungsgeste bereitstellenden Teils des Nutzers nachzuführen.
  2. Steuerungssystem nach Anspruch 1, wobei die mindestens eine Recheneinheit dazu konfiguriert ist, eine jeweilige Aktivierungsgeste anhand eines Abgleichs von durch den mindestens einen Detektor ermittelten Sensorwerten mit einer vorgegebenen Liste an jeweiligen Aktivierungsgesten zugeordneten Sensorwerten zu erkennen und bei positiver Erkennung einer Aktivierungsgeste ein Detektorsteuerungssignal für den mindestens einen Detektor bereitzustellen, das den mindestens einen Detektor dazu konfiguriert, mindestens eine durch den Nutzer auf der Benutzerschnittstelle bereitgestellte Bediengeste zu erfassen und entsprechende Sensorwerte der mindestens einen Recheneinheit bereitzustellen.
  3. Steuerungssystem nach Anspruch 2, wobei die mindestens eine Recheneinheit weiterhin dazu konfiguriert ist, jeweilige durch den mindestens einen Detektor in Reaktion auf das Detektorsteuerungssignal ermittelte Sensorwerte mit Sensorwerten einer vorgegebenen Liste an jeweiligen Bediengesten zugeordneten Sensorwerten abzugleichen und bei positiver Erkennung einer Bediengeste ein entsprechendes gemäß einer Zuordnungstabelle für die erkannte Bediengeste vorgesehenes Steuerungssignal für mindestens eine entsprechende Funktion des Fahrzeugs zu erzeugen.
  4. Steuerungssystem nach einem der voranstehenden Ansprüche, wobei die mindestens eine Recheneinheit weiterhin dazu konfiguriert ist, in Abhängigkeit einer bezüglich der projizierten Benutzerschnittstelle relativen räumlichen Position und einer Verweildauer eines Bedienobjekts (209) beim Bereitstellen einer Bediengeste durch einen Nutzer, einer jeweiligen Bediengeste eine entsprechende Funktion zuzuordnen.
  5. Steuerungssystem nach einem der voranstehenden Ansprüche, wobei die mindestens eine Recheneinheit dazu konfiguriert ist, den mindestens einen Detektor zum Erfassen einer von einem Nutzer bereitzustellenden Aktivierungsgeste in Abhängigkeit eines Aktivierungsbefehls zu aktivieren, wobei die mindestens eine Recheneinheit dazu konfiguriert ist, den Aktivierungsbefehl mittels einer Eingabemethode der folgenden Liste an Eingabemethoden zu erfassen: Spracheingabe, Eingabe mittels Tastenelement, Eingabe mittels einer berührungsempfindlichen Fläche, Eingabe mittels eines mit der mindestens einen Recheneinheit verbundenen Endgeräts.
  6. Steuerungssystem nach einem der voranstehenden Ansprüche, wobei der mindestens eine Projektor als LCD-Projektor und/oder DLP-Projektor und/oder Laserbeamer ausgestaltet ist.
  7. Fahrzeug (300) mit einem Steuerungssystem nach einem der Ansprüche 1 bis 6, wobei der mindestens eine Detektor und/oder der mindestens eine Projektor in einem Dachhimmel (301) des Fahrzeugs, in einem Verkleidungselement des Fahrzeugs oder in einem Interieurelement des Fahrzeugs integriert ist bzw. sind.
  8. Verfahren zum Steuern mindestens einer Funktion eines Fahrzeugs (300) durch einen Nutzer, bei dem - in einem ersten Schritt mittels mindestens einer Recheneinheit (105) unter Verwendung mindestens eines Detektors (101) eine von dem Nutzer bereitgestellte Aktivierungsgeste und eine räumliche Position eines die Aktivierungsgeste bereitstellenden Teils des Nutzers erfasst wird, - in einem zweiten Schritt mittels der mindestens einen Recheneinheit in Abhängigkeit der in dem ersten Schritt erfassten Aktivierungsgeste, ein Projektorsteuerungssignal an mindestens einen Projektor (103) übermittelt wird, - in einem dritten Schritt in Reaktion auf ein Bereitstellen des Projektorsteuerungssignals der mindestens eine Projektor eine Benutzerschnittstelle (200) an eine durch den mindestens einen Detektor erfasste räumliche Position des die Aktivierungsgeste bereitstellenden Teils des Nutzers projiziert, wobei die durch den mindestens einen Detektor erfasste räumliche Position des die Aktivierungsgeste bereitstellenden Teils des Nutzers fortlaufend aktualisiert wird, - in einem vierten Schritt die mindestens eine Recheneinheit weiterhin dazu verwendet wird in Abhängigkeit der im ersten Schritt erfassten Aktivierungsgeste und unter Verwendung des mindestens einen Detektors mindestens eine durch den Nutzer auf der Benutzerschnittstelle bereitzustellende Bediengeste zu erfassen, und - in einem fünften Schritt die mindestens eine Recheneinheit weiterhin dazu verwendet wird, mindestens eine Funktion eines mit dem Steuerungssystem verbundenen Fahrzeugs in Abhängigkeit einer in dem vierten Schritt erfassten Bediengeste zu steuern.
DE102018220693.7A 2018-11-30 2018-11-30 Steuerungssystem und Verfahren zum Steuern einer Funktion eines Fahrzeugs, sowie Fahrzeug mit einem solchen Active DE102018220693B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018220693.7A DE102018220693B4 (de) 2018-11-30 2018-11-30 Steuerungssystem und Verfahren zum Steuern einer Funktion eines Fahrzeugs, sowie Fahrzeug mit einem solchen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018220693.7A DE102018220693B4 (de) 2018-11-30 2018-11-30 Steuerungssystem und Verfahren zum Steuern einer Funktion eines Fahrzeugs, sowie Fahrzeug mit einem solchen

Publications (2)

Publication Number Publication Date
DE102018220693A1 DE102018220693A1 (de) 2020-06-04
DE102018220693B4 true DE102018220693B4 (de) 2022-08-18

Family

ID=70681335

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018220693.7A Active DE102018220693B4 (de) 2018-11-30 2018-11-30 Steuerungssystem und Verfahren zum Steuern einer Funktion eines Fahrzeugs, sowie Fahrzeug mit einem solchen

Country Status (1)

Country Link
DE (1) DE102018220693B4 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020202762A1 (de) 2020-03-04 2021-09-09 Volkswagen Aktiengesellschaft Projektionsvorrichtung
CN117093078B (zh) * 2023-10-16 2024-01-16 潍坊幻视软件科技有限公司 三维空间中使用手进行输入的系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004034699A1 (en) 2002-10-10 2004-04-22 Hewlett-Packard Development Company L. P. A wearable imaging device
EP2889733A1 (de) 2012-08-27 2015-07-01 Citizen Holdings Co., Ltd. Informationseingabevorrichtung
DE102014001183A1 (de) 2014-01-30 2015-07-30 Audi Ag Verfahren und System zum Auslösen wenigstens einer Funktion eines Kraftwagens
EP3176675A1 (de) 2014-07-30 2017-06-07 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE102016120995A1 (de) 2016-11-03 2018-05-03 Visteon Global Technologies, Inc. Benutzerschnittstelle und Verfahren zur Eingabe und Ausgabe von Informationen in einem Fahrzeug

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11106273B2 (en) * 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004034699A1 (en) 2002-10-10 2004-04-22 Hewlett-Packard Development Company L. P. A wearable imaging device
EP2889733A1 (de) 2012-08-27 2015-07-01 Citizen Holdings Co., Ltd. Informationseingabevorrichtung
DE102014001183A1 (de) 2014-01-30 2015-07-30 Audi Ag Verfahren und System zum Auslösen wenigstens einer Funktion eines Kraftwagens
EP3176675A1 (de) 2014-07-30 2017-06-07 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE102016120995A1 (de) 2016-11-03 2018-05-03 Visteon Global Technologies, Inc. Benutzerschnittstelle und Verfahren zur Eingabe und Ausgabe von Informationen in einem Fahrzeug

Also Published As

Publication number Publication date
DE102018220693A1 (de) 2020-06-04

Similar Documents

Publication Publication Date Title
DE102013010932B4 (de) Verfahren zum Betreiben einer Bedienschnittstelle, Bedienschnittstelle sowie Kraftfahrzeug mit einer Bedienschnittstelle
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
EP2179346B1 (de) Anzeige- und bedienvorrichtung für ein kraftfahrzeug mit einer multi-view-anzeigevorrichtung
DE102011053449A1 (de) Mensch-Maschine-Schnittstelle auf Fingerzeige- und Gestenbasis für Fahrzeuge
DE102017216837A1 (de) Gestik- und Mimiksteuerung für ein Fahrzeug
DE102013201359A1 (de) Verfahren und Vorrichtung zum Steuern eines Werkstattgeräts
DE102017113763B4 (de) Verfahren zum Betreiben einer Anzeigevorrichtung für ein Kraftfahrzeug sowie Kraftfahrzeug
EP3254172B1 (de) Bestimmung einer position eines fahrzeugfremden objekts in einem fahrzeug
DE102018220693B4 (de) Steuerungssystem und Verfahren zum Steuern einer Funktion eines Fahrzeugs, sowie Fahrzeug mit einem solchen
EP2653335A2 (de) Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs
DE102017201799A1 (de) Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Anwenderunterscheidung
WO2014108147A1 (de) Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung
DE102012018685B4 (de) System und Verfahren zur Steuerung von zumindest einem Fahrzeugsystem mittels von einem Fahrer durchgeführter Gesten
DE102013000071A1 (de) Synchronisieren von Nutzdaten zwischen einem Kraftfahrzeug und einem mobilen Endgerät
WO2015162058A1 (de) Gesteninteraktion mit einem fahrerinformationssystem eines fahrzeuges
WO2014108150A2 (de) Bedienschnittstelle für eine handschriftliche zeicheneingabe in ein gerät
DE102016224235A1 (de) Verfahren und Vorrichtung zur Anpassung der Darstellung von Bild- und/oder Bedienelementen auf einer grafischen Benutzerschnittstelle
DE102013000081B4 (de) Bedienschnittstelle zum berührungslosen Auswählen einer Gerätefunktion
DE102013010018B3 (de) Kraftfahrzeug mit einem Fach zum Aufbewahren eines Gegenstands sowie Verfahren zum Betreiben eines Kraftfahrzeugs
DE102022102504B9 (de) Verfahren zum Betreiben einer Schnittstellenvorrichtung in einem Fahrzeug, sowie Schnittstellenvorrichtung und Fahrzeug
DE102022119855B4 (de) Vorrichtung und Verfahren zum Detektieren einer Ablenkung eines Fahrzeugführers
DE102017219155A1 (de) Verfahren zur Funktionsauslösung auf beliebigen Flächen
DE102012216184A1 (de) Komfortable Steuerung von Infotainmenteinrichtungen und/oder Klimaeinrichtungen eines Fahrzeugs von außen
DE102019131944A1 (de) Verfahren zur Steuerung zumindest einer Anzeigeeinheit, Kraftfahrzeug und Computerprogrammprodukt
WO2021004681A1 (de) Verfahren zum betreiben eines bediensystems und bediensystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final