DE102016120995A1 - Benutzerschnittstelle und Verfahren zur Eingabe und Ausgabe von Informationen in einem Fahrzeug - Google Patents

Benutzerschnittstelle und Verfahren zur Eingabe und Ausgabe von Informationen in einem Fahrzeug Download PDF

Info

Publication number
DE102016120995A1
DE102016120995A1 DE102016120995.3A DE102016120995A DE102016120995A1 DE 102016120995 A1 DE102016120995 A1 DE 102016120995A1 DE 102016120995 A DE102016120995 A DE 102016120995A DE 102016120995 A1 DE102016120995 A1 DE 102016120995A1
Authority
DE
Germany
Prior art keywords
vehicle
driver
control element
virtual
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102016120995.3A
Other languages
English (en)
Inventor
Yanning Zhao
Elie Abi Chaaya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Visteon Global Technologies Inc
Original Assignee
Visteon Global Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visteon Global Technologies Inc filed Critical Visteon Global Technologies Inc
Priority to DE102016120995.3A priority Critical patent/DE102016120995A1/de
Priority to PCT/EP2017/078136 priority patent/WO2018083214A1/en
Priority to US16/347,494 priority patent/US20200057546A1/en
Publication of DE102016120995A1 publication Critical patent/DE102016120995A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/213Virtual instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/29Holographic features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/31Virtual images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/658Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the instruments being ergonomically adjustable to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Der Erfindung, welche eine Benutzerschnittstelle und ein Verfahren zur Eingabe und Ausgabe von Informationen in einem Fahrzeug betrifft, liegt die Aufgabe zugrunde, eine Benutzerschnittstelle mit einem dreidimensionalen Bedienelement und ein Verfahren zur Eingabe und Ausgabe von Informationen in einem Fahrzeug anzugeben, mit welchem eine vereinfachte Bedienung von Fahrzeugsystemen und eine Verbesserung der Konzentration des Fahrers auf das Führen des Fahrzeugs erreicht wird. Diese Aufgabe wird anordnungsseitig dadurch gelöst, dass als Bilderzeugungseinheit eine mindestens ein virtuelles dreidimensionales Bedienelement erzeugende Laserprojektionseinheit und als Mittel zur Detektion einer Eingabe ein Mittel zur Gestenerkennung im Innenraum eines Fahrzeugs angeordnet sind. Die Aufgabe wird verfahrensseitig dadurch gelöst, dass eine Projektion mindestens eines virtuellen dreidimensionalen Bedienelements mittels einer Laserprojektionsanordnung im Sichtbereich eines Fahrers und im Innenraum eines Fahrzeugs erfolgt, dass eine Erkennung einer Geste des Fahrers durch ein Mittel zur Gestenerkennung durchgeführt wird und dass bei einer Übereinstimmung einer mittels der Gestenerkennung detektierten Position einer Hand des Fahrers mit dem virtuellen Bedienelement oder einem Bereich des virtuellen Bedienelements ein Signal zur Steuerung eines Fahrzeugsystems oder einer Funktion eines Fahrzeugsystems durch die zentrale Steuer- und Auswerteeinheit erzeugt und an das entsprechende Fahrzeugsystem ausgegeben wird.

Description

  • Die Erfindung betrifft eine Benutzerschnittstelle, welche eine Anordnung zur Bilderzeugung sowie zur Darstellung von Bildern und Informationen, sowie ein Mittel zur Detektion einer Eingabe umfasst, wobei die Anordnung und das Mittel mit einer zentralen Steuer- und Auswerteeinheit verbunden sind.
  • Die Erfindung betrifft auch ein Verfahren zur Eingabe und Ausgabe von Informationen in einem Fahrzeug, bei welchem Informationen mittels einer Anordnung zur Bilderzeugung ausgegeben werden und bei welchem Eingaben eines Fahrers durch ein Mittel zur Detektion einer Eingabe erfasst werden, wobei eine Steuerung der Ausgabe der Informationen und des Erfassens von Eingaben durch eine zentrale Steuereinheit gesteuert wird.
  • Die Erfindung beschreibt Möglichkeiten zur Steuerung einer Maschine, beispielsweise einem Fahrzeug, durch Anweisungen eines Nutzers oder Fahrers über eine Benutzerschnittstelle. Hierbei kann es sich bei einem Fahrzeug um ein beliebiges technisches Gerät zur Fortbewegung handeln, vorzugsweise motorisierte Land-, Luft- oder Wasserfahrzeuge, wie ein Kraftfahrzeug, Lastkraftwagen, Schienenfahrzeug, Flugzeug oder ein Boot.
  • Eine sogenannte Benutzerschnittstelle, auch als Nutzerschnittstelle oder englisch „Human Machine Interface“ (HMI) bezeichnet, bestimmt über die Art und Weise, wie ein Mensch mit einer Maschine kommunizieren kann und umgekehrt. Die Benutzerschnittstelle legt fest, wie der Mensch seine Anweisungen an die Maschine übermittelt, wie die Maschine auf die Nutzereingaben reagiert und in welcher Form die Maschine ihre Rückmeldungen bereitstellt. Derartige Benutzerschnittstellen müssen an die Bedürfnisse und Fähigkeiten eines Menschen angepasst sein und sind meist ergonomisch gestaltet.
  • Moderne Kraftfahrzeuge weisen in der Regel eine Vielzahl von Benutzerschnittstellen auf. Dazu gehören Mittel zur Eingabe von Anweisungen oder Befehlen, wie Pedale, ein Lenkrad, Schalthebel und Blinkerhebel, Schalter, Taster oder über eine Displayoberfläche realisierte Eingabeelemente oder Steuerelemente. Hierzu gehören auch geeignete Mittel zur optischen, akustischen oder haptischen Wahrnehmung oder Rückmeldung, wie Anzeigen für Geschwindigkeit, Reichweite, Fahreinstellungen oder Getriebeeinstellungen, Rundfunkprogramme, Soundeinstellungen, eines Navigationssystems und viele andere.
  • Die Anzahl der möglichen und der zur Steuerung eines Fahrzeugs notwendigen Bedieneingriffe und/oder Anweisungen eines Fahrzeugführers nehmen immer weiter zu. Neben den zur Führung eines Fahrzeugs notwendigen Funktionen, wie Steuern der Richtung und der Geschwindigkeit des Fahrzeugs, existieren immer mehr Möglichkeiten zur Steuerung von Zusatzfunktionen. Derartige Zusatzfunktionen betreffen beispielsweise Fahrzeugsysteme, wie eine Klimaanlage, ein Soundsystem, ein Navigationssystem, Einstellungen möglicher Fahrwerkfunktionen und/oder Getriebefunktionen und andere mehr.
  • Die Vielzahl an Schaltern, Knöpfen, Tasten, Eingabedisplays und anderen Bedienelementen, welche einem Fahrzeugführer zur Verfügung stehen, sowie die Vielfalt an Informations-, Hinweis- und/oder Warnanzeigen im Cockpit eines Fahrzeugs führen zu einer immer größeren Beanspruchung der Aufmerksamkeit des Fahrzeugführers. Gleichzeitig vergrößern sie die Gefahr der Ablenkung des Fahrers und erhöhen somit das Sicherheitsrisiko beim Führen eines Kraftfahrzeugs.
  • Zur Verringerung dieses Sicherheitsrisikos bieten viele Fahrzeughersteller integrierte elektronische Displays mit einer menügeführten Befehlssteuerung für Fahrzeugsysteme an, welche eine breite Palette von Funktionen in einer einzigen Benutzerschnittstelle vereinen.
  • Dabei muss gleichzeitig eine große Anzahl von Informationen und Auswahlmöglichkeiten für den Fahrer im Sichtfeld des Fahrers oder in einem geeignet platzierten Display zur Anzeige gebracht werden, was die Gefahr einer Ablenkung des Fahrers stark erhöht.
  • Neben der Darstellung der Informationen und Auswahlmöglichkeiten müssen auch noch Mittel zur Eingabe oder Auswahl durch den Fahrer im Display oder in Displaynähe bereitgestellt werden, welche vom Fahrer während einer Fahrt bedient werden können. Auch diese Mittel stellen eine potentielle Gefahr für die Sicherheit dar.
  • Da für die Bedienung verschiedenster Fahrzeugsysteme ein gewisses Maß einer Hand-Auge-Koordination des Fahrers erforderlich ist, wird die Konzentration des Fahrers auf das Führen des Fahrzeugs zumindest teilweise beeinträchtigt.
  • Aus dem Stand der Technik ist es auch bekannt, eine Reduzierung der darzustellenden Informationen dadurch zu erreichen, dass nur die in einem bestimmten Zusammenhang stehenden Informationen oder Auswahlmöglichkeiten zur Anzeige gebracht werden. Diese sogenannten kontextsensitiven Informationen oder Auswahlmöglichkeiten sind beispielsweise auf ein einziges Fahrzeugsystem, wie ein Navigationssystem, beschränkt.
  • Aus dem Stand der Technik ist ebenfalls bekannt, einem Benutzer, beispielsweise einem Fahrzeugführer, wie einem Autofahrer oder einem Piloten, mittels eines Head-up Displays Informationen in sein Sichtfeld zu projizieren. Unter einem Head-up Display, auch als HUD abgekürzt, ist ein Anzeigesystem zu verstehen, bei welchem der Benutzer zum Betrachten der angezeigten Informationen die Haltung des Kopfes beziehungsweise die Blickrichtung in der ursprünglichen Ausrichtung im Wesentlichen beibehalten kann. Derartige Head-up Displays weisen im Allgemeinen eine eigene bilderzeugende Einheit, welche die darzustellenden Informationen in Form eines Bilds bereitstellt, ein Optikmodul, welches den Strahlenverlauf innerhalb des Head-up Displays bis zu einer Austrittsöffnung ermöglicht und auch als Spiegeloptik bezeichnet wird, sowie eine Projektionsfläche, zur Darstellung des zu erzeugenden Bildes, auf. Das Optikmodul leitet das Bild auf die Projektionsfläche, welche als eine spiegelnde, lichtdurchlässige Scheibe ausgebildet ist und auch als Combiner bezeichnet wird. In einem besonderen Fall wird als Projektionsfläche eine hierfür geeignete Windschutzscheibe eingesetzt. Der Fahrzeugführer sieht die gespiegelten Informationen der bilderzeugenden Einheit und gleichzeitig die wirkliche Umgebung hinter der Windschutzscheibe. Damit bleibt die Aufmerksamkeit eines Fahrzeugführers, beispielsweise beim Führen eines Kraftfahrzeugs, auf das Geschehen vor dem Fahrzeug gerichtet, während er die in das Sichtfeld projizierten Informationen erfassen kann.
  • Aus der DE 10 2013 011 253 A1 ist eine Anzeigevorrichtung mit zumindest einem ersten Hohlspiegel und einem zweiten Hohlspiegel bekannt, wobei der zweite Hohlspiegel zumindest eine Öffnung aufweist. Weiterhin umfasst die Anzeigevorrichtung einen durch die beiden Hohlspiegel aufgespannten konvexen Hohlraum, ein in dem Hohlraum angeordnetes diffraktives optisches Element mit einer Anzahl von optischen Phasenmodulationszellen, wobei das diffraktive optische Element ein Bild bereitstellt und zumindest eine Lichtquelle zur Beleuchtung der Phasenmodulationszellen des diffraktiven optischen Elements, wobei das diffraktive optische Element derart in dem Hohlraum angeordnet ist, dass von der zumindest einen Lichtquelle ausgehende Strahlung durch die Phasenmodulationszellen moduliert wird, durch die Öffnung in dem zweiten Hohlspiegel austritt und oberhalb der Öffnung innerhalb eines definierten Sichtbereichs ein Bild wiedergibt.
  • Gemäß einem Aspekt der Druckschrift wird ein Fahrzeug mit einer Anzeigevorrichtung nach einem der beschriebenen Ausführungsbeispiele angegeben, bei welchem die Anzeigevorrichtung insbesondere im Bereich eines Armaturenbretts, einer Mittelkonsole oder eines Lenkrads eingebaut sein kann. Die Anzeigevorrichtung kann nicht nur als Anzeige, sondern auch als Ausgabegerät und/oder Eingabegerät dienen.
  • Zudem ist offenbart, dass das holografische Bild zumindest ein Betätigungselement des Fahrzeugs, insbesondere ein Schaltelement und/oder einen Touchscreen, wiedergibt. Das Fahrzeug weist ferner zumindest einen Sensor zur Erfassung einer Eingabe durch einen Benutzer im Sichtbereich des Bildes, eine Auswerteeinheit zur Auswertung der Eingabe und eine Betätigungseinheit zur Betätigung einer Fahrzeugkomponente abhängig von der Eingabe durch den Benutzer auf.
  • Die DE 10 2005 010 843 A1 beschreibt ein Head-up Display in einem Kraftfahrzeug, bei welchem Informationen als bildhafte Meldungen mittels der Windschutzscheibe in das Sichtfeld des Fahrers zur Anzeige gebracht werden, wobei durch eine Aktion des Fahrers die bildhafte Meldung als wiederaufrufbares Icon in einer Iconleiste abgelegt wird. Das beschriebene Head-up Display kann über ein separates Display, welches eine Hologramm darstellen kann, verfügen.
  • In einer Ausführungsform weist das Head-up Display eine Detektionsvorrichtung zur Detektion der haptischen Bewegung des Fahrers auf, welche eine Infrarotdetektion ausführen kann.
  • Aus der DE 10 2004 044 718 A1 ist ein System zum Erzeugen wenigstens einer Augmented Reality Hilfsanweisung für ein Objekt, insbesondere ein Fahrzeug, bekannt. Das System umfasst eine zentrale Steuereinheit, eine mit der zentralen Steuereinheit verbundene Bildwiedergabeeinheit, eine mit dem System wirkverbundene 3D-Datenbank, welche eine Vielzahl von 3D-Datensätzen aufweist, wobei die 3D-Datensätze zusammen ein Modell in drei Dimensionen wenigstens von einem Teil des Objekts repräsentieren. Die zentrale Steuereinheit ist derart ausgebildet, aus wenigstens einem 3D-Datensatz ein 2D-Bildsignal zu erzeugen, wobei das 2D-Bildsignal eine zweidimensionale Abbildung von wenigstens einem Teil des Objekts aus einem zuvor bestimmten Betrachtungswinkel repräsentiert, und das 2D-Bildsignal an die Bildwiedergabeeinheit zu senden.
  • Das System weist dabei eine Benutzerschnittstelle auf, welche derart ausgebildet ist, in Abhängigkeit von einer Benutzerinteraktion ein Benutzerinteraktionssignal zu erzeugen. Die zentrale Steuereinheit ist derart ausgebildet, in Abhängigkeit von dem Benutzerinteraktionssignal mindestens ein, insbesondere grafisches oder akustisches Hilfsanweisungssignal zu erzeugen, wobei das Hilfsanweisungssignal eine Hilfsanweisung und einen räumlichen Ort repräsentiert, wobei der räumliche Ort auf das Modell in drei Dimensionen bezogen ist.
  • Ein Benutzerinteraktionssignal kann beispielsweise durch einen Augenbewegungssensor, einen Joystick, einen Trackball, eine berührungsempfindliche Oberfläche oder durch eine Spracheingabeeinheit erzeugt werden, welche jeweils unabhängig voneinander in einem System verwirklicht sein können.
  • Bei den aus dem Stand der Technik bekannten Systemen wird zur Darstellung der Informationen mindestens ein Display oder ein Head-up Display benötigt. Somit wird die Aufmerksamkeit des Fahrers, mit der Ausnahme der Darstellungen von Informationen in einem Head-up Display, zumindest zeitweise auf einen speziellen Bereich im Fahrzeug gelenkt, wobei hierbei die Wahrnehmung des Verkehrsgeschehens durch den Fahrer reduziert wird.
  • Die Aufgabe der Erfindung besteht somit darin, eine Benutzerschnittstelle mit einem dreidimensionalen Bedienelement und ein Verfahren zur Eingabe und Ausgabe von Informationen in einem Fahrzeug bereitzustellen, mit welchen eine vereinfachte Bedienung von Fahrzeugsystemen und eine Verbesserung der Konzentration des Fahrers auf das Führen des Fahrzeugs erreicht werden.
  • Die Aufgabe wird durch einen Gegenstand mit den Merkmalen gemäß Patentanspruch 1 der selbstständigen Patentansprüche gelöst. Weiterbildungen sind in den abhängigen Patentansprüchen 2 bis 6 angegeben.
  • Die Erfindung stellt eine Benutzerschnittstelle (HMI) bereit, welche dem Fahrer eines Fahrzeugs situationsabhängig dreidimensionale Bedienelemente in sein Sichtfeld im Innenraum des Fahrzeugs, beispielsweise in der Nähe des Lenkrads, projiziert. Mittels dieser dreidimensionalen Bedienelemente kann der Fahrer Fahrzeugsysteme oder Funktionen der Fahrzeugsysteme steuern. Die dreidimensionalen Bedienelemente werden mittels einer holographischen Projektion erzeugt.
  • Die zu steuernden Fahrzeugsysteme können beispielsweise eine Klimaanlage, ein Soundsystem, ein Navigationssystem, eine Steueranordnung für ein Getriebe, Mittel zur Einstellung möglicher Fahrwerkfunktionen und/oder Getriebefunktionen sowie andere mehr sein.
  • Die Erfindung ermöglicht dem Fahrer durch eine Interaktion mit einem dreidimensionalen holografischen Bedienelement beispielsweise ein Fahrzeugsystem, wie eine Klimaanlage, und insbesondere eine Funktion dieses Fahrzeugsystems, wie die Innenraumtemperatur des Fahrzeugs, zu steuern. Eine Beschränkung auf die beispielhaft angegebenen Fahrzeugsysteme oder Funktionen besteht nicht.
  • Da eine derartige holografische Projektion eines dreidimensionalen Bedienelements ohne ein Display oder ein anderes Mittel zur Darstellung eines Bildes erfolgt, kann das dreidimensionale Bedienelement an jeder beliebigen Stelle im Innenraum eines Kraftfahrzeugs, vorzugsweise im Sichtbereich des Fahrers, projiziert werden. Zusätzlich ist auch eine Darstellung von Informationen auf den dreidimensionalen Bedienelementen oder neben diesen möglich.
  • Damit wird es möglich, dem Fahrer beispielsweise zu aktuellen Situationen zugehörige oder mögliche Informationen und dreidimensionale Bedienelemente in seiner Blickrichtung durch eine geeignete Projektion darzustellen. Dies kann vorzugsweise mittels einer Laserprojektion erfolgen, welche sowohl zur Darstellung geometrischer Formen als auch von Zeichen, wie Schriftzeichen, geeignet ist. Eine derartige Projektion kann auch in verschiedenen Farben erfolgen.
  • Die erfindungsgemäße Benutzerschnittstelle ist derart gestaltet, dass eine Bedienaktion des Fahrers, beispielsweise eine Auswahl einer der dargestellten Auswahlmöglichkeiten des dreidimensionalen Bedienelements, durch ein geeignetes Mittel zur Erkennung einer Bewegung oder Geste des Fahrers erkannt und in Form einer Information einer entsprechenden zentralen Steuer- und Auswerteeinheit bereitgestellt wird.
  • Diese zentrale Steuer- und Auswerteeinheit, welche sowohl mit einer Bilderzeugungseinheit zur Projektion eines dreidimensionalen Bedienelements als auch mit einem Mittel zur Erkennung von Gesten des Fahrers verbunden ist, setzt die bereitgestellte Information um und bewirkt eine zur Auswahl des Fahrers zugehörige Reaktion, beispielsweise ein Einschalten oder Ausschalten der entsprechenden Funktion eines Fahrzeugsystems. Für eine derartige Gestenerkennung können bekannte Mittel eingesetzt werden, wie eine im Fahrzeug angebrachte Kamera und eine entsprechende Auswerteeinheit.
  • Zur Erzeugung einer Laserprojektion des dreidimensionalen Bedienelements kann ein Spatial Light Modulator (SLM) ausgebildet sein. Zur Bilderzeugung können beispielsweise Technologien wie Liquid Crystal on Silicon (LcoS), Digital Light Processing (DLP) oder Micro-Electro-Mechanical Systems MEMS eingesetzt werden. Besonders vorteilhaft ist es, dreidimensionale Projektionen oder virtuelle Bilder in einer farbigen Darstellung zu erzeugen.
  • Die Aufgabe wird auch durch ein Verfahren mit den Merkmalen gemäß Patentanspruch 7 der selbstständigen Patentansprüche gelöst. Weiterbildungen sind in den abhängigen Patentansprüchen 8 bis 12 angegeben.
  • Die Erfindung realisiert eine Darstellung holografischer dreidimensionaler Bedienelemente für eine Benutzerschnittstelle zur Steuerung verschiedener Fahrzeugsysteme und ihrer Teilfunktionen in einem Fahrzeug, beispielsweise einem Kraftfahrzeug. Hierzu ist es vorgesehen, ein derartiges dreidimensionales Bedienelement im Sichtbereich des Fahrers zu projizieren. Als Bereich kann vorzugsweise ein Bereich in der Nähe des Lenkrads des Kraftfahrzeugs gewählt werden, wobei keine Beschränkung auf diesen Bereich besteht.
  • Das holografische dreidimensionale Bedienelement erscheint dem Fahrer in dem ausgewählten Bereich schwebend, wobei dieses virtuelle Bild eine Darstellung in einer oder mehreren Farben und unterschiedlichen Formen sein kann. Als Formen für das dreidimensionale Bedienelement sind beispielsweise ein Würfel, eine Kugel, ein Quader, eine Pyramide, ein Tetraeder oder ein Zylinder mit einer kreisförmigen, elliptischen oder n-eckigen Grundfläche und Deckfläche vorgesehen.
  • Wenn der Fahrer seine Hand oder seinen Finger in die Richtung des holografischen dreidimensionalen Bedienelements oder auf das holografische dreidimensionale Bedienelement bewegt, wird die Geste erfasst. Die Gestenerkennung erfolgt derart genau, dass nicht nur eine Übereinstimmung der Position eines Fingers mit dem dreidimensionalen Bedienelement, sondern die genaue Position des Fingers innerhalb des dreidimensionalen Bedienelements oder auf dem dreidimensionalen Bedienelement detektiert wird. Das dreidimensionale Bedienelement kann mehrere Bestandteile aufweisen, welchen verschiedene auswählbare Aktionen zur Steuerung eines oder mehrerer Fahrzeugsysteme zugeordnet werden. Derartige Bestandteile können beispielsweise die Seitenflächen eines als Würfel dargestellten Bedienelements sein. So kann jeder Seitenfläche eine separate Funktion zugeordnet werden.
  • Alternativ können beispielsweise auch auf einer Seitenfläche eines derartigen würfelartigen Bedienelements mehrere Bestandteile angezeigt werden. So können zum Beispiel auf einer Seite des Würfels die Bestandteile „Lauter“ oder „+“ und „Leiser“ oder „-“ zur Steuerung eines Soundsystems zur Anzeige gebracht werden. Der Fahrer kann dann durch eine geeignete Geste, bei welcher er beispielsweise seinen Finger auf die Position des Bestandteils „Lauter“ bewegt, eine der beiden angebotenen Möglichkeiten, also die Funktion zum Erhöhen der Lautstärke des Soundsystems auswählen. Durch das Erkennen dieser Geste wird, gesteuert durch die zentrale Steuer- und Auswerteeinheit, ein Steuersignal erzeugt und an das Soundsystem übertragen, welches zum Erhöhen der Lautstärke führt.
  • Die Bestandteile können auch in der Form einer Taste projiziert werden, welche dann durch die Geste eines die Taste berührenden Fingers ausgewählt wird. Da die zentrale Steuer- und Auswerteeinheit sowohl über die Information über das dargestellte dreidimensionale Bedienelement und seiner Bereiche sowie über die Informationen zu den vom Fahrer vorgenommen Gesten verfügt, ist die zentrale Steuer- und Auswerteeinheit in der Lage, ein entsprechendes Steuersignal zur Steuerung einer oder mehrerer Fahrzeugsysteme oder ihrer Teilfunktionalitäten zu erzeugen.
  • Durch dieses Steuersignal gesteuert kann dann die ausgewählte Funktion, beispielsweise das Einschalten oder Ausschalten eines Soundsystems oder eine Veränderung der Lautstärke des Soundsystems, umgesetzt werden.
  • Das dreidimensionale Bedienelement kann in einem oder mehreren Bereichen auf seiner Oberfläche Bestandteile, wie Textzeichen, Sonderzeichen, Symbole und ebene oder räumliche geometrische Figuren in verschiedenen Farben oder Bilder, aufweisen.
  • Das dreidimensionale Bedienelement zeigt in einem oder mehreren Bereichen auf seiner Oberfläche Informationen, beispielsweise in Form von Textzeichen oder Symbolen, welche die vom Fahrer auswählbaren möglichen Funktionen abbilden. Hierbei können vorteilhafterweise auch sogenannte kontextbezogene Informationen zur Darstellung gebracht werden.
  • Bei derartigen kontextbezogenen Informationen wird vor deren Darstellung im oder auf dem dreidimensionalen Bedienelement eine Plausibilitätsprüfung durchgeführt. Damit wird beispielsweise eine Möglichkeit zum Einschalten des Systems nicht in der Auswahl angeboten, wenn das System bereits eingeschaltet ist. Wenn beispielsweise in einem Soundsystem eine CD abgespielt wird, so werden nur zugehörige Funktionen zum Bedienen des CD-Spielers und keine Auswahlmöglichkeiten zur Senderauswahl angezeigt.
  • Besonders vorteilhaft ist es, zur Erkennung der Gesten des Fahrers, welche er beispielsweise mit einer Hand oder einem Finger seiner Hand ausführen kann, Techniken einzusetzen, bei denen eine Laufzeitmessung mittels einer ToF-Kamera durchgeführt wird. Diese Gestenerkennung bietet eine sehr große Genauigkeit und ist robust gegenüber Störeinflüssen, wie wechselnden Lichtverhältnissen oder Sonnenlicht. Alternativ kann auch ein Verfahren eingesetzt werden, welches mit infrarotem Licht arbeitet.
  • Vorteilhaft ist es, durch ein Mittel zur Blickerfassung und Blickverfolgung, wie eine im Fahrzeug installierte Kamera und einer zugehörigen Steuer- und Auswerteeinheit, eine Blickverfolgung des Fahrers, also ein Erkennen der Blickrichtung des Fahrers, zu realisieren. Durch die Auswertung dieser Blickverfolgung wird ein Bereich innerhalb oder außerhalb des Fahrzeugs erkannt, auf welchen der Blick des Fahrers gerichtet ist. Diese Information über die Blickrichtung des Fahrers kann zur Steuerung der Erzeugung der dreidimensionalen Bedienelemente genutzt werden. Beispielsweise kann die Projektion eines Bedienelements nur für den Fall erfolgen, dass der Fahrer seinen Blick in eine bestimmte Richtung wendet. So kann ein dreidimensionales Bedienelement zum Einschalten beziehungsweise Ausschalten der Klimaanlage beispielsweise über einer Luftaustrittsöffnung im mittleren Bereich des Armaturenbretts nur für den Fall projiziert werden, dass der Fahrer seinen Blick auf die Luftaustrittsöffnung richtet.
  • Die erfindungsgemäße Benutzerschnittstelle mit einer Bilderzeugungseinheit zur Darstellung von Bildern und Informationen sowie einem Mittel zur Detektion einer Eingabe sowie das erfindungsgemäße Verfahren zur Eingabe und Ausgabe von Informationen in einem Fahrzeug weisen den Vorteil auf, dass die Interaktion zwischen dem Fahrzeug und dem Fahrzeugführer als eine intuitive Bedienung erfolgt, wobei das virtuelle dreidimensionale Bedienelement an der Stelle dargestellt wird, an welcher auch die Bedienung als Interaktion und Vorgang stattfindet, während die Augen des Fahrzeugführers auf die Straße gerichtet sind und die Hände am Lenkrad verbleiben, das heißt ohne die Hände vom Lenkrad zu entfernen. Damit wird der Fahrzeugführer während des Vorgangs der Bedienung, nicht abgelenkt, was eine hohe Aufmerksamkeit auf den Straßenverkehr und das Umfeld des Fahrzeugs fördert.
  • Weitere Einzelheiten, Merkmale und Vorteile von Ausgestaltungen der Erfindung ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen mit Bezugnahme auf die zugehörigen Zeichnungen. Es zeigen:
    • 1: eine Prinzipdarstellung einer erfindungsgemäßen Benutzerschnittstelle,
    • 2a, 2b: jeweils eine Darstellung einer alternativen Möglichkeit zur Positionierung von Elementen der Benutzerschnittstelle nach 1,
    • 3a, 3b: jeweils eine Darstellung einer alternativen Bilderzeugungseinheit zur Erzeugung von virtuellen dreidimensionalen Bedienelementen,
    • 4: eine Darstellung einer beispielhaften Anwendung der Erfindung mit dreidimensionalen Bedienelementen bei einem eingehenden Anruf,
    • 5: eine Darstellung einer weiteren beispielhaften Anwendung der Erfindung mit einem dreidimensionalen Bedienelement bei der Regelung einer Lautstärke eines Soundsystems und
    • 6: eine Darstellung einer erfindungsgemäßen Benutzerschnittstelle mit einem dreidimensionalen Bedienelement zur Steuerung verschiedener Fahrzeugsysteme.
  • In 1 ist eine Prinzipdarstellung einer erfindungsgemäßen Benutzerschnittstelle 1 dargestellt. Eine Bilderzeugungseinheit 2 zur Erzeugung eines dreidimensionalen virtuellen Bedienelements 3 projiziert eine Darstellung eines beispielsweise würfelartigen dreidimensionalen virtuellen Bedienelements 3 in den Sichtbereich eines Fahrers 4. Diese Projektion erfolgt im Innenraum des Fahrzeugs. Im Beispiel der 1 wird das dreidimensionale virtuelle Bedienelement 3, welches nachfolgend kurz als Bedienelement 3 bezeichnet wird, in einer Zone vor dem Fahrer 4 im Bereich des Lenkrads 9, das heißt in einem Bereich zwischen den dargestellten Händen 8 des Fahrers 4, erzeugt und ist daher in der 1 leicht verdeckt dargestellt.
  • Der Fahrer 4 kann während er das Fahrzeug führt, in seiner Blickrichtung, welche beispielsweise im Wesentlichen nach vorn in Fahrtrichtung des Fahrzeugs gerichtet ist, sowohl durch die Windschutzscheibe 5 seine Umwelt 6 vor seinem Fahrzeug, als auch gleichzeitig das in seinen Sichtbereich projizierte Bedienelement 3 wahrnehmen. In der 1 ist die Umwelt 6 nur durch eine Wellenlinie symbolisch dargestellt, umfasst aber beispielsweise Straßen, Wege, Vegetation, Bauwerke, Menschen, Verkehrszeichen und mehr.
  • Zur Umsetzung des erfindungsgemäßen Verfahrens ist im Innenraum des Fahrzeugs ein Mittel 7 zur Gestenerkennung angeordnet. Dieses Mittel 7 ist vorzugsweise auf einen Bereich vor den Fahrer 4 ausgerichtet und derart gestaltet, dass es eine Ermittlung einer Bewegung einer Hand 8 oder eines Fingers des Fahrers 4 als eine Geste ermöglicht. Hierbei stellt eine Geste eine Bewegung von Körperteilen wie Armen, Händen oder Finger dar, durch welche etwas Bestimmtes, wie eine Auswahl einer angebotenen Alternative, zum Ausdruck gebracht wird.
  • Der Fahrer 4 kann durch eine gezielte Bewegung eines Fingers seiner Hand 8 zum dargestellten virtuellen Bedienelement 3 das Erkennen einer „Berührung“ des Bedienelements 3 herbeiführen, in dessen Folge ein das „Berühren“ kennzeichnendes Steuersignal erzeugt wird. Wenn das Bedienelement 3 beispielsweise als eine Einschalttaste eines Soundsystems dargestellt wird, so führt eine quasi Berührung dieses Bedienelements 3 mit dem Finger des Fahrers 4 zur Erzeugung eines Steuersignals, welches das Soundsystem einschaltet. Zu diesem Zweck ist im Fahrzeug eine nicht dargestellte Steuer- und Auswerteeinheit angeordnet. Diese Steuer- und Auswerteeinheit ist mit der Bilderzeugungseinheit 2 verbunden und steuert die Darstellung des virtuellen Bedienelements 3. Die Steuer- und Auswerteeinheit ist außerdem mit dem Mittel 7 zur Gestenerkennung verbunden und wertet oder verarbeitet die Sensorsignale des Mittels 7 zur Gestenerkennung.
  • Durch die Verbindung der Steuer- und Auswerteeinheit mit der Bilderzeugungseinheit 2 und dem Mittel 7 zur Gestenerkennung ist es möglich, eine quasi Berührung des Bedienelements 3 mit einem Finger zu erkennen oder zu detektieren und ein entsprechendes Steuersignal zu erzeugen. Dieses Steuersignal wird ausgegeben und an das zu steuernde Fahrzeugsystem übertragen, um in diesem Fahrzeugsystem eine Funktion zu steuern. Eine derartige Steuerung kann das Einschalten oder Ausschalten des Fahrzeugsystems oder eine Änderung der Lautstärke, der Intensität der Beleuchtung ein Titelwechsel oder Senderwechsel und vieles mehr sein.
  • Damit der Fahrer erkennen kann welches Fahrzeugsystem oder welche Funktion eines Fahrzeugsystems aktuell durch das virtuelle dreidimensionale Bedienelement 3 zur Auswahl angeboten wird, ist es vorgesehen, beispielsweise auf einer Oberfläche des Bedienelements 3 ein Symbol oder eine Aufschrift darzustellen, welche den Fahrer 4 die Zuordnung erkennen lässt. So kann ein Lautsprechersymbol in Verbindung mit einem Pluszeichen (+) für die Möglichkeit der Erhöhung der Lautstärke des Soundsystems stehen, während ein Lautsprechersymbol in Verbindung mit einem Minuszeichen (-) für die Verringerung der Lautstärke steht.
  • In 1 ist in einem Bereich oberhalb der Windschutzscheibe 5 optional ein Mittel 10 zur Blickerfassung und Blickverfolgung vorgesehen. Dieses Mittel 10 zur Blickerfassung und Blickverfolgung kann beispielsweise eine Kamera sein und ist auf den Fahrer 4 gerichtet. Somit kann zum einen festgestellt werden, ob die Blickrichtung des Fahrers 4 durch die Windschutzscheibe 5 nach außen oder auf einen Bereich innerhalb des Fahrzeugs, wie das Armaturenbrett, gerichtet ist. Zum anderen kann erkannt werden, auf welchen Bereich des Armaturenbretts oder Fahrzeugs der Blick des Fahrers 4 aktuell ausgerichtet ist.
  • Damit kann beispielsweise zwischen einem Bereich der Öffnungen für ein Lüftungssystem, einem Bereich für ein Anzeigendisplay, einem Bereich zur Steuerung von Getriebefunktionen oder Einstellungen und einem Bereich einer Klappe über einem Handschuhfach unterschieden werden. Zur Erkennung der Blickrichtung ist das Mittel 10 zur Blickerfassung und Blickverfolgung mit einer nicht dargestellten zentralen Steuer- und Auswerteeinheit verbunden, welche mittels einer geeigneten Software gesteuert wird und über die notwendigen Informationen bezüglich der entsprechenden Fahrzeugausstattung verfügt. Derartige Informationen können durch den Fahrzeughersteller modellbezogen in einer Datenbank gespeichert werden und stehen einem geeigneten Verfahren zum Erkennen der Blickrichtung und der Zuordnung der Fahrzeugbereiche innerhalb des Fahrzeugs zur Verfügung.
  • Damit ist es möglich, die Projektion eines virtuellen Bedienelements 3 von der Blickrichtung des Fahrers 4 abhängig zu gestalten. Während beispielsweise im unmittelbaren Sichtbereich vor dem Fahrer 4 in der Nähe des Lenkrads 9 die Projektion völlig unabhängig von der Blickrichtung des Fahrers 4 erfolgen kann, wird in anderen Fahrzeugbereichen, wie einer in der Mitte des Armaturenbretts angeordneten Luftaustrittsöffnung einer Klimaanlage, eine Projektion des Bedienelements 3 in Abhängigkeit der Blickrichtung des Fahrers 4 vorgenommen.
  • In einem beispielhaften Fall kann somit eine Möglichkeit zum Einschalten oder Ausschalten der Klimaanlage durch eine Projektion eines virtuellen Bedienelements 3 in einem Bereich über den Öffnungen für den Luftaustritt schwebend projiziert werden. In einem anderen Fall kann durch eine Darstellung eines anderen geeigneten Bedienelements 3 über dem gleichen Bereich eine Regelungsmöglichkeit für die Temperatur und/oder die Ventilation angeboten werden.
  • Der Fahrer kann auch in diesem Fall durch eine Bewegung mit seiner Hand 8 oder seinem Finger, weg vom Lenkrad 9 hin zum Bereich des virtuellen Bedienelements 3, eine Auswahl treffen, welche seiner gewünschten Funktion entspricht. Beispielsweise könnte ein mit der Aufschrift „EIN“ versehenes virtuelles Bedienelement 3 vorgesehen sein, um die Klimaanlage einzuschalten.
  • Diese Auswahl des Fahrers 4 wird durch das Mittel 7 zur Gestenerkennung registriert und ein entsprechendes Steuersignal von der zentralen Steuer- und Auswerteeinheit generiert, durch welches die Klimaanlage derart gesteuert wird, dass sie sich einschaltet.
  • Zudem ist es vorgesehen, eine Einschränkung der auf einem Bedienelement 3 angebotenen Auswahlmöglichkeiten dadurch zu erreichen, dass vor der Projektion des Bedienelements 3 geprüft wird, ob die Auswahlmöglichkeiten im aktuellen Betriebszustand des Fahrzeugs oder des entsprechenden Systems aktuell zur Verfügung stehen. Wenn Einschränkungen vorliegen, wird die Projektion entsprechend angepasst, es werden somit nur plausible Auswahlmöglichkeiten zur Verfügung gestellt. Beispielsweise kann eine Funktion einer automatischen Geschwindigkeitsregelung nur oberhalb einer Mindestgeschwindigkeit angeboten werden. Eine Möglichkeit zum Einschalten eines Fahrzeugsystems kann beispielsweise nur angeboten werden, wenn das entsprechende Fahrzeugsystem aktuell ausgeschaltet ist. Diese kontextbezogene Darstellung von Auswahlmöglichkeiten führt zu einer Reduzierung der Informationen, welche der Fahrer 4 neben dem Führen des Fahrzeugs wahrnehmen muss.
  • Des Weiteren ist auch eine Unterteilung einer Oberfläche eines virtuellen Bedienelements 3 in mehrere Bereiche auf dieser Oberfläche vorgesehen. In jedem dieser Bereiche kann dann eine Auswahlmöglichkeit durch eine Darstellung eines entsprechenden Symbols oder eines entsprechenden Textes zur Verfügung gestellt werden. In einem Beispiel könnte dem Fahrer 4 ein Bedienelement 3 projiziert werden, welches das Einschalten oder Ausschalten von mehreren dargestellten Fahrzeugsystemen oder Funktionen ermöglicht. In einem weiteren Beispiel könnte dem Fahrer 4 ein Bedienelement 3 projiziert werden, welches sowohl eine Lautstärkeänderung als auch eine Klangeinstellung für ein Soundsystem zur Verfügung stellt.
  • Die in 1 dargestellte Bilderzeugungseinheit 2 kann beispielsweise ein Lasermodul 11, eine Phasenanordnung 12 (Phase SLM device) zur Erzeugung eines Hologramms und eine Linse 13 aufweisen.
  • In den 2a und 2b ist jeweils eine alternative Möglichkeit zur Positionierung von Elementen der Benutzerschnittstelle nach 1 dargestellt. In beiden Alternativen ist jeweils eine Benutzerschnittstelle 1 mit einer Bilderzeugungseinheit 2 gezeigt. Zudem sind die jeweils mittels der Bilderzeugungseinheit 2 erzeugten virtuellen Bedienelemente 3 dargestellt. Außerdem ist jeweils ein Fahrer 4 mit seinen Händen 8 am Lenkrad 9 sowie eine Windschutzscheibe 5 eines Fahrzeugs gezeigt.
  • 2a zeigt eine Variante, bei welcher das Mittel 10 zur Blickerfassung und Blickverfolgung im oberen Bereich der Windschutzscheibe 5 angeordnet ist und eine Ausrichtung in einem Winkel von etwa 45 Grad zum Fahrer 4 aufweist. In dieser Darstellung ist das Mittel 7 zur Gestenerkennung ebenfalls im oberen Bereich der Windschutzscheibe 5 angeordnet. Das Mittel 7 zur Gestenerkennung kann eine 3D-Kamera sein, welche eine dreidimensionale Bildaufzeichnung realisiert. Das Mittel 7 kann auch als eine sogenannte ToF-Kamera (englisch: time of flight), welche mittels eines Laufzeitverfahrens eine Messung von Distanzen realisiert, ausgebildet sein. Alternativ kann auch ein System, bestehend aus einer 2D-Kamera zum Aufzeichnen zweidimensionaler Bilder und einer 3D-Kamera eingesetzt werden. Auch der Einsatz einer im Infrarotbereich arbeitenden Kamera kann vorgesehen werden. Das Mittel 7 zur Gestenerkennung ist etwa lotsenkrecht auf den Bereich vor dem Fahrer 4 ausgerichtet.
  • 2b zeigt eine Variante, bei welcher das Mittel 10 zur Blickerfassung und Blickverfolgung im Bereich vor dem Fahrer 4 angeordnet und nahezu horizontal oder leicht nach oben auf den Fahrer 4 ausgerichtet ist. In dieser Darstellung ist auch das Mittel 7 zur Gestenerkennung im Bereich vor dem Fahrer 4 angeordnet und zu diesem hin, auf den Bereich des Lenkrades 9, ausgerichtet.
  • Als ein Mittel 7 zur Gestenerkennung kann beispielsweise eine ToF-Kamera eingesetzt werden, welche mit einer entsprechenden zentralen Steuer- und Auswerteeinheit verbunden ist.
  • Die in den 2a und 2b dargestellten Alternativen sind nur zwei beispielhafte Ausführungen und beschränken die erfindungsgemäße Anordnung nicht auf diese dargestellten Möglichkeiten. Weitere Alternativen, bei denen sowohl eine Blickerkennung als auch eine Gestenerkennung gewährleistet wird, sind denkbar.
  • In den 3a und 3b ist jeweils eine alternative Bilderzeugungseinheit 2 zur Erzeugung von virtuellen Bedienelementen 3 dargestellt. Während in 3a eine aus einem Lasermodul 11, einer Phasenanordnung 12 als sogenannte SLM-Einheit (Spatial Light Modulator / LcoS, LC, AOM) zur Erzeugung eines Hologramms und einer Linse 13 bestehende Einheit zur Erzeugung des virtuellen Bedienelements 3 eingesetzt wird, weist die Bilderzeugungseinheit 2 der 3b eine Einheit mit einer Laser-Hintergrundbeleuchtung 14 oder in einer MEMS-Technologie (englisch: micro-electro-mechanical-system), bei welchem verschiedenfarbige Laserstrahlen über ein Spiegelsystem abgelenkt eine Bilderzeugung bewirken, eine Nanostruktureinheit 15 (Nano structured static hologram / engineered micro pixel) sowie eine Diffusereinheit 16 auf. Eine Beschränkung der Erfindung auf diese Möglichkeiten der Bilderzeugung liegt nicht vor, gezeigt sind hiermit nur beispielhafte Ausführungen.
  • Das Lasermodul 11 beinhaltet vorteilhaft eine kohärente Lichtquelle, wie einen RGB-Laser oder eine monochrome Laserquelle. Die Phasenanordnung 12 zur räumlichen Lichtmodulation (SLM) kann als ein LC-Gerät, LCoS-Gerät, eine DLP-Vorrichtung, ein AOM oder EOM ausgeführt werden.
  • In 4 ist eine weitere beispielhafte Anwendung der Erfindung bei einem eingehenden Anruf gezeigt. In diesem Beispiel ist ein Mobiltelefon des Fahrers mit der zentralen Steuer- und Auswerteeinheit im Fahrzeug verbunden. Eine derartige Verbindung kann unter Nutzung einer Datenübertragung nach den Technologien USB oder Bluetooth erfolgen und soll dem Fahrer ermöglichen, eine Steuerung des Telefons über im Fahrzeug befindliche Eingabemittel vorzunehmen. Außerdem ist es üblich, dass ein im Fahrzeug vorhandenes Soundsystem zur akustischen Wiedergabe und Aufnahme oder Eingabe der Sprache des Fahrers 4 genutzt wird.
  • Das Beispiel in 4 zeigt eine mittels einer HUD-Einheit erzeugten Darstellung im Bereich der Windschutzscheibe 5. Angezeigt wird eine Information über einen eingehenden Anruf mit der beispielhaften Aufschrift „Incoming call“ oder „Eingehender Anruf“ und eine Auswahlmöglichkeit „Accept?“ oder „Annehmen?“ zum Annehmen oder Ablehnen des Anrufs. Darüber hinaus kann auch der Name des Anrufers, in diesem Fall „John Smith“ angezeigt werden.
  • Bei dieser durch die HUD-Einheit erzeugten Ausgabe handelt es sich nur um eine zusätzliche, für das erfindungsgemäße Verfahren nicht notwendige, bildliche Darstellung. Eine Eingabe- oder Auswahlmöglichkeit für den Fahrer 4 ist nicht vorhanden.
  • Eine Eingabemöglichkeit oder Auswahlmöglichkeit wird durch das vorgeschlagene Verfahren sowie die zugehörige Anordnung bereitgestellt. Zu diesem Zweck werden durch die Bilderzeugungseinheit 2 zwei virtuelle Bedienelemente 3 in der Form zweier Würfel oder Quader in einem Bereich vor dem Lenkrad 9 dargestellt. Diese Darstellung erfolgt vorzugsweise in einer dreidimensionalen Darstellung der Bedienelemente 3 derart, dass das erste Bedienelement 3 in einem seiner Bereiche, wie einer Seitenfläche mit der Aufschrift „Ja“ oder „Yes“, und das zweite Bedienelement 3 mit der Aufschrift „Nein“ oder „No“ versehen ist. In einer Alternative können die Bereiche der Bedienelemente 3 auch mit den Zeichen oder Symbolen „Haken“ (√) für das Annehmen des Anrufs und „Kreuz“ (X) für das Ablehnen versehen werden. Dem Fahrer 4 wird somit eine Auswahl zur Annahme des Telefonats mittels des linken ersten Bedienelements 3 und zum Abweisen des Telefonats mittels des zweiten rechts dargestellten Bedienelements 3 bereitgestellt.
  • Über das Mittel 7 zur Gestenerkennung wird erkannt, welche Auswahl der Fahrer 4 zwischen den beiden Bedienelementen 3 trifft und in Abhängigkeit dieser erkannten Auswahl, mittels der zentralen Steuer- und Auswerteeinheit, das eingehende Gespräch angenommen oder abgewiesen. Nach dem Erkennen einer getroffenen Auswahl wird die Erzeugung der dreidimensionalen Bedienelemente 3, also die Darstellung der beiden Würfel oder Quader, beendet. Die Erzeugung der grafischen Darstellung durch die HUD-Einheit wird ebenfalls beendet. Eine beispielsweise zusätzliche Darstellung des Streckenverlaufes 18 durch die HUD-Einheit bleibt bei der Durchführung des erfindungsgemäßen Verfahrens zur Eingabe und Ausgabe von Informationen in einem Fahrzeug erhalten.
  • In 5 ist eine weitere beispielhafte Anwendung der Erfindung bei einer Regelung einer Lautstärke eines im Fahrzeug angeordneten Soundsystems gezeigt.
  • Im Unterschied zu 4 wird durch die HUD-Einheit neben einer Darstellung des Weiteren Streckenverlaufs 18 optional eine Aufschrift mit dem Text „Musik Lautstärke + / -“ oder „Music Volume + / -“ zur Anzeige gebracht. Die Bilderzeugungseinheit 2 erzeugt ein virtuelles Bedienelement 3 in der Form eines dreidimensionalen Rades, welches beispielsweise mit einem Doppelpfeil und dem Zeichen „+“, für eine Zunahme der Lautstärke des Soundsystems, sowie dem Zeichen „-“, für eine Reduzierung der Lautstärke, versehen ist.
  • Eine Projektion dieser Auswahlmöglichkeit zur Veränderung der Lautstärke kann beispielsweise dann erfolgen, wenn durch das Mittel 10 zur Blickerfassung und Blickverfolgung eine Blickrichtung des Fahrers 4 zu einem Bereich mit einem Lautstärkeregler eines Soundsystems erkannt wurde. Alternativ kann die Projektion in Folge eines erkannten Sprachbefehls oder einer vorherigen Auswahl an einem vorher projizierten Bedienelement 3 erfolgen.
  • Die Darstellung des virtuellen Bedienelements 3 erfolgt wiederum in einem Bereich vor dem Lenkrad 9 und ist vom Fahrer 4 sehr gut zu erreichen. Der Fahrer 4 kann eine Auswahl beispielsweise derart vornehmen, dass er das virtuelle Bedienelement 3 auf seiner rechten Hälfte „berührt“ um die Lautstärke zu erhöhen. Eine Erhöhung der Lautstärke kann beispielsweise bei einer mit Hilfe des Mittels 7 zur Gestenerkennung erkannten Übereinstimmung um einen festgelegten Betrag erfolgen. Alternativ kann die Lautstärke solange erhöht werden, wie eine Übereinstimmung zwischen der rechten Hälfte des Bedienelements 3 und der Hand 8 oder einem Finger des Fahrers 4 erkannt wird.
  • Für den Fall, dass eine Übereinstimmung zwischen der linken Hälfte des Bedienelements 3 und der Hand 8 erkannt wird, erfolgt eine Reduzierung der Lautstärke um einen festgelegten Betrag oder solange, wie die Übereinstimmung erkannt wird.
  • In einer besonderen Ausgestaltung ist vorgesehen, dass das dargestellte virtuelle Bedienelement 3 wie ein knopfförmiger Lautstärkeregler drehbar ausgeführt ist und je nach Drehrichtung eine Reduzierung oder Erhöhung der Lautstärke vorgenommen wird. Eine derartige Drehbewegung kann durch den Fahrer 4 ausgelöst werden, indem er an einem Rand des Rades entlangstreicht und dieses in eine Drehbewegung versetzt.
  • Nach einer Einregelung der Lautstärke und einem Verstreichen einer festgelegten Wartezeit wird die Projektion des als Drehknopf ausgebildeten virtuellen Bedienelements 3 und die Darstellung der Aufschrift durch die HUD-Einheit beendet. Auch in diesem Beispiel bleibt eine zusätzliche Darstellung des Streckenverlaufes 18 durch die HUD-Einheit unbeeinflusst.
  • Das virtuelle Bedienelement 3 kann, wie in 6 gezeigt, auch in der Form eines dreidimensionalen Würfels dargestellt werden, welcher auf seinen Seitenflächen Einstellmöglichkeiten oder Auswahlmöglichkeiten anzeigt. Beispielsweise könnten die Seitenflächen oder Bereiche des Bedienelements 3 Funktionen verschiedener Fahrzeugsysteme oder Funktionen eines Fahrzeugsystems, wie einem Soundsystem, abbilden. Für ein Soundsystem sind beispielsweise auf den Seitenflächen des projizierten Würfels Auswahlmöglichkeiten für Lautstärke, Radiosender, Tonquellen, Klangeinstellungen und ähnliche dargestellt. Der Fahrer 4 kann das virtuelle würfelartige Bedienelement 3 um eine oder mehrere Achsen drehen und derart die gewünschte Funktion auf die Vorderseite des Würfels bringen und durch „Antippen“ auswählen. Wenn sich der Fahrer 4 beispielsweise für die Lautstärkeeinstellung entschieden hat, so wird das bereits weiter oben zur 5 beschriebene virtuelle Bedienelement 3 in der Form eines kleinen Rades zur Lautstärkeeinstellung dargestellt. Zusätzlich ist über das HUD eine Anzeige einer Aufschrift bezogen auf die aktuelle Vorderseite des Bedienelements 3, wie beispielhaft mit der Aufschrift „Main menu“ oder „Hauptmenü“ gezeigt, möglich.
  • Bezugszeichenliste
  • 1
    Benutzerschnittstelle
    2
    Bilderzeugungseinheit, Laserprojektionseinheit
    3
    dreidimensionales virtuelles Bedienelement
    4
    Fahrer
    5
    Windschutzscheibe
    6
    Umwelt
    7
    Mittel zur Gestenerkennung
    8
    Hand
    9
    Lenkrad
    10
    Mittel zur Blickerfassung und Blickverfolgung
    11
    Lasermodul
    12
    Phasenanordnung
    13
    Linse
    14
    Laser-Hintergrundbeleuchtung / MEMS
    15
    Nanostruktureinheit
    16
    Diffusereinheit
    17
    Aktivierung der ausgewählten Funktion
    18
    Streckenverlauf
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102013011253 A1 [0014]
    • DE 102005010843 A1 [0017]
    • DE 102004044718 A1 [0019]

Claims (12)

  1. Benutzerschnittstelle (1), welche eine Bilderzeugungseinheit, zur Darstellung von Bildern und Informationen, und ein Mittel zur Detektion einer Eingabe umfasst, wobei die Anordnung und das Mittel mit einer zentralen Steuer- und Auswerteeinheit verbunden sind, dadurch gekennzeichnet, dass als Bilderzeugungseinheit eine mindestens ein virtuelles dreidimensionales Bedienelement (3) erzeugende Laserprojektionseinheit (2) und als Mittel zur Detektion einer Eingabe ein Mittel zur Gestenerkennung (7) im Innenraum eines Fahrzeugs angeordnet sind.
  2. Benutzerschnittstelle (1) nach Anspruch 1, dadurch gekennzeichnet, dass das virtuelle dreidimensionale Bedienelement (3) die Form eines Würfels, eines Quaders, einer Kugel, einer Pyramide oder eines Zylinders mit einer runden, ovalen oder n-eckigen Grund- und Deckfläche aufweist.
  3. Benutzerschnittstelle (1) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das virtuelle dreidimensionale Bedienelement (3) mehrere Bereiche aufweist, wobei ein Bereich auf einer Fläche oder einem Teil einer Fläche angeordnet ist.
  4. Benutzerschnittstelle (1) nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass ein Mittel (10) zur Blickerfassung und Blickverfolgung im Innenraum eines Fahrzeugs angeordnet ist.
  5. Benutzerschnittstelle (1) nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass das Mittel (7) zur Gestenerkennung und/oder das Mittel (10) zur Blickerfassung und Blickverfolgung eine 3D-Kamera oder eine ToF-Kamera ist.
  6. Benutzerschnittstelle (1) nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass eine HUD-Einheit als ein weiteres Mittel zur Anzeige von Informationen im Fahrzeug angeordnet ist.
  7. Verfahren zur Eingabe und Ausgabe von Informationen in einem Fahrzeug, bei welchem Informationen mittels einer Anordnung zur Bilderzeugung ausgegeben und bei welchem Eingaben eines Fahrers durch ein Mittel zur Detektion einer Eingabe erfasst werden, wobei eine Steuerung der Ausgabe der Informationen und des Erfassens von Eingaben durch eine zentrale Steuereinheit gesteuert wird, dadurch gekennzeichnet, dass eine Projektion mindestens eines virtuellen dreidimensionalen Bedienelements (3) mittels einer Laserprojektionsanordnung (2) im Sichtbereich eines Fahrers (4) und im Innenraum eines Fahrzeugs erfolgt, dass eine Erkennung einer Geste des Fahrers (4) durch ein Mittel zur Gestenerkennung (7) durchgeführt wird und dass bei einer Übereinstimmung einer mittels der Gestenerkennung detektierten Position einer Hand (8) des Fahrers (4) mit dem virtuellen Bedienelement (3) oder einem Bereich des virtuellen Bedienelements (3) ein Signal zur Steuerung eines Fahrzeugsystems oder einer Funktion eines Fahrzeugsystems durch die zentrale Steuer- und Auswerteeinheit erzeugt und an das entsprechende Fahrzeugsystem ausgegeben wird.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass das virtuelle Bedienelement (3) mit mehreren Bereichen projiziert wird, wobei die Bereiche Flächen des dreidimensionalen Bedienelements (3) oder Teilbereiche einer Fläche des dreidimensionalen Bedienelements (3) sind.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass das in den Bereichen oder Teilbereichen Informationen in der Form von Textzeichen, Sonderzeichen, Symbole, ebene oder räumliche geometrische Figuren in verschiedenen Farben oder Bilder dargestellt werden.
  10. Verfahren nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass die in den Bereichen oder Teilbereichen dargestellten Informationen kontextbezogene Informationen und/oder auf Plausibilität geprüfte Informationen sind.
  11. Verfahren nach einem der Ansprüche 7 bis 10, dadurch gekennzeichnet, dass eine Detektion der Blickrichtung des Fahrers (4) mittels eines Mittels (10) zur Blickerfassung und Blickerfolgung erfolgt.
  12. Verfahren nach einem der Ansprüche 7 bis 11, dadurch gekennzeichnet, dass die Gestenerkennung mittels eines Laufzeitverfahrens oder eines Infrarotverfahrens durchgeführt wird.
DE102016120995.3A 2016-11-03 2016-11-03 Benutzerschnittstelle und Verfahren zur Eingabe und Ausgabe von Informationen in einem Fahrzeug Ceased DE102016120995A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102016120995.3A DE102016120995A1 (de) 2016-11-03 2016-11-03 Benutzerschnittstelle und Verfahren zur Eingabe und Ausgabe von Informationen in einem Fahrzeug
PCT/EP2017/078136 WO2018083214A1 (en) 2016-11-03 2017-11-03 User interface and methods for inputting and outputting information in a vehicle
US16/347,494 US20200057546A1 (en) 2016-11-03 2017-11-03 User interface and methods for inputting and outputting information in a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016120995.3A DE102016120995A1 (de) 2016-11-03 2016-11-03 Benutzerschnittstelle und Verfahren zur Eingabe und Ausgabe von Informationen in einem Fahrzeug

Publications (1)

Publication Number Publication Date
DE102016120995A1 true DE102016120995A1 (de) 2018-05-03

Family

ID=60245099

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016120995.3A Ceased DE102016120995A1 (de) 2016-11-03 2016-11-03 Benutzerschnittstelle und Verfahren zur Eingabe und Ausgabe von Informationen in einem Fahrzeug

Country Status (3)

Country Link
US (1) US20200057546A1 (de)
DE (1) DE102016120995A1 (de)
WO (1) WO2018083214A1 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017211378A1 (de) * 2017-07-04 2019-01-10 Bayerische Motoren Werke Aktiengesellschaft Anwenderschnittstelle für ein Fortbewegungsmittel und Fortbewegungsmittel enthaltend eine Anwenderschnittstelle
DE102018220693A1 (de) * 2018-11-30 2020-06-04 Audi Ag Steuerungssystem und Verfahren zum Steuern einer Funktion eines Fahrzeugs
DE102018221797A1 (de) * 2018-12-14 2020-06-18 Volkswagen Aktiengesellschaft Benutzerschnittstelle eines Fahrzeugs und Verfahren zur Konfiguration und Steuerung der Benutzerschnittstelle
CN112384403A (zh) * 2018-06-13 2021-02-19 奥迪股份公司 用于运行显示操作设备的方法、显示操作设备以及机动车
EP3795406A1 (de) * 2019-09-20 2021-03-24 Compagnie Plastic Omnium SE Fahrzeugteil mit benutzerschnittstelle
DE102019126753A1 (de) * 2019-10-04 2021-04-08 Audi Ag Bedienvorrichtung für ein Kraftfahrzeug, Kraftfahrzeug, Verfahren zum Betreiben eines Kraftfahrzeugsystems, und Steuereinrichtung
DE102022108774A1 (de) 2022-04-11 2023-10-12 Volkswagen Aktiengesellschaft Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Bedienung einer Heiz-/Klimaanlage eines Fortbewegungsmittels
DE102022123087A1 (de) 2022-09-12 2024-03-14 Gestigon Gmbh System und Verfahren zum Ausgeben einer Rückmeldung an einen Nutzer zu einer berührungslosen Geste mittels LEDs

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3722158A1 (de) 2019-04-10 2020-10-14 Volvo Car Corporation Sprachassistenzsystem
DE102020107338B4 (de) * 2020-03-17 2022-09-29 Audi Aktiengesellschaft Bedienvorrichtung zum Bedienen eines Infotainmentsystems, Verfahren zum Bereitstellen eines akustischen Signals für eine Bedienvorrichtung und Kraftfahrzeug mit einer Bedienvorrichtung
CN113759564A (zh) * 2020-06-04 2021-12-07 浙江棱镜全息科技有限公司 汽车用空气成像装置及人机交互车载辅助系统
CN112061137B (zh) * 2020-08-19 2022-01-14 一汽奔腾轿车有限公司 一种车外的人车互动控制方法
US12001519B2 (en) 2020-10-08 2024-06-04 Sony Group Corporation Object classification and related applications based on frame and event camera processing
FR3122000B1 (fr) * 2021-04-16 2023-12-08 Faurecia Interieur Ind Interface homme-machine holographique et véhicule associé
CN115056792A (zh) * 2021-12-16 2022-09-16 博泰车联网科技(上海)股份有限公司 车辆及车辆控制方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050002074A1 (en) * 2003-07-03 2005-01-06 Holotouch, Inc. Holographic human-machine interfaces
DE102004044718A1 (de) 2004-09-10 2006-03-16 Volkswagen Ag Augmented Reality Autoren System
DE102005010843A1 (de) 2005-03-07 2006-09-14 Volkswagen Ag Head-up Display eines Kraftfahrzeugs
DE102005019154A1 (de) * 2005-04-25 2006-10-26 Robert Bosch Gmbh Vorrichtung zur Einstellung von wenigstens einer Fahrzeugkomponente in Abhängigkeit eines Signals einer bildgebenden Sensorik in einem Fahrzeug
DE102007001266A1 (de) * 2007-01-08 2008-07-10 Metaio Gmbh Optische Anordnung, insbesondere für ein Head-Up-Display
DE102012216181A1 (de) * 2012-09-12 2014-06-12 Bayerische Motoren Werke Aktiengesellschaft Gestenbasierte Einstellung eines Fahrzeugsitzes
DE102013204242A1 (de) * 2013-03-12 2014-09-18 Bayerische Motoren Werke Aktiengesellschaft Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug, Kraftfahrzeug und entsprechendes Verfahren
DE102013011253A1 (de) 2013-07-05 2015-01-08 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Anzeigevorrichtung, Fahrzeug mit einer Anzeigevorrichtung und Computerprogrammprodukt
DE102015213424A1 (de) * 2015-07-16 2017-01-19 Audi Ag Verfahren und Bediensystem zum Bedienen von mindestens einer Funktion in einem Fahrzeug

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9008904B2 (en) * 2010-12-30 2015-04-14 GM Global Technology Operations LLC Graphical vehicle command system for autonomous vehicles on full windshield head-up display

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050002074A1 (en) * 2003-07-03 2005-01-06 Holotouch, Inc. Holographic human-machine interfaces
DE102004044718A1 (de) 2004-09-10 2006-03-16 Volkswagen Ag Augmented Reality Autoren System
DE102005010843A1 (de) 2005-03-07 2006-09-14 Volkswagen Ag Head-up Display eines Kraftfahrzeugs
DE102005019154A1 (de) * 2005-04-25 2006-10-26 Robert Bosch Gmbh Vorrichtung zur Einstellung von wenigstens einer Fahrzeugkomponente in Abhängigkeit eines Signals einer bildgebenden Sensorik in einem Fahrzeug
DE102007001266A1 (de) * 2007-01-08 2008-07-10 Metaio Gmbh Optische Anordnung, insbesondere für ein Head-Up-Display
DE102012216181A1 (de) * 2012-09-12 2014-06-12 Bayerische Motoren Werke Aktiengesellschaft Gestenbasierte Einstellung eines Fahrzeugsitzes
DE102013204242A1 (de) * 2013-03-12 2014-09-18 Bayerische Motoren Werke Aktiengesellschaft Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug, Kraftfahrzeug und entsprechendes Verfahren
DE102013011253A1 (de) 2013-07-05 2015-01-08 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Anzeigevorrichtung, Fahrzeug mit einer Anzeigevorrichtung und Computerprogrammprodukt
DE102015213424A1 (de) * 2015-07-16 2017-01-19 Audi Ag Verfahren und Bediensystem zum Bedienen von mindestens einer Funktion in einem Fahrzeug

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017211378A1 (de) * 2017-07-04 2019-01-10 Bayerische Motoren Werke Aktiengesellschaft Anwenderschnittstelle für ein Fortbewegungsmittel und Fortbewegungsmittel enthaltend eine Anwenderschnittstelle
CN112384403B (zh) * 2018-06-13 2024-02-02 奥迪股份公司 用于运行显示操作设备的方法、显示操作设备以及机动车
CN112384403A (zh) * 2018-06-13 2021-02-19 奥迪股份公司 用于运行显示操作设备的方法、显示操作设备以及机动车
US11921932B2 (en) 2018-06-13 2024-03-05 Audi Ag Method for operating a display and operating device, display and operating device, and motor vehicle
DE102018220693A1 (de) * 2018-11-30 2020-06-04 Audi Ag Steuerungssystem und Verfahren zum Steuern einer Funktion eines Fahrzeugs
DE102018220693B4 (de) 2018-11-30 2022-08-18 Audi Ag Steuerungssystem und Verfahren zum Steuern einer Funktion eines Fahrzeugs, sowie Fahrzeug mit einem solchen
DE102018221797A1 (de) * 2018-12-14 2020-06-18 Volkswagen Aktiengesellschaft Benutzerschnittstelle eines Fahrzeugs und Verfahren zur Konfiguration und Steuerung der Benutzerschnittstelle
EP3795406A1 (de) * 2019-09-20 2021-03-24 Compagnie Plastic Omnium SE Fahrzeugteil mit benutzerschnittstelle
FR3101028A1 (fr) * 2019-09-20 2021-03-26 Compagnie Plastic Omnium Se Pièce de véhicule avec interface utilisateur
DE102019126753A1 (de) * 2019-10-04 2021-04-08 Audi Ag Bedienvorrichtung für ein Kraftfahrzeug, Kraftfahrzeug, Verfahren zum Betreiben eines Kraftfahrzeugsystems, und Steuereinrichtung
DE102019126753B4 (de) 2019-10-04 2023-03-30 Audi Ag Bedienvorrichtung für ein Kraftfahrzeug, Kraftfahrzeug, Verfahren zum Betreiben eines Kraftfahrzeugsystems, und Steuereinrichtung
DE102022108774A1 (de) 2022-04-11 2023-10-12 Volkswagen Aktiengesellschaft Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Bedienung einer Heiz-/Klimaanlage eines Fortbewegungsmittels
DE102022123087A1 (de) 2022-09-12 2024-03-14 Gestigon Gmbh System und Verfahren zum Ausgeben einer Rückmeldung an einen Nutzer zu einer berührungslosen Geste mittels LEDs

Also Published As

Publication number Publication date
US20200057546A1 (en) 2020-02-20
WO2018083214A1 (en) 2018-05-11

Similar Documents

Publication Publication Date Title
DE102016120995A1 (de) Benutzerschnittstelle und Verfahren zur Eingabe und Ausgabe von Informationen in einem Fahrzeug
JP6381826B2 (ja) 車両情報表示制御装置
EP3084564B1 (de) Vorrichtung und verfahren zum navigieren innerhalb eines menüs zur fahrzeugsteuerung sowie auswählen eines menüeintrags aus dem menü
EP1874582B1 (de) Verfahren zur darstellung von informationen in einem verkehrsmittel und kombiinstrument für ein kraftfahrzeug
EP3322611B1 (de) Verfahren und bediensystem zum bedienen von mindestens einer funktion in einem fahrzeug
EP3765324B1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-display-vorrichtung für ein kraftfahrzeug
DE102016120999B4 (de) Benutzerschnittstelle und Verfahren zur Ein- und Ausgabe von Informationen in einem Fahrzeug
EP3762684A1 (de) Einblendung von zusatzinformationen auf einer anzeigeeinheit
WO2014198552A1 (de) System und verfahren zum überwachen und/oder bedienen einer technischen anlage, insbesondere eines fahrzeugs
US10559284B2 (en) Vehicle information display control device, and method for displaying automatic driving information
EP3807119B1 (de) Verfahren zum betreiben einer anzeige- und bedienvorrichtung, anzeige- und bedienvorrichtung, und kraftfahrzeug
DE102010022620A1 (de) Kraftfahrzeug mit einem Manöverassistenzsystem zur automatischen Ausführung von Fahrmanövern des Kraftfahrzeuges
DE102017212367A1 (de) Verfahren zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102016224246B4 (de) Verfahren und Vorrichtung zur Interaktion mit einer grafischen Benutzerschnittstelle
DE102016216577A1 (de) Verfahren zur Interaktion mit Bildinhalten, die auf einer Anzeigevorrichtung in einem Fahrzeug dargestellt werden
DE102016214478A1 (de) Anordnung, Fortbewegungsmittel und Verfahren zur Unterstützung eines Anwenders eines Fortbewegungsmittels
WO2015135737A1 (de) Verfahren und vorrichtung zum bereitstellen einer graphischen nutzerschnittstelle in einem fahrzeug
DE102016108878A1 (de) Anzeigeeinheit und Verfahren zur Darstellung von Informationen
EP3296795A1 (de) Verfahren zur darstellung eines bildobjekts in einem fahrzeug auf einer fahrzeugintern und einer fahrzeugextern wahrgenommenen anzeige
DE102016224235A1 (de) Verfahren und Vorrichtung zur Anpassung der Darstellung von Bild- und/oder Bedienelementen auf einer grafischen Benutzerschnittstelle
CN114867992A (zh) 用于呈现虚拟导航元素的方法和装置
DE102013225496B4 (de) Blickabhängige Steuerung von Menüs in Head-up Displays
DE102019208235B4 (de) Verfahren zur Bedienung einer HMD-Anzeigeeinheit für ein Fahrzeug, HMD-Anzeigeeinheit, Multifunktionslenkrad sowie Fahrzeug zur Verwendung bei dem Verfahren
DE112019000938T5 (de) Menüanzeige-Steuervorrichtung für Fahrzeuge, Bedienungssystem für bordinterne Geräte und GUI-Programme
WO2019068479A1 (de) Bediensystem mit dreidimensionaler anzeige für ein fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final