DE102022107164A1 - Benutzerschnittstelle für ein Fahrzeug und Fahrzeug - Google Patents

Benutzerschnittstelle für ein Fahrzeug und Fahrzeug Download PDF

Info

Publication number
DE102022107164A1
DE102022107164A1 DE102022107164.2A DE102022107164A DE102022107164A1 DE 102022107164 A1 DE102022107164 A1 DE 102022107164A1 DE 102022107164 A DE102022107164 A DE 102022107164A DE 102022107164 A1 DE102022107164 A1 DE 102022107164A1
Authority
DE
Germany
Prior art keywords
user interface
aperture
dimensional display
movement
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022107164.2A
Other languages
English (en)
Inventor
Etienne Iliffe-Moon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102022107164.2A priority Critical patent/DE102022107164A1/de
Priority to US18/186,851 priority patent/US20230322082A1/en
Publication of DE102022107164A1 publication Critical patent/DE102022107164A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/22
    • B60K2360/126
    • B60K2360/128
    • B60K2360/143
    • B60K2360/1434
    • B60K2360/1438
    • B60K2360/1523
    • B60K2360/336
    • B60K35/211
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/50Magnetic or electromagnetic sensors

Abstract

Die Erfindung betrifft eine Benutzerschnittstelle (1) für ein Fahrzeug (2), eingerichtet zum Präsentieren von sichtbaren Informationen (3a, 3a', 3b, 3b', 3b'') und eingerichtet zum Erfassen einer Benutzereingabe (5); die Benutzerschnittstelle (1) umfasst eine optische Blende (9), umfassend eine flache Kontaktoberfläche (10), eine dreidimensionale Anzeigeoberfläche (11) zum Anzeigen von Informationen (3b, 3b', 3b'') und ein optisches Lichtleitermaterial (12), das zwischen der Kontaktoberfläche (10) und der dreidimensionalen Anzeigeoberfläche (11) bereitgestellt ist; wobei eine zweidimensionale Anzeige (7, 7') und die Kontaktoberfläche (10) derart angeordnet werden können, dass von der Anzeige (7, 7') emittiertes Licht zum Anzeigen von Informationen (3b) durch die Kontaktoberfläche (10) empfangen werden kann; wobei die Blende (9) an der zweidimensionalen Anzeige (7, 7') beweglich angeordnet werden kann; und die Benutzerschnittstelle (1) dazu eingerichtet ist, eine Bewegung der Blende (9) auf der zweidimensionalen Anzeige (7, 7') als eine Benutzereingabe (5) zu erfassen, wobei die Benutzerschnittstelle (1) dazu eingerichtet ist, eine Drehbewegung der Blende (9) und eine relative Translationsbewegung zwischen der Blende (9) und der zweidimensionalen Anzeige (7, 7') zu erfassen, wobei die Drehbewegung durch eine Drehung der Blende (9) um eine senkrecht zu der Kontaktoberfläche (10) und/oder der zweidimensionalen Anzeige (7, 7') angeordnete Drehachse (R) definiert ist.

Description

  • Die vorliegende Erfindung betrifft eine Benutzerschnittstelle für ein Fahrzeug. Die vorliegende Erfindung betrifft außerdem ein Lenkrad und ein Fahrzeug.
  • Eine bekannte Benutzerschnittstelle kann eine zweidimensionale flache Anzeige zum Anzeigen von Informationen und/oder eine physische Taste oder einen physischen Knopf zum Erfassen einer Benutzereingabe und zum Bereitstellen einer physischen Affordanz für den Benutzer umfassen.
  • Zweidimensionale Anzeigen werden verwendet, um dem Fahrer und/oder anderen Insassen des Fahrzeugs verschiedene Informationen zu präsentieren. Zweidimensionale Anzeigen können eine Berührungsfunktionalität zum Erfassen einer Benutzereingabe umfassen. Somit kann die zweidimensionale Anzeige mit Berührungsfunktionalität, die auch als Touchscreen bezeichnet wird, einen Teil der Benutzerschnittstelle mit einer großen Anzahl von Funktionen bereitstellen. Während des Fahrens scheint es schwierig zu sein, eine große Anzahl von Funktionen zu nutzen, insbesondere für den Fahrer, der seine Aufmerksamkeit auf das Fahren des Fahrzeugs richten muss. Darüber hinaus scheint es aufgrund eines Mangels an durch einen Benutzer, z. B. den Fahrer, wahrnehmbarer Rückmeldung für den Benutzer schwierig zu sein, eine genaue Eingabe, z. B. mit einem Finger des Benutzers, durchzuführen. Aus demselben Grund ist der Fahrer abgelenkt und muss visuelle und kognitive Aufmerksamkeit auf die Bedienung einer berührungsempfindlichen Anzeige richten. Das heißt, eine solche zweidimensionale Anzeige umfasst mehrere Aspekte, die einer Verbesserung bedürfen.
  • Physische Tasten stellen eine physische Affordanz bereit, die insbesondere bei Verwendung in einem Fahrzeug wichtige Vorteile bereitstellt. So z. B. Benutzerfreundlichkeit durch Bereitstellen physischer Stabilität für einen mit der Taste interagierenden Finger, reduzierte Ablenkung im Vergleich zur Verwendung eines Touchscreens und Vertrautheit, da der physische Ort und die Funktion der Taste im Wesentlichen gleichbleibend sind. Die physische Taste gestattet eine blinde Bedienung, da der Benutzer behält und/oder fühlt, wo die Taste zu finden ist, wie sie zu bedienen ist und/oder welche Funktion sie hat. Somit ermöglicht eine physische Taste im Vergleich zu einer berührungsempfindlichen Anzeige eine vorteilhafte taktile Wahrnehmung. Darüber hinaus kann eine physische Taste auch ein ästhetisches Merkmal des Fahrzeugs sein. Physische Tasten weisen jedoch Eigenschaften auf, die nachteilig sein können, wie zum Beispiel das Aufweisen einer dedizierten Funktion und eine fehlende Beziehung zu der digitalen Benutzerschnittstelle, beispielsweise zu einem Inhalt, der auf einer zweidimensionalen Anzeige angezeigt wird.
  • Ein digitaler Touchscreen und eine grafische Benutzerschnittstelle, GUI, sind digital oder virtuell, anstatt physisch wie eine „analoge“ Vorrichtung, beispielsweise der Lautstärkeknopf oder -schieberegler an einer alten Hi-Fi- oder Stereoanlage, der Temperaturregler an einem Thermostat oder einer Heizung usw. Analoge Schnittstellen haben den Vorteil, dass sie sehr leicht zu verstehen sind und gelten als intuitiv.
  • US 2020/0079216 A1 offenbart eine Bedienungseinrichtung, die einen Touchscreen und einen Bedienungsknopf im Bereich des Touchscreens umfasst, wobei der Knopf eine Seitenwand mit mehreren Lichtausgaben von mindestens einem Leuchtsegment oder einer Pixelmatrix umfasst, und wobei der Knopf in dem Bedienfeld des Touchscreens bereitgestellt ist. Bei dieser Ausführungsform ist der Knopf nicht beweglich, da er in dem Touchscreen integriert ist. Dies gestattet eine Erfassung einer Drehbewegung, einer Schiebebewegung und/oder einer Drückbewegung eines Fingers auf der Oberfläche des Bedienungsknopfes, während der Bedienungsknopf unbewegt bleibt. Alternativ ist der Knopf mittels eines Stabs oder einer Achse als separate Komponente in dem Touchscreen integriert. Dies gestattet eine relative Bewegung des Knopfes in Bezug zu dem Touchscreen, insbesondere eine Hebelbewegung und/oder eine Kippbewegung.
  • Hierbei umfasst die Bedienungseinrichtung eine in dem Knopf bereitgestellte gekrümmte Pixelmatrix. Eine solche gekrümmte Pixelmatrix ist jedoch kostspielig und eine elektrische Verbindung damit aufgrund der Beweglichkeit komplex. Des Weiteren ist die Bewegung des Knopfes durch den Stab oder die Achse beschränkt.
  • Die Aufgabe der Erfindung besteht darin, eine verbesserte Benutzerschnittstelle bereitzustellen, die die Vorteile einer analogen Benutzerschnittstelle und einer digitalen Schnittstelle kombiniert und insbesondere verbesserte Eingabeverfahren ermöglicht.
  • Die Aufgabe wird durch die Merkmale der unabhängigen Ansprüche gelöst. Ausführungsformen der Erfindung werden in den abhängigen Ansprüchen, in den Figuren und in der Beschreibung dargelegt.
  • Gemäß einer Ausführungsform der Erfindung ist eine Benutzerschnittstelle für ein Fahrzeug zum Präsentieren von sichtbaren Informationen eingerichtet und zum Erfassen einer Benutzereingabe eingerichtet; die Benutzerschnittstelle umfasst eine optische Blende, umfassend eine flache Kontaktoberfläche, eine dreidimensionale Anzeigeoberfläche zum Anzeigen von Informationen und ein optisches Lichtleitermaterial, das zwischen der Kontaktoberfläche und der dreidimensionalen Anzeigeoberfläche bereitgestellt ist; wobei eine zweidimensionale Anzeige und die Kontaktoberfläche derart angeordnet werden können, dass von der Anzeige emittiertes Licht zum Anzeigen von Informationen durch die Kontaktoberfläche empfangen werden kann; wobei die Blende an der zweidimensionalen Anzeige beweglich angeordnet werden kann; und die Benutzerschnittstelle dazu eingerichtet ist, eine Bewegung der Blende auf der zweidimensionalen Anzeige als eine Benutzereingabe zu erfassen, wobei die Benutzerschnittstelle dazu eingerichtet ist, eine Drehbewegung der Blende und eine relative Translationsbewegung zwischen der Blende und der zweidimensionalen Anzeige zu erfassen, wobei die Drehbewegung durch eine Drehung der Blende um eine senkrecht zu der Kontaktoberfläche und/oder der zweidimensionalen Anzeige angeordnete Drehachse definiert ist.
  • Die Erfindung kombiniert die dreidimensionale Blende, die eine kontextuelle empfindliche digitale und physische Affordanz bereitstellen kann, mit der zweidimensionalen Anzeige, auf der die Blende beweglich angeordnet werden kann. Hierdurch werden die Einfachheit der Verwendung und die Sicherheit einer Benutzereingabe verbessert, indem physische Affordanzen zum Berühren und Halten auf dem zweidimensionalen Bildschirm bereitgestellt werden. Die auf der zweidimensionalen Anzeige angebrachte Blende ermöglicht eine Benutzerschnittstelle, die ermöglicht, dass ein Benutzer die Blende physisch berührt, hält und artikuliert, und fügt zusätzliche Stabilität und Einfachheit der Verwendung beim Bedienen der Blende zur Durchführung einer Benutzereingabe hinzu. Hierbei bedeutet der Ausdruck Artikulieren der Blende, dass die Blende bewegt wird. Die Fähigkeit, die Blende physisch zu artikulieren, bietet eine zusätzliche Dimension der Benutzereingabe an der Benutzerschnittstelle über die Blende, d. h. eine reichere und ausdrucksstärkere Benutzerschnittstelle.
  • Die Benutzerschnittstelle ist zum Erfassen einer Bewegung der Blende eingerichtet. Die Bewegung der Blende umfasst eine Drehbewegung und eine Translationsbewegung. Die Translationsbewegung ist eine lineare Bewegung, die zu der zweidimensionalen Anzeige lokal parallel ist, zu der zweidimensionalen Anzeige lokal senkrecht ist und/oder eine lineare Kombination davon ist. Hierbei bezieht sich der Ausdruck lokal auf eine zweidimensionale Anzeige, die gebogen und/oder gekrümmt sein kann und somit eine variierende Normalenrichtung auf der Oberfläche der zweidimensionalen Anzeige umfasst. Die Benutzerschnittstelle ist dazu eingerichtet, die Bewegung der Blende, d. h. die Drehung um die Drehachse und die Translation der Blende relativ zu der zweidimensionalen Anzeige, zu erfassen. Dies vergrößert die Variabilität der Eingabe auf intuitive Weise.
  • Somit wird die Funktionalität von Tasten zu der digitalen Benutzerschnittstelle, wie etwa einer Benutzerschnittstelle für ein CID oder eine Panoramaanzeige (pillar-to-pillar, p2p), eine Lenkradsteuerung (MFL), ein Panorama-Head-up-Display (PHUD) und/oder ein Personal Information Display (PID), verlagert, ohne die Komplexität der Benutzerschnittstelle zu erhöhen. Somit vereinfacht die Erfindung die Benutzerschnittstelle, ohne die Funktionalität der Benutzerschnittstelle zu verschlechtern.
  • Optional ist die Benutzerschnittstelle zum Erfassen des Vorhandenseins und/oder des Nichtvorhandenseins der Blende auf der zweidimensionalen Anzeige eingerichtet. Die Bewegung der Blende relativ zu der zweidimensionalen Anzeige umfasst ein Entfernen der Blende von der zweidimensionalen Anzeige und/oder ein Positionieren der Blende auf der zweidimensionalen Anzeige. Diese Ausführungsform ermöglicht einen zusätzlichen Modus der Eingabe und/oder Ausgabe. Die Benutzerschnittstelle ist dazu eingerichtet, ein Positionieren der Blende auf der zweidimensionalen Anzeige und/oder ein Entfernen der Blende von der zweidimensionalen Anzeige zu erfassen.
  • Optional ist eine Flächenausdehnung der dreidimensionalen Anzeigeoberfläche und/oder eine Flächenausdehnung der Kontaktoberfläche kleiner als eine Flächenausdehnung der zweidimensionalen Anzeige, wobei die zweidimensionale Anzeige mehrere Erfassungsabschnitte umfasst, wobei die Benutzerschnittstelle dazu eingerichtet ist, die Bewegung der Blende an den Erfassungsabschnitten zu erfassen. Diese Ausführungsformen ist besonders effektiv beim lokalisierten Erfassen der Bewegung der Blende. Die Erfassungsabschnitte sind auf der zweidimensionalen Anzeige angeordnet und/oder verteilt und voneinander getrennt. Die Translationsbewegung der Blende umfasst eine Bewegung der Blende von einem ersten Erfassungsabschnitt zu einem zweiten Erfassungsabschnitt. An einem oder mehreren der Erfassungsabschnitte kann die Drehbewegung der Blende erfasst werden.
  • Optional umfasst die Benutzerschnittstelle mehrere zweidimensionale Anzeigen, wobei jeweils zwei der zweidimensionalen Anzeigen voneinander getrennt sind. Bei dieser Ausführungsform kann die Bewegung der Blende an einer der zweidimensionalen Anzeigen erfasst werden.
  • Optional ist die Benutzerschnittstelle dazu eingerichtet, die Bewegung der Blende auf einer ersten zweidimensionalen Anzeige von einer Bewegung der Blende auf einer zweiten zweidimensionalen Anzeige zu unterscheiden. Dieser Ausführungsform ermöglicht ein unterscheidendes Erfassen einer Bewegung der Blende, wobei die Bewegung der Blende anhand der zweidimensionalen Anzeige, auf der die Bewegung der Blende erfasst wird, unterschieden wird.
  • Optional ist die Benutzerschnittstelle dazu ausgelegt, eine Benutzereingabe in Abhängigkeit von der zweidimensionalen Anzeige, auf der die Bewegung der Blende erfasst wird, abzuleiten. Diese Ausführungsform ermöglicht einen zusätzlichen Modus der Benutzereingabe, da die Bewegung der Blende auf der ersten zweidimensionalen Anzeige optional zu einer anderen Eingabe als die Bewegung der Blende auf der zweiten zweidimensionalen Anzeige führt.
  • Optional ist die Benutzerschnittstelle dazu eingerichtet, Informationen in Abhängigkeit von der Bewegung der Blende anzuzeigen. Dieser Ausführungsform ermöglicht eine direkte Antwort der Benutzerschnittstelle auf die Bewegung der Blende.
  • Optional ist die dreidimensionale Anzeigeoberfläche berührungsempfindlich. Die Blende kann berührungsempfindlich sein, beispielsweise durch kapazitive Berührungserfassung, wodurch Multi-Touch-Benutzereingabe und -Gesten ermöglicht werden. Diese Ausführungsform ermöglicht einen zusätzlichen Modus der Benutzereingabe. Beispielsweise ist eine kombinierte Benutzereingabe aus der Artikulation der Blende und direkter Interaktion auf der Blende ableitbar, beispielsweise ändert, wenn die Blende zu einer statischen Position gedreht wird, die GUI, die auf der Blende erscheint, die Funktionalität gemäß der Ausrichtung der Blende, und der Benutzer kann mittels Berührung mit dem auf der zweidimensionalen Anzeige angezeigten Inhalt interagieren.
  • Optional ist die Benutzerschnittstelle dazu eingerichtet, eine kombinierte Benutzereingabe aus einer Eingabe an der dreidimensionalen Anzeigeoberfläche und/oder der zweidimensionalen Anzeige und aus der Bewegung der Blende abzuleiten. Diese Ausführungsform ermöglicht einen zusätzlichen Modus der Benutzereingabe.
  • Gemäß einer Ausführungsform der Erfindung umfasst ein Fahrzeug die erfindungsgemäße Benutzerschnittstelle. Optional umfasst die Benutzerschnittstelle des Fahrzeugs eines oder mehrere der oben beschriebenen optionalen Merkmale, um eine damit assoziierte technische Wirkung zu erzielen.
  • Weitere Merkmale der Erfindung werden in den Ansprüchen, in den Figuren und in der Beschreibung dargelegt.
  • Oben beschriebene Merkmale und Kombinationen von Merkmalen sowie in den Figuren offenbarte und im Zusammenhang mit den Figuren beschriebenen Merkmale und Kombinationen von Merkmalen können als solche verwendet werden oder kombiniert werden, ohne den Schutzumfang der Erfindung zu verlassen.
  • In den Figuren zeigen:
    • 1 eine schematische Darstellung einer in einem Fahrzeug enthaltenen Benutzerschnittstelle gemäß einer Ausführungsform der Erfindung;
    • 2 einen Abschnitt einer schematischen Seitenansicht der in 1 gezeigten Benutzerschnittstelle;
    • 3 eine schematische Darstellung eines Verfahrens zum Bedienen der in 1 und 2 gezeigten Benutzerschnittstelle; und
    • 4 eine perspektivische schematische Darstellung einer Benutzerschnittstelle gemäß einer Ausführungsform der Erfindung.
  • In den Figuren werden dieselben und funktional ähnliche Elemente mit denselben Bezugszeichen verwendet.
  • 1 zeigt eine schematische Darstellung einer in einem Fahrzeug 2 enthaltenen Benutzerschnittstelle 1. Die Benutzerschnittstelle 1 ist dazu eingerichtet, einem Benutzer 4 sichtbare Informationen 3a, 3a', 3b, 3b', 3b'' zu präsentieren, und ist dazu eingerichtet, eine Benutzereingabe 5 durch einen Benutzer 4 zu erfassen. Der Benutzer 4 kann ein Fahrer des Fahrzeugs 2 und/oder ein Insasse des Fahrzeugs 2 sein. Der Benutzer 4 kann auch ein Insasse eines autonom fahrenden Fahrzeugs 2 sein. Die Benutzerschnittstelle 1 kann an einer beliebigen Oberfläche im vorderen oder hinteren Teil des Fahrzeugs 1 für einen beliebigen Benutzer angeordnet sein; beispielsweise an einem Lenkrad, einem Armaturenbrett, einer Mittelkonsole, einer Mittelarmlehne, einer Türverkleidung. Die Benutzerschnittstelle 1 ist in einem Innenraum 6 des Fahrzeugs 2 angeordnet, sodass ein Benutzer 4 sichtbare Informationen 3a, 3a', 3b, 3b', 3b'', die durch die Benutzerschnittstelle 1 ausgegeben werden, wahrnehmen kann.
  • Die Benutzerschnittstelle 1 umfasst zwei zweidimensionale Anzeigen 7, 7', die voneinander getrennt sind und auch als Anzeigepanel bezeichnet werden, zum Anzeigen von Informationen 3a, 3a' auf einem Anzeigeabschnitt 8. Bei einer anderen Ausführungsform (siehe 3 und 4) umfasst die Benutzerschnittstelle 1 eine zweidimensionale Anzeige 7. Der Anzeigeabschnitt 8 ist ein Abschnitt der zweidimensionalen Anzeigen 7, 7', auf dem Informationen 3a zweidimensional und visuell wahrnehmbar angezeigt werden. Die angezeigten Informationen 3a können jedoch auch so gerendert werden, dass sie dreidimensional erscheinen, beispielsweise kann es sich bei den Anzeigen 7, 7' um eine Anzeige handeln, die eine 3D-Simulation durchführt, beispielsweise eine stereografische oder eine autostereografische Anzeige. Die zweidimensionale Anzeige 7, 7' umfasst eine Pixelanordnung, beispielsweise eine Pixelmatrix mit einem zweidimensionalen Array aus farbigen Pixeln, die einzeln beleuchtet werden können. Die zweidimensionale Anzeige 7, 7' verweist nicht notwendigerweise auf eine geometrische Form der Anzeige, beispielsweise kann die Anzeige gekrümmt, gebogen und/oder flexibel sein. Die zweidimensionalen Anzeigen 7, 7', beispielsweise ein CID oder eine Panoramaanzeige, können jeweils um eine oder mehrere Achsen gekrümmt oder gebogen sein, sodass sie optional eine Form aufweisen, die einem Abschnitt des Innenraums 6 des Fahrzeugs 2 entspricht. Die zweidimensionalen Anzeigen 7, 7' sind jeweils eine aktive Matrix, beispielsweise eine MicroLED, eine OLED, ein LCD, ein MicroDisplay, starr oder flexibel.
  • Die Benutzerschnittstelle 1 umfasst eine optische Blende 9, umfassend eine Kontaktoberfläche 10, eine dreidimensionale Anzeigeoberfläche 11 zum Anzeigen von Informationen 3b, 3b', 3b'' und ein optisches Lichtleitermaterial 12, das zwischen der Kontaktoberfläche 10 und der dreidimensionalen Anzeigeoberfläche 11 bereitgestellt ist, siehe auch 2. Die Blende 9 kann an einer Vorderseite der ersten Anzeige 7 angeordnet werden und ist in der gezeigten schematischen Darstellung dort angeordnet. Die Blende 9 kann an der zweiten Anzeige 7' angeordnet werden. Die Blende 9 umfasst eine Flächenausdehnung der dreidimensionalen Anzeigeoberfläche 11 und/oder eine Flächenausdehnung der Kontaktoberfläche 10, die kleiner als eine Flächenausdehnung der Anzeige 7 ist. Die Blende 9 kann auf jeder der zweidimensionalen Anzeigen 7, 7' angeordnet werden, sodass die Kontaktoberfläche 10 derart angeordnet ist, dass sie Licht, das von der jeweiligen Anzeige 7, 7' emittiert wird, empfängt. Die Blende 9 bedeckt einen Teilbereich der Anzeige 7, 7', auf der die Blende 9 angeordnet ist. Die Blende 9 und ihre Anordnung werden außerdem in 2 gezeigt und unter Bezugnahme darauf weiter erläutert.
  • In 1 umfasst die Benutzerschnittstelle 1 die zweidimensionalen Anzeigen 7, 7' und die optische Blende 9 zum Ausgeben der visuell wahrnehmbaren Informationen 3a, 3a', 3b, 3b', 3b''. Die Blende 9 ist ein lokalisierter Touchpoint/eine lokalisierte Affordanz mit speziellem Benutzerschnittstelleninhalt und ermöglicht Benutzerinteraktionen. Bei einer Ausführungsform ist die Blende 9 wesentlich kleiner als die Anzeigen 7, 7', beispielsweise weist die größere Anzeige 7 eine Diagonale von 10 Zoll bis 50 Zoll auf, und die Blende 9 weist eine Diagonale, einen Durchmesser und/oder eine charakteristische Länge von 1 Zoll bis 4 Zoll auf.
  • Die Blende 9 ist beweglich auf der zweidimensionalen Anzeige 7 angeordnet. Die Blende 9 kann frei sein zum Bewegen auf, Entfernen von und Platzieren auf der zweidimensionalen Anzeige 7.
    Die Benutzerschnittstelle 1 ist dazu eingerichtet, eine Bewegung der Blende 9 auf der zweidimensionalen Anzeige 7 als Benutzereingabe 5 zu erfassen. Die Benutzerschnittstelle 1 ist dazu eingerichtet, eine Drehbewegung der Blende 9 und eine relative Translationsbewegung zwischen der Blende 9 und der zweidimensionalen Anzeige 7 zu erfassen. Die Drehbewegung ist durch eine Drehung der Blende 9 um die senkrecht zu der Kontaktoberfläche 10 und/oder der zweidimensionalen Anzeige 7 angeordnete Drehachse R definiert (siehe 2 und 4). Optional ist die zweidimensionale Anzeige 7 derart geformt, dass gestattet ist, dass sich die Blende 9 innerhalb dieser Form oder Gestalt der Anzeige bewegen kann. Optional oder zusätzlich kann die Artikulation ein Entfernen und Positionieren der Blende 9 auf einer der zweidimensionalen Anzeigen 7, 7' beinhalten (siehe auch 9 (C)).
  • Die zweidimensionale Anzeige 7 umfasst mehrere Erfassungsabschnitte 19, wie durch die Rechtecke mit Punktlinien angegeben. Die Benutzerschnittstelle 1 ist dazu eingerichtet, die Bewegung der Blende 9 an den Erfassungsabschnitten 19 zu erfassen. D. h., die Bewegung der Blende 9, die an der zweidimensionalen Anzeige 7 innerhalb der Erfassungsabschnitte 19 angeordnet ist, kann erfasst werden. Die Benutzerschnittstelle 1 ist dazu eingerichtet, eine Benutzereingabe 5 in Abhängigkeit von der zweidimensionalen Anzeige 7, auf der die Bewegung der Blende 9 erfasst wird, abzuleiten.
  • Optional kann die Blende 9 insbesondere innerhalb der Erfassungsabschnitte 19 durch Magnete, die durch die zweidimensionale Anzeige 7, 7' wirken, lokalisiert werden. Dies ermöglicht, dass die Blende 9 an einer beliebigen Stelle und/oder an voreingestellten Stellen entfernbar und ersetzbar ist. Die Blende 9 kann durch eine magnetische, elektromagnetische, mechanische oder elektromechanische Anordnung eingeschränkt oder festgestellt werden, beispielsweise um eine Bewegung und/oder eine Artikulation einzuschränken, um den Drehfreiheitsgrad zu begrenzen, um die Reibung zu erhöhen oder um eine inkrementelle oder abgestufte Bewegung bereitzustellen. Bei dieser Ausführungsform umfasst die Blende 9 optional ein Material, das eine magnetische und/oder elektromagnetische Interaktion mit einem Magneten und/oder mit einem Elektromagneten ermöglicht. Insbesondere umfasst die Benutzerschnittstelle 1, beispielsweise die Anzeige 7, 7', optional einen dedizierten Andockabschnitt, an dem die Blende 9 durch eine Anziehungskraft angeordnet und fixiert werden kann. Dies ermöglicht eine individuelle Anpassung der Position einer oder mehrerer Blenden 9 für unterschiedliche Benutzer, beispielsweise geeignet für die Reichweite eines Fahrers und/oder eines Insassen. Somit definieren die Magnete und/oder ein elektromagnetisch anziehendes Element eine Position der Blende 9. Optional ist die Anordnung der Blende 9 an einem oder mehreren Andockabschnitten gemäß einem Zustand oder einem Merkmal der GUI individuell anpassbar, beispielsweise einer speziellen auf der GUI ausgeführten App, gemäß der Fahrt, wie etwa Fahrtbeginn und/oder während der Fahrt, und/oder Gaming, Optional bestimmt die Konfiguration des einen oder der mehreren Magnete, ob die Blende 9 zu artikulieren ist oder sich in einer statischen Position und/oder Ausrichtung befindet. Darüber hinaus können Magnete, Elektromagnete und/oder eine Kombination elektromechanischer Elemente verwendet werden, um dynamisch zu steuern, ob die Blende 9 festgestellt oder frei zum Artikulieren und/oder zum Bewegen ist. Die Magnete und/oder Elektromagnete können hinter der Anzeige 7, 7' angeordnet werden, und es kann auf ein Loch oder eine Öffnung durch die Anzeige 7, 7' verzichtet werden. Physischer Widerstand oder haptische Effekte können durch magnetische Elemente, Elektromagneten und/oder einen haptischen Aktuator bereitgestellt werden.
    Die Anzeige 7 und die Blende 9 sind berührungsempfindlich, beispielsweise indem eine kapazitive, resistive oder ultraschallbasierte und/oder kamerabasierte Berührungsempfindlichkeit bereitgestellt wird, um die Benutzereingabe 5 zu erfassen. Die Benutzereingabe 5 kann durch die berührungsempfindliche Anzeige 7 bei Durchführung auf der zweidimensional Anzeige 7 und relativ zu der Blende 9 als Benutzerinteraktion erfasst werden. Die Benutzereingabe 5 relativ zu der Blende 9 kann durch die dreidimensionale Anzeigeoberfläche 9, die berührungsempfindlich ist, erfasst werden.
  • Die Benutzereingabe 5, d. h. die Berührungsbenutzereingabe und die Benutzerinteraktion, wird an eine Datenverarbeitungsvorrichtung 13 übertragen, die in der Benutzerschnittstelle 1 enthalten ist. Zum Empfangen der Benutzereingabe 5 umfasst die Datenverarbeitungsvorrichtung 13 eine oder mehrere Schnittstellen zum Empfangen und/oder einen oder mehrere Datenspeicher zum Speichern von Daten, die die durch die Anzeige 7 und/oder relativ zu der Blende 9 erfasste Benutzereingabe 5 repräsentieren.
  • Die Datenverarbeitungsvorrichtung 13 ist zum Ableiten einer kombinierten Benutzereingabe 5 eingerichtet. Basierend auf der kombinierten Benutzereingabe 5 ist die Benutzerschnittstelle 1 dazu eingerichtet, ein Steuersignal zu bestimmen, das Steuerdaten zum Anzeigen der Informationen 3a, 3a', 3b, 3b', 3b'' auf dem Anzeigeabschnitt 8 und/oder auf der Blende 9 enthält.
  • Die Benutzerschnittstelle 1 kann multisensorische Rückmeldung wie etwa visuelle Rückmeldung, angezeigt auf der zweidimensionalen Anzeige 7, der Blende 9 oder OLED/LCD-Anzeigen, Umgebungsbeleuchtung oder -projektion, mechanische Betätigung und/oder weitere taktile Rückmeldung, Audiorückmeldung wie etwa Soundeffekte oder Musik und/oder olfaktorische Rückmeldung (nicht gezeigt) umfassen. Die Benutzerschnittstelle 1 stellt multimodale Interaktionen bereit, d. h., haptische Effekte und die visuell wahrnehmbare Anzeige der Informationen 3a, 3a', 3b, 3b', 3b'' werden kombiniert und können durch die Anwendung beispielsweise eines Augmented-Reality- oder Virtual-Reality-Head-Mounted-Display weiter verbessert werden. Insbesondere ist die Blende 9 zum Liefern einer haptischen Rückmeldung während einer Bewegung und/oder Artikulation eingerichtet. Optische Effekte können über die Anzeige 7 bereitgestellt werden, wenn die Blende 9 durch den Benutzer 4 während oder gleichzeitig mit einer Berührung oder Bewegung der Blende 9 durch den Benutzer 4 artikuliert wird.
  • 2 zeigt einen Abschnitt einer schematischen Seitenansicht der in 1 gezeigten Benutzerschnittstelle 1. 2 wird in Bezug auf Einzelheiten der Benutzerschnittstelle 1 von 1 beschrieben.
  • Die zweidimensionale Anzeige 7 umfasst einen Kontaktabschnitt 18, der die Kontaktoberfläche 10 der Blende 9 kontaktiert, um Licht, das durch die zweidimensionale Anzeige 7 an dem Kontaktabschnitt 18 emittiert wird, über die Kontaktoberfläche 10 und das Lichtleitermaterial 12 zu der dreidimensionalen Anzeigeoberfläche 11 zu übertragen, wobei das übertragene Licht die Informationen 3b, 3b', 3b'' enthält, die auf der dreidimensionalen Anzeigeoberfläche 11 sichtbar sind.
  • Die dreidimensionale Anzeigeoberfläche 11 umfasst mehrere Oberflächenabschnitte 11a, 11b, die durch eine Kante 17 voneinander getrennt sind. Die Blende 9 kann so geformt sein, dass sie eine dreidimensionale Oberfläche bereitstellt, die der Benutzer kann. Beispielsweise kann die dreidimensionale Anzeigeoberfläche 11 abgeschrägte Kanten, beispielsweise wie ein Juwel, aufweisen, wie in 1 und 2 schematisch gezeigt, oder segmentierte oder kontinuierliche konkave, konvexe und/oder organische Oberflächenabschnitte aufweisen und/oder eine symmetrische oder asymmetrische runde oder rechteckige Form aufweisen (nicht gezeigt). Die Oberflächenabschnitte 11a, 11b können auch anders als durch Kanten 17 getrennt sein, beispielsweise können die Oberflächenabschnitte 11 a, 11b scheinbar kontinuierlich ineinander übergehen. Außerdem ist es möglich, dies und Kanten 17 zu kombinieren. Bei einer anderen nicht gezeigten Ausführungsform kann eine Kante oder ein Abschnitt der dreidimensionalen Anzeigeoberfläche 11 durch grafische Bearbeitung der GUI virtuell simuliert oder erweitert werden, beispielsweise kann eine digitale Änderung der Farbe/des Materials/der Oberflächenbehandlung, des Rendering des Materials/der Oberfläche und/oder der Beleuchtung das Erscheinungsbild der Blende 9 verändern.
  • Wie in 2 gezeigt, teilen die mehreren Kanten 17 die dreidimensionale Anzeigeoberfläche 11 in mehrere Anzeigeabschnitte 11 a, 11b auf. Die Benutzerschnittstelle 1 ist dazu eingerichtet, Informationen 3b, 3b', 3b'' derart anzuzeigen, dass die Informationen 3b', 3b'', die auf den mehreren Anzeigeabschnitten 11a, 11b sichtbar sind, abhängig oder unabhängig voneinander sein können. Die Benutzerschnittstelle 1 ist dazu eingerichtet, Informationen 3b', 3b'', die auf den mehreren Anzeigeabschnitten 11a, 11b sichtbar sind, separat zu bestimmen. D. h., jedes Segment der dreidimensionalen Anzeigeoberfläche 11 der Blende 9 kann andere Informationen 3b, 3b', 3b'' anzeigen.
  • Die Benutzerschnittstelle 1 ist dazu eingerichtet, eine Benutzereingabe 5 relativ zu den Oberflächenabschnitten 11a, 11b der Blende 9 separat zu erfassen. Die Benutzereingabe 5, die für unterschiedliche Oberflächenabschnitte 11 a, 11b separat erfasst wird, kann verwendet werden, um unterschiedliche kombinierte Benutzereingaben 5 abzuleiten. Wenn der Benutzer 4 beispielsweise einen ersten Oberflächenabschnitt berührt und eine spezifische Berührungsbenutzereingabe 5 durchführt, kann die kombinierte Benutzereingabe 5 anders sein, als wenn der Benutzer 4 einen zweiten Oberflächenabschnitt berühren und eine spezifische Berührungsbenutzereingabe 5 durchführen würde. Die Berührungsbenutzereingabe 5 und/oder Gesten auf oder über der Blende 9 können unabhängig oder in Kombination wirken. Die Berührungsempfindlichkeit der Blende 9 kann mit multimodalen Sensoren kombiniert werden, beispielsweise Kopf- und/oder Augen-Tracking, das kamerabasiert sein kann, Finger- und/oder Handnähe- und -gestenerfassung, beispielsweise durch eine Kamera, wie etwa basierend auf RGB, IR, TOF-Bildgebung oder LIDAR. Derartige Interaktionen können Gesten basierend auf Berührung, Aktionen in der Luft und/oder Gesten in der Luft (d. h. Gesten, die in einem Abstand von 6 bis 12 Zoll zu der Blende 9 durchgeführt werden) und/oder einer Nähe der Hand oder des Fingers zu der Blende 9 beinhalten. Hierzu können Antippen, Schieben, Ziehen, langes Drücken, Force-Touch, Multi-Touch usw. gehören.
  • Die Blende 9 kann aus Glas oder Polymer bestehen. Wie insbesondere in 2 schematisch angedeutet, ist die Blende 9 ein solider Körper ohne Hohlraum, um eine effiziente Übertragung von Licht zu gewährleisten. Das Licht, das von dem Kontaktabschnitt 16 der zweidimensionalen Anzeige 7 zu der dreidimensionalen Anzeigeoberfläche 11 übertragen wird, verlässt die Blende 9 direkt an der Grenze zwischen der dreidimensionalen Oberflächenanzeige 11 und einer Umgebung der Blende 9, beispielsweise Luft, in der Regel im Innenraum 6 des Fahrzeugs 2. D. h., das Licht, das von dem Kontaktabschnitt 16 übertragen wird, wird nur durch den soliden Körper der Blende 9 übertragen und muss nur zwei Grenzen durchqueren, nämlich von dem Kontaktabschnitt 16 zu der Kontaktoberfläche 10 der Blende 9 und von der dreidimensionalen Anzeigeoberfläche 11 der Blende 9 zu der Umgebung. Dies reduziert die Anzahl von Grenzen, die das Licht bei der Fortbewegung von dem Kontaktabschnitt 16 zu dem Benutzer durchqueren muss. Dadurch kann das Ausmaß optischer Verluste gering gehalten werden, und es wird eine hochqualitative Lichtübertragung erzielt.
  • Optional ist das Lichtleitermaterial 12 eine Zusammensetzung aus vielen optischen Fasern (Faseroptikelemente oder ähnliches Lichtleitmaterial). Das Lichtleitermaterial 12 wird durch Ziehen und Komprimieren (unter Erhitzung und Druck) verarbeitet, sodass die resultierenden Faseroptikelemente einen Rasterabstand zwischen 5 und 50 Mikrometer oder weniger aufweisen. Dadurch wird die Blende 9 ein solider Körper. Die Faseroptikelemente können (beispielsweise als Ergebnis der Materialverarbeitung/-bildung oder der Fertigung des letztendlichen 3D-Blendenteils) dahingehend ausgerichtet sein, den Blickwinkel (also einen Blickkegel mit einer mittleren Achse, die longitudinal zu einer Achse des Faseroptikelements verläuft) zu steuern. Der Blickwinkel einer 3D-Blende 9 wird vollständig durch den Blickwinkel der Faseroptikelemente, aus denen die Blende 9 besteht, bestimmt. Die Blende 9 kann eine hochqualitative Übertragung von Licht und einen für den Blickwinkel des Benutzers 4 geeigneten Blickkegel zur Verwendung mit einer hochauflösenden zweidimensionalen Anzeige 7 bereitstellen, beispielsweise einer zweidimensionalen Anzeige 7 mit einer Auflösung von 4k bis 8k und/oder einer Pixeldichte von 600 Pixeln pro Zoll oder mehr. Eine Pixeldichte von 150 Pixeln pro Zoll oder 200 Pixeln pro Zoll ist jedoch auch möglich und stellt eine angemessene Auflösung bereit.
  • Die Faseroptikelemente sind so angeordnet, dass jedes der Faseroptikelemente zwischen der Kontaktoberfläche 10 und der dreidimensionalen Anzeigeoberfläche 11 gekrümmt ist. An der Kontaktoberfläche 10 sind die Faseroptikelemente senkrecht zu der Kontaktoberfläche 10. An der dreidimensionalen Anzeigeoberfläche 11 sind die Faseroptikelemente senkrecht zu der dreidimensionalen Anzeigeoberfläche 11. Die Faseroptikelemente ermöglichen eine effiziente und koordinierte Übertragung von Licht und verhindern ungewünschte visuelle Artefakte, beispielsweise eine sichtbare Grenze, ein sichtbarer Zwischenraum, eine sichtbare Klebeverbindung, und führen zu einem nahtloseren und/oder grenzenloseren Erscheinungsbild. Das Lichtleitermaterial 12 der Blende 9 umfasst Abschnitte mit unterschiedlich ausgerichteten Faseroptikelementen. Jeder Abschnitt der dreidimensionalen Anzeigeoberfläche 11 wird durch eines der Faseroptikelemente erreicht. Somit sind die Faseroptikelemente derart angeordnet, dass eine Baugruppenstruktur verdeckt ist, sodass die Baugruppenstruktur durch einen Benutzer 4 visuell nicht wahrnehmbar ist. Somit werden dadurch der inaktive Bereich und/oder eine Baugruppenstruktur, wie etwa eine Hardwarekomponente zum Halten der Blende 9 auf der zweidimensionalen Anzeige 7, und/oder Magneten effektiv verdeckt.
  • Die Blende 9 ist in der Form eines drehbaren und beweglichen Knopfes, der berührungsempfindlich, drehbar und translatorisch beweglich ist. Die Blende 9 kann um eine Drehachse R, wie durch die Strichpunktlinie angegeben, gedreht werden. Die Drehachse R ist parallel zu einem Normalenvektor der zweidimensionalen Anzeige 7 und/oder der Kontaktoberfläche 10, die optional parallel zu der zweidimensionalen Anzeige 7 ist. Somit ist die Drehachse R lokal senkrecht zu der zweidimensionalen Anzeige 7. Optional ist die Drehachse R eine Symmetrieachse der Blende 9, um die Benutzerinteraktion und das Erscheinungsbild der Blende 9 zu verbessern. Optional ist ein Grenzflächenmaterial oder -fluid zwischen der Kontaktoberfläche 10 und der zweidimensionalen Anzeige 7 angeordnet, beispielsweise ein optisches Öl, das einen Brechungsindex aufweist, der mit dem Brechungsindex der Blende 9 übereinstimmt oder zwischen einem Außenflächenmaterial der zweidimensionalen Anzeige 7 und dem Brechungsindex des Blendenmaterials liegt.
  • Die Benutzerschnittstelle 1 erfasst die Artikulation, d. h. die Bewegung der Blende 9 als Benutzereingabe 5, der Blende 9, beispielsweise Bewegung, Schieben, Drehung, Entfernung, Platzierung usw. Die Bewegung der Blende 9 kann unter Verwendung von kapazitiver Erfassung, Krafterfassung und/oder kamerabasierten Sensoren erfasst werden.
  • Die GUI, die auf der Blende 9 erscheint und um die Blende 9 herum auf der zweidimensionalen Anzeige 7 erscheint, ist dazu eingerichtet, auf Berührungseingabe und/oder Gesten und auf die Drehung der Blende 9 zu reagieren. Die Benutzerschnittstelle 1 ist dazu eingerichtet, Informationen 3b, 3b', 3b'' in Abhängigkeit von der Bewegung der Blende 9 anzuzeigen.
  • Darüber hinaus kann eine Krafterfassung der Blende 9, beispielsweise abgeleitet von einer Erfassung, über die zweidimensionale Anzeige 7, der Kraft auf der Drehachse R oder der an der Blende 9 angewendeten Kraft, ermöglichen, dass das System zusätzliche Eingaben, wie etwa ein Schieben oder Ziehen von Seite zu Seite, ein Schieben oder Ziehen nach vorne/hinten, ein Schieben nach unten oder ein Ziehen nach oben usw. für verschiedene Interaktionen, wie etwa Navigation von Karten, Medieninhalt, Spiegeljustierung, Benutzereinstellungen, registriert. Beispielsweise wird ein Schieben oder Ziehen auf der Blende 9 erfasst, um eine Anpassung des Werts einer Funktion bereitzustellen, beispielsweise könnte ein Schieben oder Ziehen das Hereinzoomen/Herauszoomen einer Kartenansicht anpassen.
  • Optional umfasst die Benutzerschnittstelle 1 einen Rahmen, der die Blende 9 umgibt. Der Rahmen ist dahingehend eingerichtet und angeordnet, die Artikulation der Blende 9 einzuschränken oder eine Eingabe in einen Sensor, beispielsweise einen kapazitiven Berührungssensor, Kamera-Vision, bereitzustellen. Bei einer anderen Ausführungsform umfasst die zweidimensionale Anzeige 7 eine Öffnung oder ein Loch, die bzw. das ermöglicht, dass ein mechanisches Merkmal mit der Blende 9 verbunden wird, angebracht wird oder die Artikulation einschränkt oder ein Erfassen der Artikulation der Blende 9 gestattet.
  • 3 zeigt eine schematische Darstellung eines Verfahrens zum Bedienen der in 1 und 2 gezeigten Benutzerschnittstelle 1. 3 wird unter Bezugnahme auf 1 und 2 beschrieben.
  • In 3 (A) ist die Blende 9 beweglich auf der zweidimensionalen Anzeige 7 angeordnet. Hierbei wird die Blende 9 gedreht, wie durch den gekrümmten Doppelpfeil angegeben. Die Drehung der Blende 9 wird durch die Benutzerschnittstelle 1 als Benutzereingabe 5 erfasst.
  • In 3 (B) ist die Blende 9 beweglich auf der zweidimensionalen Anzeige 7 angeordnet. Hierbei wird die Blende 9 translatorisch bewegt, wie durch die gekrümmten Doppelpfeile angegeben. Die translatorische Bewegung der Blende 9 wird durch die Benutzerschnittstelle 1 als Benutzereingabe 5 erfasst.
  • In 3 (C) ist die Blende 9 neben der zweidimensionalen Anzeige 7 angeordnet und kann auf der zweidimensionalen Anzeige 7 angeordnet werden. Hierbei kann die Blende 9 auf der zweidimensionalen Anzeige 7 angeordnet werden, wie durch den gekrümmten Doppelpfeil angegeben. Die Anordnung und/oder Positionierung der Blende 9 auf der zweidimensionalen Anzeige 7 wird durch die Benutzerschnittstelle 1 als Benutzereingabe 5 erfasst. Umgekehrt wird das Entfernen der Blende 9 von der zweidimensionalen Anzeige 7 durch die Benutzerschnittstelle 1 als Benutzereingabe 5 erfasst.
  • In 3 (D) ist die Blende 9 beweglich auf der zweidimensionalen Anzeige 7 angeordnet. Hierbei wird die Benutzereingabe 5 als eine durch den Benutzer 4 auf der zweidimensionalen Anzeige 7 durchgeführte Berührungseingabe erfasst. Darüber hinaus wird die Blende 9 gedreht, wie durch die zwei Pfeile an der rechten Hand des die Blende 9 artikulierenden Benutzers 4 angegeben. Die Drehung der Blende 9 wird durch die Benutzerschnittstelle 1 als Benutzereingabe 5 erfasst. Die Benutzerschnittstelle 1 ist dazu eingerichtet, eine kombinierte Benutzereingabe 5 aus einer Eingabe an der dreidimensionalen Anzeigeoberfläche 11 und/oder der zweidimensionalen Anzeige 7 und aus der Bewegung der Blende 9 abzuleiten. Die auf der zweidimensionalen Anzeige 7 und/oder der Blende 9 angezeigte GUI reagiert auf die Benutzereingabe 5 durch die Artikulation der Blende 9 und/oder auf eine Multi-Touch-Eingabe an der Blende und/oder der umgebenden zweidimensionalen Anzeige 7. D. h., ein Benutzer 4 kann die Blende 9 berühren und drehen und die Benutzerschnittstelle 1 reagiert sowohl auf das Berührungsals auch das Drehereignis, beispielsweise Ändern einer Farbe, Grafik, Bewegungsgrafik bei Berührung und Modifizieren eines Merkmals/einer Funktion, wie etwa der Audiolautstärke, wenn die Blende 9 gedreht wird. Separate Ereignisse können durch die Benutzerschnittstelle 1 registriert werden, wenn die Blende 9 durch den Benutzer 4 als unterschiedliche Benutzereingaben 5 berührt oder artikuliert wird. Die Benutzerschnittstelle 1 kann Informationen 3a, 3a', 3b, 3b', 3b'' gemäß diesen Ereignissen anzeigen. Beispielsweise berührt der Benutzer 4 eine Oberfläche der Blende 9, die einer Funktion oder einer „Taste“ entspricht, bewegt oder dreht dann die Blende 9 als eine Benutzereingabe 5, um den Wert der Funktion, die bei Berührung ausgewählt wurde, zu manipulieren.
  • 4 zeigt eine perspektivische schematische Darstellung einer Benutzerschnittstelle 1 gemäß einer Ausführungsform der Erfindung. Die Benutzerschnittstelle 1 wird unter Bezugnahme auf die unter Bezugnahme auf 1 und 2 beschriebene Benutzerschnittstelle 1 beschrieben.
  • Berührungserfassung und/oder Kameraerfassung ermöglicht, dass der Benutzer 4 eine Berührungs- und Artikulationseingabe 5 an der Benutzerschnittstelle 1 bereitstellt. Beispielsweise ist die Blende 9 eine Vorrichtung, die als eine Eingabevorrichtung und ein Drehknopf fungiert. Die Blende 9 umfasst einen kreisförmigen Querschnitt mit einer zylindrischen Seite, d. h. einer lateralen Oberfläche 20, die mit einer Höhe von 10-12 mm über der zweidimensionalen Anzeige 7 vorsteht. Die obere Oberfläche der Blende 9 kann eine 3-dimensionale Oberfläche 11, eine facettierte Oberfläche oder eine beliebige Oberflächenform oder -gestalt aufweisen. Alle Oberflächen 11, 11 a, 11b, 20 der Blende 9 sind berührungsempfindlich, und das System erfasst die Drehung, d. h. die Artikulation, der Blende 9 durch den Benutzer 4. Bei diesem Beispiel würde eine Drehung der Blende 9 die Einstellung von Modi, Merkmalen und Funktionen wie Klima- und Temperatursteuerung gestatten. Der Benutzer 4 könnte durch Antippen, Wischen oder Anwenden von Gesten eine Eingabe basierend auf dem GUI-Zustand, d. h. auf den durch die Benutzerschnittstelle 1 angezeigten Informationen 3a, 3a', 3b, 3b', 3b'', bereitstellen. Die GUI würde über die Oberflächen der Blende 9 und/oder den die Blende 9 umgebenden Bereich der zweidimensionalen Anzeige 7 eine Echtzeitbewegungsgrafikrückmeldung zu der Benutzereingabe 4 bereitstellen.
  • Bezugszeichenliste
  • 1
    Benutzerschnittstelle
    2
    Fahrzeug
    3a, 3a', 3b, 3b', 3b''
    Informationen
    4
    Benutzer
    5
    Benutzereingabe
    6
    Innenraum
    7, 7'
    zweidimensionale Anzeige
    8
    Anzeigeabschnitt
    9
    Blende
    10
    Kontaktoberfläche
    11
    dreidimensionale Anzeigeoberfläche
    11a, 11b
    Oberflächenabschnitt
    12
    Lichtleitermaterial
    13
    Datenverarbeitungsvorrichtung
    16
    Kontaktabschnitt
    17
    Kante
    18
    berührungsempfindliche Vorrichtung
    19
    Erfassungsabschnitt
    20
    laterale Oberfläche
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 20200079216 A1 [0006]

Claims (10)

  1. Benutzerschnittstelle (1) für ein Fahrzeug (2), eingerichtet zum Präsentieren von sichtbaren Informationen (3a, 3a', 3b, 3b', 3b'') und eingerichtet zum Erfassen einer Benutzereingabe (5); wobei die Benutzerschnittstelle (1) Folgendes umfasst: - eine optische Blende (9), umfassend eine flache Kontaktoberfläche (10), eine dreidimensionale Anzeigeoberfläche (11) zum Anzeigen von Informationen (3b, 3b', 3b'') und ein optisches Lichtleitermaterial (12), das zwischen der Kontaktoberfläche (10) und der dreidimensionalen Anzeigeoberfläche (11) bereitgestellt ist; wobei - eine zweidimensionale Anzeige (7, 7') und die Kontaktoberfläche (10) derart angeordnet werden können, dass von der Anzeige (7, 7') emittiertes Licht zum Anzeigen von Informationen (3b) durch die Kontaktoberfläche (10) empfangen werden kann; wobei - die Blende (9) beweglich an der zweidimensionalen Anzeige (7, 7') angeordnet werden kann; und - die Benutzerschnittstelle (1) dazu eingerichtet ist, eine Bewegung der Blende (9) auf der zweidimensionalen Anzeige (7, 7') als Benutzereingabe (5) zu erfassen, wobei - die Benutzerschnittstelle (1) dazu eingerichtet ist, eine Drehbewegung der Blende (9) und eine relative Translationsbewegung zwischen der Blende (9) und der zweidimensionalen Anzeige (7, 7') zu erfassen, wobei die Drehbewegung durch eine Drehung der Blende (9) um eine Drehachse (R), die senkrecht zu der Kontaktoberfläche (10) und/oder der zweidimensionalen Anzeige (7, 7') angeordnet ist, definiert ist.
  2. Benutzerschnittstelle (1) nach einem der vorhergehenden Ansprüche, wobei - die Benutzerschnittstelle (1) zum Erfassen des Vorhandenseins und/oder des Nichtvorhandenseins der Blende (9) auf der zweidimensionalen Anzeige (7, 7') eingerichtet ist.
  3. Benutzerschnittstelle (1) nach einem der vorhergehenden Ansprüche, wobei - eine Flächenausdehnung der dreidimensionalen Anzeigeoberfläche (11) und/oder eine Flächenausdehnung der Kontaktoberfläche (10) kleiner als eine Flächenausdehnung der zweidimensionalen Anzeige (7, 7') ist, wobei die zweidimensionale Anzeige (7, 7') mehrere Erfassungsabschnitte (19) umfasst, wobei - die Benutzerschnittstelle (1) dazu eingerichtet ist, die Bewegung der Blende (9) an den Erfassungsabschnitten (19) zu erfassen.
  4. Benutzerschnittstelle (1) nach einem der vorhergehenden Ansprüche, wobei - die Benutzerschnittstelle (1) mehrere zweidimensionale Anzeigen (7, 7') umfasst, wobei jeweils zwei der zweidimensionalen Anzeigen (7, 7') voneinander getrennt sind.
  5. Benutzerschnittstelle (1) nach Anspruch 5, wobei - die Benutzerschnittstelle (1) dazu eingerichtet ist, die Bewegung der Blende (9) auf einer ersten zweidimensionalen Anzeige (7) von einer Bewegung der Blende (9) auf einer zweiten zweidimensionalen Anzeige (7') zu unterscheiden.
  6. Benutzerschnittstelle (1) nach Anspruch 6, wobei - die Benutzerschnittstelle (1) dazu eingerichtet ist, eine Benutzereingabe (5) in Abhängigkeit von der zweidimensionalen Anzeige (7, 7'), auf der die Bewegung der Blende (9) erfasst wird, abzuleiten.
  7. Benutzerschnittstelle (1) nach einem der vorhergehenden Ansprüche, wobei - die Benutzerschnittstelle (1) dazu eingerichtet ist, Informationen (3b, 3b', 3b'') in Abhängigkeit von der Bewegung der Blende (9) anzuzeigen.
  8. Benutzerschnittstelle (1) nach einem der vorhergehenden Ansprüche, wobei - die dreidimensionale Anzeigeoberfläche (11) berührungsempfindlich ist.
  9. Benutzerschnittstelle (1) nach Anspruch 8, wobei - die Benutzerschnittstelle (1) dazu eingerichtet ist, eine kombinierte Benutzereingabe (5) aus einer Eingabe an der dreidimensionalen Anzeigeoberfläche (11) und/oder der zweidimensionalen Anzeige (7, 7') und aus der Bewegung der Blende (9) abzuleiten.
  10. Fahrzeug (1), umfassend die Benutzerschnittstelle (1) nach einem der vorhergehenden Ansprüche.
DE102022107164.2A 2022-03-25 2022-03-25 Benutzerschnittstelle für ein Fahrzeug und Fahrzeug Pending DE102022107164A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022107164.2A DE102022107164A1 (de) 2022-03-25 2022-03-25 Benutzerschnittstelle für ein Fahrzeug und Fahrzeug
US18/186,851 US20230322082A1 (en) 2022-03-25 2023-03-20 User Interface for a Vehicle and a Vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022107164.2A DE102022107164A1 (de) 2022-03-25 2022-03-25 Benutzerschnittstelle für ein Fahrzeug und Fahrzeug

Publications (1)

Publication Number Publication Date
DE102022107164A1 true DE102022107164A1 (de) 2023-09-28

Family

ID=87930652

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022107164.2A Pending DE102022107164A1 (de) 2022-03-25 2022-03-25 Benutzerschnittstelle für ein Fahrzeug und Fahrzeug

Country Status (2)

Country Link
US (1) US20230322082A1 (de)
DE (1) DE102022107164A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200079216A1 (en) 2017-06-07 2020-03-12 Audi Ag Method for operating a display arrangement of a motor vehicle, operator control device and motor vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200079216A1 (en) 2017-06-07 2020-03-12 Audi Ag Method for operating a display arrangement of a motor vehicle, operator control device and motor vehicle

Also Published As

Publication number Publication date
US20230322082A1 (en) 2023-10-12

Similar Documents

Publication Publication Date Title
EP2331361B1 (de) Verfahren und vorrichtung zum anzeigen von informationen, insbesondere in einem fahrzeug
DE102008041625B4 (de) Bedienelement für eine Anzeigevorrichtung in einem Transportmittel sowie Mittelkonsole eines Kraftfahrzeugs und Verfahren zum Betrieb eines Bedienelements für eine Anzeigevorrichtung sowie Computerprogrammprodukt
EP1997667B1 (de) Informationsvermittlungsvorrichtung und Verfahren zur Vermittlung von Informationen
EP2473908B1 (de) Verfahren und vorrichtung zum anzeigen von informationen
EP1798588B1 (de) Bediensystem zum Bedienen von Funktionen in einem Fahrzeug
EP3484738B1 (de) Fahrzeug mit einer bedien- und anzeigevorrichtung und verfahren zum betreiben eines solchen fahrzeugs
EP3507681B1 (de) Verfahren zur interaktion mit bildinhalten, die auf einer anzeigevorrichtung in einem fahrzeug dargestellt werden
EP2750914B1 (de) Verfahren und vorrichtung zum bereitstellen einer nutzerschnittstelle, insbesondere in einem fahrzeug
WO2010046147A1 (de) Verfahren und vorrichtung zum anzeigen von in listen geordneter information
DE102009036371A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle
DE102009037680A1 (de) Cockpiteinheit für ein Fahrzeug mit verschiebbarer Steuerungseinheit zum Führen des Fahrzeugs
EP2930603B1 (de) Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle in einem Fahrzeug
EP3508968A1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
EP3508967A1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
EP2485913A1 (de) Verfahren und anzeigeeinrichtung zum anzeigen von informationen
DE102013000069B4 (de) Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung
EP2808775B1 (de) Controller für ein Informationswiedergabesystem für ein Fahrzeug
DE102009023897A1 (de) Verfahren zum Bedienen einer Anzeigevorrichtung für betrachtungsseitenspezifische Informationsanzeigen und Bedienvorrichtung hierfür
EP3532332B1 (de) Verfahren und vorrichtung zur blickwinkelabhängigen darstellung einer grafischen benutzerschnittstelle
DE102016224235A1 (de) Verfahren und Vorrichtung zur Anpassung der Darstellung von Bild- und/oder Bedienelementen auf einer grafischen Benutzerschnittstelle
DE102022107164A1 (de) Benutzerschnittstelle für ein Fahrzeug und Fahrzeug
DE102016218003A1 (de) Verfahren und Vorrichtung zur Optimierung der Darstellung auf einem Display oder mehreren Displays und/oder der Interaktion mit einem Display oder mehreren Displays in einem Fahrzeug
DE102022107166B3 (de) Benutzerschnittstelle für ein Fahrzeug, Lenkrad für ein und Fahrzeug
EP2885153B1 (de) Verfahren zum bereitstellen einer bedienvorrichtung in einem fahrzeug und bedienvorrichtung für ein fahrzeug
DE102022107167A1 (de) Benutzerschnittstelle für ein Fahrzeug und Fahrzeug

Legal Events

Date Code Title Description
R083 Amendment of/additions to inventor(s)