DE102010048745A1 - Benutzerschnittstelle und Verfahren zum Bedienen einer Benutzerschnittstelle - Google Patents

Benutzerschnittstelle und Verfahren zum Bedienen einer Benutzerschnittstelle Download PDF

Info

Publication number
DE102010048745A1
DE102010048745A1 DE102010048745A DE102010048745A DE102010048745A1 DE 102010048745 A1 DE102010048745 A1 DE 102010048745A1 DE 102010048745 A DE102010048745 A DE 102010048745A DE 102010048745 A DE102010048745 A DE 102010048745A DE 102010048745 A1 DE102010048745 A1 DE 102010048745A1
Authority
DE
Germany
Prior art keywords
display device
predetermined
area
specific target
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102010048745A
Other languages
English (en)
Inventor
Dr. Wäller Christoph
Mike Salzer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102010048745A priority Critical patent/DE102010048745A1/de
Publication of DE102010048745A1 publication Critical patent/DE102010048745A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • B60K2360/11
    • B60K2360/1438
    • B60K2360/1442
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung betrifft eine Benutzerschnittstelle, insbesondere eine Benutzerschnittstelle (1) in einem Kraftfahrzeug, wobei die Benutzerschnittstelle (1) mindestens eine Bedieneinrichtung (4, 4-1, 4-2, 4-3, 4-4, 4-5, 4-6) und eine Anzeigeeinrichtung (2) umfasst, wobei eine Auswahl eines auf der Anzeigeeinrichtung (2) dargestellten Objekts (X, Y, U, V, W) mittels der Bedieneinrichtung (4, 4-1, 4-2, 4-3, 4-4, 4-5, 4-6) erfassbar ist, wobei bei Detektion eines Beginns einer Verschiebeoperation des Objekts (X, Y) vorbestimmte objektspezifische Zielbereiche (Z) graphisch kennzeichenbar sind, die auf der Anzeigeeinrichtung (2) dargestellt sind, sowie ein Verfahren zum Bedienen einer Benutzerschnittstelle (1).

Description

  • Die Erfindung betrifft eine Benutzerschnittstelle und ein Verfahren zum Bedienen einer Benutzerschnittstelle, insbesondere einer Benutzerschnittstelle in einem Kraftfahrzeug.
  • Zur Bedienung von Funktionen eines Kraftfahrzeugs sind im Kraftfahrzeug in der Regel eine Vielzahl von Benutzerschnittstellen vorgesehen. Eine Benutzerschnittstelle kann hierbei eine Bedieneinrichtung sowie eine Anzeigeeinrichtung umfassen, wobei mittels der Bedieneinrichtung z. B. vorbestimmte Funktionen des Kraftfahrzeugs aktivierbar oder deaktivierbar sind und mittels der Anzeigeeinrichtung eine visuelle Information z. B. eines Kraftfahrzeugführers erfolgen kann.
  • In modernen Kraftfahrzeugen werden u. a. Touchscreens als Benutzerschnittstelle eingesetzt. Eine Bedienung einer solchen Benutzerschnittstelle kann mittels eines Betätigungselements, z. B. eines Fingers, eines Stifts oder eines Handschuhs, erfolgen. So offenbart beispielsweise die WO 2007/042184 A2 eine Eingabevorrichtung für ein Kraftfahrzeug, wobei die Eingabevorrichtung ein Display zur optischen Darstellung zumindest eines Bedienelements, dem eine Funktion zugeordnet ist, umfasst. Über dem Display ist hierbei ein Touchscreen angeordnet, wobei der Touchscreen zum Erkennen einer Berührung des Touchscreens im Bereich des Bedienelements dient. Die Eingabevorrichtung weist eine Steuerung zur Entscheidung über die Bedienung der Funktion auf, wobei die Entscheidung über die Bedienung einer ersten oder einer zweiten Funktion in Abhängigkeit einer Dauer einer Berührung des Touchscreens erfolgt.
  • Mittels Benutzerschnittstellen ist eine wachsende Anzahl von Funktionalitäten, beispielsweise von Funktionalitäten eines Fahrzeug-Infotainments, zu bedienen. In Zukunft werden solche Funktionalitäten auch nachladbar sein, so dass eine Vielzahl von verschiedenen Applikationen im Fahrzeug vorhanden sein kann.
  • Ein Software-System zur Ausführung derartiger Applikationen und die zugehörige Prozessor-Hardware können hierbei bedingen, dass nicht alle verfügbaren Applikationen gleichzeitig ausgeführt werden können. Es ist somit erforderlich, dass ein Nutzer Applikationen starten und beenden kann. Nur aktive oder aktivierte Applikationen beanspruchen dann eine Rechenleistung des Systems.
  • Gleichzeitig bedingt die Vielzahl von Applikationen eine vermehrte oder erhöhte Konzentration eines Kraftfahrzeugführers oder Bedieners der Benutzerschnittstelle auf die Bedienung dieser Benutzerschnittstelle, da einem Bediener immer mehr Möglichkeiten zur Verfügung stehen. Es ist daher wünschenswert, eine Bedienung einer Benutzerschnittstelle so einfach und intuitiv wie möglich zu gestalten, um eine Aufmerksamkeit eines Bedieners nicht übermäßig zu beanspruchen. Gleichzeitig ist es wünschenswert, einem Bediener nur einen wichtigen Teil aller verfügbaren Informationen auf einer Anzeigeeinrichtung der Benutzerschnittstelle anzuzeigen, da ein Bediener die ihn interessierende Information bei einer Vielzahl von dargestellten Informationen erst zeitaufwändig suchen muss, was wiederum eine erhöhte Aufmerksamkeit zur Erfassung von auf der Anzeigeeinrichtung dargestellten Informationen erfordert.
  • Es stellt sich das technische Problem, eine Benutzerschnittstelle und ein Verfahren zum Bedienen der Benutzerschnittstelle zu schaffen, welche ein möglichst einfaches, schnelles und übersichtliches Bedienen der Benutzerschnittstelle, insbesondere ein Verschieben von auf einer Anzeigeeinrichtung der Benutzerschnittstelle dargestellten Objekten, ermöglichen und gleichzeitig eine einfache, intuitive und schnelle Auswahl und Bedienung von auf der Anzeigeeinrichtung dargestellten oder darzustellenden Objekten ermöglichen.
  • Die Lösung des technischen Problems ergibt sich aus den Gegenständen mit den Merkmalen der Ansprüche 1 und 9. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.
  • Vorgeschlagen wird ein Verfahren zum Bedienen einer Benutzerschnittstelle, insbesondere einer Benutzerschnittstelle in einem Kraftfahrzeug. Die Benutzerschnittstelle umfasst mindestens eine Bedieneinrichtung und eine Anzeigeeinrichtung. Weiter kann die Benutzerschnittstelle eine zentrale Steuer- und Auswerteeinrichtung umfassen. Die Benutzerschnittstelle kann hierbei einer Eingabe von Informationen eines Bedieners und/oder einer visuellen Darstellung von Informationen für einen Bediener dienen. Die Anzeigeeinrichtung kann hierbei ein Display sein, wobei auf dem Display grafische Informationen wie z. B. Objekte darstellbar sind. Die Bedieneinrichtung kann z. B. eine Tastatur, eine Maus, ein Eye-Tracker, ein Joystick, ein Trackball, ein System zur sprachgesteuerten Bedienung oder ein weiteres, dem Fachmann bekanntes, System zum Bedienen sein. Die Bedieneinrichtung kann ferner eine Positionserfassungseinrichtung umfassen, die eine Position eines Betätigungselements erfasst. Die derart erfasste Position eines Betätigungselements ist einer Position auf der Anzeigeeinrichtung zuordenbar. Vorzugsweise ist die Bedieneinrichtung ein so genannter Touchscreen, der vorzugsweise über der als Display ausgebildeten Anzeigeeinrichtung angeordnet ist. Auch kann die Bedieneinrichtung ein Touchpad sein, wobei der Touchpad räumlich von der Anzeigeeinrichtung entfernt angeordnet ist.
  • Im erfindungsgemäßen Verfahren wird eine Auswahl eines auf der Anzeigeeinrichtung dargestellten Objektes erfasst. Das Objekt kann hierbei beispielsweise ein Fenster sein, in welchem Informationen oder weitere (Unter-)Objekte enthalten sind. Auch kann das Objekt ein so genanntes Applikationsobjekt sein, wobei mittels einer Aktivierung des Applikationsobjekts eine vorbestimmte Applikation aktiviert bzw. gestartet werden kann. Eine Auswahl eines auf der Anzeigeeinrichtung dargestellten Objekts mittels eines Bedienens der Bedieneinrichtung erfolgen. Ist z. B. die Bedieneinrichtung ein Touchscreen, so kann dieser mittels eines Betätigungselements im Darstellungsbereich eines auf der z. B. als Display ausgebildeten Anzeigeeinrichtung dargestellten Objekts berührt werden, falls der Touchscreen über dem Display angeordnet ist. Beispielsweise kann ein Objekt aber auch mittels einer Mausbewegung und/oder mittels eines Tastendrucks auf eine Tastatur erfolgen.
  • Eine Darstellung auf der Anzeigeeinrichtung bezeichnet nachfolgend eine auf einer Darstellungsfläche der Anzeigeeinrichtung erfolgende Darstellung.
  • Weiter kann eine gewünschte Operation eines Nutzers aus einer Anzahl objektspezifischer Operationen des ausgewählten Objekts bestimmt werden. Die Anzahl objektspezifischer Operationen umfasst hierbei vorzugsweise alle Operationen, die für das ausgewählte Objekt zum aktuellen Zeitpunkt der Bedienung möglich sind. Beispielhaft, jedoch nicht abschließend, kann die Anzahl objektspezifischer Operationen folgende Operationen umfassen: Operation zur Verschiebung, Operation zum Kopieren, Operation zur Aktivierung einer Applikation, Operation zum Schließen des Objekts, Operation zum Entfernen des Objekts von der Anzeigeeinrichtung, Operation zur Deaktivierung von Applikationen usw. Eine gewünschte Operation wird hierbei in Abhängigkeit einer Bedienung der Bedieneinrichtung durch den Nutzer bestimmt. Beispielsweise kann eine Applikation gestartet werden, falls ein ausgewähltes Applikationsobjekt aktiviert wird, beispielsweise durch einen Doppelklick oder ein zweifaches, wiederholtes Berühren eines Touchscreens im Darstellungsbereich des Objekts. In analoger Weise sind weitere objektspezifische Operationen des ausgewählten Objekts bestimmbar.
  • Erfindungsgemäß werden bei Detektion eines Beginns einer Verschiebeoperation des Objekts vorbestimmte objektspezifische Zielbereiche graphisch gekennzeichnet, die auf der Anzeigeeinrichtung dargestellt sind. Eine Operation zur Verschiebung eines Objekts kann beispielsweise detektiert werden, falls ein Verschiebemodus, beispielsweise über eine Betätigung eines Verschiebemodusschalters, aktiviert wird. Auch kann eine Operation zur Verschiebung bestimmt werden, falls ein ausgewähltes Objekts mittels Bedieneinrichtung oder eines Betätigungselements mittels einer Ziehbewegung bewegt, also verschoben wird.
  • Bei einer Ziehbewegung wird ein Objekt mittels der Bedieneinrichtung oder des Betätigungselements ausgewählt, wobei hiernach bei andauernder Auswahl des Objekts eine Position des Objekts durch Eingabe einer Bewegung mittels der Bedieneinrichtung oder des Betätigungselements verändert wird, wobei eine Änderung der Position der Darstellung des Objekts auf der Anzeigeeinrichtung der Bewegung folgt. Eine Bewegung ist hierbei detektierbar, falls eine Position des Objekts mittels der Bedieneinrichtung oder des Betätigungselements bei andauernder Auswahl um einen vorbestimmten Betrag verändert wird.
  • Ist die Benutzerschnittstelle z. B. als Touchscreen ausgebildet, so kann eine Operation zum Verschieben beispielsweise dann bestimmt werden, falls der Touchscreen im Darstellungsbereich des auszuwählenden Objekts mittels eines Betätigungselements, beispielsweise eines Fingers, berührt wird und das Betätigungselement dann bei andauernder Berührung des Touchscreens in eine gewünschte Richtung bewegt wird, wobei eine Darstellung des ausgewählten Objekts auf der Anzeigeeinrichtung dieser Bewegung folgt.
  • Eine Ziehbewegung dient hierbei also der Durchführung einer Operation zur Verschiebung eines Objekts, wobei eine Operation zur Verschiebung eine Operation zur Änderung der Position einer Darstellung des Objekts auf der Anzeigeeinrichtung bezeichnet.
  • Bei einer derartigen Detektion eines Beginns einer Operation zur Verschiebung werden erfindungsgemäß vorbestimmte objektspezifische und auf der Anzeigeeinrichtung zumindest teilweise dargestellte Zielbereiche graphisch gekennzeichnet. Ein Beginn wird beispielsweise dann detektiert, wenn erstmals eine Bedienung der Bedieneinrichtung detektiert werden kann, die eine Änderung der Position einer Darstellung des Objekts auf der Anzeigeeinrichtung bewirkt. Hierbei können vorbestimmte, objektspezifische Zielbereiche zumindest teilweise auf der Anzeigeeinrichtung selbst dargestellt sein, es können jedoch auch vorbestimmte, objektspezifische Zielbereiche außerhalb der Anzeigeeinrichtung definiert sein.
  • Objektspezifische Zielbereiche bezeichnen hierbei Teilbereiche der Anzeigeeinrichtung, insbesondere Teilbereiche zur Darstellung weiterer Objekte, in welche eine Verschiebung des ausgewählten Objekts zulässig ist. Ist das ausgewählte Objekt beispielsweise eine Datei, so können vorbestimmte, objektspezifische Zielbereiche beispielsweise ein Teilbereich der Anzeigeeinrichtung, der einen Dateiordner darstellt, und/oder einen Teilbereich der Anzeigeeinrichtung, der einen Papierkorb darstellt, umfassen. Ein Teilbereich der Anzeigeeinrichtung, der der Darstellung einer weiteren Datei dient, wäre in dem vorhergehend erläuterten Beispiel kein vorbestimmter, objektspezifischer Zielbereich, also ein unzulässiger Teilbereich.
  • Das erfindungsgemäße Verfahren ermöglicht hierbei in vorteilhafter Weise die vereinfachte, schnellere und intuitivere Ausführung einer Operation zur Verschiebung eines Objekts. Insbesondere ermöglicht das erfindungsgemäße Verfahren vereinfachte Drag-Drop-Interaktionen, wobei Drag-Drop-Interaktionen ein Anfassen und Ziehen von virtuellen Objekten an verschiedene Positionen einer grafischen Anzeigeeinrichtung ermöglichen. Durch Loslassen in bestimmten Teilbereichen der Anzeigeeinrichtung können hierbei funktionale Verknüpfungen zwischen dem in diesem Teilbereich dargestellten Objekt und dem ausgewählten, verschobenen Objekt hergestellt werden. Die grafische Kennzeichnung von vorbestimmten, objektspezifischen Zielbereichen kann eine schnelle und einfache Erfassung von zulässigen Zielen der Operation zur Verschiebung und einer mittels der Verschiebung bewirkten zulässigen funktionellen Verknüpfung durch den Bediener der Benutzerschnittstelle, insbesondere den Kraftfahrzeugführer, ermöglichen, wodurch dieser weniger Zeit zur Verschiebung des ausgewählten Objekts benötigt. Gleichzeitig wird der Bediener der Benutzerschnittstelle von der Aufgabe entlastet, zulässige Zuordnungen zwischen Objekten zu memorisieren, wodurch die Bedienung der erfindungsgemäßen Benutzerschnittstelle flexibler und intuitiver wird.
  • Die vorbestimmten objektspezifischen Zielbereiche werden hierbei zu Beginn einer Operation zur Verschiebung grafisch gekennzeichnet, z. B. zu Beginn der Drag-Drop-Interaktion.
  • In einer weiteren Ausführungsform ist ein Objekt mittels eines haptischen Bedienelements aktivierbar, wobei das haptische Bedienelement an mindestens einem Rand der Anzeigeeinrichtung angeordnet ist. Der Begriff Rand umfasst hierbei den Rand einer Darstellungsfläche der Anzeigeeinrichtung, aber auch einen Rahmen oder eine Fassung der Darstellungsfläche, beispielsweise ein Displaygehäuse. Der Begriff aktivierbar umfasst hierbei, dass ein Objekt auf der Anzeigeeinrichtung angezeigt wird und/oder ein auf der Anzeigeeinrichtung dargestelltes Objekt ausgewählt und/oder eine dem Objekt zugeordnete Applikation gestartet wird. Ein haptisches Bedienelement bezeichnet hierbei ein Element, welches haptisch bedienbar ist, beispielsweise durch ein kurzzeitiges Berühren oder Drücken oder über einen vorbestimmten Zeitraum anhaltendes Berühren oder Drücken mittels eines Betätigungselements. Beim Drücken wird hierbei mindestens eine vorbestimmte Kraft auf das haptische Bedienelement ausgeübt.
  • Das haptische Bedienelement kann hierbei als so genannter Softkey ausgebildet sein. Ein Softkey bezeichnet hierbei ein auf der Darstellungsfläche der Anzeigeeinrichtung dargestelltes funktionelles Objekt, welches mittels der Bedieneinrichtung, z. B. einer Maus, oder einem Betätigungselement betätigbar ist. Ist das haptische Bedienelement als Softkey ausgebildet, so ist es erfindungsgemäß auf der Darstellungsfläche der Anzeigeeinrichtung angeordnet bzw. dargestellt, jedoch an einem Rand der Darstellungsfläche.
  • Alternativ kann das haptische Bedienelement als Hardkey ausgeführt sein. Ein Hardkey ist hierbei nicht auf der Darstellungsfläche der Anzeigeeinrichtung dargestellt, sondern räumlich neben der Anzeigeeinrichtung angeordnet. Hierbei kann das haptische Bedienelements bündig an einem Rand der Darstellungsfläche der Anzeigeeinrichtung an einen Rahmen oder eine Fassung der Darstellungsfläche anliegen oder in einen Rahmen oder eine Fassung der Darstellungsfläche integriert sein.
  • Vorzugsweise ist eine Reihe von haptischen Bedienelementen an mindestens einem Rand der Anzeigeeinrichtung angeordnet. Jedes haptische Bedienelement dieser Reihe von haptischen Bedienelementen dient hierbei der Aktivierung eines dem jeweiligen haptischen Bedienelement zugeordneten Objekts.
  • Weiter vorzugsweise ist das mindestens eine haptische Bedienelement oder die Reihe von haptischen Bedienelementen an genau einem Rand, beispielsweise an dem rechten oder linken oder oberen oder unteren Rand, der Anzeigeeinrichtung angeordnet. Die haptischen Bedienelemente können hierbei beispielsweise als Taster, mechanische Tasten, Knöpfe, Schalter und weitere Elemente zur mechanischen Betätigung ausgebildet sein.
  • Wird ein derartiges haptisches Bedienelement betätigt, so kann das diesem haptischen Bedienelement zugeordnete Objekt in einem vorbestimmten Teilbereich der Anzeigeeinrichtung angezeigt werden. Beispielsweise kann das Objekt in einer Hälfte, beispielsweise einer gesamten rechten Hälfte oder einem Teilbereich der gesamten rechten Hälfte, einer als Display ausgeführten Anzeigeeinrichtung dargestellt werden. Hierbei kann eine vor der Betätigung des haptischen Bedienelements dargestellte Information überblendet oder ersetzt werden. Auch kann bei Betätigung des haptischen Bedienelements das Objekt zentral auf der als Display ausgeführten Anzeigeeinrichtung angezeigt werden.
  • Vorzugsweise wird mittels einer Bedienung des haptischen Bedienelements ein Applikationsobjekt auf der Anzeigeeinrichtung angezeigt und gleichzeitig eine Applikation des Applikationsobjekts aktiviert, d. h. gestartet.
  • Das mindestens eine haptische Bedienelement oder die Reihe von haptischen Bedienelementen kann hierbei frei programmierbar sein. Hierdurch können den haptischen Bedienelementen nutzerspezifisch aktivierbare Objekte zugeordnet werden.
  • Selbstverständlich ist es möglich, weitere Objekte als die den haptischen Bedienelementen zugeordneten Objekte durch z. B. eine Betätigung eines Menü-Bedienelements innerhalb einer Reihe von Bedienelementen und anschließende Auswahl eines Objekts aus einem Auswahlmenü von mehreren Objekten zu aktivieren. Weiterhin ist möglich, dass die Benutzerschnittstelle mindestens ein weiteres, beispielsweise haptisches, Bedienelement aufweist, welches an mindestens einem weiteren Rand der Anzeigeeinrichtung angeordnet ist. Mittels einer Bedienung oder Betätigung des mindestens einen weiteren Bedienelements können hierbei in vorteilhafter Weise weitere Funktionen aktivierbar oder ausführbar sein.
  • Selbstverständlich kann ein Objekt nicht ausschließlich mittels des mindestens einen haptischen Bedienelements aktiviert werden. Es ist auch möglich, das Objekt mittels alternativen Bedienhandlungen, beispielsweise durch (zweifaches) Berühren der z. B. als Touchscreen ausgebildeten Bedieneinrichtung im Bereich des Objekts zu aktivieren.
  • Durch die erfindungsgemäße Aktivierung eines Objekts mittels einer Bedienung oder Betätigung eines haptischen Bedienelements wird in vorteilhafter Weise eine einfache und schnelle Bedienung der Benutzerschnittstelle ermöglicht. Insbesondere erfasst ein Bediener der Benutzerschnittstelle intuitiv, dass mittels des mindestens einen haptischen Bedienelements ein gewünschtes Objekt aktivierbar ist (Schnellwahl-Funktion).
  • In einer weiteren Ausführungsform werden die vorbestimmten objektspezifischen Zielbereiche der Anzeigeeinrichtung durch visuelle Marker gekennzeichnet. Hierbei können die Zielbereiche z. B. farblich markiert werden; beispielsweise mit einer vorbestimmten Transparenz mit einer vorbestimmten Farbe, eingefärbt werden. Hierdurch ergibt sich in vorteilhafter Weise die Möglichkeit einer schnellen, visuellen Erfassung von zulässigen Zielbereichen einer Operation zur Verschiebung. Alternativ oder kumulativ können vorbestimmte objektspezifische Zielbereiche in ihrer Anzeigegröße skaliert werden. Insbesondere können die vorbestimmten objektspezifischen Zielbereiche vergrößert werden, beispielsweise um einen vorbestimmten Prozentsatz. Weiter alternativ oder weiter kumulativ kann zumindest ein Teil der Anzeigeeinrichtung, welcher nicht die vorbestimmten objektspezifischen Zielbereiche umfasst oder abbildet, deaktiviert oder abgedunkelt werden. Hierdurch ergibt sich in vorteilhafter Weise, dass aktive Teilbereiche, nämlich die vorbestimmten objektspezifischen Zielbereiche, leichter von passiven Teilbereichen, nämlich dem verbleibenden Rest (unzulässige Teilbereiche) der Anzeigeeinrichtung, unterschieden werden können. Passive oder unzulässige Teilbereiche können also einen neben den aktiven Teilbereichen verbleibenden Anteil einer Darstellungsfläche der Anzeigeeinrichtung umfassen.
  • Selbstverständlich kann eine Abdunklung von Teilen der Anzeigeeinrichtung, welche nicht die vorbestimmten objektspezifischen Zielbereiche umfasst, an eine skalierten Anzeigegröße von vorbestimmten objektspezifischen Zielbereichen angepasst werden. Zusätzlich können den vorbestimmten objektspezifischen Zielbereichen zugeordnete Randbereiche (active areas) im gleichen Maße wie die vorbestimmten objektspezifischen Zielbereiche skaliert werden. Der Randbereich (active area) beschreibt hierbei einen Bereich um den vorbestimmten objektspezifischen Zielbereich herum, in welchem eine Aktionsauslösung, beispielsweise eine erfolgreiche Verschiebung, auch ohne direkten Kontakt des Objekts mit dem vorbestimmten, objektspezifischen Zielbereich möglich ist.
  • Hierdurch ergibt sich in vorteilhafter Weise, dass eine Gesamtdauer der Operation zur Verschiebung und somit auch die durch die Blickzuwendung beanspruchte Aufmerksamkeit eines Bedieners, insbesondere eines Kraftfahrzeugführers, reduziert wird.
  • In einer weiteren Ausführungsform wird, z. B. während einer detektierten Operation zur Verschiebung, eine aktuelle Position des ausgewählten Objekts auf der Anzeigeeinrichtung bestimmt, wobei das Objekt automatisch zu einem vorbestimmten objektspezifischen Zielbereich verschoben wird, falls die aktuelle Position des Objekts und die Position des vorbestimmten objektspezifischen Zielbereichs oder dessen Randbereich (active area) einen vorbestimmten Abstand unterschreiten. Hierdurch ergibt sich in vorteilhafter Weise, dass das zu verschiebende Objekt ab einer gewissen Entfernung zu einem möglichen Ziel automatisch zu diesem hin bewegt wird (snap to target). Hierbei wird insbesondere auch eine durch eine vorhergehend beschriebene Skalierung veränderte Anzeigegröße des vorbestimmten objektspezifischen Zielbereichs berücksichtigt.
  • Eine Position des Objekts kann hierbei eine Position eines Mittelpunktes des Darstellungsbereichs des Objekts, eine Position eines Darstellungsbereiches, in welchem ein Darstellungsbereich des Objekts berührt wird, oder eine Position eines Randes des Darstellungsbereiches des Objektes sein. Auch kann eine Verschiebung erfolgen, falls sich ein vorbestimmter Prozentsatz des Darstellungsbereiches des Objekts mit dem Zielbereich oder dessen Randbereich überschneidet.
  • Hierdurch ergibt sich in vorteilhafter Weise, dass ein Bediener der Benutzerschnittstelle eine Operation zur Verschiebung eines ausgewählten Objekts bereits vor einem endgültigen Erreichen eines zulässigen Zielbereichs beenden kann, wobei das Objekt dann automatisch zum Zielbereich verschoben wird. Hierdurch ergibt sich eine weitere Reduktion der Interaktionsdauer sowie der vom Bediener benötigten Aufmerksamkeit.
  • In einer weiteren Ausführungsform wird während einer Operation zur Verschiebung eine aktuelle Position des ausgewählten Objekts erfasst und ein aktueller Verschiebepfad des ausgewählten Objekts auf der Anzeigeeinrichtung bestimmt. Zur Bestimmung des aktuellen Verschiebepfads kann beispielsweise eine Position des ausgewählten Objekts während der Operation zur Verschiebung wiederholt zu unterschiedlichen Zeitpunkten erfasst werden. In Abhängigkeit der erfassten Positionen lässt sich dann eine Verschieberichtung sowie eine Verschiebegeschwindigkeit bestimmen. Beispielsweise können Parameter eines linearen Verschiebepfades aus den derart erfassten Positionen, beispielsweise mittels eines Least-Squares-Verfahrens, geschätzt werden.
  • Weiter wird ein idealer Verschiebepfad ermittelt, falls der aktuelle Verschiebepfad einen zulässigen Zielbereich und/oder dessen Randbereich (active area) schneidet. Das Objekt wird dann automatisch entlang des idealen Verschiebepfades zu einem vorbestimmten objektspezifischen Zielbereich verschoben. Zusätzlich kann das Objekt erst dann automatisch entlang des idealen Verschiebepfades verschoben werden, wenn das Objekt für eine vorbestimmte Zeitdauer entlang des idealen Verschiebepfades oder in einem Toleranzbereich um den idealen Verschiebepfad herum in Richtung des vorbestimmten objektspezifischen Zielbereichs verschoben wurde. Somit ergibt sich in vorteilhafter Weise eine Ausführung von Operationen zur Verschiebung mittels so genannter Wischbewegungen. Hierbei kann ein Bediener der Benutzerschnittstelle ein Objekt mittels einer zeitlich kurzen, in Richtung eines gewünschten, beispielsweise auch vergrößerten, vorbestimmten objektspezifischen Zielbereichs bewegen (wischen), wobei die hierin nur angedeutete Operation zum Verschieben des Objekts automatisch beendet wird. Die Wischbewegung kann hierbei durch die Bedieneinrichtung erfasst werden.
  • Eine Wischbewegung ist hierbei eine Ausführungsform der vorhergehend definierten Ziehbewegung, wobei eine Position des Objekts nur für eine kurze vorbestimmte Zeitdauer bei andauernder Auswahl des Objekts durch Eingabe einer Bewegung mittels der Bedieneinrichtung oder des Betätigungselements verändert wird und dann automatisch entlang eines während der vorbestimmten Zeitdauer ermittelten (idealen) Verschiebepfades verschoben wird.
  • Hierdurch ergibt sich in vorteilhafter Weise eine weitere Reduktion der Interaktionsdauer bei einer Operation zum Verschieben sowie eine weitere Reduktion der vom Bediener der Benutzerschnittstelle zum Bedienen benötigten Aufmerksamkeit.
  • In einer weiteren Ausführungsform wird zusätzlich ein Sprachkommando ausgewertet, wobei das ausgewählte Objekt automatisch zu einem vorbestimmten objektspezifischen Zielbereich verschoben wird, falls das Sprachkommando dem vorbestimmten objektspezifischen Zielbereich entspricht. Auch hierdurch kann in vorteilhafter Weise eine Interaktionsdauer der Operation zur Verschiebung des Objekts sowie eine Aufmerksamkeit des Bedieners reduziert werden. Hierbei kann eine Einrichtung zur Spracherkennung aktiviert werden, falls eine Operation zur Verschiebung detektiert wurde. Selbstverständlich ist auch vorstellbar, dass die Auswahl des Objekts sowie die Ausführung der Operation zur Verschiebung ebenfalls durch Sprachkommandos und deren Auswertung erfolgen.
  • In einer weiteren Ausführungsform wird eine zielbereichsspezifische Operation durchgeführt, falls das ausgewählte Objekt in den vorbestimmten objektspezifischen Zielbereich verschoben wird. Einem vorbestimmten objektspezifischen Zielbereich kann hierbei eine vorbestimmte Operation mit einer vorbestimmten Funktionalität zugeordnet sein. Eine erfolgreiche Verschiebung kann detektiert werden, falls eine Position des Objekts in dem vorbestimmten objektspezifischen Zielbereich oder dessen Randbereich liegt. Wie vorhergehend erläutert kann eine Position des Objekts hierbei eine Position eines Mittelpunktes des Darstellungsbereichs des Objekts, eine Position eines Darstellungsbereiches, in welchem ein Darstellungsbereich des Objekts berührt wird, oder eine Position eines Randes des Darstellungsbereiches des Objektes sein. Auch kann eine erfolgreiche Verschiebung erfolgen, falls sich ein vorbestimmter Prozentsatz des Darstellungsbereiches des Objekts mit dem vorbestimmten objektspezifischen Zielbereich oder dessen Randbereich überschneidet.
  • Hierbei können vorbestimmte objektspezifischen Zielbereiche, in welchen eine zielbereichsspezifische Operation durchgeführt wird, zumindest teilweise auf einer Darstellungsfläche der Anzeigeeinrichtung dargestellt sein. Auch können ein vorbestimmter objektspezifischer Zielbereich, in welchen eine zielbereichsspezifische Operation durchgeführt wird, einem außerhalb der Darstellungsfläche der Anzeigeeinrichtung liegendem Bereich zugeordnet sein. Die nachfolgend beschriebenen Ausführungsformen stellen für außerhalb der Darstellungsfläche der Anzeigeeinrichtung liegende Zielbereiche eine eigene Erfindung dar.
  • Hierbei können einem vorbestimmten objektspezifischen Zielbereich vorbestimmte Funktionalitäten, z. B. Löschen des Objekts, Beendigung einer Applikation eines Applikationsobjektes, Starten einer Applikation eines Applikationsobjektes zugeordnet sein. Auch kann eine zielbereichsspezifische Operation eine visuelle und/oder akustische und/oder haptische Darstellung von Inhalten eines Objekts, beispielsweise einer Musikdatei oder einer Textdatei, umfassen. Hierdurch ergibt sich in vorteilhafter Weise, dass ein Bediener der erfindungsgemäßen Benutzerschnittstelle eine Bedienung von Funktionalitäten z. B. eines Kraftfahrzeuges mittels der vorhergehend beschriebenen einfach und schnell durchführbaren Operationen zur Verschiebung, insbesondere einer Wischbewegung, durchführen kann. Insbesondere ermöglicht das erfindungsgemäße Verfahren eine sichere Bedienung der Benutzerschnittstelle, da durch die grafische Kennzeichnung von vorbestimmten objektspezifischen Zielbereichen nur zulässige zielbereichsspezifische Operationen dem Bediener der Benutzerschnittstelle grafisch hervorgehoben werden.
  • In einer weiteren Ausführungsform wird ein Objekt deaktiviert, falls das ausgewählte Objekt in einen vorbestimmten objektspezifischen Zielbereich verschoben wird, der ein Deaktivierungsbereich ist. Der Begriff Deaktivieren umfasst hierbei das Entfernen des Objekts von der Anzeigeeinrichtung bzw. die Beendigung dessen Darstellung. Alternativ oder kumulativ erfasst der Begriff Deaktivieren das Beenden einer dem Objekt zugeordneten Applikation. Hierdurch kann beispielsweise ein als geöffnetes Fenster dargestelltes Objekt geschlossen werden. Auch kann hierdurch in vorteilhafter Weise eine aktive Applikation, beispielsweise ein aktiver Audioplayer, beendet werden.
  • Auch kann eine Deaktivierung eines Objekts auch über eine Betätigung mindestens eines vorbestimmten Teilbereichs des Darstellungsstellungsbereiches (virtueller Funktionsbereich) des Objekts erfolgen. Diesem Teilbereich kann beispielsweise die Funktionalität Deaktivierung zugeordnet sein.
  • In einer weiteren Ausführungsform umfasst ein Deaktivierungsbereich zumindest einen Teil des Randes der Anzeigeeinrichtung, an welchem das mindestens eine haptische Bedienelement angeordnet ist. Hierbei kann ein ausgewähltes Objekt von der Anzeigeeinrichtung entfernt und/oder eine Applikation des ausgewählten Objekts beendet werden, falls das ausgewählte 'Objekt in diesen Deaktivierungsbereich verschoben wird. Der Deaktivierungsbereich kann hierbei z. B. an einem Rand der Darstellungsfläche der Anzeigeeinrichtung angeordnet sein, wobei der Deaktivierungsbereich von diesem Rand in die Darstellungsfläche hineinragt. In diesem Fall wird der auf der Darstellungsfläche angeordnete Deaktivierungsbereich bei einer Detektion eines Beginns einer Operation zur Verschiebung eines Objekts graphisch gekennzeichnet, falls der Deaktivierungsbereich ein zulässiger Zielbereich für das Objekt ist. Auch kann der Deaktivierungsbereich an einem Rand der Darstellungsfläche der Anzeigeeinrichtung angeordnet sein, jedoch nicht in diese hineinragen. In diesem Fall wird der Deaktivierungsbereich nicht auf der Darstellungsfläche dargestellt.
  • Der Deaktivierungsbereich kann hierbei den gesamten Rand der Anzeigeeinrichtung, beispielsweise einen gesamten rechten Rand der Anzeigeeinrichtung, umfassen. Auch kann ein Deaktivierungsbereich nur einen Teil, insbesondere nur den von dem haptischen Bedienelement eingenommenen Teil des Randes der Anzeigeeinrichtung umfassen. Ist das haptische Bedienelement als Softkey ausgebildet, so kann der Deaktivierungsbereich den Darstellungsbereich des Softkeys umfassen. Hierdurch ergibt sich in vorteilhafter Weise eine intuitive Aktivierung sowie Deaktivierung eines Objekts, wobei das Objekts mittels einer Bedienung oder Betätigung des mindestens einen haptischen Bedienelements aktivierbar und mittels einer Verschiebung des Objekts auf das mindestens eine haptische Bedienelement oder in Richtung des mindestens einen haptischen Bedienelements wieder deaktiviert wird. Eine Aktivierung sowie eine Deaktivierung eines Objekts sind auf die Anzeigeeinrichtung bezogen räumlich in überschneidenden oder aneinander angrenzenden Teilbereichen der Anzeigeeinrichtung angeordnet, was eine vereinfachte und intuitive Bedienung ermöglicht.
  • In einer weiteren Ausführungsform wird ein Objekt zumindest teilweise von der Anzeigeeinrichtung entfernt oder nicht mehr oder nur noch teilweise auf der Darstellungsfläche der Anzeigeeinrichtung dargestellt, falls das ausgewählte Objekt in einen vorbestimmten objektspezifischen Zielbereich verschoben wird, der ein Objektwechselbereich ist. Das Entfernen von der Anzeigeeinrichtung bedeutet hierbei, dass das Objekt nicht mehr vollständig auf der Anzeigeeinrichtung, beispielsweise auf dem Display, dargestellt wird. Hierbei kann das ausgewählte Objekt noch teilweise, beispielsweise mit einem vorbestimmten Prozentsatz seiner Darstellungsgröße, auf der Darstellungsfläche der Anzeigeeinrichtung dargestellt werden. So ist vorstellbar, dass das ausgewählte Objekt, falls es in einen Objektwechselbereich verschoben wird, von einem Rand der Anzeigeeinrichtung in ein von der Anzeigeeinrichtung dargestelltes Bild hineinragt. Somit ergibt sich in vorteilhafter Weise, dass nutzerspezifisch Objekte von der Anzeigeeinrichtung entfernt werden können, um eine Darstellung zu vieler Informationen, die einen Bediener der Benutzereinrichtung verwirren können, zu vermeiden. Hierbei können Applikationen von Applikationsobjekten, die zumindest teilweise von der Anzeigeeinrichtung entfernt werden, weiterhin ausgeführt werden. Eine nach einer zumindest teilweisen Entfernung erneute Volldarstellung des Objekts auf der Anzeigeeinrichtung kann hierbei erreicht werden, indem z. B. mittels der Bedieneinrichtung, z. B. einer Maus, der noch auf der Darstellungsfläche der Anzeigeeinrichtung dargestellte Teil des Objekts erneut ausgewählt oder aktiviert wird. Auch ist vorstellbar, eine erneute Volldarstellung auf der Anzeigeeinrichtung mittels einer Betätigung eines diesem Objekt zugeordneten haptischen Bedienelements der Bedieneinrichtung zu erreichen, wobei das ausgewählte Objekt dann in einem vorbestimmten Teilbereich der Anzeigeeinrichtung wieder vollständig dargestellt wird. Das haptische Bedienelement kann hierbei ein haptisches Bedienelement einer vorhergehend beschriebenen Reihe von Bedienelementen sein.
  • In einer weiteren Ausführungsform umfasst ein Objektwechselbereich zumindest einen Teil eines Randes oder zumindest Teile von Rändern der Anzeigeeinrichtung, an welchem oder an welchen das mindestens eine haptische Bedienelement nicht angeordnet ist. Insbesondere kann ein Deaktivierungsbereich an einem ersten Rand und ein Objektwechselbereich an einem weiteren Rand oder mehreren oder allen weiteren Rändern der Anzeigeeinrichtung angeordnet sein. Hierbei kann der Objektwechselbereich z. B. an einem Rand der Darstellungsfläche der Anzeigeeinrichtung angeordnet sein, wobei der Deaktivierungsbereich von diesem Rand in die Darstellungsfläche hineinragt. In diesem Fall wird der auf der Darstellungsfläche angeordnete Objektwechselbereich bei einer Detektion eines Beginns einer Operation zur Verschiebung eines Objekts graphisch gekennzeichnet, falls der Objektwechselbereich ein zulässiger Zielbereich für das Objekt ist. Auch kann der Objektwechselbereich an einem Rand der Darstellungsfläche der Anzeigeeinrichtung angeordnet sein, jedoch nicht in diese hineinragen. In diesem Fall wird der Objektwechselbereich nicht auf der Darstellungsfläche dargestellt.
  • Ist z. B. ein Deaktivierungsbereich im Bereich eines Randes der Anzeigeeinrichtung angeordnet, an welchem das mindestens eine haptische Bedienelement angeordnet ist, so ergibt sich in vorteilhafter Weise, dass ein Objektwechselbereich einem oder mehreren weiteren Rändern der Anzeigeeinrichtung zugeordnet ist, wodurch eine einfache und intuitive Zuordnung von Objekten zu bestimmten funktionellen Bereichen (z. B. Deaktivierungsbereich oder Objektwechselbereich) der Anzeigeeinrichtung erfolgen kann. Dies ermöglicht in vorteilhafter Weise eine einfache und intuitive funktionelle Bedienung der Benutzerschnittstelle mittels Operationen zu verschieben.
  • In einer weiteren Ausführungsform ist ein Verschiebepfad zur Verschiebung eines Objekts in einen Objektwechselbereich orthogonal zu einem Verschiebepfad eines Objektes in einen Deaktivierungsbereich. Beispielsweise kann ein Deaktivierungsbereich zumindest einen Teil eines rechten Randes der Anzeigeeinrichtung umfassen und ein Objektwechselbereich zumindest Teile eines oberen und eines unteren Randes der Anzeigeeinrichtung umfassen, wobei die Anzeigeeinrichtung rechteckig ausgeführt ist. Hierdurch ergibt sich in vorteilhafter Weise eine klare Trennung von Objektwechselbereichen und Deaktivierungsbereichen und gleichzeitig eine eindeutige Differenzierung von Verschiebepfaden einer Operation zur Verschiebung, die eine gewünschte Deaktivierung eines Objekts oder Entfernung eines Objekts von der Anzeigeeinrichtung erreichen soll.
  • In einer weiteren Ausführungsform wird ein Objekt einer Objektliste zugeordnet, falls das Objekt in einen vorbestimmten objektspezifischen Zielbereich verschoben wird, der ein Objektwechselbereich ist. Weiter kann ein dem Objekt in der Objektliste benachbartes Objekt auf der Anzeigeeinrichtung angezeigt werden, wobei in der Objektliste ein letzter Eintrag einem ersten Eintrag benachbart ist. Hierbei kann das dem verschobenen Objekt in der Objektliste benachbarte Objekt das in der Objektliste vorhergehende oder nachfolgende Objekt sein. Eine Auswahl des benachbarten Objekts kann hierbei in Abhängigkeit einer Verschieberichtung des ausgewählten Objekts bestimmt werden. Wird beispielsweise bei einer rechteckigen Anzeigeeinrichtung, bei der Objektwechselbereiche zumindest Teile des oberen und des unteren Randes umfassen, ein Objekt in den oberen Objektwechselbereich verschoben, so kann das dem ausgewählten Objekt in der Objektliste vorhergehende Objekt auf der Anzeigeeinrichtung, beispielsweise in einem vorbestimmten Teilbereich der Anzeigeeinrichtung, angezeigt werden. Wird das ausgewählte Objekt in den unteren Objektwechselbereich verschoben, so kann das dem verschobenen Objekt in der Objektliste vorhergehende Objekt auf der Anzeigeeinrichtung angezeigt werden. Somit ergibt sich in vorteilhafter Weise, dass ein Bediener der erfindungsgemäßen Benutzerschnittstelle durch eine Anzahl von in den Objektwechselbereich verschobenen Objekten blättern kann. Da ein letzter Eintrag einem ersten Eintrag benachbart ist, insbesondere der erste Eintrag ein dem letzten Eintrag nachfolgender Eintrag in der Objektliste ist, kann ein Benutzer in vorteilhafter Weise in der Liste aufsteigend oder absteigend nach einem gesuchten Objekt blättern oder suchen.
  • Selbstverständlich kann ein Blättern in der Objektliste auch über weitere, beispielsweise haptische, Bedienelemente, beispielsweise Slider-Tasten oder Skip-Tasten, erfolgen, wobei derartige Bedienelemente z. B. Teil einer Reihe von haptischen Bedienelementen sein können, die vorhergehend beschrieben wurden.
  • In einer weiteren Ausführungsform wird bei einer vorhergehend erläuterten Betätigung des mindestens einen haptischen Bedienelements mindestens ein auf der Anzeigeeinrichtung, beispielsweise ein in einem vorbestimmten Teilbereich, angezeigtes Objekt der Objektliste zugeordnet und zumindest teilweise von der Anzeigeeinrichtung entfernt. Das auf der Anzeigeeinrichtung angezeigte Objekt wird hierbei also automatisch in den Objektwechselbereich verschoben. Hierbei kann das angezeigte Objekt automatisch als ein einem mittels der Betätigung des mindestens einen haptischen Bedienelements aktivierten Objekts vorhergehendes oder nachfolgendes Objekt in der Objektliste angeordnet werden. Z. B. kann das angezeigte Objekt automatisch in den oberen oder den unteren Objektwechselbereich verschoben werden.
  • Das mittels der vorhergehend erläuterten Betätigung des mindestens einen haptischen Bedienelements aktivierte Objekt kann das vorhergehend, beispielsweise ein dem vorbestimmten Teilbereich der Anzeigeeinrichtung, angezeigte und dann in den Objektwechselbereich verschobene Objekt ersetzen. Weitere, nicht in diesem vorbestimmten Teilbereich angezeigte Objekte können hierbei unverändert auf der Anzeigeeinrichtung angezeigt werden. Hierbei kann das bisher angezeigte Objekt über eine automatische, animierte und auf der Anzeigeeinrichtung dargestellte Operation zur Verschiebung in einen vorbestimmten Objektwechselbereich verschoben werden. Bei wiederholter Aktivierung neuer Objekte, beispielsweise mittels einer Betätigung verschiedener haptischer Bedienelemente, die beispielsweise als eine Reihe von Bedienelementen an einem Rand der Anzeigeeinrichtung angeordnet sind, kann somit eine Objektliste von Objekten generiert werden, wobei nur das zuletzt aktivierte Objekt im vorbestimmten Teilbereich der Anzeigeeinrichtung dargestellt ist. Zusätzlich kann zumindest ein Teil des in der Objektliste vorhergehenden und/oder zumindest ein Teil des in der Objektliste nachfolgenden Objekts auf der Anzeigeeinrichtung dargestellt werden. Beispielsweise ist vorstellbar, dass das zuletzt aktivierte Objekt im vorbestimmten Teilbereich der Anzeigeeinrichtung dargestellt wird, wobei das in der Objektliste vorhergehende Objekt von einem oberen Rand in die Anzeigeeinrichtung und das in der Objektliste nachfolgende Objekt von einem unteren Rand der Anzeigeeinrichtung in die Darstellungsfläche der Anzeigeeinrichtung hineinragt.
  • Ein Wechsel zwischen aktivierten Objekten ist hierbei in vorteilhafter Weise durch eine Ausführung einer Operation zur Verschiebung mittels einer vorhergehend beschriebenen Wischgeste oder einem Wischen möglich. Hierbei wird das zuletzt aktivierte Objekt mittels einer Wischgeste in einen vorbestimmten Objektwechselbereich verschoben.
  • Auch ist möglich, dass das zuletzt aktivierte Objekt oder ein mittels eines Objektwechsels auf der Anzeigeeinrichtung dargestelltes Objekt mittels einer Betätigung eines virtuellen Funktionsbereichs, der beispielsweise in einem vorbestimmten Teilbereich des Objekts dargestellt werden kann, oder durch eine Wischgeste des Objekts in Richtung des Deaktivierungsbereiches deaktiviert und aus der Objektliste entfernt werden kann.
  • Ein vorbestimmter Teilbereich der Anzeigeeinrichtung zur Darstellung eines zuletzt aktivierten oder mittels Objektwechsel ausgewählten Objekts kann in einem Normalzustand einen vorbestimmten Prozentsatz der Darstellungsfläche der Anzeigeeinrichtung, z. B. 50%, einnehmen. Hierbei kann neben dem vorbestimmten Teilbereich in dem oder den verbliebenen Teilbereichen eine Hintergrund-Darstellung sichtbar bleiben. Somit kann ein aktiviertes Objekt einer Hintergrund-Darstellung überlagert werden.
  • Auch ist möglich, ein Objekt auf der insgesamt verfügbaren Darstellungsfläche der Anzeigeeinrichtung darzustellen (Fullscreen-Modus). Ein derartiger Fullscreen-Modus kann hierbei beispielsweise mittels Betätigung eines weiteren virtuellen Funktionsbereichs innerhalb oder am Rand einer Darstellungsfläche des jeweiligen Objekts oder durch eine Ziehbewegung, die sich auf eine äußere Begrenzungslinie des Objektes bezieht, in Richtung eines verbleibenden freien Teilbereichs aktiviert werden. Hierbei ist die Ziehbewegung eine erfindungsgemäße Operation zur Verschiebung, wobei sich die Verschiebung auf eine Rahmenlinie oder Begrenzungslinie des jeweiligen Objekts bezieht. Hierdurch ist es in vorteilhafter Weise ebenfalls möglich, eine Darstellung eines Objektes zu vergrößern oder zu verkleinern. Um auf eine äußere Begrenzungslinie des Objekts bezogene Operationen zur Verschiebung von auf das gesamte Objekt bezogene Operationen zur Verschiebung zu unterscheiden, kann z. B. ein vorbestimmter erster Darstellungsteil des Objektes innerhalb der äußeren Begrenzungslinien einer Operation zur Verschiebung des gesamten Objektes und der verbleibende Darstellungsteil des Objektes, der die äußeren Begrenzungslinien umfasst, einer Operation zur Verschiebung der äußeren Begrenzungslinien zugeordnet werden. Wird das Objekt beispielsweise im ersten Darstellungsteil berührt, so erfolgt eine Auswahl des gesamten Objekts, wobei sich eine eventuell folgende Operation zur Verschiebung auf das gesamte Objekt auswirkt. Wird das Objekt im verbleibenden Darstellungsteil berührt, so erfolgt eine Auswahl der äußeren Begrenzungslinie oder der gesamten äußeren Begrenzungslinien, wobei eine eventuell folgende Operation zur Verschiebung sich auf eine Vergrößerung oder Verkleinerung der Darstellung des Objekts auf der Anzeigeeinrichtung bezieht.
  • Der Fullscreen-Modus kann hierbei durch eine erneute Betätigung des vorhergehend beschriebenen virtuellen Funktionsbereichs innerhalb oder am Rand der Darstellungsfläche des Objekts oder durch die vorhergehend beschriebene Verkleinerung durch eine Operation zur Verschiebung von äußeren Begrenzungslinien des Objekts beendet werden.
  • Auch besteht die Möglichkeit, zwei aktivierte Objekte gleichzeitig, beispielsweise nebeneinander, auf der Anzeigeeinrichtung anzuzeigen. Hierbei kann z. B. ein aktuell dargestelltes Objekt aus dem vorhergehend beschriebenen vorbestimmten Teilbereich der Anzeigeeinrichtung, der der Darstellung von mittels des mindestens einen haptischen Bedienelements aktivierten Objekten oder von Objekten der vorhergehend beschriebenen Objektliste dient, mittels einer Operation zur Verschiebung heraus verschoben werden. Hierbei kann sich das Objekt aus dem vorbestimmten Teilbereich beispielsweise in verbleibende freie Teilbereiche der Anzeigeeinrichtung verschoben werden. Zulässige Teilbereiche einer solchen Operation zur Verschiebung werden dann erfindungsgemäß grafisch gekennzeichnet. Hierbei kann das derart verschobene Objekt ebenfalls eine Hintergrund-Darstellung überlagern. Auch ist eine derartige Verschiebung durch Betätigung eines virtuellen Schalters, beispielsweise einer Betätigung eines vorbestimmten Teilbereichs innerhalb oder am Rand der Darstellungsfläche des Objekts, durchführbar. Wird ein Objekt in solcher Form aus einer Objektliste heraus verschoben, so kann automatisch ein diesem Objekt nachfolgendes oder ein diesem Objekt vorhergehendes Objekt in der Objektliste in dem vorbestimmten Teilbereich dargestellt werden, so dass nun zwei Objekte gleichzeitig, beispielsweise nebeneinander, angezeigt werden. Eine derartig parallele Darstellung ermöglicht in vorteilhafter Weise einen einfachen Austausch von z. B. Unterobjekten der beiden parallel dargestellten Objekte durch eine Operation zur Verschiebung dieser Unterobjekte zwischen den beiden parallel 'dargestellten Objekten. Eine derartig parallele Darstellung von zwei oder mehr Objekten auf der Anzeigeeinrichtung wird beendet, indem z. B. das verschobene Objekt deaktiviert wird oder das verschobene Objekt wieder in den vorbestimmten Teilbereich zurück verschoben wird. Hierbei wird das aktuell in den vorbestimmten Teilbereich dargestellte Objekt automatisch in einen vorbestimmten Objektwechselbereich, beispielsweise einen oberen oder einen unteren Objektwechselbereich, verschoben.
  • Wie vorhergehend beschrieben, kann in verbleibenden Teilbereichen der Anzeigeeinrichtung, die nicht der Darstellung von Objekten dienen, eine Hintergrund-Darstellung dargestellt werden. Hierbei ist eine Darstellung der Objekte der Darstellung des Hintergrundes überlagert. Um eine Darstellung des Hintergrundes der Darstellung der Objekte zu überlagern, kann eine Aktivierung des Hintergrundes, beispielsweise durch ein Berühren eines Touchscreens im Bereich des Hintergrundes oder ein Berühren des Touchscreens in einem vorbestimmten Teilbereich des Hintergrundes erfolgen, wobei das oder die zuletzt dargestellten Objekte in Form von ikonografischen Objekten in einem vorbestimmten Teilbereich der Anzeigeeinrichtung, beispielsweise in einer Ecke der Anzeigeeinrichtung, dargestellt werden. Hierbei ist es möglich, ein oder mehrere Objekte, z. B. auch eine Objektliste, in einer Miniaturdarstellung darzustellen. Eine erneute Überlagerung der Darstellung von Objekten über die Darstellung des Hintergrundes kann durch eine Berührung oder eine Betätigung des Touchscreens in dem Teilbereich erfolgen, in welchem die miniaturisierten Objekte dargestellt sind. Die gesamte Miniaturanzeige fungiert hierbei als eine zusammenhängende Schaltfläche (virtueller Funktionsbereich). Bei Aktivierung eines neuen Objekts, beispielsweise durch Bedienen oder Betätigung des mindestens einen haptischen Bedienelements, wird ebenfalls die Hintergrund-Darstellung von der Darstellung der Objekte überlagert.
  • Bei der Bedienung der erfindungsgemäßen Benutzerschnittstelle werden Wisch- und Ziehbewegungen zum Verschieben von Objekten oder deren äußeren Begrenzungslinien genutzt. Derartige Bewegungen können somit nicht gleichzeitig zur Bedienung von Inhalten eines Objekts genutzt werden. Um die erfindungsgemäßen Operationen zur Verschiebung zur Bedienung von Inhalten eines dargestellten Objektes zu nutzen, sind folgende Lösungen denkbar. Erstens kann eine Umschaltung zwischen Inhaltsmodus und einem Verschiebemodus beispielsweise durch ein virtuelles oder mechanisches Bedienelement der Bedieneinrichtung erfolgen. Eine im Verschiebemodus eine Operation zur Verschiebung bewirkende Bedienhandlung der Bedieneinrichtung hat dann je nach Modus unterschiedliche Auswirkungen. Beispielsweise kann eine Bedienhandlung, die innerhalb des Verschiebemodus eine Operation zur Verschiebung bewirkt, im Bedienmodus einer Bedienung von Inhalten eines Objekts dienen. In einer weiteren Lösung kann zwischen einem Bedienmodus und einem Verschiebemodus über eine Anzahl von Betätigungselementen, beispielsweise von Fingern, differenziert werden, die bei einer Operation zur Verschiebung genutzt werden. Bei einer Ein-Element-Bedienung, beispielsweise einer Ein-Finger-Bedienung, wird der Bedienmodus aktiviert, während bei einer Zwei-Element-Bedienung, beispielsweise einer Zwei-Finger-Bedienung, der Verschiebemodus aktiviert wird. Eine derartige Differenzierung kann eine Ausführung der Benutzerschnittstelle als so genanntes Multi-Touchscreen erfordern.
  • Weiter vorgeschlagen wird eine Benutzerschnittstelle, insbesondere eine Benutzerschnittstelle in einem Kraftfahrzeug. Die Benutzerschnittstelle umfasst mindestens eine Bedieneinrichtung und eine Anzeigeeinrichtung. Mittels der Benutzerschnittstelle ist eines der vorhergehend beschriebenen Verfahren in vorteilhafter Weise ausführbar.
  • Die Erfindung wird anhand mehrerer Ausführungsbeispiele näher erläutert. Die Figuren zeigen:
  • 1 eine schematische Darstellung einer erfindungsgemäßen Benutzerschnittstelle,
  • 2 eine beispielhafte Darstellung einer grafischen Kennzeichnung von Zielbereichen,
  • 3 eine weitere beispielhafte Darstellung einer grafischen Kennzeichnung von Zielbereichen,
  • 4 eine beispielhafte Darstellung einer snap-to-target-Funktion und einer snap-to-grid-Funktion,
  • 5 eine beispielhafte Darstellung einer Aktivierung eines Objektes,
  • 6 eine beispielhafte Darstellung einer Aktivierung eines weiteren Objekts,
  • 7 eine beispielhafte Darstellung eines Wechsels zwischen verschiedenen aktivierten Objekten,
  • 8 eine beispielhafte Darstellung einer Vergrößerung eines Objektes,
  • 9 eine beispielhafte Darstellung der Anzeige von zwei Objekten und
  • 10 eine beispielhafte Darstellung einer Aktivierung einer Hintergrund-Darstellung.
  • Nachfolgend bezeichnen gleiche Bezugszeichen Elemente mit gleichen oder ähnlichen technischen Merkmalen.
  • In 1 ist eine erfindungsgemäße Benutzerschnittstelle 1 schematisch dargestellt. Die Benutzerschnittstelle 1 umfasst hierbei eine als Display ausgeführte Anzeigeeinrichtung 2. Weiter umfasst die Benutzerschnittstelle 1 eine zentrale Auswerte- und Steuereinheit 3. Weiter umfasst die Benutzerschnittstelle 1 mehrere Bedieneinrichtungen 4. Als erste Bedieneinrichtung 4 umfasst die Benutzerschnittstelle einen Touchscreen 4-1, als zweite Bedieneinrichtung 4 eine Tastatur 4-2, als dritte Bedieneinrichtung 4 eine Einrichtung 4-3 zur Spracherkennung, als vierte Bedieneinrichtung 4 eine erste Reihe 4-4 von haptischen Bedienelementen 5 und als fünfte Bedieneinrichtung 4 eine zweite Reihe 4-5 von haptischen Bedienelementen 6. Die erste Reihe 4-4 von haptischen Bedienelementen 5 ist hierbei an einem rechten Rand der Anzeigeeinrichtung 2 angeordnet. Die zweite Reihe 4-5 von haptischen Bedienelementen 6 ist hierbei an einem linken Rand der Anzeigeeinrichtung 2 angeordnet. Die haptischen Bedienelemente 5 der ersten Reihe 4-4 von haptischen Bedienelementen 5 dienen hierbei einer Aktivierung von Objekten. Die haptischen Bedienelemente 5 können hierbei als Taster oder Druckknöpfe ausgeführt sein. Bei einer Betätigung der haptischen Bedienelemente 5 wird ein dem jeweiligen haptischen Bedienelement 5 zugeordnetes Objekt aktiviert und in einem vorbestimmten Teilbereich 7 der Anzeigeeinrichtung 2 dargestellt. Weiter ist in 1 ein Deaktivierungsbereich 8, ein oberer Objektwechselbereich 9 und ein unterer Objektwechselbereich 10 dargestellt. Eine Funktion des Deaktivierungsbereichs 8 und der Objektwechselbereiche 9, 10 wird nachfolgend näher erläutert. Die zentrale Auswerte- und Steuereinheit 3 wertet hierbei die mittels der Bedieneinrichtungen 4 durchgeführten Bedienungen eines Bedieners aus und bestimmt hieraus, welche Objekte an welcher Stelle der Anzeigeeinrichtung 2 dargestellt werden.
  • In 2 ist schematisch eine grafische Kennzeichnung von zulässigen Zielbereichen 7 eines ausgewählten und zu verschiebenden Objektes X gezeigt. In einer linken Darstellung der Anzeigeeinrichtung 2 ist hierbei ein zu verschiebendes Objekt X, zulässige Zielbereiche Z einer Operation zur Verschiebung des Objektes X und nicht-zulässige Teilbereiche P der Anzeigeeinrichtung dargestellt. In einer rechten Darstellung der Anzeigeeinrichtung 2 ist dargestellt, dass eine als Touchscreen 4-1 ausgebildete Bedieneinrichtung 4 im Bereich des zu verschiebenden Objekts X mittels eines Fingers 11 berührt und somit das Objekt X ausgewählt wurde. Weiter ist dargestellt, dass das zu verschiebende Objekt X entlang eines mittels eines Pfeils 12 angedeuteten Verschiebepfades auf der Anzeigeeinrichtung 2 mittels einer Ziehbewegung des Fingers 11 über den Touchscreen 4-1 verschoben wird. Ist eine derartige Operation zur Verschiebung des zu verschiebenden Objekts X mittels der Auswerte- und Steuereinheit 3 (siehe 1) detektiert, so werden nur noch zulässige Zielbereiche Z für eine Verschiebung des Objektes X dargestellt, während die in der linken Darstellung noch dargestellten nicht-zulässigen Teilbereiche P ausgeblendet oder abgedunkelt sind.
  • In 3 ist eine weitere Möglichkeit einer grafischen Kennzeichnung von zulässigen Zielbereichen Z bei einer Operation zur Verschiebung eines zu verschiebenden Objektes X dargestellt. In einer linken Darstellung ist hierbei die gleiche Ausgangslage wie in der linken Darstellung von 2 gezeigt. In einer rechten Darstellung wird das zu verschiebende Objekt X mittels einer Berührung eines Touchscreens 4-1 ausgewählt und mittels einer Bewegung eines Fingers 11 über den Touchscreen 4-1 verschoben. Die in der linken Darstellung dargestellten zulässigen Zielbereiche Z sind hierbei ab Beginn der Operation zur Verschiebung vergrößert dargestellt, was durch Pfeile 13 angedeutet ist. Die nicht zulässigen Teilbereiche P sind hierbei wiederum ausgeblendet oder abgedunkelt.
  • In 4 ist eine schematische Darstellung einer snap-to-target-Funktionalität und einer snap-to-grid-Funktionalität dargestellt. Hierbei wird ein zu verschiebendes Objekt X wiederum durch Berühren eines Touchscreens 4-1 im Darstellungsbereich des zu verschiebenden Objektes X auf der Anzeigeeinrichtung 2 ausgewählt und mittels einer Bewegung des Fingers 11 auf dem Touchscreen 4-1 in Richtung 12 eines Verschiebepfades verschoben. Hierbei werden zulässige Zielbereiche Z dargestellt, während nicht zulässige Teilbereiche P ausgeblendet oder abgedunkelt werden. Weiter ist dargestellt, dass beispielsweise die in 1 dargestellte zentrale Auswerte- und Steuereinheit 3 während der Operation zur Verschiebung des Objekts X einen aktuellen Verschiebepfad 14 berechnet. Hierbei ist dargestellt, dass der aktuelle Verschiebepfad 14 einen Zielbereich Z schneidet. Ein Ziel der Operation zur Verschiebung wird somit von der Auswerte- und Steuereinheit 3 als dieser zulässige Zielbereich Z bestimmt. Dann kann ein idealer Verschiebepfad, der in diesem Beispiel dem aktuellen Verschiebepfad 14 entspricht, bestimmt werden. Wird eine Berührung des Touchscreens 4-1 durch den Finger 11z B. an einer Position 15 vor Erreichen des derart bestimmten zulässigen Zielbereiches z. beendet, so wird das zu verschiebende Objekt X automatisch weiter entlang des idealen Verschiebepfades zu dem derart bestimmten zulässigen Zielbereich Z verschoben (snap-to-grid-Funktionalität).
  • In 5 ist schematisch eine Aktivierung und eine Deaktivierung eines Objektes X dargestellt. Eine Bedieneinrichtung 4 umfasst hierbei eine erste Reihe 4-4 von haptischen Bedienelementen 5, die an einem rechten Rand der Anzeigeeinrichtung 2 angeordnet sind. Hierbei sind die haptischen Bedienelemente 5 der ersten Reihe 4-4 von haptischen Bedienelementen 5 als so genannte Softkeys ausgeführt. Weiter umfasst die Bedieneinrichtung 4 eine zweite Reihe 4-5 von haptischen Bedienelementen 6, die an einem linken Rand der Anzeigeeinrichtung 2 angeordnet sind. Mittels einer Betätigung oder Berührung eines ausgewählten haptischen Bedienelements 5-1 der ersten Reihe 4-4 von haptischen Bedienelementen 5 mittels eines Fingers 11 wird hierbei ein Objekt X geöffnet und in einem vorbestimmten Teilbereich 7 der Anzeigeeinrichtung 2 dargestellt. Im vorbestimmten Teilbereich 7 werden hierbei z. B. Inhalte des Objektes X, z. B. Daten oder Bilder, sowie ein Funktionsbereich 16 zur Deaktivierung des Objektes X dargestellt. Das derart im vorbestimmten Teilbereich 7 der Anzeigeeinrichtung 2 dargestellte Objekt X kann dann mittels einer Berührung oder Betätigung des Touchscreens 4-1 im Bereich des Funktionsbereiches 16 deaktiviert werden. Dargestellt ist hierbei jedoch eine zweite Möglichkeit zur Deaktivierung, wobei das Objekt X mittels einer Berührung oder Betätigung des Touchscreens 4-1 im vorbestimmten Teilbereich 7 ausgewählt und durch eine Bewegung des Fingers 11 in Richtung eines Deaktivierungsbereiches 8 der Anzeigeeinrichtung 2 verschoben wird. Erreicht das Objekt X den dargestellten Deaktivierungsbereich 8, so wird das Objekt X deaktiviert, z. B. geschlossen oder von der Anzeigeeinrichtung entfernt. Auch können dem Objekt X zugeordnete Applikationen beendet werden.
  • In 6 ist schematisch eine Aktivierung eines weiteren Objektes Y dargestellt. In einer linken Darstellung der 6 ist ein Objekt X bereits aktiviert und in einem vorbestimmten Teilbereich 7 der Anzeigeeinrichtung 2 dargestellt. Die Anzeigeeinrichtung 2 sowie eine Bedieneinrichtung 4 ist hierbei analog zu 5 aufgebaut. Mittels einer Betätigung oder Berührung eines Touchscreens 4-1 im Bereich eines weiteren vorbestimmten haptischen Bedienelements 5-2 einer ersten Reihe 4-4 von haptischen Bedienelementen 5 wird hierbei ein weiteres Objekt Y aktiviert. Das Objekt Y wird hierbei folgend in dem vorbestimmten Teilbereich 7 der Anzeigeeinrichtung 2 dargestellt. Weiter wird das vorhergehend dargestellte Objekt X in einer animierten automatischen Bewegung, die schematisch durch einen Pfeil 17 dargestellt ist, zumindest teilweise von der Anzeigeeinrichtung 2 entfernt. Hierbei ist dargestellt, dass das Objekt X nach der Verschiebung teilweise von einem oberen Rand der Anzeigeeinrichtung 2 in die Anzeigeeinrichtung 2 hineinragt. Somit kann ein Benutzer einer erfindungsgemäßen Benutzerschnittstelle 1 eine visuelle Information erhalten, dass mehrere Objekte X, Y aktiviert sind.
  • In 7 ist beispielhaft ein Wechsel zwischen bereits aktivierten Objekten X, Y, Z dargestellt. Hierbei ist dargestellt, dass ein Objekt Y in einem vorbestimmten Teilbereich 7 der Anzeigeeinrichtung 2 dargestellt ist. Weiter ist ein ebenfalls aktiviertes Objekt X dargestellt, welches nur teilweise auf der Anzeigeeinrichtung 2 angezeigt wird und in diese von einem oberen Rand der Anzeigeeinrichtung 2 hineinragt. Weiter ist ein Objekt Z dargestellt, welches ebenfalls bereits aktiviert ist und von einem unteren Rand der Anzeigeeinrichtung 2 in diese hineinragt. Um zu einer Volldarstellung des aktivierten Objektes X zu wechseln, kann das in dem vorbestimmten Teilbereich 7 der Anzeigeeinrichtung 2 angezeigte Objekt Y mittels einer Berührung oder Betätigung eines Touchscreens 4-1 im vorbestimmten Teilbereich 7 ausgewählt und, wie durch eine Pfeil 18 angedeutet, in Richtung eines unteren Objektwechselbereiches 9 verschoben werden. Erreicht das derart verschobene Objekt Y den unteren Objektwechselbereich 9, so wird das dem Objekt Y in einer schematisch dargestellten Objektliste 19 vorhergehende Objekt X in dem vorbestimmten Teilbereich der Anzeigeeinrichtung 2 dargestellt. In diesem Fall wird ein dem Objekt X in der Objektliste 19 vorhergehendes Objekt W zumindest teilweise, nämlich von oben in die Anzeigeeinrichtung 2 hineinragend, dargestellt. Weiter wird das verschobene Objekt Y von einem unteren Rand der Anzeigeeinrichtung 2 in diese hineinragend dargestellt. Weiter enthält die Objektliste 19 ein dem Objekt W vorhergehendes Objekt V und ein dem Objekt Y nachfolgendes Objekt U.
  • Weiter dargestellt ist ein oberer Objektwechselbereich 10. Würde das Objekt Y mittels einer Berührung des Touchscreens 4-1 im vorbestimmten Teilbereich 7 in den oberen Objektwechselbereich 10 verschoben, so würde in analoger Weise das Objekt U in dem vorbestimmten Teilbereich 7 dargestellt.
  • In 8 ist beispielhaft eine Vergrößerung einer Darstellung eines Objektes X dargestellt. Wird eine über einen vorbestimmten Teilbereich 7 der Anzeigeeinrichtung 2 hinausgehende Darstellung des Objektes X gewünscht, so kann ein Bediener z. B. mittels einer Berührung eines Touchscreens 4-1 im Bereich 20 einer äußeren Begrenzungslinie des Objektes X oder in einem Funktionsbereich Bereich 21 zur Skalierung des Objektes X eine Vergrößerung der Darstellung des Objektes X auf der Anzeigeeinrichtung 2 erreichen. Alternativ kann einer Darstellung eines Objektes X eine weitere Reihe 4-6 von z. B. als Softkey ausgebildeten haptischen Bedienelementen 22 zugeordnet werden. Eines dieser haptischen Bedienelemente 22 der weiteren Reihe 4-6 von haptischen Bedienelementen 22 kann eine Funktionalität Skalierung zugeordnet sein.
  • In 9 ist eine beispielhafte parallele Darstellung von zwei Objekten X, Y auf einer Anzeigeeinrichtung 2 dargestellt. Hierbei ist dargestellt, dass ein Objekt Y einer Objektliste 19, welche mindestens Objekte X, Y, U enthält, mittels einer Berührung eines Touchscreens 4-1 in einem vorbestimmten Teilbereich 7 der Anzeigeeinrichtung 2 ausgewählt und mit einer durch einen Pfeil 23 angedeuteten Operation zur Verschiebung aus der Objektliste 19 heraus in einen freien Teilbereich der Anzeigeeinrichtung 2 verschoben wird. Wird der freie Teilbereich erreicht, so wird automatisch das dem Objekt Y in der Objektliste 19 vorhergehende Objekt X in dem vorbestimmten Teilbereich 7 der Anzeigeeinrichtung 2 angezeigt. Somit werden die Objekte Y, X parallel, in diesem Fall nebeneinander, auf der Anzeigeeinrichtung 2 dargestellt. Das Objekt Y kann wieder in die Objektliste 19 eingeordnet werden, indem es mittels einer Berührung des Touchscreens 4-1 durch einen Finger 11 im Bereich des Objektes Y und einer darauf folgenden Operation zur Verschiebung, die durch eine Pfeil 24 angedeutet ist, in den vorbestimmten Teilbereich 7 hinein verschoben wird. Erreicht das Objekt Y den vorbestimmten Teilbereich 7, so wird das Objekt X automatisch in einen oberen Objektwechselbereich 10 verschoben.
  • In 10 ist ein beispielhaftes Wechsel zwischen einer Hintergrund-Darstellung und einer Darstellung eines Objektes X dargestellt. Ist ein Objekt X aktiviert, so überlagert eine Darstellung des Objektes X eine Darstellung eines Hintergrundes 26. Zur Überlagerung der Darstellung des Objektes X durch die Darstellung des Hintergrundes 26 kann ein Touchscreen 4-1 im Bereich des Hintergrundes 26 z. B. mittels eines Fingers 11 berührt werden. Hiernach überlagert die Darstellung des Hintergrundes 26 die Darstellung des Objektes X. Dieses wird nach der Berührung des Hintergrundes 26 in einer Miniaturanzeige 25 in einem weiteren vorbestimmten Teilbereich der Anzeigeeinrichtung 2 angezeigt, der von der Überlagerung der Darstellung des Objektes X durch die Darstellung des Hintergrundes 26 ausgenommen ist. Zur erneuten Überlagerung der Darstellung des Hintergrundes 26 durch die Darstellung des Objektes X kann der Touchscreen 4-1 im weiteren vorbestimmen Teilbereich der Miniaturanzeige 25 z. B. mittels des Fingers 11 berührt werden. Nach Berührung überlagert dann die Darstellung des Objektes X die Darstellung des Hintergrundes 26.
  • Bezugszeichenliste
  • 1
    Benutzerschnittstelle
    2
    Anzeigeeinrichtung
    3
    zentrale Auswerte- und Steuereinrichtung
    4
    Bedieneinrichtung
    4-1
    Touchscreen
    4-2
    Tastatur
    4-3
    Einrichtung zur Spracherkennung
    4-4
    erste Reihe von haptischen Bedienelementen
    4-5
    zweite Reihe von haptischen Bedienelementen
    4-6
    weitere Reihe von haptischen Bedienelementen
    5
    haptisches Bedienelement
    6
    haptisches Bedienelement
    7
    vorbestimmter Teilbereich
    8
    Deaktivierungsbereich
    9
    unterer Objektwechselbereich
    10
    oberer Objektwechselbereich
    11
    Finger
    12
    Pfeil
    13
    Pfeil
    14
    aktuelle Verschiebepfad
    15
    Position
    16
    Funktionsbereich zur Deaktivierung
    17
    Pfeil
    18
    Pfeil
    19
    Objektliste
    20
    Bereich einer äußeren Begrenzungslinie
    21
    Funktionsbereich zur Skalierung
    22
    haptisches Bedienelement
    23
    Pfeil
    24
    Pfeil
    25
    Miniaturanzeige
    26
    Hintergrund
    U
    Objekt
    V
    Objekt
    W
    Objekt
    X
    Objekt
    Y
    Objekt
    Z
    zulässiger Zielbereich
    P
    nicht-zulässiger Teilbereich
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2007/042184 A2 [0003]

Claims (10)

  1. Verfahren zum Bedienen einer Benutzerschnittstelle (1), insbesondere einer Benutzerschnittstelle (1) in einem Kraftfahrzeug, wobei die Benutzerschnittstelle (1) mindestens eine Bedieneinrichtung (4, 4-1, 4-2, 4-3, 4-4, 4-5, 4-6) und eine Anzeigeeinrichtung (2) umfasst, wobei eine Auswahl eines auf der Anzeigeeinrichtung (2) dargestellten Objekts (X, Y, U, W, V) erfasst wird, dadurch gekennzeichnet, dass bei Detektion eines Beginns einer Verschiebeoperation des Objekts (X, Y) vorbestimmte objektspezifische Zielbereiche (Z) graphisch gekennzeichnet werden, die auf der Anzeigeeinrichtung (2) dargestellt sind.
  2. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass ein Objekt (X, Y) mittels einer Bedienung eines haptischen Bedienelements (5, 5-1, 5-2) aktiviert wird, wobei das haptische Bedienelement (5, 5-1, 5-2) an mindestens einem Rand der Anzeigeeinrichtung (2) angeordnet ist.
  3. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass vorbestimmte objektspezifische Zielbereiche (Z) der Anzeigeeinrichtung (2) durch visuelle Marker gekennzeichnet werden und/oder vorbestimmte objektspezifische Zielbereiche (Z) in ihrer Anzeigegröße skaliert und/oder zumindest ein Teilbereich (P) der Anzeigeeinrichtung, welcher nicht die vorbestimmten objektspezifischen Zielbereiche (Z) umfasst, abgedunkelt wird.
  4. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass eine aktuelle Position des Objekts (X) auf der Anzeigeeinrichtung (2) bestimmt wird, wobei das Objekt (X) automatisch zu einem vorbestimmten objektspezifischen Zielbereich (Z) verschoben wird, falls die aktuelle Position des Objekts (X) und die Position des vorbestimmten objektspezifischen Zielbereichs (Z) einen vorbestimmten Abstand unterschreiten.
  5. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass während einer Operation zur Verschiebung eine aktuelle Position des Objekts (X) erfasst und ein aktueller Verschiebepfad (14) des Objekts (X) auf der Anzeigeeinrichtung (2) bestimmt wird, wobei ein idealer Verschiebepfad ermittelt wird, falls der aktuelle Verschiebepfad (14) einen vorbestimmten objektspezifischen Zielbereich (Z) schneidet, wobei das Objekt (X) automatisch entlang des idealen Verschiebepfads zu dem vorbestimmten objektspezifischen Zielbereich (Z) verschoben wird.
  6. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass eine zielbereichsspezifische Operation durchgeführt wird, falls ein Objekt (X, Y) in einen vorbestimmten, objektspezifischen Zielbereich (Z) verschoben wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass ein Objekt (X) deaktiviert wird, falls das Objekt (X) in einen vorbestimmten, objektspezifischen Zielbereich (Z) verschoben wird, der ein Deaktivierungsbereich (8) ist und/oder ein Objekt (X, Y) zumindest teilweise von der Anzeigeeinrichtung (2) entfernt wird, falls das Objekt (X, Y) in einen vorbestimmten, objektspezifischen Zielbereich (Z) verschoben wird, der ein Objektwechselbereich (9, 10) ist.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass ein Objekt (X, Y) einer Objektliste (19) zugeordnet wird, falls das ausgewählte Objekt (X, Y) in einen vorbestimmten, objektspezifischen Zielbereich (Z) verschoben wird, der ein Objektwechselbereich (9, 10) ist.
  9. Benutzerschnittstelle, insbesondere eine Benutzerschnittstelle (1) in einem Kraftfahrzeug, wobei die Benutzerschnittstelle (1) mindestens eine Bedieneinrichtung (4, 4-1, 4-2, 4-3, 4-4, 4-5, 4-6) und eine Anzeigeeinrichtung (2) umfasst, wobei eine Auswahl eines auf der Anzeigeeinrichtung (2) dargestellten Objekts (X, Y, U, V, W) mittels der Bedieneinrichtung (4, 4-1, 4-2, 4-3, 4-4, 4-5, 4-6) erfassbar ist, dadurch gekennzeichnet, dass bei Detektion eines Beginns einer Verschiebeoperation des Objekts (X, Y) vorbestimmte objektspezifische Zielbereiche (Z) graphisch kennzeichenbar sind, die auf der Anzeigeeinrichtung (2) dargestellt sind.
  10. Benutzerschnittstelle nach Anspruch 9, dadurch gekennzeichnet, dass die Bedieneinrichtung (4, 4-4) mindestens ein haptisches Bedienelement (5) umfasst, wobei das mindestens eine haptische Bedienelement (5) an mindestens einem Rand der Anzeigeeinrichtung (2) angeordnet ist, wobei mittels einer Betätigung des mindestens einen haptischen Bedienelements (5) ein vorbestimmtes Objekt (X, Y) aktivierbar ist.
DE102010048745A 2010-10-16 2010-10-16 Benutzerschnittstelle und Verfahren zum Bedienen einer Benutzerschnittstelle Ceased DE102010048745A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102010048745A DE102010048745A1 (de) 2010-10-16 2010-10-16 Benutzerschnittstelle und Verfahren zum Bedienen einer Benutzerschnittstelle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010048745A DE102010048745A1 (de) 2010-10-16 2010-10-16 Benutzerschnittstelle und Verfahren zum Bedienen einer Benutzerschnittstelle

Publications (1)

Publication Number Publication Date
DE102010048745A1 true DE102010048745A1 (de) 2012-04-19

Family

ID=45895833

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010048745A Ceased DE102010048745A1 (de) 2010-10-16 2010-10-16 Benutzerschnittstelle und Verfahren zum Bedienen einer Benutzerschnittstelle

Country Status (1)

Country Link
DE (1) DE102010048745A1 (de)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012209250A1 (de) * 2012-05-31 2013-12-05 Protected-Networks.Com Gmbh Sicherheitssystem
CN103543938A (zh) * 2012-07-12 2014-01-29 沃尔沃汽车公司 车辆图形用户界面装置
WO2014146925A1 (de) 2013-03-22 2014-09-25 Volkswagen Aktiengesellschaft Informationswiedergabesystem für ein fahrzeug und verfahren zum bereitstellen von informationen für den benutzer eines fahrzeugs
EP2787427A1 (de) 2013-04-05 2014-10-08 Seat, S.A. Verfahren zur Darstellung und/oder Handhabung von Informationen in einem Auto
EP2848447A1 (de) * 2013-09-12 2015-03-18 Seat, S.A. Verfahren zur Anzeige und/oder Handhabung von Informationen in einem Auto
EP2808775A3 (de) * 2013-05-27 2015-05-06 Volkswagen Aktiengesellschaft Controller für ein Informationswiedergabesystem für ein Fahrzeug
EP3185595A1 (de) * 2014-03-25 2017-06-28 Nokia Technologies Oy Ausführung einer positionsreaktionsaktion
DE102016003072A1 (de) 2016-03-12 2017-09-14 Audi Ag Bedienvorrichtung und Verfahren zum Erfassen einer Benutzerauswahl zumindest einer Bedienfuktion der Bedienvorrichtung
US9798454B2 (en) 2013-03-22 2017-10-24 Oce-Technologies B.V. Method for performing a user action upon a digital item
DE102016207611A1 (de) * 2016-05-03 2017-11-09 Volkswagen Aktiengesellschaft Anzeige- und Bediensystem
US9830784B2 (en) 2014-09-02 2017-11-28 Apple Inc. Semantic framework for variable haptic output
US9864432B1 (en) 2016-09-06 2018-01-09 Apple Inc. Devices, methods, and graphical user interfaces for haptic mixing
FR3055989A1 (fr) * 2016-09-13 2018-03-16 Peugeot Citroen Automobiles Sa Dispositif de controle des formats d'affichage d'informations representatives de taches d'equipements d'un vehicule
US9984539B2 (en) 2016-06-12 2018-05-29 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback
US9996157B2 (en) 2016-06-12 2018-06-12 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback
US10175762B2 (en) 2016-09-06 2019-01-08 Apple Inc. Devices, methods, and graphical user interfaces for generating tactile outputs
EP3374231A4 (de) * 2015-11-13 2019-05-29 Harman International Industries, Incorporated Benutzerschnittstelle für ein bordsystem eines fahrzeuges
WO2020007739A1 (de) * 2018-07-02 2020-01-09 Zf Friedrichshafen Ag Steuervorrichtung zum bedienen eines fahrzeugs, fahrzeugsystem für ein fahrzeug und verfahren zum bedienen eines fahrzeugs
CN113195287A (zh) * 2018-12-19 2021-07-30 奥迪股份公司 包括显示装置和电子控制单元的车辆
US11314330B2 (en) 2017-05-16 2022-04-26 Apple Inc. Tactile feedback for locked device user interfaces
EP4043263A1 (de) * 2021-02-12 2022-08-17 Volkswagen Ag Verfahren zur steuerung von fahrzeugfunktionen
EP4043262A1 (de) * 2021-02-12 2022-08-17 Volkswagen Ag Anzeige- und bedienvorrichtung zur steuerung von fahrzeugfunktionen

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004037644A1 (de) * 2003-07-31 2005-02-24 Volkswagen Ag Anzeigevorrichtung
WO2007042184A2 (de) 2005-10-07 2007-04-19 Volkswagen Aktiengesellschaft Eingabevorrichtung für ein kraftfahrzeug
US20090237363A1 (en) * 2008-03-20 2009-09-24 Microsoft Corporation Plural temporally overlapping drag and drop operations
US20100122194A1 (en) * 2008-11-13 2010-05-13 Qualcomm Incorporated Method and system for context dependent pop-up menus
US20100146425A1 (en) * 2008-12-08 2010-06-10 Lance John M Drag and drop target indication in a graphical user interface

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004037644A1 (de) * 2003-07-31 2005-02-24 Volkswagen Ag Anzeigevorrichtung
WO2007042184A2 (de) 2005-10-07 2007-04-19 Volkswagen Aktiengesellschaft Eingabevorrichtung für ein kraftfahrzeug
US20090237363A1 (en) * 2008-03-20 2009-09-24 Microsoft Corporation Plural temporally overlapping drag and drop operations
US20100122194A1 (en) * 2008-11-13 2010-05-13 Qualcomm Incorporated Method and system for context dependent pop-up menus
US20100146425A1 (en) * 2008-12-08 2010-06-10 Lance John M Drag and drop target indication in a graphical user interface

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012209250A1 (de) * 2012-05-31 2013-12-05 Protected-Networks.Com Gmbh Sicherheitssystem
CN103543938A (zh) * 2012-07-12 2014-01-29 沃尔沃汽车公司 车辆图形用户界面装置
CN103543938B (zh) * 2012-07-12 2018-08-03 沃尔沃汽车公司 车辆图形用户界面装置
EP2685361B1 (de) * 2012-07-12 2018-06-20 Volvo Car Corporation Grafische Benutzeroberflächenanordnung für ein Fahrzeug
US9798454B2 (en) 2013-03-22 2017-10-24 Oce-Technologies B.V. Method for performing a user action upon a digital item
WO2014146925A1 (de) 2013-03-22 2014-09-25 Volkswagen Aktiengesellschaft Informationswiedergabesystem für ein fahrzeug und verfahren zum bereitstellen von informationen für den benutzer eines fahrzeugs
DE102013002891A1 (de) 2013-03-22 2014-09-25 Volkswagen Aktiengesellschaft Informationswiedergabesystem für ein Fahrzeug und Verfahren zum Bereitstellen von Informationen für den Benutzer eines Fahrzeugs
US10449857B2 (en) 2013-03-22 2019-10-22 Volkswagen Ag Information reproduction system for a vehicle and method for providing information for the user of a vehicle
EP2787427A1 (de) 2013-04-05 2014-10-08 Seat, S.A. Verfahren zur Darstellung und/oder Handhabung von Informationen in einem Auto
EP2808775A3 (de) * 2013-05-27 2015-05-06 Volkswagen Aktiengesellschaft Controller für ein Informationswiedergabesystem für ein Fahrzeug
EP2848447A1 (de) * 2013-09-12 2015-03-18 Seat, S.A. Verfahren zur Anzeige und/oder Handhabung von Informationen in einem Auto
US10264388B2 (en) 2014-03-25 2019-04-16 Nokia Technologies Oy Performance of a location response action
EP3185595A1 (de) * 2014-03-25 2017-06-28 Nokia Technologies Oy Ausführung einer positionsreaktionsaktion
US10089840B2 (en) 2014-09-02 2018-10-02 Apple Inc. Semantic framework for variable haptic output
US9830784B2 (en) 2014-09-02 2017-11-28 Apple Inc. Semantic framework for variable haptic output
US11790739B2 (en) 2014-09-02 2023-10-17 Apple Inc. Semantic framework for variable haptic output
US10417879B2 (en) 2014-09-02 2019-09-17 Apple Inc. Semantic framework for variable haptic output
US9928699B2 (en) 2014-09-02 2018-03-27 Apple Inc. Semantic framework for variable haptic output
US10977911B2 (en) 2014-09-02 2021-04-13 Apple Inc. Semantic framework for variable haptic output
US10504340B2 (en) 2014-09-02 2019-12-10 Apple Inc. Semantic framework for variable haptic output
EP3374231A4 (de) * 2015-11-13 2019-05-29 Harman International Industries, Incorporated Benutzerschnittstelle für ein bordsystem eines fahrzeuges
US11079931B2 (en) 2015-11-13 2021-08-03 Harman International Industries, Incorporated User interface for in-vehicle system
DE102016003072A1 (de) 2016-03-12 2017-09-14 Audi Ag Bedienvorrichtung und Verfahren zum Erfassen einer Benutzerauswahl zumindest einer Bedienfuktion der Bedienvorrichtung
WO2017157542A1 (de) 2016-03-12 2017-09-21 Audi Ag Bedienvorrichtung und verfahren zum erfassen einer benutzerauswahl zumindest einer bedienfunktion der bedienvorrichtung
US11061511B2 (en) 2016-03-12 2021-07-13 Audi Ag Operating device and method for detecting a user selection of at least one operating function of the operating device
DE102016207611A1 (de) * 2016-05-03 2017-11-09 Volkswagen Aktiengesellschaft Anzeige- und Bediensystem
US10175759B2 (en) 2016-06-12 2019-01-08 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback
US11468749B2 (en) 2016-06-12 2022-10-11 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback
US11735014B2 (en) 2016-06-12 2023-08-22 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback
US9984539B2 (en) 2016-06-12 2018-05-29 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback
US10156903B2 (en) 2016-06-12 2018-12-18 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback
US10139909B2 (en) 2016-06-12 2018-11-27 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback
US11037413B2 (en) 2016-06-12 2021-06-15 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback
US10276000B2 (en) 2016-06-12 2019-04-30 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback
US9996157B2 (en) 2016-06-12 2018-06-12 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback
US10692333B2 (en) 2016-06-12 2020-06-23 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback
US10901514B2 (en) 2016-09-06 2021-01-26 Apple Inc. Devices, methods, and graphical user interfaces for generating tactile outputs
US10901513B2 (en) 2016-09-06 2021-01-26 Apple Inc. Devices, methods, and graphical user interfaces for haptic mixing
US10620708B2 (en) 2016-09-06 2020-04-14 Apple Inc. Devices, methods, and graphical user interfaces for generating tactile outputs
US10528139B2 (en) 2016-09-06 2020-01-07 Apple Inc. Devices, methods, and graphical user interfaces for haptic mixing
US10175762B2 (en) 2016-09-06 2019-01-08 Apple Inc. Devices, methods, and graphical user interfaces for generating tactile outputs
US9864432B1 (en) 2016-09-06 2018-01-09 Apple Inc. Devices, methods, and graphical user interfaces for haptic mixing
US11221679B2 (en) 2016-09-06 2022-01-11 Apple Inc. Devices, methods, and graphical user interfaces for generating tactile outputs
US10372221B2 (en) 2016-09-06 2019-08-06 Apple Inc. Devices, methods, and graphical user interfaces for generating tactile outputs
US11662824B2 (en) 2016-09-06 2023-05-30 Apple Inc. Devices, methods, and graphical user interfaces for generating tactile outputs
FR3055989A1 (fr) * 2016-09-13 2018-03-16 Peugeot Citroen Automobiles Sa Dispositif de controle des formats d'affichage d'informations representatives de taches d'equipements d'un vehicule
US11314330B2 (en) 2017-05-16 2022-04-26 Apple Inc. Tactile feedback for locked device user interfaces
WO2020007739A1 (de) * 2018-07-02 2020-01-09 Zf Friedrichshafen Ag Steuervorrichtung zum bedienen eines fahrzeugs, fahrzeugsystem für ein fahrzeug und verfahren zum bedienen eines fahrzeugs
CN113195287A (zh) * 2018-12-19 2021-07-30 奥迪股份公司 包括显示装置和电子控制单元的车辆
EP4043262A1 (de) * 2021-02-12 2022-08-17 Volkswagen Ag Anzeige- und bedienvorrichtung zur steuerung von fahrzeugfunktionen
EP4043263A1 (de) * 2021-02-12 2022-08-17 Volkswagen Ag Verfahren zur steuerung von fahrzeugfunktionen

Similar Documents

Publication Publication Date Title
DE102010048745A1 (de) Benutzerschnittstelle und Verfahren zum Bedienen einer Benutzerschnittstelle
EP3270278B1 (de) Verfahren zum betreiben eines bediensystems und bediensystem
EP3282352B1 (de) Verfahren und bedienvorrichtung zum bedienen einer einrichtung
DE102009059867A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle
EP3372435B1 (de) Verfahren und bediensystem zum bereitstellen einer bedienschnittstelle
EP3234743B1 (de) Verfahren zum betreiben einer bedienvorrichtung eines kraftfahrzeugs in unterschiedlichen bedienmodi sowie bedienvorrichtung und kraftfahrzeug
WO2006066742A1 (de) Bediensystem für ein fahrzeug
EP3372436B1 (de) Verfahren und bediensystem zum bereitstellen einer benutzerschnittstelle
EP3535154A1 (de) Anordnung einer grafischen benutzerschnittstelle in einem fahrzeug und verfahren zum bereitstellen einer grafischen benutzerschnittstelle in einem fahrzeug
DE102015122602A1 (de) Fahrzeug mit einer Bilderfassungseinheit und einem Bediensystem zum Bedienen von Einrichtungen des Fahrzeugs sowie Verfahren zum Betreiben des Bediensystems
EP2924551A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle in einem Fahrzeug
DE102018100197A1 (de) Verfahren zum Betreiben einer Mensch-Maschinen-Schnittstelle sowie Mensch-Maschinen-Schnittstelle
EP3538977B1 (de) Verfahren zum betreiben eines bediensystems und bediensystem
DE102017106578A1 (de) Fahrzeuganzeigevorrichtung
DE102009059868A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle
EP3025214B1 (de) Verfahren zum betreiben einer eingabevorrichtung, sowie eingabevorrichtung
WO2018104315A1 (de) Bedienanordnung für ein kraftfahrzeug und verfahren zur auswahl eines listenelements aus einer auf einem display angezeigten liste
WO2020126410A1 (de) Verfahren und system zum einstellen eines wertes eines parameters
WO2021004682A1 (de) Verfahren zum betreiben eines bediensystems in einem fahrzeug und bediensystem in einem fahrzeug
DE102015222682A1 (de) Verfahren zum Aktivieren eines Bedienelements eines Kraftfahrzeugs und Bediensystem für ein Kraftfahrzeug
WO2018068821A1 (de) Verfahren zur anpassung der darstellung und bedienung einer grafischen benutzerschnittstelle
EP3364283A1 (de) Bediensystem, verfahren zum bedienen eines bediensystems und ein fahrzeug mit einem bediensystem
DE102011116187A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle
WO2022106090A1 (de) Fortbewegungsmittel, anwenderschnittstelle und verfahren zum handhaben von listen mittels einer anwenderschnittstelle eines fortbewegungsmittels
WO2024046612A1 (de) Steuern einer funktion an bord eines kraftfahrzeugs

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final