DE102009024656A1 - Verfahren zum Steuern einer grafischen Benutzerschnittstelle und Bedienvorrichtung für eine grafische Benutzerschnittstelle - Google Patents

Verfahren zum Steuern einer grafischen Benutzerschnittstelle und Bedienvorrichtung für eine grafische Benutzerschnittstelle Download PDF

Info

Publication number
DE102009024656A1
DE102009024656A1 DE102009024656A DE102009024656A DE102009024656A1 DE 102009024656 A1 DE102009024656 A1 DE 102009024656A1 DE 102009024656 A DE102009024656 A DE 102009024656A DE 102009024656 A DE102009024656 A DE 102009024656A DE 102009024656 A1 DE102009024656 A1 DE 102009024656A1
Authority
DE
Germany
Prior art keywords
touch
assigned
input gesture
objects
sensitive surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102009024656A
Other languages
English (en)
Inventor
Lennart Bendewald
Stefan Henze
Christoph Dr. Wäller
Volkmar Wagner
Frank Hauschild
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102009024656A priority Critical patent/DE102009024656A1/de
Priority to KR1020127000721A priority patent/KR101748452B1/ko
Priority to EP10723093.0A priority patent/EP2440425B1/de
Priority to PCT/EP2010/057457 priority patent/WO2010142543A1/de
Priority to US13/264,110 priority patent/US8910086B2/en
Publication of DE102009024656A1 publication Critical patent/DE102009024656A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zum Steuern einer grafischen Benutzerschnittstelle, wobei ein Menü definiert ist, bei dem mehreren Objekten (7) des Menüs jeweils eine Funktion zugeordnet ist, zumindest einem Teil der Objekte (7) jeweils eine globale Eingabegeste zugeordnet ist, wobei die Eingabegeste auf einer berührungsempfindlichen Oberfläche (5) einer Eingabevorrichtung ausführbar ist und auf einer Anzeigefläche (2) verschiedene Anzeigeinhalte anzeigbar sind. Bei dem erfindungsgemäßen Verfahren wird eine auf der berührungsempfindlichen Oberfläche (5) ausgeführte globale Eingabegeste erfasst und unabhänig von dem augenblicklich wiedergegebenen Anzeigeinhalt auf der Anzeigefläche (2) eine Funktion ausgeführt, die dem Objekt (7) zugeordnet ist, welches der erfassten Eingabegeste zugeordnet ist. Ferner betrifft die Erfindung eine Bedienvorrichtung zum Ausführen dieses Verfahrens.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Steuern einer grafischen Benutzerschnittstelle. Ferner betrifft die Erfindung eine Bedienvorrichtung für eine grafische Benutzerschnittstelle mit einer Anzeigevorrichtung, die eine Anzeigefläche aufweist, und einer Steuervorrichtung, mit welcher die auf der Anzeigefläche wiedergegebenen Anzeigeinhalte steuerbar sind, wobei mittels der Steuervorrichtung Anzeigeinhalte zu einem Menü erzeugbar sind. Ferner umfasst die Bedienvorrichtung eine Eingabevorrichtung, die eine berührungsempfindliche Oberfläche umfasst. Das Verfahren bzw. die Bedienvorrichtung werden insbesondere in einem Fahrzeug eingesetzt.
  • Ursprünglich wurden die verschiedenen in einem Fahrzeug, insbesondere einem Kraftfahrzeug, vorgesehenen Einrichtungen über separate Bedienelemente bedient. Beispielsweise gab es Drehschalter zum Einstellen der Lüftung sowie der Temperatur, Schalter zum Einstellen der verschiedenen Lüftungsdüsen, Schalter zum Bedienen der Beleuchtungseinrichtungen für den Innenraum des Fahrzeugs und Bedienelemente für ein Radio oder einen CD-Spieler. Bei modernen Kraftfahrzeugen sind mittlerweile so viele Einrichtungen zum Einstellen verschiedener Fahrzeugfunktionen, Informationssysteme, Fahrerassistenzsysteme und Unterhaltungssystem vorgesehen, dass es nicht mehr zweckmäßig ist, für alle Fahrzeugeinrichtungen separate Bedienelemente vorzusehen. Aus diesem Grund erfolgt die Bedienung der vielfältigen Fahrzeugeinrichtungen über ein einheitliches Bedienkonzept mit wenigen Bedienelementen, die in Verbindung mit einer graphischen Benutzerschnittstelle bedient werden. Dabei werden von der Anzeigevorrichtung Schaltflächen angezeigt, welche von dem Bedienelement ausgewählt werden können. Die Anzeigevorrichtung kann zur Anzeige ein Display umfassen, wobei unter einem Display allgemein eine Vorrichtung zum optischen Signalisieren von veränderlichen Informationen verstanden wird. Als Display werden üblicherweise Flüssigkristallanzeigen in verschiedenen Ausführungen verwendet.
  • Die Anzeige der Anzeigevorrichtung kann dem Fahrer verkehrs- oder betriebsbezogene Daten des Fahrzeugs visuell darstellen. Ferner kann sie den Fahrer bei der Navigation oder der Kommunikation mit der Außenwelt unterstützen. In der Nähe des primären Sichtfelds des Fahrers ist hierfür das sog. Kombiinstrument angeordnet. Üblicherweise befindet es sich im Cockpit hinter dem Lenkrad, wobei es durch eine Öffnung des Lenkrads sichtbar ist. Es dient insbesondere der Anzeige der Geschwindigkeit, des Tankinhalts, der Kühlertemperatur und anderer betriebsbezogener Informationen des Kraftfahrzeugs. Ferner können Radio- und andere Audiofunktionen dargestellt werden. Schließlich können Menüs für Telefon, Navigation, Telematikdienste und Multimediaanwendungen angezeigt werden. Die Anzeige unterstützt ferner die Bedienung verschiedener weiterer Einrichtungen des Fahrzeugs.
  • Zusätzlich zu dem Kombiinstrument wird vielfach eine Anzeigevorrichtung oberhalb der Mittelkonsole des Fahrzeugs angeordnet, über welche weitere Informationen angezeigt werden können. Diese Anzeigevorrichtung wird insbesondere als Multifunktionsanzeige und zur Darstellung einer geographischen Karte eines Navigationssystems verwendet. Eine solche Multifunktionsanzeige ist beispielsweise in der DE 199 41 956 A1 beschrieben.
  • Die Multifunktionsanzeigen werden in Verbindung mit einem Bediensystem betrieben, welches verschiedene Bedienelemente umfassen kann. In der DE 199 41 956 A1 sind z. B. mehrere Auswahl- und Funktionstasten zur Ansteuerung der Fahrzeugeinrichtungen vorgesehen. In der DE 199 41 960 A1 ist andererseits ein Multifunktionsbedienelement zur Auswahl von Funktionsgruppen und individuellen Funktionen beschrieben, das einen bidirektional drehbaren Zylinder umfasst, der ferner senkrecht zur Rotationsachse bewegbar ist.
  • In der EP 1 026 041 A2 ist eine Multifunktions-Bedieneinheit für ein Kraftfahrzeug beschrieben. Die Bedieneinheit umfasst ein Display sowie eine Funktionsleiste mit Funktionstasten, die eine feste Belegung, wie beispielsweise Radio, Bordcomputer, Telefon, Navigationseinheit, haben. Werden die Funktionstasten betätigt, so wird das Display dem entsprechenden Gerät zugewiesen und das Gerät bringt seinen derzeitigen Betriebsstatus auf den Display zur Anzeige. Darüber hinaus sind frei programmierbare und gegebenenfalls Makro-befehlsfähige Funktionstasten vorgesehen. Diese Tasten können über eine freie Programmierung einem Gerät im Fahrzeug zugewiesen werden, welches seinen jeweiligen Betriebsstatus bei Betätigung der entsprechenden Funktionstaste auf den Display zur Anzeige bringt.
  • Des Weiteren ist aus der DE 35 14 438 C1 eine zentrale Bedienungseingabe und Informationsausgabe zur Steuerung von mehreren Zusatzgeräten bekannt, die in ein Fahrzeug eingebaut sind. Die Ein- und Ausgabevorrichtung umfasst eine Anzeigeeinheit und Bedientasten, die Elementen dargestellter Menüs eindeutig zugeordnet sind. Die Elemente der Menüs geben Funktionen an, die durch die jeweiligen Bedientasten anregbar sind. Menüs für einzelne Zusatzgeräte sind über ein auf der Anzeige darstellbares Grundmenü anwählbar. Ferner umfasst das System zusätzliche Bedienelemente, mit denen ein direkter Zugriff zu bestimmten Grundfunktionen der zentralen Bedienungseingabe und Informationsausgabe und der Zusatzgeräte jederzeit und unabhängig vom augenblicklich angewählten Menü gegeben ist.
  • Neben den vorstehend beschriebenen abgesetzten Bedienelementen wurde ferner vorgeschlagen, das Display selbst mit einer berührungsempfindlichen Oberfläche auszustatten und auf diese Weise einen so genannten Touchscreen zur Verfügung zu stellen. Bei einem solchen Touchscreen erfolgt die Bedienung dadurch, dass der Nutzer z. B. mit seiner Fingerspitze den Touchscreen berührt. Die Position der Berührung wird erfasst, ausgewertet und einem Bedienschritt zugeordnet. Um den Nutzer bei der Bedienung zu unterstützen, können auf dem Display virtuelle Schalter als graphische Schaltflächen dargestellt werden. Eine Anzeigevorrichtung mit einer berührungsempfindlichen Oberfläche, die in Verbindung mit einem Navigationssystem eingesetzt wird, ist beispielsweise in der DE 10 2005 020 155 A1 beschrieben.
  • Für die Anzeige von Information in einem Fahrzeug und für die Bedienung der vielfältigen Einrichtungen des Fahrzeugs ergeben sich sehr spezielle Anforderungen. Die Informationsaufnahme und die Bedienung erfolgt im Fahrzeug unter anderem durch den Fahrer. Die Informationen sollten somit im Fahrzeug so dargestellt werden, dass die Informationsaufnahme durch den Fahrer nicht zu einer Ablenkung während der Fahrt führt. Die dargestellten Informationen sollten daher intuitiv und schnell vom Fahrer erfassbar sein, so dass er für die Informationsaufnahme nur sehr kurzzeitig den Blick vom Fahrgeschehen abwenden muss. Gleichermaßen sollte die Bedienung der Fahrzeugeinrichtungen so einfach und intuitiv wie möglich durchführbar sein, so dass der Fahrer die Einrichtungen auch während der Fahrt bedienen kann. Wird die Bedienung von einer Anzeige unterstützt oder geführt, sollte die Anzeige so erfolgen, dass der Fahrer für die Bedienung nur sehr kurz die Anzeige betrachten muss, um die Bedienung durchzuführen.
  • Um die vielfältigen Bedien- und Anzeigemöglichkeiten übersichtlich darzustellen, werden häufig hierarchische Menüstrukturen verwendet. Ein Menü zeigt verschiedene Listeneinträge oder Objekte und gegebenenfalls den Listeneinträgen bzw. Objekten zugeordnete Grafiken, graphische Schaltflächen oder Icons an. Bei der Auswahl eines Listeneintrags bzw. Objekts öffnet sich ein Untermenü mit weiteren Listeneinträgen oder Objekten. Diese Struktur kann über mehrere Hierarchieebenen fortgeführt werden. Außerdem kann einem Listeneintrag oder Objekt anstatt eines Untermenüs ein bestimmter Anzeigeinhalt zugeordnet sein, welcher die dem Listeneintrag bzw. Objekt zugeordnete Information darstellt.
  • Bei der Verwendung von hierarchischen Menüstrukturen in einem Fahrzeug ergibt sich das Problem, dass die Navigation innerhalb dieser Menüstrukturen zu einer Ablenkung des Fahrers führen kann. Es ist daher wünschenswert, Bedienkonzepte für hierarchische Menüstrukturen zu entwickeln, bei welchen die Navigation innerhalb der Menüstruktur schnell und intuitiv vom Fahrer durchgeführt werden kann.
  • Es ist die Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Bedienvorrichtung der eingangs genannten Art bereitzustellen, mit denen sich die grafische Benutzerschnittstelle zumindest hinsichtlich grundlegender Funktionen einfach und schnell steuern lässt.
  • Erfindungsgemäß wird diese Aufgabe durch ein Verfahren mit den Merkmalen des Anspruchs 1, ein Verfahren mit den Merkmalen des Anspruchs 9 sowie eine Bedienvorrichtung mit den Merkmalen des Anspruchs 13 bzw. eine Bedienvorrichtung mit den Merkmalen des Anspruchs 14 gelöst. Vorteilhafte Aus- und Weiterbildungen ergeben sich aus den abhängigen Ansprüchen.
  • Für das erfindungsgemäße Verfahren ist ein Menü definiert, bei dem mehreren Objekten des Menüs jeweils eine Funktion zugeordnet ist. Zumindest einem Teil der Objekte ist jeweils eine globale Eingabegeste zugeordnet, wobei die Eingabegeste auf einer berührungsempfindlichen Oberfläche einer Eingabevorrichtung ausführbar ist. Ferner sind auf einer Anzeigefläche verschiedene Anzeigeinhalte anzeigbar. Bei dem erfindungsgemäßen Verfahren wird eine auf der berührungsempfindlichen Oberfläche ausgeführte globale Eingabegeste erfasst und unabhängig von dem augenblicklich wiedergegebenen Anzeigeinhalt auf der Anzeigefläche eine Funktion ausgeführt, die dem Objekt zugeordnet ist, welches wiederum der erfassten Eingabegeste zugeordnet ist.
  • Unter einer globalen Eingabegeste wird im Sinne der Erfindung verstanden, dass die Eingabegeste bei allen Menüs gleich interpretiert wird. Unabhängig davon, welcher Anzeigeinhalt aktuell angezeigt wird, wird eine globale Eingabegeste immer für dieselbe Funktion verwendet. Beispielsweise kann die Funktion festlegen, dass immer ein bestimmtes Objekt eines bestimmten Menüs aufgerufen werden soll. Eine globale Eingabegeste unterscheidet sich somit von Eingaben, die in Abhängigkeit von dem aktuellen Anzeigeinhalt einer bestimmten Funktion zugeordnet werden. Wird bei einem Menü beispielsweise eine Schaltfläche angezeigt, wird die Berührung der berührungsempfindlichen Oberfläche im Bereich dieser Schaltfläche einer Funktion zugeordnet, die davon abhängt, welchen Informationsinhalt die Schaltfläche hatte. Unabhängig von solchen lokalen Schaltflächen wird eine globale Eingabegeste immer gleich interpretiert und einer bestimmten Funktion zugeordnet. Die Funktion kann sich jedoch auch auf den aktuellen Anzeigeinhalt beziehen. Beispielsweise kann die Funktion festlegen, dass – unabhängig vom Anzeigeinhalt – immer das dritte Objekt einer Liste oder das Objekt rechts oben ausgewählt werden soll.
  • Eine globale Eingabegeste kann beispielsweise die gleichzeitige Berührung der berührungsempfindlichen Oberfläche bei verschiedenen Bereichen umfassen. Es kann insbesondere die gleichzeitige Berührung der Oberfläche mit mehreren Fingerspitzen erfasst werden. Eine globale Eingabegeste umfasst insbesondere die gleichzeitige Berührung bei zumindest drei verschiedenen Bereichen der berührungsempfindlichen Oberfläche. In diesem Fall ist die berührungsempfindliche Oberfläche bzw. die Eingabevorrichtung, welche diese Oberfläche umfasst, so ausgebildet, dass die gleichzeitige Berührung bei verschiedenen Bereichen erfasst und ausgewertet werden kann. Des Weiteren kann eine Bewegung eines Objekts oder mehrerer Objekte wie zum Beispiel eines Fingers oder mehrerer Finger, die auf der berührungsempfindlichen Oberfläche ausgeführt wird, erfasst und einer globalen Eingabegeste zugeordnet werden. Die globale Eingabegeste kann beispielsweise einem auf der berührungsempfindlichen Oberfläche ausgeführten Schriftzug entsprechen, welcher einer Zahl zugeordnet ist. Der Nutzer kann beispielsweise eine Zahl mit der Fingerspitze auf die berührungsempfindliche Oberfläche schreiben.
  • Bei dem erfindungsgemäßen Verfahren wird die Eingabe einer globalen Eingabegeste unabhängig von möglichen anderen Eingabemöglichkeiten, die dem aktuell angezeigten Menü zugeordnet sind, erkannt. Selbst wenn beispielsweise bei der Eingabe der globalen Eingabegeste ein Bereich der berührungsempfindlichen Oberfläche berührt wird, der einer Schaltfläche des aktuell angezeigten Menüs zugeordnet ist, wird diese Eingabe nicht der Betätigung der Schaltfläche zugeordnet, sondern der globalen Eingabegeste. Hierbei wird insbesondere ausgenutzt, dass die berührungsempfindliche Oberfläche gleichzeitig bei mehreren Bereichen berührt wird, so dass eine Unterscheidung zu Eingaben getroffen werden kann, bei denen die berührungsempfindliche Oberfläche nur in einem Bereich gleichzeitig berührt wird.
  • Gemäß einer Ausgestaltung des erfindungsgemäßen Verfahrens ist zumindest einem Teil der Objekte ein Untermenü zugeordnet. Das zu einem Objekt gehörigen Untermenü wird bei dem erfindungsgemäßen Verfahren angezeigt, wenn die zu diesem Objekt gehörige globale Eingabegeste erfasst wurde. Die Funktion, welcher der globalen Eingabegeste zugeordnet ist, ist in diesem Fall die Anzeige eines bestimmten Untermenüs. Bei den Untermenüs handelt es sich insbesondere um die Untermenüs der Objekte eines Hauptmenüs. Es betrifft eine der grundlegenden Funktionen, die von dem Verfahren angesteuert werden können.
  • Damit eine globale Eingabegeste leichter von anderen Eingaben unterschieden werden kann, kann bei dem erfindungsgemäßen Verfahren vorgesehen sein, dass vor dem Ausführen der globalen Eingabegeste eine separate Eingabe ausgeführt wird, die indiziert, dass die darauffolgende Eingabe eine globale Eingabegeste ist. In diesem Fall ist die globale Eingabegeste innerhalb eines Zeitintervalls nach der separaten Eingabe auszuführen. Durch diese Ausgestaltung des erfindungsgemäßen Verfahrens können Verwechslungen mit anderen Eingaben sicher vermieden werden.
  • Gemäß einer anderen Ausgestaltung des erfindungsgemäßen Verfahrens wird auf der berührungsempfindlichen Oberfläche ein Bereich zum Ausführen der globalen Eingabegeste definiert. Dabei kann die Lage und/oder Größe des Bereichs in Abhängigkeit von dem aktuellen Anzeigeinhalt festgelegt werden. Auch auf diese Weise kann verhindert werden, dass sich Verwechslungen zwischen globalen Eingabegesten und anderen Eingaben ergeben.
  • Des Weiteren betrifft die Erfindung ein Verfahren zum Steuern einer grafischen Benutzerschnittstelle, wobei ein Menü definiert ist, bei dem mehreren Objekten des Menüs jeweils eine Funktion zugeordnet ist, und zumindest einem Teil der Objekte jeweils eine unterschiedliche Zahl zugeordnet ist und diesem Teil der Objekte jeweils eine globale Eingabegeste zugeordnet ist, wobei die Eingabegeste auf einer berührungsempfindlichen Oberfläche einer Eingabevorrichtung ausführbar ist. Bei dem Verfahren wird eine auf der berührungsempfindlichen Oberfläche ausgeführte globale Eingabegeste erfasst und einer Zahl zugeordnet. Daraufhin wird eine Funktion ausgeführt, die dem Objekt des augenblicklich angezeigten Menüs zugeordnet ist, dem die Zahl zugeordnet ist.
  • Auch bei dieser Ausgestaltung des erfindungsgemäßen Verfahrens ist die Funktion, welcher der globalen Eingabegeste zugeordnet ist, vom augenblicklich wiedergegebenen Anzeigeinhalt unabhängig. Die Funktion bezieht sich jedoch insofern auf das augenblicklich angezeigte Menü, als dass den Objekten dieses Menüs jeweils eine Zahl zugeordnet ist, welche eine Beziehung zwischen dem Objekt und der globalen Eingabegeste herstellt. Unabhängig vom Anzeigeinhalt kann beispielsweise immer das dritte Objekt eines Menüs ausgewählt werden, bei dem die Objekte als Liste geordnet sind.
  • Diese Ausgestaltung des erfindungsgemäßen Verfahrens kann insbesondere dann eingesetzt werden, wenn verschiedenen Menüs jeweils nur eine überschaubare Anzahl von Objekten zugeordnet ist. Werden in Verbindung mit den Menüs insbesondere nur fünf Objekte oder weniger als fünf Objekte globalen Eingabegesten zugeordnet, kann die Eingabegeste beispielsweise die gleichzeitige Berührung bei verschiedenen Bereichen der berührungsempfindlichen Oberfläche umfassen, wobei die Anzahl der abgegrenzten Bereiche der Zahl entspricht, welcher die Eingabegeste zugeordnet wird. Der Nutzer kann in diesem Fall insbesondere die berührungsempfindliche Oberfläche mit seinen Fingerspitzen berühren, wobei er durch die Anzahl der Fingerspitzen, welche die berührungsempfindliche Oberfläche berühren, in jedem Menü festlegen kann, welches Objekt ausgewählt werden soll.
  • Des Weiteren ist es auch in diesem Fall möglich, dass die globale Eingabegeste einem auf der berührungsempfindlichen Oberfläche ausgeführten Schriftzug entspricht, welcher einer der Eingabegeste zugeordneten Zahl entspricht.
  • Gemäß einer weitern Ausgestaltung des erfindungsgemäßen Verfahrens ist zumindest ein weiteres Menü definiert, bei dem mehreren Objekten des weiteren Menüs jeweils eine Funktion zugeordnet ist. Zumindest einem Teil der Objekte des weiteren Menüs ist jeweils eine unterschiedliche Zahl zugeordnet und diesem Teil der Objekte des weiteren Menüs ist jeweils eine globale Eingabegeste zugeordnet. Bei dieser Ausgestaltung des erfindungsgemäßen Verfahrens wird eine Funktion ausgeführt, die dem Objekt des augenblicklich angezeigten Menüs zugeordnet ist, das der Zahl zugeordnet ist. Eine Eingabegeste ist somit einer Zahl zugeordnet, die für eine Vielzahl von Menüs so interpretiert werden kann, dass das der Zahl zugeordnete Objekt des aktuell angezeigten Menüs ausgewählt und die entsprechende Funktion ausgeführt wird.
  • Die erfindungsgemäße Bedienvorrichtung für eine grafische Benutzerschnittstelle umfasst eine Anzeigevorrichtung mit einer Anzeigefläche und eine Steuervorrichtung, mit welcher die auf der Anzeigefläche wiedergegebenen Anzeigeinhalte steuerbar sind. Mittels der Steuervorrichtung sind Anzeigeinhalte zu einem Menü erzeugbar, bei dem mehreren Objekten des Menüs jeweils eine Funktion zugeordnet ist, wobei zumindest einem Teil der Objekte jeweils eine globale Eingabegeste zugeordnet ist. Die Bedienvorrichtung umfasst ferner eine Eingabevorrichtung, die eine berührungsempfindliche Oberfläche aufweist, mit der die globale Eingabegeste, welche auf der berührungsempfindlichen Oberfläche ausgeführt wurde, detektierbar ist. Dabei ist mit der Steuervorrichtung der erfindungsgemäßen Bedienvorrichtung unabhängig von dem augenblicklich wiedergegebenen Anzeigeinhalt auf der Anzeigefläche eine Funktion ausführbar, die dem Objekt zugeordnet ist, welches wiederum einer globalen Eingabegeste zugeordnet ist, die mittels der Eingabevorrichtung erfasst worden ist.
  • Gemäß einem anderen Aspekt der Erfindung ist bei der Bedienvorrichtung zumindest einem Teil der Objekte jeweils eine unterschiedliche Zahl zugeordnet und diesem Teil der Objekte jeweils eine globale Eingabegeste zugeordnet. In diesem Fall ist mit der Steuervorrichtung eine Funktion ausführbar, die dem Objekt des augenblicklich angezeigten Menüs zugeordnet ist, welches wiederum der Zahl zugeordnet ist, die einer globalen Eingabegeste zugeordnet ist, die mittels der Eingabevorrichtung erfasst worden ist.
  • Die Eingabevorrichtung der erfindungsgemäßen Bedienvorrichtung ist insbesondere so ausgebildet, dass die gleichzeitige Berührung bei verschiedenen Bereichen der berührungsempfindlichen Oberfläche erfassbar ist. Die berührungsempfindliche Oberfläche kann dabei unabhängig von der Anzeigefläche vorgesehen sein, so dass ein so genannter Touchpad zur Verfügung gestellt wird. Ferner kann die berührungsempfindliche Oberfläche auf der Anzeigefläche gebildet sein, so dass ein so genannter Touchscreen zur Verfügung gestellt wird. Bei dem Touchpad bzw. dem Touchscreen handelt es sich um ein so genanntes Multi-Touchpad bzw. einem Multi-Touchscreen, bei denen die gleichzeitige Berührung mit mehreren Fingerspitzen erfassbar und interpretierbar ist.
  • Das erfindungsgemäße Verfahren wird insbesondere zum Steuern einer graphischen Benutzerschnittstelle eingesetzt, die die Bedienungen von Fahrzeugeinrichtungen unterstützt. Die erfindungsgemäße Bedienvorrichtung ist insbesondere in einem Fahrzeug untergebracht. Die Anzeigefläche ist dabei so angeordnet, dass sie von Fahrzeuginsassen, insbesondere dem Fahrer des Fahrzeugs, betrachtet werden kann. Des Weiteren ist die berührungsempfindliche Oberfläche der Eingabevorrichtung so angeordnet, dass sie von Fahrzeuginsassen, insbesondere dem Fahrer des Fahrzeugs, mit der Fingerspitze berührt werden kann.
  • Die Erfindung wird nun anhand von Ausführungsbeispielen mit Bezug zu den Zeichnungen erläutert.
  • 1 zeigt schematisch den Aufbau eines Ausführungsbeispiels der erfindungsgemäßen Vorrichtung und die Koppelung dieser Vorrichtung mit anderen Einrichtungen des Fahrzeugs,
  • die 2 und 3 veranschaulichen die Eingabe einer globalen Eingabegeste,
  • 4 veranschaulicht die Eingabe einer globalen Eingabegeste auf andere Weise,
  • 5 zeigt eine Ausgestaltung der Anzeigefläche, die bei Ausführungsbeispielen der Erfindung verwendet wird, und
  • die 6A bis 6C zeigen Markierungen an Objekten, welche eine zugeordnete globale Eingabegeste visualisieren.
  • Die im Folgenden beschriebenen Ausführungsbeispiele für Bedienvorrichtungen bzw. Verfahren zum Steuern einer grafischen Benutzerschnittstelle werden insbesondere in einem Fahrzeug eingesetzt. Sie sind jedoch auch bei grafischen Benutzerschnittstellen einsetzbar, die in Verbindung mit anderen Einrichtungen, insbesondere mobilen Geräten, verwendet werden. Bei dem Einsatz im Fahrzeug ergibt sich jedoch der besondere Vorteil, dass das Verfahren bzw. die Bedienvorrichtung einen sehr schnellen Zugriff zu grundlegenden Funktionen des Fahrzeugs bereitstellen. Auf diese Weise kann eine mögliche Ablenkung des Fahrers bei der Bedienung von Einrichtungen des Fahrzeugs auf ein Mindestmaß reduziert werden. Außerdem kann der Nutzer sehr schnell auf die grundlegenden Funktionen des Fahrzeugs zugreifen.
  • Die Bedienvorrichtung umfasst eine Anzeigevorrichtung 1 mit einer Anzeigefläche 2, die so im Innenraum des Fahrzeugs angeordnet ist, dass sie von zumindest einem Fahrzeuginsassen, insbesondere dem Fahrer, gut sichtbar ist. Mittels der Anzeigefläche 2 wird die grafische Benutzerschnittstelle bereitgestellt, welche mittels des Verfahrens bzw. der Bedienvorrichtung gesteuert werden kann. Die Anzeigefläche 2 kann von einem Display, insbesondere einem Flüssigkristalldisplay, beliebiger Bauart bereitgestellt werden. Die Anzeigevorrichtung ist mit einer Steuervorrichtung 3 gekoppelt.
  • Die Steuervorrichtung 3 erzeugt Grafikdaten, die mittels der Anzeigevorrichtung 1 angezeigt werden können. Die Steuervorrichtung ist hierfür mit einem Speicher 4 zum Speichern von Daten verbunden. Die Daten sind insbesondere mittels hierarchischer Menüs strukturiert. Jedes Menü umfasst dabei mehrere Objekte, denen jeweils eine Funktion zugeordnet ist. Bei den Objekten kann es sich insbesondere um auswählbare Schaltflächen handeln.
  • Unter einer Schaltfläche wird im Sinne der Erfindung ein Steuerelement einer graphischen Benutzerschnittstelle verstanden. Eine Schaltfläche unterscheidet sich von Elementen und Flächen zur reinen Informationsanzeige, so genannten Anzeigeelementen bzw. Anzeigenflächen, darin, dass sie auswählbar sind. Bei einer Auswahl einer Schaltfläche wird eine ihr zugeordnete Funktion ausgeführt. Die Funktion kann nur zu einer Veränderung der Informationsanzeige führen. Ferner können über die Schaltflächen auch Einrichtungen gesteuert werden, deren Bedienung von der Informationsanzeige unterstützt wird. Die Schaltflächen können somit herkömmliche mechanische Schalter ersetzen. Die Schaltflächen können beliebig auf einer frei programmierbaren Anzeigefläche erzeugt und angezeigt werden. Des Weiteren kann vorgesehen sein, dass eine Schaltfläche markiert werden kann. In diesem Fall wird die zugeordnete Funktion noch nicht ausgeführt. Die markierte Schaltfläche wird jedoch gegenüber anderen Schaltflächen hervorgehoben dargestellt. Die Markierung und/oder Auswahl einer Schaltfläche kann mittels einer Cursorsteuerung oder durch direkte Bedienung einer berührungsempfindlichen Oberfläche 5 der Anzeigefläche erfolgen.
  • In 1 ist beispielsweise ein Menü gezeigt, welches fünf als Schaltflächen ausgebildete Objekte 7-1 bis 7-5 umfasst (die Objekte 7-1 bis 7-5 werden im Folgenden auch allgemein als Objekt 7 oder Objekte 7 bezeichnet). Bei dem in 1 gezeigten Menü handelt es sich insbesondere um das grundlegende Hauptmenü der graphischen Benutzerschnittstelle des Fahrzeugs. Die Objekte 7 betreffen die grundlegenden Funktionen des Fahrzeugs, welche beispielsweise die Klimaeinstellungen, das Navigationssystem, Kommunikationseinrichtungen und Multimediaeinrichtungen umfassen können.
  • Wie in 1 gezeigt sind die einzelnen Objekte 7 mit den Zahlen 1 bis 5 gekennzeichnet. Diese Zahlen werden in Verbindung mit den Objekten 7 auf der Anzeigefläche 2 angezeigt. Des Weiteren können die Objekte 7 grafische oder alphanumerische Elemente enthalten, welche die Funktion visualisieren, die dem jeweiligen Objekt 7 zugeordnet ist.
  • Die Bedienvorrichtung umfasst ferner eine Eingabevorrichtung, die im vorliegenden Ausführungsbeispiel eine berührungsempfindliche Oberfläche 5 aufweist. Bei dem in 1 gezeigten Ausführungsbeispiel ist die berührungsempfindliche Oberfläche 5 auf der Anzeigefläche 2 gebildet. Die Anzeigevorrichtung 1 umfasst somit einen Touchscreen. Auf der berührungsempfindlichen Oberfläche 5 der Anzeigefläche 2 ist insbesondere die gleichzeitige Berührung bei verschiedenen Bereichen detektierbar. Es handelt sich somit um einen so genannten Multi-Touchscreen.
  • Alternativ kann die berührungsempfindliche Oberfläche auch separat von der Anzeigefläche 2 vorgesehen sein. In diesem Fall umfasst die Eingabevorrichtung somit ein Touchpad, insbesondere ein Multi-Touchpad.
  • Des Weiteren ist die Steuervorrichtung 3 mit einem Fahrzeugbus 6 gekoppelt, über welchen Daten der vielfältigen Einrichtungen des Fahrzeugs ausgetauscht werden können. Die Bedienung dieser Einrichtungen kann von der Anzeige auf der Anzeigefläche 2 unterstützt werden. Des Weiteren kann die Bedienung dieser Einrichtungen mittels der Eingabevorrichtung, insbesondere der berührungsempfindlichen Oberfläche 5, erfolgen.
  • Im Folgenden wird mit Bezug zu den 2 bis 4 ein erstes Ausführungsbeispiel des erfindungsgemäßen Verfahrens erläutert, welches mittels der vorstehend beschriebenen Bedienvorrichtung durchführbar ist:
    Die in dem Speicher 4 gespeicherten Daten sind als hierarchische Menüstruktur abgelegt. Die zu dieser hierarchischen Menüstruktur gehörenden Menüs können mittels der Steuervorrichtung 3 auf der Anzeigefläche 2 angezeigt werden. In der höchsten Hierarchieebene wird ein Hauptmenü angezeigt, welches die Objekte 7-1 bis 7-5 enthält. Jedem der Objekte 7 ist eine bestimmte Funktion zugeordnet, im vorliegenden Fall der Aufruf eines Untermenüs. Wählt der Nutzer beispielsweise bei der in 1 dargestellten Wiedergabe des Hauptmenüs das Objekt 7-1 aus, indem er beispielsweise die berührungsempfindliche Oberfläche 5 in dem Bereich des Objekts 7-1 berührt, wird ein Untermenü angezeigt, welches dem Objekt 7-1 zugeordnet ist. Entsprechend können die Untermenüs zu den anderen Objekten 7-2 bis 7-5 ausgewählt werden.
  • Des Weiteren sind den Objekten 7 so genannte globale Eingabegesten zugeordnet. Durch die Eingabe einer globalen Eingabegeste auf der berührungsempfindlichen Oberfläche 5 kann eine dem entsprechenden Objekt 7 zugeordnete Funktion unabhängig von dem augenblicklich wiedergegebenen Anzeigeinhalt auf der Anzeigefläche 2, d. h. auch unabhängig von dem aktuell angezeigten Menü, ausgeführt werden.
  • In dem gezeigten Ausführungsbeispiel ist jedem der Objekte 7 eine der Zahlen 1 bis 5 zugeordnet. Dem Objekt 7-1, dem die Zahl 1 zugeordnet ist, ist in diesem Fall als globale Eingabegeste die Berührung der berührungsempfindlichen Oberfläche 5 in einem abgegrenzten Bereich, zum Beispiel mit nur einer Fingerspitze, zugeordnet. Dem Objekt 7-2, dem die Zahl 2 zugeordnet ist, ist als globale Eingabegeste das gleichzeitige Berühren der berührungsempfindlichen Oberfläche 5 bei zwei abgegrenzten Bereichen, zum Beispiel mit zwei Fingerspitzen, zugeordnet. Entsprechend ist den Objekten 7-3, 7-4 und 7-5, denen die Zahlen 3, 4 und 5 zugeordnet sind, als globale Eingabegesten die gleichzeitige Berührung der berührungsempfindlichen Oberfläche 5 bei drei, vier bzw. fünf abgegrenzten Bereichen, zum Beispiel mit drei, vier bzw. fünf Fingerspitzen, zugeordnet.
  • Ausgehend von der in 1 wiedergegebenen Darstellung des Hauptmenüs mit den Objekten 7 kann der Nutzer zunächst auf beliebige Weise durch Auswahl von Schaltflächen innerhalb der hierarchischen Menüstruktur auf an sich bekannte Weise navigieren. Unabhängig davon, bei welchem Menü sich der Nutzer innerhalb der hierarchischen Menüstruktur befindet, kann der Nutzer jederzeit durch Eingabe einer globalen Eingabegeste zu der Auswahl eines der Objekte 7 des Hauptmenüs gelangen, so dass durch die Eingabe der globalen Eingabegeste direkt das entsprechende Untermenü zu dem Objekt 7 aufgerufen wird. Die globale Eingabegeste stellt somit eine Schnellzugriffsfunktion (shortcut) bereit.
  • In 2 ist beispielsweise gezeigt, dass der Nutzer bei einer beliebigen Anzeige innerhalb der hierarchischen Menüstruktur die berührungsempfindliche Oberfläche 5 gleichzeitig bei drei Positionen mit den Fingerspitzen 8 berührt. Wie in 3 gezeigt, wird von der Steuervorrichtung 3 erfasst, bei welchen Positionen 9 die berührungsempfindliche Oberfläche 5 gleichzeitig berührt worden ist. Das gleichzeitige Berühren bei drei abgegrenzten Bereichen kann von der Steuervorrichtung 3 unmittelbar als globale Eingabegeste interpretiert werden, die dem Objekt 7-3 zugeordnet ist. Ferner kann die Steuervorrichtung zunächst die relativen Lagen der Positionen 9 untersuchen und bestimmen, ob die drei Positionen 9 zu einer globalen Eingabegeste, bei welcher die berührungsempfindliche Oberfläche 5 gleichzeitig von drei Fingerspitzen 8 berührt worden ist, gehören kann. Nachdem die globale Eingabegeste erfasst worden ist, wird unabhängig von dem augenblicklich wiedergegebenen Anzeigeinhalt auf der Anzeigefläche 2 die Funktion ausgeführt, die dem Objekt 7-3 zugeordnet ist, da dieses Objekt zu der erfassten Eingabegeste gehört. Es wird im vorliegenden Fall somit das Untermenü aufgerufen und angezeigt, welches dem Objekt 7-3 zugeordnet ist.
  • Des Weiteren kann den Objekten 7 jeweils eine weitere globale Eingabegeste zugeordnet sein, die dem Nutzer eine weitere Möglichkeit bietet, direkt, d. h. unabhängig von dem augenblicklich wiedergegebenen Anzeigeinhalt auf der Anzeigefläche 2, die Funktion aufzurufen, die dem jeweiligen Objekt 7 zugeordnet ist. Die globale Eingabegeste ist in diesem Fall ein auf der berührungsempfindlichen Oberfläche 5 ausgeführter Schriftzug, welcher einer Zahl entspricht, die dem Objekt 7 zugeordnet ist. In 4 ist beispielsweise gezeigt, dass der Nutzer mit seiner Fingerspitze 8 den Schriftzug 10 für die Zahl drei geschrieben hat. Dieser Schriftzug 10 wird als globale Eingabegeste interpretiert, welche dem Objekt 7-3 zugeordnet ist. Entsprechend kann der Nutzer auch eine andere der Zahlen eins bis fünf als Schriftzug 10 auf der berührungsempfindlichen Oberfläche 5 ausführen, um eine Funktion aufzurufen, die einem der Objekte 7 zugeordnet ist.
  • Damit globale Eingabegesten leichter von anderen Eingaben unterschieden werden können, die in Verbindung mit Menüs ausgeführt werden, kann vorgesehen sein, dass bei einer globalen Eingabegeste die berührungsempfindliche Oberfläche 5 immer bei mindestens drei abgegrenzten Bereichen gleichzeitig berührt wird. Des Weiteren kann vor dem Ausführen der globalen Eingabegeste eine separate Eingabe ausgeführt werden, die indiziert, dass die darauf folgende Eingabe eine globale Eingabegeste ist. Die separate Eingabe kann beispielsweise auf einer gesonderten Schaltfläche, die entsprechend gekennzeichnet ist, ausgeführt werden. Die globale Eingabegeste ist dann innerhalb eines Zeitintervalls nach der separaten Eingabe auszuführen.
  • Des Weiteren kann, wie in 5 gezeigt, die Anzeigefläche 2 in zwei Bereiche 2-1 und 2-2 unterteilt sein: Der Bereich 2-1 dient der herkömmlichen Anzeige von Informationen und von Menüs. Der Anzeigebereich 2-2 ist für die Eingabe globaler Eingabegesten reserviert. Dieser Anzeigebereich 2-2 ist mit der berührungsempfindlichen Oberfläche 5 versehen. In diesem Bereich 2-2 kann der Nutzer beispielsweise mittels seiner Fingerspitzen 8 die globale Eingabegeste ausführen. Die Lage und/oder Größe dieses Bereichs 2-2 muss nicht immer identisch festgelegt sein. Die Lage und/oder Größe kann auch in Abhängigkeit von dem aktuellen Anzeigeinhalt, der auf der Anzeigefläche 2 wiedergegeben wird, festgelegt werden.
  • Im Folgenden wird ein zweites Ausführungsbeispiel des erfindungsgemäßen Verfahrens beschrieben, welches auch von der vorstehend mit Bezug zur 1 beschriebenen Bedienvorrichtung ausgeführt werden kann:
    Wie bei dem ersten Ausführungsbeispiel sind eine Vielzahl von Menüs in einer hierarchischen Menüstruktur im Speicher 4 gespeichert. Eine Vielzahl von Menüs umfasst dabei Listen mit mehreren Objekten 7 (Listeneinträgen). Die Objekte 7 verschiedener Menüs können sich jedoch unterscheiden. Bei Multimediaanwendungen kann eine Liste beispielsweise verschiedene Musikstücke oder Stationsnummern des Radios umfassen. Erfolgt die globale Eingabegeste mittels der gleichzeitigen Berührung der berührungsempfindlichen Oberfläche 5 durch die Fingerspitzen 8 der Hand eines Nutzers, ist die Anzahl der Objekte einer Liste auf fünf oder weniger begrenzt.
  • Wie im ersten Ausführungsbeispiel sind die Objekte 7 jeweils mit Zahlen gekennzeichnet. Auch in diesem Fall können des Weiteren grafische Symbole oder weitere alphanumerische Informationen die Funktion des entsprechenden Objekts 7 visualisieren.
  • Bei dem zweiten Ausführungsbeispiel ist eine globale Eingabegeste jeweils einer Zahl zugeordnet, die wiederum einem bestimmten Objekt 7 eines Menüs zugeordnet ist. Wird eine globale Eingabegeste ausgeführt, wird jedoch in diesem Fall nicht wie beim zuerst beschriebenen Ausführungsbeispiel die Funktion eines bestimmten Objekts 7 des Hauptmenüs aufgerufen, sondern die Funktion ausgeführt, die dem Objekt 7 des augenblicklich angezeigten Menüs zugeordnet ist, dem die Zahl zugeordnet ist, welche zu der globalen Eingabegeste gehört. Dabei ist die gleichzeitige Berührung der berührungsempfindlichen Oberfläche 5 bei drei abgegrenzten Bereichen der Zahl 3 zugeordnet ist, die gleichzeitige Berührung bei vier abgegrenzten Bereichen der Zahl 4 zugeordnet und entsprechend die gleichzeitige Berührung bei fünf abgegrenzten Bereichen der Zahl 5 zugeordnet. Bei jedem Menü, das eine Liste enthält, kann somit die Berührung der berührungsempfindlichen Oberfläche 5 mit drei Fingerspitzen 8 zum Aufruf des dritten Objekts 7 führen. Gleichermaßen kann das gleichzeitige Berühren mit vier Fingerspitzen 8 zum Aufruf des vierten Objekts führen. Entsprechend kann die jeweilige Zahl, wie es vorstehend mit Bezug zu 4 erläutert wurde, auch mittels eines Schriftzuges 10 eingegeben werden.
  • Des Weiteren kann für die Eingabe einer globalen Eingabegeste ein separater Bereich 2-2 vorgesehen sein, wie es mit Bezug zu 5 erläutert wurde. Schließlich kann auch eine separate Eingabe vor der eigentlichen Eingabe der globalen Eingabegeste ausgeführt werden, um die darauf folgende Eingabe innerhalb eines Zeitintervalls als globale Eingabegeste zu identifizieren.
  • Objekte 7, die mittels globaler Eingabegesten auswählbar sind, können entsprechend markiert werden. In den 6A bis 6C sind Objekte 14 dargestellt, die mit einer Markierung 11, einer Markierung 12 bzw. einer Markierung 13 versehen sind. Die Markierung 11 zeigt an, dass dem Objekt 14 als globale Eingabegeste die Zahl 1 bzw. die Berührung der berührungsempfindlichen Oberfläche 5 mit einem Finger zugeordnet ist. Die Markierung 12 zeigt an, dass dem Objekt 14 die Zahl 2 zugeordnet ist bzw. die gleichzeitige Berührung der berührungsempfindlichen Oberfläche 5 mit zwei Fingerspitzen 8. Die Markierung 13 zeigt an, dass dem Objekt 14 die Zahl 3 zugeordnet ist bzw. die gleichzeitige Berührung der berührungsempfindlichen Oberfläche 5 mit drei Fingerspitzen 8.
  • Bezugszeichenliste
  • 1
    Anzeigevorrichtung
    2
    Anzeigefläche
    3
    Steuervorrichtung
    4
    Speicher
    5
    berührungsempfindliche Oberfläche
    6
    Fahrzeugbus
    7
    Objekte
    8
    Fingerspitzen
    9
    Positionen auf der berührungsempfindlichen Oberfläche 5
    10
    Schriftzug
    11
    Markierung
    12
    Markierung
    13
    Markierung
    14
    Objekt
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 19941956 A1 [0004, 0005]
    • DE 19941960 A1 [0005]
    • EP 1026041 A2 [0006]
    • DE 3514438 C1 [0007]
    • DE 102005020155 A1 [0008]

Claims (15)

  1. Verfahren zum Steuern einer grafischen Benutzerschnittstelle, wobei – ein Menü definiert ist, bei dem mehreren Objekten (7) des Menüs jeweils eine Funktion zugeordnet ist, – zumindest einem Teil der Objekte (7) jeweils eine globale Eingabegeste zugeordnet ist, wobei die Eingabegeste auf einer berührungsempfindlichen Oberfläche (5) einer Eingabevorrichtung ausführbar ist, und – auf einer Anzeigefläche (2) verschiedene Anzeigeinhalte anzeigbar sind, bei dem – eine auf der berührungsempfindlichen Oberfläche (5) ausgeführte globale Eingabegeste erfasst wird und – unabhängig von dem augenblicklich wiedergegebenen Anzeigeinhalt auf der Anzeigefläche (2) eine Funktion ausgeführt wird, die dem Objekt (7) zugeordnet ist, welches der erfassten Eingabegeste zugeordnet ist.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die globale Eingabegeste die gleichzeitige Berührung bei verschiedenen Bereichen der berührungsempfindlichen Oberfläche (5) umfasst.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die globale Eingabegeste die gleichzeitige Berührung bei zumindest drei verschiedenen Bereichen der berührungsempfindlichen Oberfläche (5) umfasst.
  4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die globale Eingabegeste einem auf der berührungsempfindlichen Oberfläche (5) ausgeführten Schriftzug (10) entspricht, welcher einer Zahl zugeordnet wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zumindest einem Teil der Objekte (7) ein Untermenü zugeordnet ist und dass das zu einem Objekt (7) gehörige Untermenü angezeigt wird, wenn die zu diesem Objekt (7) gehörige Eingabegeste erfasst wurde.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass vor dem Ausführen der globalen Eingabegeste eine separate Eingabe ausgeführt wird, die indiziert, dass die darauf folgende Eingabe eine globale Eingabegeste ist, wobei die globale Eingabegeste innerhalb eines Zeitintervalls nach der separaten Eingabe auszuführen ist.
  7. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass auf der berührungsempfindlichen Oberfläche (5) ein Bereich zum Ausführen der globalen Eingabegeste definiert wird.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass die Lage und/oder Größe des Bereichs in Abhängigkeit von dem aktuellen Anzeigeinhalt festgelegt wird.
  9. Verfahren zum Steuern einer grafischen Benutzerschnittstelle, wobei – ein Menü definiert ist, bei dem mehreren Objekten (7) des Menüs jeweils eine Funktion zugeordnet ist, und – zumindest einem Teil der Objekte (7) jeweils eine unterschiedliche Zahl zugeordnet ist und diesem Teil der Objekte (7) jeweils eine globale Eingabegeste zugeordnet ist, wobei die Eingabegeste auf einer berührungsempfindlichen Oberfläche (5) einer Eingabevorrichtung ausführbar ist, bei dem – eine auf der berührungsempfindlichen Oberfläche (5) ausgeführte globale Eingabegeste erfasst wird und einer Zahl zugeordnet wird und – eine Funktion ausgeführt wird, die dem Objekt des augenblicklich angezeigten Menüs zugeordnet ist, dem die Zahl zugeordnet ist.
  10. Verfahren nach Anspruch 9 dadurch gekennzeichnet, dass die Eingabegeste die gleichzeitige Berührung bei verschiedenen Bereichen der berührungsempfindlichen Oberfläche (5) umfasst und dass die Anzahl der Bereiche der Zahl entspricht, welcher die Eingabegeste zugeordnet wird.
  11. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass die globale Eingabegeste einem auf der berührungsempfindlichen Oberfläche (5) ausgeführten Schriftzug (10) entspricht, welcher einer der Eingabegeste zugeordneten Zahl entspricht.
  12. Verfahren nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass – zumindest ein weiteres Menü definiert ist, bei dem mehreren Objekten des weiteren Menüs jeweils eine Funktion zugeordnet ist, – zumindest einem Teil der Objekte des weiteren Menüs jeweils eine unterschiedliche Zahl zugeordnet ist und diesem Teil der Objekte des weiteren Menüs jeweils eine globale Eingabegeste zugeordnet ist und – eine Funktion ausgeführt wird, die dem Objekt des augenblicklich angezeigten Menüs zugeordnet ist, das der Zahl zugeordnet ist.
  13. Bedienvorrichtung für eine grafische Benutzerschnittstelle mit – einer Anzeigevorrichtung (1) mit einer Anzeigefläche (2), – einer Steuervorrichtung (3), mit welcher die auf der Anzeigefläche (2) wiedergegebenen Anzeigeinhalte steuerbar sind, wobei mittels der Steuervorrichtung (3) Anzeigeinhalte zu einem Menü erzeugbar sind, bei dem mehreren Objekten (7) des Menüs jeweils eine Funktion zugeordnet ist, wobei zumindest einem Teil der Objekte (7) jeweils eine globale Eingabegeste zugeordnet ist, und – einer Eingabevorrichtung, die eine berührungsempfindliche Oberfläche (5) umfasst, mit der die globale Eingabegeste, welche auf der berührungsempfindlichen Oberfläche (5) ausgeführt wurde, detektierbar ist, – wobei mit der Steuervorrichtung (3) unabhängig von dem augenblicklich wiedergegebenen Anzeigeinhalt auf der Anzeigefläche (2) eine Funktion ausführbar ist, die dem Objekt (7) zugeordnet ist, welches einer globalen Eingabegeste zugeordnet ist, die mittels der Eingabevorrichtung erfasst worden ist.
  14. Bedienvorrichtung für eine grafische Benutzerschnittstelle mit – einer Anzeigevorrichtung (1) mit einer Anzeigefläche (2), – einer Steuervorrichtung (3), mit welcher die auf der Anzeigefläche 2 wiedergegebenen Anzeigeinhalte steuerbar sind, wobei mittels der Steuervorrichtung (3) Anzeigeinhalte zu einem Menü erzeugbar sind, bei dem mehreren Objekten (7) des Menüs jeweils eine Funktion zugeordnet ist, wobei zumindest einem Teil der Objekte (7) jeweils eine unterschiedliche Zahl zugeordnet ist und diesem Teil der Objekte (7) jeweils eine globale Eingabegeste zugeordnet ist, und – einer Eingabevorrichtung, die eine berührungsempfindliche Oberfläche (5) umfasst, mit der die globale Eingabegeste, welche auf der berührungsempfindlichen Oberfläche (5) ausgeführt wurde, detektierbar ist, – wobei mit der Steuervorrichtung (3) eine Funktion ausführbar ist, die dem Objekt (7) des augenblicklich wiedergegebenen Menüs zugeordnet ist, welches der Zahl zugeordnet ist, die einer globalen Eingabegeste zugeordnet ist, die mittels der Eingabevorrichtung erfasst worden ist.
  15. Bedienvorrichtung nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass mit der Eingabevorrichtung die gleichzeitige Berührung bei verschiedenen Bereichen der berührungsempfindlichen Oberfläche (5) erfassbar ist.
DE102009024656A 2009-06-12 2009-06-12 Verfahren zum Steuern einer grafischen Benutzerschnittstelle und Bedienvorrichtung für eine grafische Benutzerschnittstelle Withdrawn DE102009024656A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102009024656A DE102009024656A1 (de) 2009-06-12 2009-06-12 Verfahren zum Steuern einer grafischen Benutzerschnittstelle und Bedienvorrichtung für eine grafische Benutzerschnittstelle
KR1020127000721A KR101748452B1 (ko) 2009-06-12 2010-05-28 그래픽 사용자 인터페이스의 조절 방법 및 그래픽 사용자 인터페이스용 작동 장치
EP10723093.0A EP2440425B1 (de) 2009-06-12 2010-05-28 Verfahren zum steuern einer grafischen benutzerschnittstelle und bedienvorrichtung für eine grafische benutzerschnittstelle
PCT/EP2010/057457 WO2010142543A1 (de) 2009-06-12 2010-05-28 Verfahren zum steuern einer grafischen benutzerschnittstelle und bedienvorrichtung für eine grafische benutzerschnittstelle
US13/264,110 US8910086B2 (en) 2009-06-12 2010-05-28 Method for controlling a graphical user interface and operating device for a graphical user interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009024656A DE102009024656A1 (de) 2009-06-12 2009-06-12 Verfahren zum Steuern einer grafischen Benutzerschnittstelle und Bedienvorrichtung für eine grafische Benutzerschnittstelle

Publications (1)

Publication Number Publication Date
DE102009024656A1 true DE102009024656A1 (de) 2011-03-24

Family

ID=42664862

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009024656A Withdrawn DE102009024656A1 (de) 2009-06-12 2009-06-12 Verfahren zum Steuern einer grafischen Benutzerschnittstelle und Bedienvorrichtung für eine grafische Benutzerschnittstelle

Country Status (5)

Country Link
US (1) US8910086B2 (de)
EP (1) EP2440425B1 (de)
KR (1) KR101748452B1 (de)
DE (1) DE102009024656A1 (de)
WO (1) WO2010142543A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016223176A1 (de) * 2016-11-23 2018-05-24 Volkswagen Aktiengesellschaft Verfahren zum Erfassen einer Nutzereingabe für eine Eingabevorrichtung mit mehreren Schaltelementen und Eingabevorrichtung
US11392268B2 (en) 2016-09-20 2022-07-19 Volkswagen Ag User interface for accessing a set of functions, procedures, and computer readable storage medium for providing a user interface for access to a set of functions
DE102009031649B4 (de) 2009-07-03 2024-05-16 Volkswagen Ag Eingabevorrichtung für ein Kraftfahrzeug

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8549657B2 (en) 2008-05-12 2013-10-01 Microsoft Corporation Owner privacy in a shared mobile device
US20120330507A1 (en) * 2008-12-22 2012-12-27 Toyota Motor Engineering & Manufacturing North America, Inc. Interface for cycling through and selectively choosing a mode of a vehicle function
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US10216408B2 (en) * 2010-06-14 2019-02-26 Apple Inc. Devices and methods for identifying user interface objects based on view hierarchy
US9880604B2 (en) 2011-04-20 2018-01-30 Microsoft Technology Licensing, Llc Energy efficient location detection
CN103180812A (zh) 2011-08-31 2013-06-26 观致汽车有限公司 车辆交互系统
US8732822B2 (en) * 2011-12-16 2014-05-20 Microsoft Corporation Device locking with hierarchical activity preservation
US9420432B2 (en) 2011-12-23 2016-08-16 Microsoft Technology Licensing, Llc Mobile devices control
US9467834B2 (en) 2011-12-23 2016-10-11 Microsoft Technology Licensing, Llc Mobile device emergency service
US20130305354A1 (en) 2011-12-23 2013-11-14 Microsoft Corporation Restricted execution modes
US9363250B2 (en) 2011-12-23 2016-06-07 Microsoft Technology Licensing, Llc Hub coordination service
US8874162B2 (en) 2011-12-23 2014-10-28 Microsoft Corporation Mobile device safe driving
US9325752B2 (en) 2011-12-23 2016-04-26 Microsoft Technology Licensing, Llc Private interaction hubs
US9817568B2 (en) * 2012-02-29 2017-11-14 Blackberry Limited System and method for controlling an electronic device
EP2829440B1 (de) * 2012-03-19 2018-11-14 Panasonic Intellectual Property Management Co., Ltd. On-board-vorrichtung
US20130275924A1 (en) * 2012-04-16 2013-10-17 Nuance Communications, Inc. Low-attention gestural user interface
CN102799453B (zh) * 2012-07-04 2016-05-04 宇龙计算机通信科技(深圳)有限公司 终端和控制区域的属性配置方法
US9230076B2 (en) 2012-08-30 2016-01-05 Microsoft Technology Licensing, Llc Mobile device child share
KR20140051719A (ko) * 2012-10-23 2014-05-02 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
US9998866B2 (en) 2013-06-14 2018-06-12 Microsoft Technology Licensing, Llc Detecting geo-fence events using varying confidence levels
US9820231B2 (en) 2013-06-14 2017-11-14 Microsoft Technology Licensing, Llc Coalescing geo-fence events
JP6470485B2 (ja) * 2013-06-21 2019-02-13 シャープ株式会社 画像処理装置、画像処理方法、及び、プログラム
DE102014008484A1 (de) * 2014-06-07 2015-12-17 Daimler Ag Verfahren zum Betreiben einer Bedienanordnung für ein Kraftfahrzeug
KR102343365B1 (ko) * 2015-01-26 2021-12-27 삼성전자주식회사 전자장치 및 전자장치의 객체표시 방법
US20160257198A1 (en) 2015-03-02 2016-09-08 Ford Global Technologies, Inc. In-vehicle component user interface
US20160259439A1 (en) * 2015-03-02 2016-09-08 Ford Global Technologies, Llc Multi-touch keyless entry pad
US9967717B2 (en) 2015-09-01 2018-05-08 Ford Global Technologies, Llc Efficient tracking of personal device locations
US9914418B2 (en) 2015-09-01 2018-03-13 Ford Global Technologies, Llc In-vehicle control location
US9860710B2 (en) 2015-09-08 2018-01-02 Ford Global Technologies, Llc Symmetrical reference personal device location tracking
US10046637B2 (en) 2015-12-11 2018-08-14 Ford Global Technologies, Llc In-vehicle component control user interface
US10082877B2 (en) 2016-03-15 2018-09-25 Ford Global Technologies, Llc Orientation-independent air gesture detection service for in-vehicle environments
US9914415B2 (en) 2016-04-25 2018-03-13 Ford Global Technologies, Llc Connectionless communication with interior vehicle components
WO2019037008A1 (zh) * 2017-08-24 2019-02-28 深圳双创科技发展有限公司 一种终端操作方法及终端

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3514438C1 (de) 1985-04-20 1986-09-18 Porsche Ag Zentrale Bedienungsein- und Informationsausgabe fuer Zusatzgeraete von Fahrzeugen
EP1026041A2 (de) 1999-02-04 2000-08-09 Volkswagen Aktiengesellschaft Bedieneinheit, insbesondere multifunktionale Bedieneinheit
DE19941956A1 (de) 1999-09-03 2001-03-08 Volkswagen Ag Multifunktionsbedienelement mit einem Display
DE19941960A1 (de) 1999-09-03 2001-03-08 Volkswagen Ag Multifunktions-Bedienelement
CA2480057A1 (en) * 2002-04-06 2003-10-23 Janusz W. Rajkowski Symbol encoding apparatus and method
DE102005020155A1 (de) 2005-04-29 2006-11-02 Volkswagen Ag Verfahren und Vorrichtung zur Anzeige von Informationen in einem Fahrzeug
DE202004021455U1 (de) * 2003-08-18 2008-03-13 Apple Inc., Cupertino Bewegliches Berührungsfeld mit hinzugefügter Funktionalität
DE102008063354A1 (de) * 2008-01-04 2009-07-16 Apple Inc., Cupertino Selektive Rückweisung von Berührungskontakten in einem Randbereich einer Berührungsoberfläche

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0017793D0 (en) * 2000-07-21 2000-09-06 Secr Defence Human computer interface
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
JP2009042796A (ja) * 2005-11-25 2009-02-26 Panasonic Corp ジェスチャー入力装置および方法
JP2007188233A (ja) * 2006-01-12 2007-07-26 Victor Co Of Japan Ltd タッチパネル入力装置
KR100797788B1 (ko) * 2006-09-04 2008-01-24 엘지전자 주식회사 이동통신 단말기 및 패턴인식을 통한 단축기능의 실행방법
KR20080056559A (ko) 2006-12-18 2008-06-23 엘지전자 주식회사 터치스크린 장치 및 이를 구비한 디지털 기기 그리고 이의명령 입력방법
US8677285B2 (en) * 2008-02-01 2014-03-18 Wimm Labs, Inc. User interface of a small touch sensitive display for an electronic data and communication device
US8169414B2 (en) * 2008-07-12 2012-05-01 Lim Seung E Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface
KR20100033202A (ko) * 2008-09-19 2010-03-29 삼성전자주식회사 디스플레이 장치 및 상기 디스플레이 장치의 제어 방법
US20100238125A1 (en) * 2009-03-20 2010-09-23 Nokia Corporation Method, Apparatus, and Computer Program Product For Discontinuous Shapewriting
US8181123B2 (en) * 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3514438C1 (de) 1985-04-20 1986-09-18 Porsche Ag Zentrale Bedienungsein- und Informationsausgabe fuer Zusatzgeraete von Fahrzeugen
EP1026041A2 (de) 1999-02-04 2000-08-09 Volkswagen Aktiengesellschaft Bedieneinheit, insbesondere multifunktionale Bedieneinheit
DE19941956A1 (de) 1999-09-03 2001-03-08 Volkswagen Ag Multifunktionsbedienelement mit einem Display
DE19941960A1 (de) 1999-09-03 2001-03-08 Volkswagen Ag Multifunktions-Bedienelement
CA2480057A1 (en) * 2002-04-06 2003-10-23 Janusz W. Rajkowski Symbol encoding apparatus and method
DE202004021455U1 (de) * 2003-08-18 2008-03-13 Apple Inc., Cupertino Bewegliches Berührungsfeld mit hinzugefügter Funktionalität
DE102005020155A1 (de) 2005-04-29 2006-11-02 Volkswagen Ag Verfahren und Vorrichtung zur Anzeige von Informationen in einem Fahrzeug
DE102008063354A1 (de) * 2008-01-04 2009-07-16 Apple Inc., Cupertino Selektive Rückweisung von Berührungskontakten in einem Randbereich einer Berührungsoberfläche

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009031649B4 (de) 2009-07-03 2024-05-16 Volkswagen Ag Eingabevorrichtung für ein Kraftfahrzeug
US11392268B2 (en) 2016-09-20 2022-07-19 Volkswagen Ag User interface for accessing a set of functions, procedures, and computer readable storage medium for providing a user interface for access to a set of functions
DE102016223176A1 (de) * 2016-11-23 2018-05-24 Volkswagen Aktiengesellschaft Verfahren zum Erfassen einer Nutzereingabe für eine Eingabevorrichtung mit mehreren Schaltelementen und Eingabevorrichtung
CN109964200A (zh) * 2016-11-23 2019-07-02 大众汽车有限公司 用于检测针对具有多个开关元件的输入设备的用户输入的方法和输入设备
US20190324637A1 (en) * 2016-11-23 2019-10-24 Volkswagen Aktiengesellschaft Method for Detecting a User Input for an Input Device Having a Plurality of Switch Elements, and Input Device
US10732831B2 (en) * 2016-11-23 2020-08-04 Volkswagen Aktiengesellschaft Method for detecting a user input for an input device having a plurality of switch elements, and input device
DE102016223176B4 (de) 2016-11-23 2022-01-20 Volkswagen Aktiengesellschaft Verfahren zum Erfassen einer Nutzereingabe für eine Eingabevorrichtung mit mehreren Schaltelementen und Eingabevorrichtung

Also Published As

Publication number Publication date
EP2440425A1 (de) 2012-04-18
WO2010142543A1 (de) 2010-12-16
EP2440425B1 (de) 2018-08-01
KR101748452B1 (ko) 2017-06-16
US8910086B2 (en) 2014-12-09
KR20120030529A (ko) 2012-03-28
US20120098768A1 (en) 2012-04-26

Similar Documents

Publication Publication Date Title
EP2440425B1 (de) Verfahren zum steuern einer grafischen benutzerschnittstelle und bedienvorrichtung für eine grafische benutzerschnittstelle
EP2930049B1 (de) Anwenderschnittstelle und Verfahren zur Anpassung einer Ansicht auf einer Anzeigeeinheit
EP2338106B1 (de) Multifunktionsanzeige- und bediensystem sowie verfahren zum steuern eines solchen systems mit optimierter grafischer bediendarstellung
DE102009036371A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle
DE102010022721A1 (de) Verfahren und Vorrichtung zum Anzeigen von Informationen
DE102011107011A1 (de) Kraftfahrzeug
WO2013007321A1 (de) Bedienanordnung, insbesondere bedienanordnung für ein kraftfahrzeug
EP3017356B1 (de) Verfahren und vorrichtung zum auswählen eines objekts einer liste
EP2196359B1 (de) Bedienverfahren und Bedieneinrichtung
DE102008021186A1 (de) Verfahren und Vorrichtung zum Anzeigen von Informationen in einem Fahrzeug
EP2425321B1 (de) Verfahren und vorrichtung zum anzeigen von in listen geordneter information
EP2930051A1 (de) Vorrichtung und Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle in einem Fahrzeug
EP2424744B1 (de) Verfahren zum steuern der informationsanzeige auf einer anzeigefläche
DE102010012239B4 (de) Bedienungs- und Anzeigevorrichtung eines Kraftfahrzeugs
EP2125422A1 (de) Informationseinrichtung und verfahren zum bereitstellen von inofrmationen in einem kraftfahrzeug mit verbesserter bedienbarkeit
DE102009059869A1 (de) Verfahren zum Bereitstellen einer Benutzerschnittstelle und Bedienvorrichtung
DE10312812A1 (de) Kombinierte Anzeige- und Eingabeeinrichtung für Kraftfahrzeuge
DE102007012828A1 (de) Informationssystem und Verfahren zum Bereitstellen von Informationen in einem Kraftfahrzeug mit verbesserter Bedienbarkeit
WO2019233968A1 (de) Verfahren und system zum betreiben einer automatischen fahrfunktion in einem fahrzeug
EP2917062B1 (de) Verfahren zum anzeigen von informationen in einem fahrzeug und vorrichtung zum steuern der anzeige
EP3364283B1 (de) Bediensystem, verfahren zum bedienen eines bediensystems und ein fahrzeug mit einem bediensystem
DE102016220834A1 (de) Verfahren und Anordnung zur displayübergreifenden Anzeige und/oder Bedienung in einem Fahrzeug
DE102009057082A1 (de) Verfahren und Vorrichtung zum Anzeigen von Widget-Objekten auf einer Anzeigefläche
DE102012005853B4 (de) Verfahren zur Wiedergabe von Informationen in einem Kraftfahrzeug und Kraftfahrzeug
EP2321713A1 (de) Verfahren zum anzeigen von information insbesondere in einem fahrzeug und bedienvorrichtung insbesondere für ein fahrzeug

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
R082 Change of representative
R005 Application deemed withdrawn due to failure to request examination