DE102009057081A1 - Verfahren zum Bereitstellen einer Benutzerschnittstelle - Google Patents

Verfahren zum Bereitstellen einer Benutzerschnittstelle Download PDF

Info

Publication number
DE102009057081A1
DE102009057081A1 DE102009057081A DE102009057081A DE102009057081A1 DE 102009057081 A1 DE102009057081 A1 DE 102009057081A1 DE 102009057081 A DE102009057081 A DE 102009057081A DE 102009057081 A DE102009057081 A DE 102009057081A DE 102009057081 A1 DE102009057081 A1 DE 102009057081A1
Authority
DE
Germany
Prior art keywords
touch
detected
vehicle
parameters
graphical representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102009057081A
Other languages
English (en)
Inventor
Christoph Dr. Wäller
Lennart Bendewald
Heiner Grote
Gerald Grote
Daniel Thielen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102009057081A priority Critical patent/DE102009057081A1/de
Publication of DE102009057081A1 publication Critical patent/DE102009057081A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/50Instruments characterised by their means of attachment to or integration in the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zum Bereitstellen einer Benutzerschnittstelle. Das erfindungsgemäße Verfahren ist dadurch gekennzeichnet, dass eine Eingabegeste auf einer berührungsempfindlichen Oberfläche 4 erfasst wird, indem mehrere Parameter einer Berührung der berührungsempfindlichen Oberfläche erfasst werden, wobei die Parameter zumindest eine Berührposition und die zeitliche Veränderung der Berührposition umfassen, und in Abhängigkeit von den erfassten Parametern die graphische Darstellung auf der Anzeigefläche 2 verändert wird.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Bereitstellen einer Benutzerschnittstelle, bei dem eine Eingabegeste auf einer berührungsempfindlichen Oberfläche erfasst wird, indem mehrere Parameter einer Berührung einer berührungsempfindlichen Oberfläche erfasst werden, wobei die Parameter zumindest eine Berührposition und die zeitliche Veränderung der Berührposition umfassen. In Abhängigkeit von den erfassten Parametern wird bei dem Verfahren die graphische Darstellung auf eine Anzeigefläche verändert.
  • Das Verfahren bzw. die dazugehörige Benutzerschnittstelle werden insbesondere in einem Fahrzeug bereitgestellt. Die Benutzerschnittstelle kann insbesondere Teil eines Fahrzeugs sein. Das Verfahren kann jedoch auch in Verbindung mit anderen Geräten, insbesondere tragbaren Geräten, wie einem Musikspieler, einem Mobiltelefon oder einem mobilen Navigationssystem eingesetzt werden.
  • In einem Fahrzeug sind herkömmlicherweise verschiedene Bedienelemente angeordnet, um Einrichtungen des Fahrzeugs zu steuern. Beispielsweise können mechanische Tastschalter vorgesehen sein, um eine Scheibenheizung oder eine Klimaanlage an- und auszuschalten. Ferner können mechanische Drehschalter vorgesehen sein, um z. B. die Temperatur im Innenraum des Fahrzeugs und die Stärke des Gebläses der Lüftung einzustellen. Des Weiteren können im Fahrzeug eine Vielzahl weiterer Bedienelemente für ein Navigationssystem, für Fahrerassistenzsysteme sowie für Kommunikations- und Multimediaanwendungen vorgesehen sein.
  • Aufgrund der Zunahme elektronischer Einrichtungen im Fahrzeug ist es nicht mehr möglich, für alle Einrichtungen separate mechanische Bedienelemente vorzusehen. Deshalb werden in Fahrzeugen vielfach Multifunktionsbediensysteme eingesetzt, um die Einrichtungen mittels weniger Bedienelemente zu steuern. Derartige Multifunktionsbediensysteme umfassen üblicherweise eine Multifunktionsanzeige sowie eine zentrale Eingabevorrichtung. Die zentrale Eingabevorrichtung kann beispielsweise einen Drehdrückschalter umfassen, mit welchem Schaltflächen, die mittels der Anzeigevorrichtung angezeigt werden, betätigt werden können.
  • Des Weiteren wurde vorgeschlagen, die Anzeigefläche selbst mit einer berührungsempfindlichen Oberfläche auszustatten und auf diese Weise einen so genannten Touchscreen zur Verfügung zu stellen. Bei einem solchen Touchscreen erfolgt die Bedienung dadurch, dass der Nutzer mit einem Betätigungselement, wie beispielsweise einem Stift oder seiner Fingerspitze, den Touchscreen berührt. Die Position der Berührung wird erfasst, ausgewertet und einem Bedienvorgang zugeordnet. Eine Anzeigevorrichtung mit einer berührungsempfindlichen Oberfläche, die in Verbindung mit einem Navigationssystem eingesetzt wird, ist beispielsweise in der DE 10 2005 020 155 A1 beschrieben.
  • Wenn ein Touchscreen als Eingabevorrichtung verwendet wird, ist es bekannt, dass zwischen verschiedenen Eingabegesten, die unter anderem auch mit mehreren Fingerspitzen auf der berührungsempfindlichen Oberfläche ausgeführt werden können, zu verschiedenen Veränderungen der graphischen Darstellung auf einer Anzeigefläche führen. Beispielsweise kann bei der Darstellung einer digitalen geographischen Karte eine erste Eingabegeste definiert sein, durch welche der Vergrößerungsfaktor bei der Darstellung der digitalen Karte verändert wird, und eine zweite Eingabegeste definiert sein, mittels welcher der dargestellte Ausschnitt der geographischen Karte verschoben werden kann.
  • Für eine Benutzerschnittstelle, die in einem Fahrzeug untergebracht ist, ergeben sich sehr spezielle Anforderungen. Die für die Bedienung erforderliche Informationsaufnahme erfolgt im Fahrzeug unter anderem durch den Fahrer. Die Information sollte somit im Fahrzeug so dargestellt werden, dass die Informationsaufnahme durch den Fahrer nicht zu einer Ablenkung während der Fahrt führt. Die dargestellten Informationen sollten daher intuitiv und schnell vom Fahrer erfassbar sein, so dass dieser für die Informationsaufnahme nur sehr kurzzeitig den Blick vom Fahrgeschehen abwenden muss. Des Weiteren sollte der durch den Nutzer ausgeführte Betätigungsvorgang so schnell wie möglich ausführbar sein.
  • Auch bei einer Benutzerschnittstelle, die in Verbindung mit mobilen Geräten eingesetzt wird, sollte die Bedienung so einfach, schnell und intuitiv wie möglich sein. Die in Verbindung mit der Bedienung angezeigten Informationen sollten außerdem schnell und intuitiv erfasst werden können. Der Nutzer des mobilen Geräts nimmt nämlich die angezeigten Informationen häufig auf, während er andere Tätigkeiten ausführt. Auch die Bedienung dieser Geräte erfolgt vielfach in solchen Situationen. Dabei ergibt sich zusätzlich das Problem, dass die Anzeigefläche und die Bedienelemente eines mobilen Geräts vielfach relativ klein sind, so dass es besonders wichtig ist, dass die dargestellten Informationen leicht erfassbar und die Bedienung mit möglichst wenigen Betätigungsvorgängen ausführbar ist.
  • Wenn ein Verfahren zum Bereitstellen einer Benutzerschnittstelle in Verbindung mit verschiedenen Hardwaresystemen eingesetzt wird, ergibt sich außerdem das Problem, dass das Verfahren individuell an Systeme angepasst werden muss, die unterschiedlich gut die Eingabegesten erfassen können. Dies erhöht jedoch die Kosten für die Implementierung des Verfahrens.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zum Bereitstellen einer Benutzerschnittstelle der eingangs genannten Art bereitzustellen, mit denen Eingaben so einfach und intuitiv wie möglich getätigt werden können und welches kostengünstig einsetzbar ist.
  • Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Anspruchs 1 und eine Vorrichtung zum Durchführen dieses Verfahrens gelöst. Vorteilhafte Aus- und Weiterbildungen ergeben sich aus den abhängigen Ansprüchen.
  • Das erfindungsgemäße Verfahren ist dadurch gekennzeichnet, dass beim Erfassen der Parameter Gütewerte für die Güte der Erfassung des jeweiligen Parameters ermittelt werden und die graphische Darstellung auf einer Anzeigefläche in Abhängigkeit von den Gütewerten verändert wird.
  • Unter dem „Gütewert” eines Parameters wird im Sinne der Erfindung ein Wert verstanden, der angibt, wie gut der dem Parameter zugrundeliegende Messwert den tatsächlichen Wert wiedergibt. Durch einen Gütewert können somit etwaige Messfehler, welche sich insbesondere inhärent aus der verwendeten Hardware bzw. Software bei der Durchführung des Verfahrens ergeben. Das endungsgemäße Verfahren kann sich auf diese Weise automatisch insbesondere an verschiedene Hardwaresysteme anpassen, in denen es ausgeführt wird. Mittels des erfindungsgemäßen Verfahrens können somit Benutzerschnittstellen kostengünstiger bereitgestellt werden, da sie nicht an verschiedene Hardwaresysteme angepasst werden müssen, bei denen Eingabegesten mit unterschiedlicher Güte erfasst werden. Bei dem erfindungsgemäßen Verfahren wird nämlich die graphische Darstellung auf einer Anzeigefläche, die sich aus einer bestimmten Eingabegeste ergibt, automatisch an die Gütewerte der Parameter angepasst, die bei der Berührung der berührungsempfindlichen Oberfläche erfasst werden.
  • Unter einer „Benutzerschnittstelle” wird im Sinne der Erfindung eine technische Einrichtung verstanden, mittels welcher ein Nutzer, insbesondere ein Fahrzeuginsasse, mit Einrichtungen, z. B. des Fahrzeugs interagieren kann. Die Interaktion umfasst beispielsweise die Informationsanzeige auf einer Anzeigefläche im Fahrzeug. Der Anzeigeinhalt kann dabei von Einrichtungen des Fahrzeugs generiert werden. Mittels der Benutzerschnittstelle kann der Nutzer die Art und Weise, wie die Informationen auf der Anzeigefläche dargeboten werden, steuern. Ferner kann der Nutzer mittels der Benutzerschnittstelle Einrichtungen des Fahrzeugs bedienen und hierfür Eingaben vornehmen.
  • Die berührungsempfindliche Oberfläche kann insbesondere so ausgebildet sein, dass sie für eine Eingabegeste gleichzeitig bei mehreren abgrenzbaren Berührpositionen berührt werden kann. Die Parameter der Berührungen werden in diesem Fall separat für die abgrenzbaren Berührpositionen erfasst. Bei der berührungsempfindlichen Oberfläche kann es sich somit um einen sogenannten Multi-Touchscreen/Touchpad handeln.
  • Gemäß einer Ausgestaltung des erfindungsgemäßen Verfahrens werden die Positionen mit einer Wiederhohlfrequenz erfasst. Der Gütewert eines Parameters kann in diesem Fall von der Wiederhohlfrequenz abhängen, mit welcher die Berührposition erfasst wurde, welche dem Parameter zugeordnet ist. Auf diese Weise kann ein zeitlicher Fehler beim Erfassen der Berührposition bei der Ermittlung des Gütewerts berücksichtigt werden.
  • Gemäß einer weiteren Ausgestaltung werden die Berührpositionen mit einer definierten Ortsauflösung erfasst. Der Gütewert eines Parameters kann in diesem Fall alternativ oder zusätzlich von der Ortsauflösung abhängen, mit welcher die Berührposition erfasst wurde, welche dem Parameter zugeordnet ist. Hierdurch kann erreicht werden, dass bei einem Einsatz des erfindungsgemäßen Verfahrens in Verbindung mit berührungsempfindlichen Oberflächen verschiedener Ortsauflösung die Veränderung der graphischen Darstellung auf der Anzeigefläche, welche sich aus dem Erfassen der Eingabegeste ergibt, an die Ortsauflösung beim Erfassen der Berührpositionen angepasst werden kann.
  • Gemäß einer weiteren Ausgestaltung des erfindungsgemäßen Verfahrens wird die erfasste Eingabegeste einer Gestikklasse zugeordnet. Beispielsweise kann eine sogenannte Zoomgeste zu einer ersten Gestikklasse gehören, eine Drehgeste zu einer zweiten Gestikklasse gehören und eine Verschiebegeste zu einer dritten Gestikklasse gehören. Bei dem erfindungsgemäßen Verfahren kann in diesem Fall alternativ oder zusätzlich der Gütewert von der Sicherheit bei der Zuordnung zu einer Gestikklasse abhängen. Für die Gesten einer Gestikklasse können beispielsweise verschiedene Berühr- und Bewegungsmuster gespeichert sein, um eine erfasste Eingabegeste einer Gestikklasse zuzuordnen. Die Zuordnung zu einer Gestikklasse erfolgt jedoch häufig nicht mit absoluter Sicherheit. Vielmehr ist es erforderlich, die Zuordnung hinsichtlich ihrer Plausibilität bzw. Schlüssigkeit zu überprüfen. Dabei kann unter anderem auch die aktuelle Anzeige auf der Anzeigefläche, die Fahrsituation und ähnliche Daten berücksichtigt werden. In Abhängigkeit davon, wie plausibel bzw. schlüssig die Zuordnung der erfassten Eingabegeste zu einer Gestikklasse ist, können die Gütewerte festgelegt werden. Die Veränderung der graphischen Darstellung auf der Anzeigefläche erfolgt dann in Abhängigkeit von der zugeordneten Gestikklasse. Beispielsweise wird bei einer Zoomgeste der Vergrößerungsfaktor einer graphischen Darstellung verändert, bei einer Drehgeste eine Rotationstransformation für die graphische Darstellung durchgeführt und bei einer Verschiebegeste eine Translationstransformation für die graphischen Daten durchgeführt.
  • Bei einer Weiterbildung des erfindungsgemäßen Verfahrens werden die Parameter, die einen Einfluss auf die Veränderung der graphischen Darstellung auf der Anzeigefläche haben, in Abhängigkeit von den Gütewerten ausgewählt. Auf diese Weise kann verhindert werden, dass eine Veränderung der graphischen Darstellung auf Basis von Parametern erfolgt, deren Genauigkeit bei der Erfassung nur sehr gering war.
  • Gemäß einer Weiterbildung des erfindungsgemäßen Verfahrens wird die graphische Darstellung auf der Anzeigefläche so verändert, dass eine Animation angezeigt wird, deren Eigenschaften von solchen Parametern abhängen, deren Gütewerte einen Schwellwert überschreiten.
  • Gemäß einer weiteren Ausgestaltung des erfindungsgemäßen Verfahrens gibt es für die Veränderung der graphischen Darstellung auf einer Anzeigefläche mehrere Modi. Die Auswahl eines Modus kann in diesem Fall in Abhängigkeit von den Gütewerten und/oder der Zeit zum Ausführen einer Eingabegeste erfolgen.
  • Beispielsweise kann ein diskreter Modus definiert sein, bei dem die graphische Darstellung nach festen vorab gespeicherten Daten verändert wird. Beispielsweise kann eine fest eingestellte Animation eines bestimmten graphischen Objekts ausgeführt werden, die unabhängig von den erfassten Parametern abläuft. Es kann in diesem Fall beim Erfassen einer Zoomgeste während der Wiedergabe einer geographischen Karte eine automatische Animation der Karte in die nächste Vergrößerungsstufe vorgenommen werden.
  • Des Weiteren kann ein analoger Modus definiert sein, bei welchem ein graphisches Objekt, auf welches sich die Eingabegeste bezieht, analog zu den Werten der erfassten Parametern manipuliert wird. Zum Beispiel kann bei einer Zoomgeste die Skalierung der Karte exakt mit den Berührpositionen zweier Bedienfinger synchronisiert werden, so dass ein berührter graphischer Punkt auf der Karte stets mit der Position der Fingerspitze mitwandert.
  • Schließlich kann ein sogenannter Hybridmodus definiert sein, bei dem die Veränderung der graphischen Darstellung hinsichtlich bestimmter Freiheitsgrade über fest vorab gespeicherte Daten erfolgt. Beispielsweise kann eine nicht mehr veränderliche Animation ablaufen. Die Veränderung der graphischen Darstellung, d. h. zum Beispiel die Animation, kann jedoch in bestimmten Eigenschaften auf Zustände der erfassten Parameter reagieren. Dabei werden insbesondere nur Zustände solcher Parameter aufgegriffen, deren Gütewert zu einem gegebenen Zeitpunkt hinreichend hoch ist, d. h. die zum Beispiel einen bestimmten Schwellwert überschreiten. Es werden somit nur sehr zuverlässige Parameter berücksichtigt. Bei einer Zoomgeste wäre in diesem Fall zum Beispiel die Veränderung der graphischen Darstellung insofern definiert, dass zum Beispiel eine geographische Karte hinsichtlich des Vergrößerungsfaktors verändert wird und nicht gleichzeitig gedreht werden kann. Die Veränderung der graphischen Darstellung würde jedoch analog zur Bewegungsgeschwindigkeit der Berührpositionen ausgeführt werden. Ferner könnte eine virtuelle Trägheit der Karte nach dem Loslassen der berührungsempfindlichen Oberfläche in Abhängigkeit von Geschwindigkeitswerten erfolgen, die vor dem Loslassen der berührungsempfindlichen Oberfläche ermittelt wurden. Die Graphik könnte sich beispielsweise mit einer simulierten physikalischen Trägheit weiterbewegen oder in einen Endzustand schwingen.
  • Gemäß einer Weiterbildung des erfindungsgemäßen Verfahrens wird die Benutzerschnittstelle in einem Fahrzeug bereitgestellt. In diesem Fall wird die Fahrsituation des Fahrzeugs bestimmt. Für die Veränderung der graphischen Darstellung auf der Anzeigefläche gibt es mehrere Modi, wobei in diesem Fall die Auswahl eines Modus in Abhängigkeit von der Fahrsituation erfolgt.
  • Die Fahrsituation kann auf Basis sogenannter Kontextdaten ermittelt werden. Unter dem Begriff „Kontext” wird allgemein jede Art von Information, die zur Beschreibung der Situation einer Entität genutzt werden kann, verstanden. Eine Entität ist dabei eine Person, ein Ort oder ein Objekt mit Relevanz für die Interaktion zwischen einem Benutzer und einer Anwendung, einschließlich des Benutzers und der Anwendung selbst. Hier werden unter dem Kontext der Interaktion des Fahrers mit dem Fahrzeug alle Informationen verstanden, die für die Interaktion des Fahrers mit dem Fahrzeug relevant sind. Das ist insbesondere die aktuelle Fahrsituation. Der Kontext kann außerdem ein Benutzermodell des Fahrers umfassen.
  • Die Beschreibung der Situation lässt sich in Kategorien unterteilen. Man kann dabei zwischen der Situation im Fahrzeugumfeld (z. B. die eigene Position, die Position anderer Fahrzeuge, Wetter, Verkehrslage), der Situation im Fahrzeuginnenraum (Zustand und Verhalten des Fahrers und ggf. weiterer Insassen) und dem Fahrzeugzustand selbst unterscheiden.
  • Die Kontextdaten können beispielsweise dadurch gewonnen werden, dass kontextbezogene Basisdaten erfasst werden und die Basisdaten mittels einer Datenverarbeitungseinrichtung interpretiert werden. Die Basisdaten können auf vielfältige Art gewonnen werden. Beispielsweise können die Basisdaten mittels Sensoren des Fahrzeugs erfasst werden. Hierbei werden insbesondere alle Sensoren berücksichtigt, die in irgendeiner Form Daten liefern, welche für den emotionalen Zustand des Fahrers in irgendeiner Form relevant sind. Ferner können die Basisdaten aus zumindest einem in dem Fahrzeug vorgesehenen Speicher ausgelesen werden. Schließlich können Basisdaten mittels zumindest einer Kommunikationsschnittstelle von fahrzeugexternen Informationsquellen übertragen werden. Die Daten können beispielsweise über ein Mobilfunknetz oder ein drahtloses Datennetz übertragen werden.
  • Es werden als kontextbezogene Basisdaten z. B. folgende Daten erfasst: die Phase der Autofahrt, d. h. beispielsweise, ob die Fahrt gerade begonnen hat oder bald endet, ob es sich um eine Stadtfahrt oder eine Autobahnfahrt handelt oder ob man sich gerade in einem Stau befindet; die Bedienhistorie eines Nutzers; Fahrzeugdaten, wie die Fahrzeuggeschwindigkeit, beschleunigung und der Zustand der Beleuchtungsfunktionen sowie die Fahrtrichtung; Daten zur Verkehrssituation in der Umgebung und/oder auf der Route des Fahrzeugs; Daten über die Verfassung des Fahrers, wie z. B. physiologische und psychologische Daten; Daten zum Fahrzeuginnenraum; Uhrzeit und/oder Datumsdaten.
  • Die Mittel zum Erfassen der Basisdaten umfassen Sensoren, einen oder mehrere Speicher, in denen Basisdaten gespeichert sind, und/oder eine Kommunikationsschnittstelle, über welche Basisdaten von fahrzeugexternen Informationsquellen übertragbar sind. Beispiele für die Mittel, durch welche Basisdaten zum Zustand des Fahrzeugs und seiner Umgebung erfasst werden, sind ausgewählt unter der folgenden Gruppe:
    Fahrzeuggeschwindigkeitssensor, Drehzahlsensor, Sensoren zum Messen des Abstands und/oder der Geschwindigkeit eines vorausfahrenden und/oder eines folgenden Fahrzeugs, Sichtweitensensoren, Außentemperatursensoren, Feuchtigkeits-, Regen- und/oder Nässesensoren, Sensoren zum Zustand des Scheibenwischers, Sonnenstrahlungssensoren, Sensoren des Antiblockiersystems, des Spurhalteassistenten, des Bremsassistenten, der automatischen Distanzregelung und der Einparkhilfe, Sensoren für Verkehrsregelungen, wie Geschwindigkeitsbegrenzungen oder Spurbegrenzungen, Sensoren für Fußgänger oder Radfahrer in der Nähe des eigenen Fahrzeugs, Daten des fahrzeuginternen CAN-Buses, Uhren, externe Informationsdienste, die z. B. Verkehrsinformationen übertragen, Datenspeicher der Steuergeräte des Fahrzeugs und des Navigationssystems, vom Navigationssystem bestimmte oder über das Navigationssystems eingegebene Daten, wie z. B. die Zieladresse oder die Route zu einem bestimmten Ziel.
  • Beispiele für die Mittel, durch welche Basisdaten zum Innenraumzustand des Fahrzeugs erfasst werden, sind ausgewählt unter der folgenden Gruppe: Sensoren für Zigarettenrauch, Sensoren für die Innenraumtemperatur, Sensoren zur Bedienung einzelner Bedienelemente im Fahrzeuginnenraum.
  • Beispiele für die Mittel, durch welche Basisdaten zu den Insassen, insbesondere dem Fahrer, des Fahrzeugs erfasst werden, sind ausgewählt unter der folgenden Gruppe: Sensoren zur Identifikation der Fahrzeuginsassen, insbesondere des Fahrers, Sensoren zum Bedienverhalten eines Fahrzeuginsassen, insbesondere eines Fahrers, wie z. B. Sensoren für die Bedienfrequenz bestimmter Bedieneinrichtungen, Sensoren für die Bedienfehlerrate und die Geschwindigkeit der Bedienung, Sensoren zur Erfassung physiologischer Daten des Fahrers, wie z. B. der Pulsfrequenz, der Atemfrequenz, der Griffdruckkraft am Lenkrad und/oder der Sauerstoffsättigung im Blut, des Hautleitwertes des Fahrers, Sensoren für die Blickrichtungserkennung und/oder Gestik- und Mimikerkennung, Speicher, in denen persönliche bzw. individuelle Daten von Fahrzeuginsassen, insbesondere des Fahrers gespeichert sind, wie z. B. das Alter, das Geschlecht und der Wissensstand, sowie persönliche Präferenzen, wie z. B. das Interesse an bestimmten Kategorien von Informationen.
  • Gemäß einer weiteren Ausgestaltung des erfindungsgemäßen Verfahrens wird bei oder vor der Betätigung der berührungsempfindlichen Oberfläche eine Hilfesituation erfasst. Falls eine solche Hilfesituation erfasst worden ist, wird die graphische Darstellung auf einer Anzeigefläche verändert. Hierdurch kann erreicht werden, dass bestimmte Handlungen des Nutzers so interpretiert werden, dass der Nutzer mit großer Wahrscheinlichkeit eine Unterstützung bei der Eingabe benötigt. Diese Unterstützung kann dem Nutzer durch eine Veränderung der graphischen Darstellung auf der Anzeigefläche gegeben werden.
  • Ebenfalls kann die Unterstützung des Nutzers durch eine Sprachanweisung erfolgen. Falls es nämlich für das System möglich ist, aus den vorliegenden Kontextinformationen ein Bedienziel zu ermitteln, kann die erforderliche zielführende Handlung des Nutzers durch das System als Anweisung mittels Sprachausgabe gegeben werden. In diesem Fall können die Kontextinformationen insbesondere von den Sensoren zum Bedienverhalten eines Fahrzeuginsassen, insbesondere eines Fahrers, wie z. B. Sensoren für die Bedienfrequenz bestimmter Bedieneinrichtungen, den Sensoren für die Bedienfehlerrate und die Geschwindigkeit der Bedienung sowie ggf. von weiteren vorstehend genannten Sensoren gewonnen werden.
  • Beispielsweise können Schaltflächen, die auf der Anzeigefläche dargestellt werden, hervorgehoben gekennzeichnet werden, wenn der Nutzer Hilfe benötigt. Unter einer Schaltfläche wird im Sinne der Erfindung ein Steuerelement einer graphischen Benutzerschnittstelle verstanden. Eine Schaltfläche unterscheidet sich von Elementen und Flächen zur reinen Informationsanzeige, so genannten Anzeigeelementen bzw. Anzeigenflächen, darin, dass sie auswählbar sind. Bei einer Auswahl einer Schaltfläche wird eine ihr zugeordnete Funktion ausgeführt. Die Funktion kann nur zu einer Veränderung der Informationsanzeige führen. Ferner können über die Schaltflächen auch Einrichtungen gesteuert werden, deren Bedienung von der Informationsanzeige unterstützt wird. Die Schaltflächen können somit herkömmliche mechanische Schalter ersetzen. Die Schaltflächen können beliebig auf einer frei programmierbaren Anzeigefläche erzeugt und angezeigt werden. Des Weiteren kann vorgesehen sein, dass eine Schaltfläche markiert werden kann. In diesem Fall wird die zugeordnete Funktion noch nicht ausgeführt. Die markierte Schaltfläche wird jedoch gegenüber anderen Schaltflächen hervorgehoben dargestellt. Die Markierung und/oder Auswahl einer Schaltfläche kann mittels einer Cursorsteuerung oder durch direkte Bedienung einer berührungsempfindlichen Anzeigefläche erfolgen.
  • Die Kennzeichnung von Schaltflächen kann beispielsweise über eine Veränderung der Farbe oder der Helligkeit der Schaltflächen erfolgen. Ferner können die Schaltflächen durch graphische Umrandungen oder Überlagerungen hervorgehoben werden. Des Weiteren können die Schaltflächen vom graphischen Hintergrund durch einen virtuellen Schattenwurf abgehoben werden. Ferner können graphische Effekte an der Schaltfläche, wie zum Beispiel übersteigerte dynamische Reflektionen, eingeblendet werden. Schließlich kann die Schaltfläche anders skaliert und/oder gedreht werden.
  • Des Weiteren können die möglichen Freiheitsgrade für die Eingabegesten für interaktive graphische Objekte bzw. Bereiche speziell gekennzeichnet werden. Derartige Kennzeichnungen finden bei dem erfindungsgemäßen Verfahren jedoch nur dann statt, wenn eine sogenannte Hilfesituation erfasst worden ist. Die Freiheitsgrade für die Eingabegesten können zum Beispiel durch eine automatische Animation der Schaltfläche in Richtung der möglichen Freiheitsgrade erfolgen. Ferner kann eine automatische Expansion (Dehnung) der Schaltfläche oder Teilen der Schaltfläche in Richtung der möglichen Freiheitsgrade erfolgen. Schließlich kann eine automatische Animation oder Expansion (Dehnung) einer virtuellen positionsanalogen Kopie der Schaltfläche in Richtung der möglichen Freiheitsgrade erfolgen. Beispielsweise kann ein graphisches Objekt dargestellt werden, das die Darstellung des Originals in verringerter Transparenz der Farbigkeit überlagert. In diesem Fall verlassen die graphischen Objekte jedoch nie zu lange ihre ursprüngliche Form oder Position, sondern werden anhand einer virtuellen Federung wieder an die ursprüngliche Form oder Position versetzt. Des Weiteren können Pfeile oder andere zusätzliche graphische Hinweise über mögliche Bewegungsrichtungen für die Schaltflächen eingeblendet werden. Wenn die gleiche Funktion durch eine alternative Bedienung (z. B. Betätigung von Schaltern) aktiviert wird, kann in der graphischen Darstellung dennoch die entsprechende Animation der betreffenden graphischen Objekte wie bei Eingabegesten stattfinden.
  • Eine Hilfesituation wird beispielsweise dann erfasst, wenn der Nutzer mit seiner Hand für eine definierte Zeit vor der berührungsempfindlichen Oberfläche verharrt, ohne die Oberfläche jedoch zu berühren. Hierfür kann eine Annäherungserfassungseinrichtung vorgesehen sein, welche eine Annäherung eines Betätigungselements an die berührungsempfindliche Oberfläche in einem Detektionsbereich vor dieser Oberfläche erfasst. Die Annäherungserfassungseinrichtung kann beispielsweise eine Reflektionslichtschranke umfassen, die mindestens ein Leuchtmittel zum Emittieren von elektromagnetischer Detektionsstrahlung in einen Detektionsbereich und ein Empfangselement zum Detektieren eines an dem Betätigungselement gestreuten und/oder reflektierten Anteils der Detektionsstrahlung umfassen. Sie kann insbesondere so ausgebildet sein, das Betätigungselement in dem Detektionsbereich anhand der Intensität der empfangenen Detektionsstrahlung zu erkennen. Mittels der Annäherungserfassungseinrichtung kann insbesondere die Aufenthaltzeit eines Betätigungselements vor der berührungsempfindlichen Oberfläche bestimmt werden.
  • Des Weiteren kann erfasst werden, wie häufig und wie lange ein Nutzer seinen Blick auf die Anzeigefläche in nicht veränderten Anzeigekontexten richtet. Hierfür wird die Stellung der Augen des Nutzers detektiert. Wenn der Nutzer insbesondere in einem Fahrzeug sehr häufig oder sehr lange auf die Anzeigefläche schaut, ohne dass sich der Anzeigekontext verändert hat, ist dies ein Hinweis dafür, dass der Nutzer Unterstützung bei der Bedienung benötigt. Insbesondere bei einem Einsatz in einem Fahrzeug ist es wichtig, dass derartige Situationen vermieden werden. Wird in diesem Fall die graphische Darstellung auf der Anzeigefläche automatisch so verändert, dass dem Nutzer Unterstützung für die Bedienung gegeben wird, kann erreicht werden, dass der Nutzer kürzer und weniger oft auf die Anzeigefläche schauen muss, um Einrichtungen des Fahrzeugs zu bedienen.
  • Des Weiteren ist es möglich, dass der Nutzer den Aufruf einer Hilfestellung durch eine Spracheingabe initiiert. Insbesondere wenn die Spracheingabe mit einem Blick auf die Anzeigefläche oder eine Annäherung zum Beispiel einer Bedienhand an die berührungsempfindliche Oberfläche korreliert, kann eine bedienspezifische Hilfe aktiviert werden. Statt einer Spracheingabe kann auch ein mechanisches Bedienelement oder eine virtuelle Schaltfläche betätigt werden oder eine Hilfegeste auf der berührungsempfindlichen Oberfläche ausgeführt werden.
  • Ferner kann eine Hilfesituation dadurch ausgelöst werden, dass eine Standsituation, in welcher das Fahrzeug nicht fährt, insbesondere bei einer Erstnutzung des Fahrzeugs erfasst wird. Zudem kann eine zufällige Aktivierung der Hilfesituation erfolgen, wenn das Fahrzeug steht. Die graphische Darstellung der Hilfe wird jedoch bei einer Interaktion des Nutzers oder bei einer Bewegung des Fahrzeugs wieder ausgeblendet bzw. beendet.
  • Auf diese Weise können die Möglichkeiten der Eingabegesten, insbesondere für einen Erstnutzer, dem Nutzer sichtbar gemacht werden, ohne dass dieser aktiv eine Hilfefunktion nutzen muss. Das Verfahren wird auf diese Weise über die gesamte Nutzungsdauer betrachtet intuitiver und effizienter nutzbar. Dies steigert die Bedieneffizienz und die Sicherheit, insbesondere wenn das Verfahren in einem Fahrzeug eingesetzt wird.
  • Die Erfindung betrifft ferner eine Vorrichtung zum Ausführen des vorstehend beschriebenen Verfahrens. Die Vorrichtung ist insbesondere in ein Fahrzeug integriert, so dass eine Benutzerschnittstelle in einem Fahrzeug bereitgestellt wird.
  • Die Erfindung wird nun anhand von Ausführungsbeispielen mit Bezug zu den Zeichnungen erläutert.
  • 1 zeigt ein Ausführungsbeispiel der erfindungsgemäßen Vorrichtung zum Durchführen des erfindungsgemäßen Verfahrens und
  • 2 zeigt die Anzeigevorrichtung mit der berührungsempfindlichen Oberfläche des in 1 gezeigten Ausführungsbeispiels.
  • Das im Folgenden beschriebene Ausführungsbeispiel betrifft den Einsatz der Vorrichtung und des Verfahrens in einem Fahrzeug, insbesondere einem Kraftfahrzeug. Mittels des Verfahrens und der Vorrichtung kann den Fahrzeuginsassen eine Benutzerschnittstelle im Fahrzeug bereitgestellt werden. Es wird jedoch darauf hingewiesen, dass die Vorrichtung und das Verfahren auf gleiche Weise auch in anderen Geräten, wie zum Beispiel mobilen Geräten, eingesetzt werden können.
  • Die Vorrichtung umfasst eine Anzeigevorrichtung 1 mit einer Anzeigefläche 2, die so im Innenraum des Fahrzeugs angeordnet ist, dass sie von zumindest einem Fahrzeuginsassen, insbesondere dem Fahrer, gut sichtbar ist. Mittels der Anzeigefläche 2 wird die grafische Benutzerschnittstelle bereitgestellt, welche mittels des Verfahrens bzw. der Vorrichtung gesteuert werden kann. Die Anzeigefläche 2 kann von einem Display, insbesondere einem Flüssigkristalldisplay, beliebiger Bauart bereitgestellt werden.
  • Die Anzeigevorrichtung 1 ist mit einer Steuervorrichtung 3 gekoppelt. Die Steuervorrichtung 3 erzeugt Grafikdaten, die mittels der Anzeigevorrichtung 1 angezeigt werden können. Die Steuervorrichtung ist hierfür mit einem Speicher 9 zum Speichern von Daten verbunden.
  • Die Vorrichtung umfasst ferner eine Eingabevorrichtung, die im vorliegenden Ausführungsbeispiel eine berührungsempfindliche Oberfläche 4 aufweist. Bei dem in 1 gezeigten Ausführungsbeispiel ist die berührungsempfindliche Oberfläche 4 auf der Anzeigefläche 2 gebildet. Die Anzeigevorrichtung 1 umfasst somit einen Touchscreen. Auf der berührungsempfindlichen Oberfläche 4 der Anzeigefläche 2 ist insbesondere die gleichzeitige Berührung bei verschiedenen Bereichen detektierbar. Es handelt sich somit um einen so genannten Multi-Touchscreen.
  • Alternativ kann die berührungsempfindliche Oberfläche auch separat von der Anzeigefläche 2 vorgesehen sein. In diesem Fall umfasst die Eingabevorrichtung somit ein Touchpad, insbesondere ein Multi-Touchpad.
  • Des Weiteren ist die Steuervorrichtung 3 mit einem Fahrzeugbus 5 gekoppelt, über welchen Daten der vielfältigen Einrichtungen des Fahrzeugs ausgetauscht werden können. Die Bedienung dieser Einrichtungen kann von der Anzeige auf der Anzeigefläche 2 unterstützt werden. Des Weiteren kann die Bedienung dieser Einrichtungen mittels der Eingabevorrichtung, insbesondere der berührungsempfindlichen Oberfläche 4, erfolgen.
  • Bei der Eingabe über die berührungsempfindliche Oberfläche 4 kann der Nutzer sogenannte Eingabegesten ausführen. Um eine Eingabegeste zu erfassen, werden bei der Berührung der berührungsempfindlichen Oberfläche 4 verschiedene Parameter von der Anzeigevorrichtung 1 erfasst. Hierzu gehören insbesondere die Koordinaten der Berührpositionen 6 eines Betätigungselements, wie zum Beispiel der Fingerspitze eines Nutzers. Wird die berührungsempfindliche Oberfläche 4 gleichzeitig bei mehreren abgrenzbaren Bereichen berührt, werden die Koordinaten für jede abgegrenzte Berührposition 6 erfasst. Des Weiteren wird die zeitliche Änderung der Berührposition 6 bzw. der Berührpositionen 6 erfasst. Hieraus kann eine Bewegungsgeschwindigkeit und eine Bewegungsrichtung für jede Berührposition 6 ermittelt werden. Diese Parameter werden von der Anzeigevorrichtung 1 an die Steuervorrichtung 3 übertragen. Die Steuervorrichtung 3 ordnet die Parameter einer Gestikklasse zu. Hierfür sind verschiedene Berühr- und Bewegungsprofile in dem Speicher 9 gespeichert.
  • Ferner ordnet die Steuervorrichtung 3 die Eingabegeste gegebenenfalls einem Referenzobjekt zu. Das Referenzobjekt ist ein angezeigtes graphisches Objekt, auf welches sich die Eingabegeste bezieht. Das Referenzobjekt kann beispielsweise anhand der Koordinaten der Anzeige des Objekts relativ zu den Koordinaten während der Eingabegeste ermittelt werden. Startet die Eingabegeste beispielsweise bei einer Position, die den Koordinaten eines graphischen Objekts entspricht, kann dieses Objekt als Referenzobjekt ausgewählt werden.
  • Des Weiteren wird für die erfassten Parameter jeweils ein Gütewert für die Güte der Erfassung des jeweiligen Parameters ermittelt. Hierfür überträgt die Anzeigevorrichtung 1 bestimmte Systemparameter an die Steuervorrichtung 3. Zu diesen Systemparametern gehören unter anderem zum Beispiel die Wiederholfrequenz, mit welcher die Berührposition 6 erfasst wird, und die Ortsauflösung bei der Erfassung der Berührposition 6. In die Gütewerte kann ferner einfließen, mit welcher Sicherheit die erfasste Eingabegeste einer Gestikklasse zugeordnet werden konnte. Schließlich kann der Gütewert eines Parameters von der Bewegungsgeschwindigkeit der Berührposition 6 abhängen, welche dem entsprechenden Parameter zugeordnet ist. Wenn eine sehr schnelle Bewegung auf der berührungsempfindlichen Oberfläche 4 ausgeführt wird, ist die korrekte Erfassung der Bewegung auch unabhängig von der Wiederholfrequenz mit einer größeren Unsicherheit behaftet, als bei einer langsameren Bedienbewegung.
  • Die Steuervorrichtung 3 verändert die Graphik zu der Darstellung auf der Anzeigefläche 2 in Abhängigkeit von den Gütewerten, wie es im Folgenden am Beispiel einer Zoomgeste als Eingabegeste erläutert wird. In diesem Fall wird auf der Anzeigefläche 2 beispielsweise eine geographische Karte angezeigt und der Nutzer berührt die berührungsempfindliche Oberfläche 4 mit zwei Fingerspitzen bei den Berührpositionen 6 und bewegt die Fingerspitzen anschließend auseinander. Für die Veränderung der graphischen Darstellung bei dieser Zoomgeste sind drei Modi definiert:
    Als erster Modus ist ein diskreter Modus definiert. Sobald die Bewegung auf der berührungsempfindlichen Oberfläche 4 der Zoomgeste zugeordnet werden konnte, wird in diesem Fall eine fest eingestellte Animation für die Veränderung der Darstellung der geographischen Karte gestartet, die unabhängig von den Parametern, d. h. der Art und Weise wie die Zoomgeste ausgeführt wird, abläuft. Es wird eine automatische Animation der Graphik vorgenommen, bei welcher die Karte in die nächste Vergrößerungsstufe überführt wird.
  • Der zweite Modus ist ein analoger Modus. Sobald die Eingabegeste der Zoomgeste zugeordnet werden konnte, wird die geographische Karte analog zu den Werten der Parameter, d. h. der Bewegung der beiden Fingerspitzen auf der berührungsempfindlichen Oberfläche 4, manipuliert. Die Skalierung der geographischen Karte wird in diesem Fall exakt mit den Berührpositionen 6 der Bedienfinger synchronisiert, so dass ein berührter graphischer Punkt auf der Karte stets mit der Fingerposition mitwandert.
  • Der dritte Modus ist ein sogenannter Hybridmodus. Sobald die Eingabegeste der Zoomgeste zugeordnet werden konnte, wird die Darstellung der geographischen Karte wie beim analogen Modus synchron mit den Berührpositionen 6 der Bedienfinger verändert. Des Weiteren wird in diesem Fall jedoch die Bewegungsgeschwindigkeit beim Auseinanderbewegen der Bedienfinger auf der berührungsempfindlichen Oberfläche 4 berücksichtigt. Nach dem Loslassen der berührungsempfindlichen Oberfläche wird die Darstellung der geographischen Karte so animiert, dass sich die Skalierung mit einer simulierten physikalischen Trägheit weiterbewegt und danach mit einer simulierten Federkonstante in den Endzustand schwingt. Die Animation nach dem Loslassen der berührungsempfindlichen Oberfläche 4 hängt dabei von der Bewegungsgeschwindigkeit der Berührpositionen 6 vor dem Loslassen der berührungsempfindlichen Oberfläche 4 ab.
  • Welcher Modus der vorstehend genannten Modi ausgewählt wird, kann von verschiedenen Systemzuständen abhängen, wie es im Folgenden erläutert wird:
    Ist die Wiederholfrequenz, mit welcher die Berührposition 6 auf der der berührungsempfindlichen Oberfläche 4 erfasst wird, unterhalb eines definierten Grenzwertes von zum Beispiel 30 Hertz, wird automatisch der diskrete Modus aktiviert. Liegt die Wiederholfrequenz zwischen zwei definierten Werten, zum Beispiel zwischen 30 Hertz und 60 Hertz, wird automatisch der Hybridmodus aktiviert, sofern die Güte aller Parameter einen Schwellwert überschritten hat. Liegt die Wiederholfrequenz oberhalb eines Grenzwerts von zum Beispiel 60 Hertz, wird automatisch der analoge Modus aktiviert, sofern die Güte aller Parameter über einem weiteren Schwellwert liegt.
  • Des Weiteren kann die Berührzeit beim Ausführen der Eingabegeste berücksichtigt werden. Ist sie sehr kurz, zum Beispiel geringer als 300 ms, wird automatisch der diskrete Modus aktiviert. In diesem Fall wird davon ausgegangen, dass der Nutzer keine analoge Justierung ausführen will. Ist die Berührzeit relativ lang, zum Beispiel länger als 300 ms, wird automatisch der analoge Modus aktiviert, sofern die Güte aller Parameter ausreichend ist, oder es wird der Hybridmodus aktiviert. In diesem Fall wird davon ausgegangen, dass der Nutzer eine analoge Justierung ausführen will.
  • Schließlich kann die Auswahl des Modus in Abhängigkeit von der Fahrsituation erfolgen. Befindet sich das Fahrzeug beispielsweise in einer Verkehrssituation mit hohem Risikopotenzial, kann automatisch der diskrete Modus aktiviert werden, da dieser bei der Bedienung eine geringer Aufmerksamkeit vom Fahrer erfordert als bei den anderen Modi.
  • Zum Ermitteln der Fahrsituation können beispielsweise Kontextdaten gewonnen werden, indem Basisdaten erfasst werden, welche über den Fahrzeugbus 5 der Steuervorrichtung 3 übertragen werden und von dieser interpretiert werden. Die Basisdaten können auf z. B. mittels Sensoren des Fahrzeugs erfasst werden oder aus zumindest einem in dem Fahrzeug vorgesehenen Speicher ausgelesen werden. Schließlich können Basisdaten mittels zumindest einer Kommunikationsschnittstelle von fahrzeugexternen Informationsquellen übertragen werden. Die Daten können beispielsweise über ein Mobilfunknetz oder ein drahtloses Datennetz übertragen werden.
  • Es werden als kontextbezogene Basisdaten z. B. folgende Daten erfasst: die Phase der Autofahrt, d. h. beispielsweise, ob die Fahrt gerade begonnen hat oder bald endet, ob es sich um eine Stadtfahrt oder eine Autobahnfahrt handelt oder ob man sich gerade in einem Stau befindet; die Bedienhistorie eines Nutzers; Fahrzeugdaten, wie die Fahrzeuggeschwindigkeit, -beschleunigung und der Zustand der Beleuchtungsfunktionen sowie die Fahrtrichtung; Daten zur Verkehrssituation in der Umgebung und/oder auf der Route des Fahrzeugs; Daten über die Verfassung des Fahrers, wie z. B. physiologische und psychologische Daten; Daten zum Fahrzeuginnenraum; Uhrzeit und/oder Datumsdaten.
  • Die Mittel zum Erfassen der Basisdaten umfassen Sensoren, einen oder mehrere Speicher, in denen Basisdaten gespeichert sind, und/oder eine Kommunikationsschnittstelle, über welche Basisdaten von fahrzeugexternen Informationsquellen übertragbar sind. Bei der Interpretation der Basisdaten wird z. B. ein Bayes'sches Netz verwendet, dessen Variablen die Basisdaten bilden. Gemäß einer anderen Ausgestaltung des erfindungsgemäßen Verfahrens werden die Basisdaten nicht interpretiert, sondern stattdessen direkt als Kontextdaten übernommen. Einigen Kontextdaten kann dabei ggf. ein Schwellwert zugeordnet werden.
  • Die erfindungsgemäße Vorrichtung bzw. das erfindungsgemäße Verfahren sind außerdem so ausgebildet, dass automatisch eine Hilfesituation erfasst werden kann. Eine Hilfesituation liegt dann vor, wenn davon ausgegangen werden kann, dass der Nutzer eine Unterstützung bei der Eingabe über die berührungsempfindliche Oberfläche 4 benötigt.
  • Um eine solche Hilfesituation zu erfassen, wird die Position eines Betätigungsobjekts, wie zum Beispiel der Hand oder der Fingerspitze eines Nutzers, vor der berührungsempfindlichen Oberfläche 4 in einem Detektionsbereich 8 mittels einer Annäherungserfassungseinrichtung 7 erfasst. Der Detektionsbereich 8 ist in 2 im Detail dargestellt. Er ist so gebildet, dass eine Annäherung eines Betätigungselements an die berührungsempfindliche Oberfläche 4 erfasst werden kann.
  • In dem hier beschriebenen Ausführungsbeispiel bildet der Detektionsbereich 8 zumindest ein Volumen vor der Oberfläche 4. Es ist insbesondere ein Quader gebildet, der mit seinen Seitenflächen in der Erstreckung, die parallel zu der Bedienoberfläche 4 verläuft, die Oberfläche 4 vollständig umschließt. In einer Richtung senkrecht zur Bedienoberfläche 4 reicht der Quader von der Oberfläche 4 oder unmittelbar vor der Oberfläche 4 bis zu einem Abstand von z. B. etwa 40 cm. Der Abstand der äußeren Grenze des Detektionsbereichs 8 vor der Bedienoberfläche 4 wird dabei so gewählt, dass eine Annäherung an die Oberfläche 4 so rechtzeitig detektiert werden kann, dass die Anzeige auf der Anzeigefläche 2 früh genug verändert werden kann, um den Nutzer bei einer Eingabe zu unterstützen. Ferner sollte der Abstand des Detektionsbereichs 8 von der Oberfläche 4 so gewählt werden, dass das Betätigungselement oder ein anderes Objekt so selten wie möglich in den Detektionsbereich 8 bewegt wird, wenn keine Bedienung der Bedienoberfläche 4 beabsichtigt ist.
  • Die Annäherungserfassungseinrichtung kann z. B. elektromagnetische Detektionsstrahlung, vorzugsweise im infraroten Wellenlängenbereich, in den Detektionsbereich 8 emittieren. Die Detektionsstrahlung tritt in geeigneter Weise in der Nähe der Anzeigevorrichtung 1 so aus, dass sie den gesamten Detektionsbereich 8 erfassen kann. Ein Referenzleuchtmittel emittiert zeitlich alternierend zu den Leuchtmitteln der Detektionsstrahlung eine Referenzstrahlung im selben Wellenlängen- bzw. Frequenzbereich. Auf diese Weise kann eine Kompensation einer Hintergrundstrahlung im Fahrzeug erfolgen. Die Annäherungserfassungseinrichtung umfasst ferner eine Ansteuerelektronik, um die Leuchtmittel sowie das Referenzleuchtmittel anzusteuern. Mittels der Annäherungserfassungseinrichtung 7 wird die Zeit erfasst, in welcher sich ein Betätigungselement innerhalb des Detektionsbereichs 8 befindet, jedoch die berührungsempfindliche Oberfläche 4 nicht berührt. Dieses Zeitintervall wird an die Steuervorrichtung 3 übertragen. Überschreitet dieses Zeitintervall einen Grenzwert, interpretiert dies die Steuervorrichtung 3 als Hilfesituation.
  • Des Weiteren kann mit einer an sich bekannten Einrichtung zum Verfolgen der Augenposition des Nutzers ermittelt werden, wie häufig innerhalb eines bestimmten Zeitintervalls der Nutzer seinen Blick auf einen nicht veränderten Anzeigekontext auf der Anzeigefläche 2 richtet. Ferner kann bestimmt werden, wie lange der Nutzer seinen Blick auf einen nicht veränderten Anzeigekontext auf der Anzeigefläche 2 richtet. Betrachtet der Nutzer die Anzeigefläche 2 häufiger als ein bestimmter Grenzwert oder länger als ein bestimmter Grenzwert, wird dies von der Steuervorrichtung 3 als Hilfesituation interpretiert.
  • Falls von der Steuervorrichtung 3 eine Hilfesituation erfasst worden ist, wird die Farbe oder Helligkeit einer auf der Anzeigefläche 2 angezeigten Schaltfläche verändert oder es werden andere der eingangs genannten Maßnahmen zur Kennzeichnung der Schaltfläche ergriffen.
  • Des Weiteren kann eine automatische Animation der Schaltfläche in Richtung möglicher Freiheitsgrade für eine Eingabegeste ausgeführt werden, die in Verbindung mit dieser Schaltfläche ausgeführt werden kann. Des Weiteren oder alternativ können auch andere eingangs genannten Maßnahmen zur Kennzeichnung der Freiheitsgrade von Eingabegesten visualisiert werden.
  • Bezugszeichenliste
  • 1
    Anzeigevorrichtung
    2
    Anzeigefläche
    3
    Steuervorrichtung
    4
    Berührungsempfindliche Oberfläche
    5
    Fahrzeugbus
    6
    Berührpositionen
    7
    Annäherungserfassungseinrichtung
    8
    Detektionsbereich
    9
    Speicher
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102005020155 A1 [0005]

Claims (10)

  1. Verfahren zum Bereitstellen einer Benutzerschnittstelle, bei dem – eine Eingabegeste auf einer berührungsempfindlichen Oberfläche (4) erfasst wird, indem mehrere Parameter einer Berührung der berührungsempfindlichen Oberfläche erfasst werden, wobei die Parameter zumindest eine Berührposition und die zeitliche Veränderung der Berührposition umfassen, und – in Abhängigkeit von den erfassten Parametern die graphische Darstellung auf der Anzeigefläche (2) verändert wird, dadurch gekennzeichnet, dass – beim Erfassen der Parameter Gütewerte für die Güte der Erfassung des jeweiligen Parameters ermittelt werden, und – die graphische Darstellung auf der Anzeigefläche (2) in Abhängigkeit von den Gütewerten verändert wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Berührpositionen mit einer Wiederholfrequenz erfasst werden und der Gütewert eines Parameters von der Wiederholfrequenz abhängt, mit welcher die Berührposition erfasst wurde, welche dem Parameter zugeordnet ist.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Berührpositionen mit einer definierten Ortsauflösung erfasst werden und der Gütewert eines Parameters von der Ortsauflösung abhängt, mit welcher die Berührposition erfasst wurde, welche dem Parameter zugeordnet ist.
  4. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die erfasste Eingabegeste einer Gestikklasse zugeordnet wird und der Gütewert von der Sicherheit bei der Zuordnung zu einer Gestikklasse abhängt.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Parameter, die einen Einfluss auf die Veränderung der graphischen Darstellung auf der Anzeigefläche (2) haben, in Abhängigkeit von den Gütewerten ausgewählt werden.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass es für die Veränderung der graphischen Darstellung auf der Anzeigefläche (2) mehrere Modi gibt, wobei die Auswahl eines Modus in Abhängigkeit von den Gütewerten erfolgt.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass es für die Veränderung der graphischen Darstellung auf der Anzeigefläche (2) mehrere Modi gibt, wobei die Auswahl eines Modus in Abhängigkeit von der Zeit zum Ausführen der Eingabegeste erfolgt.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Benutzerschnittstelle in einem Fahrzeug bereitgestellt wird, dass die Fahrsituation des Fahrzeugs bestimmt wird und dass es für die Veränderung der graphischen Darstellung auf der Anzeigefläche (2) mehrere Modi gibt, wobei die Auswahl eines Modus in Abhängigkeit von der Fahrsituation erfolgt.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei oder vor der Betätigung der berührungsempfindlichen Oberfläche (4) eine Hilfesituation erfasst wird, und die graphische Darstellung auf der Anzeigefläche verändert wird, wenn eine Hilfesituation erfasst worden ist.
  10. Vorrichtung zum Durchführen des Verfahrens nach einem der vorhergehenden Ansprüche, insbesondere in einem Fahrzeug.
DE102009057081A 2009-12-04 2009-12-04 Verfahren zum Bereitstellen einer Benutzerschnittstelle Pending DE102009057081A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102009057081A DE102009057081A1 (de) 2009-12-04 2009-12-04 Verfahren zum Bereitstellen einer Benutzerschnittstelle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009057081A DE102009057081A1 (de) 2009-12-04 2009-12-04 Verfahren zum Bereitstellen einer Benutzerschnittstelle

Publications (1)

Publication Number Publication Date
DE102009057081A1 true DE102009057081A1 (de) 2011-06-09

Family

ID=43972309

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009057081A Pending DE102009057081A1 (de) 2009-12-04 2009-12-04 Verfahren zum Bereitstellen einer Benutzerschnittstelle

Country Status (1)

Country Link
DE (1) DE102009057081A1 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013037476A1 (de) 2011-09-12 2013-03-21 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zum anzeigen von informationen und zum bediene eines elektronischen geräts
DE102011084524A1 (de) 2011-10-14 2013-04-18 Robert Bosch Gmbh Verfahren zur Darstellung eines Fahrzeugumfeldes
DE102011084887A1 (de) * 2011-10-20 2013-04-25 Bayerische Motoren Werke Aktiengesellschaft Ausblenden von Information auf einer Anzeigeeinrichtung in einem Kraftfahrzeug in Abhängigkeit der Aufmerksamkeit des Fahrers
DE102012016110A1 (de) 2012-08-15 2014-02-20 Volkswagen Aktiengesellschaft Verfahren zum Bereitstellen einer Bedienvorrichtung in einem Fahrzeug und Bedienvorrichtung hierfür
DE102013022035A1 (de) * 2013-12-20 2015-06-25 Audi Ag Kraftfahrzeug-Bedienvorrichtung mit graphischer Benutzerschnittstelle
DE102014214701A1 (de) * 2014-07-25 2016-01-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Beeinflussung der Informationsdarstellung auf einer Anzeigeeinrichtung in einem Fahrzeug
WO2020193143A1 (de) * 2019-03-25 2020-10-01 Volkswagen Aktiengesellschaft Vorrichtung und verfahren zum einstellen eines parameterwerts in einem fahrzeug
DE102015209935B4 (de) 2015-05-29 2022-10-20 Volkswagen Aktiengesellschaft Verfahren zur Detektion einer manuellen Bedienungshandlung an einer Eingabevorrichtung

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050052427A1 (en) * 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
DE102005020155A1 (de) 2005-04-29 2006-11-02 Volkswagen Ag Verfahren und Vorrichtung zur Anzeige von Informationen in einem Fahrzeug
DE102006049965A1 (de) * 2006-02-11 2007-10-18 Volkswagen Ag Vorrichtung und Verfahren zur interaktiven Informationsausgabe und/oder Hilfestellung für den Benutzer eines Kraftfahrzeugs

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050052427A1 (en) * 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
DE102005020155A1 (de) 2005-04-29 2006-11-02 Volkswagen Ag Verfahren und Vorrichtung zur Anzeige von Informationen in einem Fahrzeug
DE102006049965A1 (de) * 2006-02-11 2007-10-18 Volkswagen Ag Vorrichtung und Verfahren zur interaktiven Informationsausgabe und/oder Hilfestellung für den Benutzer eines Kraftfahrzeugs

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013037476A1 (de) 2011-09-12 2013-03-21 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zum anzeigen von informationen und zum bediene eines elektronischen geräts
US10452228B2 (en) 2011-09-12 2019-10-22 Volkswagen Ag Method and device for displaying information and for operating an electronic device selectively including activated list elements
DE102011084524A1 (de) 2011-10-14 2013-04-18 Robert Bosch Gmbh Verfahren zur Darstellung eines Fahrzeugumfeldes
WO2013053590A1 (de) 2011-10-14 2013-04-18 Robert Bosch Gmbh Verfahren zur darstellung eines fahrzeugumfeldes
DE102011084887A1 (de) * 2011-10-20 2013-04-25 Bayerische Motoren Werke Aktiengesellschaft Ausblenden von Information auf einer Anzeigeeinrichtung in einem Kraftfahrzeug in Abhängigkeit der Aufmerksamkeit des Fahrers
DE102012016110A1 (de) 2012-08-15 2014-02-20 Volkswagen Aktiengesellschaft Verfahren zum Bereitstellen einer Bedienvorrichtung in einem Fahrzeug und Bedienvorrichtung hierfür
DE102013022035A1 (de) * 2013-12-20 2015-06-25 Audi Ag Kraftfahrzeug-Bedienvorrichtung mit graphischer Benutzerschnittstelle
DE102013022035B4 (de) * 2013-12-20 2015-11-12 Audi Ag Kraftfahrzeug-Bedienvorrichtung mit graphischer Benutzerschnittstelle, sowie Kraftfahrzeug und Verfahren
DE102014214701A1 (de) * 2014-07-25 2016-01-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Beeinflussung der Informationsdarstellung auf einer Anzeigeeinrichtung in einem Fahrzeug
DE102015209935B4 (de) 2015-05-29 2022-10-20 Volkswagen Aktiengesellschaft Verfahren zur Detektion einer manuellen Bedienungshandlung an einer Eingabevorrichtung
WO2020193143A1 (de) * 2019-03-25 2020-10-01 Volkswagen Aktiengesellschaft Vorrichtung und verfahren zum einstellen eines parameterwerts in einem fahrzeug
CN113544003A (zh) * 2019-03-25 2021-10-22 大众汽车股份公司 用于调节交通工具中的参数值的装置和方法

Similar Documents

Publication Publication Date Title
DE102009057081A1 (de) Verfahren zum Bereitstellen einer Benutzerschnittstelle
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
EP2451672B1 (de) Verfahren und vorrichtung zum bereitstellen einer benutzerschnittstelle in einem fahrzeug
EP2943367B1 (de) Verfahren zum synchronisieren von anzeigeeinrichtungen eines kraftfahrzeugs
EP3484738B1 (de) Fahrzeug mit einer bedien- und anzeigevorrichtung und verfahren zum betreiben eines solchen fahrzeugs
DE102013012466B4 (de) Bediensystem und Verfahren zum Bedienen einer fahrzeugseitigen Vorrichtung
DE102010053788A1 (de) Verfahren zum Betreiben einer Bedienvorrichtung und Bedienvorrichtung in einem Fahrzeug
DE102011089195A1 (de) Vorrichtung und Verfahren zur berührungslosen Erfassung von Gegenständen und/oder Personen und von diesen ausgeführten Gesten und/oder Bedienvorgängen
DE102006028046A1 (de) Kombinierte Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug
WO2015062751A1 (de) Verfahren zum betreiben einer vorrichtung zur berührungslosen erfassung von gegenständen und/oder personen und von diesen ausgeführten gesten und/oder bedienvorgängen in einem fahrzeuginnenraum
EP2058162B1 (de) Multifunktionsanzeige- und Bediensystem und Verfahren zum Bedienen von Funktionen oder Fahrzeugsystemen mit einem assistierten Bedienmodus
WO2015149914A1 (de) Gestenbewertungssystem, verfahren zur gestenbewertung und fahrzeug
EP3254172B1 (de) Bestimmung einer position eines fahrzeugfremden objekts in einem fahrzeug
DE102013000069B4 (de) Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung
WO2018001877A1 (de) Verfahren zum betreiben einer bedienvorrichtung in einem kraftfahrzeug sowie bedienvorrichtung und kraftfahrzeug
DE102013000744A1 (de) Verfahren und System zum Steuern wenigstens einer Funktionseinheit sowie Kraftwagen und mobiles Endgerät mit einem solchen System
EP2808775A2 (de) Controller für ein Informationswiedergabesystem für ein Fahrzeug
EP2030828B9 (de) Multimodales Bediensystem und Verfahren zum Bedienen von Komponenten und Funktionen in einem Kraftfahrzeug
DE102008060363B4 (de) Kraftfahrzeug mit einem Bediensystem
DE102020202918A1 (de) Verfahren und System zur Ansteuerung wenigstens einer Funktion in einem Fahrzeug
DE102009049110B4 (de) Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug
DE102010007855A1 (de) Gestensteuerung von Mehrplatzsystemen in einem Fahrzeug
DE102019219272A1 (de) Fahrzeug mit einem Innenraum und Verfahren zur Steuerung einer Anzeigeeinheit in einem Fahrzeug
DE102014202833A1 (de) Anwenderschnittstelle und Verfahren zum Wechseln von einem ersten Bedienmodus einer Anwenderschnittstelle in einen 3D-Gesten-Modus
DE102014001183B4 (de) Verfahren und System zum Auslösen wenigstens einer Funktion eines Kraftwagens

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0003041000

Ipc: G06F0003048800

R016 Response to examination communication
R082 Change of representative

Representative=s name: MEISSNER BOLTE PATENTANWAELTE RECHTSANWAELTE P, DE