DE102015207542A1 - Automobil-touchscreen-bedienelemente mit simulierter textur für haptische rückmeldung - Google Patents

Automobil-touchscreen-bedienelemente mit simulierter textur für haptische rückmeldung Download PDF

Info

Publication number
DE102015207542A1
DE102015207542A1 DE102015207542.7A DE102015207542A DE102015207542A1 DE 102015207542 A1 DE102015207542 A1 DE 102015207542A1 DE 102015207542 A DE102015207542 A DE 102015207542A DE 102015207542 A1 DE102015207542 A1 DE 102015207542A1
Authority
DE
Germany
Prior art keywords
texture
finger
mode
perceived
touch screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015207542.7A
Other languages
English (en)
Inventor
Ronald Patrick Brombach
Laura V. Hazebrouck
John Robert Van Wiemeersch
Ryan Edwin Hanson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102015207542A1 publication Critical patent/DE102015207542A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/60
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • B60K2360/1442

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Bei einem Fahrzeug-Steuersystem wird eine Touchscreen-Anzeige verwendet, um eine grafische HMI anzuzeigen und einen Berührungspunkt zu erkennen, an dem sie von einem Finger eines Benutzers berührt wird. Ein haptisches Textursystem weist eine Elektrode auf, die über der gesamten Touchscreen-Anzeige angeordnet ist, und einen Signalgenerator, der ein oszillierendes Signal erzeugt, um eine Potentialdifferenz zwischen dem Finger und der Elektrode herzustellen, die eine entsprechende wahrgenommene Textur zur Folge hat, während der Finger über den Touchscreen gleitet. Eine Steuerschaltung ist so konfiguriert, dass sie mindestens eine Frequenz oder Amplitude des oszillierenden Signals einstellt, um bei einem Navigieren in der grafischen HMI die wahrgenommene Textur gemäß einem ersten und zweiten Modus zu variieren. Bei dem ersten Modus wird eine lokalisierte Texturzuordnung verwendet, die durch entsprechende Funktionssymbol-Auswahlbereiche auf der Touchscreen-Anzeige definiert wird. Bei dem zweiten Modus wird eine Status-Texturzuordnung verwendet, durch die die wahrgenommene Textur zu jeder potenziellen Anpassungseinstellung in Beziehung gesetzt wird, die für ein Funktionssymbol zur Verfügung steht, das unter Verwendung des ersten Modus ausgewählt wurde.

Description

  • Die vorliegende Erfindung betrifft allgemein Bedienelemente für Fahrer/Bediener in einem Mobilfahrzeug wie beispielsweise einem Personenkraftwagen, Lastkraftwagen, Zug, Bus oder Flugzeug und insbesondere Touchscreen-Bedienfelder mit haptischer Rückmeldung.
  • Ein typisches Transportfahrzeug wie zum Beispiel ein Personenkraftwagen oder Lastkraftwagen weist zahlreiche bedienergesteuerte Systeme und zahlreiches bedienergesteuertes Zubehör auf. Um die verschiedenartigen Interaktionen mit Fahrzeug-Elektroniksystemen wie beispielsweise einem Klimaregelungssystem, einem Medien- und Unterhaltungssystem, einem Fahrerinformationssystem, einem Navigationssystem oder einem drahtlosem Datenübertragungssystem zu handhaben, kann eine zentrale Bedienfeldschnittstelle auf dem Armaturenbrett oder der Instrumententafel des Fahrzeugs bereitgestellt werden. Eine solche zentrale Einheit kann eine leichte Bedienbarkeit und eine Verringerung der Gesamtherstellungskosten zur Folge haben. Ein üblicher Typ einer Mensch-Maschine-Schnittstelle beinhaltet die Verwendung eines Touchscreens zum Anzeigen verschiedener kontextsensitiver Menüs mit verschiedenen grafischen Elementen, die mit den gesteuerten Funktionen oder Systemen im Zusammenhang stehen, zum Betätigen durch Finger des Benutzers, um verschiedene Parameter der zugehörigen elektronisch gesteuerten Systeme anzupassen.
  • Die leichte Bedienbarkeit und die zum Treffen geeigneter Auswahlen erforderliche Zeitspanne sind wichtige Erwägungen bei dem Entwurf von Fahrzeugen, um die mit einer Benutzung der Bedienelemente in Zusammenhang stehende mögliche Ablenkung eines Fahrers zu begrenzen. Es wird gewünscht, eine Ablenkung eines Fahrers zu vermeiden, die dadurch eine Folge bei dem Benutzen eines Touchscreens sein könnte, dass auf dem Touchscreen visuell nach einer gewünschten Funktion oder Zone gesucht und dann auf eine Bestätigung gewartet werden muss, dass eine gewünschte Steuerungsaktion als Reaktion auf einen Berührungsbefehl eines Benutzers ausgeführt wurde. Darüber hinaus können durch eine Straße hervorgerufene Vibration sowie Schaukelbewegungen des Körpers des Benutzers die Fähigkeit beeinflussen, einen Finger auf einem Touchscreen genau an den beabsichtigten Stellen zu platzieren oder gleiten zu lassen. Außerdem kann eine Sonnenlast auf dem Bildschirm die Fähigkeit des Fahrers beeinträchtigen, die Funktionssymbole auf dem Bildschirm klar zu sehen.
  • Sprachbefehle und synthetisierte Sprachantworten werden manchmal als ein Versuch angewendet, diese Probleme zu vermeiden, aber es kann schwierig sein, Sprache in einer geräuschvollen Fahrzeugumgebung genau zu erkennen und zu kennzeichnen, und häufig kennt oder erkennt der Fahrer möglicherweise die richtigen Schlüsselwörter nicht, die bestimmten akustischen Befehlen vorangehen müssen.
  • Es sind Automobil-Touchscreen-Bedienelemente bekannt, die eine haptische Rückmeldung durch ein mechanisches Bewegen (z.B. Vibrieren) der Oberfläche des Touchscreens in Verbindung mit einer Aktivierung eines bestimmten Befehls bieten (siehe z.B. US-Patentschrift 7 834 857 und US-Patentschrift 8 269 726 ). Eine haptische Vibration erfordert eine Motor-, Elektromagnet- oder piezoelektrische Vorrichtung zum Erzeugen mechanischer Vibration des Touchscreens, wodurch im Hinblick auf die Touchscreen-Technologien und -materialien, die verwendet werden können, beträchtliche Einschränkungen auferlegt werden. Derartige Systeme sind außerdem mechanischem Verschleiß und Ausfällen unterworfen, und sie erzeugen unerwünschten Lärm, wenn sie aktiviert sind.
  • Mittlerweile steht eine neue Art von haptischer Rückmeldung für Touchscreens zur Verfügung, die auf dem Prinzip der Elektrovibration beruht, um taktile Empfindungen auf Grundlage von elektrostatischer Reibung zwischen einer Touchscreen-Oberfläche und einem Finger eines Benutzer zu erzeugen (ohne irgendeine tatsächliche Vibration des Touchscreens). Zum Beispiel wurde ein als „Tesla-Touch“ bekanntes System beschrieben (siehe z.B. US-Patentanmeldung 2012/0327006 ), bei der eine über dem Bildschirm angeordnete transparente Elektrode zum Interagieren mit einem sich bewegenden Finger eingesetzt wird, der über die transparente Elektrode gleitet, wobei ein periodisches elektrisches Signal zwischen der Elektrode und dem Finger angelegt wird, um durch ein elektrisches Feld, das so moduliert ist, dass es die Reibung auf eine gewünschte Weise variiert, eine Anziehungskraft zu induzieren, sodass, wenn der Finger bei vorhandener Modulation und daraus folgender variabler Reibung über die Bildschirmoberfläche bewegt wird, das Reibungsmuster das Gefühl unterschiedlicher Texturen simuliert. Zum Beispiel kann sich eine sinusförmige Modulation wie eine wellige Oberfläche anfühlen, und eine Rechteckmodulation kann sich wie parallele Linien oder Grate anfühlen. Obwohl dies nicht in Verbindung mit kontextsensitiven Menüs oder anderen Automobil-Bedienfeldern beschrieben wird, wurde ein Ändern der Textur einer taktilen Rückmeldung bei einem Ziehen eines Anpassungsschiebers zur Verwendung bei grafischen Benutzeroberflächen (graphical user interfaces, GUIs) vorgeschlagen. Allerdings wurde noch kein System zum Verwenden veränderlicher Texturen bei einem Navigieren durch kontextsensitive Menüs gezeigt oder vorgeschlagen, welches sehr hilfreich wäre, um mit verringerter erforderlicher visueller Aufmerksamkeit in Automobilbedienelementen zu navigieren.
  • Bei der vorliegenden Erfindung wird Reibung zum Simulieren unterschiedlicher Texturen auf einem Touchscreen bei Automobilanwendungen eingesetzt. Bei einer Ausführungsform können verschiedene Funktionssymbole dadurch erhaben erscheinen, dass sie eine erhöhte (wahrgenommene) Gleitreibung aufweisen, um ein einfacheres Positionieren des Fingers über dem gewünschten Symbol zu ermöglichen. Der Fahrer kann eine zusätzliche haptische Rückmeldung auf Bedienelementen des „Schieber-“Typs durch Ändern der Reibungsaufwände relativ zu der Position auf dem Schieber erhalten (z.B. Ändern einer Reibung im Zusammenhang mit einem Ändern der Tonlautstärke, einer Kabinentemperatur oder einer Lüfterdrehzahl). Darüber hinaus kann die haptische Rückmeldung die von dem Benutzer gefühlte Reibung ändern, um anzuzeigen, wann eine gewünschte Ein/Aus-Funktionseinstellung ausgewählt wurde.
  • Ein geeignetes Signal muss in den Benutzer und/oder die Anzeige eingespeist werden, wobei der Signaleinspeiser und das taktile Objekt (d.h. der Körper des Benutzers) eine gemeinsame Masse aufweisen. Dies wird in einer Automobilumgebung durch das Verwenden von einem oder mehreren Pfaden erreicht, die so ausbalanciert/kalibriert sind, dass sie für ein gleichbleibendes Gefühl (d.h. Signalstärke) sorgen. Da der Benutzer unterschiedliche Isolierungsschichten (Dicke der Hosen, Mäntel, Handschuhe oder andere Kleidung) aufweisen kann, die die Wirksamkeit des Systems hinsichtlich des Erreichens der gewünschten Signalstärke beeinflussen können, kann ein Anpassen der Signalamplitude erforderlich sein, um eine gleichbleibende Wahrnehmung der Texturen zu erhalten. Zu bevorzugten Stellen zum Einrichten eines Erdungspfads eines Benutzers in einer Automobilumgebung zählen ein Anordnen von Elektroden oder Platten in oder an der Oberfläche eines Sitzes (z.B. Sitzunterteil oder Sitzrückenlehne), in einem Sicherheitsgurt, auf einem Lenkrad, auf einer Armlehne an der Tür, auf der Bodengruppe, auf dem Gaspedal, auf der Oberfläche einer Getriebeschaltvorrichtung oder als eine Schiene oder ein vorspringender Rand entlang der Unterseite des Touchscreens, wo der Benutzer einen Daumen, einen Finger oder eine Handfläche auflegen könnte.
  • Bei einem Aspekt der Erfindung umfasst ein Fahrzeugsteuersystem eine Touchscreen-Anzeige zum Anzeigen einer grafischen HMI und Erkennen eines Berührungspunkts auf der Anzeige, der bei einem Berühren durch einen Finger eines Benutzers manuell erstellt wird. Ein haptisches Textursystem weist eine Elektrode auf, die über der gesamten Touchscreen-Anzeige angeordnet ist, und einen Signalgenerator, der ein oszillierendes Signal erzeugt, um eine Potentialdifferenz zwischen dem Finger und der Elektrode herzustellen, die eine entsprechende wahrgenommene Textur zur Folge hat, während der Finger über die Touchscreen-Anzeige gleitet. Eine Steuerschaltung ist so konfiguriert, dass sie mindestens eine Frequenz oder Amplitude des oszillierenden Signals einstellt, um bei einem Navigieren in der grafischen HMI die wahrgenommene Textur gemäß einem ersten und zweiten Modus zu variieren. Bei dem ersten Modus wird eine lokalisierte Texturzuordnung verwendet, die durch entsprechende Funktionssymbol-Auswahlbereiche auf der Touchscreen-Anzeige definiert wird. Bei dem zweiten Modus wird eine Status-Texturzuordnung verwendet, durch die die wahrgenommene Textur zu jeder potenziellen Anpassungseinstellung in Beziehung gesetzt wird, die für ein Funktionssymbol zur Verfügung steht, das unter Verwendung des ersten Modus ausgewählt wurde. Die Inhalte der Touchscreen-Anzeige können bei einem Umschalten von dem ersten Modus zu dem zweiten Modus gleich bleiben oder sich ändern. Wenn zum Beispiel ein Funktionssymbol zum Anpassen der Tonlautstärke ausgewählt wird, kann ein Schiebersymbol für die Lautstärkesteuerung vergrößert werden (d.h. Bildschirm-Zoomen), um die gewünschten Aktionen zu erleichtern.
  • 1 ist eine schematische Darstellung eines Fahrzeugsteuersystems gemäß einer bevorzugten Ausführungsform.
  • 2 zeigt einen Bildschirm einer von einem Touchscreen angezeigten grafischen HMI.
  • 3 zeigt einen anderen Bildschirm der von dem Touchscreen angezeigten grafischen HMI, zum Anpassen einer anderen Gruppe von Fahrzeugfunktionen.
  • 4 zeigt eine Texturzuordnung gemäß einem ersten Modus der Erfindung.
  • 5 zeigt eine Texturzuordnung gemäß einem zweiten Modus der Erfindung.
  • 6A bis 6D zeigen unterschiedliche Texturen, die mit Funktionssymbolen und Anpassungssymbolen in Zusammenhang stehen.
  • 7A bis 7C zeigen unterschiedliche Texturen für eine alternative Ausführungsform.
  • 8A bis 8D zeigen oszillierende Signale zum Erzeugen verschiedener Texturen und Intensitäten.
  • 9 bis 11 sind Draufsichten, die eine Zwei-Finger-Herangehensweise zum Auswählen einer Funktion und zum Anpassen einer Funktionseinstellung zeigen.
  • 12 ist ein Schaubild, das alternative Positionen für einen Benutzer-Erdungspfad zeigt.
  • 13 ist ein Blockschaltbild, das ein Ableiten einer Verstärkung zum Kompensieren von Veränderungen bei der Kopplung des Benutzers mit einer Bezugsmasse zeigt.
  • Mit Bezug auf 1: Ein Fahrzeugsteuersystem 10 weist eine Touchscreen-Anzeige 11, wie sie in der Technik bekannt ist, zum Anzeigen einer grafischen HMI und zum Erkennen eines Berührungspunkts eines Fingers 12 eines Benutzers auf der Touchscreen-Anzeige 11 auf, wodurch ein Benutzer durch ein manuelles Berühren der Anzeige 11 gemäß den angezeigten Funktionssymbolen auf der Anzeige 11 in der HMI navigieren kann, wie nachfolgend beschrieben. Eine HMI-Steuerschaltung 13 kann einen Anzeigetreiber zum Bereitstellen der grafischen Elemente und Funktionssymbole oder anderen Symbole auf der Anzeige 11 aufweisen und empfängt erfasste Signale zum Erkennen der Position eines Berührungspunkts mit dem Finger 12. Die HMI-Steuerschaltung 13 ist mit verschiedenen Systemen und verschiedenem Zubehör 14 verbunden, um eine elektronische Steuerung bereitzustellen, einschließlich verschiedener Einstellungen und Anpassungen gemäß einer kontextsensitiven Menüstruktur in der grafischen HMI.
  • Die Erfindung beinhaltet ein haptisches Textursystem mit einer Textursteuerschaltung 15, die mit einem Signalgenerator 16 verbunden ist, der ein oszillierendes Signal erzeugt, das einer Elektrode 17 zugeführt wird, die über der vorderen Oberfläche der Touchscreen-Anzeige 11 angeordnet ist. Eine optionale Isolierschicht 18 kann über der Elektrode 17 angeordnet werden, um die Elektrode 17 gegenüber dem Finger 12 zu isolieren.
  • Der Signalgenerator 16 ist auf eine elektrische Masse 20 in dem Fahrzeug bezogen. Der Benutzerfinger 12 ist über den Körper 21 des Benutzers über einen Benutzer-Erdungspfad 22 mit einer Fahrzeugmasse 20 gekoppelt. Der Erdungspfad 22 kann bevorzugt eine kapazitive Schnittstelle 23 aufweisen, die an einem passenden Berührungspunkt mit dem Benutzer erstellt wird, wie nachfolgend ausführlicher beschrieben.
  • Als eine Folge der Anordnung in 1 erzeugt ein oszillierendes Signal von dem Signalgenerator 16 eine Potentialdifferenz zwischen dem Finger 12 und der Elektrode 17, was eine entsprechende wahrgenommene Textur zur Folge hat, während der Finger 12 über die Touchscreen-Anzeige 11 gleitet. Die Textursteuerschaltung 15 ist so konfiguriert, dass sie mindestens eine Frequenz oder Amplitude des oszillierenden Signals einstellt, um bei einem Navigieren des Benutzers in der grafischen HMI die wahrgenommene Textur zu variieren.
  • Die HMI-Steuerschaltung 13 gehört allgemein einem bekannten Typ an, der mit den hier beschriebenen erforderlichen Erweiterungen zum Interagieren mit der Textursteuerschaltung 15 bereitgestellt wird, um Informationen gemeinsam zu nutzen, einschließlich eines aktuellen Berührungspunkts/aktueller Berührungspunkte, an dem/denen der Finger 12 erkannt wird, und kontextsensitiver Informationen einschließlich des aktuellen Werts oder Zustands von Anpassungseinstellungen, die auf ein Funktionssymbol anwendbar sind, das in dem aktuell auf der Touchscreen-Anzeige 11 sichtbaren Menü möglicherweise aktiv (d.h. ausgewählt) ist.
  • Durch die vorliegende Erfindung wird die wahrgenommene Textur bei einem Navigieren in der grafischen HMI gemäß einem ersten und zweiten Modus variiert. Der erste Modus betrifft ein Auswählen von Funktionssymbolen, die das gewünschte Ziel einer Anpassung sind. Der zweite Modus betrifft ein Vornehmen der tatsächlichen Anpassung der gewünschten Funktion.
  • 2 und 3 zeigen beispielhafte grafische Menübildschirme, für die, wie hier offenbart, in dem ersten und zweiten Modus Texturen erzeugt werden können, um potenziell das Niveau der Ablenkung der Aufmerksamkeit des Benutzers bei einem Ausführen einer Anpassungsaufgabe zu verringern.
  • 2 zeigt ein erstes Beispiel für einen Menübildschirm auf der Anzeige 11 mit einer Mehrzahl von Funktionssymbolen 30 zum Auswählen von Untermenüs, die verschiedenen Teilsystemen entsprechen. Zu üblichen Teilsystemen können eine Klimaregelung, ein Medien/Unterhaltungssystem, drahtlose Datenübertragung wie zum Beispiel ein Mobiltelefon sowie ein Fahrzeug-Navigations/Informationssystem zählen. Ein Medienauswahl-Funktionssymbol 31 wird, als Folge davon, dass es manuell ausgewählt wurde, mit einer optischen Hervorhebung gezeigt. In einem Mediensteuerungs-Untermenü zeigt ein kontextsensitiver Abschnitt des Bildschirms eine Schnittstelle zum Steuern des Unterhaltungssystems unter Verwendung entsprechender Funktionssymbole 32 zum Auswählen einer Tonquelle wie zum Beispiel eines Rundfunkbands, einer CD oder zusätzlicher Quellen an. Zu zusätzlichen Funktionssymbolen können Transportsteuerungs-Schaltflächen, eine Lautstärke-Schaltfläche 33 sowie eine Lautsprecher-Fade-Schaltfläche zählen. Das Funktionssymbol 33 zum Steuern einer Lautstärke wird, nachdem es von dem Benutzer ausgewählt wurde, als hervorgehoben gezeigt, wobei diese Auswahl durch Verwenden einer Texturzuordnung gemäß dem ersten Modus der Erfindung unterstützt wurde.
  • In dem ersten Modus zum Anwenden haptischer Texturen, um einem über die Anzeige 11 gleitenden Finger eine Rückmeldung zu geben, wird die Textur gemäß der räumlichen Position des Berührungspunkts eines Fingers auf dem Bildschirm 11 variiert. Die Textur wird auf Grundlage einer Zuordnung gesteuert, durch die unterscheidbare Texturen für Berührungspunkte erkannt werden, die mit Funktionssymbolen wie zum Beispiel den Icons/Symbolen 30, 32 und 33 übereinstimmen. Nach einem Auswählen eines bestimmten Funktionssymbols kann es auf der Anzeige 11 hervorgehoben sein (wie für das Lautstärke-Funktionssymbol 33 gezeigt). Das tatsächliche Auswählen eines Symbols wird von der Touchscreen-Anzeige 11 gehandhabt und kann ein Tippen auf das Symbol oder Legen des Fingers auf das gewünschte Funktionssymbol während einer vorgegebenen Zeitspanne sein. Da diese Handlungen kein Gleiten des Fingers beinhalten, würde eine Rückmeldung an den Benutzer nicht unter Verwendung von Textur gegeben. Sobald ein bestimmtes Funktionssymbol mithilfe des ersten Modus ausgewählt ist, kann in dem zweiten Modus wieder Textur eingesetzt werden, um eine haptische Rückmeldung im Zusammenhang mit Gleiten beinhaltenden Anpassungsbewegungen oder -gesten der Finger bereitzustellen.
  • Anstelle der lokalisierten Texturzuordnung, die gemäß den entsprechenden Funktionssymbol-Auswahlbereichen definiert wird, wie sie in dem ersten Modus verwendet werden, wird bei dem zweiten Modus eine Status-Texturzuordnung verwendet, die die wahrgenommene Textur zu einer beliebigen bestimmten Zeit zu dem Zustand oder der Intensität der Funktionsanpassungseinstellung setzt, die zu dieser Zeit für die Funktion wirksam ist, die von dem aktuell ausgewählten Funktionssymbol gesteuert wird. Zum Beispiel steht ein Schieber 34 in Zusammenhang mit dem Lautstärke-Funktionssymbol 33, wobei ein Finger des Benutzers das Schiebersymbol 34 nach links oder rechts ziehen kann, um die Tonlautstärke zu ändern. Bei einem Anpassen der Intensität der Lautstärke bewirkt die Status-Texturzuordnung, dass eine Intensität der wahrgenommenen Textur sich entsprechend ändert. Im Fall einer Schieberanpassung wie der des Schiebers 34, bei der eine Eins-zu-Eins-Entsprechung zwischen der eingestellten Position und der daraus folgenden Größe der gesteuerten Variablen vorhanden ist, entspricht die wahrgenommene Texturintensität gleichzeitig sowohl der tatsächlichen Anpassungseinstellung als auch der lokalisierten Position des Finger-Berührungspunkts.
  • Sobald der Benutzer seine gewünschte Anpassung der Einstellung für das ausgewählte Funktionssymbol in dem zweiten Modus abgeschlossen hat, muss die Textursteuerschaltung zu dem ersten Modus zurückkehren, um das Auswählen des nächsten Funktionssymbols durch den Benutzer zu erleichtern. Der Wechsel zurück zu dem ersten Modus kann durch ein vorgegebenes Ereignis ausgelöst werden, wie zum Beispiel: 1) Der Benutzer hebt seinen Finger von dem Schiebersymbol auf dem Touchscreen ab, 2) Ende einer vorgegebenen verstrichenen Zeit oder 3) Tippen mit dem Finger auf ein Befehlssymbol wie beispielsweise eine Zurück-Schaltfläche 35 oder eine Home-Schaltfläche 36.
  • 3 veranschaulicht einen zweiten Menübildschirm, der einem Aktivieren eines Klimaregelungs-Funktionssymbols 37 entspricht. Dieses Beispiel zeigt eine Ausführungsform des zweiten Modus, wobei die Intensität der wahrgenommenen Textur zu dem Zustand oder der Größe der aktuellen Anpassungseinstellung in Beziehung steht (d.h. nicht oder nur teilweise zu dem physischen Ort des Berührungspunkts in Beziehung steht). Zum Beispiel: Wenn ein Fahrer-Temperaturfunktionssymbol 38 mithilfe des ersten Modus ausgewählt wurde, arbeitet die Textursteuerschaltung in dem zweiten Modus, während der Benutzer ein Temperaturverringerungssymbol 40 oder ein Temperaturerhöhungssymbol 41 betätigt. Die Intensität der wahrgenommenen Textur kann proportional zu der Höhe der Fahrer-Temperatureinstellung gemacht werden, die durch Gleiten mit dem Finger über die Symbole 40 und entsprechend 41 geändert werden kann. Wenn die Temperaturbefehlseinstellung zunimmt, nimmt die „Intensität“ der Textur entsprechend zu, wodurch dem Benutzer proportional zu der Temperatureinstellung eine haptische Rückmeldung gegeben wird. In ähnlicher Weise kann ein Lüfterdrehzahl-Funktionssymbol 42 in dem ersten Modus (d.h., die Textur weist eine lokalisierte Intensität auf, die mit dem Symbol 42 übereinstimmt) ausgewählt werden. Sobald sie ausgewählt wurde, wird die lokalisierte Textur für das Symbol 42 beendet (d.h. der erste Modus endet), und eine Texturzuordnung wird verwendet, die mit Einstellungspfeilen 43 und 44 übereinstimmt, wodurch der Benutzer eine Anpassung der Lüfterdrehzahl durch Gleiten mit dem Finger in die angezeigten Richtungen über die Symbole 43 und 44 erhalten kann (d.h. der zweite Modus beginnt). Da jede Geste eine Änderung der aktuellen Anpassungseinstellung für die Lüfterdrehzahl bewirkt, wird die Intensität der wahrgenommenen Textur, die mit den Symbolen 43 und 44 übereinstimmt, proportional geändert.
  • Ein Beispiel für eine lokalisierte Texturzuordnung, die für den ersten Modus verwendet wird, wird in 4 veranschaulicht. Eine Bildschirmberührungspunkt-Erkennungskarte 45 zeigt die Übersetzung eines erkannten Berührungspunkts mithilfe der Touchscreen-Anzeige in x- und y-Koordinaten für den Berührungspunkt. Als Reaktion auf ein Bereitstellen des Berührungspunkts (x,y) als eine Eingabe für eine lokalisierte Texturzuordnung 46 werden entsprechende Intensitätswerte als eine Ausgabe zum Steuern des Oszillatorsignals zum Erzeugen der entsprechenden wahrgenommenen Textur erlangt. Jeder mögliche Menü- oder Untermenü-Bildschirm weist eine entsprechende kontextsensitive Zuordnung auf. Zum Beispiel stimmt ein erster Bereich 47 mit dem Ort eines bestimmten Funktionssymbols auf einem bestimmten angezeigten Menübildschirm überein. Ein umgebender Bereich 48 mit mittlerer Textur kann zwischen dem Bereich 47 und einem Hintergrundbereich 50 vorgesehen werden, um ein wahrgenommenes Zunehmen der Textur zu erzeugen, während sich der Finger dem beabsichtigtem Ziel nähert, um dazu beizutragen, den Finger leichter zu dem gemeinten Funktionssymbol-Zielbereich 47 zu führen. Der Hintergrundbereich 50 kann bevorzugt mit einem Nichtvorhandensein hinzugefügter Textur übereinstimmen, sodass das größte Signal-Rauschverhältnis zwischen dem Bereich 47 und dem Hintergrundbereich 50 bereitgestellt werden kann. Ein anderer Zielbereich 51 entspricht einem anderen Funktionssymbol in dem entsprechenden Menü. Ein Anstieg von der Hintergrundtextur 50 aus kann mehrere Schritte beinhalten, darunter die mittleren Bereiche 52 und 53, die den Bereich 51 umgeben.
  • 5 zeigt eine Status-Texturzuordnung, um eine wahrgenommene Textur mit jeder der potenziellen Anpassungseinstellungen in Beziehung zu setzen, die in der Anpassungsaufgabe für ein entsprechendes Funktionssymbol zur Verfügung stehen. Zum Beispiel wird durch die HMI-Steuerschaltung oder die tatsächlichen gesteuerten Teilsysteme eine aktuelle Anpassungseinstellung 55 für die Textursteuerschaltung bereitgestellt. Die Textursteuerung verwendet die Einstellung 55 als eine Eingabe für eine Karte, die die Einstellung 55 zu einer bestimmten Textur in Beziehung setzt. Die Zuordnung kann aus einer Kurvendarstellung 56 oder einer mathematischen Beziehung oder Gleichung bestehen.
  • Um die sich verändernden Texturzuordnungen weiter zu veranschaulichen, zeigen 6A bis 6C gemäß einer Ausführungsform veränderliche Texturbereiche, die mit einem Funktionssymbol 60 und einem Schieber-Anpassungsbereich 61 übereinstimmen. 6A bis 6C können zum Beispiel einer Menüstruktur der in 2 gezeigten Art entsprechen. 6A zeigt die grafischen Elemente der HMI, die von der Touchscreen-Anzeige angezeigt werden. In 6B erzeugt der erste Modus einen Hintergrundtexturbereich 62 (z.B. mit null Textur), der einen Bereich mit mittlerer Textur 63 und einen Bereich mit starker Textur 64 umgibt. Während der Finger des Benutzers über die Anzeige gleitet, wird er mithilfe der Texturunterschiede geführt, um leichter den Punkt zu finden, der mit dem Funktionssymbol 60 übereinstimmt. Sobald das Funktionssymbol 60 ausgewählt ist (z.B. durch Antippen oder durch Auflegen des Fingers), wird der zweite Modus zum Steuern der Textur aktiviert wie in 6C gezeigt. Die Hintergrundtextur 62 stimmt mit dem Funktionssymbol 60 und dem das Schiebersymbol 61 umgebenden Bereichen überein. Innerhalb des Schiebersymbols 61 wird eine Mehrzahl von Teilbereichen 65 bis 70 mit proportional zunehmenden Texturintensitäten erzeugt, die den Steigerungen der angepassten Werte für die Zielfunktion entsprechen.
  • Wie in 6D gezeigt, weist ein bestimmtes Funktionssymbol 71 möglicherweise nur zwei mögliche Zustände oder Anpassungseinstellungen auf, wie beispielsweise ein Ein- und Ausschalten einer Funktion. In dem zweiten Modus können gemäß der Ein- oder Aus-Einstellung der Funktion unterscheidbare Texturen 72 oder 73 aktiviert werden.
  • 7A bis 7C veranschaulichen verschiedene Texturzuordnungen in dem ersten und zweiten Modus, wenn Anpassungsgesten verwendet werden, wie beispielsweise in dem Menübeispiel aus 3 gezeigt. Ein Funktionssymbol 70 nimmt eine bestimmte Position auf der Touchscreen-Anzeige ein, die einem Anpassungssymbol 76 benachbart ist, das eine Stelle zum Gleiten zum Vornehmen von Funktionsanpassungseinstellungen definiert. 7A veranschaulicht eine Textur 77, die in dem ersten Modus aktiviert wird und ein leichteres Auffinden und Auswählen der Position eines Funktionssymbols 75 ermöglicht. In dem zweiten Modus würde keine mit dem Funktionssymbol 75 übereinstimmende Textur erzeugt, sondern stattdessen würde eine Textur im Zusammenhang mit dem Ort des Anpassungssymbols 76 erzeugt werden, die eine Intensität aufweist, die als Reaktion auf die gesteuerte Variable festgelegt wird. Daher kann in 7B die Anpassungseinstellung eine relativ niedrige Intensität aufweisen, was durch eine relativ niedrige Intensität einer Textur 78 widergespiegelt wird. Wenn die Anpassungseinstellung eine höhere Intensität aufweist (z.B., wenn der Benutzer mit seinem Finger in die positive Richtung auf dem Anpassungssymbol 76 gleitet oder wiederholt wischt), wird eine entsprechend höhere Intensitätstextur 79 angewendet, wie in 7C gezeigt.
  • Mit der Intensität der Textur ist hier jede abweichende Wahrnehmung von Textur gemeint, die von dem Benutzer erkannt werden kann. Diese unterscheidbaren Wahrnehmungen können auf verschiedene Weise erlangt werden, wie in 8A bis 8D gezeigt. 8A zeigt ein oszillierendes Signal 80, wobei eine erste wahrgenommene Textur mithilfe eines periodischen Signals 81 erlangt wird, das durch eine erste Frequenz und eine erste Amplitude gekennzeichnet ist. Um eine unterscheidbare Textur zu erzeugen, die als eine höhere Intensität wahrgenommen werden kann, kann ein anderes oszillierendes Signal 82 mit derselben Frequenz und einer größeren Amplitude eingesetzt werden. Alternativ kann die Frequenz des oszillierenden Signals variiert werden, wie in 8B gezeigt. Auf diese Weise wird eine erste Textur mithilfe eines oszillierenden Signals 83 mit einer ersten Frequenz und einer ersten Amplitude erlangt. Eine unterscheidbare Textur oder eine Textur mit einer höheren Intensität wird unter Verwendung eines oszillierenden Signals 84 mit derselben Amplitude und einer höheren Frequenz erlangt.
  • Wie in 8C gezeigt, kann das Tastverhältnis oder Muster des oszillierenden Signals variiert werden, um verschiedene wahrgenommene Texturen zu erzielen. Daher kann eine erste Textur unter Verwendung eines periodischen Signals 85 erlangt werden, das entsprechend einem ersten Tastverhältnis moduliert wird (d.h. ein- und ausgeschaltet wird). Eine sich davon abhebende Textur wird mithilfe eines oszillierenden Signals 86 mit einem anderen Tastverhältnis mit längeren Ein-Perioden als das oszillierende Signal 85 erlangt.
  • Wie in 8D gezeigt, kann die Intensität der wahrgenommenen Textur alternativ durch ein Variieren des Signalverlaufs des oszillierenden Signals erlangt werden. Zum Beispiel kann ein oszillierendes sinusförmiges Signal 87 für eine erste Textur verwendet werden, und eine sich davon abhebende Textur, die einen Eindruck eines schärferen Rands hinterlässt, kann mithilfe eines als eine Rechtweckwelle geformten Signals 88 erlangt werden. Unter Verwendung der vorangehenden Auswahl von Oszillatorsignalen können verschiedene Texturen erlangt werden, darunter wahrgenommene Änderungen einer Höhe, Welligkeit oder Randschärfe.
  • Ein besonders vorteilhaftes Gestensystem, das die variablen Texturen der Erfindung beinhaltet, wird in 9 bis 11 gezeigt. Diese Gesten können das Verwenden von zwei Fingern des Benutzers wie zum Beispiel eines Zeigefingers und des benachbarten Mittelfingers beinhalten. Daher verfügt ein Funktionssymbol 90 über ein zugehöriges Anpassungssymbol 91. In dem in 9 gezeigten ersten Modus gleitet ein Finger 93 des Benutzers über die Anzeige und wird von einer unterscheidbaren Textur 92 geführt, die mithilfe der lokalisierten Texturzuordnung dem Funktionssymbol 90 zugeordnet ist. Sobald der Finger 93 auf dem Symbol 90 ruht, wird der zweite Modus aktiviert, wie in 10 gezeigt, wobei unter Verwendung der Status-Texturzuordnung und anschließend des dann aktuellen Anpassungswerts der Zielfunktion eine Textur 94 über dem Anpassungssymbol 91 erzeugt wird. So lange der Finger 93 in Kontakt mit dem Symbol 90 bleibt, wird die Textur durch den zweiten Modus definiert. Ein zweiter Finger 95 kann dann mit dem Anpassungssymbol 91 interagieren, während eine Textur 94 gemäß der Status-Texturzuordnung in 10 erzeugt wird. Während der Finger 95 in einer Richtung, die eine Zunahme bei der Funktionsanpassungseinstellung zur Folge hat, über das Anpassungssymbol 91 gleitet, nimmt die Intensität der Textur (wie durch eine gesteigerte Intensitätstextur 96 in 11 gezeigt) zu. Diese Anordnung ist sehr vorteilhaft, da der Benutzer den ersten Finger schnell auf dem gewünschten Funktionssymbol platzieren kann, und der zweite Finger wird dann automatisch in dem geeigneten Bereich zum Ausführen von Anpassungen unter Verwendung des zweiten Texturvariationsmodus platziert. Daher kann eine gewünschte Feinabstimmung der Anpassung durch den Benutzer erlangt werden, ohne dass es für den Benutzer erforderlich wäre, weiter auf die Touchscreen-Anzeige zu sehen. Wenn der erste Finger nicht mehr mit dem Symbol 90 in Kontakt steht, schaltet die Textursteuerschaltung möglicherweise automatisch in den ersten Modus zurück, sodass das nächste Funktionssymbol von dem Benutzer ausgewählt werden kann.
  • Der Signalgenerator 16, die über dem gesamten Bildschirm angeordnete Elektrode 17 und die Anzeige, wie sie in 1 gezeigt werden, haben zur Folge, dass dieselbe Textur auf den gesamten Bildschirm angewendet wird. Dies ist möglicherweise bei HMI-Schaltflächen- oder -steuerungsstrategien in Ordnung, bei denen ein Finger verwendet wird, da die Position des Fingers von dem Touchscreen erkannt werden kann und das Textursignal wie erforderlich modifiziert werden kann, um den von dem Touchscreen erkannten Bewegungen des Fingers zu entsprechen. Allerdings wäre es bei Strategien, die zwei Finger erfordern, wie beispielsweise die in 10 und 11 gezeigten, oder um Situationen Rechnung zu tragen, in denen der Benutzer möglicherweise zwei Finger benutzt, um über einen Schieber zu gleiten, was es schwierig macht, die Position des Fingers zu kennen, wünschenswert, dass das aus der Anzeige 11 und den Schichten 17 und 18 bestehende System über die Fähigkeit verfügt, lokalisierte Muster zu erzeugen, in denen unterschiedliche Signale zu genau diesen lokalisierten Gebieten des Bildschirms geleitet werden können, um einige der vorstehend beschriebenen einzigartigen Muster zu erzielen. Dies kann auf mehrere Arten geschehen.
  • Für eine Reibungsstrategie, bei der unterschiedliche Texturen in bestimmten Zonen verwendet werden, wie zum Beispiel die in 6B bis 7C vorgeschlagenen HMI-Verfahren, kann es bevorzugt werden, mehrere Signalgeneratoren zu erstellen, die mit segmentierten Formen auf einer alternativen Version der Schicht 17 in Verbindung stehen, die hier als 17' (nicht gezeigt) bezeichnet wird. Bei der Schicht 17' könnte es sich um eine Leiterplatte mit Kupferleiterbahnen handeln, die die für einen Schieber oder einen Drehknopf erforderlichen Muster darstellen, und dann würde jedes Teil dieser Muster von einer separaten Signalgeneratorquelle mit der zum Erzeugen der gewünschten Texturen erforderlichen geeigneten Signalfrequenz und -amplitude gesteuert werden. Um zum Beispiel den Schieber in 6C zu erzeugen, würden die sechs Segmente 65 bis 70 von entsprechenden Signalgeneratoren 16a, 16b, 16c, 16d, 16e und 16f angesteuert. Alternativ könnten, um die in 10 und 11 gezeigte Drehfunktion zu erzeugen, zwei von den Signalgeneratoren 16a und 16b angesteuerte Zonen vorhanden sein. Über zwei Signalquellen zu verfügen, würde vor der Situation schützen, in der der als Referenzpunkt verwendete Finger möglicherweise verrutscht, während der Kunde die Drehaktion ausführt. Wenn sein Finger verrutscht, würde er dieselbe Textur fühlen wie der wischende Finger, und er wäre wahrscheinlich verwirrt.
  • Dies kann jedoch durch ein Erzeugen von zwei unterschiedlichen Signalfrequenzen und/oder Amplituden für unterschiedliche Zonen gelöst werden.
  • Die Schicht 17' würde sich hinter der Anzeige 11 befinden. Mit der Schicht 17' hinter der Anzeige würde sie ein Ansehen der von der HMI-Steuerung 13 erzeugten Grafiken nicht beeinflussen. Allerdings kann es aufgrund des größeren Abstands zwischen der Oberfläche 18 und der Elektrode 17' erforderlich sein, die Stärke des Signals von dem Generator 16 zu erhöhen, um die gewünschte Signalstärke an der Anzeigeoberfläche 18 beizubehalten. Um eine ausreichende Signalstärke über die Grenzfläche zwischen einem Finger des Benutzers und der Touchscreen-Elektrode sicherzustellen, muss ein ausreichend gleichbleibender Erdungspfad für den Benutzer bereitgestellt werden. Dies kann in der Automobilumgebung mithilfe eines oder mehrerer gleichzeitiger Erdungspfade erreicht werden, die den Benutzer kapazitiv mit einer gemeinsamen Masse eines Fahrzeugs koppeln. Mehrere nicht einschränkende Beispiele für Benutzer-Erdungspfade werden in 12 gezeigt. Ein Sitz 100 eines Benutzers wird auf einem Fahrzeugboden 101 abgestützt. Ein Sicherheitsgurt 102 kann über dem Benutzer festgezogen sein, während dieser sitzt. Zum Bereitstellen eines integrierten leitenden Elements kann der Sicherheitsgurt 102 mit einem äußeren isolierenden flexiblen Material wie zum Beispiel Polyester über einer leitenden Schicht bestehen, die aus einem mit leitenden Füllstoffpartikeln beladenen Polymermaterial hergestellt ist. Alternativ kann der Sicherheitsgurt 102 eine aus leitenden Fasern hergestellte Gewebeschicht aufweisen (wie in der US-Patentschrift 7 871 945 oder der US-Patentschrift 7 886 617 offenbart). Ein Ende des leitenden Elements in dem Sicherheitsgurt 102 ist über den Fahrzeugkörper oder -rahmen (nicht gezeigt) mit einer Masse verbunden. Zusätzlich oder alternativ kann ein aus leitenden Fasern oder einer leitenden Folie (conductive sheet) unterschiedlicher Art hergestelltes leitendes Element in eine Sitzoberfläche einbezogen werden, wie beispielsweise ein leitendes Element 103 in eine Oberfläche eines Sitzunterteils oder ein leitendes Element 104 in eine Oberfläche einer Sitzrückenlehne. Die leitenden Elemente in dem Sicherheitsgurt 102 oder den Sitzoberflächen 103 und 104 stehen in Verbindung mit dem Rumpf des Benutzers, um wirkungsvolle kapazitive Pfade zur Masse zu schaffen. Das leitende Element kann auch durch einen Stahlboden 101 oder eine separate Fußplatte 105 bereitgestellt werden, um durch die Füße des Benutzers eine kapazitive Kopplung herzustellen. In ähnlicher Weise kann ein Brems- oder Gaspedal 106 ein leitendes Element 107 aufweisen, das kapazitiv mit dem Fuß des Benutzers gekoppelt wird. Obwohl dies nicht in 12 gezeigt wird, könnte ein Erdungspfad für den Fahrer auch über das Lenkrad oder einen Gangschaltungs-Wählgriff (gear shift selector handle) oder die Armlehne an der Tür bereitgestellt werden.
  • Aufgrund verschiedener sich ändernder Bedingungen, die mit der kapazitiven Kopplung des Benutzers mit der gemeinsamen Masse über das in den Sicherheitsgurt, die Sitzoberfläche oder andere Fahrzeugstrukturen einbezogene leitende Element zusammenhängende Impedanz, kann die Wirksamkeit eines Erzeugens der wahrgenommenen Texturvariationen beeinträchtigt werden. Um die sich ändernden Bedingungen zu handhaben, kann der Signalgenerator eine konstante Stromquelle verwenden, die automatisch Änderungen der Erdungsimpedanz ausgleicht. Alternativ kann die in dem Signalgenerator bei einem Erzeugen des oszillierenden Signals benutzte Verstärkung auf Grundlage anderer Schätzungen oder Charakterisierungen der Erdungsimpedanz angepasst werden. Wie in 13 gezeigt, kann ein „Masseschätzer“ (ground estimator) 10 Eingaben von einem Temperatursensor 111, einem Gewichtssensor 112, und einem Feuchtigkeitssensor 113 empfangen, die verschiedene Betriebsbedingungen messen, die die Wirksamkeit des Erdungspfads beeinflussen können. Zum Beispiel könnte der Benutzer bei kaltem Wetter zusätzliche Kleidung tragen, wodurch die über leitende Elemente in dem Sicherheitsgurt und Sitz erlangte wirksame Kapazität verringert wird. Folglich erhöht, wenn eine niedrige Umgebungstemperatur erkannt wird, der Masseschätzer 110 einen dem Signalgenerator zugeführten Verstärkungsbefehl zum Verstärken des oszillierenden Signals, sodass die gewünschte Texturwahrnehmung erlangt wird. Durch ein Gewichtssignal von einem Gewichtssensor 112 kann ein Maß einer Körpergröße bereitgestellt werden, das die wirksame Kapazität ebenfalls beeinflussen kann. Der Feuchtigkeitssensor 113 liefert eine Feuchtigkeitsmessung, die die dielektrischen Eigenschaften der Umgebung widerspiegeln kann, die die Massekopplung ebenfalls beeinflussen können, sodass die Verstärkung auf geeignete Weise ausgeglichen werden kann.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 7834857 [0005]
    • US 8269726 [0005]
    • US 2012/0327006 [0006]
    • US 7871945 [0045]
    • US 7886617 [0045]

Claims (10)

  1. Fahrzeugsteuersystem, das umfasst: eine Touchscreen-Anzeige zum Anzeigen einer grafischen HMI und Erkennen eines Berührungspunkts auf der Anzeige, der manuell mithilfe eines Berührens durch einen Finger eines Benutzers erstellt wird; ein haptisches Textursystem mit einer Elektrode, die über der gesamten Touchscreen-Anzeige angeordnet ist, und einem Signalgenerator, der ein oszillierendes Signal erzeugt, um eine Potentialdifferenz zwischen dem Finger und der Elektrode herzustellen, die eine entsprechende wahrgenommene Textur zur Folge hat, während der Finger über die Touchscreen-Anzeige gleitet, und eine Steuerschaltung, die so konfiguriert ist, dass sie mindestens eine Frequenz oder Amplitude des oszillierenden Signals einstellt, um bei einem Navigieren in der grafischen HMI die wahrgenommene Textur gemäß einem ersten und zweiten Modus zu variieren, wobei bei dem ersten Modus eine lokalisierte Texturzuordnung verwendet wird, die durch entsprechende Funktionssymbol-Auswahlbereiche auf der Touchscreen-Anzeige definiert wird, und wobei bei dem zweiten Modus eine Status-Texturzuordnung verwendet wird, durch die die wahrgenommene Textur zu jeder potenziellen Anpassungseinstellung in Beziehung gesetzt wird, die für ein Funktionssymbol zur Verfügung steht, das unter Verwendung des ersten Modus ausgewählt wurde.
  2. System nach Anspruch 1, wobei durch die Status-Texturzuordnung eine Intensität der wahrgenommenen Textur zu einer Intensität der Anpassungseinstellung in Beziehung gesetzt wird.
  3. System nach Anspruch 2, wobei durch die Steuerschaltung die Intensität der wahrgenommenen Textur durch Variieren der Amplitude des oszillierenden Signals variiert wird.
  4. System nach Anspruch 2, wobei durch die Steuerschaltung die Intensität der wahrgenommenen Textur durch Variieren eines Signalverlaufs des oszillierenden Signals variiert wird.
  5. System nach Anspruch 2, wobei die Status-Texturzuordnung in einem Bild eines Einstellschiebers in der grafischen HMI lokalisiert ist.
  6. System nach Anspruch 1, wobei die Potentialanpassungseinstellungen aus einer entsprechenden Ein-Einstellung und einer entsprechenden Aus-Einstellung für das Funktionssymbol bestehen, und wobei durch die Status-Texturzuordnung zwei unterscheidbare Texturen zu der Ein- und Aus-Stellung in Beziehung gesetzt werden.
  7. System nach Anspruch 1, wobei durch die lokalisierte Texturzuordnung in dem ersten Modus keine Textur bei entsprechenden Positionen zwischen entsprechenden Funktionssymbolen bereitgestellt wird und eine maximale Textur bereitgestellt wird, die mit den entsprechenden Funktionsmerkmalen übereinstimmt.
  8. System nach Anspruch 1, wobei durch die Steuerschaltung das oszillierende Signal variiert wird, um bei einer Annäherung an jedes Funktionssymbol eine zunehmende Textur bereitzustellen.
  9. System nach Anspruch 1, wobei die Touchscreen-Anzeige Berührungspunkte für einen ersten und zweiten Finger erkennt, wobei die Steuerschaltung von dem ersten in den zweiten Modus schaltet, nachdem der erste Finger in Kontakt mit einem ausgewählten Funktionssymbol gekommen ist, als Reaktion auf den zweiten Finger in dem zweiten Modus bleibt, während der erste Finger mit dem ausgewählten Funktionssymbol in Kontakt bleibt, und anschließend in den ersten Modus zurückschaltet, wenn der erste Finger nicht mehr in Kontakt mit dem ausgewählten Funktionssymbol steht.
  10. System nach Anspruch 1, wobei die Steuerschaltung als Reaktion auf ein manuelles Auswählen eines ausgewählten Funktionssymbols von dem ersten in den zweiten Modus schaltet und bis zu einem vorgegebenen Ereignis in dem zweiten Modus bleibt.
DE102015207542.7A 2014-04-28 2015-04-24 Automobil-touchscreen-bedienelemente mit simulierter textur für haptische rückmeldung Pending DE102015207542A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/263,053 US9829979B2 (en) 2014-04-28 2014-04-28 Automotive touchscreen controls with simulated texture for haptic feedback
US14/263,053 2014-04-28

Publications (1)

Publication Number Publication Date
DE102015207542A1 true DE102015207542A1 (de) 2015-10-29

Family

ID=54262021

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015207542.7A Pending DE102015207542A1 (de) 2014-04-28 2015-04-24 Automobil-touchscreen-bedienelemente mit simulierter textur für haptische rückmeldung

Country Status (5)

Country Link
US (1) US9829979B2 (de)
CN (1) CN105045377B (de)
DE (1) DE102015207542A1 (de)
MX (1) MX349302B (de)
RU (1) RU2676043C2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019007638A1 (de) 2017-07-04 2019-01-10 Audi Ag Kraftfahrzeug mit einem ausstattungselement und einer bedienvorrichtung
WO2019072496A1 (de) * 2017-10-09 2019-04-18 Böllhoff Verbingungstechnik Gmbh Vorrichtung für sehbehinderte an haushaltsgeräten

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
DE112013002409T5 (de) 2012-05-09 2015-02-26 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzerkontakt
JP2015519656A (ja) 2012-05-09 2015-07-09 アップル インコーポレイテッド ユーザインタフェースオブジェクトを移動し、ドロップするためのデバイス、方法及びグラフィカルユーザインタフェース
WO2013169877A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting user interface objects
JP6002836B2 (ja) 2012-05-09 2016-10-05 アップル インコーポレイテッド ジェスチャに応答して表示状態間を遷移するためのデバイス、方法、及びグラフィカルユーザインタフェース
JP6182207B2 (ja) 2012-05-09 2017-08-16 アップル インコーポレイテッド ユーザインタフェースオブジェクトのアクティブ化状態を変更するためのフィードバックを提供するためのデバイス、方法、及びグラフィカルユーザインタフェース
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
CN108287651B (zh) 2012-05-09 2021-04-13 苹果公司 用于针对在用户界面中执行的操作提供触觉反馈的方法和装置
CN105144057B (zh) 2012-12-29 2019-05-17 苹果公司 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面
JP6097843B2 (ja) 2012-12-29 2017-03-15 アップル インコーポレイテッド コンテンツをスクロールするか選択するかを判定するためのデバイス、方法、及びグラフィカルユーザインタフェース
US10437376B2 (en) * 2013-09-27 2019-10-08 Volkswagen Aktiengesellschaft User interface and method for assisting a user in the operation of an operator control unit
WO2015103439A1 (en) 2014-01-03 2015-07-09 Harman International Industries, Incorporated Gesture interactive wearable spatial audio system
USD776200S1 (en) * 2014-05-27 2017-01-10 Amazon Technologies, Inc. Label with a touch graphic
USD771123S1 (en) * 2014-09-01 2016-11-08 Apple Inc. Display screen or portion thereof with multi-state graphical user interface
FR3026866B1 (fr) * 2014-10-02 2019-09-06 Dav Dispositif et procede de commande pour vehicule automobile
US20160162092A1 (en) * 2014-12-08 2016-06-09 Fujitsu Ten Limited Operation device
US9836124B2 (en) * 2014-12-31 2017-12-05 Harman International Industries, Incorporated Techniques for dynamically changing tactile surfaces of a haptic controller to convey interactive system information
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
TW201636233A (zh) * 2015-04-14 2016-10-16 鴻海精密工業股份有限公司 車輛控制系統及其操作方法
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
WO2016206069A1 (en) * 2015-06-26 2016-12-29 Microsoft Technology Licensing, Llc Passive haptics as reference for active haptics
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
JP6625372B2 (ja) * 2015-08-27 2019-12-25 株式会社デンソーテン 入力装置および車載装置
US20170060245A1 (en) * 2015-08-31 2017-03-02 Fujitsu Ten Limited Input device, integrated input system, input device control method, and program
US9940001B2 (en) * 2015-12-15 2018-04-10 Camar Aps Drag and release navigation
JP6613170B2 (ja) * 2016-02-23 2019-11-27 京セラ株式会社 車両用コントロールユニット及びその制御方法
US10591993B2 (en) 2016-09-21 2020-03-17 Apple Inc. Haptic structure for providing localized haptic output
CN111610858B (zh) * 2016-10-26 2023-09-19 创新先进技术有限公司 基于虚拟现实的交互方法及装置
DE102017219332A1 (de) * 2016-11-13 2018-05-17 Honda Motor Co., Ltd. Mensch-fahrzeug-interaktion
GB201713301D0 (en) * 2017-08-18 2017-10-04 Revolutioneyes Me Ltd Communication method
US10416772B2 (en) 2017-09-06 2019-09-17 Apple Inc. Electrical haptic output array
US11459268B2 (en) * 2017-09-12 2022-10-04 Corning Incorporated Tactile elements for deadfronted glass and methods of making the same
KR101969805B1 (ko) * 2017-09-15 2019-08-20 엘지전자 주식회사 차량 제어 장치 및 그것을 포함하는 차량
US10585482B2 (en) 2017-09-27 2020-03-10 Apple Inc. Electronic device having a hybrid conductive coating for electrostatic haptics
US10775890B2 (en) 2017-09-27 2020-09-15 Apple Inc. Electronic device having a piezoelectric body for friction haptics
US10248211B1 (en) 2017-09-28 2019-04-02 Apple Inc. Ground-shifted touch input sensor for capacitively driving an electrostatic plate
WO2020064868A1 (en) * 2018-09-25 2020-04-02 Agc Glass Europe Vehicle control device and manufacturing method thereof
WO2020094214A1 (en) * 2018-11-06 2020-05-14 Volvo Truck Corporation A finger-position sensitive human machine interface for handling a user input of a user and a method for handling a user input of a user of a finger-position sensitive human machine interface
US10884614B1 (en) * 2018-11-30 2021-01-05 Zoox, Inc. Actuation interface
DE102018221352A1 (de) * 2018-12-10 2020-06-10 Volkswagen Aktiengesellschaft Verfahren zum Bereitstellen einer Benutzerschnittstelle und Benutzerschnittstelle eines Fahrzeugs
US10776004B1 (en) * 2019-05-07 2020-09-15 Capital One Services, Llc Methods and devices for providing candidate inputs
WO2021139864A2 (en) 2020-01-06 2021-07-15 Camar Aps Tactile proactive guidance solution in touchscreens
WO2022000505A1 (zh) * 2020-07-03 2022-01-06 瑞声声学科技(深圳)有限公司 双指触觉交互方法、终端及介质
USD997107S1 (en) * 2020-12-04 2023-08-29 Zoox, Inc. Door interface system having an animated visual indicator
CN115027386B (zh) * 2022-04-29 2023-08-22 北京龙腾佳讯科技股份公司 基于汽车云栈的车载服务控制方法、系统、装置及介质
TWI823469B (zh) * 2022-07-11 2023-11-21 矽統科技股份有限公司 電子系統振動回饋方法以及振動回饋電子系統

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7834857B2 (en) 2005-09-14 2010-11-16 Volkswagen Ag Input device having a touch panel and haptic feedback
US7871945B2 (en) 2003-09-24 2011-01-18 Johann Berger Woven webbing
US7886617B2 (en) 2006-01-13 2011-02-15 Nissan Motor Co., Ltd. Cloth for electric device
US8269726B2 (en) 2005-12-01 2012-09-18 Volkswagen Ag Input device
US20120327006A1 (en) 2010-05-21 2012-12-27 Disney Enterprises, Inc. Using tactile feedback to provide spatial awareness

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9513744B2 (en) * 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
US7489303B1 (en) 2001-02-22 2009-02-10 Pryor Timothy R Reconfigurable instrument panels
US6429846B2 (en) * 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US7466843B2 (en) 2000-07-07 2008-12-16 Pryor Timothy R Multi-functional control and entertainment systems
US6897390B2 (en) 2001-11-20 2005-05-24 Touchsensor Technologies, Llc Molded/integrated touch switch/control panel assembly and method for making same
ES2257583T3 (es) 2001-12-12 2006-08-01 Koninklijke Philips Electronics N.V. Sistema de visualizacion con guiado tactil.
US20060066569A1 (en) * 2003-12-08 2006-03-30 Immersion Corporation, A Delaware Corporation Methods and systems for providing haptic messaging to handheld communication devices
JP2006011646A (ja) 2004-06-23 2006-01-12 Pioneer Electronic Corp 触覚表示装置及び触覚表示機能付タッチパネル装置
JP2008033739A (ja) * 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
EP2069893A1 (de) 2006-09-27 2009-06-17 Nokia Corporation Tastberührungsschirm
US8098235B2 (en) * 2007-09-28 2012-01-17 Immersion Corporation Multi-touch device having dynamic haptic effects
KR101498622B1 (ko) * 2008-06-25 2015-03-04 엘지전자 주식회사 촉각 효과를 제공하는 휴대 단말기 및 그 제어방법
RU2402439C1 (ru) * 2009-03-31 2010-10-27 Михаил Викторович Ерещенко Бортовая информационная система
JP5429636B2 (ja) * 2009-04-10 2014-02-26 Nltテクノロジー株式会社 タッチセンサ装置及びこれを備えた電子機器
US8593420B1 (en) * 2011-03-04 2013-11-26 Amazon Technologies, Inc. Providing tactile output and interaction
JP5352619B2 (ja) * 2011-04-13 2013-11-27 株式会社日本自動車部品総合研究所 操作入力装置
US20120268386A1 (en) * 2011-04-19 2012-10-25 Karamath James Robert Touch-screen device including tactile feedback actuator
US8890674B2 (en) 2011-06-07 2014-11-18 Continental Automotive Systems, Inc. Driver assistance detection system
US9248840B2 (en) * 2013-12-20 2016-02-02 Immersion Corporation Gesture based input system in a vehicle with haptic feedback

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7871945B2 (en) 2003-09-24 2011-01-18 Johann Berger Woven webbing
US7834857B2 (en) 2005-09-14 2010-11-16 Volkswagen Ag Input device having a touch panel and haptic feedback
US8269726B2 (en) 2005-12-01 2012-09-18 Volkswagen Ag Input device
US7886617B2 (en) 2006-01-13 2011-02-15 Nissan Motor Co., Ltd. Cloth for electric device
US20120327006A1 (en) 2010-05-21 2012-12-27 Disney Enterprises, Inc. Using tactile feedback to provide spatial awareness

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019007638A1 (de) 2017-07-04 2019-01-10 Audi Ag Kraftfahrzeug mit einem ausstattungselement und einer bedienvorrichtung
DE102017211310A1 (de) 2017-07-04 2019-01-10 Audi Ag Kraftfahrzeug mit einem Ausstattungselement und einer Bedienvorrichtung
WO2019072496A1 (de) * 2017-10-09 2019-04-18 Böllhoff Verbingungstechnik Gmbh Vorrichtung für sehbehinderte an haushaltsgeräten

Also Published As

Publication number Publication date
RU2015115581A (ru) 2016-11-20
MX2015005073A (es) 2015-10-27
CN105045377A (zh) 2015-11-11
MX349302B (es) 2017-07-21
US20150309573A1 (en) 2015-10-29
US9829979B2 (en) 2017-11-28
CN105045377B (zh) 2020-11-27
RU2676043C2 (ru) 2018-12-25
RU2015115581A3 (de) 2018-10-16

Similar Documents

Publication Publication Date Title
DE102015207542A1 (de) Automobil-touchscreen-bedienelemente mit simulierter textur für haptische rückmeldung
EP3155723B1 (de) Folie mit integrierter sensorik
US20180088770A1 (en) Automotive touchscreen with simulated texture for the visually impaired
EP2121372B1 (de) Berührungslos aktivierbare anzeige- und bedienvorrichtung
EP3507681B1 (de) Verfahren zur interaktion mit bildinhalten, die auf einer anzeigevorrichtung in einem fahrzeug dargestellt werden
EP1977926B1 (de) Bedieneinheit und Bedienverfahren
DE112014004648T5 (de) Selbstkalibrierende taktile haptische Multitouch-, Multifunktionsschalttafel
DE102007020593A1 (de) Eingabeeinrichtung
DE112017006335T5 (de) Tast- und Hörsinn-Präsentationsvorrichtung
DE102015211358A1 (de) Eingabevorrichtung für fahrzeuge und fahrzeugcockpitmodul
DE112014001851T5 (de) Eingabevorrichtung
WO2018224320A1 (de) Verfahren zum betreiben einer anzeigeanordnung eines kraftfahrzeugs, bedienvorrichtung, und kraftfahrzeug
DE102009038044A1 (de) Fahrzeug und Verfahren zum Betreiben einer Bedieneinrichtung des Fahrzeugs
DE102011012838A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle, insbesondere in einem Fahrzeug
DE10204856A1 (de) Fahrzeuginnenkomponente mit einer eine integrierte Schaltung aufweisenden, flexiblen Abdeckung
DE102015211357A1 (de) Eingabevorrichtung für fahrzeuge
DE102015205931A1 (de) Bedienvorrichtung und Verfahren zum Bedienen zumindest einer Funktion eines Fahrzeugs
DE102017121342A1 (de) Anzeigesteuerungsvorrichtung, anzeigesteuerungssystem und anzeigesteuerungsverfahren
DE102013000069B4 (de) Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung
DE102009037401A1 (de) Fahrzeug mit einer Bedieneinrichtung
JP6749909B2 (ja) 自動車の制御装置および制御方法
EP2808775A2 (de) Controller für ein Informationswiedergabesystem für ein Fahrzeug
DE102009039114B4 (de) Bedienvorrichtung für ein Fahrzeug
WO2014026853A1 (de) Verfahren zum bereitstellen einer bedienvorrichtung in einem fahrzeug und bedienvorrichtung für ein fahrzeug
DE202017107593U1 (de) Elektrische Steueranordnung für ein Fahrzeug und Innenraum-Verkleidungselement für ein Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: PATERIS THEOBALD ELBEL & PARTNER, PATENTANWAEL, DE

Representative=s name: PATERIS THEOBALD ELBEL FISCHER, PATENTANWAELTE, DE

R084 Declaration of willingness to licence