DE102010030190A1 - Automatisch konfigurierbares Mensch-Maschine-Schnittstellensystem mit austauschbaren Benutzerschnittstellenfeldern - Google Patents

Automatisch konfigurierbares Mensch-Maschine-Schnittstellensystem mit austauschbaren Benutzerschnittstellenfeldern Download PDF

Info

Publication number
DE102010030190A1
DE102010030190A1 DE102010030190A DE102010030190A DE102010030190A1 DE 102010030190 A1 DE102010030190 A1 DE 102010030190A1 DE 102010030190 A DE102010030190 A DE 102010030190A DE 102010030190 A DE102010030190 A DE 102010030190A DE 102010030190 A1 DE102010030190 A1 DE 102010030190A1
Authority
DE
Germany
Prior art keywords
sensor section
machine interface
interface system
section
man
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102010030190A
Other languages
English (en)
Inventor
Thomas John Novi Buckingham
David Michael Saline Whitton
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Visteon Global Technologies Inc
Original Assignee
Visteon Global Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visteon Global Technologies Inc filed Critical Visteon Global Technologies Inc
Publication of DE102010030190A1 publication Critical patent/DE102010030190A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Abstract

Es wird ein Mensch-Maschine-Schnittstellensystem offenbart. Das Mensch-Maschine-Schnittstellensystem umfasst einen Sensorabschnitt, der dazu geeignet ist, ein Vorliegen und eine Lage einer Berührung zu erfassen, einen Benutzereingabeabschnitt, der lösbar mit dem Sensorabschnitt gekoppelt ist, wobei der Benutzereingabeabschnitt ein Zeichen umfasst, das eine Bedienfunktion darstellt, die mit dem Sen Verbindung mit dem Sensorabschnitt, um die Bedienfunktion, die mit dem Sensorabschnitt verknüpft ist, basierend auf dem Benutzereingabeabschnitt zu konfigurieren.

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft eine Mensch-Maschine-Schnittstelle (HMI). Insbesondere betrifft die Erfindung ein HMI-System, das eine Vielzahl von austauschbaren Benutzerschnittstellenfeldern umfasst.
  • ALLGEMEINER STAND DER TECHNIK
  • Die OEM-Hersteller und Lieferanten im Automobilbereich sind bemüht, Fahrzeuginnenausstattungen mit Bedienelementen zu entwickeln und zu verbessern, die für Fahrer und Passagiere möglichst einfach zu erreichen und zu bedienen sind. Diese Bemühungen, die sich auf die Qualität der HMI (Mensch-Maschine-Schnittstelle) konzentrieren, betreffen Elemente wie Lage und Funktion der Benutzereingabezonen (früher wären dies Schalter und/oder Knöpfe gewesen) sowie Verfahren, um bestimmte Eingabezonen selektiv mit bestimmten Funktionen durch selektive und/oder neu konfigurierbare Beleuchtung zu verknüpfen. Ist die Lage der Eingabezone einmal bestimmt (typischerweise durch den OEM-Hersteller), so ist nur noch die Möglichkeit einer Funktionsänderung gegeben.
  • Es gibt zahlreiche Patente, die neu konfigurierbare Bedienfelder beschreiben. Manche Patente beschreiben Verfahren zum Andern der Beleuchtung oder der Funktion der Benutzerschnittstellenpunkte. Beispielsweise beschreibt das US-Patent Nr. 6,529,125 ein Bedienfeld für ein Fahrzeug mit „mindestens einem” Multifunktions-Einstellschalter und Betriebsart-Wählschalter zum manuellen Auswählen zwischen mindestens zwei Betriebsarten. Beleuchtungsvariationen werden verwendet, um die Eingabezonen in der ausgewählten Betriebsart anzuzeigen. Eine automatische Neukonfiguration von Benutzereingabefeldern für Funktion und Lage wird jedoch nicht besprochen.
  • Als weiteres Beispiel erläutern die folgenden Patente den Stand der bestehenden und bekannten Technik mit Bezug auf konfigurierbare Felder und HMI:
    • das europäische Patent Nr. 0 854 798 beschreibt ein Fahrerbedienungs-Schnittstellensystem, das selektiv aktivierte Merkmalsgruppen umfasst, die Teilsätze von Merkmalsgruppen umfassen können, die eine Anpassung/Personalisierung ermöglichen;
    • das US-Patent Nr. 6,441,510 offenbart eine neu konfigurierbare modulare Kombi-Instrument-Anordnung, die ein konfigurierbares Armaturenbrett umfasst, die es ermöglicht, die Konfiguration „gegen Ende des Montageverfahrens” vorzunehmen; und
    • die US-Patente Nr. 5,999,104 und 6,005,488 beschreiben eine Benutzerbedienungs-Schnittstellenarchitektur für elektronische Automobilsysteme und ein Verfahren zum Herstellen anpassbarer elektronischer Automobilsysteme, um kleinere Änderungen an einer Benutzerbedienungs-HMI vorzunehmen, ohne die Steuerungs-Software zu ändern.
  • Keine der bisherigen Bemühungen hat es einem Endbenutzer ermöglicht, seine Eingabezonen zu positionieren oder anzuordnen und das Bedienfeld zu veranlassen, sich automatisch neu zu konfigurieren, damit es die neue Position der Eingabezone versteht und akzeptiert.
  • Es wäre wünschenswert, ein Mensch-Maschine-Schnittstellensystem und ein Verfahren zur automatischen Konfiguration des Mensch-Maschine-Schnittstellensystems zu entwickeln, wobei das System und das Verfahren basierend auf mindestens entweder einer Art, einer Position oder einer Orientierung eines Benutzereingabeabschnitts im Verhältnis zum Sensorabschnitt jeweils eine automatische Neukonfiguration einer Bedienfunktion eines Sensorabschnitts bereitstellen.
  • KURZDARSTELLUNG DER ERFINDUNG
  • In Übereinstimmung mit und gemäß der vorliegenden Erfindung wurden überraschenderweise ein Mensch-Maschine-Schnittstellensystem und ein Verfahren zur automatischen Konfiguration des Mensch-Maschine-Schnittstellensystems entdeckt, wobei das System und das Verfahren basierend auf mindestens entweder einer Art, einer Position oder einer Orientierung eines Benutzereingabeabschnitts im Verhältnis zum Sensorabschnitt jeweils eine automatische Neukonfiguration einer Bedienfunktion eines Sensorabschnitts bereitstellen.
  • Bei einer Ausführungsform umfasst ein Mensch-Maschine-Schnittstellensystem folgendes: einen Sensorabschnitt, der dazu geeignet ist, ein Vorliegen und eine Lage einer Berührung zu erfassen; einen Benutzereingabeabschnitt, der lösbar mit dem Sensorabschnitt gekoppelt ist, wobei der Benutzereingabeabschnitt ein Zeichen umfasst, das eine Bedienfunktion darstellt, die mit dem Sensorabschnitt verknüpft ist; und ein Steuergerät in Verbindung mit dem Sensorabschnitt, um basierend auf dem Benutzereingabeabschnitt die Bedienfunktion, die mit dem Sensorabschnitt verknüpft ist, zu konfigurieren.
  • Bei einer anderen Ausführungsform eines Mensch-Maschine-Schnittstellensystems zum Bedienen eines Fahrzeugsystems umfasst die Mensch-Maschine-Schnittstelle folgendes: einen Sensorabschnitt, der dazu geeignet ist, ein Vorliegen und eine Lage einer Berührung zu erfassen; einen Benutzereingabeabschnitt, der lösbar mit dem Sensorabschnitt gekoppelt ist, wobei der Benutzereingabeabschnitt ein Zeichen, das eine Bedienfunktion darstellt, die mit dem Sensorabschnitt verknüpft ist, ein Feldidentifizierungsmerkmal und ein Orientierungsbezugsmerkmal umfasst; ein Steuergerät in Verbindung mit dem Sensorabschnitt, um basierend auf mindestens entweder dem Feldidentifizierungsmerkmal oder dem Orientierungsbezugsmerkmal die Bedienfunktion, die mit dem Sensorabschnitt verknüpft ist, zu konfigurieren.
  • Die Erfindung stellt auch Verfahren bereit für die automatische Konfiguration eines Mensch-Maschine-Schnittstellensystems.
  • Ein Verfahren umfasst die Schritte des Bereitstellens eines Sensorabschnitts, der dazu geeignet ist, ein Vorliegen und eine Lage einer Berührung zu erfassen; des Bereitstellens eines Benutzereingabeabschnitts, der lösbar mit dem Sensorabschnitt gekoppelt ist, wobei der Benutzereingabeabschnitt ein Zeichen, das eine Bedienfunktion darstellt, die mit dem Sensorabschnitt verknüpft ist, ein Feldidentifizierungsmerkmal und ein Orientierungsbezugsmerkmal umfasst; des Erfassens des Feldidentifizierungsmerkmals; des Erfassens des Orientierungsbezugsmerkmals; und des Konfigurierens der Bedienfunktion, die mit dem Sensorabschnitt verknüpft ist, basierend auf mindestens entweder dem Feldidentifizierungsmerkmal oder auf dem Orientierungsbezugsmerkmal.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die obigen sowie weitere Vorteile der vorliegenden Erfindung werden für den Fachmann ohne Weiteres aus der nachstehenden ausführlichen Beschreibung der bevorzugten Ausführungsform hervorgehen, wenn sie mit Bezug auf die beiliegenden Zeichnungen gesehen wird. Es zeigen:
  • 1 eine perspektivische Ausschnittsansicht einer Innenausstattung eines Fahrzeugs, die eine Mensch-Maschine-Schnittstelle nach einer Ausführungsform der Erfindung umfasst.
  • 2 ein schematisches Diagramm der Mensch-Maschine-Schnittstelle aus 1, welche die Mensch-Maschine-Schnittstelle in Verbindung mit einem Fahrzeugsystem zeigt.
  • AUSFÜHRLICHE BESCHREIBUNG VON AUSFÜHRUNGSBEISPIELEN DER ERFINDUNG
  • Die nachstehende ausführliche Beschreibung und die beiliegenden Zeichnungen beschreiben und erläutern verschiedene Ausführungsformen der Erfindung. Die Beschreibung und Zeichnungen dienen dazu, es dem Fachmann zu ermöglichen, die Erfindung durchzuführen und zu benutzen, und sind nicht dazu gedacht, den Umfang der Erfindung auf irgendeine Art und Weise einzuschränken. Mit Bezug auf die offenbarten Verfahren sind die vorgestellten Schritte beispielhaft, und somit ist die Reihenfolge der Schritte weder notwendig noch ausschlaggebend.
  • 1 und 2 bilden ein Mensch-Maschine-Schnittstellensystem (HMI) 10 ab, das in einer Zentralkonsole eines Fahrzeugs gemäß einer Ausführungsform der vorliegenden Erfindung angeordnet ist. Die HMI 10 kann jedoch in einer beliebigen Position angeordnet sein und je nach Bedarf bei anderen Anwendungen verwendet werden. Wie gezeigt, umfasst die HMI 10 einen Sensorabschnitt 12, ein Steuergerät 14 und eine Vielzahl von Benutzereingabeabschnitten 16. Bei der gezeigten Ausführungsform steht die HMI 10 in Verbindung mit einem Fahrzeugsystem 18. Es versteht sich, dass das Fahrzeugsystem 18 ein beliebiges benutzergesteuertes System sein kann, wie z. B. ein Audiosystem, ein Klimasteuerungssystem, ein Navigationssystem, ein Videosystem, ein Fahrzeuginformationssystem, ein Fahrtencomputer und ein Fahreraufmerksamkeitssystem. Es können auch andere Systeme von der HMI 10 gesteuert werden. Es versteht sich ferner, dass eine beliebige Anzahl von Sensorabschnitten, Steuergeräten und Benutzereingabeabschnitten verwendet werden kann.
  • Der Sensorabschnitt 12 ist typischerweise ein berührungsempfindlicher Abschnitt, der dazu geeignet ist, ein Vorliegen und eine Lage einer Berührung (Finger oder Fühlerstift) innerhalb eines vorbestimmten Sensorbereichs zu erfassen und ein Sensorsignal zu erzeugen, das mindestens die Lage der erfassten Berührung darstellt. Es versteht sich, dass eine beliebige Berührungssensor-Technologie verwendet werden kann, wie z. B. kapazitive Erfassung, induktive Erfassung, Infraroterfassung, akustische Erfassung und optische Erfassung. Es versteht sich ferner, dass der Sensorabschnitt 12 in eine beliebige Oberfläche des Fahrzeugs eingebaut sein kann. Als nicht einschränkendes Beispiel wird der Sensorabschnitt 12 gezeigt, wie er in die Zentralkonsole des Fahrzeugs eingebaut ist. Jede beliebige, flache oder gekrümmte Oberfläche kann jedoch den Sensorabschnitt 12 umfassen.
  • Das Steuergerät 14 ist dazu geeignet, um das Sensorsignal zu empfangen, das Sensorsignal zu analysieren und mindestens ein Fahrzeugsystem 18 als Reaktion auf die Analyse des Sensorsignals zu steuern. Bei bestimmten Ausführungsformen umfasst das Steuergerät 14 einen Prozessor 20 und ein Speichersystem 22. Der Prozessor 20 ist dazu geeignet, das Sensorsignal auf einem Befehlssatz 24 basierend zu analysieren. Der Befehlssatz 24, der innerhalb eines beliebigen computerlesbaren Datenträgers ausgebildet sein kann, umfasst von einem Prozessor ausführbare Anweisungen zum Konfigurieren des Prozessors 20, um diverse Aufgaben auszuführen. Das Speichersystem 22 kann eine einzelne Speichervorrichtung sein, oder es kann sich um mehrere Speichervorrichtungen handeln. Bestimmte Abschnitte des Speichersystems 22 können sich auch auf dem Prozessor 20 befinden. Ferner kann das Speichersystem 22 ein Festzustand-Speichersystem, ein magnetisches Speichersystem, ein optisches Speichersystem oder ein beliebiges anderes geeignetes Speichersystem sein. Es versteht sich, dass das Speichersystem 22 dazu geeignet ist, um den Befehlssatz 24 zu speichern. Je nach Bedarf können weitere Daten und Informationen in dem Speichersystem 22 gespeichert werden.
  • Eine Funktionsidentifizierungs-Verweistabelle 26 ist ebenfalls in dem neu programmierbaren Arbeitsspeicher des Speichersystems 22 gespeichert. Die Verweistabelle 26 enthält eine Abbildung der Sensorsignale auf spezifische Funktionsidentifizierungscodes, die mit den Bedienfunktionen des Sensorabschnitts 12 verknüpft sind. Es versteht sich, dass das Neuprogrammieren der Verweistabelle 26 die Bedienfunktionen und die Architektur der HMI 10 ändert.
  • Das Steuergerät 14 kann ferner ein programmierbares Bauteil 28 umfassen. Das programmierbare Bauteil 28 steht mit dem Prozessor 20 in Verbindung. Es versteht sich, dass das programmierbare Bauteil 28 mit einem beliebigen anderen Bauteil, wie z. B. dem Fahrzeugsystem 18 und dem Speichersystem 22, in Verbindung stehen kann. Bei bestimmten Ausführungsformen ist das programmierbare Bauteil 28 dazu geeignet, Verarbeitungsfunktionen des Prozessors 20 zu handhaben und zu steuern. Insbesondere ist das programmierbare Bauteil 28 dazu geeignet, um die Analyse des Sensorsignals zu steuern. Es versteht sich, dass das programmierbare Bauteil 28 dazu geeignet sein kann, das Fahrzeugsystem 18 zu handhaben und zu steuern. Es versteht sich ferner, dass das programmierbare Bauteil 28 dazu geeignet sein kann, um Daten und Informationen auf dem Speichersystem 22 zu speichern, und um Daten und Informationen aus dem Speichersystem 22 abzurufen. Wenn das Steuergerät 14 ein programmierbares Bauteil 28 umfasst, kann die Analyse des Sensorsignals durch das Steuergerät 14 vorprogrammiert werden. Es versteht sich, dass die Analyse des Sensorsignals in Echtzeit eingestellt werden kann oder von dem OEM-Hersteller oder Benutzer vorprogrammiert werden kann. Es versteht sich ferner, dass die Funktionen des Steuergeräts 14 über gespeicherte Einstellungen verfügen können, die je nach Bedarf aufgerufen und verarbeitet werden können.
  • Die Benutzereingabeabschnitte 16 sind typischerweise laminierte Applikationen, die eine Vielzahl von grafischen Zeichen 30 aufweisen, um bestimmte Bedienfunktionen darzustellen, die mit dem Sensorabschnitt 12 verknüpft sind. Der Benutzereingabeabschnitt 16 kann z. B. Zeichen aufweisen, die sich auf Audiobedienelemente beziehen. Als weiteres Beispiel kann der Benutzereingabeabschnitt 16 Zeichen aufweisen, die sich auf Klimabedienelemente beziehen. Es versteht sich, dass der Benutzereingabeabschnitt 16 Zeichen aufweisen kann, die sich auf die Bedienung des Fahrzeugsystems 18 beziehen. Als nicht einschränkendes Beispiel können die Benutzereingabeabschnitte 16 aus geformtem Kunststoff, einem geformten Material (Gummi, Kunststoffbogenware) oder bearbeiteten Materialien (Holz, usw.) oder aus einem von einer Unterstruktur getragenen Gewebe gebildet werden. Es können andere unbiegsame und biegsame Materialien verwendet werden.
  • Wie deutlicher in 2 abgebildet, umfassen die Benutzereingabeabschnitte 16 ferner ein Feldidentifizierungsmerkmal 32 und Orientierungsbezugsmerkmale 34. Das Feldidentifizierungsmerkmal 32 stellt Informationen mit Bezug auf Art, Struktur, Form und Zeichen des Benutzereingabeabschnitts 16 dar. Es versteht sich, dass jeder einer Vielzahl der Benutzereingabeabschnitte 16 einzigartige Feldidentifizierungsmerkmale 32 aufweisen kann. Bei bestimmten Ausführungsformen ist das Feldidentifizierungsmerkmal 32 eine Vielzahl von sensorlesbaren Punkten oder Elementen, die auf einer Sensorseite des Benutzereingabeabschnitts 16 angeordnet sind. Das Feldidentifizierungsmerkmal 32 wird von dem darunterliegenden Sensorabschnitt 12 erfasst und analysiert bzw. „abgelesen”. Als nicht einschränkendes Beispiel ist das Feldidentifizierungsmerkmal 32 mindestens entweder ein infrarotlesbarer Strichcode, der mit Infrarottinten auf einer Oberfläche des Benutzereingabeabschnitts 16 geschrieben wird, oder ein leitfähiges oder metallisches Muster, das von einer induktiven oder kapazitiven Sensoroberfläche erfasst werden kann. Es versteht sich, dass andere Tinten, Punkte, Muster und Elemente verwendet werden können, wie z. B. ein optisch lesbares Zeichen.
  • Wie gezeigt, sind drei Orientierungsbezugsmerkmale 34 enthalten, wobei jedes Orientierungsbezugsmerkmal 34 durch das spezifische darunterliegende Sensorsystem 12 lesbar ist. Es kann jedoch eine beliebige Anzahl von Orientierungsbezugsmerkmalen 34 verwendet werden. Als nicht einschränkendes Beispiel sind die Orientierungsbezugsmerkmale 34 mindestens entweder ein infrarotlesbares Zeichen, ein leitfähiges Muster oder ein optisches Zeichen. Die Orientierungsbezugsmerkmale 34 werden auf einer dem Sensor zugewandten Seite des Benutzereingabeabschnitts 16 angeordnet, um einen Positionsbezugspunkt bereitzustellen, um eine Winkeldrehung des Benutzereingabeabschnitts 16 zu bestimmen. Es versteht sich, dass die Orientierungsbezugsmerkmale 34 eine beliebige Anzahl von Punkten oder Zeichen umfassen können.
  • Im Gebrauch ist der Benutzereingabeabschnitt 16 lösbar mit dem Sensorabschnitt 12 gekoppelt. Es versteht sich, dass der Benutzereingabeabschnitt 16 mit dem Sensorabschnitt 12 unter Verwendung diverser druckempfindlicher Klebstoffe, eines mechanischen Druckverfahrens und eines magnetischen Kopplungsmittels gekoppelt werden kann. Es können andere Kopplungsmittel verwendet werden, vorausgesetzt die Kopplungsmittel stören die Sensortechnologie des Sensorabschnitts 12 nicht. Nach der Kopplung erfasst der Sensorabschnitt 12 eine Lage, Orientierung und Art des Benutzereingabeabschnitts 16, indem er das Feldidentifizierungsmerkmal 32 und die Orientierungsmerkmale 34 erfasst. Insbesondere wird ein Sensorsignal von dem Sensorabschnitt 12 an das Steuergerät 14 übertragen. Das Steuergerät 14 verarbeitet das Sensorsignal, das die Informationen umfasst, die aus dem Feldidentifizierungsmerkmal 32 und den Orientierungsbezugsmerkmalen 34 erfasst werden. Das Steuergerät 14 stellt die Bedienfunktion des Sensorabschnitts 12 als Reaktion auf das bestimmte Benutzereingabefeld 16 ein, das mit dem Sensorabschnitt 12 gekoppelt ist. Insbesondere stellt das Steuergerät 14 die Bedienfunktion des Sensorabschnitts 12 als Reaktion auf das Benutzeridentifizierungsmerkmal 32 und die Orientierungsbezugsmerkmale 34 ein. Es versteht sich, dass eine beliebige Anzahl von Benutzereingabeabschnitten 16 mit dem Sensorabschnitt 12 gekoppelt und dadurch erfasst werden kann.
  • Bei bestimmten Ausführungsformen wird das Sensorsignal als Adresse verwendet, um auf eine Lage innerhalb einer Funktionsidentifizierungs-Verweistabelle 26 zu zeigen, um die Bedienfunktion des Sensorabschnitts 12 zu ändern. Die Verweistabelle 26 ist z. B. mit einem Bedienfunktions-Identifizierungscode vorprogrammiert, der eine gewünschte Einstellung für das Fahrzeugsystem 18 als Reaktion auf die Aktivierung der Bedienfunktion des Sensorabschnitts 12 durch den Benutzer identifiziert.
  • Als nicht einschränkendes Beispiel kann einer der Benutzereingabeabschnitte 16 mit einer Audiobedienfunktion verknüpft werden, und daher stellt das Feldidentifizierungsmerkmal 32 die Audiobedienfunktion dar. Wenn somit der Benutzereingabeabschnitt 16, der das Audiobedienelement darstellt, mit dem Sensorabschnitt 12 gekoppelt ist, erfasst der Sensorabschnitt 12 das Feldidentifizierungsmerkmal 32 und das Steuergerät 14 ändert die Bedienfunktion des Sensorabschnitts 12, damit sie zu der Struktur und Funktionsdarstellung des Benutzereingabeabschnitts 16 (z. B. Audiobedienelement) passt.
  • Die vorliegende Erfindung unterscheidet sich von anderen, weil sie eine automatisch konfigurierbare HMI ermöglicht. Die Erfindung ermöglicht es dem Benutzer, die Benutzereingabeabschnitte 16 an beliebiger Stelle in einem vorherbestimmten Bereich anzuordnen, der mit dem Sensorabschnitt 12 verknüpft ist. Art, Lage und Orientierung des Benutzereingabeabschnitts 16 werden erfasst, und der Sensorabschnitt 12, das Steuergerät 14 und das Fahrzeugsystem 18 werden automatisch konfiguriert, um auf geeignete Art und Weise zusammenzuwirken, wenn eine gewünschte Bedienfunktion ausgewählt wird.
  • Aus der vorstehenden Beschreibung kann der Fachmann ohne Weiteres die wesentlichen Kennzeichen der vorliegenden Erfindung ermitteln und, ohne ihren Geist und Umfang zu verlassen, diverse Änderungen und Modifikationen an der Erfindung vornehmen, um sie verschiedenen Anwendungen und Verhältnissen anzupassen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 6529125 [0003]
    • - EP 0854798 [0004]
    • - US 6441510 [0004]
    • - US 5999104 [0004]
    • - US 6005488 [0004]

Claims (20)

  1. Mensch-Maschine-Schnittstellensystem, umfassend: einen Sensorabschnitt, der dazu geeignet ist, ein Vorliegen und eine Lage einer Berührung zu erfassen; einen Benutzereingabeabschnitt, der lösbar mit dem Sensorabschnitt gekoppelt ist, wobei der Benutzereingabeabschnitt ein Zeichen umfasst, das eine Bedienfunktion darstellt, die mit dem Sensorabschnitt verknüpft ist; und ein Steuergerät in Verbindung mit dem Sensorabschnitt, um die Bedienfunktion, die mit dem Sensorabschnitt verknüpft ist, basierend auf dem Benutzereingabeabschnitt zu konfigurieren.
  2. Mensch-Maschine-Schnittstellensystem nach Anspruch 1, wobei der Sensorabschnitt mindestens entweder ein induktiver Sensorabschnitt, ein kapazitiver Sensorabschnitt, ein Infrarotsensorabschnitt oder ein optischer Sensorabschnitt ist.
  3. Mensch-Maschine-Schnittstellensystem nach Anspruch 1, wobei der Benutzereingabeabschnitt ein Feldidentifizierungsmerkmal umfasst.
  4. Mensch-Maschine-Schnittstellensystem nach Anspruch 3, wobei das Feldidentifizierungsmerkmal von dem Sensorabschnitt erfasst wird und die Bedienfunktion von dem Steuergerät basierend auf dem Feldidentifizierungsmerkmal konfiguriert wird.
  5. Mensch-Maschine-Schnittstellensystem nach Anspruch 1, wobei der Benutzereingabeabschnitt ein Orientierungsbezugsmerkmal umfasst.
  6. Mensch-Maschine-Schnittstellensystem nach Anspruch 5, wobei das Feldidentifizierungsmerkmal von dem Sensorabschnitt erfasst wird und die Bedienfunktion von dem Steuergerät basierend auf der Lage des Orientierungsbezugsmerkmals konfiguriert wird.
  7. Mensch-Maschine-Schnittstellensystem nach Anspruch 1, wobei die Bedienfunktion, die mit dem Sensorabschnitt verknüpft ist, basierend auf Informationen, die in einer Verweistabelle gespeichert sind, konfiguriert wird.
  8. Mensch-Maschine-Schnittstellensystem nach Anspruch 1, wobei das Steuergerät mindestens entweder einen Prozessor, ein Speichersystem oder ein programmierbares Bauteil umfasst.
  9. Mensch-Maschine-Schnittstellensystem nach Anspruch 1, wobei die Berührung mindestens entweder durch den Finger eines Benutzers oder einen Fühlerstift bereitgestellt wird.
  10. Mensch-Maschine-Schnittstellensystem zum Bedienen eines Fahrzeugsystems, wobei die Mensch-Maschine-Schnittstelle folgendes umfasst: einen Sensorabschnitt, der dazu geeignet ist, ein Vorliegen und eine Lage einer Berührung zu erfassen; einen Benutzereingabeabschnitt, der lösbar mit dem Sensorabschnitt gekoppelt ist, wobei die Benutzereingabe ein Zeichen, das eine Bedienfunktion darstellt, die mit dem Sensorabschnitt verknüpft ist, ein Identifizierungsmerkmal und ein Orientierungsbezugsmerkmal umfasst; und ein Steuergerät in Verbindung mit dem Sensorabschnitt zum Konfigurieren der Bedienfunktion, die mit dem Sensorabschnitt verknüpft ist, basierend mindestens entweder auf dem Feldidentifizierungsmerkmal oder dem Orientierungsbezugsmerkmal.
  11. Mensch-Maschine-Schnittstellensystem nach Anspruch 10, wobei der Sensorabschnitt mindestens entweder ein induktiver Sensorabschnitt, ein kapazitiver Sensorabschnitt, ein Infrarotsensorabschnitt oder ein optischer Sensorabschnitt ist.
  12. Mensch-Maschine-Schnittstellensystem nach Anspruch 11, wobei das Feldidentifizierungsmerkmal von dem Sensorabschnitt erfasst wird und die Bedienfunktion von dem Steuergerät basierend auf dem Feldidentifizierungsmerkmal konfiguriert wird.
  13. Mensch-Maschine-Schnittstellensystem nach Anspruch 11, wobei das Orientierungsbezugsmerkmal von dem Sensorabschnitt erfasst wird und die Bedienfunktion von dem Steuergerät basierend auf der Lage des Orientierungsbezugsmerkmals konfiguriert wird.
  14. Mensch-Maschine-Schnittstellensystem nach Anspruch 10, wobei die Bedienfunktion, die mit dem Sensorabschnitt verknüpft ist, basierend auf Informationen, die in einer Verweistabelle gespeichert sind, konfiguriert wird.
  15. Mensch-Maschine-Schnittstellensystem nach Anspruch 10, wobei das Steuergerät mindestens entweder einen Prozessor, ein Speichersystem oder ein programmierbares Bauteil umfasst.
  16. Mensch-Maschine-Schnittstellensystem nach Anspruch 10, wobei die Berührung mindestens entweder durch den Finger eines Benutzers oder einen Fühlerstift bereitgestellt wird.
  17. Verfahren zur automatischen Konfiguration eines Mensch-Maschine-Schnittsteilensystems, wobei das Verfahren folgende Schritte umfasst: Bereitstellen eines Sensorabschnitts, der dazu geeignet ist, ein Vorliegen und eine Lage einer Berührung zu erfassen; Bereitstellen eines Benutzereingabeabschnitts, der lösbar mit dem Sensorabschnitt gekoppelt ist, wobei die Benutzereingabe ein Zeichen, das eine Bedienfunktion darstellt, die mit dem Sensorabschnitt verknüpft ist, ein Identifizierungsmerkmal und ein Orientierungsbezugsmerkmal umfasst; Erfassen des Feldidentifizierungsmerkmals; Erfassen des Orientierungsbezugsmerkmals; und Konfigurieren der Bedienfunktion, die mit dem Sensorabschnitt verknüpft ist, basierend mindestens entweder auf dem Feldidentifizierungsmerkmal oder dem Orientierungsbezugsmerkmal.
  18. Verfahren nach Anspruch 17, wobei der Sensorabschnitt mindestens entweder ein induktiver Sensorabschnitt, ein kapazitiver Sensorabschnitt, ein Infrarotsensorabschnitt oder ein optischer Sensorabschnitt ist.
  19. Verfahren nach Anspruch 17, wobei das Feldidentifizierungsmerkmal und das Orientierungsbezugsmerkmal jeweils von dem Sensorabschnitt erfasst werden.
  20. Verfahren nach Anspruch 17, wobei die Bedienfunktion, die mit dem Sensorabschnitt verknüpft ist, basierend auf Informationen, die in einer Verweistabelle gespeichert sind, konfiguriert wird.
DE102010030190A 2009-07-06 2010-06-16 Automatisch konfigurierbares Mensch-Maschine-Schnittstellensystem mit austauschbaren Benutzerschnittstellenfeldern Withdrawn DE102010030190A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/497,874 US20110001726A1 (en) 2009-07-06 2009-07-06 Automatically configurable human machine interface system with interchangeable user interface panels
US12/497,874 2009-07-06

Publications (1)

Publication Number Publication Date
DE102010030190A1 true DE102010030190A1 (de) 2011-01-13

Family

ID=43308005

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010030190A Withdrawn DE102010030190A1 (de) 2009-07-06 2010-06-16 Automatisch konfigurierbares Mensch-Maschine-Schnittstellensystem mit austauschbaren Benutzerschnittstellenfeldern

Country Status (2)

Country Link
US (1) US20110001726A1 (de)
DE (1) DE102010030190A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010011039A1 (de) * 2010-03-11 2011-09-15 Volkswagen Ag Verfahren und Vorrichtung zum Betreiben einer Benutzerschnittstelle
US9463646B2 (en) * 2011-10-07 2016-10-11 Transact Technologies Incorporated Tilting touch screen for printer and printer with tilting touch screen
US9422903B2 (en) 2013-05-01 2016-08-23 Denso International America, Inc. Connecting element for GDI tube stress reduction
US20150199941A1 (en) * 2014-01-15 2015-07-16 Nokia Corporation 3d touch sensor reader
US9753562B2 (en) 2014-01-15 2017-09-05 Nokia Technologies Oy Dynamic threshold for local connectivity setup
US9604541B1 (en) * 2015-10-06 2017-03-28 Samsung Electronics Co., Ltd. System and method for customizing a vehicle operating environment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0854798A1 (de) 1995-10-13 1998-07-29 UNITED TECHNOLOGIES AUTOMOTIVE, Inc. Fahrerkontroliertes schnittstellensystem
US5999104A (en) 1997-12-03 1999-12-07 Ford Motor Company Method of producing customizable automotive electronic systems
US6005488A (en) 1997-12-03 1999-12-21 Ford Motor Company User control interface architecture for automotive electronic systems
US6441510B1 (en) 1999-08-17 2002-08-27 Lear Corporation Reconfigurable modular instrument cluster arrangement
US6529125B1 (en) 1998-12-04 2003-03-04 Visteon Global Technologies, Inc. Automotive control panel

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5450078A (en) * 1992-10-08 1995-09-12 Intellitools, Inc. Membrane computer keyboard and method
US9513744B2 (en) * 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
JPH10334765A (ja) * 1997-05-30 1998-12-18 Alps Electric Co Ltd 車載機器制御装置
DE19839811A1 (de) * 1998-09-01 2000-03-02 Delphi Automotive Systems Gmbh Schalteranordnung
AU5181700A (en) * 1999-06-01 2000-12-18 Siemens Automotive Corporation Portable driver information device
DE10010435B4 (de) * 2000-03-03 2005-11-03 Robert Bosch Gmbh Eingabevorrichtung an einer Sonnenblende
WO2001075922A1 (en) * 2000-03-30 2001-10-11 Eleksen Limited Data input device
US7176895B2 (en) * 2000-12-29 2007-02-13 International Business Machines Corporation Wearable keyboard apparatus
US6776546B2 (en) * 2002-06-21 2004-08-17 Microsoft Corporation Method and system for using a keyboard overlay with a touch-sensitive display screen
US7182461B2 (en) * 2003-07-15 2007-02-27 Visteon Global Technologies, Inc. Integrated docking assembly for portable multimedia unit
US6841895B1 (en) * 2003-07-23 2005-01-11 International Truck Intellectual Property Company, Llc Configurable switch array
US7057394B1 (en) * 2005-02-07 2006-06-06 International Truck Intellectual Property Company, Llc Chassis electrical system tester
GB0503291D0 (en) * 2005-02-17 2005-03-23 Eleksen Ltd Mobile communication
US20070000346A1 (en) * 2005-06-06 2007-01-04 Songwe Jr N Steering wheel system
EP2703207A3 (de) * 2006-01-06 2014-07-02 Johnson Controls Technology Company Rekonfigurierbares Instrumentencluster
US8866750B2 (en) * 2006-04-10 2014-10-21 Microsoft Corporation Universal user interface device
WO2008147901A2 (en) * 2007-05-22 2008-12-04 Qsi Corporation System and method for reducing vibrational effects on a force-based touch panel
US20100259498A1 (en) * 2009-04-14 2010-10-14 Barak Harison User interface for a tactile sensing device
US20100328231A1 (en) * 2009-06-30 2010-12-30 Research In Motion Limited Overlay for electronic device and method of identifying same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0854798A1 (de) 1995-10-13 1998-07-29 UNITED TECHNOLOGIES AUTOMOTIVE, Inc. Fahrerkontroliertes schnittstellensystem
US5999104A (en) 1997-12-03 1999-12-07 Ford Motor Company Method of producing customizable automotive electronic systems
US6005488A (en) 1997-12-03 1999-12-21 Ford Motor Company User control interface architecture for automotive electronic systems
US6529125B1 (en) 1998-12-04 2003-03-04 Visteon Global Technologies, Inc. Automotive control panel
US6441510B1 (en) 1999-08-17 2002-08-27 Lear Corporation Reconfigurable modular instrument cluster arrangement

Also Published As

Publication number Publication date
US20110001726A1 (en) 2011-01-06

Similar Documents

Publication Publication Date Title
DE102010030190A1 (de) Automatisch konfigurierbares Mensch-Maschine-Schnittstellensystem mit austauschbaren Benutzerschnittstellenfeldern
EP2440425A1 (de) Verfahren zum steuern einer grafischen benutzerschnittstelle und bedienvorrichtung für eine grafische benutzerschnittstelle
WO2015062634A1 (de) Vorrichtung und verfahren zum anpassen des inhaltes einer statusleiste
EP2867762B1 (de) Verfahren zum empfangen einer eingabe auf einem berührungsempfindlichen feld
EP2741200B1 (de) Verfahren und Vorrichtung zum Bedienen eines elektronischen Gerätes
DE112017007627T5 (de) Bedieneinheit-Steuervorrichtung und Bedieneinheit-Steuerverfahren
EP3508967A1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
EP2507687B1 (de) Eingabevorrichtung
WO2017041962A1 (de) Kraftfahrzeug-bedienvorrichtung mit mehreren gekoppelten bildschirmen
DE102010048746A1 (de) Verfahren zum Bereitstellen einer Nutzerschnittstelle in einem Fahrzeug und Nutzerschnittstelle dazu
DE102010047778A1 (de) Bediensystem und Verfahren zum Steuern einer Mehrzahl von Fahrerassistenzsystemen in einem Fahrzeug
DE102009037401A1 (de) Fahrzeug mit einer Bedieneinrichtung
DE102014011119A1 (de) Kraftfahrzeug mit Bildschirm und Gebläseauslass
DE102009007707A1 (de) Bedienvorrichtung zur Steuerung elektrisch verstellbarer Komponenten
DE102007020932A1 (de) Eingabeeinrichtung in einem Kraftfahrzeug
DE102019122630A1 (de) Bedienvorrichtung für ein Kraftfahrzeug
WO2017025395A1 (de) Verfahren zum betreiben eines kraftfahrzeugs durch eine bedienvorrichtung des kraftfahrzeugs
DE102015009261A1 (de) Klimatisierungsvorrichtung für ein Kraftfahrzeug und Verfahren zum Betreiben einer Klimatisierungsvorrichtung
DE102014005596B4 (de) Verfahren und Assistenzsystem zur Unterstützung eines Fahrgasts und/oder eines Fahrers eines öffentlichen Verkehrsmittels
DE102017211310A1 (de) Kraftfahrzeug mit einem Ausstattungselement und einer Bedienvorrichtung
DE102011113600A1 (de) Verfahren und Einrichtung zum Bedienen eines Infotainmentsystemes
EP3426516B1 (de) Bedienvorrichtung und verfahren zum erfassen einer benutzerauswahl zumindest einer bedienfunktion der bedienvorrichtung
EP1083078A2 (de) Verfahren und Vorrichtung zur Nutzerführung in einem Kraftfahrzeug
DE112020001907T5 (de) Bedingt transparente berührungsempfindliche bedienoberfläche
DE102008026030A1 (de) Informations- und Assistenzsystem sowie ein Verfahren zu dessen Steuerung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0003033000

Ipc: G06F0003048800

Effective date: 20130307

R120 Application withdrawn or ip right abandoned