DE102010007855A1 - Gestensteuerung von Mehrplatzsystemen in einem Fahrzeug - Google Patents

Gestensteuerung von Mehrplatzsystemen in einem Fahrzeug Download PDF

Info

Publication number
DE102010007855A1
DE102010007855A1 DE201010007855 DE102010007855A DE102010007855A1 DE 102010007855 A1 DE102010007855 A1 DE 102010007855A1 DE 201010007855 DE201010007855 DE 201010007855 DE 102010007855 A DE102010007855 A DE 102010007855A DE 102010007855 A1 DE102010007855 A1 DE 102010007855A1
Authority
DE
Germany
Prior art keywords
machine interface
computer unit
human
output unit
control system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201010007855
Other languages
English (en)
Inventor
Christian Dipl.-Inform. Dr. Maihöfer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE201010007855 priority Critical patent/DE102010007855A1/de
Publication of DE102010007855A1 publication Critical patent/DE102010007855A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems

Abstract

Die Erfindung betrifft eine Steuerungssystem in einem Fahrzeug, das eine zeichenhafte Bewegung eines Fahrzeugbenutzers detektiert und auf dieser basierend einen Steuerungsbefehl ausgibt. Das Steuerungssystem umfasst eine erste Mensch-Maschine-Schnittstelle (1) geeignet zum Detektieren einer Bewegung des Fahrzeugbenutzers und zum Senden eines Bewegungssignals basierend auf der detektierten Bewegung; eine erste Rechnereinheit (2) geeignet zum Empfangen des Bewegungssignals, zum Auswerten des Bewegungssignals, zum Identifizieren des ausgewerteten Bewegungssignals als zeichenhafte Bewegung und zum Senden des Steuerungsbefehls basierend auf der zeichenhaften Bewegung; und mindestens eine Ausgabeeinheit (3, 4, 5) geeignet zum Ausgeben eines Multimediasignals basierend auf dem Steuerungsbefehl der ersten Rechnereinheit (2). Durch die Erfindung sind Funktionen, die mehrerer Bedienschritte bedürfen, leichter und einfacher aufrufbar. Außerdem werden weitere Schalter nicht benötigt, was die Kosten des Systems wieder verringert.

Description

  • Die Erfindung betrifft ein Mehrplatzsystem mit mehreren Ein- und Ausgabeeinheiten, die mit Hilfe von Gesten verwaltet und gesteuert werden. Insbesondere werden Touchscreens verwendet, die die Gesten der Benutzer erkennen und mit anderen Touchscreens verbunden sein können. Ein Mehrplatzsystem bezeichnet ein System, das von mehreren Personen benutzt werden kann und mindestens einen Computer umfasst, an den mehrere Terminals angeschlossen sind. Mit Hilfe von Touchscreens sind mittlerweile viele elektronische Geräte sehr einfach bedienbar geworden und werden daher immer öfters im Automobil eingesetzt. Bei der Bedienung dieser Geräte werden zunehmend Gesten eingesetzt; dies ist von Handys und Smartphones bekannt. Gesten stellen eine Sammlung von Befehlen bereit und können intuitiv und damit auch schneller vom Benutzer eingesetzt werden. Somit können Funktionen, die normalerweise über mehrere Bedienschritte ausgelöst werden, schneller ausgeführt werden und bedürfen keiner längeren Interaktion mit dem Interface. Des Weiteren wird eine Mensch-Maschine-Schnittstelle (MMS) nicht mehr durch zu viele Softkeys strukturell und visuell überfrachtet.
  • Dokument US 7,479,949 B2 offenbart ein Touchscreengerät, um mit Hilfe von angewendeter Heuristik Befehle zu bestimmen.
  • Der Vorteil, der durch die vorliegende Erfindung erzielt wird, liegt in der kleineren Anzahl an Bedienschritten und Schaltern und in den geringeren Kosten bei den Ein- und Ausgabegeräten sowie für das ganze System.
  • Das vorliegende Problem wird gelöst durch ein Steuerungssystem in einem Fahrzeug, das eine zeichenhafte Bewegung von einem Körperteil eines Fahrzeugbenutzers zum Zwecke der nonverbalen Kommunikation detektiert und auf dieser basierend einen Steuerungsbefehl ausgibt. Das Steuerungssystem umfasst eine erste Mensch-Maschine-Schnittstelle 1 geeignet zum Detektieren einer Bewegung des Fahrzeugbenutzers und zum Senden eines Bewegungssignals basierend auf der detektierten Bewegung; eine erste Rechnereinheit 2 geeignet zum Empfangen des Bewegungssignals, zum Auswerten des Bewegungssignals, zum Identifizieren des ausgewerteten Bewegungssignals als zeichenhafte Bewegung und zum Senden des Steuerungsbefehls basierend auf der zeichenhaften Bewegung; und mindestens eine Ausgabeeinheit 3, 4, 5 geeignet zum Ausgeben eines Multimediasignals basierend auf dem Steuerungsbefehl der ersten Rechnereinheit 2. Ausgabeeinheit kann bei einer Variante auch die Schnittstelle 1 selbst sein.
  • Vorteilhafterweise umfasst die erste Mensch-Maschine-Schnittstelle 1 Mittel zum Detektieren der Bewegung, die das Körperteil optisch, elektrostatisch und/oder eine Berührung des Körperteils mit der ersten Mensch-Maschine-Schnittstelle 1 detektieren.
  • Vorzugsweise umfasst die erste Mensch-Maschine-Schnittstelle 1 einen Touchscreen, der in mindestens zwei Eingabebereiche A, B aufgeteilt ist, wobei der Steuerungsbefehl abhängig vom Eingabebereich, an dem eine Bewegung detektiert wurde, an eine vordefinierte Ausgabeeinheit 3, 4, 5 gesendet wird.
  • Vorteilhafterweise umfasst das Steuerungssystem mindestens eine zweite Rechnereinheit 6, wobei die mindestens eine Ausgabeeinheit 3, 4, 5 jeweils mit der mindestens einen zweiten Rechnereinheit 6 verbunden ist, und wobei die mindestens eine zweite Rechnereinheit 6 Steuerungsbefehle von der ersten Rechnereinheit 2 empfängt, verarbeitet und Steuerungsbefehle an die mindestens eine Ausgabeeinheit 3, 4, 5 sendet.
  • Vorzugsweise ist die mindestens eine Ausgabeeinheit 3, 4, 5 jeweils Teil einer mindestens zweiten Mensch-Maschine-Schnittstelle, wobei die mindestens zweite Mensch-Maschine-Schnittstelle der ersten Mensch-Maschine-Schnittstelle entspricht und Steuerungsbefehle an die Mensch-Maschine-Schnittstellen senden lassen kann.
  • Vorzugsweise wählt die erste Rechnereinheit eine der mindestens einen Ausgabeeinheit 3, 4, 5 aus und sendet den Steuerbefehl nur an diese oder fügt in den Steuerbefehl eine Adressierung bzgl. einer der mindestens einen Ausgabeeinheit 3, 4, 5 ein.
  • Die Erfindung wird im Folgenden anhand der Zeichnungen dargestellt und näher beschrieben, wobei die Zeichnungen die Erfindung nicht abschließend darstellen.
  • Es zeigen:
  • 1 eine schematische Darstellung eines Systems gemäß der vorliegenden Erfindung, und
  • 2 eine schematische Darstellung des Displays eines Touchscreens.
  • 1 zeigt ein Netzwerksystem, das eine Mensch-Maschine-Schnittstelle 1 (MMS 1), drei Ausgabeeinheiten 3, 4, 5 und zwei Rechnereinheiten 2 und 6 umfasst. Die Ausgabeeinheiten 3, 4, 5 zeigen Bildschirmsignale in Form von Bildern, Diashows oder Filmen an, können aber auch Berührungen eines Benutzers durch z. B. Oberflächensensoren registrieren. Die Berührungen werden in elektrische Signale umgewandelt. Die MMS 1 registriert Berührungen und ist mit einer Rechnereinheit 2 verbunden, an die die MMS 1 digitale und/oder analoge Signale, die auf der Berührung basieren, sendet. Daher können die Ausgabeeinheiten und die MMS jeweils einen Touchscreen umfassen. Im Gegenzug kann die Rechnereinheit 2 der MMS 1 die Bildschirmsignale zusenden. In einer weiteren Ausführungsform ist die Rechnereinheit 2 ein Teil der MMS 1.
  • Die Ausgabeeinheiten 3 und 4 sind jeweils mit der Rechnereinheit 2 direkt verbunden und verfügen über keine eigene Rechnereinheit; d. h. dass die Rechnereinheit die Ausgabeeinheiten 3 und 4 kontrollieren kann. Die Ausgabeeinheit 5 ist mit der Rechnereinheit 6 verbunden, wobei die Rechnereinheit 6 mit der Rechnereinheit 2 verbunden ist. Die Rechnereinheit 6 sendet die Signale der Rechnereinheit 2 an die Ausgabeeinheit 5.
  • In einer weiteren Ausführungsform sind die Ausgabeeinheiten 3, 4, 5 ebenfalls MMS, die Multimediasignale anzeigen, Bewegungen detektierten und diese als Gesten identifizieren können. Die Signale charakterisieren unter anderem die Bewegung, Form, Geschwindigkeit, Beschleunigung, Druck und Fläche der Berührung, die z. B. durch die Hand des Benutzers am MMS 1, 3, 4, 5 erfolgt ist. Basierend auf diesen Charakteristika kann die Rechnereinheit durch Kalkulationen oder Abgleiche aus einer internen Datenbank die verschiedenen Signale Gesten zuordnen. Nach der Zuordnung der Geste ruft die Rechnereinheit 2 und/oder 6 eine Liste auf, in der zu jeder Geste ein korrespondierender Befehl existiert. Somit wird jede Geste in einen entsprechenden Befehl übersetzt. Diese Befehle umfassen Befehle sowohl für die Rechnereinheit 2 als auch für die anderen MMS 1, 3, 4, 5 und die Rechnereinheit 6. Vorteilhafterweise führt die Rechnereinheit 6 ein Programm für die Identifizierung der Geste, der Befehlsübersetzung sowie das Ausführen und Senden des Befehls aus. Vorteilhafterweise sind die Rechnereinheiten 2 und 6 gleich aufgebaut und strukturiert.
  • Der Befehl kann an mindestens eine MMS und/oder mindestens eine Ausgabeeinheit gesendet werden. Zum Beispiel kann die Rechnereinheit 2 eine der MMS 1, 3, 4, 5 auswählen und den Steuerbefehl nur an diese senden oder in den Steuerbefehl eine Adressierung bzgl. einer MMS 1, 3, 4, 5) einfügen. Als weitere Ausgabeeinheiten zählen neben Displays auch Lautsprecher, Signallichter und dergleichen. Ebenso kann der Befehl auch an einen elektrischen Motor gegeben werden, der vorbestimmte Funktionen wie z. B. die eines Scheibenwischers, eines elektrischen Fensterrollos oder dergleichen umfasst. Ein Gerät, das über Ein- und Ausgabemöglichkeiten verfügt, d. h. Befehle von einem Benutzer empfängt und Signale an einen Benutzer ausgibt, kann als MMS oder als Ein-/Ausgabeeinheit bezeichnet werden.
  • In weiteren Ausführungsformen umfasst eine MMS mindestens einen Sensor, mit dem/denen Bewegungen und somit Gesten ohne Berührung der Einheit registriert werden. Diese Sensoren können elektrostatische oder optische Veränderungen durch kapazitive oder visuelle Messungen erfassen. Bei der kapazitiven Messung wird die Kapazität zwischen Sensor und beispielsweise der Hand des Benutzers gemessen. Bei der visuellen Messung erfolgt eine Bilderkennung der Hand durch eine Kamera, wobei die Bilderkennung zusätzlich ausgewertet wird, um die Bewegung und somit die Geste zu identifizieren.
  • Eine erkannte Geste kann zu einer Rückmeldung an den Benutzer führen und/oder beispielsweise eine visuelle und/oder strukturelle Änderung der MMS, eine Audiobestätigung, eine interne Funktion auf der Rechnereinheit 2 ausführen, oder dergleichen umfassen. Durch den von der Rechnereinheit 2 erstellten Steuerbefehl, der auf der an der MMS 1 eingegebenen Geste basiert und an mindestens eine Ausgabeeinheit und/oder MMS 3, 4, 5 gerichtet ist, wird die Ausgabe an die mindestens eine Ausgabeeinheit und/oder MMS 3, 4, 5 oder an die MMS 1 selbst gesteuert.
  • In weiteren Ausführungsformen existieren mindestens zwei MMS 1, 3, die über mindestens eine Rechnereinheit 2 miteinander verbunden sind. Die mindestens zwei MMS sind nicht direkt miteinander verbunden, wenn keine MMS eine Rechnereinheit umfasst.
  • 2 zeigt ein Touchscreendisplay 7, das in zwei Bereiche aufgeteilt ist, und zwar die Bereiche A und B. Der Bereich A ist rechteckig und der Bereich B stellt einen Rahmenbereich um den Bereich A dar. In weiteren Ausführungsformen kann der Eingabebereich des Touchscreens auch in mindestens drei Bereiche aufgeteilt werden. Die Gesten, die in einem bestimmten Bereich gemacht werden, werden einer bestimmten Ausgabeeinheit zugeordnet. Beispielsweise stünde der Bereich A für den Touchscreen 1 während der Bereich B für den Touchscreen 3 steht. Der Bereich, in dem etwas anzeigt wird, umfasst den Bereich A oder die Bereiche A und B. Außerdem können die Sensoren entweder nur im Bereich A oder in den Bereichen A und B existieren.
  • Falls Gesten nur in dem Bereich A erkannt werden sollen, dann sind im Bereich B entweder mindestens ein Sensor angebracht, um die dortigen Berührungen für die Gestenidentifizierung auszuschließen; oder es sind im Bereich B keine Sensoren angebracht, um Berührungen erst gar nicht zu registrieren.
  • Alternativ wird ein Algorithmus ausgeführt, um Gesten im Bereich B am Rand zu erkennen; insbesondere, wenn Bereich B keine Sensoren umfasst: Wenn die Bewegungsgeschwindigkeit einer Geste, die in B startet oder endet und wobei die Geschwindigkeit am Rand von A gemessen wird, kleiner als ein Schwellenwert ist, dann betrifft die Geste den Bereich B. Wenn die Bewegungsgeschwindigkeit einer Geste, die in B startet oder endet und wobei die Geschwindigkeit am Rand von A gemessen wird, größer als ein Schwellenwert ist, dann betrifft die Geste den Bereich B. Da eine Geste kaum an der Grenze zwischen A und B direkt startet oder endet, sondern sich darüber hinaus erstrecken kann, kann der Ort des Starts oder Stopps der Berührungsbewegung sehr gut abgeschätzt werden; zumindest kann qualitativ mit Hilfe des Algorithmus festgestellt werden, ob die Berührung im Bereich B beginnt oder endet.
  • Als weitere Alternative kann eine Geste im Bereich B, falls der Touchsensor nur im Bereich A liegt, erkannt werden, wenn ein/eine am Rand des Bereichs A detektierter Anpressdruck und/oder Anpressdauer kleiner als ein vordefinierter Schwellenwert ist.
  • Der Bereich A kann auch tiefer oder höher zum Bereich B versetzt sein. Eine im Bereich A ausgeführte Geste soll dazu führen, dass eine lokale Wirkung erzielt wird, d. h. der Befehl oder die Steuerung betrifft nur den Touchscreen auf dem die Geste eingegeben wurde. Eine im Bereich B ausgeführte Geste soll dazu führen, dass eine Umschaltung auf einen zweiten Touchscreen 3, 4, 5 erfolgt und dort statt auf dem ersten Touchscreen 1 eine Wirkung erzielt wird.
  • Eine Geste, die im Bereich B begonnen hat und im Bereich A beendet worden ist, soll zum Beispiel dazu führen, dass eine Anzeige, die gegenwärtig auf dem zweiten Touchscreen 3, 4, 5 erfolgt, nun von dem zweiten Touchscreen 3, 4, 5 zum ersten Touchscreen 1 verschoben oder kopiert wird. Dies gilt selbstverständlich auch umkehrt.
  • Mit dem Kopieren oder Verschieben der Anzeige können auch weitere Steuerbefehle ausgelöst werden, die zum Beispiel zu einem Verschieben von Ausgabesignalen wie beispielsweise Audiosignale an Kopfhörer führen, die einem Platz der ersten Ausgabeeinheit oder der zweiten Ausgabeeinheit zugeordnet sind und nun einem anderen Platz zugeordnet werden. Ebenso kann mit der Richtung der Geste eine räumliche Zuordnung zu weiteren Ausgabeeinheiten erfolgen. So kann beispielsweise eine Geste des Fahrers, die von A nach B geführt wird und von der Mitte des Bereichs A aus nach rechts gerichtet ist, dazu führen, dass die Signale, die der Fahrer empfängt, zum Beifahrer umgeschaltet oder kopiert werden. Dementsprechend kann beispielsweise eine nach unten gerichtete Geste von A nach B dazu führen, dass die Signale des Fahrers zu den Rücksitzen umgeschaltet oder kopiert werden.
  • Es kann beispielsweise auch eine nach rechts gerichtete Geste von B nach A dazu führen, dass der Inhalt des Kombiinstruments, also des Touchscreendisplays 7, nun auf einem Zentraldisplay des Fahrers angezeigt wird. Der Fahrer kann nun über das Zentraldisplay das Kombiinstrument konfigurieren oder ablesen. Nach erfolgter Aktion führt eine weitere, nach links gerichtete Geste von A nach B dazu, dass der Inhalt nun wieder (nur noch) auf dem Kombiinstrument dargestellt wird.
  • Die Bereiche A und B müssen nicht rechteckig und nicht gleichförmig und nicht mit gleichen Abständen versehen sein, sondern können auch in weiteren Ausführungsformen rund, dreieckig, oval, rautenförmig oder dergleichen sein. Alternativ kann der Bereich B auch nur an einem Rand oder an einem Teil des Randes liegen. Vorteilhafterweise sind Head Unit, das den Zentraldisplay umfasst, Rear Seat Entertainment, Dual View, Instrument Cluster, Lenkradtasten und sonstige Bedienfelder die Ein- und Ausgabeeinheiten, zu denen die Audio- und/oder Videosignale verschoben werden können. Es existieren Gesten zum Verschieben oder Kopieren von Signalen von einer Ausgabeeinheit zur nächsten Ausgabeeinheit, wobei diese Gesten räumlich bereits sagen, in welche Richtung dies gehen soll. Ein Rechtspfeil verschiebt z. B. eine Anzeige von der ersten Ausgabeeinheit zur rechten Ausgabeeinheit, wobei ein Linkspfeil die Anzeige von der ersten Ausgabeeinheit zu seiner linken Ausgabeeinheit verschiebt. Andere Zeichen, wie z. B. Kleiner-Größer-Zeichen können den gleichen Zweck erfüllen. Dabei ist der Winkel zwischen den Schenkeln so wie der Drehwinkel solange nicht von Interesse wie die Spitze eindeutig in eine bestimmte Richtung zeigt.
  • Des Weiteren kann mit Hilfe von Mehrfingererkennung eine Zuordnung zu den Bedieneinheiten durchgeführt werden. So soll eine beliebige Geste ausgeführt mit einem Finger immer nur als Befehl für die erste Ausgabeeinheit gelten. Dieselbe Geste ausgeführt mit zwei Fingern soll als Befehl für die zweite Ausgabeeinheit interpretiert werden. Und die Dreifingergeste soll für die dritte Ausgabeeinheit gelten.
  • Beispielsweise: eine Wischbewegung, die von links nach rechts mit einem Finger ausgeführt wird, schaltet das Radio des Fahrers auf den nächsten Sender um. Die gleiche Wischbewegung mit zwei Fingern schaltet das Radio, das z. B. dem Beifahrer über Kopfhörer wiedergegeben wird, auf den nächsten Sender um. Die gleiche Wischbewegung mit drei Fingern schaltet das Radio, das den hinteren Passagieren wiedergegeben wird, auf den nächsten Sender um. Diese Bewegung bzw. Geste kann bei jedem Touchscreen eingegeben werden und führt immer zum gleichen Ergebnis.
  • 1
    Ausgabeeinheit (Touchscreen)
    3, 4, 5
    Mensch-Maschine-Schnittstellen
    2, 6
    Rechnereinheiten
    7
    Touchscreendisplay
    A
    Eingabebereich, Bereich
    B
    Eingabebereich, Bereich
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 7479949 B2 [0002]

Claims (6)

  1. Steuerungssystem in einem Fahrzeug, das eine zeichenhafte Bewegung von einem Körperteil eines Fahrzeugbenutzers zum Zwecke der nonverbalen Kommunikation detektiert und auf dieser basierend einen Steuerungsbefehl ausgibt, dadurch gekennzeichnet, dass das Steuerungssystem umfasst: – eine erste Mensch-Maschine-Schnittstelle (1) geeignet zum Detektieren einer Bewegung des Fahrzeugbenutzers und zum Senden eines Bewegungssignals basierend auf der detektierten Bewegung; – eine erste Rechnereinheit (2) geeignet zum Empfangen des Bewegungssignals, zum Auswerten des Bewegungssignals, zum Identifizieren des ausgewerteten Bewegungssignals als zeichenhafte Bewegung und zum Senden des Steuerungsbefehls basierend auf der zeichenhaften Bewegung; und – mindestens eine Ausgabeeinheit (3, 4, 5) geeignet zum Ausgeben eines Multimediasignals basierend auf dem Steuerungsbefehl der ersten Rechnereinheit (2).
  2. Steuerungssystem nach Anspruch 1, dadurch gekennzeichnet, dass die erste Mensch-Maschine-Schnittstelle (1) Mittel zum Detektieren der Bewegung umfasst, die das Körperteil optisch, elektrostatisch und/oder eine Berührung des Körperteils mit der ersten Mensch-Maschine-Schnittstelle detektieren.
  3. Steuerungssystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die erste Mensch-Maschine-Schnittstelle (1) einen Touchscreen umfasst, der in mindestens zwei Eingabebereiche (A, B) aufgeteilt ist, wobei der Steuerungsbefehl abhängig vom Eingabebereich, an dem eine Bewegung detektiert wurde, an eine vordefinierte Ausgabeeinheit (1, 3, 4, 5) gesendet wird.
  4. Steuerungssystem nach einem der obengenannten Ansprüche, dadurch gekennzeichnet, dass das Steuerungssystem mindestens eine zweite Rechnereinheit (6) umfasst, wobei die mindestens eine Ausgabeeinheit (3, 4, 5) jeweils mit der mindestens einen zweiten Rechnereinheit (6) verbunden ist, und wobei die mindestens eine zweite Rechnereinheit (6) Steuerungsbefehle von der ersten Rechnereinheit (2) empfängt, verarbeitet und Steuerungsbefehle an die mindestens eine Ausgabeeinheit (3, 4, 5) sendet.
  5. Steuerungssystem nach einem der obengenannten Ansprüche, dadurch gekennzeichnet, dass die mindestens eine Ausgabeeinheit (3, 4, 5) jeweils Teil einer mindestens zweiten Mensch-Maschine-Schnittstelle ist, wobei die mindestens zweite Mensch-Maschine-Schnittstelle der ersten Mensch-Maschine-Schnittstelle entspricht und das Senden von Steuerungsbefehlen an die Mensch-Maschine-Schnittstellen durch die zweite Mensch-Maschine-Schnittstelle bewirkbar ist.
  6. Steuerungssystem nach einem der obengenannten Ansprüche, dadurch gekennzeichnet, dass die erste Rechnereinheit (2) eine der mindestens einen Ausgabeeinheit (3, 4, 5) auswählt und den Steuerbefehl nur an diese sendet oder in den Steuerbefehl eine Adressierung bzgl. einer der mindestens einen Ausgabeeinheit (3, 4, 5) einfügt.
DE201010007855 2010-02-12 2010-02-12 Gestensteuerung von Mehrplatzsystemen in einem Fahrzeug Withdrawn DE102010007855A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201010007855 DE102010007855A1 (de) 2010-02-12 2010-02-12 Gestensteuerung von Mehrplatzsystemen in einem Fahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201010007855 DE102010007855A1 (de) 2010-02-12 2010-02-12 Gestensteuerung von Mehrplatzsystemen in einem Fahrzeug

Publications (1)

Publication Number Publication Date
DE102010007855A1 true DE102010007855A1 (de) 2010-12-02

Family

ID=43028683

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201010007855 Withdrawn DE102010007855A1 (de) 2010-02-12 2010-02-12 Gestensteuerung von Mehrplatzsystemen in einem Fahrzeug

Country Status (1)

Country Link
DE (1) DE102010007855A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014223277B4 (de) * 2014-11-14 2017-08-24 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Positionseinstellung eines Scheibenwischers eines Fahrzeugs
CN107933458A (zh) * 2017-10-25 2018-04-20 深圳创维汽车智能有限公司 车载多媒体控制系统及汽车
DE102020202918A1 (de) 2020-03-06 2021-09-09 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und System zur Ansteuerung wenigstens einer Funktion in einem Fahrzeug

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7479949B2 (en) 2006-09-06 2009-01-20 Apple Inc. Touch screen device, method, and graphical user interface for determining commands by applying heuristics

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7479949B2 (en) 2006-09-06 2009-01-20 Apple Inc. Touch screen device, method, and graphical user interface for determining commands by applying heuristics

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014223277B4 (de) * 2014-11-14 2017-08-24 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Positionseinstellung eines Scheibenwischers eines Fahrzeugs
CN107933458A (zh) * 2017-10-25 2018-04-20 深圳创维汽车智能有限公司 车载多媒体控制系统及汽车
DE102020202918A1 (de) 2020-03-06 2021-09-09 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und System zur Ansteuerung wenigstens einer Funktion in einem Fahrzeug

Similar Documents

Publication Publication Date Title
DE102013000068A1 (de) Verfahren zum Synchronisieren von Anzeigeeinrichtungen eines Kraftfahrzeugs
DE102012014910A1 (de) Bedienschnittstelle, Verfahren zum Anzeigen einer eine Bedienung einer Bedienschnittstelle erleichternden Information und Programm
DE102008048825A9 (de) Anzeige- und Bediensystem in einem Kraftfahrzeug mit nutzerbeeinflussbarer Darstellung von Anzeigeobjekten sowie Verfahren zum Betreiben eines solchen Anzeige- und Bediensystems
EP2150883A1 (de) Multifunktionsanzeige- und bedienvorrichtung und verfahren zum betreiben einer multifunktionsanzeige- und bedienvorrichtung mit verbesserter auswahlbedienung
EP3234743B1 (de) Verfahren zum betreiben einer bedienvorrichtung eines kraftfahrzeugs in unterschiedlichen bedienmodi sowie bedienvorrichtung und kraftfahrzeug
EP2867762B1 (de) Verfahren zum empfangen einer eingabe auf einem berührungsempfindlichen feld
WO2015110227A1 (de) Anwenderschnittstelle und verfahren zur anpassung einer ansicht auf einer anzeigeeinheit
EP2704634B1 (de) Multifunktionsbedieneinrichtung
DE102017218120A1 (de) Verfahren zur Bereitstellung einer haptischen Rückmeldung an einen Bediener einer berührungssensitiven Anzeigeeinrichtung
DE102015122602A1 (de) Fahrzeug mit einer Bilderfassungseinheit und einem Bediensystem zum Bedienen von Einrichtungen des Fahrzeugs sowie Verfahren zum Betreiben des Bediensystems
WO2014108147A1 (de) Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung
DE102009057081A1 (de) Verfahren zum Bereitstellen einer Benutzerschnittstelle
DE102013000071A1 (de) Synchronisieren von Nutzdaten zwischen einem Kraftfahrzeug und einem mobilen Endgerät
EP3254172A1 (de) Bestimmung einer position eines fahrzeugfremden objekts in einem fahrzeug
DE102013000069B4 (de) Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung
DE102010007855A1 (de) Gestensteuerung von Mehrplatzsystemen in einem Fahrzeug
WO2017140569A1 (de) Kraftfahrzeug-bedienvorrichtung und verfahren zum betreiben einer bedienvorrichtung, um eine wechselwirkung zwischen einer virtuellen darstellungsebene und einer hand zu bewirken
EP3426516B1 (de) Bedienvorrichtung und verfahren zum erfassen einer benutzerauswahl zumindest einer bedienfunktion der bedienvorrichtung
DE102019219272A1 (de) Fahrzeug mit einem Innenraum und Verfahren zur Steuerung einer Anzeigeeinheit in einem Fahrzeug
DE102014222751A1 (de) Vorrichtung für Fahrzeuge zur Bedienung von GUIs mit mehreren Ebenen
DE102017200769A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung eines Kraftfahrzeugs und Eingabevorrichtung für ein Kraftfahrzeug
DE102019131944A1 (de) Verfahren zur Steuerung zumindest einer Anzeigeeinheit, Kraftfahrzeug und Computerprogrammprodukt
WO2017215933A1 (de) Benutzerschnittstelle und verfahren zum erfassen von nutzereingaben
DE102020106021A1 (de) Verfahren und system zum betreiben eines auswahlmenüs einer grafischen benutzeroberfläche basierend auf dem erfassen einer rotierenden freiraumgeste
DE102013013225B4 (de) Kraftfahrzeug mit umschaltbarer Bedieneinrichtung

Legal Events

Date Code Title Description
OAV Applicant agreed to the publication of the unexamined application as to paragraph 31 lit. 2 z1
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee