-
Die
Erfindung betrifft ein Mehrplatzsystem mit mehreren Ein- und Ausgabeeinheiten,
die mit Hilfe von Gesten verwaltet und gesteuert werden. Insbesondere
werden Touchscreens verwendet, die die Gesten der Benutzer erkennen
und mit anderen Touchscreens verbunden sein können. Ein
Mehrplatzsystem bezeichnet ein System, das von mehreren Personen
benutzt werden kann und mindestens einen Computer umfasst, an den
mehrere Terminals angeschlossen sind. Mit Hilfe von Touchscreens
sind mittlerweile viele elektronische Geräte sehr einfach bedienbar
geworden und werden daher immer öfters im Automobil eingesetzt.
Bei der Bedienung dieser Geräte werden zunehmend Gesten
eingesetzt; dies ist von Handys und Smartphones bekannt. Gesten stellen
eine Sammlung von Befehlen bereit und können intuitiv und
damit auch schneller vom Benutzer eingesetzt werden. Somit können
Funktionen, die normalerweise über mehrere Bedienschritte
ausgelöst werden, schneller ausgeführt werden
und bedürfen keiner längeren Interaktion mit dem
Interface. Des Weiteren wird eine Mensch-Maschine-Schnittstelle
(MMS) nicht mehr durch zu viele Softkeys strukturell und visuell überfrachtet.
-
Dokument
US 7,479,949 B2 offenbart
ein Touchscreengerät, um mit Hilfe von angewendeter Heuristik
Befehle zu bestimmen.
-
Der
Vorteil, der durch die vorliegende Erfindung erzielt wird, liegt
in der kleineren Anzahl an Bedienschritten und Schaltern und in
den geringeren Kosten bei den Ein- und Ausgabegeräten sowie
für das ganze System.
-
Das
vorliegende Problem wird gelöst durch ein Steuerungssystem
in einem Fahrzeug, das eine zeichenhafte Bewegung von einem Körperteil
eines Fahrzeugbenutzers zum Zwecke der nonverbalen Kommunikation
detektiert und auf dieser basierend einen Steuerungsbefehl ausgibt.
Das Steuerungssystem umfasst eine erste Mensch-Maschine-Schnittstelle 1 geeignet
zum Detektieren einer Bewegung des Fahrzeugbenutzers und zum Senden eines
Bewegungssignals basierend auf der detektierten Bewegung; eine erste
Rechnereinheit 2 geeignet zum Empfangen des Bewegungssignals,
zum Auswerten des Bewegungssignals, zum Identifizieren des ausgewerteten
Bewegungssignals als zeichenhafte Bewegung und zum Senden des Steuerungsbefehls
basierend auf der zeichenhaften Bewegung; und mindestens eine Ausgabeeinheit 3, 4, 5 geeignet zum
Ausgeben eines Multimediasignals basierend auf dem Steuerungsbefehl
der ersten Rechnereinheit 2. Ausgabeeinheit kann bei einer
Variante auch die Schnittstelle 1 selbst sein.
-
Vorteilhafterweise
umfasst die erste Mensch-Maschine-Schnittstelle 1 Mittel
zum Detektieren der Bewegung, die das Körperteil optisch,
elektrostatisch und/oder eine Berührung des Körperteils mit
der ersten Mensch-Maschine-Schnittstelle 1 detektieren.
-
Vorzugsweise
umfasst die erste Mensch-Maschine-Schnittstelle 1 einen
Touchscreen, der in mindestens zwei Eingabebereiche A, B aufgeteilt
ist, wobei der Steuerungsbefehl abhängig vom Eingabebereich,
an dem eine Bewegung detektiert wurde, an eine vordefinierte Ausgabeeinheit 3, 4, 5 gesendet wird.
-
Vorteilhafterweise
umfasst das Steuerungssystem mindestens eine zweite Rechnereinheit 6, wobei
die mindestens eine Ausgabeeinheit 3, 4, 5 jeweils
mit der mindestens einen zweiten Rechnereinheit 6 verbunden
ist, und wobei die mindestens eine zweite Rechnereinheit 6 Steuerungsbefehle
von der ersten Rechnereinheit 2 empfängt, verarbeitet
und Steuerungsbefehle an die mindestens eine Ausgabeeinheit 3, 4, 5 sendet.
-
Vorzugsweise
ist die mindestens eine Ausgabeeinheit 3, 4, 5 jeweils
Teil einer mindestens zweiten Mensch-Maschine-Schnittstelle, wobei
die mindestens zweite Mensch-Maschine-Schnittstelle der ersten Mensch-Maschine-Schnittstelle
entspricht und Steuerungsbefehle an die Mensch-Maschine-Schnittstellen
senden lassen kann.
-
Vorzugsweise
wählt die erste Rechnereinheit eine der mindestens einen
Ausgabeeinheit 3, 4, 5 aus und sendet
den Steuerbefehl nur an diese oder fügt in den Steuerbefehl
eine Adressierung bzgl. einer der mindestens einen Ausgabeeinheit 3, 4, 5 ein.
-
Die
Erfindung wird im Folgenden anhand der Zeichnungen dargestellt und
näher beschrieben, wobei die Zeichnungen die Erfindung
nicht abschließend darstellen.
-
Es
zeigen:
-
1 eine
schematische Darstellung eines Systems gemäß der
vorliegenden Erfindung, und
-
2 eine
schematische Darstellung des Displays eines Touchscreens.
-
1 zeigt
ein Netzwerksystem, das eine Mensch-Maschine-Schnittstelle 1 (MMS 1),
drei Ausgabeeinheiten 3, 4, 5 und zwei
Rechnereinheiten 2 und 6 umfasst. Die Ausgabeeinheiten 3, 4, 5 zeigen Bildschirmsignale
in Form von Bildern, Diashows oder Filmen an, können aber
auch Berührungen eines Benutzers durch z. B. Oberflächensensoren
registrieren. Die Berührungen werden in elektrische Signale
umgewandelt. Die MMS 1 registriert Berührungen
und ist mit einer Rechnereinheit 2 verbunden, an die die
MMS 1 digitale und/oder analoge Signale, die auf der Berührung
basieren, sendet. Daher können die Ausgabeeinheiten und
die MMS jeweils einen Touchscreen umfassen. Im Gegenzug kann die Rechnereinheit 2 der
MMS 1 die Bildschirmsignale zusenden. In einer weiteren
Ausführungsform ist die Rechnereinheit 2 ein Teil
der MMS 1.
-
Die
Ausgabeeinheiten 3 und 4 sind jeweils mit der
Rechnereinheit 2 direkt verbunden und verfügen über
keine eigene Rechnereinheit; d. h. dass die Rechnereinheit die Ausgabeeinheiten 3 und 4 kontrollieren
kann. Die Ausgabeeinheit 5 ist mit der Rechnereinheit 6 verbunden,
wobei die Rechnereinheit 6 mit der Rechnereinheit 2 verbunden
ist. Die Rechnereinheit 6 sendet die Signale der Rechnereinheit 2 an
die Ausgabeeinheit 5.
-
In
einer weiteren Ausführungsform sind die Ausgabeeinheiten 3, 4, 5 ebenfalls
MMS, die Multimediasignale anzeigen, Bewegungen detektierten und
diese als Gesten identifizieren können. Die Signale charakterisieren
unter anderem die Bewegung, Form, Geschwindigkeit, Beschleunigung,
Druck und Fläche der Berührung, die z. B. durch
die Hand des Benutzers am MMS 1, 3, 4, 5 erfolgt
ist. Basierend auf diesen Charakteristika kann die Rechnereinheit durch
Kalkulationen oder Abgleiche aus einer internen Datenbank die verschiedenen
Signale Gesten zuordnen. Nach der Zuordnung der Geste ruft die Rechnereinheit 2 und/oder 6 eine
Liste auf, in der zu jeder Geste ein korrespondierender Befehl existiert. Somit
wird jede Geste in einen entsprechenden Befehl übersetzt.
Diese Befehle umfassen Befehle sowohl für die Rechnereinheit 2 als auch
für die anderen MMS 1, 3, 4, 5 und
die Rechnereinheit 6. Vorteilhafterweise führt
die Rechnereinheit 6 ein Programm für die Identifizierung
der Geste, der Befehlsübersetzung sowie das Ausführen
und Senden des Befehls aus. Vorteilhafterweise sind die Rechnereinheiten 2 und 6 gleich
aufgebaut und strukturiert.
-
Der
Befehl kann an mindestens eine MMS und/oder mindestens eine Ausgabeeinheit
gesendet werden. Zum Beispiel kann die Rechnereinheit 2 eine der
MMS 1, 3, 4, 5 auswählen
und den Steuerbefehl nur an diese senden oder in den Steuerbefehl
eine Adressierung bzgl. einer MMS 1, 3, 4, 5)
einfügen. Als weitere Ausgabeeinheiten zählen
neben Displays auch Lautsprecher, Signallichter und dergleichen. Ebenso
kann der Befehl auch an einen elektrischen Motor gegeben werden,
der vorbestimmte Funktionen wie z. B. die eines Scheibenwischers,
eines elektrischen Fensterrollos oder dergleichen umfasst. Ein Gerät,
das über Ein- und Ausgabemöglichkeiten verfügt,
d. h. Befehle von einem Benutzer empfängt und Signale an
einen Benutzer ausgibt, kann als MMS oder als Ein-/Ausgabeeinheit
bezeichnet werden.
-
In
weiteren Ausführungsformen umfasst eine MMS mindestens
einen Sensor, mit dem/denen Bewegungen und somit Gesten ohne Berührung
der Einheit registriert werden. Diese Sensoren können elektrostatische
oder optische Veränderungen durch kapazitive oder visuelle
Messungen erfassen. Bei der kapazitiven Messung wird die Kapazität
zwischen Sensor und beispielsweise der Hand des Benutzers gemessen.
Bei der visuellen Messung erfolgt eine Bilderkennung der Hand durch
eine Kamera, wobei die Bilderkennung zusätzlich ausgewertet
wird, um die Bewegung und somit die Geste zu identifizieren.
-
Eine
erkannte Geste kann zu einer Rückmeldung an den Benutzer
führen und/oder beispielsweise eine visuelle und/oder strukturelle Änderung
der MMS, eine Audiobestätigung, eine interne Funktion auf
der Rechnereinheit 2 ausführen, oder dergleichen
umfassen. Durch den von der Rechnereinheit 2 erstellten
Steuerbefehl, der auf der an der MMS 1 eingegebenen Geste
basiert und an mindestens eine Ausgabeeinheit und/oder MMS 3, 4, 5 gerichtet
ist, wird die Ausgabe an die mindestens eine Ausgabeeinheit und/oder
MMS 3, 4, 5 oder an die MMS 1 selbst
gesteuert.
-
In
weiteren Ausführungsformen existieren mindestens zwei MMS 1, 3,
die über mindestens eine Rechnereinheit 2 miteinander
verbunden sind. Die mindestens zwei MMS sind nicht direkt miteinander verbunden,
wenn keine MMS eine Rechnereinheit umfasst.
-
2 zeigt
ein Touchscreendisplay 7, das in zwei Bereiche aufgeteilt
ist, und zwar die Bereiche A und B. Der Bereich A ist rechteckig
und der Bereich B stellt einen Rahmenbereich um den Bereich A dar. In
weiteren Ausführungsformen kann der Eingabebereich des
Touchscreens auch in mindestens drei Bereiche aufgeteilt werden.
Die Gesten, die in einem bestimmten Bereich gemacht werden, werden
einer bestimmten Ausgabeeinheit zugeordnet. Beispielsweise stünde
der Bereich A für den Touchscreen 1 während
der Bereich B für den Touchscreen 3 steht. Der
Bereich, in dem etwas anzeigt wird, umfasst den Bereich A oder die
Bereiche A und B. Außerdem können die Sensoren
entweder nur im Bereich A oder in den Bereichen A und B existieren.
-
Falls
Gesten nur in dem Bereich A erkannt werden sollen, dann sind im
Bereich B entweder mindestens ein Sensor angebracht, um die dortigen
Berührungen für die Gestenidentifizierung auszuschließen;
oder es sind im Bereich B keine Sensoren angebracht, um Berührungen
erst gar nicht zu registrieren.
-
Alternativ
wird ein Algorithmus ausgeführt, um Gesten im Bereich B
am Rand zu erkennen; insbesondere, wenn Bereich B keine Sensoren
umfasst: Wenn die Bewegungsgeschwindigkeit einer Geste, die in B
startet oder endet und wobei die Geschwindigkeit am Rand von A gemessen
wird, kleiner als ein Schwellenwert ist, dann betrifft die Geste
den Bereich B. Wenn die Bewegungsgeschwindigkeit einer Geste, die
in B startet oder endet und wobei die Geschwindigkeit am Rand von
A gemessen wird, größer als ein Schwellenwert
ist, dann betrifft die Geste den Bereich B. Da eine Geste kaum an
der Grenze zwischen A und B direkt startet oder endet, sondern sich darüber
hinaus erstrecken kann, kann der Ort des Starts oder Stopps der
Berührungsbewegung sehr gut abgeschätzt werden;
zumindest kann qualitativ mit Hilfe des Algorithmus festgestellt
werden, ob die Berührung im Bereich B beginnt oder endet.
-
Als
weitere Alternative kann eine Geste im Bereich B, falls der Touchsensor
nur im Bereich A liegt, erkannt werden, wenn ein/eine am Rand des Bereichs
A detektierter Anpressdruck und/oder Anpressdauer kleiner als ein
vordefinierter Schwellenwert ist.
-
Der
Bereich A kann auch tiefer oder höher zum Bereich B versetzt
sein. Eine im Bereich A ausgeführte Geste soll dazu führen,
dass eine lokale Wirkung erzielt wird, d. h. der Befehl oder die
Steuerung betrifft nur den Touchscreen auf dem die Geste eingegeben
wurde. Eine im Bereich B ausgeführte Geste soll dazu führen,
dass eine Umschaltung auf einen zweiten Touchscreen 3, 4, 5 erfolgt
und dort statt auf dem ersten Touchscreen 1 eine Wirkung
erzielt wird.
-
Eine
Geste, die im Bereich B begonnen hat und im Bereich A beendet worden
ist, soll zum Beispiel dazu führen, dass eine Anzeige,
die gegenwärtig auf dem zweiten Touchscreen 3, 4, 5 erfolgt,
nun von dem zweiten Touchscreen 3, 4, 5 zum
ersten Touchscreen 1 verschoben oder kopiert wird. Dies
gilt selbstverständlich auch umkehrt.
-
Mit
dem Kopieren oder Verschieben der Anzeige können auch weitere
Steuerbefehle ausgelöst werden, die zum Beispiel zu einem
Verschieben von Ausgabesignalen wie beispielsweise Audiosignale an
Kopfhörer führen, die einem Platz der ersten Ausgabeeinheit
oder der zweiten Ausgabeeinheit zugeordnet sind und nun einem anderen
Platz zugeordnet werden. Ebenso kann mit der Richtung der Geste eine
räumliche Zuordnung zu weiteren Ausgabeeinheiten erfolgen.
So kann beispielsweise eine Geste des Fahrers, die von A nach B
geführt wird und von der Mitte des Bereichs A aus nach
rechts gerichtet ist, dazu führen, dass die Signale, die
der Fahrer empfängt, zum Beifahrer umgeschaltet oder kopiert werden.
Dementsprechend kann beispielsweise eine nach unten gerichtete Geste
von A nach B dazu führen, dass die Signale des Fahrers
zu den Rücksitzen umgeschaltet oder kopiert werden.
-
Es
kann beispielsweise auch eine nach rechts gerichtete Geste von B
nach A dazu führen, dass der Inhalt des Kombiinstruments,
also des Touchscreendisplays 7, nun auf einem Zentraldisplay des
Fahrers angezeigt wird. Der Fahrer kann nun über das Zentraldisplay
das Kombiinstrument konfigurieren oder ablesen. Nach erfolgter Aktion
führt eine weitere, nach links gerichtete Geste von A nach B
dazu, dass der Inhalt nun wieder (nur noch) auf dem Kombiinstrument
dargestellt wird.
-
Die
Bereiche A und B müssen nicht rechteckig und nicht gleichförmig
und nicht mit gleichen Abständen versehen sein, sondern
können auch in weiteren Ausführungsformen rund,
dreieckig, oval, rautenförmig oder dergleichen sein. Alternativ
kann der Bereich B auch nur an einem Rand oder an einem Teil des
Randes liegen. Vorteilhafterweise sind Head Unit, das den Zentraldisplay
umfasst, Rear Seat Entertainment, Dual View, Instrument Cluster,
Lenkradtasten und sonstige Bedienfelder die Ein- und Ausgabeeinheiten,
zu denen die Audio- und/oder Videosignale verschoben werden können.
Es existieren Gesten zum Verschieben oder Kopieren von Signalen von
einer Ausgabeeinheit zur nächsten Ausgabeeinheit, wobei
diese Gesten räumlich bereits sagen, in welche Richtung
dies gehen soll. Ein Rechtspfeil verschiebt z. B. eine Anzeige von
der ersten Ausgabeeinheit zur rechten Ausgabeeinheit, wobei ein
Linkspfeil die Anzeige von der ersten Ausgabeeinheit zu seiner linken
Ausgabeeinheit verschiebt. Andere Zeichen, wie z. B. Kleiner-Größer-Zeichen
können den gleichen Zweck erfüllen. Dabei ist
der Winkel zwischen den Schenkeln so wie der Drehwinkel solange nicht
von Interesse wie die Spitze eindeutig in eine bestimmte Richtung
zeigt.
-
Des
Weiteren kann mit Hilfe von Mehrfingererkennung eine Zuordnung zu
den Bedieneinheiten durchgeführt werden. So soll eine beliebige
Geste ausgeführt mit einem Finger immer nur als Befehl
für die erste Ausgabeeinheit gelten. Dieselbe Geste ausgeführt
mit zwei Fingern soll als Befehl für die zweite Ausgabeeinheit
interpretiert werden. Und die Dreifingergeste soll für
die dritte Ausgabeeinheit gelten.
-
Beispielsweise:
eine Wischbewegung, die von links nach rechts mit einem Finger ausgeführt wird,
schaltet das Radio des Fahrers auf den nächsten Sender
um. Die gleiche Wischbewegung mit zwei Fingern schaltet das Radio,
das z. B. dem Beifahrer über Kopfhörer wiedergegeben
wird, auf den nächsten Sender um. Die gleiche Wischbewegung
mit drei Fingern schaltet das Radio, das den hinteren Passagieren
wiedergegeben wird, auf den nächsten Sender um. Diese Bewegung
bzw. Geste kann bei jedem Touchscreen eingegeben werden und führt
immer zum gleichen Ergebnis.
-
- 1
- Ausgabeeinheit
(Touchscreen)
- 3,
4, 5
- Mensch-Maschine-Schnittstellen
- 2,
6
- Rechnereinheiten
- 7
- Touchscreendisplay
- A
- Eingabebereich,
Bereich
- B
- Eingabebereich,
Bereich
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste
der vom Anmelder aufgeführten Dokumente wurde automatisiert
erzeugt und ist ausschließlich zur besseren Information
des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen
Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt
keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-