-
Die Erfindung betrifft eine Bedienvorrichtung mit einem Eyetracker sowie ein Verfahren zum Betreiben der Bedienvorrichtung. Bei der Bedienvorrichtung können mittels einer Anzeigeeinrichtung Icons oder Listeneinträge angezeigt und mittels eines graphischen Auswahlelements, beispielsweise eines Zeigers, ausgewählt werden. Das Positionieren des Auswahlelements erfolgt mittels eines Eyetrackers.
-
Eine Bedienvorrichtung der beschriebenen Art ist beispielsweise aus der
EP 2 525 271 A2 bekannt. Dort wird ein Markierungspunkt blickrichtungsabhängig auf einem Bildschirm verschoben. Um ein Icon auszuwählen, auf dem der Markierungspunkt positioniert ist, kann die Bedienperson beispielsweise Blinzeln oder einen entsprechenden Sprachbefehl aussprechen.
-
Aus der
DE 101 21 392 A2 ist ein Kraftfahrzeug bekannt, bei welchem blickrichtungsabhängig eine Steuerfunktion ausgewählt wird, die dann von der Bedienperson mittels eines haptischen Bedienelements aktiviert werden kann. Das Bedienelement ist an einem Lenkrad des Kraftfahrzeugs angeordnet.
-
Auch aus der
DE 10 2012 006 966 A1 ist ein Kraftfahrzeug mit Eyetracker zum Ermitteln eines durch den Fahrer betrachteten Bedienfelds bekannt. Das ausgewählte Bedienfeld kann mittels manueller oder sprachlicher Unterstützung oder durch Fixieren für eine Mindestblickdauer aktiviert werden.
-
Aus der
US 2006/0066567 A1 ist ein Kraftfahrzeug bekannt, bei welchem auf einem Bildschirm ein Text gescrollt wird. Ein Eyetracker überwacht hierbei die Blickrichtung des Fahrers und unterbricht das Scrollen, falls der Fahrer den Blick vom Bildschirm abwendet.
-
Aus der
US 2010/0110368 A1 ist eine Datenbrille mit einem Eyetracker bekannt.
-
Zukünftig werden portable Computergeräte, wie beispielsweise mobile Kommunikationsgeräte, also Smartphones oder Tablet-PCs, und auch Kraftfahrzeuge in zunehmendem Umfang über das Eye-Tracking bedienbar sein. Ist bisher nur die Erkennung des fixierten Betrachtungsbereichs möglich, wodurch zum Beispiel das Scrollen von Texten oder das Auf- und Abdimmen eines Displays abhängig vom Betrachtungszustand gesteuert werden kann, so wird zukünftig der konkrete Betrachtungspunkt sein. Das bedeutet, dass der Benutzer gezielt auf eine Anzeigefläche einer Anzeigeeinrichtung bestimmte Punkte, beispielsweise Icons, fixieren und dann bei diesen eine Interaktion auslösen kann, also die beispielsweise einem Icon zugeordnete Funktion aktivieren kann.
-
Das Auslösen einer via Eye-Tracking selektierten Funktion kann beispielsweise über ein zum Beispiel seitlich am portablen Computergerät angebrachtes Bedienelement mit Druckauswertung, beispielsweise eine Taste, erfolgen.
-
Der Erfindung liegt die Aufgabe zugrunde, eine Bedienvorrichtung für eine einhändige Bedienung eines Geräts bereitzustellen.
-
Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung ergeben sich durch die Merkmale der abhängigen Patentansprüche.
-
Durch die Erfindung ist eine Bedienvorrichtung mit einer Anzeigeeinrichtung und einem Eyetracker bereitgestellt. Die Bedienvorrichtung weist auch eine Steuereinheit auf, die dazu ausgelegt ist, auf einer Anzeigefläche der Anzeigeeinrichtung zumindest ein graphisches Objekt anzuzeigen, also beispielsweise zumindest ein Icon und/oder zumindest ein Listenelement einer Auswahlliste und/oder zumindest einen Textbestandteil eines Textes. Das zumindest eine graphische Objekt kann mittels eines graphischen Auswahlelements, beispielsweise eines graphischen Auswahlzeigers, ausgewählt werden, indem das auszuwählende Objekt durch das Auswahlelement anvisiert wird, also das Auswahlelement auf das auszuwählende Objekt ausgerichtet oder darauf positioniert wird oder mit dem Auswahlelement markiert wird. Das Auswahlelement wird dabei in Abhängigkeit von einem Blickrichtungssignal des Eyetrackers auf der Anzeigefläche positioniert.
-
Die erfindungsgemäße Bedienvorrichtung weist zusätzlich noch eine von dem Eyetracker verschiedene Lenkeinheit auf, z. B. eine Wipptaste. Erfindungsgemäß ist die Steuereinheit nun dazu ausgelegt, die Bedienvorrichtung in der folgenden erfindungsgemäßen Weise zu betreiben. In Abhängigkeit von einem Verschiebesignal der Lenkeinheit wird auf der Anzeigefläche das zumindest eine graphische Objekt verschoben und/oder zumindest ein weiteres graphisches Objekt eingeblendet.
-
Die Lenkeinheit stellt also nach der Blickrichtungssteuerung des Eyetrackers eine zweite Eingabemodalität dar. Mit der Lenkeinheit wird aber nicht das Auswahlelement, sondern das graphische Objekt verschoben. Umfasst das zumindest eine graphische Objekt zumindest ein Element einer Auswahlliste, so wird also die Auswahlliste in Abhängigkeit von dem Verschiebesignal gescrollt. Zusätzlich oder alternativ dazu kann das zumindest eine graphische Objekt zumindest ein Icon auf einem virtuellen Desktop umfassen. Ein virtueller Desktop ist in der an sich bekannten Weise eine graphische Benutzerschnittstelle (GUI – Graphical User Interface), auf deren Fläche Icons angeordnet sein können, wobei die Fläche größer als die Anzeigefläche ist. In Abhängigkeit von dem Verschiebesignal wird entsprechend der Darstellungsbereich des virtuellen Desktops eingestellt, d. h. der auf der Anzeigefläche sichtbare Bereich.
-
Durch die Erfindung ergibt sich der Vorteil, dass der Benutzer einerseits das Auswahlelement durch Blicksteuerung hin zu einem graphischen Objekt lenken kann und anders herum mittels der Lenkeinheit das graphische Objekt beispielsweise hin zum Auswahlelement. Insbesondere ist es dem Benutzer nun möglich, auch große Auswahllisten und virtuelle Desktops, die nicht ganzheitlich auf der Anzeigefläche angezeigt werden können, blickrichtungsabhängig zu bedienen, indem der Benutzer mittels der Lenkeinheit weitere graphische Objekte auf der Anzeigefläche zur Darstellung bringen kann.
-
Die Bedienvorrichtung kann als portables Computergerät, also beispielsweise als mobiles Kommunikationsendgerät, wie etwa ein Smartphone oder Tablet-PC oder Notepad, oder aber auch als Kraftfahrzeug ausgestaltet sein. Die Anzeigeeinrichtung kann z. B. ein Bildschirm oder ein HUD (Head Up Display) sein. Der benötigte Eyetracker kann in an sich bekannter Weise ausgestaltet sein. Beispielsweise kann er kamerabasiert eine Ausrichtung eines Augapfels in einer Augenhöhle auf Grundlage einer Bildverarbeitung ermitteln und durch das Blickrichtungssignal die Lage des Augapfel in der Augehöhle signalisieren.
-
Das Auswahlelement kann einen Auswahlzeiger zum Positionieren auf einem auszuwählenden Objekt, also z. B. ein Pfeil oder ein Fadenkreuz, und/oder eine Objektmarkierung zum optischen Markieren eines auszuwählenden Objekts, z. B. eine Färbung, umfassen. Eine Objektmarkierung erfordert bei flächiger Ausgestaltung eine geringere Erkennungsgenauigkeit der Blickrichtung.
-
Gemäß einer Weiterbildung der Erfindung wird das Auswahlelement in Abhängigkeit von einem Bereitschaftssignal aktiviert und/oder auf der Anzeigefläche angezeigt. Das Bereitschaftssignal wird von der Lenkeinheit berührungsabhängig erzeugt. Hierdurch kann der Benutzer manuell steuern, ob sein Blick eine Auswahl bewirken soll oder nicht.
-
Gemäß einer anderen Weiterbildung wird in Abhängigkeit von einem Aktivierungssignal der Lenkeinheit oder einer von der Lenkeinheit verschiedenen Bedieneinheit, also beispielsweise einem Tastknopf, ein Funktion aktiviert, die dem momentan mittels des Auswahlelements ausgewählten Objekt zugeordnet ist. Mit anderen Worten kann der Benutzer ein graphisches Objekt, das er anschaut und hierdurch mittels des Auswahlelements ausgewählt hat, durch Erzeugen des Aktivierungssignals „anklicken”.
-
Gemäß einer Weiterbildung ist vorgesehen, dass der Eyetracker und die Lenkeinheit in einem gemeinsamen Gehäuse angeordnet sind, wie es beispielsweise für ein portables Computergerät vorteilhaft ist.
-
Mittels der Lenkeinheit wird das zumindest eine graphische Objekt räumlich bezüglich des Auswahlelements auf der Anzeigefläche positioniert, insbesondere verschoben. Zum Erzeugen des entsprechenden Verschiebesignals umfasst die Lenkeinheit gemäß einer Weiterbildung der Erfindung eine mechanische, insbesondere drucksensitive Bedienschnittstelle. Diese Bedienschnittstelle kann zumindest eine Taste und/oder einen Schiebeschalter und/oder einen Wippschalter und/oder ein Drehrad aufweisen. Hierbei haben ein Schiebeschalter, ein Wippschalter und ein Drehrad jeweils den Vorteil, dass mit ihnen eine Scrollrichtung oder Bewegungsrichtung sowie eine entgegengesetzte Scrollrichtung beziehungsweise Bewegungsrichtung vorgegeben werden kann.
-
Zusätzlich oder alternativ zur mechanischen Bedienschnittstelle ist gemäß einer Weiterbildung der Erfindung vorgesehen, dass die Lenkeinheit zum Erzeugen des Verschiebesignals ein berührungssensitives Sensorfeld aufweist, das beispielsweise als ein Touchpad ausgestaltet sein kann. Das berührungssensitive Sensorfeld kann auch Bestandteil der Anzeigeeinrichtung sein, die dann einen Touchscreen darstellt. Das Sensorfeld kann als eine einzeilige Sensorreihe ausgelegt sein, wodurch sich dann ein länglich geformtes Bedienfeld ergibt. Der Benutzer kann dann entlang dieser Zeile von Sensoren beispielsweise mit einem Finger gleiten und hierdurch ein Verschieben des graphischen Objekts und/oder das zusätzliche Einblenden eines weiteren graphischen Objekts bewirken. Ist das Sensorfeld als Sensormatrix ausgestaltet, so ergibt sich das genannte Touchpad.
-
Bei der Lenkeinheit kann also insbesondere eine Verschiebung z. B. eines Menüs über mechanischen Druck auf ein Element in die jeweilige Richtung und/oder über eine Slide-Bewegung oder Wischbewegung über ein sensorisches Bedienelement bereitgestellt sein.
-
Eine bevorzugte Ausführungsform ist ein länglicher Taster, in den die Sensorik zur Erfassung von Wischbewegungen entlang dessen Längsachse integriert ist. Dann kann mittels einer Wischbewegung eines Fingers entlang der Sensorik gescrollt und durch Drücken des Tasters mit demselben Finger eine visuell getroffene Auswahl eines graphischen Objekts bestätigt werden.
-
Gemäß einer Weiterbildung der Erfindung ist die Lenkeinheit dazu ausgelegt, druckabhängig zwischen einer bloßen Berührung der Lenkeinheit und einer willentlichen Druckbetätigung zu unterscheiden. Mit anderen Worten wird bei der Lenkeinheit durch Druckaufbau auf die Lenkeinheit und Überschreiten eines vorbestimmten Schwellenwerts ein Betätigungssignal erzeugt, das beispielsweise als das beschriebene Aktivierungssignal zum Aktivieren einer Funktion genutzt werden kann. Das Berührungssignal kann dagegen als das beschriebene Bereitschaftssignal genutzt werden, durch welches das Aufschalten des Auswahlelements bewirkt wird.
-
Gemäß einer Weiterbildung weist die Lenkeinheit zum Erzeugen des Verschiebesignals einen Spracherkenner auf. Hierdurch kann der Benutzer mittels Sprachsteuerung das zumindest eine Objekt auf der Anzeigefläche verschieben. Beispielsweise kann ein Scrollen durch Sprachbefehle „rauf” und „runter” gesteuert werden. Das Einblenden zusätzlicher Objekte kann beispielsweise mit dem Sprachbefehl „mehr” bewirkt werden.
-
Gemäß einer anderen Weiterbildung der Erfindung weist die Lenkeinheit zum Erzeugen des Verschiebesignals einen Neigungssensor und/oder einen Inertialsensor auf. Ein Inertialsensor signalisiert eine Beschleunigung. Mittels eines Neigungssensors kann das Verschieben und/oder zusätzliche Einblenden von Objekten, beispielsweise durch Kippen der Bedienvorrichtung gesteuert werden. Mittels eines Inertialsensors kann das Verschieben und/oder Einblenden von Objekten durch eine Bewegung der Bedienvorrichtung im Raum bewirkt werden. Hierdurch kann beispielsweise ein Augmented-Reality-Effect erzielt werden, indem graphische Objekte in ein Kamerabild eingeblendet werden.
-
Im Folgenden ist ein Ausführungsbeispiel der Erfindung beschrieben. Hierzu zeigt die einzige Figur (Fig.) eine schematische Darstellung einer Ausführungsform der erfindungsgemäßen Bedienvorrichtung.
-
Bei dem im Folgenden erläuterten Ausführungsbeispiel handelt es sich um eine bevorzugte Ausführungsform der Erfindung. Bei dem Ausführungsbeispiel stellen aber die beschriebenen Komponenten der Ausführungsform jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren ist die beschriebene Ausführungsform auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.
-
In der Fig. ist eine Bedienvorrichtung 10 gezeigt, die eine Anzeigeeinrichtung 12, einen Eyetracker 14, eine Lenkeinheit 16 und eine Steuereinheit 18 aufweisen kann. Mit der Bedienvorrichtung 10 kann beispielsweise ein Gerät 20 oder es können auch (nicht dargestellte) mehrere Geräte bedient werden. In dem in der Fig. gezeigten Beispiel ist das Gerät 20 zusammen mit der Bedienvorrichtung 10 in einem gemeinsamen Gehäuse 22 integriert. Die Bedienvorrichtung 10 kann beispielsweise als portables Computergerät, insbesondere Smartphone, ausgestaltet sein. In einer anderen (nicht gezeigten) Ausführungsform ist die Bedienvorrichtung 10 Bestandteil eines Kraftfahrzeugs, von dem dann ein Gerät 20, beispielsweise ein Infotainmentsystem, mittels der Bedienvorrichtung 10 bedient werden kann.
-
Die Steuereinheit 20 kann beispielsweise durch einen Mikroprozessor oder eine andere Prozessoreinrichtung bereitgestellt sein. Die Steuereinheit 18 kann die Anzeigeeinrichtung 12 steuern. Die Anzeigeeinrichtung 12 kann beispielsweise ein Bildschirm sein. In dem in der Fig. gezeigten Beispiel erzeugt die Steuereinheit 18 auf einer Anzeigefläche 24 der Anzeigeeinrichtung 12 graphische Objekte 26, bei denen es sich beispielsweise um einzelne Listeneinträge einer Auswahlliste 28 handeln kann. Die einzelnen Listenelemente sind hier als L 1, L 2, L 3, L 4, L 5 bezeichnet.
-
Ein Benutzer möchte aus der Auswahlliste 28 ein Listenelement auswählen. Hierbei kann er die Bedienvorrichtung 10 mit nur einer Hand bedienen. Der Benutzer blickt mit einem Auge 30 auf die Anzeigefläche 24. Der Eyetracker 14 kann eine Blickrichtung 32 oder Blickachse des Auges 30 ermitteln und die erkannte Blickrichtung 32 als ein Blickrichtungssignal B an die Steuereinheit 18 signalisieren. Die Steuereinheit 18 kann beispielsweise eine Blickachse aus dem Blickrichtungssignal B, das heißt der Blickrichtung 32, ermitteln und einen Schnittpunkt der Blickachse mit der Anzeigefläche 24 ermitteln. An dem Schnittpunkt kann die Steuereinheit 18 ein Auswahlelement 34 positionieren, beispielsweise einen Auswahlpfeil, einen Mauszeiger oder einen Punkt oder ein anderes Symbol. Zusätzlich oder Alternativ zu dem Auswahlelement kann vorgesehen sein, dass ermittelt wird, auf welches graphische Objekt 26 die Blickrichtung 32 weist und durch eine Objektmarkierung 36 das betrachtete Objekt 26, in dem Beispiel der Listeneintrag L 3, markieren. Auch die Objektmarkierung 36 kann ein Auswahlelement darstellen. Die Objektmarkierung 36 ist in der Fig. als Schraffur symbolisch dargestellt. Durch Verschwenken der Blickrichtung 32 in eine erste Verschwenkrichtung 38 oder eine zweite Verschwenkrichtung 40 kann in bekannter Weise das Auswahlelement 34, 36 in eine entsprechende Verschieberichtung 38' oder 40' auf der Anzeigefläche 24 verschoben werden.
-
Die Auswahlliste 28 kann länger sein als eine entsprechende Erstreckung der Anzeigefläche 24. Mit anderen Worten können allgemein mehr graphische Objekte 26 vorhanden sein, als gleichzeitig auf der Anzeigefläche 24 angezeigt werden können. Der Benutzer kann die graphischen Objekte 26 auf der Anzeigefläche 24 verschieben und hierdurch weitere graphische Objekte auf der Anzeigefläche 24 dargestellt bekommen, das heißt einblenden lassen. Der Benutzer kann hierzu einen Finger 42 an die Lenkeinheit 16 legen. Die Lenkeinheit 16 kann ein sensorisches Bedienelement sein mit einer Wippen- oder Sliderfunktion. Der Benutzer kann durch Verorten seines Fingers 42 auf dem oder entlang der Lenkeinheit 16 Einfluss auf das Interface nehmen, also auf die Darstellung auf der Anzeigefläche 24. Beispielsweise kann vorgesehen sein, dass durch Entlanggleiten mit dem Finger 42 in eine erste Gleitrichtung 44 oder eine zweite Gleitrichtung 46 die graphischen Objekte 26 auf der Anzeigefläche 24 in eine entsprechende Verschieberichtung 44' oder 46' verschoben werden. Die Lenkeinheit 16 übermittelt ihr Sensorsignal betreffend die Verschiebung 44, 46 als Verschiebesignal L an die Steuereinheit 18. Die Lenkeinheit 16 kann insbesondere ein länglicher Taster sein, in den die Sensorik zur Erfassung von Wischbewegungen entlang dessen Längsachse integriert ist.
-
Der Benutzer kann so ein über die Grenzen der Anzeigefläche 24 hinausreichendes langes Auswahlmenü 28, das heißt eine lange Auswahlliste, einfach über die Manipulation der Lenkeinheit 16 bedienen. Hierdurch kann sich beispielsweise ein Scrollen der Auswahlliste 28 ergeben. Handelt es sich bei der Lenkeinheit 16 um einen Schiebeschalter oder ein Sensorfeld, so kann der Benutzer auf dem länglichen Bedienungselement durch Entlanggleiten eine Menüliste hoch- und runterscrollen, so dass dann im sichtbaren Menüabschnitt mittels des Blickes durch Ausrichten der Blickrichtung 32 eine Auswahl mit dem Auge 30 oder den beiden Augen vorgenommen werden kann.
-
Es kann dann vorgesehen sein, dass beispielsweise durch Druckaufbau auf die Lenkeinheit 16 oder ein anderes Bedienelement eine Selektion vorgenommen wird. Mit anderen Worten erzeugt die Lenkeinheit 16 bei Druckaufbau ein Aktivierungssignal A. Die Steuereinheit 18 aktiviert dann beispielsweise in dem Gerät 20 ein durch das momentan ausgewählte graphische Objekt 26, hier den Listeneintrag L 3, eine entsprechende Funktion.
-
Allgemein kann die Lenkeinheit 16 eine separate Taste sein oder aber auch andere Gestaltungsformen, zum Beispiel als oberflächenbündiges sensorisches Feld, ausgestaltet sein.
-
Bei der Bedienvorrichtung 10 kann vorgesehen sein, dass die Steuereinheit 18 den Eye-Tracking-Interaktionsmodus erst ausschaltet, das heißt das Anzeigeelement 34, 36 erst einblendet, wenn die Lenkeinheit 16 berührt wird.
-
Die Berührung unterscheidet sich dabei von dem das Auslösesignal A erzeugenden Druck durch eine geringere Druckkraft. Berührt also der Benutzer mit dem Finger 42 die Lenkeinheit nur geringfügig, so erzeugt die Lenkeinheit zunächst ein Bereitschaftssignal R.
-
Das Scrollen langer Auswahlmenüs über die Blickrichtung an sich ist nicht praktikabel, da dies langsam ist und viel Ablenkung mit sich bringt. Zudem wäre eine Selektion am Rand befindlicher Menü- oder Listenpunkte nicht möglich, da dann selbige immer anfangen würde zu scrollen.
-
Durch die Bedienvorrichtung wird eine Trennung der Eingabemodalitäten für die Auswahl von Listenelementen einerseits (blickrichtungsabhängig) und das Scrollen andererseits mittels der Lenkeinheit 16 vorgenommen. Somit ergibt sich eine Auslösung einer via Eye-Tracking selektierten Funktion über ein druckauslösendes Bedienelement mit einer Sliderfunktion.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- EP 2525271 A2 [0002]
- DE 10121392 A2 [0003]
- DE 102012006966 A1 [0004]
- US 2006/0066567 A1 [0005]
- US 2010/0110368 A1 [0006]