DE102013021814A1 - Bedienvorrichtung mit Eyetracker - Google Patents

Bedienvorrichtung mit Eyetracker Download PDF

Info

Publication number
DE102013021814A1
DE102013021814A1 DE102013021814.4A DE102013021814A DE102013021814A1 DE 102013021814 A1 DE102013021814 A1 DE 102013021814A1 DE 102013021814 A DE102013021814 A DE 102013021814A DE 102013021814 A1 DE102013021814 A1 DE 102013021814A1
Authority
DE
Germany
Prior art keywords
steering unit
operating device
signal
selection
selection element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102013021814.4A
Other languages
English (en)
Inventor
Marcus Kühne
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102013021814.4A priority Critical patent/DE102013021814A1/de
Publication of DE102013021814A1 publication Critical patent/DE102013021814A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys

Abstract

Die Erfindung betriff ein Verfahren zum Betreiben einer Bedienvorrichtung (10), indem auf einer Anzeigefläche (24) durch eine Anzeigeeinrichtung (12) zumindest ein graphisches Objekt (26), das mittels eines graphischen Auswahlelements (34, 36) durch Anvisieren auswählbar ausgestaltetet ist, angezeigt wird und in Abhängigkeit von einem Blickrichtungssignal (B) eines Eyetrackers (14) das Auswahlelement (34, 36) auf der Anzeigefläche (24) positioniert wird. Der Erfindung liegt die Aufgabe zugrunde, eine Bedienvorrichtung für eine einhändige Bedienung eines Geräts bereitzustellen. Hierzu wird in Abhängigkeit von einem Verschiebesignal (L) einer von dem Eyetracker (14) verschiedenen Lenkeinheit (16) auf der Anzeigefläche (24) das zumindest eine Objekt (26) verschoben und/oder zumindest ein weiteres graphisches Objekt eingeblendet. So lassen sich z. B. lange Auswahllisten (28) scrollen.

Description

  • Die Erfindung betrifft eine Bedienvorrichtung mit einem Eyetracker sowie ein Verfahren zum Betreiben der Bedienvorrichtung. Bei der Bedienvorrichtung können mittels einer Anzeigeeinrichtung Icons oder Listeneinträge angezeigt und mittels eines graphischen Auswahlelements, beispielsweise eines Zeigers, ausgewählt werden. Das Positionieren des Auswahlelements erfolgt mittels eines Eyetrackers.
  • Eine Bedienvorrichtung der beschriebenen Art ist beispielsweise aus der EP 2 525 271 A2 bekannt. Dort wird ein Markierungspunkt blickrichtungsabhängig auf einem Bildschirm verschoben. Um ein Icon auszuwählen, auf dem der Markierungspunkt positioniert ist, kann die Bedienperson beispielsweise Blinzeln oder einen entsprechenden Sprachbefehl aussprechen.
  • Aus der DE 101 21 392 A2 ist ein Kraftfahrzeug bekannt, bei welchem blickrichtungsabhängig eine Steuerfunktion ausgewählt wird, die dann von der Bedienperson mittels eines haptischen Bedienelements aktiviert werden kann. Das Bedienelement ist an einem Lenkrad des Kraftfahrzeugs angeordnet.
  • Auch aus der DE 10 2012 006 966 A1 ist ein Kraftfahrzeug mit Eyetracker zum Ermitteln eines durch den Fahrer betrachteten Bedienfelds bekannt. Das ausgewählte Bedienfeld kann mittels manueller oder sprachlicher Unterstützung oder durch Fixieren für eine Mindestblickdauer aktiviert werden.
  • Aus der US 2006/0066567 A1 ist ein Kraftfahrzeug bekannt, bei welchem auf einem Bildschirm ein Text gescrollt wird. Ein Eyetracker überwacht hierbei die Blickrichtung des Fahrers und unterbricht das Scrollen, falls der Fahrer den Blick vom Bildschirm abwendet.
  • Aus der US 2010/0110368 A1 ist eine Datenbrille mit einem Eyetracker bekannt.
  • Zukünftig werden portable Computergeräte, wie beispielsweise mobile Kommunikationsgeräte, also Smartphones oder Tablet-PCs, und auch Kraftfahrzeuge in zunehmendem Umfang über das Eye-Tracking bedienbar sein. Ist bisher nur die Erkennung des fixierten Betrachtungsbereichs möglich, wodurch zum Beispiel das Scrollen von Texten oder das Auf- und Abdimmen eines Displays abhängig vom Betrachtungszustand gesteuert werden kann, so wird zukünftig der konkrete Betrachtungspunkt sein. Das bedeutet, dass der Benutzer gezielt auf eine Anzeigefläche einer Anzeigeeinrichtung bestimmte Punkte, beispielsweise Icons, fixieren und dann bei diesen eine Interaktion auslösen kann, also die beispielsweise einem Icon zugeordnete Funktion aktivieren kann.
  • Das Auslösen einer via Eye-Tracking selektierten Funktion kann beispielsweise über ein zum Beispiel seitlich am portablen Computergerät angebrachtes Bedienelement mit Druckauswertung, beispielsweise eine Taste, erfolgen.
  • Der Erfindung liegt die Aufgabe zugrunde, eine Bedienvorrichtung für eine einhändige Bedienung eines Geräts bereitzustellen.
  • Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung ergeben sich durch die Merkmale der abhängigen Patentansprüche.
  • Durch die Erfindung ist eine Bedienvorrichtung mit einer Anzeigeeinrichtung und einem Eyetracker bereitgestellt. Die Bedienvorrichtung weist auch eine Steuereinheit auf, die dazu ausgelegt ist, auf einer Anzeigefläche der Anzeigeeinrichtung zumindest ein graphisches Objekt anzuzeigen, also beispielsweise zumindest ein Icon und/oder zumindest ein Listenelement einer Auswahlliste und/oder zumindest einen Textbestandteil eines Textes. Das zumindest eine graphische Objekt kann mittels eines graphischen Auswahlelements, beispielsweise eines graphischen Auswahlzeigers, ausgewählt werden, indem das auszuwählende Objekt durch das Auswahlelement anvisiert wird, also das Auswahlelement auf das auszuwählende Objekt ausgerichtet oder darauf positioniert wird oder mit dem Auswahlelement markiert wird. Das Auswahlelement wird dabei in Abhängigkeit von einem Blickrichtungssignal des Eyetrackers auf der Anzeigefläche positioniert.
  • Die erfindungsgemäße Bedienvorrichtung weist zusätzlich noch eine von dem Eyetracker verschiedene Lenkeinheit auf, z. B. eine Wipptaste. Erfindungsgemäß ist die Steuereinheit nun dazu ausgelegt, die Bedienvorrichtung in der folgenden erfindungsgemäßen Weise zu betreiben. In Abhängigkeit von einem Verschiebesignal der Lenkeinheit wird auf der Anzeigefläche das zumindest eine graphische Objekt verschoben und/oder zumindest ein weiteres graphisches Objekt eingeblendet.
  • Die Lenkeinheit stellt also nach der Blickrichtungssteuerung des Eyetrackers eine zweite Eingabemodalität dar. Mit der Lenkeinheit wird aber nicht das Auswahlelement, sondern das graphische Objekt verschoben. Umfasst das zumindest eine graphische Objekt zumindest ein Element einer Auswahlliste, so wird also die Auswahlliste in Abhängigkeit von dem Verschiebesignal gescrollt. Zusätzlich oder alternativ dazu kann das zumindest eine graphische Objekt zumindest ein Icon auf einem virtuellen Desktop umfassen. Ein virtueller Desktop ist in der an sich bekannten Weise eine graphische Benutzerschnittstelle (GUI – Graphical User Interface), auf deren Fläche Icons angeordnet sein können, wobei die Fläche größer als die Anzeigefläche ist. In Abhängigkeit von dem Verschiebesignal wird entsprechend der Darstellungsbereich des virtuellen Desktops eingestellt, d. h. der auf der Anzeigefläche sichtbare Bereich.
  • Durch die Erfindung ergibt sich der Vorteil, dass der Benutzer einerseits das Auswahlelement durch Blicksteuerung hin zu einem graphischen Objekt lenken kann und anders herum mittels der Lenkeinheit das graphische Objekt beispielsweise hin zum Auswahlelement. Insbesondere ist es dem Benutzer nun möglich, auch große Auswahllisten und virtuelle Desktops, die nicht ganzheitlich auf der Anzeigefläche angezeigt werden können, blickrichtungsabhängig zu bedienen, indem der Benutzer mittels der Lenkeinheit weitere graphische Objekte auf der Anzeigefläche zur Darstellung bringen kann.
  • Die Bedienvorrichtung kann als portables Computergerät, also beispielsweise als mobiles Kommunikationsendgerät, wie etwa ein Smartphone oder Tablet-PC oder Notepad, oder aber auch als Kraftfahrzeug ausgestaltet sein. Die Anzeigeeinrichtung kann z. B. ein Bildschirm oder ein HUD (Head Up Display) sein. Der benötigte Eyetracker kann in an sich bekannter Weise ausgestaltet sein. Beispielsweise kann er kamerabasiert eine Ausrichtung eines Augapfels in einer Augenhöhle auf Grundlage einer Bildverarbeitung ermitteln und durch das Blickrichtungssignal die Lage des Augapfel in der Augehöhle signalisieren.
  • Das Auswahlelement kann einen Auswahlzeiger zum Positionieren auf einem auszuwählenden Objekt, also z. B. ein Pfeil oder ein Fadenkreuz, und/oder eine Objektmarkierung zum optischen Markieren eines auszuwählenden Objekts, z. B. eine Färbung, umfassen. Eine Objektmarkierung erfordert bei flächiger Ausgestaltung eine geringere Erkennungsgenauigkeit der Blickrichtung.
  • Gemäß einer Weiterbildung der Erfindung wird das Auswahlelement in Abhängigkeit von einem Bereitschaftssignal aktiviert und/oder auf der Anzeigefläche angezeigt. Das Bereitschaftssignal wird von der Lenkeinheit berührungsabhängig erzeugt. Hierdurch kann der Benutzer manuell steuern, ob sein Blick eine Auswahl bewirken soll oder nicht.
  • Gemäß einer anderen Weiterbildung wird in Abhängigkeit von einem Aktivierungssignal der Lenkeinheit oder einer von der Lenkeinheit verschiedenen Bedieneinheit, also beispielsweise einem Tastknopf, ein Funktion aktiviert, die dem momentan mittels des Auswahlelements ausgewählten Objekt zugeordnet ist. Mit anderen Worten kann der Benutzer ein graphisches Objekt, das er anschaut und hierdurch mittels des Auswahlelements ausgewählt hat, durch Erzeugen des Aktivierungssignals „anklicken”.
  • Gemäß einer Weiterbildung ist vorgesehen, dass der Eyetracker und die Lenkeinheit in einem gemeinsamen Gehäuse angeordnet sind, wie es beispielsweise für ein portables Computergerät vorteilhaft ist.
  • Mittels der Lenkeinheit wird das zumindest eine graphische Objekt räumlich bezüglich des Auswahlelements auf der Anzeigefläche positioniert, insbesondere verschoben. Zum Erzeugen des entsprechenden Verschiebesignals umfasst die Lenkeinheit gemäß einer Weiterbildung der Erfindung eine mechanische, insbesondere drucksensitive Bedienschnittstelle. Diese Bedienschnittstelle kann zumindest eine Taste und/oder einen Schiebeschalter und/oder einen Wippschalter und/oder ein Drehrad aufweisen. Hierbei haben ein Schiebeschalter, ein Wippschalter und ein Drehrad jeweils den Vorteil, dass mit ihnen eine Scrollrichtung oder Bewegungsrichtung sowie eine entgegengesetzte Scrollrichtung beziehungsweise Bewegungsrichtung vorgegeben werden kann.
  • Zusätzlich oder alternativ zur mechanischen Bedienschnittstelle ist gemäß einer Weiterbildung der Erfindung vorgesehen, dass die Lenkeinheit zum Erzeugen des Verschiebesignals ein berührungssensitives Sensorfeld aufweist, das beispielsweise als ein Touchpad ausgestaltet sein kann. Das berührungssensitive Sensorfeld kann auch Bestandteil der Anzeigeeinrichtung sein, die dann einen Touchscreen darstellt. Das Sensorfeld kann als eine einzeilige Sensorreihe ausgelegt sein, wodurch sich dann ein länglich geformtes Bedienfeld ergibt. Der Benutzer kann dann entlang dieser Zeile von Sensoren beispielsweise mit einem Finger gleiten und hierdurch ein Verschieben des graphischen Objekts und/oder das zusätzliche Einblenden eines weiteren graphischen Objekts bewirken. Ist das Sensorfeld als Sensormatrix ausgestaltet, so ergibt sich das genannte Touchpad.
  • Bei der Lenkeinheit kann also insbesondere eine Verschiebung z. B. eines Menüs über mechanischen Druck auf ein Element in die jeweilige Richtung und/oder über eine Slide-Bewegung oder Wischbewegung über ein sensorisches Bedienelement bereitgestellt sein.
  • Eine bevorzugte Ausführungsform ist ein länglicher Taster, in den die Sensorik zur Erfassung von Wischbewegungen entlang dessen Längsachse integriert ist. Dann kann mittels einer Wischbewegung eines Fingers entlang der Sensorik gescrollt und durch Drücken des Tasters mit demselben Finger eine visuell getroffene Auswahl eines graphischen Objekts bestätigt werden.
  • Gemäß einer Weiterbildung der Erfindung ist die Lenkeinheit dazu ausgelegt, druckabhängig zwischen einer bloßen Berührung der Lenkeinheit und einer willentlichen Druckbetätigung zu unterscheiden. Mit anderen Worten wird bei der Lenkeinheit durch Druckaufbau auf die Lenkeinheit und Überschreiten eines vorbestimmten Schwellenwerts ein Betätigungssignal erzeugt, das beispielsweise als das beschriebene Aktivierungssignal zum Aktivieren einer Funktion genutzt werden kann. Das Berührungssignal kann dagegen als das beschriebene Bereitschaftssignal genutzt werden, durch welches das Aufschalten des Auswahlelements bewirkt wird.
  • Gemäß einer Weiterbildung weist die Lenkeinheit zum Erzeugen des Verschiebesignals einen Spracherkenner auf. Hierdurch kann der Benutzer mittels Sprachsteuerung das zumindest eine Objekt auf der Anzeigefläche verschieben. Beispielsweise kann ein Scrollen durch Sprachbefehle „rauf” und „runter” gesteuert werden. Das Einblenden zusätzlicher Objekte kann beispielsweise mit dem Sprachbefehl „mehr” bewirkt werden.
  • Gemäß einer anderen Weiterbildung der Erfindung weist die Lenkeinheit zum Erzeugen des Verschiebesignals einen Neigungssensor und/oder einen Inertialsensor auf. Ein Inertialsensor signalisiert eine Beschleunigung. Mittels eines Neigungssensors kann das Verschieben und/oder zusätzliche Einblenden von Objekten, beispielsweise durch Kippen der Bedienvorrichtung gesteuert werden. Mittels eines Inertialsensors kann das Verschieben und/oder Einblenden von Objekten durch eine Bewegung der Bedienvorrichtung im Raum bewirkt werden. Hierdurch kann beispielsweise ein Augmented-Reality-Effect erzielt werden, indem graphische Objekte in ein Kamerabild eingeblendet werden.
  • Im Folgenden ist ein Ausführungsbeispiel der Erfindung beschrieben. Hierzu zeigt die einzige Figur (Fig.) eine schematische Darstellung einer Ausführungsform der erfindungsgemäßen Bedienvorrichtung.
  • Bei dem im Folgenden erläuterten Ausführungsbeispiel handelt es sich um eine bevorzugte Ausführungsform der Erfindung. Bei dem Ausführungsbeispiel stellen aber die beschriebenen Komponenten der Ausführungsform jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren ist die beschriebene Ausführungsform auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.
  • In der Fig. ist eine Bedienvorrichtung 10 gezeigt, die eine Anzeigeeinrichtung 12, einen Eyetracker 14, eine Lenkeinheit 16 und eine Steuereinheit 18 aufweisen kann. Mit der Bedienvorrichtung 10 kann beispielsweise ein Gerät 20 oder es können auch (nicht dargestellte) mehrere Geräte bedient werden. In dem in der Fig. gezeigten Beispiel ist das Gerät 20 zusammen mit der Bedienvorrichtung 10 in einem gemeinsamen Gehäuse 22 integriert. Die Bedienvorrichtung 10 kann beispielsweise als portables Computergerät, insbesondere Smartphone, ausgestaltet sein. In einer anderen (nicht gezeigten) Ausführungsform ist die Bedienvorrichtung 10 Bestandteil eines Kraftfahrzeugs, von dem dann ein Gerät 20, beispielsweise ein Infotainmentsystem, mittels der Bedienvorrichtung 10 bedient werden kann.
  • Die Steuereinheit 20 kann beispielsweise durch einen Mikroprozessor oder eine andere Prozessoreinrichtung bereitgestellt sein. Die Steuereinheit 18 kann die Anzeigeeinrichtung 12 steuern. Die Anzeigeeinrichtung 12 kann beispielsweise ein Bildschirm sein. In dem in der Fig. gezeigten Beispiel erzeugt die Steuereinheit 18 auf einer Anzeigefläche 24 der Anzeigeeinrichtung 12 graphische Objekte 26, bei denen es sich beispielsweise um einzelne Listeneinträge einer Auswahlliste 28 handeln kann. Die einzelnen Listenelemente sind hier als L 1, L 2, L 3, L 4, L 5 bezeichnet.
  • Ein Benutzer möchte aus der Auswahlliste 28 ein Listenelement auswählen. Hierbei kann er die Bedienvorrichtung 10 mit nur einer Hand bedienen. Der Benutzer blickt mit einem Auge 30 auf die Anzeigefläche 24. Der Eyetracker 14 kann eine Blickrichtung 32 oder Blickachse des Auges 30 ermitteln und die erkannte Blickrichtung 32 als ein Blickrichtungssignal B an die Steuereinheit 18 signalisieren. Die Steuereinheit 18 kann beispielsweise eine Blickachse aus dem Blickrichtungssignal B, das heißt der Blickrichtung 32, ermitteln und einen Schnittpunkt der Blickachse mit der Anzeigefläche 24 ermitteln. An dem Schnittpunkt kann die Steuereinheit 18 ein Auswahlelement 34 positionieren, beispielsweise einen Auswahlpfeil, einen Mauszeiger oder einen Punkt oder ein anderes Symbol. Zusätzlich oder Alternativ zu dem Auswahlelement kann vorgesehen sein, dass ermittelt wird, auf welches graphische Objekt 26 die Blickrichtung 32 weist und durch eine Objektmarkierung 36 das betrachtete Objekt 26, in dem Beispiel der Listeneintrag L 3, markieren. Auch die Objektmarkierung 36 kann ein Auswahlelement darstellen. Die Objektmarkierung 36 ist in der Fig. als Schraffur symbolisch dargestellt. Durch Verschwenken der Blickrichtung 32 in eine erste Verschwenkrichtung 38 oder eine zweite Verschwenkrichtung 40 kann in bekannter Weise das Auswahlelement 34, 36 in eine entsprechende Verschieberichtung 38' oder 40' auf der Anzeigefläche 24 verschoben werden.
  • Die Auswahlliste 28 kann länger sein als eine entsprechende Erstreckung der Anzeigefläche 24. Mit anderen Worten können allgemein mehr graphische Objekte 26 vorhanden sein, als gleichzeitig auf der Anzeigefläche 24 angezeigt werden können. Der Benutzer kann die graphischen Objekte 26 auf der Anzeigefläche 24 verschieben und hierdurch weitere graphische Objekte auf der Anzeigefläche 24 dargestellt bekommen, das heißt einblenden lassen. Der Benutzer kann hierzu einen Finger 42 an die Lenkeinheit 16 legen. Die Lenkeinheit 16 kann ein sensorisches Bedienelement sein mit einer Wippen- oder Sliderfunktion. Der Benutzer kann durch Verorten seines Fingers 42 auf dem oder entlang der Lenkeinheit 16 Einfluss auf das Interface nehmen, also auf die Darstellung auf der Anzeigefläche 24. Beispielsweise kann vorgesehen sein, dass durch Entlanggleiten mit dem Finger 42 in eine erste Gleitrichtung 44 oder eine zweite Gleitrichtung 46 die graphischen Objekte 26 auf der Anzeigefläche 24 in eine entsprechende Verschieberichtung 44' oder 46' verschoben werden. Die Lenkeinheit 16 übermittelt ihr Sensorsignal betreffend die Verschiebung 44, 46 als Verschiebesignal L an die Steuereinheit 18. Die Lenkeinheit 16 kann insbesondere ein länglicher Taster sein, in den die Sensorik zur Erfassung von Wischbewegungen entlang dessen Längsachse integriert ist.
  • Der Benutzer kann so ein über die Grenzen der Anzeigefläche 24 hinausreichendes langes Auswahlmenü 28, das heißt eine lange Auswahlliste, einfach über die Manipulation der Lenkeinheit 16 bedienen. Hierdurch kann sich beispielsweise ein Scrollen der Auswahlliste 28 ergeben. Handelt es sich bei der Lenkeinheit 16 um einen Schiebeschalter oder ein Sensorfeld, so kann der Benutzer auf dem länglichen Bedienungselement durch Entlanggleiten eine Menüliste hoch- und runterscrollen, so dass dann im sichtbaren Menüabschnitt mittels des Blickes durch Ausrichten der Blickrichtung 32 eine Auswahl mit dem Auge 30 oder den beiden Augen vorgenommen werden kann.
  • Es kann dann vorgesehen sein, dass beispielsweise durch Druckaufbau auf die Lenkeinheit 16 oder ein anderes Bedienelement eine Selektion vorgenommen wird. Mit anderen Worten erzeugt die Lenkeinheit 16 bei Druckaufbau ein Aktivierungssignal A. Die Steuereinheit 18 aktiviert dann beispielsweise in dem Gerät 20 ein durch das momentan ausgewählte graphische Objekt 26, hier den Listeneintrag L 3, eine entsprechende Funktion.
  • Allgemein kann die Lenkeinheit 16 eine separate Taste sein oder aber auch andere Gestaltungsformen, zum Beispiel als oberflächenbündiges sensorisches Feld, ausgestaltet sein.
  • Bei der Bedienvorrichtung 10 kann vorgesehen sein, dass die Steuereinheit 18 den Eye-Tracking-Interaktionsmodus erst ausschaltet, das heißt das Anzeigeelement 34, 36 erst einblendet, wenn die Lenkeinheit 16 berührt wird.
  • Die Berührung unterscheidet sich dabei von dem das Auslösesignal A erzeugenden Druck durch eine geringere Druckkraft. Berührt also der Benutzer mit dem Finger 42 die Lenkeinheit nur geringfügig, so erzeugt die Lenkeinheit zunächst ein Bereitschaftssignal R.
  • Das Scrollen langer Auswahlmenüs über die Blickrichtung an sich ist nicht praktikabel, da dies langsam ist und viel Ablenkung mit sich bringt. Zudem wäre eine Selektion am Rand befindlicher Menü- oder Listenpunkte nicht möglich, da dann selbige immer anfangen würde zu scrollen.
  • Durch die Bedienvorrichtung wird eine Trennung der Eingabemodalitäten für die Auswahl von Listenelementen einerseits (blickrichtungsabhängig) und das Scrollen andererseits mittels der Lenkeinheit 16 vorgenommen. Somit ergibt sich eine Auslösung einer via Eye-Tracking selektierten Funktion über ein druckauslösendes Bedienelement mit einer Sliderfunktion.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 2525271 A2 [0002]
    • DE 10121392 A2 [0003]
    • DE 102012006966 A1 [0004]
    • US 2006/0066567 A1 [0005]
    • US 2010/0110368 A1 [0006]

Claims (12)

  1. Verfahren zum Betreiben einer Bedienvorrichtung (10), indem – auf einer Anzeigefläche (24) durch eine Anzeigeeinrichtung (12) zumindest ein graphisches Objekt (26), das mittels eines graphischen Auswahlelements (34, 36) durch Anvisieren auswählbar ausgestaltetet ist, angezeigt wird und – in Abhängigkeit von einem Blickrichtungssignal (B) eines Eyetrackers (14) das Auswahlelement (34, 36) auf der Anzeigefläche (24) positioniert wird, dadurch gekennzeichnet, dass in Abhängigkeit von einem Verschiebesignal (L) einer von dem Eyetracker (14) verschiedenen Lenkeinheit (16) auf der Anzeigefläche (24) das zumindest eine Objekt (26) verschoben und/oder zumindest ein weiteres graphisches Objekt eingeblendet wird.
  2. Verfahren nach Anspruch 1, wobei das zumindest eine graphische Objekt (26) zumindest ein Element einer Auswahlliste (28) umfasst und die Auswahlliste (28) in Abhängigkeit von dem Verschiebesignal (L) gescrollt wird und/oder wobei das zumindest eine graphische Objekt (26) zumindest ein Icon auf einem virtuellen Desktop, der größer als die Anzeigefläche (24) ist, umfasst und in Abhängigkeit von dem Verschiebesignal (L) der Darstellungsbereich des virtuellen Desktops eingestellt wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Auswahlelement (34, 36) einen Auswahlzeiger (34) zum Positionieren auf einem auszuwählenden Objekt (26) und/oder eine Objektmarkierung (36) zum optischen Markieren eines auszuwählenden Objekts (26) umfasst.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Auswahlelement (34, 36) in Abhängigkeit von einem von der Lenkeinheit (16) berührungsabhängig erzeugten Bereitschaftssignal (R) aktiviert und/oder angezeigt wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei in Abhängigkeit von einem Aktivierungssignal (A) der Lenkeinheit (16) oder einer von der Lenkeinheit (16) verschiedenen Bedieneinheit eine dem momentan mittels des Auswahlelements (34, 36) ausgewählten Objekt (26) zugeordnete Funktion aktiviert wird.
  6. Bedienvorrichtung (10) mit einer eine Anzeigefläche (24) aufweisenden Anzeigeeinrichtung (12) und einem Eyetracker (14), gekennzeichnet durch eine von dem Eyetracker (14) verschiedenen Lenkeinheit (16) sowie eine Steuereinheit (18), die dazu ausgelegt ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.
  7. Bedienvorrichtung (10) nach Anspruch 6, wobei die Lenkeinheit (16) zum Erzeugen des Verschiebesignals (L) eine manuelle Bedienschnittstelle umfasst, die zumindest eine Taste und/oder einen Schiebeschalter und/oder einen Wippschalter und/oder ein Drehrad aufweist.
  8. Bedienvorrichtung (10) nach einem der Ansprüche 6 oder 7, wobei die Lenkeinheit (16) zum Erzeugen des Verschiebesignals (L) ein berührungssensitives Sensorfeld aufweist, das als eine einzeilige Sensorreihe oder als eine Sensormatrix ausgestaltet ist.
  9. Bedienvorrichtung (10) nach einem der Ansprüche 6 bis 8, wobei die Lenkeinheit (16) dazu ausgelegt ist, druckabhängig zwischen einer Berührung der Lenkeinheit (16) und einer Druckbetätigung zu unterscheiden.
  10. Bedienvorrichtung (10) nach einem der Ansprüche 6 bis 9, wobei die Lenkeinheit (16) zum Erzeugen des Verschiebesignals (L) einen Spracherkenner aufweist.
  11. Bedienvorrichtung (10) nach einem der Ansprüche 6 bis 10, wobei die Lenkeinheit (16) zum Erzeugen des Verschiebesignals (L) einen Neigungssensor und/oder einen Inertialsensor aufweist.
  12. Bedienvorrichtung (10) nach einem der Ansprüche 6 bis 11, wobei die Bedienvorrichtung (10) als portables Computergerät oder als Kraftfahrzeug ausgestaltet ist.
DE102013021814.4A 2013-12-20 2013-12-20 Bedienvorrichtung mit Eyetracker Withdrawn DE102013021814A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102013021814.4A DE102013021814A1 (de) 2013-12-20 2013-12-20 Bedienvorrichtung mit Eyetracker

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013021814.4A DE102013021814A1 (de) 2013-12-20 2013-12-20 Bedienvorrichtung mit Eyetracker

Publications (1)

Publication Number Publication Date
DE102013021814A1 true DE102013021814A1 (de) 2015-06-25

Family

ID=53274920

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013021814.4A Withdrawn DE102013021814A1 (de) 2013-12-20 2013-12-20 Bedienvorrichtung mit Eyetracker

Country Status (1)

Country Link
DE (1) DE102013021814A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017042036A1 (de) * 2015-09-11 2017-03-16 Audi Ag Kraftfahrzeug-bedienvorrichtung mit touchscreen-bedienung
WO2020052894A1 (de) 2018-09-13 2020-03-19 Audi Ag Verfahren zum unterstützen eines benutzers beim durchführen eines scroll-vorgangs, vorrichtung und kraftfahrzeug
DE102021126191A1 (de) 2021-10-08 2023-04-13 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und verfahren zum bedienen eines fahrzeugs, insbesondere kraftfahrzeug, sowie fahrzeug

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10121392A1 (de) 2001-05-02 2002-11-21 Bosch Gmbh Robert Vorrichtung zur Steuerung von Geräten mittels Blickrichtung
US20060066567A1 (en) 2004-09-29 2006-03-30 Scharenbroch Gregory K System and method of controlling scrolling text display
US20100110368A1 (en) 2008-11-02 2010-05-06 David Chaum System and apparatus for eyeglass appliance platform
US20120272179A1 (en) * 2011-04-21 2012-10-25 Sony Computer Entertainment Inc. Gaze-Assisted Computer Interface
DE102012006966A1 (de) 2012-04-04 2012-11-08 Daimler Ag Verfahren zum Auslösen einer Fahrzeugfunktion durch blickgesteuerte Bedienung und Kraftfahrzeug
EP2525271A2 (de) 2011-05-16 2012-11-21 Samsung Electronics Co., Ltd. Verfahren und Vorrichtung zur Verarbeitung der Eingabe in einem mobilen Endgerät

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10121392A1 (de) 2001-05-02 2002-11-21 Bosch Gmbh Robert Vorrichtung zur Steuerung von Geräten mittels Blickrichtung
US20060066567A1 (en) 2004-09-29 2006-03-30 Scharenbroch Gregory K System and method of controlling scrolling text display
US20100110368A1 (en) 2008-11-02 2010-05-06 David Chaum System and apparatus for eyeglass appliance platform
US20120272179A1 (en) * 2011-04-21 2012-10-25 Sony Computer Entertainment Inc. Gaze-Assisted Computer Interface
EP2525271A2 (de) 2011-05-16 2012-11-21 Samsung Electronics Co., Ltd. Verfahren und Vorrichtung zur Verarbeitung der Eingabe in einem mobilen Endgerät
DE102012006966A1 (de) 2012-04-04 2012-11-08 Daimler Ag Verfahren zum Auslösen einer Fahrzeugfunktion durch blickgesteuerte Bedienung und Kraftfahrzeug

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017042036A1 (de) * 2015-09-11 2017-03-16 Audi Ag Kraftfahrzeug-bedienvorrichtung mit touchscreen-bedienung
CN107466395A (zh) * 2015-09-11 2017-12-12 奥迪股份公司 具有触摸屏操纵的机动车‑操纵装置
CN107466395B (zh) * 2015-09-11 2019-06-21 奥迪股份公司 具有触摸屏操纵的机动车-操纵装置
WO2020052894A1 (de) 2018-09-13 2020-03-19 Audi Ag Verfahren zum unterstützen eines benutzers beim durchführen eines scroll-vorgangs, vorrichtung und kraftfahrzeug
DE102021126191A1 (de) 2021-10-08 2023-04-13 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und verfahren zum bedienen eines fahrzeugs, insbesondere kraftfahrzeug, sowie fahrzeug

Similar Documents

Publication Publication Date Title
EP3084561B1 (de) Tastenlos bedienbare bedienvorrichtung
DE102016219845B4 (de) Berühreingabeeinrichtung und Fahrzeug, welches die Berühreingabeeinrichtung beinhaltet
DE102012204921A1 (de) Fahrzeugbedienvorrichtung
EP3096969B1 (de) Anwenderschnittstelle und verfahren zum steuern einer lautstärke mittels einer berührungssensitiven anzeigeeinheit
EP2941685B1 (de) Bedienverfahren und bediensystem in einem fahrzeug
EP3234743B1 (de) Verfahren zum betreiben einer bedienvorrichtung eines kraftfahrzeugs in unterschiedlichen bedienmodi sowie bedienvorrichtung und kraftfahrzeug
DE102012020607A1 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
DE102013021814A1 (de) Bedienvorrichtung mit Eyetracker
DE102010012239A1 (de) Bedienungs- und Anzeigevorrichtung eines Kraftfahrzeugs
DE102013203918A1 (de) Verfahren zum Betreiben einer Vorrichtung in einer sterilen Umgebung
DE102009059869A1 (de) Verfahren zum Bereitstellen einer Benutzerschnittstelle und Bedienvorrichtung
DE102014218506A1 (de) Fahrzeug mit frei positionierbaren haptischen Bedienelementen
DE102013022035B4 (de) Kraftfahrzeug-Bedienvorrichtung mit graphischer Benutzerschnittstelle, sowie Kraftfahrzeug und Verfahren
DE102014218504A1 (de) Fahrzeug mit frei positionierbaren haptischen Bedienelementen
DE102013014889A1 (de) Mauszeigersteuerung für eine Bedienvorrichtung
DE102018202668A1 (de) Bedienvorrichtung sowie Verfahren zum Ansteuern zumindest einer Funktionseinheit für ein Kraftfahrzeug mit einer optischen Verlagerung eines Bediensymbols
DE102016002043A1 (de) Bedienvorrichtung für ein Kraftfahrzeug mit Ausgabefeld für einen einstellbaren Betriebsparameter
DE102009033061A1 (de) Verfahren und Vorrichtung zum Steuern einer Benutzerschnittstelle
EP3274789B1 (de) Kraftfahrzeugsimulationsanordnung zur simulation einer virtuellen umgebung mit einem virtuellen kraftfahrzeug und verfahren zur simulation einer virtuellen umgebung
DE102013220830A1 (de) Eingabevorrichtung mit Touch Screen für Fahrzeuge
DE102015212920A1 (de) Bedienung von dreidimensionalen Benutzerschnittstellen
WO2018046027A1 (de) Verfahren zum betreiben eines mobilen endgeräts für eine fernbedienfunktion, bedienvorrichtung für ein kraftfahrzeug, system aus dem mobilen endgerät und der bedienvorrichtung sowie speichermedium
DE102013007105A1 (de) Bedienvorrichtung
DE102011112565A1 (de) Verfahren zum Bedienen einer Bedienvorrichtung für ein Kraftfahrzeug
WO2018054522A1 (de) Verfahren zur steuerung eines kraftfahrzeugmoduls und kraftfahrzeugmodul

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee