DE102013019574A1 - Verfahren zum Betreiben einer elektronischen Datenbrille und elektronische Datenbrille - Google Patents

Verfahren zum Betreiben einer elektronischen Datenbrille und elektronische Datenbrille Download PDF

Info

Publication number
DE102013019574A1
DE102013019574A1 DE102013019574.8A DE102013019574A DE102013019574A1 DE 102013019574 A1 DE102013019574 A1 DE 102013019574A1 DE 102013019574 A DE102013019574 A DE 102013019574A DE 102013019574 A1 DE102013019574 A1 DE 102013019574A1
Authority
DE
Germany
Prior art keywords
data glasses
wearer
finger
user interface
graphical user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102013019574.8A
Other languages
English (en)
Inventor
Marcus Kühne
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102013019574.8A priority Critical patent/DE102013019574A1/de
Publication of DE102013019574A1 publication Critical patent/DE102013019574A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben einer elektronischen Datenbrille (12), mit den Schritten: Anzeigen einer graphischen Benutzeroberfläche (20) mittels einer Anzeigeeinrichtung (14) der Datenbrille (12); Betreiben der elektronischen Datenbrille (12) in einem Fingererfassungsmodus, in welchem eine Fingerbewegung eines Trägers (10) der Datenbrille (12) erfasst und ein Auswahlelement (24) innerhalb der graphischen Benutzeroberfläche (20) unter Berücksichtigung der erfassten Fingerbewegung positioniert und angezeigt wird; wobei die Fingerbewegung des Trägers (10) der Datenbrille (12) entlang einer Referenzfläche (32) erfasst wird; das Auswahlelement (24) innerhalb der graphischen Benutzeroberfläche (20) unter Berücksichtigung der erfassten Fingerbewegung entlang der Referenzfläche (32) positioniert und angezeigt wird. Des Weiteren betrifft die Erfindung eine elektronische Datenbrille (12).

Description

  • Die Erfindung betrifft ein Verfahren zum Betreiben einer elektronischen Datenbrille sowie eine elektronische Datenbrille der in den Oberbegriffen der unabhängigen Patentansprüche angegebenen Art.
  • Die US 8179604 B1 zeigt ein Verfahren zum Betreiben einer elektronischen Datenbrille, wobei mittels einer Erfassungseinrichtung der elektronischen Datenbrille ein von einem Träger der Datenbrille am Finger getragener Marker in Form eines Rings erfasst wird. Durch die Erfassung der Bewegungen des Markers können Gesten des Trägers der Datenbrille erfasst und zur Steuerung der elektronischen Datenbrille verwendet werden.
  • Die US 2002 00246 75 A1 zeigt ebenfalls ein Verfahren zum Betreiben einer elektronischen Datenbrille. Mittels einer Erfassungseinrichtung der elektronischen Datenbrille wird ein am Finger des Trägers der Datenbrille getragener Ring erfasst, um Handgesten des Trägers der Datenbrille zu erfassen und in Abhängigkeit davon die Datenbrille zu steuern.
  • Die US 2007 0220108 A1 zeigt auch ein Verfahren zum Betreiben einer elektronischen Datenbrille, wobei mittels einer Erfassungseinrichtung ein magnetischer Ring, welcher von einem Nutzer getragen wird, erfasst wird, um entsprechende Gesten des Nutzers zu erkennen und einen mittels der elektronischen Datenbrille innerhalb einer Anzeigefläche dargestellten Cursor gemäß der erfassten Gesten zu bewegen.
  • Die US 20120287284 A1 zeigt ein Verfahren zum Betreiben einer elektronischen Datenbrille, wobei eine Auswahl eines Objekts, welches innerhalb einer Anzeigefläche der elektronischen Datenbrille angezeigt wird, durch erfasste Sprachbefehle oder Gesten des Trägers der Datenbrille erfolgen kann.
  • Die GB 2495159 A zeigt ebenfalls ein Verfahren zum Betreiben einer elektronischen Datenbrille, wobei die elektronische Datenbrille entsprechend erfasster Körpergesten des Trägers der Datenbrille gesteuert werden kann.
  • Die US 20130050258 A1 zeigt ein Verfahren zum Betreiben einer elektronischen Datenbrille, wobei ein Träger der Datenbrille durch entsprechende Zeigegesten auf unterschiedlichste Objekte bewirken kann, dass mittels der elektronischen Datenbrille mit dem Objekt korrespondierende Informationen angezeigt werden.
  • Es ist die Aufgabe der vorliegenden Erfindung, eine verbesserte Steuerung einer elektronischen Datenbrille zu ermöglichen.
  • Diese Aufgabe wird durch ein Verfahren zum Betreiben einer elektronischen Datenbrille sowie durch eine elektronische Datenbrille mit den Merkmalen der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausgestaltungen mit zweckmäßigen und nicht-trivialen Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen angegeben.
  • Bei dem erfindungsgemäßen Verfahren zum Betreiben einer elektronischen Datenbrille wird eine graphische Benutzeroberfläche mittels einer Anzeigeeinrichtung der Datenbrille angezeigt. Zudem wird die Datenbrille in einem Fingererfassungsmodus betrieben, bei welchem eine Fingerbewegung eines Trägers der Datenbrille erfasst und ein Auswahlelement innerhalb der graphischen Benutzeroberfläche unter Berücksichtigung der erfassten Fingerbewegung positioniert und angezeigt wird. Das erfindungsgemäße Verfahren zeichnet sich dadurch aus, dass die Fingerbewegung des Trägers der Datenbrille entlang einer Referenzfläche erfasst wird und das Auswahlelement innerhalb der graphischen Benutzeroberfläche unter Berücksichtigung der erfassten Fingerbewegung entlang der Referenzfläche positioniert und angezeigt wird.
  • Bei dem Auswahlelement kann es sich beispielsweise um einen Mauszeiger, einen Cursor oder dergleichen handeln, mittels welchem unterschiedliche Menüpunkte oder Bereiche der graphischen Benutzeroberfläche ausgewählt werden können. Das Auswahlelement dient also dazu, innerhalb der graphischen Benutzeroberfläche zu navigieren und beispielsweise auch mittels der Anzeigeeinrichtung angezeigte Bilder auswählen zu können. Bei der erfindungsgemäßen Lösung ist es nicht mehr nötig, dass der Träger der Datenbrille einen Marker, beispielsweise in Form eines magnetischen Rings oder dergleichen, tragen muss, damit die Fingerbewegungen des Trägers erfasst werden können. Denn gemäß der erfindungsgemäßen Lösung wird die Fingerbewegung des Trägers der Datenbrille entlang einer Referenzfläche erfasst, wobei die Positionierung und Anzeige des Auswahlelements korrespondierend mit der erfassten Fingerbewegung entlang der Referenzfläche angezeigt wird. Dadurch kann der Träger der Datenbrille besonders einfach durch die angezeigte graphische Benutzeroberfläche der elektronischen Datenbrille navigieren und unterschiedlichste Funktionen der elektronischen Datenbrille auswählen und steuern.
  • In vorteilhafter Ausgestaltung der Erfindung ist es vorgesehen, dass eine Handfläche, insbesondere eine Handinnenfläche, einer Hand des Trägers der Datenbrille als die Referenzfläche erfasst und die Fingerbewegung mit einem Finger einer anderen Hand des Trägers der Datenbrille entlang der Handfläche erfasst wird. Beispielsweise kann der Träger der Datenbrille mit seinem rechten Zeigefinger über die Handinnenfläche seiner linken Hand streichen, wobei die Fingerbewegung über die linke Handinnenfläche erfasst und das Auswahlelement innerhalb der graphischen Benutzeroberfläche korrespondierend mit der erfassten Fingerbewegung über die Handinnenfläche positioniert und angezeigt wird. Dadurch, dass die Handinnenfläche des Trägers der Datenbrille als die Referenzfläche erfasst wird, kann der Träger der Datenbrille die Bewegung des Auswahlelements innerhalb der graphischen Benutzeroberfläche besonders einfach für ihn nachvollziehbar steuern. Alternativ kann auch eine Handaußenfläche als die Referenzfläche erfasst und die Fingerbewegung entlang der Handaußenfläche erfasst werden. Die Positionierung und Anzeige des Auswahlelements erfolgt dabei analog wie bei der Erfassung der Handinnenfläche als die Referenzfläche.
  • Gemäß einer weiteren vorteilhaften Ausführungsform der Erfindung ist es vorgesehen, dass ermittelt wird, an welcher Berührposition der Träger der Datenbrille seine Handfläche mit dem Finger berührt, und das Auswahlelement an einer mit der Berührposition korrespondierenden Position der graphischen Benutzeroberfläche positioniert und angezeigt wird. Verschiebt der Träger der Datenbrille beispielsweise seinen rechten Zeigefinger entlang seiner linken Handinnenfläche von links unten nach rechts oben, wird das Auswahlelement innerhalb der graphischen Benutzeroberfläche ebenfalls von links unten nach rechts oben korrespondierend mit der erfassten Fingerbewegung über die Handinnenfläche verschoben. Dabei ist es möglich, dass beispielsweise jeweiligen Punkten der Handinnenfläche jeweilige Punkte innerhalb eines Anzeigebereichs der Anzeigeeinrichtung zugeordnet sind, so dass je nach Positionierung des Fingers an der Handinnenfläche eine entsprechende Positionierung des Auswahlelements innerhalb der graphischen Benutzeroberfläche erfolgt. Alternativ ist es aber auch möglich, dass jeweils nur eine Bewegung von einem ersten Punkt zu einem zweiten Punkt innerhalb der Handinnenfläche erfasst und eine entsprechende Bewegung innerhalb der graphischen Benutzeroberfläche durch das Auswahlelement vollzogen wird. Letzteres entspräche einer Bedienlogik wie beispielsweise bei einem Touchpad, mittels welchem beispielsweise ein Notebook bedient wird.
  • Eine weitere vorteilhafte Ausführungsform der Erfindung sieht vor, dass die elektronische Datenbrille erst dann in dem Fingererfassungsmodus betrieben wird, wenn erfasst wird, dass der Träger der Datenbrille einen Finger auf die Referenzfläche aufgesetzt hat. Für den Fall, dass beispielsweise eine Handinnenfläche des Trägers der Datenbrille als die Referenzfläche erfasst wird, wird der Fingererfassungsmodus der Datenbrille also erst dann aktiviert, wenn erfasst worden ist, dass der Träger der Datenbrille einen seiner Finger auf die Handinnenfläche aufgesetzt hat. Dadurch kann die Steuerung des Auswahlelements besonders robust, also fehlerfrei, erfolgen. Sollte der Träger der Datenbrille beispielsweise keinen seiner Finger auf die Referenzfläche aufsetzen und seinen Finger trotzdem bewegen, erfolgt keine Positionierung und Anzeige des Auswahlelements gemäß der durchgeführten Fingerbewegungen. Vorzugsweise kann es darüber hinaus vorgesehen sein, dass das Auswahlelement nur dann innerhalb der graphischen Benutzeroberfläche eingeblendet bzw. angezeigt wird, solange der Fingererfassungsmodus aktiviert ist. Dadurch erhält der Träger der Datenbrille direkt eine optische Rückmeldung, ob der Fingererfassungsmodus aktiviert ist. Durch die Überwachung, ob und welchen seiner Finger der Träger der Datenbrille überhaupt auf die Referenzfläche aufsetzt, kann eine zuverlässigere Erfassung der betreffenden Fingerbewegung entlang der Referenzfläche und somit auch Steuerung des Auswahlelements gewährleistet werden. Vorzugsweise wird der Fingererfassungsmodus beendet, wenn der Träger der Datenbrille seinen Finger für eine vorbestimmte Dauer, beispielsweise eine Sekunde oder mehrere Sekunden, wieder von der Referenzfläche entfernt, also abgesetzt hat. Zur erneuten Aktivierung des Fingererfassungsmodus genügt es dann, dass der Träger der Datenbrille einen seiner Finger wieder auf die Referenzfläche aufsetzt.
  • In weiterer vorteilhafter Ausgestaltung der Erfindung ist es vorgesehen, dass ein Auswahlsignal erzeugt wird, wenn eine vorbestimmte Aktion des Trägers der Datenbrille erfasst wird, wobei eine dem Auswahlsignal zugeordnete Funktion der Datenbrille ausgeführt wird, welche in Abhängigkeit von der Positionierung des Auswahlelements innerhalb der graphischen Benutzeroberfläche zum Zeitpunkt der Erfassung der vorbestimmten Aktion vorgegeben wird. Beispielsweise kann das Auswahlelement entsprechend der zuvor erfassten Fingerbewegung des Trägers der Datenbrille auf ein Symbol der graphischen Benutzeroberfläche bewegt worden sein. Sobald das besagte Auswahlsignal erzeugt worden ist, wird das betreffende Symbol ausgewählt und eine dem Symbol zugeordnete Funktion ausgeführt. Zum Beispiel kann durch das Symbol ein entsprechendes Untermenü innerhalb der graphischen Benutzeroberfläche bezeichnet sein, wobei sobald das entsprechende Symbol ausgewählt worden ist, das Untermenü geöffnet wird. Neben einer reinen Positionierung und Bewegung des Auswahlelements innerhalb der graphischen Benutzeroberfläche kann vorzugsweise also auch durch entsprechend vorbestimmte Aktionen des Trägers der Datenbrille eine Auswahl von unterschiedlichen Menüpunkten oder angezeigten Bildern innerhalb der graphischen Benutzeroberfläche erfolgen.
  • In weiterer vorteilhafter Ausgestaltung der Erfindung ist es vorgesehen, dass das Auswahlsignal erzeugt wird, wenn ein vorbestimmter, von einem Träger der Datenbrille ausgesprochener Sprachbefehl, ein vorbestimmtes von einem Träger der Datenbrille ausgeführtes Blinzelmuster oder eine vorbestimmte von dem Träger der Datenbrille ausgeführt Geste erfasst worden ist. Dadurch kann der Träger der Datenbrille auf besonders einfache und intuitive Weise die graphische Benutzeroberfläche und somit auch die elektronische Datenbrille steuern.
  • In vorteilhafter Ausgestaltung der Erfindung ist es vorgesehen, dass das Auswahlsignal erzeugt wird, wenn ein einmaliges oder zweimaliges Antippen der Handinnenfläche mit dem die Fingerbewegung ausführenden Finger erfasst worden ist. Beispielsweise kann der Träger der Datenbrille durch eine entsprechende Bewegung seines rechten Zeigefingers entlang seiner linken Handinnenfläche zunächst das Auswahlelement entsprechend innerhalb der graphischen Benutzeroberfläche positionieren und anschließend durch ein einmaliges oder auch durch ein zweimaliges Antippen seiner linken Handinnenfläche einen entsprechenden Menüpunkt innerhalb der graphischen Benutzeroberfläche öffnen. Der Träger der Datenbrille kann seine linke Handinnenfläche also genauso verwenden, wie er dies beispielsweise von einer Bedienung eines Touchpads eines Notebooks kennt.
  • Gemäß einer weiteren vorteilhaften Ausführungsform der Erfindung ist es vorgesehen, dass, falls die Datenbrille in einem Blickerfassungsmodus betrieben wird, eine Blickrichtung des Trägers der Datenbrille erfasst und das Auswahlelement innerhalb der graphischen Benutzeroberfläche unter Berücksichtigung der erfassten Blickrichtung des Trägers der Datenbrille positioniert und angezeigt wird. Vorzugsweise kann der Träger der Datenbrille dabei zwischen dem Blickerfassungsmodus und einem Fingererfassungsmodus, in welchem die Positionierung und Anzeige des Auswahlelements gemäß der zuvor beschriebenen, erfassten Fingerbewegung des Trägers der Datenbrille erfolgt, wählen. Beispielsweise kann es vorgesehen sein, dass durch einen vorbestimmten Sprachbefehl oder andere vorbestimmte Aktionen des Trägers der Datenbrille der Blickerfassungsmodus aktivierbar ist. Eine Aktivierung des Fingererfassungsmodus kann – wie bereits erläutert – durch ein Aufsetzen eines Fingers auf die Referenzfläche erfolgen. Je nachdem, welche Betriebsweise der Träger der Datenbrille gerade bevorzugen sollte, kann er also zwischen den beiden Modi wechseln, wobei vorzugsweise immer nur höchstens einer der beiden Modi aktiviert wird. Zudem ist es möglich, dass ein jeweiliges, den entsprechend aktivierten Modus charakterisierendes Symbol innerhalb der graphischen Benutzeroberfläche angezeigt wird, so dass der Träger der Datenbrille unmittelbar erkennen kann, welcher Modus gerade aktiviert ist. Alternativ oder zusätzlich kann auch die Darstellung des Auswahlelements modusabhängig in jeweils unterschiedlicher Gestaltung angezeigt werden.
  • In vorteilhafter Ausgestaltung der Erfindung ist es vorgesehen, dass im Blickerfassungsmodus anhand der erfassten Blickrichtung ermittelt wird, auf welche Position der graphischen Benutzeroberfläche der Blick des Trägers der Datenbrille gerichtet ist, und das Auswahlelement an dieser Position angezeigt wird. Durch die blickrichtungsabhängige Steuerung des Auswahlelements kann dem Träger der Datenbrille eine besonders einfache Interaktionsmöglichkeit mit der Datenbrille und der graphischen Benutzeroberfläche der Datenbrille ermöglicht werden. Dabei ist es im Blickerfassungsmodus genauso möglich, dass besagte Auswahlsignale erzeugt werden, wenn die zuvor beschriebenen vorbestimmten Aktionen des Trägers der Datenbrille erfasst worden sind, also beispielsweise durch entsprechende Sprachbefehle, Blinzelmuster oder Gesten.
  • Die erfindungsgemäße elektronische Datenbrille umfasst eine Erfassungseinrichtung, welche dazu ausgelegt ist, eine Fingerbewegung des Trägers der Datenbrille zu erfassen. Des Weiteren umfasst die elektronische Datenbrille eine Anzeigeeinrichtung, welche bei einem aktivierten Fingererfassungsmodus der Datenbrille dazu ausgelegt ist, eine graphische Benutzeroberfläche anzuzeigen und ein Auswahlelement innerhalb der graphischen Benutzeroberfläche unter Berücksichtigung der erfassten Fingerbewegung des Trägers der Datenbrille zu positionieren und anzuzeigen. Erfindungsgemäß ist es dabei vorgesehen, dass die Erfassungseinrichtung ein Kamerasystem erfasst, welches dazu ausgelegt, die Fingerbewegung des Trägers der Datenbrille entlang einer Referenzfläche zu erfassen. Des Weiteren ist die Anzeigeeinrichtung dazu ausgelegt, das Auswahlelement innerhalb der graphischen Benutzeroberfläche unter Berücksichtigung der erfassten Fingerbewegung entlang der Referenzfläche zu positionieren und anzuzeigen. Vorteilhafte Ausgestaltungen des erfindungsgemäßen Verfahrens sind als vorteilhafte Ausgestaltungen der elektronischen Datenbrille anzusehen, wobei die elektronische Datenbrille insbesondere Mittel zur Durchführung der Verfahrensschritte umfasst.
  • Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele sowie anhand der Zeichnung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.
  • Die Zeichnung zeigt in:
  • 1 einen Träger einer elektronischen Datenbrille, welche eine vor einem rechten Auge des Trägers der Datenbrille angeordnete Anzeigeeinrichtung umfasst;
  • 2 eine linke und rechte Hand des Trägers der Datenbrille, wobei der Träger der Datenbrille mit seinem rechten Zeigefinger über seine linke Handinnenfläche streicht; und in
  • 3 eine schematische Darstellung einer graphischen Benutzeroberfläche der elektronischen Datenbrille.
  • Ein Träger 10 einer elektronischen Datenbrille 12 ist in 1 gezeigt. Die elektronische Datenbrille 12 umfasst eine Anzeigeeinrichtung 14, welche an einem Bügel 16 der elektronischen Datenbrille 12 vor einem rechten Auge 18 des Trägers 10 der elektronischen Datenbrille 12 angeordnet ist. Bei der Anzeigeeinrichtung 14 kann es sich um ein vollständig oder teiltransparentes Display handeln, mittels welchem unterschiedlichste Informationen eingeblendet werden können, so dass vom Träger 10 tatsächlich wahrgenommene Umgebungsobjekte mit computergenerierten Zusatzinformationen oder virtuellen Objekten überlagert dargestellt werden können. Mit anderen Worten handelt es sich bei der Datenbrille 12 um ein Augmented-Reality-System, welches dazu ausgelegt ist, eine computergestützte Erweiterung der Realitätswahrnehmung des Trägers 10 der Datenbrille 12 zu ermöglichen.
  • Die Anzeigeeinrichtung 14 ist dazu ausgelegt, eine hier nicht dargestellte graphische Benutzeroberfläche 20 der elektronischen Datenbrille 12 anzuzeigen, welche als Benutzerschnittstelle für den Träger 10 der Datenbrille 12 und somit zur Steuerung der elektronischen Datenbrille 12 dient.
  • Am Bügel 16 der elektronischen Datenbrille 12 ist des Weiteren eine Erfassungseinrichtung 22 mit einem nicht näher gekennzeichneten Kamerasystem angeordnet, welches dazu ausgelegt ist, eine Fingerbewegung des Trägers 10 der Datenbrille 12 zu erfassen. Dabei ist die Anzeigeeinrichtung 14 dazu ausgelegt, ein hier nicht dargestelltes Auswahlelement 24 innerhalb der graphischen Benutzeroberfläche 20 unter Berücksichtigung der erfassten Fingerbewegung zu positionieren und anzuzeigen.
  • In 2 sind eine linke Hand 26 und eine rechte Hand 28 des Trägers 10 der Datenbrille 12 dargestellt. Der Träger 10 der Datenbrille 12 bewegt dabei seinen rechten Zeigefinger 30 über seine linke Handinnenfläche 32, um die elektronische Datenbrille 12 zu steuern.
  • In 3 ist die graphische Benutzeroberfläche 20 der elektronischen Datenbrille 12 dargestellt, welche mittels der Anzeigeeinrichtung 14 in das Sichtfeld des Trägers 10 der elektronischen Datenbrille 12 eingeblendet wird. Das Auswahlelement 24 ist im vorliegend gezeigten Fall als eine Art Mauszeiger dargestellt, wobei das Auswahlelement 24 auch beliebige andere Formgebungen aufweisen kann. Die vom Träger 10 der elektronischen Datenbrille 12 ausgeführte und in 2 dargestellte Bewegung seines rechten Zeigefingers 30 über seine linke Handinnenfläche 32 wird dabei mittels der Erfassungseinrichtung 22 erfasst, wobei das Auswahlelement 24 korrespondierend zu der erfassten Fingerbewegung 30 über die als Referenzfläche dienende Handinnenfläche 32 innerhalb der graphischen Benutzeroberfläche 20 bewegt wird.
  • Die Datenbrille 12 wird dabei erst dann in einem Fingererfassungsmodus betrieben, in welchem die mit der Fingerbewegung korrespondierende Steuerung des Auswahlelements 24 erfolgt, sobald erfasst worden ist, dass der Träger 10 der Datenbrille 12 einen seiner Finger auf die als Referenzfläche dienende Handinnenfläche 32 aufgesetzt hat. Solange der Träger 10 der Datenbrille 12 keinen seiner Finger auf die Handinnenfläche 12 aufgesetzt hat, erfolgt auch keine fingerbewegungsabhängige Steuerung des Auswahlelements 24.
  • Die Erfassungseinrichtung 22 ist also dazu ausgelegt, die Handinnenfläche 32 als Referenzfläche zu erkennen, sobald der Träger 10 der Datenbrille 12 mit seinem Zeigefinger 30 darüber streicht. Dabei ist es unerheblich, ob der Träger 10 der Datenbrille 12 – wie in 2 dargestellt – mit seinem rechten Zeigefinder 30 über die linke Handinnenfläche 32 streicht, oder ob er mit einem Finger seiner linken Hand über die rechte Handinnenfläche streicht.
  • Der Träger 10 kann also seine linke Handinnenfläche 32 praktisch wie ein Touchpad eines Notbooks oder dergleichen mit seinem rechten Zeigefinger 30 oder auch umgekehrt bedienen, um das Auswahlelement 24 innerhalb der angezeigten graphischen Benutzeroberfläche 20 zu positionieren und zu bewegen.
  • Sobald der Träger 10 der Datenbrille 12 durch eine entsprechende Fingerbewegung das Auswahlelement 24 beispielsweise auf einem Symbol 34 der graphischen Benutzeroberfläche 20 positioniert hat, kann er dieses durch eine entsprechend vorbestimmte Aktion auswählen. Zum Beispiel kann der Träger 10 der elektronischen Datenbrille 12 seine linke Handinnenfläche 32 mit seinem rechten Zeigefinger 30 einmal oder auch zweimal antippen, wodurch ein entsprechendes Auswahlsignal erzeugt wird, infolgedessen eine dem Symbol 34 zugeordnete Funktion der elektronischen Datenbrille 12 ausgeführt wird. Bei dem Symbol 34 kann es sich beispielsweise um einen übergeordneten Menüpunkt innerhalb der graphischen Benutzeroberfläche 20 handeln, wobei durch die besagte Antippgeste des Trägers 10 der elektronischen Datenbrille 12 das dem Symbol 34 zugeordnete Menü geöffnet wird.
  • Sollte der Träger 10 der Datenbrille 12 hingegen das Auswahlelement 24 über einem Bild 36 positioniert haben, welches mittels der Anzeigeeinrichtung 14 angezeigt wird, so kann er das Bild 36 ebenfalls beispielsweise durch eine entsprechende Antippbewegung mit seinem rechten Zeigefinger 30 auf seiner linken Handinnenfläche 32 auswählen. Beispielsweise ist es möglich, dass der Träger 10 der elektronischen Datenbrille 12 durch die Auswahl des Bildes 36 sich weiterführende Informationen über das Bild 36 anzeigen lassen kann.
  • Alternativ oder zusätzlich kann das besagte Auswahlsignal zum Auswählen des Symbols 34 oder des Bildes 36 auch erzeugt werden, wenn beispielsweise ein vorbestimmter vom dem Träger 10 der Datenbrille 12 ausgesprochener Sprachbefehl, ein vorbestimmtes von dem Träger 10 der Datenbrille 12 ausgeführtes Blinzelmuster oder auch eine vorbestimmte von dem Träger 10 der Datenbrille 12 ausgeführte anderweitige Geste erfasst worden ist.
  • Alternativ zu dem zuvor beschriebenen Fingererfassungsmodus, in welchem eine Positionierung und Anzeige des Auswahlelements 24 innerhalb der graphischen Benutzeroberfläche 20 in Abhängigkeit von einer erfassten Fingerbewegung des Trägers 10 der Datenbrille 12 durchgeführt wird, kann die Datenbrille 12 auch in einem Blickerfassungsmodus betrieben werden.
  • Falls die Datenbrille 12 in dem Blickerfassungsmodus betrieben wird, wird eine Blickrichtung des Trägers 10 der Datenbrille 12 erfasst und das Auswahlelement 24 innerhalb der graphischen Benutzeroberfläche 20 unter Berücksichtigung der erfassten Blickrichtung des Trägers 10 der Datenbrille 12 positioniert und angezeigt. Die elektronische Datenbrille 12 kann dabei eine Blickerfassungseinrichtung aufweisen, welche für den in 1 gezeigten Fall, eine Blickrichtung des rechten Auges 18 ermittelt.
  • Anhand der erfassten Blickrichtung wird ermittelt, auf welche Position der graphischen Benutzeroberfläche 20 der Blick des Trägers 10 der Datenbrille 12 gerichtet ist, wobei das Auswahlelement 24 an dieser Position angezeigt und entsprechend der sich verändernden erfassten Blickrichtung des Trägers 10 innerhalb der graphischen Benutzeroberfläche 20 positioniert und angezeigt wird. Die zuvor beschriebene Auswahlfunktion kann dabei ebenfalls sprachgesteuert, blinzelmusterabhängig oder durch entsprechend vorbestimmte Gesten des Trägers 10 der Datenbrille 12 im Blickerfassungsmodus erfolgen.
  • Der Träger 10 der Datenbrille 12 hat dabei die Wahl, ob er die elektronische Datenbrille 12 im Blickerfassungsmodus oder im Fingererfassungsmodus betreiben möchte, je nachdem, ob er das Auswahlelement 24 lieber blickrichtungsabhängig oder entsprechend einer Fingerbewegung entlang seiner als Referenzfläche dienenden Handinnenfläche 32 bewegen möchte. Zum Aktivieren des Blickerfassungsmodus kann der Träger 10 der Datenbrille 12 beispielsweise einen entsprechend vorbestimmten Sprachbefehl oder auch andere vorbestimmte Aktionen durchführen. Zum Aktivieren des Fingererfassungsmodus genügt es – wie bereits beschrieben- dass der Träger 10 der Datenbrille 12 einen seiner Finger auf die Referenzfläche, also zum Beispiel auf seine linke Handinnenfläche 32 aufsetzt. Vorzugsweise wird die Datenbrille 12 entweder im Fingerfassungsmodus oder im Blickerfassungsmodus betrieben werden. Wurde die Datenbrille 10 also vor dem Aufsetzen eines Fingers auf die Referenzfläche noch im Blickerfassungsmodus betrieben, wird dieser mit der Aktivierung des Fingererfassungsmodus deaktiviert. Dadurch wird eine für den Träger 10 der Datenbrille 12 gegebenenfalls verwirrende Steuerung des Auswahlelements 24 vermieden, da die Positionierung und Anzeige des Auswahlelements 24 immer nur blickrichtungsabhängig oder in Abhängigkeit der erfassten Fingerbewegung erfolgt.
  • Je nach Gestaltung der graphischen Benutzeroberfläche 20 kann es für den Träger 10 der Datenbrille 12 manchmal bequemer sein, die Positionierung des Auswahlelements 24 innerhalb der graphischen Benutzeroberfläche 20 blickrichtungsabhängig oder fingerbewegungsabhängig vorzunehmen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 8179604 B1 [0002]
    • US 20020024675 A1 [0003]
    • US 20070220108 A1 [0004]
    • US 20120287284 A1 [0005]
    • GB 2495159 A [0006]
    • US 20130050258 A1 [0007]

Claims (12)

  1. Verfahren zum Betreiben einer elektronischen Datenbrille (12), mit den Schritten: – Anzeigen einer graphischen Benutzeroberfläche (20) mittels einer Anzeigeeinrichtung (14) der Datenbrille (12); – Betreiben der elektronischen Datenbrille (12) in einem Fingererfassungsmodus, in welchem eine Fingerbewegung eines Trägers (10) der Datenbrille (12) erfasst und ein Auswahlelement (24) innerhalb der graphischen Benutzeroberfläche (20) unter Berücksichtigung der erfassten Fingerbewegung angezeigt und positioniert wird; dadurch gekennzeichnet, dass – die Fingerbewegung des Trägers (10) der Datenbrille (12) entlang einer Referenzfläche (32) erfasst wird; – das Auswahlelement (24) innerhalb der graphischen Benutzeroberfläche (20) unter Berücksichtigung der erfassten Fingerbewegung entlang der Referenzfläche (32) positioniert und angezeigt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine Handfläche, insbesondere eine Handinnenfläche (32), einer Hand (26) des Trägers (10) der Datenbrille (12) als die Referenzfläche (32) erfasst und die Fingerbewegung mit einem Finger (30) einer anderen Hand (28) des Trägers (10) der Datenbrille (12) entlang der Handfläche erfasst wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass ermittelt wird, an welcher Berührposition der Träger (10) der Datenbrille (12) seine Handfläche mit dem Finger (30) berührt, und das Auswahlelement (24) an einer mit der Berührposition korrespondierenden Position der graphischen Benutzeroberfläche (20) positioniert und angezeigt wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die elektronische Datenbrille (12) erst dann in dem Fingererfassungsmodus betrieben wird, wenn erfasst wird, dass der Träger der Datenbrille (12) einen Finger (30) auf die Referenzfläche (32) aufgesetzt hat.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Auswahlsignal erzeugt wird, wenn eine vorbestimmte Aktion des Trägers (10) der Datenbrille (12) erfasst wird, wobei eine dem Auswahlsignal zugeordnete Funktion der Datenbrille (12) ausgeführt wird, welche in Abhängigkeit von der Positionierung des Auswahlelements (24) innerhalb der graphischen Benutzeroberfläche (20) zum Zeitpunkt der Erfassung der vorbestimmten Aktion vorgegeben wird.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass das Auswahlsignal erzeugt wird, wenn ein vorbestimmter von dem Träger (10) der Datenbrille (12) ausgesprochener Sprachbefehl erfasst worden ist.
  7. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass das Auswahlsignal erzeugt wird, wenn ein vorbestimmtes von dem Träger (10) der Datenbrille (12) ausgeführtes Blinzelmuster erfasst worden ist.
  8. Verfahren nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass das Auswahlsignal erzeugt wird, wenn eine vorbestimmte von dem Träger (10) der Datenbrille (12) ausgeführte Geste erfasst worden ist.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass das Auswahlsignal erzeugt wird, wenn ein einmaliges oder zweimaliges Antippen der Handfläche, insbesondere der Handinnenfläche (32), mit dem die Fingerbewegung ausführenden Finger (30) erfasst worden ist.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass falls die Datenbrille (12) in einem Blickerfassungsmodus betrieben wird, eine Blickrichtung des Trägers (10) der Datenbrille (12) erfasst und das Auswahlelement (24) innerhalb der graphischen Benutzeroberfläche (20) unter Berücksichtigung der erfassten Blickrichtung des Trägers (10) der Datenbrille (12) positioniert und angezeigt wird.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass im Blickerfassungsmodus anhand der erfassten Blickrichtung ermittelt wird, auf welche Position der graphischen Benutzeroberfläche (20) der Blick des Trägers (10) der Datenbrille (12) gerichtet ist, und das Auswahlelement (24) an dieser Position angezeigt wird.
  12. Elektronische Datenbrille (12), mit – einer Erfassungseinrichtung (22), welche dazu ausgelegt ist, eine Fingerbewegung eines Trägers (10) der Datenbrille (12) zu erfassen; – einer Anzeigeeinrichtung (14), welche bei einem aktivierten Fingererfassungsmodus der Datenbrille (12) dazu ausgelegt ist, eine graphische Benutzeroberfläche (20) anzuzeigen und ein Auswahlelement (24) innerhalb der graphischen Benutzeroberfläche (20) unter Berücksichtigung der erfassten Fingerbewegung des Trägers (10) der Datenbrille (12) zu positionieren und anzuzeigen; dadurch gekennzeichnet, dass – die Erfassungseinrichtung (22) ein Kamerasystem umfasst, welches dazu ausgelegt ist, die Fingerbewegung des Trägers (10) der Datenbrille (12) entlang einer Referenzfläche (32) zu erfassen; – die Anzeigeeinrichtung (14) dazu ausgelegt ist, das Auswahlelement (24) innerhalb der graphischen Benutzeroberfläche (20) unter Berücksichtigung der erfassten Fingerbewegung entlang der Referenzfläche (32) zu positionieren und anzuzeigen.
DE102013019574.8A 2013-11-22 2013-11-22 Verfahren zum Betreiben einer elektronischen Datenbrille und elektronische Datenbrille Pending DE102013019574A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102013019574.8A DE102013019574A1 (de) 2013-11-22 2013-11-22 Verfahren zum Betreiben einer elektronischen Datenbrille und elektronische Datenbrille

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013019574.8A DE102013019574A1 (de) 2013-11-22 2013-11-22 Verfahren zum Betreiben einer elektronischen Datenbrille und elektronische Datenbrille

Publications (1)

Publication Number Publication Date
DE102013019574A1 true DE102013019574A1 (de) 2015-05-28

Family

ID=53045134

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013019574.8A Pending DE102013019574A1 (de) 2013-11-22 2013-11-22 Verfahren zum Betreiben einer elektronischen Datenbrille und elektronische Datenbrille

Country Status (1)

Country Link
DE (1) DE102013019574A1 (de)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020024675A1 (en) 2000-01-28 2002-02-28 Eric Foxlin Self-referenced tracking
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
US20070220108A1 (en) 2006-03-15 2007-09-20 Whitaker Jerry M Mobile global virtual browser with heads-up display for browsing and interacting with the World Wide Web
US20080266323A1 (en) * 2007-04-25 2008-10-30 Board Of Trustees Of Michigan State University Augmented reality user interaction system
US8179604B1 (en) 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
US20120287284A1 (en) 2011-05-10 2012-11-15 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US20130016070A1 (en) * 2011-07-12 2013-01-17 Google Inc. Methods and Systems for a Virtual Input Device
US20130050258A1 (en) 2011-08-25 2013-02-28 James Chia-Ming Liu Portals: Registered Objects As Virtualized, Personalized Displays
GB2495159A (en) 2011-09-23 2013-04-03 Gixia Group Co A head-mounted somatosensory control and display system based on a user's body action
DE102012216175A1 (de) * 2012-09-12 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Datenbrille für verdeckte Eingaben

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
US20020024675A1 (en) 2000-01-28 2002-02-28 Eric Foxlin Self-referenced tracking
US20070220108A1 (en) 2006-03-15 2007-09-20 Whitaker Jerry M Mobile global virtual browser with heads-up display for browsing and interacting with the World Wide Web
US20080266323A1 (en) * 2007-04-25 2008-10-30 Board Of Trustees Of Michigan State University Augmented reality user interaction system
US20120287284A1 (en) 2011-05-10 2012-11-15 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US20130016070A1 (en) * 2011-07-12 2013-01-17 Google Inc. Methods and Systems for a Virtual Input Device
US8179604B1 (en) 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
US20130050258A1 (en) 2011-08-25 2013-02-28 James Chia-Ming Liu Portals: Registered Objects As Virtualized, Personalized Displays
GB2495159A (en) 2011-09-23 2013-04-03 Gixia Group Co A head-mounted somatosensory control and display system based on a user's body action
DE102012216175A1 (de) * 2012-09-12 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Datenbrille für verdeckte Eingaben

Similar Documents

Publication Publication Date Title
EP2989524B1 (de) Verfahren zum interagieren mit einem auf einer datenbrille angezeigten objekt
DE10310794B4 (de) Bedieneinrichtung und Kommunikationsgerät
DE102010048745A1 (de) Benutzerschnittstelle und Verfahren zum Bedienen einer Benutzerschnittstelle
DE202016001024U1 (de) Navigations-Benutzerschnittstelle
DE102011053449A1 (de) Mensch-Maschine-Schnittstelle auf Fingerzeige- und Gestenbasis für Fahrzeuge
WO2015173271A2 (de) Verfahren zur darstellung einer virtuellen interaktion auf zumindest einem bildschirm und eingabevorrichtung, system und verfahren für eine virtuelle anwendung mittels einer recheneinheit
DE102014118112A1 (de) Bereitstellen eines Hinweises auf einen zuletzt bekannten aufgesuchten Ort unter Verwenden bewegungsorientierter biometrischer Daten
DE102012020607A1 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
EP2953793B1 (de) System zur druckmaschinenbedienung
DE102014226553A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug
DE102015012720A1 (de) Interaktives Bediensystem und Verfahren zum Durchführen einer Bedienhandlung bei einem interaktiven Bediensystem
DE202015100273U1 (de) Eingabevorrichtung
DE102013019574A1 (de) Verfahren zum Betreiben einer elektronischen Datenbrille und elektronische Datenbrille
DE102013021814A1 (de) Bedienvorrichtung mit Eyetracker
DE102014224599A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
WO2014067798A1 (de) Bereitstellen einer bedienungseingabe unter verwendung eines head-mounted displays
DE102013019570A1 (de) Bedieneinrichtung mit berührungsloser Schrifteingabefunktion für ein Kraftfahrzeug, Kraftfahrzeug und Verfahren zum Betreiben einer Bedieneinrichtung
EP2977855A1 (de) Virtuelle Tastatur und Eingabeverfahren für eine virtuelle Tastatur
EP3025214B1 (de) Verfahren zum betreiben einer eingabevorrichtung, sowie eingabevorrichtung
DE102015222682A1 (de) Verfahren zum Aktivieren eines Bedienelements eines Kraftfahrzeugs und Bediensystem für ein Kraftfahrzeug
DE102018222124A1 (de) Verfahren und System zum Einstellen eines Wertes eines Parameters
DE102011121585B4 (de) Kraftfahrzeug
EP3093182A1 (de) Fortbewegungsmittel, arbeitsmaschine, anwenderschnittstelle und verfahren zur anzeige eines inhaltes einer ersten anzeigeeinrichtung auf einer zweiten anzeigeeinrichtung
DE102019212278A1 (de) Bediensystem und Verfahren zum Betreiben des Bediensystems
EP3281098B1 (de) Gestensensitiver bildschirm und rechner mit gestensensitivem bildschirm

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: HOFSTETTER, SCHURACK & PARTNER - PATENT- UND R, DE