DE102012219814A1 - Bereitstellen einer Bedienungseingabe unter Verwendung eines Head-mounted Displays - Google Patents

Bereitstellen einer Bedienungseingabe unter Verwendung eines Head-mounted Displays Download PDF

Info

Publication number
DE102012219814A1
DE102012219814A1 DE102012219814.8A DE102012219814A DE102012219814A1 DE 102012219814 A1 DE102012219814 A1 DE 102012219814A1 DE 102012219814 A DE102012219814 A DE 102012219814A DE 102012219814 A1 DE102012219814 A1 DE 102012219814A1
Authority
DE
Germany
Prior art keywords
hand
gesture
menu
user
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102012219814.8A
Other languages
English (en)
Inventor
Felix Lauber
Wolfgang Spießl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102012219814.8A priority Critical patent/DE102012219814A1/de
Priority to PCT/EP2013/071824 priority patent/WO2014067798A1/de
Publication of DE102012219814A1 publication Critical patent/DE102012219814A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Offenbart wird ein Verfahren zum Bereitstellen einer Bedienungseingabe unter Verwendung eines Head-mounted Displays, das von einem Benutzer getragen wird, umfassend: Erfassen der Position eines Objektes, insbesondere einer Hand des Benutzers; Anzeigen eines Menüs mit Auswahlmöglichkeiten basierend auf der erfassten Position des Objektes; Erfassen einer Geste zumindest eines Teils einer Hand, insbesondere der Hand, deren Position erfasst wurde; Erkennen, dass die erfasste Geste einer Geste entspricht, der eine Auswahlmöglichkeit des Menüs zugeordnet ist; In Antwort auf das Erkennen, dass die erfasste Geste der Geste entspricht, Auswählen der zugeordneten Auswahlmöglichkeit.

Description

  • Die Erfindung betrifft ein Verfahren zum Bereitstellen einer Bedienungseingabe unter Verwendung eines Head-mounted Displays, eine entsprechende Vorrichtung und ein Computerprogramm.
  • Heutzutage sind Head-mounted Displays bekannt, die durch einen Benutzer getragen werden und vor einem oder beiden Augen des Benutzers angeordnete Anzeigen umfassen. Diese Anzeigen können halbdurchsichtig sein, so dass der Benutzer sowohl die Darstellung auf der Anzeige wahrnehmen kann als auch die ihn umgebende Umwelt.
  • Es ist ebenfalls bekannt, durch Kameraaufnahmen die Position der Hände eines Benutzers oder allgmeiner Gesten des Benutzers zu erfassen und auszuwerten.
  • Die Druckschrift WO 01/56007 A1 erwähnt ein System umfassend ein Head-mounted Display und einen an einer Hand des Benutzers getragenen Tracker. Ein Menü wird abhängig von der Position des Trackers im Head-mounted Display angezeigt. Die Druckschrift WO 01/56007 A1 geht allerdings nicht auf die Interaktion mit dem Menü ein.
  • Aufgabe an den Fachmann ist die Bereitstellung von Bedienungseingaben für ein Menü unter Verwendung eines Head-mounted Displays.
  • Die Aufgabe wird durch ein Verfahren nach Anspruch 1, eine Vorrichtung nach Anspruch 10 und ein Computerprogramm nach Anspruch 11 gelöst. Vorteilhafte Weiterbildungen sind in den abhängigen Ansprüchen definiert.
  • In einem Aspekt umfasst ein Verfahren zum Bereitstellen einer Bedienungseingabe unter Verwendung eines Head-mounted Displays, das von einem Benutzer getragen wird: Erfassen der Position eines Objektes, insbesondere einer Hand des Benutzers; Anzeigen eines Menüs mit insbesondere graphisch dargestellten Auswahlmöglichkeiten basierend auf der erfassten Position des Objektes; Erfassen einer Geste zumindest eines Teils einer Hand, insbesondere der Hand, deren Position erfasst wurde, falls die Position der Hand erfasst wird; Erkennen, dass die erfasste Geste einer Geste entspricht, der eine Auswahlmöglichkeit des Menüs zugeordnet ist; In Antwort auf das Erkennen, dass die erfasste Geste der Geste entspricht, Auswählen der zugeordneten Auswahlmöglichkeit.
  • Auf diese Weise wird dem Benutzer eine komfortable Menüsteuerung ermöglicht. Dadurch, dass das Menü an Objekten orientiert angezeigt wird, ergibt sich für den Benutzer bei Verwendung eines halbdurchsichtigen Head-mounted Displays ein Zusammenhang zwischen der wirklichen Welt und den Auswahlmöglichkeiten des Menüs, dies wird von manchen auch als augmented reality bezeichnet. Dies vereinfacht für den Benutzer die Interaktion, da ihm so Referenzpunkte der wirklichen Welt zur Verfügung stehen. Das Objekt kann ein Lenkrad oder ein Controller sein und das Menü kann auch eine Liste umfassen, wobei die Auswahlmöglichkeiten Elemente der Liste sind. Mithilfe des Verfahrens können auch Listen durchblättert (gescrollt) werden, weitere Untermenüs aufgerufen werden, je jeweils einzelnen angezeigten Auswahlmöglichkeiten zugeordnet sind.
  • Vorteilhaft ist es insbesondere, wenn das Objekt die Hand des Benutzers ist. Das Menü wird dann basierend auf der erfassten Position einer Hand des Benutzers, angezeigt und orientiert sich damit am „Aktionsradius” des Benutzers beziehungsweise knüpft an den Körper des Benutzers an. Diese Art der Platzierung des Menüs führt zu einer intuitiven Eingabesituation, da der Benutzer seine Hände gewohnheitsmäßig zur Manipulation von Objekten einsetzt. Durch eine Anordnung in Abhängigkeit der Position der Hand, die der Benutzer gewohnheitsmäßig für Eingaben beispielsweise in Computer verwendet, wird eine für den Benutzer gewohnte Situation geschaffen und das Menü leicht mit der Möglichkeit Eingaben vorzunehmen in Verbindung gebracht. Des Weiteren ist diese Platzierung insofern vorteilhaft, als dass die Gesten derart entwickelt werden können, dass sie mit stets denselben definierten Bewegungen zum selben Ergebnis führen. Dies erleichtert dem Benutzer das Erlernen oder Verstehen der Bedieneingabe.
  • Auf vergleichsweise aufwändige Sensorik kann verzichtet werden, es wird lediglich eine Kamera benötigt. Es muss kein Handschuh, kein Marker oder sonstiger Gegenstand (bis auf das Head-mounted Display) getragen werden. Außer dem Head-mounted Display (ggf. inklusive Kamera) muss kein weiterer Gegenstand vom Benutzer getragen werden. Eine Interaktion, also Bedieneingabe, gemäß dem vorgestellten Verfahren kann spontan erfolgen und ohne großen Zeitaufwand.
  • Es kann vorgesehen sein, dass auch die Orientierung der Hand erfasst wird, und dass das Menü mit Auswahlmöglichkeiten auch basierend auf der Orientierung der Hand angezeigt wird. Eine Geste kann eine Bewegung zumindest eines Teils der Hand und das Zeigen einer Zahl mithilfe der Finger der Hand umfassen. Die durch die Finger gezeigte Zahl kann einer Auswahlmöglichkeit zugeordnet sein, der dieselbe Zahl zugewiesen ist. Weiterhin ist offensichtlich, dass das Verfahren Fälle umfasst, in denen die Eingabe von der Hand ausgeführt wird, anhand deren Position die Eingabemöglichkeiten angezeigt werden, als auch Fälle, in denen die Eingabe von der anderen Hand ausgeführt wird. Die Position der Hand und das Erfassen der Geste kann mithilfe einer oder mehrerer Kameraaufnahmen und entsprechender an sich bekannter Bildverarbeitung ausgeführt werden. Bei der Kamera kann es sich um eine Kamera handeln, die Aufnahmen im sichtbaren Lichtbereich macht oder im Infrarotbereich macht. Auch kann die Kamera zusätzlich Tiefeninformationen bereitstellen. Die Kamera kann insbesondere in dem Head-mounted Display selbst umfasst sein, aber auch beispielsweise auf dem Armaturenbrett oder im vorderen Bereich des Dachhimmels eines Kraftfahrzeugs angeordnet sein.
  • In einer vorteilhaften Weiterbildung sind die Auswahlmöglichkeiten entlang eines Kreises angrenzend an die Position des Objektes angeordnet. Alternativ können die Auswahlmöglichkeiten auch entlang eines Kreises ausgerichtet angezeigt werden mit dem Objekt im Wesentlichen im Mittelpunkt des Kreises. Auf diese Weise wird der Bezug des Eingabemenüs zum „Eingabemedium” für den Nutzer besonders deutlich. In dem Fall, dass das Objekt die Hand des Benutzers ist, werden mithilfe dieser Anordnung der Auswahlmöglichkeiten Handbewegungen in Richtung einer Auswahlmöglichkeit vorteilhaft ermöglicht. Die Strecke, die von der Hand bei einer Bewegungsgeste durchlaufen wird, wird bei einer so ermöglichten nahen Platzierung der Eingabeelemente möglichst klein gehalten, was die Eingabegeschwindigkeit erhöht.
  • Alternativ können die Auswahlmöglichkeiten auf dem Objekt beziehungsweise der erfassten Hand, insbesondere dem Handrücken, angezeigt werden. Dies verstärkt den Bezug der Auswahlmöglichkeiten zum „Eingabemedium” sogar noch weiter.
  • In einer besonders vorteilhaften Weiterbildung umfasst die Geste, der eine Auswahlmöglichkeit zugeordnet ist, eine Bewegung der Hand in Richtung der Auswahlmöglichkeit; und der Geste ist insbesondere die Auswahlmöglichkeit zugeordnet, die in der Richtung der Bewegung der Hand ausgehend von der erfassten Position des Objektes, insbesondere der erfassten Hand, angezeigt wird. Der Benutzer bewegt also seine Hand in die Richtung, in der sich für ihn auch die Auswahlmöglichkeit befindet. Da die Auswahlmöglichkeiten, in dem Fall, dass das Objekt eine Hand ist, anhand der Position der Hand ausgerichtet sein können, kann jeweils dieselbe Bewegung der Hand zur Auswahl derselben Auswahlmöglichkeit führen, unabhängig von der absoluten Position der Hand. Auch bei der Verwendung der Hand des Benutzers, die nicht zur Positionierung der Auswahlmöglichkeiten dient, besteht relativ zur positionsbestimmenden Hand stets die gleiche Bewegung. Da der Benutzer für die relative Position seiner Hände ein relativ gutes Raumgefühl hat, ist auch dieser Fall für den Benutzer intuitiv und gut erlernbar.
  • Alternativ oder zusätzlich umfasst die Geste, der eine Auswahlmöglichkeit zugeordnet ist, das Deuten einer Zahl mithilfe ausgestreckter Finger der Hand. Der Zahl ist dann eine Auswahlmöglichkeit zugeordnet. Dies ist beispielsweise bei einer großen Anzahl von Auswahlmöglichkeiten vorteilhaft, wenn beispielsweise kleine Abweichungen in der Bewegung der Hand zu einer Eingabemöglichkeit hin zu einer ungewollten Auswahl führen können. Trotzdem kann diese Eingabemethode auch als Standardeingabe vorgesehen sein.
  • In einer vorteilhaften Ausgestaltung umfasst das Head-mounted Display eine Kamera und das Verfahren umfasst ferner folgende Schritte: Erfassen, dass die Kamera des Head-mounted Displays für eine vorbestimmte Zeit im Wesentlichen auf das Objekt, insbesondere die Hand, ausgerichtet ist, insbesondere auf den Handrücken; wobei das Menü in Antwort auf das Erfassen, dass die Kamera ausgerichtet ist, angezeigt wird. Die vorbestimmte Zeit wird vorteilhafterweise so gewählt, dass eine unbeabsichtigte Aktivierung, also das Anzeigen des Menüs, vermieden wird. Auf diese Weise wird dem Benutzer eine komfortable Möglichkeit geboten, das Menü anzeigen zu lassen und die Möglichkeit zur Eingabe zu eröffnen. In dem besonders vorteilhaften Fall, dass die Kamera des Head-mounted Displays derart angeordnet ist, dass sie in dieselbe Richtung aufnimmt, wie die Ausrichtung des Head-mounted Displays ist, bedeutet eine Ausrichtung der Kamera auf die Hand, dass der Benutzer auch seine Blickrichtung auf die Hand fokussiert. Dies stellt eine intuitive Aktivierung der Menüeingabe dar.
  • Alternativ kann auch die Anzahl der ausgestreckten Finger erkannt werden und in Antwort darauf, das Menü angezeigt werden.
  • In einer weiteren Ausgestaltung umfasst das Verfahren: Erfassen des Schließens der Hand zu einer Faust, In Antwort auf das Erfassens des Schließends der Hand zu einer Faust, Schließen des Menüs. Ebenso kann durch ein Öffnen der Hand das Menü wieder geöffnet werden. Auch dies stellt für den Benutzer wieder eine intuitive und sowohl leicht als auch schnell ausführbare Geste bereit mit der Menüeingabemöglichkeit zu interagieren.
  • In einer anderen Weiterbildung ist das Objekt ein Lenkrad eines Fahrzeugs oder ein Controller, also eine spezielle zur Eingabe vorgesehene physikalische Struktur. Durch eine Veränderung der Handposition auf dem Lenkrad oder dem Controller, an dem entlang vorteilhafterweise die Auswahlmöglichkeiten angeordnet sind, kann dann eine Auswahlmöglichkeit ausgewählt werden. Eine Anordnung entlang dem Lenkrad oder Controller kann den Ort und die Form der graphisch dargestellten Auswahlmöglichkeiten bestimmen.
  • In einem anderen Aspekt umfasst eine Vorrichtung: Ein Head-mounted Display; Eine Kamera, die insbesondere vom Head-mounted Display umfasst ist; Eine elektronische Verarbeitungseinheit, wobei die Vorrichtung dazu eingerichtet ist eines der oben vorgestellten Verfahren auszuführen. Die elektronische Verarbeitungseinheit kann ein programmtechnisch einrichtbarer Mikrocontroller oder universaler Prozessor sein.
  • In wieder einem anderen Aspekt umfasst ein Computerprogramm Anweisungen zum Ausführen eines der oben dargestellten Verfahren. Das Computerprogramm kann einen Computer dazu veranlassen eines der oben dargestellten Verfahren auszuführen, wenn dieser die Anweisungen ausführt.
  • Die Erfindung basiert auch auf folgenden Überlegungen:
    Der Nutzer blickt auf seine nach vorne ausgestreckte Hand (Handrücken ist zu ihm gekehrt). Es kann vorgesehen sein, dass nach einer gewissen Zeit oder anhand der Anzahl der ausgestreckten Finger das System den Interaktionswunsch erkennt und in dem Head-mounted Display ein (beispielsweise) kreisförmig angeordnetes Menu einblendet. Das Öffnen und Schließen des Menus kann beispielsweise durch das Öffnen bzw. Schließen einer Faust geschehen. Da das System in der Lage ist die Position der Hand zu bestimmen, kann das Menu um die ausgestreckte Hand des Benutzers angeordnet werden. Der Nutzer kann nun durch Gesten der Hand (oder Hände) wie das Ausstrecken einer definierten Anzahl von Fingern, durch eine Handbewegung auf den entsprechenden Menüeintrag oder durch Hinzunahme der zweiten Hand einen Listeneintrag auswählen.
  • Es kann vorgesehen sein, dass nicht die Hand des Benutzers erkannt wird sondern ein beliebiger Gegenstand beispielsweise in einem Kraftfahrzeug. Hier wäre denkbar, dass beispielsweise das Lenkrad den Ort beispielsweise des Menus vorgibt. Hier kann beispielsweise durch eine Veränderung der Handposition(en) auf dem Lenkrad oder einen physikalischen Controller ein Menüeintrag selektiert werden um im Menü zu navigieren.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt eine Vorrichtung gemäß einem Ausführungsbeispiel.
  • 2 zeigt die Anordnung von Auswahlmöglichkeiten des Menüs entsprechend einem Ausführungsbeispiel.
  • 3 zeigt eine beispielhafte Bewegungsgeste zur Auswahl einer Auswahlmöglichkeit gemäß einem Ausführungsbeispiel.
  • 4 zeigt eine beispielhafte Geste zum Deuten einer Zahl zur Auswahl einer Auswahlmöglichkeit gemäß einem Ausführungsbeispiel.
  • Gleiche Bezugszeichen beziehen sich auf sich entsprechende Elemente über die Figuren hinweg.
  • DETAILLIERTE BESCHREIBUNG DER AUSFÜHRUNGSBEISPIELE
  • 1 zeigt eine Vorrichtung gemäß einem Ausführungsbeispiel. Die Vorrichtung umfasst eine Kamera 2, eine elektronische Verarbeitungseinheit 3 und ein Head-mounted Display 4, wobei die Kamera 2 am Head-mounted Display 4 angeordnet ist und in dieselbe Richtung aufnimmt, wie die Blickrichtung des Benutzers ist bei aufgesetztem Head-mounted Display 4. Die Kamera 2 nimmt den vor ihr liegenden Bereich und damit auch die dort gehaltene Hand 1 auf. Die Aufnahme der Kamera 2 wird an die Verarbeitungseinheit 3 weitergeleitet, die dazu eingerichtet ist, die Position der Hand 1, die Orientierung der Hand 1 (hier den Winkel α), eine Geste der Hand 1 und die Anzahl, die Richtung und den Typ der ausgestreckten Finger zu erkennen. Gegebenenfalls verwendet die Verarbeitungseinheit 3 dazu das in 1 eingezeichnete Koordinatensystem (x- und y-Achse). Auch ist die Verarbeitungseinheit 3 dazu eingerichtet ein Menü mit Auswahlmöglichkeiten und die Position, an der das Menü anzuzeigen ist, zu bestimmen. Dabei wird die Position des anzuzeigenden Menüs anhand der Position der Hand 1 bestimmt. Ein Beispiel der Position und Anordnung des Menüs ist in der 2 gezeigt. Das anzuzeigende Menü wird von der Verarbeitungseinheit 3 an das Head-mounted Display 4 weitergeleitet und das Head-mounted Display 4 zeigt das Menü schließlich an. Darüber hinaus ist die Verarbeitungseinheit 3 dazu eingerichtet, eine Geste der erfassten Hand in Kameraaufnahmen zu erfassen und zu erkennen, dass diese Geste einer Geste entspricht, der eine Auswahlmöglichkeit zugeordnet ist. Sobald dies geschieht wird eine Auswahlmöglichkeit ausgewählt.
  • 2 zeigt die Anordnung von Auswahlmöglichkeiten 5 des Menüs, wie sie für den Benutzer des Head-mounted Displays 4 erscheinen und durch die Verarbeitungseinheit 3 bestimmt sein können. Die Auswahlmöglichkeiten 5 sind entlang eines Kreises angeordnet, der wiederum an die Hand 1 des Benutzers grenzt. Die einzelnen Auswahlmöglichkeiten sind mit 1 bis 5 durchnummeriert.
  • Ein Benutzer kann eine der Auswahlmöglichkeiten 5 auswählen, in dem er als Geste eine Bewegung seiner Hand in Richtung des Auswahlelements ausführt. Führt der Benutzer seine Hand 1 beispielsweise in Richtung der Auswahlmöglichkeit Nr. 3, wie in 3 durch die gestrichelte Linie angedeutet, so wird diese Geste erfasst und es wird erkannt, dass diese Geste zu der Auswahl der Auswahlmöglichkeit Nr. 3 korrespondiert. Folglich wird die Möglichkeit Nr. 3 aktiviert.
  • Als Alternative oder auch zusätzlich zu der Bewegungsgeste kann vorgesehen sein, dass auch das Deuten der Zahl, die einer der Auswahlmöglichkeiten 5 zugewiesen ist, zur Auswahl dieser Möglichkeit führt. Beispielsweise zeigt 4 den Fall, dass der Benutzer die dritte Auswahlmöglichkeit wählen will und folglich als Geste drei Finger ausstreckt, was als Zahl „3” interpretiert wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 01/56007 A1 [0004, 0004]

Claims (11)

  1. Verfahren zum Bereitstellen einer Bedienungseingabe unter Verwendung eines Head-mounted Displays, das von einem Benutzer getragen wird, umfassend: Erfassen der Position eines Objektes, insbesondere einer Hand des Benutzers; Anzeigen eines Menüs mit Auswahlmöglichkeiten basierend auf der erfassten Position des Objektes; Erfassen einer Geste zumindest eines Teils einer Hand, insbesondere der Hand, deren Position erfasst wurde; Erkennen, dass die erfasste Geste einer Geste entspricht, der eine Auswahlmöglichkeit des Menüs zugeordnet ist; In Antwort auf das Erkennen, dass die erfasste Geste der Geste entspricht, Auswählen der zugeordneten Auswahlmöglichkeit.
  2. Verfahren nach Anspruch 1, wobei die Auswahlmöglichkeiten entlang eines Kreises angrenzend an die Position des Objektes angeordnet sind.
  3. Verfahren nach Anspruch 1, wobei die Auswahlmöglichkeiten auf dem Objekt angezeigt werden, insbesondere einem Handrücken, falls das Objekt eine Hand des Benutzers ist.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Geste, der eine Auswahlmöglichkeit zugeordnet ist, eine Bewegung der Hand in Richtung der Auswahlmöglichkeit umfasst; wobei der Geste insbesondere die Auswahlmöglichkeit zugeordnet ist, die in der Richtung der Bewegung der Hand ausgehend von der erfassten Position des Objektes angezeigt wird.
  5. Verfahren nach einem der Ansprüche 1 bis 3, wobei die Geste, der eine Auswahlmöglichkeit zugeordnet ist, das Deuten einer Zahl mithilfe ausgestreckter Finger der Hand umfasst; oder nach Anspruch 4, wobei die Geste eine erste Geste ist, und das Verfahren ferner umfasst: Erfassen einer zweiten Geste zumindest eines Teils einer Hand, insbesondere der Hand, deren Position erfasst wurde; Erkennen, dass die erfasste zweite Geste das Deuten einer bestimmten Zahl mithilfe ausgestreckter Finger der Hand umfasst, wobei der Geste eine entsprechende Auswahlmöglichkeit des Menüs zugeordnet ist, insbesondere in Abhängigkeit der gedeuteten Zahl; In Antwort auf das Erkennen, Auswählen der zugeordneten Auswahlmöglichkeit.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Head-mounted Display eine Kamera umfasst; wobei das Verfahren ferner umfasst: Erfassen, dass die Kamera des Head-mounted Displays für eine vorbestimmte Zeit im Wesentlichen auf das Objekt ausgerichtet ist, insbesondere auf den Handrücken, falls das Objekt eine Hand des Benutzers ist; wobei das Menü in Antwort auf das Erfassen, dass die Kamera ausgerichtet ist, angezeigt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Objekt ein Lenkrad oder Controller ist.
  8. Verfahren nach Anspruch 7, wobei die Geste eine Veränderung der Handposition auf dem Lenkrad oder Controller ist.
  9. Verfahren nach einem der vorhergehenden Ansprüche, ferner umfassend: Erfassen des Schließens einer Hand des Benutzers zu einer Faust, In Antwort auf das Erfassens des Schließends der Hand zu einer Faust, Schließen des Menüs.
  10. Vorrichtung, umfassend: Ein Head-mounted Display; Eine Kamera, die insbesondere vom Head-mounted Display umfasst ist; Eine elektronische Verarbeitungseinheit, wobei die Vorrichtung dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche auszuführen.
  11. Computerprogramm, umfassend Anweisungen zum Ausführen eines der Verfahren nach den Ansprüchen 1 bis 9.
DE102012219814.8A 2012-10-30 2012-10-30 Bereitstellen einer Bedienungseingabe unter Verwendung eines Head-mounted Displays Withdrawn DE102012219814A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102012219814.8A DE102012219814A1 (de) 2012-10-30 2012-10-30 Bereitstellen einer Bedienungseingabe unter Verwendung eines Head-mounted Displays
PCT/EP2013/071824 WO2014067798A1 (de) 2012-10-30 2013-10-18 Bereitstellen einer bedienungseingabe unter verwendung eines head-mounted displays

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012219814.8A DE102012219814A1 (de) 2012-10-30 2012-10-30 Bereitstellen einer Bedienungseingabe unter Verwendung eines Head-mounted Displays

Publications (1)

Publication Number Publication Date
DE102012219814A1 true DE102012219814A1 (de) 2014-04-30

Family

ID=49448143

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012219814.8A Withdrawn DE102012219814A1 (de) 2012-10-30 2012-10-30 Bereitstellen einer Bedienungseingabe unter Verwendung eines Head-mounted Displays

Country Status (2)

Country Link
DE (1) DE102012219814A1 (de)
WO (1) WO2014067798A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016087902A1 (en) 2014-12-05 2016-06-09 Audi Ag Operating device for a vehicle, in particular a passenger vehicle; as well as method for operating such an operating device
WO2016188627A1 (de) * 2015-05-22 2016-12-01 Giesecke & Devrient Gmbh System und verfahren zur bearbeitung von wertdokumenten
CN114168034A (zh) * 2017-05-26 2022-03-11 成都理想境界科技有限公司 应用于头戴式显示设备的菜单操作方法及头戴式显示设备

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113672158A (zh) * 2021-08-20 2021-11-19 上海电气集团股份有限公司 一种增强现实的人机交互方法及设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001056007A1 (en) 2000-01-28 2001-08-02 Intersense, Inc. Self-referenced tracking
US20120235884A1 (en) * 2010-02-28 2012-09-20 Osterhout Group, Inc. Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
US8490002B2 (en) * 2010-02-11 2013-07-16 Apple Inc. Projected display shared workspaces
US20130154913A1 (en) * 2010-12-16 2013-06-20 Siemens Corporation Systems and methods for a gaze and gesture interface

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001056007A1 (en) 2000-01-28 2001-08-02 Intersense, Inc. Self-referenced tracking
US20120235884A1 (en) * 2010-02-28 2012-09-20 Osterhout Group, Inc. Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016087902A1 (en) 2014-12-05 2016-06-09 Audi Ag Operating device for a vehicle, in particular a passenger vehicle; as well as method for operating such an operating device
WO2016188627A1 (de) * 2015-05-22 2016-12-01 Giesecke & Devrient Gmbh System und verfahren zur bearbeitung von wertdokumenten
US10496179B2 (en) 2015-05-22 2019-12-03 Giesecke+Devrient Currency Technology Gmbh System and method for processing value documents
CN114168034A (zh) * 2017-05-26 2022-03-11 成都理想境界科技有限公司 应用于头戴式显示设备的菜单操作方法及头戴式显示设备

Also Published As

Publication number Publication date
WO2014067798A1 (de) 2014-05-08

Similar Documents

Publication Publication Date Title
EP1998996A1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
WO2013029772A2 (de) Verfahren und anordnung zum bereitstellen einer graphischen nutzerschnittstelle, insbesondere in einem fahrzeug
DE102016210288A1 (de) Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung
DE102016108885A1 (de) Verfahren zum berührungslosen Verschieben von visuellen Informationen
DE102012020607B4 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
EP3642695B1 (de) Verfahren zum betreiben einer anzeigevorrichtung für ein kraftfahrzeug sowie kraftfahrzeug
EP3508968A1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
EP3508967A1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
DE102015012720B4 (de) Interaktives Bediensystem und Verfahren zum Durchführen einer Bedienhandlung bei einem interaktiven Bediensystem
DE102012219814A1 (de) Bereitstellen einer Bedienungseingabe unter Verwendung eines Head-mounted Displays
WO2015162058A1 (de) Gesteninteraktion mit einem fahrerinformationssystem eines fahrzeuges
DE102015201728A1 (de) Verfahren zum Auswählen eines Bedienelements eines Kraftfahrzeugs und Bediensystem für ein Kraftfahrzeug
DE102013014877A1 (de) Kraftfahrzeug-Bedieneinrichtung mit selbsterklärender Gestenerkennung
WO2017140569A1 (de) Kraftfahrzeug-bedienvorrichtung und verfahren zum betreiben einer bedienvorrichtung, um eine wechselwirkung zwischen einer virtuellen darstellungsebene und einer hand zu bewirken
WO2016184971A1 (de) Verfahren zum betreiben einer bedienvorrichtung sowie bedienvorrichtung für ein kraftfahrzeug
EP3025214B1 (de) Verfahren zum betreiben einer eingabevorrichtung, sowie eingabevorrichtung
DE102012218155A1 (de) Erleichtern der Eingabe auf einer berührungsempfindlichen Anzeige in einem Fahrzeug
DE102013021138A1 (de) Simulationsanordnung und Verfahren zur Simulation eines Fahrzeuginnenraums
DE102013019570A1 (de) Bedieneinrichtung mit berührungsloser Schrifteingabefunktion für ein Kraftfahrzeug, Kraftfahrzeug und Verfahren zum Betreiben einer Bedieneinrichtung
DE102013014889A1 (de) Mauszeigersteuerung für eine Bedienvorrichtung
DE102012015763A1 (de) Vorrichtung mit einer Lenkhandhabe mit einem Bedienfeld und Kraftfahrzeug
EP3274789B1 (de) Kraftfahrzeugsimulationsanordnung zur simulation einer virtuellen umgebung mit einem virtuellen kraftfahrzeug und verfahren zur simulation einer virtuellen umgebung
WO2014114428A1 (de) Verfahren und system zum blickrichtungsabhängigen steuern einer mehrzahl von funktionseinheiten sowie kraftwagen und mobiles endgerät mit einem solchen system
DE102014006945A1 (de) Fahrzeugsystem, Fahrzeug und Verfahren zum Reagieren auf Gesten
WO2021028274A1 (de) Bediensystem und verfahren zum betreiben des bediensystems

Legal Events

Date Code Title Description
R163 Identified publications notified
R005 Application deemed withdrawn due to failure to request examination