WO2018046349A1 - Head-mounted display for interaction with a user - Google Patents

Head-mounted display for interaction with a user Download PDF

Info

Publication number
WO2018046349A1
WO2018046349A1 PCT/EP2017/071627 EP2017071627W WO2018046349A1 WO 2018046349 A1 WO2018046349 A1 WO 2018046349A1 EP 2017071627 W EP2017071627 W EP 2017071627W WO 2018046349 A1 WO2018046349 A1 WO 2018046349A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
control
object surface
processor
data
Prior art date
Application number
PCT/EP2017/071627
Other languages
German (de)
French (fr)
Inventor
Frank Dietrich
Olaf Dressel
Frank Fritze
Andreas Daniel Hartl
Original Assignee
Bundesdruckerei Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bundesdruckerei Gmbh filed Critical Bundesdruckerei Gmbh
Priority to EP17761467.4A priority Critical patent/EP3510471A1/en
Publication of WO2018046349A1 publication Critical patent/WO2018046349A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user

Definitions

  • the present invention relates to the field of human-machine interaction, in particular the interaction between a user and data glasses.
  • the interaction between a user and data glasses is becoming increasingly important for Augmented Reality (AR) applications.
  • AR Augmented Reality
  • An interaction of a user with a data glasses is currently usually by means of a control by predefined gestures or buttons on the data glasses and feedback to the user.
  • integrated sensors such as motion sensors, may be used to interact with the user.
  • the predefined gestures or the function of the keys usually have to be learned in advance by the user. Also, the interaction using integrated sensors, such as motion sensors, requires training of the user to perform some interaction with the data goggles.
  • the invention is based on the realization that the above object can be achieved by a data goggles, which can recognize an object surface and an input element of the user, and can superimpose a control panel with a plurality of control elements over the object surface.
  • the user can actuate individual control elements of the control panel on the object surface and interact intuitively with the data glasses.
  • the object surface may be, for example, a body part of the user, in particular a palm of the user, or a surface of a machine or a tool.
  • the input element of the user may be, for example, a user's finger or a stylus of the user. This ensures that the user can interact efficiently with the data glasses.
  • the user can intuitively enter a string, thereby
  • authentication of the user may be via a server
  • the invention relates to data glasses for interacting with a user, wherein the data glasses are portable by the user.
  • the data glasses comprise a camera, which is designed to capture a video sequence with an object surface and an input element of the user.
  • the data glasses further comprise a display device, which is designed to display a control panel with a plurality of control elements, wherein the control panel is superimposed on the object surface.
  • the data glasses also include a processor, which is designed to detect a position of the input element relative to the object surface on the basis of the video sequence, and to associate the detected position with an operating element of the displayed control panel in order to detect an actuation of the operating element.
  • Object surface predetermined properties such as geometric dimensions, contours or textures may have.
  • the object surface may, for example, a body part of the user, in particular a palm of the user, or a
  • the object surface may be planar or curved.
  • the input element of the user may be, for example, a user's finger or a stylus of the user.
  • Input element can be detected for example by means of pattern recognition.
  • the control panel may be, for example, a keypad, wherein the plurality of controls may be formed by a plurality of keys.
  • the plurality of operating elements may further comprise slider elements or menu structures which can be superimposed on the object surface or projected onto the object surface.
  • the overlay can be done in the form of augmentation.
  • the processor is formed on the basis of
  • Video sequence to capture a further position of the input element relative to the object surface, the detected further position, the control of the displayed
  • the processor can therefore detect at least one position of the input element relative to the object surface on the basis of the video sequence. This achieves the advantage that the
  • Actuation of the control element can be detected efficiently.
  • the processor is configured to press the
  • the Processor configured to detect a retention of the input element over the operating element during a predetermined period of time as actuation of the operating element.
  • the predetermined period of time may be, for example, 0.5 second, 1 second, 2 seconds or 5 seconds.
  • each control element of the control panel is assigned a character, in particular a digit, wherein the display device is designed to display a character, in particular a digit, which is assigned to the actuated operating element of the control panel.
  • the data goggle further comprises an actuator, wherein the actuator is configured to mechanically vibrate in response to detecting the operation of the control element.
  • the data goggles further comprise a loudspeaker, wherein the loudspeaker is configured to emit an acoustic signal in response to detecting the actuation of the control element.
  • the processor is configured to detect an actuation of a further control element of the control panel, wherein the actuated Operating element and the actuated further control element actuated
  • Control element can be done in the same way as the described detection of the operation of the control element.
  • the operated control sequence may be an actuated key sequence and the prestored control sequence may be a pre-stored key sequence.
  • the display device is formed, a position of the operating element and a further position of the further operating element in the
  • Control panel randomly to determine, to display the control element at the random position, and to display the other control element at the other randomly determined position. It is thereby achieved that an arrangement and / or a layout of the operating elements can be varied. As a result, for example, measures can be taken to unwanted spying on entered
  • the position of the controls can be determined at random for each operation, i. For example, no standardized number pad is used as the control panel. Furthermore, the arrangement of the control panel can be varied within the object surface.
  • the processor is configured to generate an authentication signal if the actuated control sequence of the prestored
  • Control sequence corresponds, wherein the authentication signal indicates an authentication of the user.
  • the data glasses further comprise a
  • Communication interface wherein the communication interface is adapted to communicate with a server via a communication network, and wherein the
  • Communication interface is designed to send the authentication signal via the communication network to the server.
  • the processor is configured to capture the object area and the input element of the user in the video sequence, or the processor is configured to track the object area and the input element of the user in the video sequence.
  • the processor is configured to generate a three-dimensional environment model based on the video sequence, to determine a plurality of reference object areas based on the environment model, and to select the object area from the plurality of reference object areas.
  • SLAM Simultaneous Localization and Mapping
  • the display device is designed to display a pointer element, wherein the pointer element represents the position of the input element relative to the object surface. This achieves the advantage that the user can position the input element efficiently relative to the object surface.
  • Pointer element can be realized for example in the form of a mouse pointer.
  • the pointer element can be displayed within the control panel with the plurality of controls, which is superimposed on the object surface or which on the
  • Object surface is projected.
  • control panel of the object surface is transparent, in particular semi-transparent, superimposed.
  • the object surface is a body part of the user, in particular a palm of the user or an arm surface of the user.
  • the input element is a user's finger or a stylus of the user.
  • the stylus can be held in one hand by the user.
  • the object surface is a palm of the user, wherein the input element is a finger of the user, and wherein the palm and the finger are associated with different hands of the user.
  • the invention relates to a method of interacting with a user using smart glasses.
  • the data glasses comprise a camera, a display device and a processor, the data glasses being portable by the user.
  • the method comprises capturing a video sequence with a
  • a display device wherein the control panel is superimposed on the object surface, detecting based on the video sequence a position of the input member relative to the object surface by the processor, and assigning the detected position to a control of the displayed control panel by the processor to an actuation of the control element to detect.
  • the procedure can be carried out by the data glasses. Further features of the method result directly from the features and / or functionality of the data glasses.
  • the invention relates to a computer program with a program code for carrying out the method according to the second aspect of the invention
  • the data glasses in particular the camera, the display device and / or the
  • Processor may be programmable to execute the program code or parts of the program code.
  • the invention can be implemented in hardware and / or software.
  • Fig. 1 is a schematic diagram of a data glasses for interacting with a
  • Fig. 2 is a schematic diagram of a method for interacting with a
  • the data glasses 100 comprise a camera 101, which is designed to be a video sequence with a
  • the data glasses 100 further comprise a display device 103, which is designed to display a control panel with a plurality of controls, wherein the control panel is superimposed on the object surface.
  • the data glasses 100 also include a processor 105, which is designed to detect a position of the input element relative to the object surface on the basis of the video sequence, and to associate the detected position with an operating element of the displayed control panel in order to detect an actuation of the operating element.
  • FIG. 2 shows a schematic diagram of a method 200 for interacting with a user using smart glasses.
  • the data glasses comprise a camera, a display device and a processor, the data glasses being portable by the user.
  • the method 200 comprises detecting 201 a video sequence with an object surface and an input element of the user by the camera, a display 203 of a control panel with a plurality of control elements through the
  • a display device wherein the control panel is superimposed on the object surface, detecting 205 based on the video sequence a position of the input member relative to the object surface by the processor, and assigning the detected position 207 to a control of the displayed control panel by the processor to an actuation of the Detecting control element.
  • the data glasses 100 and the method 200 for interaction with the user extend the possibilities of interaction with the data glasses 100, since the interactions can be solved independently of the mechanical structure of the data glasses 100.
  • touch-sensitive surfaces on the data glasses 100 can be dispensed with.
  • the approach is based on tracking the object surface and the input element of the user as well as the use of augmented reality (AR).
  • AR augmented reality
  • the approach to user interaction with the user begins with a detection or recognition of the previously determined object area by the camera 101 of the data glasses 100, for example by means of a tracking of the object surface.
  • the object area may be, for example, the right-hand user's left palm, or the left-hand user's right palm.
  • a display or superimposition of operating elements by the display device 103 of the data glasses 100 by means of augmentation For example, a control panel with a plurality of controls, such as buttons, for displaying a control sequence, such as a PIN, are displayed.
  • the user then moves an input element, for example a finger of his other hand, into the initially recognized object surface.
  • the movement of the input element is also detected by the camera 101 of the data glasses 100 or
  • the data glasses 100 feedback on the current position.
  • the feedback can be made similar to a mouse pointer on a computer. If a desired position has been reached by the input element, a pressure on the virtual control panel can be triggered to actuate a control element. This pressure can be triggered, for example, by staying at the position for a longer time or by detecting a movement of the input element into the depth.
  • the data glasses 100 and the method 200 can be used, for example, for non-contact operation of machines in production environments.

Abstract

The invention relates to a head-mounted display (100) for interaction with a user, where the head-mounted display (100) can be worn by the user. The head-mounted display (100) comprises a camera (101) which is designed to record a video sequence with an object surface and an input element of the user. The head-mounted display (100) also comprises a display device (103) which is designed to display an operating field with a plurality of operating elements, the operating field being superimposed on the object surface. The head-mounted display (100) further comprises a processor (105) which is designed to record a position of the input element in relation to the object surface on the basis of the video sequence, and to associate an operating element of the displayed operating field with the recorded position, in order to detect an actuation of the operating element.

Description

Datenbrille zum Interagieren mit einem Nutzer  Data glasses for interacting with a user
Die vorliegende Erfindung betrifft das Gebiet der Mensch-Maschine-Interaktion, insbesondere der Interaktion zwischen einem Nutzer und einer Datenbrille. Die Interaktion zwischen einem Nutzer und einer Datenbrille ist für Anwendungen im Bereich der Augmented Reality (AR) von zunehmender Bedeutung. The present invention relates to the field of human-machine interaction, in particular the interaction between a user and data glasses. The interaction between a user and data glasses is becoming increasingly important for Augmented Reality (AR) applications.
Eine Interaktion eines Nutzers mit einer Datenbrille erfolgt derzeit üblicherweise mittels einer Steuerung durch vordefinierte Gesten bzw. Tasten an der Datenbrille sowie einer Rückmeldung an den Nutzer. Weiterhin werden gegebenenfalls integrierte Sensoren, wie beispielsweise Bewegungssensoren, zur Interaktion mit dem Nutzer verwendet. An interaction of a user with a data glasses is currently usually by means of a control by predefined gestures or buttons on the data glasses and feedback to the user. Furthermore, integrated sensors, such as motion sensors, may be used to interact with the user.
Die vordefinierten Gesten bzw. die Funktion der Tasten müssen dabei üblicherweise vorab durch den Nutzer erlernt werden. Auch die Interaktion unter Verwendung integrierter Sensoren, beispielsweise von Bewegungssensoren, erfordert eine Einübung des Nutzers, um eine bestimmte Interaktion mit der Datenbrille durchzuführen. The predefined gestures or the function of the keys usually have to be learned in advance by the user. Also, the interaction using integrated sensors, such as motion sensors, requires training of the user to perform some interaction with the data goggles.
Insbesondere bei der Eingabe von Zeichenfolgen durch den Nutzer erweisen sich diese Gesichtspunkte als Herausforderung für die Interaktion mit der Datenbrille. Es ist daher die Aufgabe der vorliegenden Erfindung, ein effizientes Konzept zur Especially when entering strings by the user, these aspects prove to be a challenge for the interaction with the data glasses. It is therefore the object of the present invention to provide an efficient concept for
Interaktion eines Nutzers mit einer Datenbrille zu schaffen. To create interaction of a user with a data glasses.
Diese Aufgabe wird durch die Merkmale der unabhängigen Ansprüche gelöst. Vorteilhafte Weiterbildungsformen sind Gegenstand der abhängigen Patentansprüche, der This object is solved by the features of the independent claims. Advantageous forms of further development are the subject of the dependent claims, the
Beschreibung sowie der Figuren. Description as well as the figures.
Die Erfindung basiert auf der Erkenntnis, dass die obige Aufgabe durch eine Datenbrille gelöst werden kann, welche eine Objektfläche und ein Eingabeelement des Nutzers erkennen kann, und ein Bedienfeld mit einer Mehrzahl von Bedienelementen über die Objektfläche überlagern kann. Der Nutzer kann mittels seines Eingabeelements einzelne Bedienelemente des Bedienfeldes auf der Objektfläche betätigen und intuitiv mit der Datenbrille interagieren. Die Objektfläche kann beispielsweise eine Körperpartie des Nutzers, insbesondere eine Handfläche des Nutzers, oder eine Oberfläche einer Maschine oder eines Werkzeugs sein. Das Eingabeelement des Nutzers kann beispielsweise ein Finger des Nutzers oder ein Eingabestift des Nutzers sein. Dadurch wird erreicht, dass der Nutzer effizient mit der Datenbrille interagieren kann. Insbesondere kann der Nutzer intuitiv eine Zeichenfolge eingeben, wodurch The invention is based on the realization that the above object can be achieved by a data goggles, which can recognize an object surface and an input element of the user, and can superimpose a control panel with a plurality of control elements over the object surface. By means of its input element, the user can actuate individual control elements of the control panel on the object surface and interact intuitively with the data glasses. The object surface may be, for example, a body part of the user, in particular a palm of the user, or a surface of a machine or a tool. The input element of the user may be, for example, a user's finger or a stylus of the user. This ensures that the user can interact efficiently with the data glasses. In particular, the user can intuitively enter a string, thereby
beispielsweise eine effiziente Authentifizierung des Nutzers möglich wird. Die For example, an efficient authentication of the user is possible. The
Authentifizierung des Nutzers kann beispielsweise einem Server über ein For example, authentication of the user may be via a server
Kommunikationsnetzwerk signalisiert werden. Communication network are signaled.
Gemäß einem ersten Aspekt betrifft die Erfindung eine Datenbrille zum Interagieren mit einem Nutzer, wobei die Datenbrille durch den Nutzer tragbar ist. Die Datenbrille umfasst eine Kamera, welche ausgebildet ist, eine Videosequenz mit einer Objektfläche und einem Eingabeelement des Nutzers zu erfassen. Die Datenbrille umfasst ferner eine Anzeigeeinrichtung, welche ausgebildet ist, ein Bedienfeld mit einer Mehrzahl von Bedienelementen anzuzeigen, wobei das Bedienfeld der Objektfläche überlagert ist. Die Datenbrille umfasst zudem einen Prozessor, welcher ausgebildet ist, auf der Basis der Videosequenz eine Position des Eingabeelements gegenüber der Objektfläche zu erfassen, und der erfassten Position ein Bedienelement des angezeigten Bedienfeldes zuzuordnen, um eine Betätigung des Bedienelementes zu detektieren. Dadurch wird der Vorteil erreicht, dass ein effizientes Konzept zur Interaktion eines Nutzers mit einer Datenbrille realisiert werden kann. Die Objektfläche kann eine Oberfläche eines beliebigen Objektes sein, wobei dieAccording to a first aspect, the invention relates to data glasses for interacting with a user, wherein the data glasses are portable by the user. The data glasses comprise a camera, which is designed to capture a video sequence with an object surface and an input element of the user. The data glasses further comprise a display device, which is designed to display a control panel with a plurality of control elements, wherein the control panel is superimposed on the object surface. The data glasses also include a processor, which is designed to detect a position of the input element relative to the object surface on the basis of the video sequence, and to associate the detected position with an operating element of the displayed control panel in order to detect an actuation of the operating element. This provides the advantage that an efficient concept for the interaction of a user with data glasses can be realized. The object surface may be a surface of any object, wherein the
Objektfläche vorbestimmte Eigenschaften, beispielsweise geometrische Abmessungen, Konturen oder Texturen, aufweisen kann. Die Objektfläche kann beispielsweise eine Körperpartie des Nutzers, insbesondere eine Handfläche des Nutzers, oder eine Object surface predetermined properties, such as geometric dimensions, contours or textures may have. The object surface may, for example, a body part of the user, in particular a palm of the user, or a
Oberfläche einer Maschine oder eines Werkzeugs sein. Die Objektfläche kann planar oder gekrümmt sein. Das Eingabeelement des Nutzers kann beispielsweise ein Finger des Nutzers oder ein Eingabestift des Nutzers sein. Die Objektfläche sowie das Surface of a machine or a tool. The object surface may be planar or curved. The input element of the user may be, for example, a user's finger or a stylus of the user. The object surface as well as the
Eingabeelement können beispielsweise mittels einer Mustererkennung erfasst werden. Input element can be detected for example by means of pattern recognition.
Das Bedienfeld kann beispielsweise ein Tastenfeld sein, wobei die Mehrzahl von Bedienelementen durch eine Mehrzahl von Tasten gebildet sein kann. Die Mehrzahl von Bedienelementen kann ferner Schiebeelemente (engl. Slider) oder Menüstrukturen umfassen, welche der Objektfläche überlagert werden können bzw. auf die Objektfläche projiziert werden können. Die Überlagerung kann in Form einer Augmentierung erfolgen. Gemäß einer Ausführungsform ist der Prozessor ausgebildet, auf der Basis der The control panel may be, for example, a keypad, wherein the plurality of controls may be formed by a plurality of keys. The plurality of operating elements may further comprise slider elements or menu structures which can be superimposed on the object surface or projected onto the object surface. The overlay can be done in the form of augmentation. According to one embodiment, the processor is formed on the basis of
Videosequenz eine weitere Position des Eingabeelements gegenüber der Objektfläche zu erfassen, der erfassten weiteren Position das Bedienelement des angezeigten  Video sequence to capture a further position of the input element relative to the object surface, the detected further position, the control of the displayed
Bedienfeldes zuzuordnen, und die Betätigung des Bedienelementes auf der Basis der erfassten Position und der erfassten weiteren Position zu detektieren. Der Prozessor kann folglich auf der Basis der Videosequenz zumindest eine Position des Eingabeelements gegenüber der Objektfläche erfassen. Dadurch wird der Vorteil erreicht, dass die Associate control panel, and to detect the operation of the control element on the basis of the detected position and the detected further position. The processor can therefore detect at least one position of the input element relative to the object surface on the basis of the video sequence. This achieves the advantage that the
Betätigung des Bedienelementes effizient detektiert werden kann. Actuation of the control element can be detected efficiently.
Gemäß einer Ausführungsform ist der Prozessor ausgebildet, ein Drücken des According to one embodiment, the processor is configured to press the
Bedienelementes als Betätigung des Bedienelementes zu detektieren, oder ist derOperating element to detect as actuation of the control element, or is the
Prozessor ausgebildet, ein Verbleiben des Eingabeelements über dem Bedienelement während einer vorbestimmten Zeitdauer als Betätigung des Bedienelementes zu detektieren. Dadurch wird der Vorteil erreicht, dass die Betätigung des Bedienelementes auf unterschiedliche Weisen detektiert werden kann. Die vorbestimmte Zeitdauer kann beispielsweise 0,5 Sekunden, 1 Sekunde, 2 Sekunden oder 5 Sekunden betragen. Processor configured to detect a retention of the input element over the operating element during a predetermined period of time as actuation of the operating element. As a result, the advantage is achieved that the actuation of the operating element can be detected in different ways. The predetermined period of time may be, for example, 0.5 second, 1 second, 2 seconds or 5 seconds.
Gemäß einer Ausführungsform ist jedem Bedienelement des Bedienfeldes ein Zeichen, insbesondere eine Ziffer, zugeordnet, wobei die Anzeigeeinrichtung ausgebildet ist, ein Zeichen, insbesondere eine Ziffer, anzuzeigen, welches dem betätigten Bedienelement des Bedienfeldes zugeordnet ist. Dadurch wird der Vorteil erreicht, dass der Nutzer das betätigte Bedienelement effizient verifizieren kann. According to one embodiment, each control element of the control panel is assigned a character, in particular a digit, wherein the display device is designed to display a character, in particular a digit, which is assigned to the actuated operating element of the control panel. This achieves the advantage that the user can efficiently verify the operated control element.
Gemäß einer Ausführungsform umfasst die Datenbrille ferner einen Aktor, wobei der Aktor ausgebildet ist, ansprechend auf das Detektieren der Betätigung des Bedienelementes, mechanisch zu vibrieren. Dadurch wird der Vorteil erreicht, dass dem Nutzer eine erfolgte Betätigung des Bedienelementes effizient angezeigt werden kann. According to one embodiment, the data goggle further comprises an actuator, wherein the actuator is configured to mechanically vibrate in response to detecting the operation of the control element. As a result, the advantage is achieved that the user a successful operation of the control element can be displayed efficiently.
Gemäß einer Ausführungsform umfasst die Datenbrille ferner einen Lautsprecher, wobei der Lautsprecher ausgebildet ist, ansprechend auf das Detektieren der Betätigung des Bedienelementes, ein akustisches Signal auszugeben. Dadurch wird der Vorteil erreicht, dass dem Nutzer eine erfolgte Betätigung des Bedienelementes effizient angezeigt werden kann. According to one embodiment, the data goggles further comprise a loudspeaker, wherein the loudspeaker is configured to emit an acoustic signal in response to detecting the actuation of the control element. As a result, the advantage is achieved that the user a successful operation of the control element can be displayed efficiently.
Gemäß einer Ausführungsform ist der Prozessor ausgebildet, ein Betätigen eines weiteren Bedienelementes des Bedienfeldes zu detektieren, wobei das betätigte Bedienelement und das betätigte weitere Bedienelement eine betätigteAccording to one embodiment, the processor is configured to detect an actuation of a further control element of the control panel, wherein the actuated Operating element and the actuated further control element actuated
Bedienelementfolge bilden, und wobei der Prozessor ausgebildet ist, die betätigte Form operating sequence, and wherein the processor is formed, the actuated
Bedienelementfolge mit einer vorgespeicherten Bedienelementfolge zu vergleichen. Compare control element sequence with a pre-stored control sequence.
Dadurch wird der Vorteil erreicht, dass beispielsweise Zeichenfolgen effizient durch den Nutzer eingegeben werden können. Die Detektion der Betätigung des weiteren This has the advantage that, for example, strings can be entered efficiently by the user. The detection of the operation of the other
Bedienelementes kann auf dieselbe Weise erfolgen, wie die beschriebene Detektion der Betätigung des Bedienelementes. Die betätigte Bedienelementfolge kann eine betätigte Tastenfolge sein, und die vorgespeicherte Bedienelementfolge kann eine vorgespeicherte Tastenfolge sein. Gemäß einer Ausführungsform ist die Anzeigeeinrichtung ausgebildet, eine Position des Bedienelementes und eine weitere Position des weiteren Bedienelementes in dem Control element can be done in the same way as the described detection of the operation of the control element. The operated control sequence may be an actuated key sequence and the prestored control sequence may be a pre-stored key sequence. According to one embodiment, the display device is formed, a position of the operating element and a further position of the further operating element in the
Bedienfeld jeweils zufällig zu bestimmen, das Bedienelement an der zufällig bestimmten Position anzuzeigen, und das weitere Bedienelement an der weiteren zufällig bestimmten Position anzuzeigen. Dadurch wird erreicht, dass eine Anordnung und/oder ein Layout der Bedienelemente variiert werden kann. Hierdurch können beispielsweise Maßnahmen ergriffen werden, um ein unerwünschtes Ausspähen von eingegebenen Control panel randomly to determine, to display the control element at the random position, and to display the other control element at the other randomly determined position. It is thereby achieved that an arrangement and / or a layout of the operating elements can be varied. As a result, for example, measures can be taken to unwanted spying on entered
Bedienelementfolgen durch Dritte zu erschweren. Die Position der Bedienelemente kann für jeden Vorgang jeweils zufällig bestimmt werden, d.h. es wird beispielsweise kein standardisierter Nummernblock als Bedienfeld verwendet. Ferner kann die Anordnung des Bedienfeldes innerhalb der Objektfläche variiert werden. To impede control sequences by third parties. The position of the controls can be determined at random for each operation, i. For example, no standardized number pad is used as the control panel. Furthermore, the arrangement of the control panel can be varied within the object surface.
Gemäß einer Ausführungsform ist der Prozessor ausgebildet, ein Authentifizierungssignal zu erzeugen, falls die betätigte Bedienelementfolge der vorgespeicherten According to one embodiment, the processor is configured to generate an authentication signal if the actuated control sequence of the prestored
Bedienelementfolge entspricht, wobei das Authentifizierungssignal eine Authentifizierung des Nutzers anzeigt. Dadurch wird der Vorteil erreicht, dass mittels der Interaktion des Nutzers mit der Datenbrille eine Authentifizierung des Nutzers realisiert werden kann. Control sequence corresponds, wherein the authentication signal indicates an authentication of the user. As a result, the advantage is achieved that an authentication of the user can be realized by means of the interaction of the user with the data glasses.
Gemäß einer Ausführungsform umfasst die Datenbrille ferner eine According to one embodiment, the data glasses further comprise a
Kommunikationsschnittstelle, wobei die Kommunikationsschnittstelle ausgebildet ist, über ein Kommunikationsnetzwerk mit einem Server zu kommunizieren, und wobei die Communication interface, wherein the communication interface is adapted to communicate with a server via a communication network, and wherein the
Kommunikationsschnittstelle ausgebildet ist, das Authentifizierungssignal über das Kommunikationsnetzwerk an den Server auszusenden. Dadurch wird der Vorteil erreicht, dass die Authentifizierung des Nutzers an den Server über das Kommunikationsnetzwerk signalisiert werden kann. Gemäß einer Ausführungsform ist der Prozessor ausgebildet, die Objektfläche und das Eingabeelement des Nutzers in der Videosequenz zu erfassen, oder ist der Prozessor ausgebildet, die Objektfläche und das Eingabeelement des Nutzers in der Videosequenz zu verfolgen. Dadurch wird der Vorteil erreicht, dass die Position und/oder die weitere Position des Eingabeelements gegenüber der Objektfläche effizient erfasst werden kann. Communication interface is designed to send the authentication signal via the communication network to the server. This provides the advantage that the authentication of the user to the server can be signaled via the communication network. According to one embodiment, the processor is configured to capture the object area and the input element of the user in the video sequence, or the processor is configured to track the object area and the input element of the user in the video sequence. As a result, the advantage is achieved that the position and / or the further position of the input element relative to the object surface can be detected efficiently.
Gemäß einer Ausführungsform ist der Prozessor ausgebildet, ein dreidimensionales Umgebungsmodell auf der Basis der Videosequenz zu erzeugen, eine Mehrzahl von Referenzobjektflächen auf der Basis des Umgebungsmodells zu bestimmen, und die Objektfläche aus der Mehrzahl von Referenzobjektflächen auszuwählen. Dadurch wird der Vorteil erreicht, dass eine automatische Bestimmung einer geeigneten Objektfläche zur Interaktion mit dem Nutzer erfolgen kann. Der Nutzer kann die Auswahl der According to one embodiment, the processor is configured to generate a three-dimensional environment model based on the video sequence, to determine a plurality of reference object areas based on the environment model, and to select the object area from the plurality of reference object areas. As a result, the advantage is achieved that an automatic determination of a suitable object surface for interaction with the user can take place. The user can choose the
Objektfläche verändern, beispielsweise das Bedienfeld beliebig in einer anderen Change object surface, for example, the control panel arbitrarily in another
Objektfläche platzieren bzw. das Bedienfeld im Betrieb verschieben. Die Erzeugung des Umgebungsmodells kann beispielsweise unter Verwendung eines SLAM-Ansatzes (Simultaneous Localization and Mapping, SLAM) zur Laufzeit erfolgen. Place object surface or move the control panel during operation. The generation of the environment model can be done, for example, using a Simultaneous Localization and Mapping (SLAM) approach at runtime.
Gemäß einer Ausführungsform ist die Anzeigeeinrichtung ausgebildet, ein Zeigerelement anzuzeigen, wobei das Zeigerelement die Position des Eingabeelements gegenüber der Objektfläche repräsentiert. Dadurch wird der Vorteil erreicht, dass der Nutzer das Eingabeelement effizient relativ zu der Objektfläche positionieren kann. Das According to one embodiment, the display device is designed to display a pointer element, wherein the pointer element represents the position of the input element relative to the object surface. This achieves the advantage that the user can position the input element efficiently relative to the object surface. The
Zeigerelement kann beispielsweise in Form eines Mauszeigers realisiert werden. Das Zeigerelement kann innerhalb des Bedienfeldes mit der Mehrzahl von Bedienelementen angezeigt werden, welches der Objektfläche überlagert ist bzw. welches auf die  Pointer element can be realized for example in the form of a mouse pointer. The pointer element can be displayed within the control panel with the plurality of controls, which is superimposed on the object surface or which on the
Objektfläche projiziert ist. Object surface is projected.
Gemäß einer Ausführungsform ist das Bedienfeld der Objektfläche transparent, insbesondere halbtransparent, überlagert. Dadurch wird der Vorteil erreicht, dass die Objektfläche für den Nutzer sichtbar bleibt und eine Betätigung des Bedienelementes durch den Nutzer einfach realisiert werden kann. According to one embodiment, the control panel of the object surface is transparent, in particular semi-transparent, superimposed. As a result, the advantage is achieved that the object surface remains visible to the user and an actuation of the operating element can be easily realized by the user.
Gemäß einer Ausführungsform ist die Objektfläche eine Körperpartie des Nutzers, insbesondere eine Handfläche des Nutzers oder eine Armfläche des Nutzers. Dadurch wird der Vorteil erreicht, dass die Interaktion des Nutzers mit der Datenbrille besonders intuitiv erfolgen kann. Gemäß einer Ausführungsform ist das Eingabeelement ein Finger des Nutzers oder ein Eingabestift des Nutzers. Dadurch wird der Vorteil erreicht, dass die Interaktion des Nutzers mit der Datenbrille besonders intuitiv erfolgen kann. Der Eingabestift kann durch den Nutzer in einer Hand gehalten werden. Gemäß einer Ausführungsform ist die Objektfläche eine Handfläche des Nutzers, wobei das Eingabeelement ein Finger des Nutzers ist, und wobei die Handfläche und der Finger unterschiedlichen Händen des Nutzers zugeordnet sind. Dadurch wird der Vorteil erreicht, dass eine Betätigung des Bedienelementes effizient durchgeführt werden kann. Gemäß einem zweiten Aspekt betrifft die Erfindung ein Verfahren zum Interagieren mit einem Nutzer unter Verwendung einer Datenbrille. Die Datenbrille umfasst eine Kamera, eine Anzeigeeinrichtung und einen Prozessor, wobei die Datenbrille durch den Nutzer tragbar ist. Das Verfahren umfasst ein Erfassen einer Videosequenz mit einer According to one embodiment, the object surface is a body part of the user, in particular a palm of the user or an arm surface of the user. This provides the advantage that the interaction of the user with the data glasses can be particularly intuitive. According to one embodiment, the input element is a user's finger or a stylus of the user. This provides the advantage that the interaction of the user with the data glasses can be particularly intuitive. The stylus can be held in one hand by the user. According to one embodiment, the object surface is a palm of the user, wherein the input element is a finger of the user, and wherein the palm and the finger are associated with different hands of the user. Thereby, the advantage is achieved that an operation of the operating element can be performed efficiently. In a second aspect, the invention relates to a method of interacting with a user using smart glasses. The data glasses comprise a camera, a display device and a processor, the data glasses being portable by the user. The method comprises capturing a video sequence with a
Objektfläche und einem Eingabeelement des Nutzers durch die Kamera, ein Anzeigen eines Bedienfeldes mit einer Mehrzahl von Bedienelementen durch die Object surface and an input element of the user through the camera, displaying a control panel with a plurality of controls through the
Anzeigeeinrichtung, wobei das Bedienfeld der Objektfläche überlagert ist, ein Erfassen auf der Basis der Videosequenz einer Position des Eingabeelements gegenüber der Objektfläche durch den Prozessor, und ein Zuordnen der erfassten Position zu einem Bedienelement des angezeigten Bedienfeldes durch den Prozessor, um eine Betätigung des Bedienelementes zu detektieren. Dadurch wird der Vorteil erreicht, dass ein effizientes Konzept zur Interaktion eines Nutzers mit einer Datenbrille realisiert werden kann.  A display device, wherein the control panel is superimposed on the object surface, detecting based on the video sequence a position of the input member relative to the object surface by the processor, and assigning the detected position to a control of the displayed control panel by the processor to an actuation of the control element to detect. This provides the advantage that an efficient concept for the interaction of a user with data glasses can be realized.
Das Verfahren kann durch die Datenbrille ausgeführt werden. Weitere Merkmale des Verfahrens resultieren unmittelbar aus den Merkmalen und/oder der Funktionalität der Datenbrille. The procedure can be carried out by the data glasses. Further features of the method result directly from the features and / or functionality of the data glasses.
Gemäß einem dritten Aspekt betrifft die Erfindung ein Computerprogramm mit einem Programmcode zum Ausführen des Verfahrens gemäß dem zweiten Aspekt der According to a third aspect, the invention relates to a computer program with a program code for carrying out the method according to the second aspect of the invention
Erfindung. Dadurch wird der Vorteil erreicht, dass das Verfahren effizient ausgeführt werden kann. Invention. This provides the advantage that the process can be carried out efficiently.
Die Datenbrille, insbesondere die Kamera, die Anzeigeeinrichtung und/oder der The data glasses, in particular the camera, the display device and / or the
Prozessor, können programmtechnisch eingerichtet sein, um den Programmcode oder Teile des Programmcodes auszuführen. Die Erfindung kann in Hardware und/oder Software realisiert werden. Processor may be programmable to execute the program code or parts of the program code. The invention can be implemented in hardware and / or software.
Weitere Ausführungsbeispiele werden Bezug nehmend auf die beiliegenden Figuren näher erläutert. Es zeigen: Further embodiments will be explained with reference to the accompanying figures. Show it:
Fig. 1 ein schematisches Diagramm einer Datenbrille zum Interagieren mit einem Fig. 1 is a schematic diagram of a data glasses for interacting with a
Nutzer; und  users; and
Fig. 2 ein schematisches Diagramm eines Verfahrens zum Interagieren mit einem Fig. 2 is a schematic diagram of a method for interacting with a
Nutzer unter Verwendung einer Datenbrille.  Users using data glasses.
Fig. 1 zeigt ein schematisches Diagramm einer Datenbrille 100 zum Interagieren mit einem Nutzer, wobei die Datenbrille 100 durch den Nutzer tragbar ist. Die Datenbrille 100 umfasst eine Kamera 101 , welche ausgebildet ist, eine Videosequenz mit einer 1 shows a schematic diagram of data glasses 100 for interacting with a user, where the data glasses 100 are portable by the user. The data glasses 100 comprise a camera 101, which is designed to be a video sequence with a
Objektfläche und einem Eingabeelement des Nutzers zu erfassen. Die Datenbrille 100 umfasst ferner eine Anzeigeeinrichtung 103, welche ausgebildet ist, ein Bedienfeld mit einer Mehrzahl von Bedienelementen anzuzeigen, wobei das Bedienfeld der Objektfläche überlagert ist. Die Datenbrille 100 umfasst zudem einen Prozessor 105, welcher ausgebildet ist, auf der Basis der Videosequenz eine Position des Eingabeelements gegenüber der Objektfläche zu erfassen, und der erfassten Position ein Bedienelement des angezeigten Bedienfeldes zuzuordnen, um eine Betätigung des Bedienelementes zu detektieren. Object surface and an input element of the user to capture. The data glasses 100 further comprise a display device 103, which is designed to display a control panel with a plurality of controls, wherein the control panel is superimposed on the object surface. The data glasses 100 also include a processor 105, which is designed to detect a position of the input element relative to the object surface on the basis of the video sequence, and to associate the detected position with an operating element of the displayed control panel in order to detect an actuation of the operating element.
Fig. 2 zeigt ein schematisches Diagramm eines Verfahrens 200 zum Interagieren mit einem Nutzer unter Verwendung einer Datenbrille. Die Datenbrille umfasst eine Kamera, eine Anzeigeeinrichtung und einen Prozessor, wobei die Datenbrille durch den Nutzer tragbar ist. Das Verfahren 200 umfasst ein Erfassen 201 einer Videosequenz mit einer Objektfläche und einem Eingabeelement des Nutzers durch die Kamera, ein Anzeigen 203 eines Bedienfeldes mit einer Mehrzahl von Bedienelementen durch die FIG. 2 shows a schematic diagram of a method 200 for interacting with a user using smart glasses. The data glasses comprise a camera, a display device and a processor, the data glasses being portable by the user. The method 200 comprises detecting 201 a video sequence with an object surface and an input element of the user by the camera, a display 203 of a control panel with a plurality of control elements through the
Anzeigeeinrichtung, wobei das Bedienfeld der Objektfläche überlagert ist, ein Erfassen 205 auf der Basis der Videosequenz einer Position des Eingabeelements gegenüber der Objektfläche durch den Prozessor, und ein Zuordnen 207 der erfassten Position zu einem Bedienelement des angezeigten Bedienfeldes durch den Prozessor, um eine Betätigung des Bedienelementes zu detektieren. Die Datenbrille 100 sowie das Verfahren 200 zur Interaktion mit dem Nutzer erweitern die Interaktionsmöglichkeiten mit der Datenbrille 100, da die Interaktionen unabhängig vom mechanischen Aufbau der Datenbrille 100 gelöst werden kann. Insbesondere kann auf berührungssensitive Flächen auf der Datenbrille 100 verzichtet werden. Der Ansatz basiert auf einer Verfolgung (engl. Tracking) der Objektfläche und des Eingabeelements des Nutzers sowie der Nutzung von Augmented Reality (AR). A display device, wherein the control panel is superimposed on the object surface, detecting 205 based on the video sequence a position of the input member relative to the object surface by the processor, and assigning the detected position 207 to a control of the displayed control panel by the processor to an actuation of the Detecting control element. The data glasses 100 and the method 200 for interaction with the user extend the possibilities of interaction with the data glasses 100, since the interactions can be solved independently of the mechanical structure of the data glasses 100. In particular, touch-sensitive surfaces on the data glasses 100 can be dispensed with. The approach is based on tracking the object surface and the input element of the user as well as the use of augmented reality (AR).
Der Ansatz zur Bedienerinteraktion mit dem Nutzer beginnt mit einer Erfassung bzw. Erkennung der vorher bestimmten Objektfläche durch die Kamera 101 der Datenbrille 100, beispielsweise mittels einer Verfolgung der Objektfläche. Die Objektfläche kann beispielsweise die linke Handfläche des Nutzers für Rechtshänder, oder die rechte Handfläche des Nutzers für Linkshänder sein. The approach to user interaction with the user begins with a detection or recognition of the previously determined object area by the camera 101 of the data glasses 100, for example by means of a tracking of the object surface. The object area may be, for example, the right-hand user's left palm, or the left-hand user's right palm.
Anschließend erfolgt ein Anzeigen bzw. Überlagern von Bedienelementen durch die Anzeigeeinrichtung 103 der Datenbrille 100 mittels Augmentierung. Beispielsweise kann ein Bedienfeld mit einer Mehrzahl von Bedienelementen, beispielsweise von Tasten, zur Eingabe einer Bedienelementfolge, beispielsweise einer PIN, angezeigt werden. Subsequently, a display or superimposition of operating elements by the display device 103 of the data glasses 100 by means of augmentation. For example, a control panel with a plurality of controls, such as buttons, for displaying a control sequence, such as a PIN, are displayed.
Der Nutzer bewegt anschließend ein Eingabeelement, beispielsweise einen Finger seiner anderen Hand, in die zunächst erkannte Objektfläche. Dabei wird die Bewegung des Eingabeelements ebenfalls durch die Kamera 101 der Datenbrille 100 erfasst bzw. The user then moves an input element, for example a finger of his other hand, into the initially recognized object surface. The movement of the input element is also detected by the camera 101 of the data glasses 100 or
verfolgt und durch die Anzeigeeinrichtung 103, beispielsweise ein Display, der Datenbrille 100 eine Rückmeldung über die aktuelle Position gegeben. Die Rückmeldung kann vergleichbar zu einem Mauszeiger auf einem Computer erfolgen. Ist eine gewünschte Position durch das Eingabeelement erreicht worden, kann ein Druck auf das virtuelle Bedienfeld ausgelöst werden, um ein Bedienelement zu betätigen. Dieser Druck kann beispielsweise durch ein längeres Verbleiben an der Position oder durch die Erkennung einer Bewegung des Eingabeelements in die Tiefe ausgelöst werden. tracked and given by the display device 103, such as a display, the data glasses 100 feedback on the current position. The feedback can be made similar to a mouse pointer on a computer. If a desired position has been reached by the input element, a pressure on the virtual control panel can be triggered to actuate a control element. This pressure can be triggered, for example, by staying at the position for a longer time or by detecting a movement of the input element into the depth.
Die Datenbrille 100 und das Verfahren 200 können beispielsweise zur berührungslosen Bedienung von Maschinen in Produktionsumgebungen eingesetzt werden. The data glasses 100 and the method 200 can be used, for example, for non-contact operation of machines in production environments.
Alle in Verbindung mit einzelnen Ausführungsformen der Erfindung erläuterten und gezeigten Merkmale können in unterschiedlicher Kombination in dem erfindungsgemäßen Gegenstand vorgesehen sein, um gleichzeitig deren vorteilhafte Wirkungen zu realisieren. BEZUGSZEICHENLISTE All of the features explained and shown in connection with individual embodiments of the invention may be provided in different combinations in the article according to the invention in order to simultaneously realize their advantageous effects. LIST OF REFERENCE NUMBERS
100 Datenbrille 100 data glasses
101 Kamera  101 camera
103 Anzeigeeinrichtung  103 Display device
105 Prozessor 105 processor
200 Verfahren zum Interagieren mit einem Nutzer 200 methods for interacting with a user
201 Erfassen einer Videosequenz  201 Capture a video sequence
203 Anzeigen eines Bedienfeldes 203 Showing a Control Panel
205 Erfassen einer Position des Eingabeelements gegenüber der Objektfläche205 detecting a position of the input element with respect to the object surface
207 Zuordnen der erfassten Position 207 Assigning the detected position

Claims

PATENTANSPRÜCHE
1 . Datenbrille (100) zum Interagieren mit einem Nutzer, wobei die Datenbrille (100) durch den Nutzer tragbar ist, mit: einer Kamera (101 ), welche ausgebildet ist, eine Videosequenz mit einer Objektfläche und einem Eingabeelement des Nutzers zu erfassen; einer Anzeigeeinrichtung (103), welche ausgebildet ist, ein Bedienfeld mit einer Mehrzahl von Bedienelementen anzuzeigen, wobei das Bedienfeld der Objektfläche überlagert ist; und einem Prozessor (105), welcher ausgebildet ist, auf der Basis der Videosequenz eine Position des Eingabeelements gegenüber der Objektfläche zu erfassen, und der erfassten Position ein Bedienelement des angezeigten Bedienfeldes zuzuordnen, um eine 1 . Data goggles (100) for interacting with a user, the goggles (100) being portable by the user, comprising: a camera (101) adapted to capture a video sequence including an object surface and an input member of the user; a display device (103) which is designed to display a control panel with a plurality of control elements, wherein the control panel is superimposed on the object surface; and a processor (105) configured to detect, based on the video sequence, a position of the input element with respect to the object surface, and to associate the detected position with an operating element of the displayed control field
Betätigung des Bedienelementes zu detektieren. To detect actuation of the control element.
2. Datenbrille (100) nach Anspruch 1 , wobei der Prozessor (105) ausgebildet ist, auf der Basis der Videosequenz eine weitere Position des Eingabeelements gegenüber der Objektfläche zu erfassen, der erfassten weiteren Position das Bedienelement des angezeigten Bedienfeldes zuzuordnen, und die Betätigung des Bedienelementes auf der Basis der erfassten Position und der erfassten weiteren Position zu detektieren. 2. data goggles (100) according to claim 1, wherein the processor (105) is adapted to detect based on the video sequence, a further position of the input element relative to the object surface to assign the detected further position the control element of the displayed panel, and the operation of the Operating element based on the detected position and the detected further position to detect.
3. Datenbrille (100) nach Anspruch 2, wobei der Prozessor (105) ausgebildet ist, ein Drücken des Bedienelementes als Betätigung des Bedienelementes zu detektieren, oder wobei der Prozessor (105) ausgebildet ist, ein Verbleiben des Eingabeelements über dem Bedienelement während einer vorbestimmten Zeitdauer als Betätigung des Data goggles (100) according to claim 2, wherein the processor (105) is adapted to detect a pressing of the operating element as actuation of the operating element, or wherein the processor (105) is designed to maintain the input element over the operating element during a predetermined time Duration as actuation of the
Bedienelementes zu detektieren. Detecting control element.
4. Datenbrille (100) nach einem der Ansprüche 2 oder 3, wobei jedem Bedienelement des Bedienfeldes ein Zeichen, insbesondere eine Ziffer, zugeordnet ist, und wobei die4. Data glasses (100) according to any one of claims 2 or 3, wherein each control element of the control panel is associated with a character, in particular a digit, and wherein the
Anzeigeeinrichtung (103) ausgebildet ist, ein Zeichen, insbesondere eine Ziffer, anzuzeigen, welches dem betätigten Bedienelement des Bedienfeldes zugeordnet ist. Display device (103) is designed to display a character, in particular a digit, which is associated with the actuated operating element of the control panel.
5. Datenbrille (100) nach einem der Ansprüche 2 bis 4, wobei die Datenbrille (100) ferner einen Aktor umfasst, und wobei der Aktor ausgebildet ist, ansprechend auf das Detektieren der Betätigung des Bedienelementes, mechanisch zu vibrieren. Data goggles (100) according to one of claims 2 to 4, wherein the data goggles (100) further comprise an actuator, and wherein the actuator is adapted to mechanically vibrate in response to detecting the operation of the control element.
6. Datenbrille (100) nach einem der Ansprüche 2 bis 5, wobei die Datenbrille (100) ferner einen Lautsprecher umfasst, und wobei der Lautsprecher ausgebildet ist, ansprechend auf das Detektieren der Betätigung des Bedienelementes, ein akustisches Signal auszugeben. The data goggles (100) of any one of claims 2 to 5, wherein the data goggles (100) further comprise a speaker, and wherein the speaker is configured to emit an audible signal in response to detecting actuation of the control.
7. Datenbrille (100) nach einem der Ansprüche 2 bis 6, wobei der Prozessor (105) ausgebildet ist, ein Betätigen eines weiteren Bedienelementes des Bedienfeldes zu detektieren, wobei das betätigte Bedienelement und das betätigte weitere Bedienelement eine betätigte Bedienelementfolge bilden, und wobei der Prozessor (105) ausgebildet ist, die betätigte Bedienelementfolge mit einer vorgespeicherten Bedienelementfolge zu vergleichen. 7. Data goggles (100) according to any one of claims 2 to 6, wherein the processor (105) is adapted to detect an actuation of another control element of the control panel, wherein the operated control element and the actuated further control element form an actuated operating sequence, and wherein the Processor (105) is adapted to compare the operated control sequence with a pre-stored control element sequence.
8. Datenbrille (100) nach Anspruch 7, wobei der Prozessor (105) ausgebildet ist, ein Authentifizierungssignal zu erzeugen, falls die betätigte Bedienelementfolge der vorgespeicherten Bedienelementfolge entspricht, und wobei das Authentifizierungssignal eine Authentifizierung des Nutzers anzeigt. The data goggles (100) of claim 7, wherein the processor (105) is configured to generate an authentication signal if the operated control sequence corresponds to the pre-stored control sequence, and wherein the authentication signal indicates authentication of the user.
9. Datenbrille (100) nach Anspruch 8, wobei die Datenbrille (100) ferner eine Kommunikationsschnittstelle umfasst, wobei die Kommunikationsschnittstelle ausgebildet ist, über ein Kommunikationsnetzwerk mit einem Server zu kommunizieren, und wobei die Kommunikationsschnittstelle ausgebildet ist, das Authentifizierungssignal über das Kommunikationsnetzwerk an den Server auszusenden. The data glasses (100) of claim 8, wherein the data glasses (100) further comprise a communication interface, wherein the communication interface is configured to communicate with a server via a communication network, and wherein the communication interface is adapted to send the authentication signal to the computer via the communication network Send server.
10. Datenbrille (100) nach einem der vorstehenden Ansprüche, wobei der Prozessor (105) ausgebildet ist, die Objektfläche und das Eingabeelement des Nutzers in der Videosequenz zu erfassen, oder wobei der Prozessor (105) ausgebildet ist, die Data goggles (100) according to any one of the preceding claims, wherein the processor (105) is adapted to detect the object surface and the input element of the user in the video sequence, or wherein the processor (105) is formed
Objektfläche und das Eingabeelement des Nutzers in der Videosequenz zu verfolgen. Trace the object area and the input element of the user in the video sequence.
1 1 . Datenbrille (100) nach einem der vorstehenden Ansprüche, wobei die 1 1. Data glasses (100) according to one of the preceding claims, wherein the
Anzeigeeinrichtung (103) ausgebildet ist, ein Zeigerelement anzuzeigen, und wobei das Zeigerelement die Position des Eingabeelements gegenüber der Objektfläche Display device (103) is adapted to display a pointer element, and wherein the pointer element, the position of the input element relative to the object surface
repräsentiert. represents.
12. Datenbrille (100) nach einem der vorstehenden Ansprüche, wobei das Bedienfeld der Objektfläche transparent, insbesondere halbtransparent, überlagert ist. 12. Data glasses (100) according to any one of the preceding claims, wherein the control panel of the object surface is transparent, in particular semi-transparent, superimposed.
13. Datenbrille (100) nach einem der vorstehenden Ansprüche, wobei die Objektfläche eine Handfläche des Nutzers ist, wobei das Eingabeelement ein Finger des Nutzers ist, und wobei die Handfläche und der Finger unterschiedlichen Händen des Nutzers zugeordnet sind. The smart phone (100) of any one of the preceding claims, wherein the object surface is a palm of the user, the input element being a finger of the user, and wherein the palm and the finger are associated with different hands of the user.
14. Verfahren (200) zum Interagieren mit einem Nutzer unter Verwendung einer Datenbrille (100), wobei die Datenbrille (100) eine Kamera (101 ), eine Anzeigeeinrichtung (103) und einen Prozessor (105) umfasst, wobei die Datenbrille (100) durch den Nutzer tragbar ist, mit: 14. Method (200) for interacting with a user using data glasses (100), wherein the data glasses (100) comprise a camera (101), a display device (103) and a processor (105), the data glasses (100) is portable by the user, with:
Erfassen (201 ) einer Videosequenz mit einer Objektfläche und einem Eingabeelement des Nutzers durch die Kamera (101 ); Capturing (201) a video sequence having an object surface and an input element of the user by the camera (101);
Anzeigen (203) eines Bedienfeldes mit einer Mehrzahl von Bedienelementen durch die Anzeigeeinrichtung (103), wobei das Bedienfeld der Objektfläche überlagert ist; Erfassen (205) auf der Basis der Videosequenz einer Position des Eingabeelements gegenüber der Objektfläche durch den Prozessor (105); und Displaying (203) a control panel having a plurality of controls by the display (103), wherein the control panel is superimposed on the object surface; Detecting (205) on the basis of the video sequence a position of the input element with respect to the object surface by the processor (105); and
Zuordnen (207) der erfassten Position zu einem Bedienelement des angezeigten Associating (207) the detected position with a control of the displayed one
Bedienfeldes durch den Prozessor (105), um eine Betätigung des Bedienelementes zu detektieren. Control panel by the processor (105) to detect an actuation of the control element.
15. Computerprogramm mit einem Programmcode zum Ausführen des Verfahrens (200) nach Anspruch 14. 15. Computer program with a program code for carrying out the method (200) according to claim 14.
PCT/EP2017/071627 2016-09-07 2017-08-29 Head-mounted display for interaction with a user WO2018046349A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP17761467.4A EP3510471A1 (en) 2016-09-07 2017-08-29 Head-mounted display for interaction with a user

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102016116774.6 2016-09-07
DE102016116774.6A DE102016116774A1 (en) 2016-09-07 2016-09-07 Data glasses for interacting with a user

Publications (1)

Publication Number Publication Date
WO2018046349A1 true WO2018046349A1 (en) 2018-03-15

Family

ID=59772602

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2017/071627 WO2018046349A1 (en) 2016-09-07 2017-08-29 Head-mounted display for interaction with a user

Country Status (3)

Country Link
EP (1) EP3510471A1 (en)
DE (1) DE102016116774A1 (en)
WO (1) WO2018046349A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
US20130127725A1 (en) * 2011-11-18 2013-05-23 Konica Minolta Business Technologies, Inc. Operation input system and operation input method
EP2899618A1 (en) * 2012-09-21 2015-07-29 Sony Corporation Control device and recording medium
US20160224123A1 (en) * 2015-02-02 2016-08-04 Augumenta Ltd Method and system to control electronic devices through gestures

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101991133B1 (en) 2012-11-20 2019-06-19 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Head mounted display and the method for controlling the same
US20150002475A1 (en) 2013-06-27 2015-01-01 Industrial Technology Research Institute Mobile device and method for controlling graphical user interface thereof
US9251333B2 (en) 2013-08-29 2016-02-02 Paypal, Inc. Wearable user device authentication system
DE102013014889A1 (en) 2013-09-06 2015-03-12 Audi Ag Mouse pointer control for an operating device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
US20130127725A1 (en) * 2011-11-18 2013-05-23 Konica Minolta Business Technologies, Inc. Operation input system and operation input method
EP2899618A1 (en) * 2012-09-21 2015-07-29 Sony Corporation Control device and recording medium
US20160224123A1 (en) * 2015-02-02 2016-08-04 Augumenta Ltd Method and system to control electronic devices through gestures

Also Published As

Publication number Publication date
EP3510471A1 (en) 2019-07-17
DE102016116774A1 (en) 2018-03-08

Similar Documents

Publication Publication Date Title
EP2989524B1 (en) Method for interacting with an object displayed on data eyeglasses
DE102012103030B3 (en) Method for operating an industrial robot
EP1428110B1 (en) Three-dimensional integrated touch screen input apparatus
EP2834715B1 (en) Method for operating an industrial robot
DE102010038342A1 (en) Device for managing the functions of peripheral devices
WO2013044893A1 (en) Dataglove having tactile feedback and method
DE112014000441T5 (en) Dynamic User Interactions for Display Control and Custom Gesture Interpretation
DE102011117012A1 (en) DETECTING SLIDING MOVEMENTS OF SEVERAL FINGERS USING FINGERPRINTS FOR GENERATING VARIOUS EVENTS
DE102011056940A1 (en) A method of operating a multi-touch display and device having a multi-touch display
DE112012003889T5 (en) Method, apparatus and computer program for pointing to an object
EP2444866B1 (en) Control device for operating an automated machine
EP3366434A1 (en) Method for checking a function of a vehicle and/or at least one operating device
EP3904984B1 (en) Method for an immersive human machine interaction
DE102004021379B4 (en) Operating and monitoring system for industrial plants and processes
EP3510471A1 (en) Head-mounted display for interaction with a user
DE102014200609A1 (en) Touch-sensitive operating device with trough
DE10161924A1 (en) Two-handed operating method for flat display operating unit e.g. touch-screen, by determining if position of average activity area matches position of virtual activity area
KR20160050972A (en) Apparatus, method and computer program for presenting work history of image
EP3312711A1 (en) Method for quick navigation in a user interface, method for making a product from thermoplastic material, installation control for quick navigation in a user interface and installation for manufacturing a product from thermoplastic material
DE102020101746A1 (en) Method for recording user interaction from a user in a virtual environment
Lu et al. Developing low-cost training environments: How do effector and visual realism influence the perceptual grounding of actions
DE102019216411A1 (en) Device for acquiring an input by means of an actuation object and method for operating a device for acquiring an input
DE102019118952A1 (en) Method, device and computer program for controlling a user interface
DE102018215213A1 (en) Device for generating acoustic feedback when operating an operating element and method for generating acoustic feedback when operating an operating element
WO2017178313A1 (en) Controlling and configuring unit and method for controlling and configuring a microscope

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17761467

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017761467

Country of ref document: EP

Effective date: 20190408