WO2018041711A1 - Interactive control device - Google Patents

Interactive control device Download PDF

Info

Publication number
WO2018041711A1
WO2018041711A1 PCT/EP2017/071337 EP2017071337W WO2018041711A1 WO 2018041711 A1 WO2018041711 A1 WO 2018041711A1 EP 2017071337 W EP2017071337 W EP 2017071337W WO 2018041711 A1 WO2018041711 A1 WO 2018041711A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
reference mark
dialogue
eye
camera
Prior art date
Application number
PCT/EP2017/071337
Other languages
German (de)
French (fr)
Inventor
Arne Rost
Cristina Rico Garcia
Original Assignee
BSH Hausgeräte GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BSH Hausgeräte GmbH filed Critical BSH Hausgeräte GmbH
Publication of WO2018041711A1 publication Critical patent/WO2018041711A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Definitions

  • the invention relates to a device for operating a household appliance.
  • the invention relates to an interactive device adapted to maintain a dialogue with a user.
  • a home appliance is adapted to perform a predetermined task within a household.
  • the domestic appliance may comprise a vacuum cleaner, a stove or an extractor hood.
  • Some home appliances can operate autonomously and rarely require input or output.
  • Other home appliances must be interactively controlled.
  • a vacuum cleaner may be autonomous, while a cooker usually needs to be operated by a user during cooking.
  • the operation of a domestic appliance can be difficult if, for example, the user has dirty hands, is under time pressure or attempts to concatenate several processes involving different household appliances.
  • One option for advanced home appliance control includes voice input.
  • the household appliance may include a processing device that is configured to implement a natural-language instruction of the user into a control function of the domestic appliance.
  • the processing means is adapted to detect the beginning of a natural language dialogue between a user and the device; to take a picture of the user by means of the camera; align the reference mark to the user during the dialog; and control the home appliance via the interface based on the dialogue.
  • the device may allow to visually support and design the dialogue with the user.
  • the dialogue can be made more intuitive and the teaching of certain dialog patterns by the user can be omitted.
  • By aligning the reference mark with the user it can automatically give the impression of attention, so that he knows that he is in a dialogue.
  • the user can then improve an instruction that can be processed by the device.
  • turning away the reference mark from the user can signal to the user that no dialogue is currently taking place. This allows an immediate feedback to the user that a possible linguistic utterance is not processed by him and is not interpreted as an instruction.
  • the feeling of surveillance therefore can not be adjusted by the user.
  • the processing device is further configured to capture an eye of the user based on the image and to align the reference mark with the user's eye.
  • This can increase the impression of eye contact between the device and the user.
  • the dialogue can be additionally solidified by the way the reference mark is displayed.
  • the visual impression of the eye can be changed in such a way that simple feelings such as attention, absence, concentration, etc. are displayed in a supportive manner.
  • the apparatus includes a head portion that is movable in at least one dimension relative to the base portion and to which the reference mark is attached.
  • the processing device is configured to move the head section relative to the base section and the reference mark relative to the head section in order to align the reference mark with the user.
  • the reference mark is aligned with an eye of the user, as explained above.
  • the reference mark is formed three-dimensionally and a drive device is provided for moving the reference mark.
  • a realistic representation of an eye can be used so easily to realize the above-described fixation on the user.
  • a graphical display is not required. If, nevertheless, a graphical display device is provided, it can be used to output other information, in particular visual or textual information.
  • the device comprises a two-dimensional graphical pointing device
  • the processing device is configured to display and align the reference mark on the display device.
  • increased flexibility in the representation of the reference mark can be achieved.
  • simple feelings can be simulated better by adjusting the representation of the reference mark accordingly.
  • the acoustic input device may comprise a microphone array with the aid of which an acoustic position of the user can be determined.
  • the camera is then set up in a predetermined window around the particular acoustic one Position of the user to be pivoted to find a face of the user.
  • An apparatus for controlling an interaction between a user and a home appliance includes an optical reference mark arranged to convey to the user the visual impression of an eye.
  • a method of controlling the device according to the invention comprises steps of detecting the beginning of a natural language dialogue between the user and the device; scanning an image of the user; aligning the reference mark to the user during the dialogue and controlling the home appliance based on the dialogue.
  • the method according to the invention can be carried out in particular on the device described above.
  • the device may have a processing device which comprises a programmable microcomputer or microcontroller.
  • the method can be realized in particular as a computer program product with program code means.
  • the method can be used to control one or more domestic appliances. It is preferred that the method additionally comprises converting a natural language input of the user into a machine-understandable signal and / or converting a machine-understandable signal into a user-friendly signal
  • the method can more effectively control the interaction between the user and a device, while a device function of a home appliance is machine-controlled in a known manner.
  • the machine controller may include the exchange of status, command or request information.
  • the dialogue preferably comprises at least one natural language utterance of the user and a natural language utterance of the device, the two utterances being related to each other.
  • the user may issue a request, which, according to the method, returns an acknowledgment of the understood request.
  • the user may request a device state of the home appliance, and according to the method, the device state is obtained and output in natural language.
  • the beginning of the dialogue can be detected after a user-spoken keyword has been captured.
  • the keyword can be fixed and For example, a name of a device performing the method include. In another embodiment, the keyword may be predetermined by the user.
  • the alignment of the reference mark with the user be canceled when the end of the dialogue has been determined.
  • the improved delimitation of a dialog phase from a dialog-free phase can improve the user's overall interaction with the method or an executing device.
  • the dialogue is preferably determined to have ended when no natural language utterance has been exchanged with the user for longer than a predetermined period.
  • the utterance can alternatively be made by the method or the executing device or by the user.
  • the dialogue may also be determined to have ended when it emerges from the dialogue or sequence of natural language utterances.
  • the invention comprises a domestic appliance with a device according to the invention.
  • Figure 1 is a schematic representation of a device for controlling an interaction between a user and a home appliance.
  • Fig. 2 shows the device in dialogue with a user
  • 3 shows an exemplary representation of an optical reference mark of the device; 4 shows exemplary positions of a pair of reference marks; and 5 illustrates a flow chart of a method for controlling the interaction of the device with a user.
  • FIG. 1 shows a schematic representation of a device 100 for controlling an interaction between a user 105 and a domestic appliance 1 10.
  • two domestic appliances 110 are shown in the form of a cooker and an extractor hood. Both have a preferably wireless interface 15 for connection to the device 100.
  • other domestic appliances 110 can also be connected to the device 100, in particular kitchen appliances or cleaning appliances.
  • the device 100 comprises a processing device 120, which is connected to an acoustic input device 125, an acoustic output device 130 and a preferably wireless interface 135 for connection to one or more domestic appliances 110.
  • the device 100 further comprises a base portion 140, which may be used, for example, to place the device 100 on a stand or to attach it to a wall, furniture, household appliance or other object. Elements of the device 100 may be received within the base portion 140.
  • the device 100 preferably additionally comprises a head section 145 which is movably mounted in at least one dimension relative to the base section 140.
  • a drive device 150 can be provided, which can be controlled by the processing device 120.
  • the head portion 145 may be pivotable about a vertical axis through the base portion 140.
  • the head portion 145 may also be pivotable about a transverse axis to pitch relative to the base portion 140.
  • a movable optical reference mark 155 which is adapted to be perceived by the user 105 as an eye.
  • the reference mark 155 may be formed plastically and be mechanically movable, for example, by means of a further drive device 150.
  • a preferably two-dimensional and graphical display device 160 is provided, which is connected to the processing device 120.
  • the reference mark 155 can be shown and preferably also moved.
  • the device 100 includes a camera 165, which is preferably mounted close to the reference mark 155, and more preferably to the head portion 145.
  • FIG. 2 shows the device 100 in a further embodiment in dialogue with the user 105.
  • two reference marks 155 are provided here, which are preferably controlled in concert so that they are perceived by the user 105 as an eye pair.
  • the device 100 is configured to support an interaction between the user 105 and the home appliance 110 by supporting a natural language dialog between the user 105 and the device 100 by aligning the optical reference mark 155 with the user 105.
  • the goal is to give the user 105 the impression of attention of the device 100 while the dialogue continues.
  • the reference mark 155 can be controlled in particular so that it mimics the eye of a human interlocutor with whom the user 105 speaks.
  • the device 100 may determine, by means of the camera 165, a relative position or direction of the user 105 with respect to the device 100 and align the head portion 145 and / or the reference mark 155 with the user 105.
  • an eye 170 of the user 105 may also be detected within the image of the camera 165, and the reference mark 155 may be specifically aligned with the eye 170.
  • the alignment of the reference mark 155 may follow the user 105. If the dialog is ended, the tracking can be aborted or the alignment can be destroyed.
  • the device 100 conduct a natural language dialogue with the user 105.
  • An utterance spoken by the user 105 may be scanned by the acoustic input device 125 and analyzed by the processing device 120. Depending on the result, for example, a request to one of the household appliances 1 10 via the interface 135 emitted become.
  • a message of a domestic appliance 110 for example regarding its operating status, may be received via the interface 135 and converted into a natural language utterance by the processing means 120. Then the utterance is preferably delivered to the user via the acoustic output device 130 105 issued.
  • FIG. 3 shows an exemplary representation of optical reference marks 155 of the device 100 of the two preceding figures.
  • the reference marks 155 can each be reproduced plastically or displayed on the display 160.
  • the reference marks 155 are preferably set up to support the dialogue with the user 105. For this it is helpful if the device 100 can be perceived as a person or as a person-like machine.
  • the illustrated reference marks 155 are shown as a pair of female eyes.
  • a natural language output by means of the acoustic output device 130 preferably uses a likewise female voice.
  • the reference mark 155 may have further details of a human eye, which details may be used either statically, to enhance the human-like impression, or dynamically, such as to express simple emotions.
  • the illustrated reference mark 155 includes optical replicas of an eyeball 305, an iris 310, a pupil 315, an upper eyelid 320, a lower eyelid 325, upper and lower eyelashes 330, and an eyebrow 335.
  • some of the mentioned elements or Features be different or missing. It is also possible to stylistically only indicate features 305 to 335.
  • FIG. 4 shows exemplary positions of a pair of reference marks 155 of the device 100 of FIGS. 1 and 2.
  • only one reference mark 155 may be provided.
  • the visual impression of an eye is essentially made by displaying a black circle in a white circle.
  • different viewing directions can already be simulated if the reference mark 155 is aligned with the user 105.
  • the viewing directions can already express feelings, can be supported by the information transfer between the user 155 and the device 100.
  • FIG. 4 a the reference marks 155 are directed directly at the user 105. Viewing directions are indicated in FIGS. 4b and 4c, which approach the user 105 when the latter is laterally downwards (FIG. 4b) or laterally upwards (FIG. 4c) of the device 100 or the display device 160.
  • FIGS. 4b and 4c the dark circles in the upper half of the bright circles are covered and a horizontal line is seen to give the impression of semi-closed eyelids.
  • the device 100 can convey a feeling of tiredness or lack of concentration.
  • Figure 4e the dark circles are completely missing, so that the impression of closed eyes can be established. It can thereby be clarified that a dialogue with the device 100 is not currently taking place - the device 100 "sleeps".
  • FIG. 5 shows a flowchart of an exemplary method 500 for controlling the interaction of the device 100 of FIGS. 1 and 2 with the user 105.
  • the method 500 can be carried out in particular by means of the processing device 120.
  • a step 502 it is detected that the user 105 has spoken a keyword.
  • the keyword may include a name of the device 100.
  • An indication of the keyword may be given in textual form on the device 100.
  • a step 504 it is checked whether the user 105 is already known. If this is the case, then in a step 506, a corresponding internal mark can be set, which is here called user_detectable by way of example. Subsequently, or if the user 105 is not known, it is determined in a step 508 from which direction the acoustic signal was received. If several acoustic input devices 125 are provided, an approximate direction of the user 105 can be determined on the basis of the stereo effect.
  • the head section 145 is preferably moved in this direction in order to change an image section of the camera 165 so that it contains the user 105 as much as possible.
  • a step 512 it is checked whether a face can be recognized on an image of the camera 165. If this is the case, preferably in a step 514 a relative position of the user 105 is determined on the basis of the camera image.
  • the reference mark 155 is aligned with the user 105 and, if possible, with an eye 170 of the user 105 detected in the image of the camera 165.
  • the user 105 is tracked by continuously determining his relative position to the device 100 and aligning the reference mark 155 and, if appropriate, the camera 165, in each case to the specific position.
  • a step 520 an utterance of the user 105 is detected. If no utterance can be detected, then the method 500 may return to step 512. Otherwise, in step 522, the sound source of the utterance may be determined. In a step 524, the previously determined positions or orientations of the user 105 with respect to the device 100 may be fused together. The orientation of the reference mark 155 and / or the camera 165 - optionally with the assistance of the orientation of the header 145 - may be updated in a step 526. Thereafter, the method 500 may proceed to step 512.
  • step 528 If no face of the user 105 was detected in the camera image in step 512, it may be checked in a step 528 whether the internal mark user_detectable is set. If this is not the case, the method 500 can proceed to step 512. Otherwise, in a step 530, the camera 165 is preferably pivoted in a predetermined window around the specific acoustic position. Subsequently, it is checked in a step 532 whether a face has been recognized and in this case branches to step 514. Otherwise, it is checked in a step 534 whether the predetermined window has already been completely analyzed. If this is not the case, method 500 preferably proceeds to step 530. Otherwise, in step 536, an internal variable called c here may be set to 0.
  • the user 105 can be asked, for example in the natural language way by means of the output device 130, or in an optical or textual manner by means of the display device 160. whether his face just can not be recognized by the camera 165.
  • the variable c is incremented.
  • a step 540 it is checked whether the user 105 has answered yes. In this case, the internal user_detectable flag is set to 0 in step 542, and method 500 proceeds to step 520. If no response of the user 105 can be determined, then a predetermined time may be waited in a step 544 before checking in a step 546 whether the variable c has the value 3. If this is not the case, then in step 538 the question is reissued to the user 105 and the variable c is again incremented. If the value of the variable c is 3 in step 546, the method 500 may end in step 548.
  • step 540 If it is determined in step 540 that the response of the user 105 is no, then in a step 550 the variable c is set to the value 0 and in a step 552 the user 105 is asked to repeat the keyword. The variable c is incremented. In a subsequent step 554, it is checked whether the user 105 the
  • the method 500 preferably proceeds to step 508. Otherwise, a predetermined time may be waited in a step 556 before checking in a step 558 whether the variable c has the value 3. If this is not the case, then the method 500 proceeds to the step 552 and again asks the user 105 to speak the keyword. Otherwise, the method 500 may end in step 548.

Abstract

The invention relates to a device for controlling an interaction between a user and a household appliance, comprising a base section; an optical reference mark, which is movable relative to the base section and which is designed to give the user the optical impression of an eye; a camera; an acoustic input device; an acoustic output device; an interface for connection to the household appliance; and a processing device. The processing device according to the invention is designed to detect the start of a natural language dialog between a user and the device; to capture an image of the user by means of the camera; to align the reference mark to the user during the dialog; and to control the household appliance by means of the interface on the basis of the dialog.

Description

Interaktive Bedienvorrichtung  Interactive control device
Die Erfindung betrifft eine Vorrichtung zur Bedienung eines Hausgeräts. Insbesondere betrifft die Erfindung eine interaktive Vorrichtung, die zur Führung eines Dialogs mit einem Benutzer eingerichtet ist. The invention relates to a device for operating a household appliance. In particular, the invention relates to an interactive device adapted to maintain a dialogue with a user.
Stand der Technik State of the art
Ein Hausgerät ist dazu eingerichtet, eine vorbestimmte Aufgabe innerhalb eines Haushalts zu erfüllen. Beispielsweise kann das Hausgerät einen Staubsauger, einen Herd oder eine Dunstabzugshaube umfassen. Einige Hausgeräte können autonom tätig werden und benötigen nur selten eine Ein- oder Ausgabe. Andere Hausgeräte müssen interaktiv gesteuert werden. Beispielsweise kann ein Staubsauger autonom ausgeführt sein, während ein Herd üblicherweise während des Kochens von einem Benutzer bedient werden muss. Die Bedienung eines Hausgeräts kann schwierig sein, wenn der Benutzer beispielsweise schmutzige Hände hat, unter Zeitdruck steht oder mehrere Abläufe zu konzertieren versucht, die unterschiedliche Hausgeräte involvieren. Eine Möglichkeit der fortgeschrittenen Steuerung eines Hausgeräts umfasst eine Spracheingabe. Das Hausgerät kann eine Verarbeitungseinrichtung umfassen, die dazu eingerichtet ist, eine natürlichsprachige Anwei- sung des Benutzers in eine Steuerfunktion des Hausgeräts umzusetzen. In ähnlicher Weise kann beispielsweise ein Betriebszustand des Hausgeräts mittels einer entsprechenden Verarbeitungseinrichtung als gesprochener Text, eben natürlichsprachig, ausgegeben werden. Trotzdem ist die Interaktion zwischen dem Benutzer und dem Hausgerät oft schwierig. Beispielsweise ist nicht immer klar, wann das Hausgerät eine Eingabe erwartet, ob es die Eingabe verstanden hat oder eine Tätigkeit ausführt, die der vom Benutzer beabsichtigten Tätigkeit entspricht. US 2010 / 0023163 A1 schlägt vor, einen Roboter zur Unterstützung eines Benutzers bei der Einhaltung vorgegebener Ernährungsgewohnheiten so auszustatten, dass ein Augenkontakt mit dem Benutzer simuliert werden kann. Eine der vorliegenden Erfindung zugrunde liegende Aufgabe besteht darin, eine Technik anzugeben, die eine verbesserte Interaktion zwischen einem Benutzer und einem Hausgerät erlaubt. Die Erfindung löst diese Aufgabe mittels der Gegenstände der unabhängigen Ansprüche. Unteransprüche geben bevorzugte Ausführungsformen wieder. A home appliance is adapted to perform a predetermined task within a household. For example, the domestic appliance may comprise a vacuum cleaner, a stove or an extractor hood. Some home appliances can operate autonomously and rarely require input or output. Other home appliances must be interactively controlled. For example, a vacuum cleaner may be autonomous, while a cooker usually needs to be operated by a user during cooking. The operation of a domestic appliance can be difficult if, for example, the user has dirty hands, is under time pressure or attempts to concatenate several processes involving different household appliances. One option for advanced home appliance control includes voice input. The household appliance may include a processing device that is configured to implement a natural-language instruction of the user into a control function of the domestic appliance. Similarly, for example, an operating state of the domestic appliance by means of a corresponding processing device as a spoken text, just natural language, are output. Nevertheless, the interaction between the user and the home appliance is often difficult. For example, it is not always clear when the home appliance is expecting an input, whether it has understood the input, or is performing an activity that corresponds to the activity intended by the user. US 2010/0023163 A1 proposes to equip a robot to assist a user in the observance of predetermined nutritional habits in such a way that eye contact with the user can be simulated. It is an object of the present invention to provide a technique that allows for improved interaction between a user and a home appliance. The invention solves this problem by means of the subjects of the independent claims. Subclaims give preferred embodiments again.
Offenbarung der Erfindung Disclosure of the invention
Eine erfindungsgemäße Vorrichtung zur Steuerung einer Interaktion zwischen einem Benutzer und einem Hausgerät umfasst einen Basisabschnitt; eine gegenüber dem Basisab- schnitt bewegliche optische Referenzmarke, die dazu eingerichtet ist, dem Benutzer den optischen Eindruck eines Auges zu vermitteln; eine Kamera; eine akustische Eingabevorrichtung; eine akustische Ausgabeeinrichtung; eine Schnittstelle zur Verbindung mit dem Hausgerät und eine Verarbeitungseinrichtung. Die Verarbeitungseinrichtung ist dazu eingerichtet, den Beginn eines natürlichsprachigen Dialogs zwischen einem Benutzer und der Vorrichtung zu erfassen; ein Bild des Benutzers mittels der Kamera aufzunehmen; die Referenzmarke während des Dialogs auf den Benutzer auszurichten; und das Hausgerät mittels der Schnittstelle auf der Basis des Dialogs zu steuern. A device according to the invention for controlling an interaction between a user and a household appliance comprises a base section; an optical reference mark movable relative to the base portion and arranged to convey to the user the visual impression of an eye; a camera; an acoustic input device; an acoustic output device; an interface for connection to the household appliance and a processing device. The processing means is adapted to detect the beginning of a natural language dialogue between a user and the device; to take a picture of the user by means of the camera; align the reference mark to the user during the dialog; and control the home appliance via the interface based on the dialogue.
Die Vorrichtung kann es erlauben, den Dialog mit dem Benutzer optisch zu unterstützen und zu gestalten. Dadurch kann der Dialog intuitiver gestaltet werden und das Einlernen bestimmter Dialogmuster durch den Benutzer kann entfallen. Durch das Ausrichten der Referenzmarke auf den Benutzer kann sich bei diesem automatisch der Eindruck von Aufmerksamkeit einstellen, sodass er weiß, dass er sich in einem Dialog befindet. Der Benutzer kann dann verbessert eine Anweisung aussprechen, die mittels der Vorrichtung verarbeitet werden kann. Umgekehrt kann das Abwenden der Referenzmarke vom Benutzer diesem signalisieren, dass gerade kein Dialog stattfindet. Dadurch kann eine unmittelbare Rückmeldung an den Benutzer erfolgen, dass eine eventuelle sprachliche Äußerung von ihm nicht verarbeitet und nicht als Anweisung interpretiert wird. Das Gefühl einer Überwachung kann sich daher beim Benutzer nicht einstellen. The device may allow to visually support and design the dialogue with the user. As a result, the dialogue can be made more intuitive and the teaching of certain dialog patterns by the user can be omitted. By aligning the reference mark with the user, it can automatically give the impression of attention, so that he knows that he is in a dialogue. The user can then improve an instruction that can be processed by the device. Conversely, turning away the reference mark from the user can signal to the user that no dialogue is currently taking place. This allows an immediate feedback to the user that a possible linguistic utterance is not processed by him and is not interpreted as an instruction. The feeling of surveillance therefore can not be adjusted by the user.
Bevorzugt ist die Verarbeitungseinrichtung weiter dazu eingerichtet, auf der Grundlage des Bildes ein Auge des Benutzers zu erfassen und die Referenzmarke auf das Auge des Benutzers auszurichten. Dadurch kann sich ein verstärkter Eindruck des Blickkontakts zwischen der Vorrichtung und dem Benutzer einstellen. In weiteren Ausführungsformen kann durch die Art der Darstellung der Referenzmarke der Dialog zusätzlich verfestigt werden. Beispielsweise kann der optische Eindruck des Auges derart verändert werden, dass einfache Gefühle wie Aufmerksamkeit, Abwesenheit, Konzentration etc. dialogunterstützend dargestellt werden. Preferably, the processing device is further configured to capture an eye of the user based on the image and to align the reference mark with the user's eye. This can increase the impression of eye contact between the device and the user. In further embodiments, the dialogue can be additionally solidified by the way the reference mark is displayed. For example, the visual impression of the eye can be changed in such a way that simple feelings such as attention, absence, concentration, etc. are displayed in a supportive manner.
In noch einer weiteren Ausführungsform umfasst die Vorrichtung einen Kopfabschnitt, der in wenigstens einer Dimension gegenüber dem Basisabschnitt beweglich ist und an dem die Referenzmarke angebracht ist. Dabei ist die Verarbeitungseinrichtung dazu eingerichtet, den Kopfabschnitt gegenüber dem Basisabschnitt und die Referenzmarke gegenüber dem Kopfabschnitt zu bewegen, um die Referenzmarke auf den Benutzer auszurichten. Gegebenenfalls wird die Referenzmarke auf ein Auge des Benutzers ausgerichtet, wie oben erläutert wurde. Durch den Kopfabschnitt kann sich verstärkt der Eindruck eines verständigen Wesens beim Benutzer einstellen, sodass beispielsweise Vorbehalte des Benutzers gegenüber einer technischen Einrichtung den Dialog nicht trüben können. In yet another embodiment, the apparatus includes a head portion that is movable in at least one dimension relative to the base portion and to which the reference mark is attached. In this case, the processing device is configured to move the head section relative to the base section and the reference mark relative to the head section in order to align the reference mark with the user. Optionally, the reference mark is aligned with an eye of the user, as explained above. Through the head section, the impression of an understanding being with the user can increase, so that, for example, reservations of the user with respect to a technical device can not tarnish the dialogue.
In einer ersten Variante ist die Referenzmarke dreidimensional ausgebildet und es ist eine Antriebseinrichtung zur Bewegung der Referenzmarke vorgesehen. Eine realistische Darstellung eines Auges kann so einfach verwendet werden, um die oben beschriebene Fixierung auf den Benutzer zu realisieren. Eine graphische Anzeigeeinrichtung ist nicht er- forderlich. Ist trotzdem eine graphische Anzeigeeinrichtung vorgesehen, so kann diese zur Ausgabe anderer Informationen verwendet werden, insbesondere bildlicher oder textueller Informationen. In a first variant, the reference mark is formed three-dimensionally and a drive device is provided for moving the reference mark. A realistic representation of an eye can be used so easily to realize the above-described fixation on the user. A graphical display is not required. If, nevertheless, a graphical display device is provided, it can be used to output other information, in particular visual or textual information.
In einer anderen Variante umfasst die Vorrichtung eine zweidimensionale graphische An- Zeigeeinrichtung, und die Verarbeitungseinrichtung ist dazu eingerichtet, die Referenzmarke auf der Anzeigeeinrichtung darzustellen und auszurichten. In dieser Variante kann eine erhöhte Flexibilität bei der Darstellung der Referenzmarke erzielt werden. Insbesondere können einfache Gefühle verbessert simuliert werden, indem die Darstellung der Referenzmarke entsprechend angepasst wird. In another variant, the device comprises a two-dimensional graphical pointing device, and the processing device is configured to display and align the reference mark on the display device. In this variant, increased flexibility in the representation of the reference mark can be achieved. In particular, simple feelings can be simulated better by adjusting the representation of the reference mark accordingly.
Die akustische Eingabevorrichtung kann ein Mikrofon-Array umfassen, mit dessen Hilfe eine akustische Position des Benutzers bestimmt werden kann. Vorzugsweise ist dann die Kamera dafür eingerichtet, in einem vorbestimmten Fenster um die bestimmte akustische Position des Benutzers verschwenkt zu werden, um ein Gesicht des Benutzers zu finden. The acoustic input device may comprise a microphone array with the aid of which an acoustic position of the user can be determined. Preferably, the camera is then set up in a predetermined window around the particular acoustic one Position of the user to be pivoted to find a face of the user.
Eine Vorrichtung zur Steuerung einer Interaktion zwischen einem Benutzer und einem Hausgerät umfasst eine optische Referenzmarke, die dazu eingerichtet ist, beim Benutzer den optischen Eindruck eines Auges zu vermitteln. Ein erfindungsgemäßes Verfahren zum Steuern der Vorrichtung umfasst Schritte des Erfassens des Beginns eines natürlichsprachigen Dialogs zwischen dem Benutzer und der Vorrichtung; des Abtastens eines Bildes des Benutzers; des Ausrichtens der Referenzmarke auf den Benutzer während des Dialogs und des Steuerns des Hausgeräts auf der Basis des Dialogs. Das erfindungsgemäße Verfahren kann insbesondere auf der oben beschriebenen Vorrichtung ablaufen. Dazu kann die Vorrichtung eine Verarbeitungseinrichtung aufweisen, die einen programmierbaren Mikrocomputer oder Mikrocontroller umfasst. Das Verfahren kann dabei insbesondere als Computerprogrammprodukt mit Programmcodemitteln realisiert sein. Das Verfahren kann zur Steuerung eines oder mehrerer Hausgeräte verwendet werden. Es ist bevorzugt, dass das Verfahren zusätzlich das Umwandeln einer natürlichsprachigen Eingabe des Benutzers in ein maschinenverständliches Signal und/oder das Umwandeln eines maschinenverständlichen Signals in eine An apparatus for controlling an interaction between a user and a home appliance includes an optical reference mark arranged to convey to the user the visual impression of an eye. A method of controlling the device according to the invention comprises steps of detecting the beginning of a natural language dialogue between the user and the device; scanning an image of the user; aligning the reference mark to the user during the dialogue and controlling the home appliance based on the dialogue. The method according to the invention can be carried out in particular on the device described above. For this purpose, the device may have a processing device which comprises a programmable microcomputer or microcontroller. The method can be realized in particular as a computer program product with program code means. The method can be used to control one or more domestic appliances. It is preferred that the method additionally comprises converting a natural language input of the user into a machine-understandable signal and / or converting a machine-understandable signal into a user-friendly signal
natürlichsprachige Äußerung an den Benutzer durchführt. Dadurch kann das Verfahren verbessert die Interaktion zwischen dem Benutzer und einer Vorrichtung steuern, wäh- rend eine Gerätefunktion eines Hausgeräts auf bekannte Weise maschinell gesteuert wird. Die maschinelle Steuerung kann insbesondere das Austauschen von Status-, Befehls- oder Anforderungsinformationen umfassen. natural language statement to the user. Thereby, the method can more effectively control the interaction between the user and a device, while a device function of a home appliance is machine-controlled in a known manner. In particular, the machine controller may include the exchange of status, command or request information.
Der Dialog umfasst bevorzugt wenigstens eine natürlichsprachige Äußerung des Benut- zers und eine natürlichsprachige Äußerung der Vorrichtung, wobei die beiden Äußerungen miteinander in Kontext stehen. Beispielsweise kann der Benutzer eine Anforderung äußern, worauf verfahrensgemäß eine Bestätigung der verstandenen Anforderung zurückgegeben wird. In einem anderen Beispiel kann der Benutzer einen Gerätezustand des Hausgeräts anfordern und verfahrensgemäß wird der Gerätezustand beschafft und natürlichsprachig ausgegeben. The dialogue preferably comprises at least one natural language utterance of the user and a natural language utterance of the device, the two utterances being related to each other. For example, the user may issue a request, which, according to the method, returns an acknowledgment of the understood request. In another example, the user may request a device state of the home appliance, and according to the method, the device state is obtained and output in natural language.
Der Beginn des Dialogs kann erfasst werden, nachdem ein vom Benutzer gesprochenes Schlüsselwort erfasst wurde. Das Schlüsselwort kann fest vorgegeben sein und bei- spielsweise eine Bezeichnung einer das Verfahren durchführenden Vorrichtung umfassen. In einer anderen Ausführungsform kann das Schlüsselwort durch den Benutzer vorgegeben sein. The beginning of the dialogue can be detected after a user-spoken keyword has been captured. The keyword can be fixed and For example, a name of a device performing the method include. In another embodiment, the keyword may be predetermined by the user.
Es ist weiterhin bevorzugt, dass das Ausrichten der Referenzmarke auf den Benutzer aufgehoben wird, wenn das Ende des Dialogs bestimmt wurde. Ein Eindruck des It is further preferred that the alignment of the reference mark with the user be canceled when the end of the dialogue has been determined. An impression of
Beobachtetwerdens durch den Benutzer kann dadurch vermieden werden. Durch das verbesserte Abgrenzen einer Dialogphase von einer dialogfreien Phase kann die Interaktion des Benutzers mit dem Verfahren bzw. einer ausführenden Vorrichtung insgesamt verbessert werden. Observed by the user can thereby be avoided. The improved delimitation of a dialog phase from a dialog-free phase can improve the user's overall interaction with the method or an executing device.
Der Dialog wird bevorzugt als beendet bestimmt, wenn länger als eine vorbestimmte Dauer keine natürlichsprachige Äußerung mit dem Benutzer ausgetauscht wurde. Dabei kann die Äußerung alternativ seitens des Verfahrens bzw. der ausführenden Vorrichtung oder seitens des Benutzers erfolgen. In einer alternativen Ausführungsform kann der Dialog auch als beendet bestimmt werden, wenn dies aus dem Dialog bzw. der Abfolge der natürlichsprachigen Äußerungen hervorgeht. The dialogue is preferably determined to have ended when no natural language utterance has been exchanged with the user for longer than a predetermined period. The utterance can alternatively be made by the method or the executing device or by the user. In an alternative embodiment, the dialogue may also be determined to have ended when it emerges from the dialogue or sequence of natural language utterances.
Zusätzlich umfasst die Erfindung ein Hausgerät mit einer erfindungsgemäßen Vorrichtung. In addition, the invention comprises a domestic appliance with a device according to the invention.
Die Erfindung wurde mit Bezug auf eine Vorrichtung, ein Hausgerät sowie ein Verfahren erläutert. Sofern nichts Anderes angegeben ist, sind Merkmale einer Anspruchskategorie analog auf die anderen Anspruchskategorien anwendbar. The invention has been explained with reference to a device, a domestic appliance and a method. Unless otherwise specified, features of one claim category are analogously applicable to the other claim categories.
Kurze Beschreibung der Figuren Brief description of the figures
Die Erfindung wird nun unter Bezug auf die beiliegenden Figuren genauer beschrieben, in denen: The invention will now be described in more detail with reference to the attached figures, in which:
Fig. 1 eine schematische Darstellung einer Vorrichtung zur Steuerung einer Interaktion zwischen einem Benutzer und einem Hausgerät; Figure 1 is a schematic representation of a device for controlling an interaction between a user and a home appliance.
Fig. 2 die Vorrichtung im Dialog mit einem Benutzer; Fig. 2 shows the device in dialogue with a user;
Fig. 3 eine beispielhafte Darstellung einer optischen Referenzmarke der Vorrichtung; Fig. 4 beispielhafte Stellungen eines Paars von Referenzmarken; und Fig. 5 ein Ablaufdiagramm eines Verfahrens zur Steuerung der Interaktion der Vorrichtung mit einem Benutzer darstellt. Genaue Beschreibung eines Ausführungsbeispiels 3 shows an exemplary representation of an optical reference mark of the device; 4 shows exemplary positions of a pair of reference marks; and 5 illustrates a flow chart of a method for controlling the interaction of the device with a user. Detailed description of an embodiment
Figur 1 zeigt eine schematische Darstellung einer Vorrichtung 100 zur Steuerung einer Interaktion zwischen einem Benutzer 105 und einem Hausgerät 1 10. In der exemplarischen Darstellung sind zwei Hausgeräte 1 10 in Form eines Herds und einer Dunstab- zugshaube dargestellt. Beide verfügen über eine bevorzugt drahtlose Schnittstelle 1 15 zur Verbindung mit der Vorrichtung 100. Es können jedoch auch andere Hausgeräte 1 10 mit der Vorrichtung 100 verbunden werden, insbesondere Küchengeräte oder Reinigungsgeräte. Die Vorrichtung 100 umfasst eine Verarbeitungseinrichtung 120, die mit einer akustischen Eingabevorrichtung 125, einer akustischen Ausgabevorrichtung 130 und einer bevorzugt drahtlosen Schnittstelle 135 zur Verbindung mit einem oder mehreren Hausgeräten 1 10 verbunden ist. Die Vorrichtung 100 umfasst ferner einen Basisabschnitt 140, der beispielsweise verwendet werden kann, um die Vorrichtung 100 auf einer Standfläche abzu- stellen oder an einer Wand, einem Möbel, einem Hausgerät 1 10 oder einem anderen Objekt anzubringen. Elemente der Vorrichtung 100 können innerhalb des Basisabschnitts 140 aufgenommen sein. Bevorzugt umfasst die Vorrichtung 100 zusätzlich einen Kopfabschnitt 145, der in mindestens einer Dimension gegenüber dem Basisabschnitt 140 beweglich gelagert ist. Zum Bewegen des Kopfabschnitts 145 gegenüber dem Basisab- schnitt 140 kann eine Antriebseinrichtung 150 vorgesehen sein, die durch die Verarbeitungseinrichtung 120 gesteuert werden kann. Beispielsweise kann der Kopfabschnitt 145 um eine Hochachse durch den Basisabschnitt 140 verschwenkbar sein. Der Kopfabschnitt 145 kann auch um eine Querachse verschwenkbar sein, um gegenüber dem Basisabschnitt 140 eine Nickbewegung durchzuführen. FIG. 1 shows a schematic representation of a device 100 for controlling an interaction between a user 105 and a domestic appliance 1 10. In the exemplary representation, two domestic appliances 110 are shown in the form of a cooker and an extractor hood. Both have a preferably wireless interface 15 for connection to the device 100. However, other domestic appliances 110 can also be connected to the device 100, in particular kitchen appliances or cleaning appliances. The device 100 comprises a processing device 120, which is connected to an acoustic input device 125, an acoustic output device 130 and a preferably wireless interface 135 for connection to one or more domestic appliances 110. The device 100 further comprises a base portion 140, which may be used, for example, to place the device 100 on a stand or to attach it to a wall, furniture, household appliance or other object. Elements of the device 100 may be received within the base portion 140. The device 100 preferably additionally comprises a head section 145 which is movably mounted in at least one dimension relative to the base section 140. For moving the head section 145 relative to the base section 140, a drive device 150 can be provided, which can be controlled by the processing device 120. For example, the head portion 145 may be pivotable about a vertical axis through the base portion 140. The head portion 145 may also be pivotable about a transverse axis to pitch relative to the base portion 140.
Am Basisabschnitt 140, oder, falls vorhanden, am Kopfabschnitt 145, ist eine bewegliche optische Referenzmarke 155, die dazu eingerichtet ist, vom Benutzer 105 als Auge wahrgenommen zu werden, angebracht. Die Referenzmarke 155 kann plastisch ausgebildet und beispielsweise mittels einer weiteren Antriebseinrichtung 150 mechanisch beweglich sein. In der dargestellten Ausführungsform ist eine bevorzugt zweidimensionale und graphische Anzeigeeinrichtung 160 vorgesehen, die mit der Verarbeitungseinrichtung 120 verbunden ist. Auf der Anzeigeeinrichtung 160 kann die Referenzmarke 155 dargestellt und bevorzugt auch bewegt werden. Außerdem umfasst die Vorrichtung 100 eine Kamera 165, die bevorzugt nahe an der Referenzmarke 155 und insbesondere bevorzugt am Kopfabschnitt 145 angebracht ist. At the base portion 140, or at the head portion 145, if present, is mounted a movable optical reference mark 155 which is adapted to be perceived by the user 105 as an eye. The reference mark 155 may be formed plastically and be mechanically movable, for example, by means of a further drive device 150. In the illustrated embodiment, a preferably two-dimensional and graphical display device 160 is provided, which is connected to the processing device 120. On the display device 160, the reference mark 155 can be shown and preferably also moved. In addition, the device 100 includes a camera 165, which is preferably mounted close to the reference mark 155, and more preferably to the head portion 145.
Figur 2 zeigt die Vorrichtung 100 in einer weiteren Ausführungsform im Dialog mit dem Benutzer 105. Hier sind beispielhaft zwei Referenzmarken 155 vorgesehen, die bevorzugt konzertiert derart angesteuert werden, dass sie durch den Benutzer 105 als Augenpaar wahrgenommen werden. FIG. 2 shows the device 100 in a further embodiment in dialogue with the user 105. By way of example, two reference marks 155 are provided here, which are preferably controlled in concert so that they are perceived by the user 105 as an eye pair.
Die Vorrichtung 100 ist dazu eingerichtet, eine Interaktion zwischen dem Benutzer 105 und dem Hausgerät 1 10 dadurch zu unterstützen, dass sie einen natürlichsprachigen Dia- log zwischen dem Benutzer 105 und der Vorrichtung 100 durch eine Ausrichtung der optischen Referenzmarke 155 auf den Benutzer 105 unterstützt. Ziel ist, dem Benutzer 105 den Eindruck einer Aufmerksamkeit der Vorrichtung 100 zu vermitteln, während der Dialog andauert. Dazu kann die Referenzmarke 155 insbesondere so gesteuert werden, dass sie das Auge eines menschlichen Gesprächspartners nachahmt, mit dem der Benutzer 105 spricht. In einem ersten Schritt kann die Vorrichtung 100 mittels der Kamera 165 eine relative Position oder Richtung des Benutzers 105 bezüglich der Vorrichtung 100 bestimmen und den Kopfabschnitt 145 und/oder die Referenzmarke 155 auf den Benutzer 105 ausrichten. In einer Verfeinerung kann innerhalb des Bildes der Kamera 165 auch ein Auge 170 des Benutzers 105 erfasst werden und die Referenzmarke 155 kann spezifisch auf das Auge 170 ausgerichtet werden. Bewegt sich der Benutzer 105 im Raum, so kann die Ausrichtung der Referenzmarke 155 dem Benutzer 105 folgen. Ist der Dialog beendet, so kann die Verfolgung abgebrochen bzw. die Ausrichtung zerstört werden. The device 100 is configured to support an interaction between the user 105 and the home appliance 110 by supporting a natural language dialog between the user 105 and the device 100 by aligning the optical reference mark 155 with the user 105. The goal is to give the user 105 the impression of attention of the device 100 while the dialogue continues. For this purpose, the reference mark 155 can be controlled in particular so that it mimics the eye of a human interlocutor with whom the user 105 speaks. In a first step, the device 100 may determine, by means of the camera 165, a relative position or direction of the user 105 with respect to the device 100 and align the head portion 145 and / or the reference mark 155 with the user 105. In a refinement, an eye 170 of the user 105 may also be detected within the image of the camera 165, and the reference mark 155 may be specifically aligned with the eye 170. When the user 105 moves in space, the alignment of the reference mark 155 may follow the user 105. If the dialog is ended, the tracking can be aborted or the alignment can be destroyed.
Es ist weiterhin bevorzugt, dass die Vorrichtung 100 einen natürlichsprachigen Dialog mit dem Benutzer 105 durchführt. Eine durch den Benutzer 105 gesprochene Äußerung kann mittels der akustischen Eingabevorrichtung 125 abgetastet und mittels der Verarbeitungseinrichtung 120 analysiert werden. In Abhängigkeit des Ergebnisses kann beispielsweise eine Anforderung an eines der Hausgeräte 1 10 über die Schnittstelle 135 ausgesandt werden. Eine Nachricht eines Hausgeräts 1 10, beispielsweise betreffend ihren Betriebszustand, kann über die Schnittstelle 135 empfangen und durch die Verarbeitungseinrichtung 120 in eine natürlichsprachige Äußerung umgewandelt werden („Text to Speech"). Anschließend wird die Äußerung bevorzugt über die akustische Ausgabevorrichtung 130 an den Benutzer 105 ausgegeben. It is further preferred that the device 100 conduct a natural language dialogue with the user 105. An utterance spoken by the user 105 may be scanned by the acoustic input device 125 and analyzed by the processing device 120. Depending on the result, for example, a request to one of the household appliances 1 10 via the interface 135 emitted become. A message of a domestic appliance 110, for example regarding its operating status, may be received via the interface 135 and converted into a natural language utterance by the processing means 120. Then the utterance is preferably delivered to the user via the acoustic output device 130 105 issued.
Figur 3 zeigt eine beispielhafte Darstellung von optischen Referenzmarken 155 der Vorrichtung 100 der beiden vorangehenden Figuren. Die Referenzmarken 155 können jeweils plastisch nachgebildet oder auf der Anzeigeeinrichtung 160 dargestellt werden. Die Referenzmarken 155 sind bevorzugt dazu eingerichtet, den Dialog zum Benutzer 105 zu un- terstützen. Dazu ist es hilfreich, wenn die Vorrichtung 100 als Person bzw. als personenähnliche Maschine wahrgenommen werden kann. Beispielsweise sind die dargestellten Referenzmarken 155 als weibliches Augenpaar dargestellt. Eine natürlichsprachige Ausgabe mittels der akustischen Ausgabevorrichtung 130 verwendet dabei bevorzugt eine ebenfalls weibliche Stimme. FIG. 3 shows an exemplary representation of optical reference marks 155 of the device 100 of the two preceding figures. The reference marks 155 can each be reproduced plastically or displayed on the display 160. The reference marks 155 are preferably set up to support the dialogue with the user 105. For this it is helpful if the device 100 can be perceived as a person or as a person-like machine. For example, the illustrated reference marks 155 are shown as a pair of female eyes. A natural language output by means of the acoustic output device 130 preferably uses a likewise female voice.
Die Referenzmarke 155 kann noch weitere Details eines menschlichen Auges aufweisen, wobei die Details entweder statisch, zur Verbesserung des menschenähnlichen Eindrucks, oder dynamisch, etwa zum Ausdruck einfacher Emotionen, verwendet werden können. Die dargestellte Referenzmarke 155 umfasst optische Nachbildungen eines Aug- apfels 305, einer Iris 310, einer Pupille 315, eines oberen Augenlids 320, eines unteren Augenlids 325, oberen und unteren Wimpern 330 und einer Augenbraue 335. In anderen Ausführungsformen können einige der genannten Elemente oder Merkmale anders ausgeführt sein oder fehlen. Es ist auch möglich, Merkmale 305 bis 335 stilistisch nur anzudeuten. The reference mark 155 may have further details of a human eye, which details may be used either statically, to enhance the human-like impression, or dynamically, such as to express simple emotions. The illustrated reference mark 155 includes optical replicas of an eyeball 305, an iris 310, a pupil 315, an upper eyelid 320, a lower eyelid 325, upper and lower eyelashes 330, and an eyebrow 335. In other embodiments, some of the mentioned elements or Features be different or missing. It is also possible to stylistically only indicate features 305 to 335.
Figur 4 zeigt beispielhafte Stellungen eines Paars von Referenzmarken 155 der Vorrichtung 100 der Figuren 1 und 2. In alternativen Ausführungsformen kann auch nur eine Referenzmarke 155 vorgesehen sein. In der dargestellten Ausführungsform wird der optische Eindruck eines Auges im Wesentlichen dadurch hergestellt, dass ein schwarzer Kreis in einem weißen Kreis dargestellt wird. Dadurch lassen sich bereits verschiedene Blickrichtungen simulieren, wenn die Referenzmarke 155 auf den Benutzer 105 ausgerichtet wird. Durch die Blickrichtungen können bereits Gefühle ausgedrückt werden, wo- durch die Informationsübermittlung zwischen dem Benutzer 155 und der Vorrichtung 100 unterstützt werden kann. FIG. 4 shows exemplary positions of a pair of reference marks 155 of the device 100 of FIGS. 1 and 2. In alternative embodiments, only one reference mark 155 may be provided. In the illustrated embodiment, the visual impression of an eye is essentially made by displaying a black circle in a white circle. As a result, different viewing directions can already be simulated if the reference mark 155 is aligned with the user 105. The viewing directions can already express feelings, can be supported by the information transfer between the user 155 and the device 100.
In weiteren Ausführungsformen können noch weitere Elemente von Augen oder einer Augenpartie, die beispielsweise oben mit Bezug auf Fig. 3 beschrieben wurden, zur Ex- pression eines Gefühls dargestellt werden. In further embodiments, other elements of the eye or eye area described above, for example, with reference to FIG. 3, may be displayed for expressing a sensation.
In Figur 4a sind die Referenzmarken 155 direkt auf den Benutzer 105 gerichtet. In den Figuren 4b und 4c sind Blickrichtungen angedeutet, die den Benutzer 105 zulaufen, wenn sich dieser seitlich unten (Fig. 4b) bzw. seitlich oben (Fig. 4c) der Vorrichtung 100 bzw. der Anzeigevorrichtung 160 befindet. In Figur 4d sind die dunklen Kreise in der oberen Hälfte der hellen Kreise abgedeckt und eine horizontale Linie ist zu sehen, um den Eindruck halbgeschlossener Augenlieder hervorzurufen. Dadurch kann seitens der Vorrichtung 100 ein Gefühl von Müdigkeit oder Unkonzentriertheit vermittelt werden. In Figur 4e fehlen die dunklen Kreise ganz, sodass sich der Eindruck geschlossener Augen einstellen kann. Dadurch kann verdeutlicht werden, dass ein Dialog mit der Vorrichtung 100 gegenwärtig nicht stattfindet - die Vorrichtung 100„schläft". In FIG. 4 a, the reference marks 155 are directed directly at the user 105. Viewing directions are indicated in FIGS. 4b and 4c, which approach the user 105 when the latter is laterally downwards (FIG. 4b) or laterally upwards (FIG. 4c) of the device 100 or the display device 160. In Fig. 4d, the dark circles in the upper half of the bright circles are covered and a horizontal line is seen to give the impression of semi-closed eyelids. As a result, the device 100 can convey a feeling of tiredness or lack of concentration. In Figure 4e the dark circles are completely missing, so that the impression of closed eyes can be established. It can thereby be clarified that a dialogue with the device 100 is not currently taking place - the device 100 "sleeps".
Figur 5 zeigt ein Ablaufdiagramm eines exemplarischen Verfahrens 500 zur Steuerung der Interaktion der Vorrichtung 100 der Figuren 1 und 2 mit dem Benutzer 105. Das Ver- fahren 500 kann insbesondere mittels der Verarbeitungseinrichtung 120 durchgeführt werden. FIG. 5 shows a flowchart of an exemplary method 500 for controlling the interaction of the device 100 of FIGS. 1 and 2 with the user 105. The method 500 can be carried out in particular by means of the processing device 120.
In einem Schritt 502 wird erfasst, dass der Benutzer 105 ein Schlüsselwort gesprochen hat. Das Schlüsselwort kann eine Bezeichnung der Vorrichtung 100 umfassen. Ein Hin- weis auf das Schlüsselwort kann in textueller Form auf der Vorrichtung 100 angegeben sein. In einem Schritt 504 wird überprüft, ob der Benutzer 105 bereits bekannt ist. Ist dies der Fall, so kann in einem Schritt 506 eine entsprechende interne Marke gesetzt werden, die hier beispielhaft user_detectable genannt wird. Anschließend oder wenn der Benutzer 105 nicht bekannt ist, wird in einem Schritt 508 bestimmt, aus welcher Richtung das akus- tische Signal empfangen wurde. Sind mehrere akustische Eingabevorrichtungen 125 vorgesehen, so kann auf der Basis des Stereoeffekts eine ungefähre Richtung des Benutzers 105 bestimmt werden. In einem Schritt 510 wird bevorzugt der Kopfabschnitt 145 in diese Richtung bewegt, um einen Bildausschnitt der Kamera 165 so zu verändern, dass er den Benutzer 105 möglichst enthält. In einem Schritt 512 wird überprüft, ob auf einem Bild der Kamera 165 ein Gesicht erkannt werden kann. Ist dies der Fall, so wird bevorzugt in einem Schritt 514 eine relative Position des Benutzers 105 auf der Basis des Kamerabilds bestimmt. An- schließend wird in einem Schritt 516 die Referenzmarke 155 auf den Benutzer 105 und weiter, falls möglich, auf ein im Bild der Kamera 165 erfasstes Auge 170 des Benutzers 105 ausgerichtet. In einem folgenden Schritt 518 wird der Benutzer 105 verfolgt, indem seine relative Position zur Vorrichtung 100 fortlaufend bestimmt und die Referenzmarke 155 sowie gegebenenfalls die Kamera 165 jeweils auf die bestimmte Position ausgerichtet werden. In a step 502, it is detected that the user 105 has spoken a keyword. The keyword may include a name of the device 100. An indication of the keyword may be given in textual form on the device 100. In a step 504, it is checked whether the user 105 is already known. If this is the case, then in a step 506, a corresponding internal mark can be set, which is here called user_detectable by way of example. Subsequently, or if the user 105 is not known, it is determined in a step 508 from which direction the acoustic signal was received. If several acoustic input devices 125 are provided, an approximate direction of the user 105 can be determined on the basis of the stereo effect. In a step 510, the head section 145 is preferably moved in this direction in order to change an image section of the camera 165 so that it contains the user 105 as much as possible. In a step 512, it is checked whether a face can be recognized on an image of the camera 165. If this is the case, preferably in a step 514 a relative position of the user 105 is determined on the basis of the camera image. Subsequently, in a step 516, the reference mark 155 is aligned with the user 105 and, if possible, with an eye 170 of the user 105 detected in the image of the camera 165. In a following step 518, the user 105 is tracked by continuously determining his relative position to the device 100 and aligning the reference mark 155 and, if appropriate, the camera 165, in each case to the specific position.
In einem Schritt 520 wird eine Äußerung des Benutzers 105 erfasst. Kann keine Äußerung erfasst werden, so kann das Verfahren 500 zum Schritt 512 zurückkehren. Andernfalls kann in einem Schritt 522 die Schallquelle der Äußerung bestimmt werden. In einem Schritt 524 können die bislang bestimmten Positionen bzw. Ausrichtungen des Benutzers 105 bezüglich der Vorrichtung 100 miteinander fusioniert werden. Die Ausrichtung der Referenzmarke 155 und/oder der Kamera 165 - gegebenenfalls mit Unterstützung der Ausrichtung des Kopfabschnitts 145 - kann in einem Schritt 526 aktualisiert werden. Anschließend kann das Verfahren 500 mit dem Schritt 512 fortfahren. In a step 520, an utterance of the user 105 is detected. If no utterance can be detected, then the method 500 may return to step 512. Otherwise, in step 522, the sound source of the utterance may be determined. In a step 524, the previously determined positions or orientations of the user 105 with respect to the device 100 may be fused together. The orientation of the reference mark 155 and / or the camera 165 - optionally with the assistance of the orientation of the header 145 - may be updated in a step 526. Thereafter, the method 500 may proceed to step 512.
Wurde im Schritt 512 kein Gesicht des Benutzers 105 im Kamerabild erkannt, so kann in einem Schritt 528 überprüft werden, ob die interne Marke user_detectable gesetzt ist. Ist dies nicht der Fall, so kann das Verfahren 500 mit dem Schritt 512 fortfahren. Andernfalls wird bevorzugt in einem Schritt 530 die Kamera 165 in einem vorbestimmten Fenster um die bestimmte akustische Position verschwenkt. Anschließend wird in einem Schritt 532 überprüft, ob ein Gesicht erkannt wurde und in diesem Fall zum Schritt 514 verzweigt. Andernfalls wird in einem Schritt 534 überprüft, ob das vorbestimmte Fenster bereits vollständig analysiert wurde. Ist dies nicht der Fall, so fährt das Verfahren 500 bevorzugt mit dem Schritt 530 fort. Andernfalls kann in einem Schritt 536 eine interne Variable, die hier c genant wird, auf 0 gesetzt werden. In einem nachfolgenden Schritt 538 kann der Benutzer 105, beispielsweise auf natürlichsprachigem Weg mittels der Ausgabevorrichtung 130, oder auf optische oder textuelle Weise mittels der Anzeigeeinrichtung 160, gefragt wer- den, ob sein Gesicht gerade von der Kamera 165 nicht erkannt werden kann. Die Variable c wird dabei inkrementiert. If no face of the user 105 was detected in the camera image in step 512, it may be checked in a step 528 whether the internal mark user_detectable is set. If this is not the case, the method 500 can proceed to step 512. Otherwise, in a step 530, the camera 165 is preferably pivoted in a predetermined window around the specific acoustic position. Subsequently, it is checked in a step 532 whether a face has been recognized and in this case branches to step 514. Otherwise, it is checked in a step 534 whether the predetermined window has already been completely analyzed. If this is not the case, method 500 preferably proceeds to step 530. Otherwise, in step 536, an internal variable called c here may be set to 0. In a subsequent step 538, the user 105 can be asked, for example in the natural language way by means of the output device 130, or in an optical or textual manner by means of the display device 160. whether his face just can not be recognized by the camera 165. The variable c is incremented.
In einem Schritt 540 wird überprüft, ob der Benutzer 105 mit Ja geantwortet hat. In diesem Fall wird die interne Marke user_detectable in einem Schritt 542 auf 0 gesetzt und das Verfahren 500 fährt mit dem Schritt 520 fort. Kann keine Antwort des Benutzers 105 bestimmt werden, so kann in einem Schritt 544 eine vorbestimmte Zeit gewartet werden, bevor in einem Schritt 546 überprüft wird, ob die Variable c den Wert 3 hat. Ist dies nicht der Fall, so wird im Schritt 538 die Frage an den Benutzer 105 erneut ausgegeben und die Variable c wird erneut inkrementiert. Ist der Wert der Variablen c im Schritt 546 3, so kann das Verfahren 500 in einem Schritt 548 enden. In a step 540, it is checked whether the user 105 has answered yes. In this case, the internal user_detectable flag is set to 0 in step 542, and method 500 proceeds to step 520. If no response of the user 105 can be determined, then a predetermined time may be waited in a step 544 before checking in a step 546 whether the variable c has the value 3. If this is not the case, then in step 538 the question is reissued to the user 105 and the variable c is again incremented. If the value of the variable c is 3 in step 546, the method 500 may end in step 548.
Wird im Schritt 540 festgestellt, dass die Antwort des Benutzers 105 Nein lautet, so wird in einem Schritt 550 die Variable c auf den Wert 0 gesetzt und in einem Schritt 552 der Benutzer 105 gebeten, das Schlüsselwort zu wiederholen. Die Variable c wird dabei inkre- mentiert. In einem nachfolgenden Schritt 554 wird überprüft, ob der Benutzer 105 dasIf it is determined in step 540 that the response of the user 105 is no, then in a step 550 the variable c is set to the value 0 and in a step 552 the user 105 is asked to repeat the keyword. The variable c is incremented. In a subsequent step 554, it is checked whether the user 105 the
Schlüsselwort gesprochen hat. In diesem Fall fährt das Verfahren 500 bevorzugt mit dem Schritt 508 fort. Andernfalls kann in einem Schritt 556 eine vorbestimmte Zeit gewartet werden, bevor in einem Schritt 558 überprüft wird, ob die Variable c den Wert 3 hat. Ist dies nicht der Fall, so fährt das Verfahren 500 mit dem Schritt 552 fort und bittet den Be- nutzer 105 erneut, das Schlüsselwort zu sprechen. Andernfalls kann das Verfahren 500 im Schritt 548 enden. Keyword has spoken. In this case, the method 500 preferably proceeds to step 508. Otherwise, a predetermined time may be waited in a step 556 before checking in a step 558 whether the variable c has the value 3. If this is not the case, then the method 500 proceeds to the step 552 and again asks the user 105 to speak the keyword. Otherwise, the method 500 may end in step 548.
Bezugszeichen reference numeral
100 Vorrichtung 100 device
105 Benutzer  105 users
1 10 Hausgerät  1 10 domestic appliance
1 15 Schnittstelle  1 15 interface
120 Verarbeitungseinrichtung  120 processing device
125 akustische Eingabevorrichtung  125 acoustic input device
130 akustische Ausgabevorrichtung  130 acoustic output device
135 Schnittstelle  135 interface
140 Basisabschnitt 140 base section
145 Kopfabschnitt  145 head section
150 Antriebseinrichtung  150 drive device
155 Referenzmarke 155 reference mark
160 Anzeigeeinrichtung  160 display device
165 Kamera  165 camera
170 Auge des Benutzers  170 user's eye
305 Augapfel 305 eyeball
310 Iris  310 Iris
315 Pupille  315 pupil
320 oberes Augenlid  320 upper eyelid
325 unteres Augenlid  325 lower eyelid
330 Wimper  330 eyelash
335 Augenbraue  335 eyebrow
500 Verfahren 500 procedures
502 Schlüsselwort erfasst  502 keyword recorded
504 Benutzer bekannt?  504 users known?
506 setzen Marke user_detectable  506 put brand user_detectable
508 Bestimmen akustische Richtung des Benutzers 508 Determine acoustic direction of the user
510 Kopfabschnitt schwenken, Kamerabild erstellen510 Swivel head section, create camera image
512 Gesicht erkannt? Bestimmen rel. Position des Benutzers aus Kamerabild Ausrichten Referenzmarke 512 face recognized? Determine rel. Position of the user from camera image Align reference mark
Benutzer verfolgen Track users
Äußerung Benutzer erfassen Capture user input
Schallquelle Äußerung bestimmen Determine sound source expression
Positionen fusionieren Merge positions
Ausrichtung justieren Adjust alignment
Marke user_detectable gesetzt? Brand user_detectable set?
Kamera in vorbestimmtem Fenster bewegen Move the camera in a predetermined window
Gesicht erkannt? Face recognized?
Fenster komplett durchsucht? Searched the window completely?
c=o c = o
Frage an Benutzer Question to user
Antwort auswerten Evaluate answer
user_detectable=0 user_detectable = 0
warten waiting
c=3? c = 3?
Ende The End
c=0 c = 0
Benutzer bitten, Schlüsselwort zu wiederholen Ask user to repeat keyword
Schlüsselwort gesprochen? Keyword spoken?
warten waiting
c=3? c = 3?

Claims

PATENTANSPRÜCHE
1 . Vorrichtung (100) zur Steuerung einer Interaktion zwischen einem Benutzer (105) und einem Hausgerät (1 10), wobei die Vorrichtung (100) folgendes umfasst: 1 . Apparatus (100) for controlling interaction between a user (105) and a home appliance (110), the apparatus (100) comprising:
- einen Basisabschnitt (140);  a base portion (140);
- eine gegenüber dem Basisabschnitt (140) bewegliche optische Referenzmarke (155), die dazu eingerichtet ist, dem Benutzer (105) den optischen Eindruck eines Auges zu vermitteln;  - an optical reference mark (155) movable relative to the base portion (140) and adapted to convey to the user (105) the visual impression of an eye;
- eine Kamera (165);  a camera (165);
- eine akustischen Eingabevorrichtung (125);  an acoustic input device (125);
- eine akustische Ausgabeeinrichtung (130);  an acoustic output device (130);
- eine Schnittstelle (135) zur Verbindung mit dem Hausgerät (1 10); und  - An interface (135) for connection to the household appliance (1 10); and
- eine Verarbeitungseinrichtung (120), die dazu eingerichtet ist:  a processing device (120), which is set up to:
- den Beginns eines natürlichsprachigen Dialogs zwischen dem Benutzer (105) und der Vorrichtung (100) zu erfassen;  to detect the beginning of a natural language dialogue between the user (105) and the device (100);
- ein Bild des Benutzers (105) mittels der Kamera (165) aufzunehmen;  - take a picture of the user (105) by means of the camera (165);
- die Referenzmarke (155) während des Dialogs auf den Benutzer (105) auszurichten; und  - align the reference mark (155) with the user (105) during the dialogue; and
- das Hausgerät (1 10) mittels der Schnittstelle (135) auf der Basis des Dialogs zu steuern.  - To control the home appliance (1 10) by means of the interface (135) based on the dialogue.
2. Vorrichtung (100) nach Anspruch 1 , wobei die Verarbeitungseinrichtung (120) weiter dazu eingerichtet ist, auf der Grundlage des Bildes ein Auge (170) des Benutzers (105) zu erfassen und die Referenzmarke (155) auf das Auge (170) des Benutzers (105) auszurichten. The apparatus (100) of claim 1, wherein the processing means (120) is further adapted to detect an eye (170) of the user (105) based on the image and reference the mark (155) to the eye (170). of the user (105).
3. Vorrichtung (100) nach Anspruch 1 oder 2, ferner umfassend einen Kopfabschnitt (145), der in wenigstens einer Dimension gegenüber dem Basisabschnitt (140) beweglich ist und an dem die Referenzmarke (155) angebracht ist, wobei die Verarbeitungseinrichtung (120) dazu eingerichtet ist, den Kopfabschnitt (145) gegenüber dem Basisabschnitt (140) und die Referenzmarke (155) gegenüber dem Kopfabschnitt (145) zu bewegen, um die Referenzmarke (155) auf den Benutzer (105) auszurichten. Vorrichtung (100) nach einem der vorangehenden Ansprüche, wobei die Referenzmarke (155) dreidimensional ausgebildet ist und eine Antriebseinrichtung (150) zur Bewegung der Referenzmarke (155) vorgesehen ist. The apparatus (100) of claim 1 or 2, further comprising a head portion (145) movable in at least one dimension relative to the base portion (140) and to which the reference mark (155) is attached, the processing means (120). adapted to move the head portion (145) opposite the base portion (140) and the reference mark (155) opposite the head portion (145) to align the reference mark (155) with the user (105). Device (100) according to one of the preceding claims, wherein the reference mark (155) is formed three-dimensionally and a drive device (150) for moving the reference mark (155) is provided.
Vorrichtung (100) nach einem der Ansprüche 1 bis 3, ferner umfassend eine zweidimensionale graphische Anzeigeeinrichtung (160), wobei die Verarbeitungseinrichtung (120) dazu eingerichtet ist, die Referenzmarke (155) auf der Anzeigeeinrichtung (160) darzustellen und auszurichten. The apparatus (100) of any of claims 1 to 3, further comprising a two-dimensional graphical display (160), wherein the processing means (120) is adapted to display and align the reference mark (155) on the display (160).
Vorrichtung (100) nach einem der vorangehenden Ansprüche, wobei die akustische Eingabevorrichtung (125) ein Mikrofon-Array umfasst, mit dessen Hilfe eine akustische Position des Benutzers (105) bestimmt werden kann. Device (100) according to one of the preceding claims, wherein the acoustic input device (125) comprises a microphone array with the aid of which an acoustic position of the user (105) can be determined.
Vorrichtung (100) nach dem vorhergehenden Anspruch, wobei die Kamera (165) dafür eingerichtet ist, in einem vorbestimmten Fenster um die bestimmte akustische Position des Benutzers (105) verschwenkt zu werden, um ein Gesicht des Benutzers (105) zu finden. Apparatus (100) according to the preceding claim, wherein the camera (165) is adapted to be pivoted in a predetermined window around the determined acoustic position of the user (105) to find a face of the user (105).
Verfahren (500) zum Steuern einer Vorrichtung (100) zur Steuerung einer Interaktion zwischen einem Benutzer (105) und einem Hausgerät (1 10), wobei die Vorrichtung (100) eine optische Referenzmarke (155) umfasst, die dazu eingerichtet ist, beim Benutzer (105) den optischen Eindruck eines Auges zu vermitteln, wobei das Verfahren (500) folgende Schritte umfasst: A method (500) for controlling a device (100) for controlling an interaction between a user (105) and a home appliance (110), the device (100) comprising an optical reference mark (155) adapted to the user (105) to give the visual impression of an eye, the method (500) comprising the steps of:
- Erfassen (502) des Beginns eines natürlichsprachigen Dialogs zwischen dem Benutzer (105) und der Vorrichtung (100);  - detecting (502) the beginning of a natural language dialogue between the user (105) and the device (100);
- Abtasten (510) eines Bildes des Benutzers (105);  - scanning (510) an image of the user (105);
- Ausrichten (510) der Referenzmarke (155) auf den Benutzer (105) während des Dialogs; und  - aligning (510) the reference mark (155) with the user (105) during the dialogue; and
- Steuern des Hausgeräts (1 10) auf der Basis des Dialogs.  - controlling the household appliance (1 10) based on the dialogue.
Verfahren (500) nach einem der vorangehenden Ansprüche, wobei der Dialog wenigstens eine natürlichsprachige Äußerung des Benutzers (105) und eine Method (500) according to one of the preceding claims, wherein the dialogue comprises at least one natural-language utterance of the user (105) and a
natürlichsprachige Äußerung der Vorrichtung (100) umfasst und die beiden Äußerun- gen miteinander in Kontext stehen. natural language utterance of the device (100) and the two utterances be in context with each other.
10. Verfahren (500) nach einem der vorangehenden Ansprüche, wobei das Erfassen des Beginns des Dialogs das Erfassen (502) eines vom Benutzer (105) gesprochenen Schlüsselworts umfasst. The method (500) of any one of the preceding claims, wherein detecting the beginning of the dialog comprises detecting (502) a keyword spoken by the user (105).
1 1 . Verfahren (500) nach einem der vorangehenden Ansprüche, ferner umfassend das Bestimmen des Endes des Dialogs und des Aufhebens der Ausrichtung der Referenzmarke (155) auf den Benutzer (105). 1 1. The method (500) of any one of the preceding claims, further comprising determining the end of the dialogue and deselecting the alignment of the reference mark (155) with the user (105).
12. Verfahren (500) nach einem der vorangehenden Ansprüche, wobei der Dialog als beendet bestimmt wird, wenn länger als eine vorbestimmte Dauer keine The method (500) according to one of the preceding claims, wherein the dialogue is determined to have ended when no longer than a predetermined duration
natürlichsprachige Äußerung mit dem Benutzer (105) ausgetauscht wurde.  natural language utterance was exchanged with the user (105).
13. Hausgerät (1 10) mit einer Vorrichtung (100) nach einem der Ansprüche 1 bis 7. 13. domestic appliance (1 10) with a device (100) according to one of claims 1 to 7.
PCT/EP2017/071337 2016-08-31 2017-08-24 Interactive control device WO2018041711A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102016216409.0A DE102016216409A1 (en) 2016-08-31 2016-08-31 Interactive control device
DE102016216409.0 2016-08-31

Publications (1)

Publication Number Publication Date
WO2018041711A1 true WO2018041711A1 (en) 2018-03-08

Family

ID=59761940

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2017/071337 WO2018041711A1 (en) 2016-08-31 2017-08-24 Interactive control device

Country Status (2)

Country Link
DE (1) DE102016216409A1 (en)
WO (1) WO2018041711A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114690909A (en) * 2022-06-01 2022-07-01 润芯微科技(江苏)有限公司 AI visual self-adaption method, device, system and computer readable medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018214417B3 (en) 2018-08-27 2019-07-25 Volkswagen Aktiengesellschaft Method for programming a robot as well as computing device and computer program
EP3636391B1 (en) 2018-10-11 2022-12-28 BSH Hausgeräte GmbH Joint and household assistant

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007041295A2 (en) * 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
US20100023163A1 (en) 2008-06-27 2010-01-28 Kidd Cory D Apparatus and Method for Assisting in Achieving Desired Behavior Patterns
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004047940A1 (en) 2002-11-26 2004-06-10 Ramin Assisi Device for orienting doll's eyes
US7349758B2 (en) 2003-12-18 2008-03-25 Matsushita Electric Industrial Co., Ltd. Interactive personalized robot for home use
JP4595436B2 (en) 2004-03-25 2010-12-08 日本電気株式会社 Robot, control method thereof and control program
JP4857242B2 (en) 2007-11-05 2012-01-18 株式会社日立製作所 robot
US20150138333A1 (en) 2012-02-28 2015-05-21 Google Inc. Agent Interfaces for Interactive Electronics that Support Social Cues

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007041295A2 (en) * 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
US20100023163A1 (en) 2008-06-27 2010-01-28 Kidd Cory D Apparatus and Method for Assisting in Achieving Desired Behavior Patterns
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114690909A (en) * 2022-06-01 2022-07-01 润芯微科技(江苏)有限公司 AI visual self-adaption method, device, system and computer readable medium
CN114690909B (en) * 2022-06-01 2022-08-16 润芯微科技(江苏)有限公司 AI visual self-adaption method, device, system and computer readable medium

Also Published As

Publication number Publication date
DE102016216409A1 (en) 2018-03-01

Similar Documents

Publication Publication Date Title
DE102018109463B3 (en) Method for using a multi-unit actuated kinematics, preferably a robot, particularly preferably an articulated robot, by a user by means of a mobile display device
WO2018041711A1 (en) Interactive control device
EP2457679B1 (en) Method of simulating a welding process
DE202009018950U1 (en) welding simulator
WO2017060538A1 (en) Robot system and method for controlling a robot system
WO2002050649A2 (en) User-controlled link of information within an augmented reality system
DE102005009437A1 (en) Method and device for fading AR objects
EP3515371A1 (en) Prosthesis that can be actuated by external force
DE102009035360A1 (en) Medical training device
DE102006059380A1 (en) Medical robot system providing a three-dimensional telestration
EP3108789A1 (en) Support for surface cleaning
DE112017003723B4 (en) Improved control of a robotic prosthesis through a cognitive system
DE102013017425A1 (en) Method for detecting gestures of a human body
EP3763259B1 (en) Control of a household appliance
DE102019125117B4 (en) Visually guided robotic arm and method of operating the same
CH709251A2 (en) Method and apparatus for telepresence.
DE102011052836A1 (en) Interactive training system for rehabilitation of patients with movement impairments of extremities, has input and output units with part interacting with patient, so that physiotherapeutic training program is interactively completed
EP2455138A1 (en) Training system, mobile terminal and training method for a person
DE102016010284A1 (en) Robot system using a visual sensor
WO2018188892A1 (en) Workstation system and method for controlling a workstation system
DE102016216407A1 (en) Individual communication support
EP3027105A1 (en) Aid for providing imaging support to an operator during a surgical intervention
EP2697702B1 (en) Device and method for the gesture control of a screen in a control room
DE102016205849B4 (en) Virtual reality system and method for operating such
DE102021133625A1 (en) Method for planning movements to be carried out automatically by a robot arm guiding a massage device and associated robot system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17761217

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17761217

Country of ref document: EP

Kind code of ref document: A1