DE102016216409A1 - Interactive control device - Google Patents
Interactive control device Download PDFInfo
- Publication number
- DE102016216409A1 DE102016216409A1 DE102016216409.0A DE102016216409A DE102016216409A1 DE 102016216409 A1 DE102016216409 A1 DE 102016216409A1 DE 102016216409 A DE102016216409 A DE 102016216409A DE 102016216409 A1 DE102016216409 A1 DE 102016216409A1
- Authority
- DE
- Germany
- Prior art keywords
- user
- reference mark
- dialogue
- contraption
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Robotics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Mechanical Engineering (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Eine Vorrichtung zur Steuerung einer Interaktion zwischen einem Benutzer und einem Hausgerät umfasst einen Basisabschnitt; eine gegenüber dem Basisabschnitt bewegliche optische Referenzmarke, die dazu eingerichtet ist, dem Benutzer den optischen Eindruck eines Auges zu vermitteln; eine Kamera; eine akustischen Eingabevorrichtung; eine akustische Ausgabeeinrichtung; eine Schnittstelle zur Verbindung mit dem Hausgerät; und eine Verarbeitungseinrichtung. Die Verarbeitungseinrichtung ist dazu eingerichtet, den Beginn eines natürlichsprachigen Dialogs zwischen einem Benutzer und der Vorrichtung zu erfassen; ein Bild des Benutzers mittels der Kamera aufzunehmen; die Referenzmarke während des Dialogs auf den Benutzer auszurichten; und das Hausgerät mittels der Schnittstelle auf der Basis des Dialogs zu steuern.An apparatus for controlling an interaction between a user and a home appliance comprises a base portion; an optical reference mark movable relative to the base portion and arranged to convey the visual impression of an eye to the user; a camera; an acoustic input device; an acoustic output device; an interface for connection to the household appliance; and a processing device. The processing means is adapted to detect the beginning of a natural language dialogue between a user and the device; to take a picture of the user by means of the camera; align the reference mark to the user during the dialog; and control the home appliance via the interface based on the dialogue.
Description
Die Erfindung betrifft eine Vorrichtung zur Bedienung eines Hausgeräts. Insbesondere betrifft die Erfindung eine interaktive Vorrichtung, die zur Führung eines Dialogs mit einem Benutzer eingerichtet ist.The invention relates to a device for operating a household appliance. In particular, the invention relates to an interactive device adapted to maintain a dialogue with a user.
Stand der TechnikState of the art
Ein Hausgerät ist dazu eingerichtet, eine vorbestimmte Aufgabe innerhalb eines Haushalts zu erfüllen. Beispielsweise kann das Hausgerät einen Staubsauger, einen Herd oder eine Dunstabzugshaube umfassen. Einige Hausgeräte können autonom tätig werden und benötigen nur selten eine Ein- oder Ausgabe. Andere Hausgeräte müssen interaktiv gesteuert werden. Beispielsweise kann ein Staubsauger autonom ausgeführt sein, während ein Herd üblicherweise während des Kochens von einem Benutzer bedient werden muss.A home appliance is adapted to perform a predetermined task within a household. For example, the domestic appliance may comprise a vacuum cleaner, a stove or an extractor hood. Some home appliances can operate autonomously and rarely require input or output. Other home appliances must be interactively controlled. For example, a vacuum cleaner may be autonomous, while a cooker usually needs to be operated by a user during cooking.
Die Bedienung eines Hausgeräts kann schwierig sein, wenn der Benutzer beispielsweise schmutzige Hände hat, unter Zeitdruck steht oder mehrere Abläufe zu konzertieren versucht, die unterschiedliche Hausgeräte involvieren. Eine Möglichkeit der fortgeschrittenen Steuerung eines Hausgeräts umfasst eine Spracheingabe. Das Hausgerät kann eine Verarbeitungseinrichtung umfassen, die dazu eingerichtet ist, eine natürlichsprachige Anweisung des Benutzers in eine Steuerfunktion des Hausgeräts umzusetzen. In ähnlicher Weise kann beispielsweise ein Betriebszustand des Hausgeräts mittels einer entsprechenden Verarbeitungseinrichtung als gesprochener Text, eben natürlichsprachig, ausgegeben werden.The operation of a domestic appliance can be difficult if, for example, the user has dirty hands, is under time pressure or tries to concatenate several processes involving different household appliances. One option for advanced home appliance control includes voice input. The home appliance may comprise a processing device which is set up to convert a natural language instruction of the user into a control function of the domestic appliance. Similarly, for example, an operating state of the domestic appliance by means of a corresponding processing device as a spoken text, just natural language, are output.
Trotzdem ist die Interaktion zwischen dem Benutzer und dem Hausgerät oft schwierig. Beispielsweise ist nicht immer klar, wann das Hausgerät eine Eingabe erwartet, ob es die Eingabe verstanden hat oder eine Tätigkeit ausführt, die der vom Benutzer beabsichtigten Tätigkeit entspricht.Nevertheless, the interaction between the user and the home appliance is often difficult. For example, it is not always clear when the home appliance is expecting an input, whether it has understood the input, or is performing an activity that corresponds to the activity intended by the user.
Eine der vorliegenden Erfindung zugrunde liegende Aufgabe besteht darin, eine Technik anzugeben, die eine verbesserte Interaktion zwischen einem Benutzer und einem Hausgerät erlaubt. Die Erfindung löst diese Aufgabe mittels der Gegenstände der unabhängigen Ansprüche. Unteransprüche geben bevorzugte Ausführungsformen wieder.It is an object of the present invention to provide a technique that allows for improved interaction between a user and a home appliance. The invention solves this problem by means of the subjects of the independent claims. Subclaims give preferred embodiments again.
Offenbarung der ErfindungDisclosure of the invention
Eine erfindungsgemäße Vorrichtung zur Steuerung einer Interaktion zwischen einem Benutzer und einem Hausgerät umfasst einen Basisabschnitt; eine gegenüber dem Basisabschnitt bewegliche optische Referenzmarke, die dazu eingerichtet ist, dem Benutzer den optischen Eindruck eines Auges zu vermitteln; eine Kamera; eine akustische Eingabevorrichtung; eine akustische Ausgabeeinrichtung; eine Schnittstelle zur Verbindung mit dem Hausgerät und eine Verarbeitungseinrichtung. Die Verarbeitungseinrichtung ist dazu eingerichtet, den Beginn eines natürlichsprachigen Dialogs zwischen einem Benutzer und der Vorrichtung zu erfassen; ein Bild des Benutzers mittels der Kamera aufzunehmen; die Referenzmarke während des Dialogs auf den Benutzer auszurichten; und das Hausgerät mittels der Schnittstelle auf der Basis des Dialogs zu steuern.A device according to the invention for controlling an interaction between a user and a household appliance comprises a base section; an optical reference mark movable relative to the base portion and arranged to convey the visual impression of an eye to the user; a camera; an acoustic input device; an acoustic output device; an interface for connection to the household appliance and a processing device. The processing means is adapted to detect the beginning of a natural language dialogue between a user and the device; to take a picture of the user by means of the camera; align the reference mark to the user during the dialog; and control the home appliance via the interface based on the dialogue.
Die Vorrichtung kann es erlauben, den Dialog mit dem Benutzer optisch zu unterstützen und zu gestalten. Dadurch kann der Dialog intuitiver gestaltet werden und das Einlernen bestimmter Dialogmuster durch den Benutzer kann entfallen. Durch das Ausrichten der Referenzmarke auf den Benutzer kann sich bei diesem automatisch der Eindruck von Aufmerksamkeit einstellen, sodass er weiß, dass er sich in einem Dialog befindet. Der Benutzer kann dann verbessert eine Anweisung aussprechen, die mittels der Vorrichtung verarbeitet werden kann. Umgekehrt kann das Abwenden der Referenzmarke vom Benutzer diesem signalisieren, dass gerade kein Dialog stattfindet. Dadurch kann eine unmittelbare Rückmeldung an den Benutzer erfolgen, dass eine eventuelle sprachliche Äußerung von ihm nicht verarbeitet und nicht als Anweisung interpretiert wird. Das Gefühl einer Überwachung kann sich daher beim Benutzer nicht einstellen.The device may allow to visually support and design the dialogue with the user. As a result, the dialogue can be made more intuitive and the teaching of certain dialog patterns by the user can be omitted. By aligning the reference mark with the user, it can automatically give the impression of attention, so that he knows that he is in a dialogue. The user can then improve an instruction that can be processed by the device. Conversely, turning away the reference mark from the user can signal to the user that no dialogue is currently taking place. This allows an immediate feedback to the user that a possible linguistic utterance is not processed by him and is not interpreted as an instruction. The feeling of surveillance therefore can not be adjusted by the user.
Bevorzugt ist die Verarbeitungseinrichtung weiter dazu eingerichtet, auf der Grundlage des Bildes ein Auge des Benutzers zu erfassen und die Referenzmarke auf das Auge des Benutzers auszurichten. Dadurch kann sich ein verstärkter Eindruck des Blickkontakts zwischen der Vorrichtung und dem Benutzer einstellen. In weiteren Ausführungsformen kann durch die Art der Darstellung der Referenzmarke der Dialog zusätzlich verfestigt werden. Beispielsweise kann der optische Eindruck des Auges derart verändert werden, dass einfache Gefühle wie Aufmerksamkeit, Abwesenheit, Konzentration etc. dialogunterstützend dargestellt werden.Preferably, the processing device is further configured to capture an eye of the user based on the image and to align the reference mark with the user's eye. This can give an enhanced impression of the visual contact between the device and the user. In further embodiments, the dialogue can be additionally solidified by the way the reference mark is displayed. For example, the visual impression of the eye can be changed in such a way that simple feelings such as attention, absence, concentration, etc. are displayed in a supportive manner.
In noch einer weiteren Ausführungsform umfasst die Vorrichtung einen Kopfabschnitt, der in wenigstens einer Dimension gegenüber dem Basisabschnitt beweglich ist und an dem die Referenzmarke angebracht ist. Dabei ist die Verarbeitungseinrichtung dazu eingerichtet, den Kopfabschnitt gegenüber dem Basisabschnitt und die Referenzmarke gegenüber dem Kopfabschnitt zu bewegen, um die Referenzmarke auf den Benutzer auszurichten. Gegebenenfalls wird die Referenzmarke auf ein Auge des Benutzers ausgerichtet, wie oben erläutert wurde. Durch den Kopfabschnitt kann sich verstärkt der Eindruck eines verständigen Wesens beim Benutzer einstellen, sodass beispielsweise Vorbehalte des Benutzers gegenüber einer technischen Einrichtung den Dialog nicht trüben können.In yet another embodiment, the apparatus includes a head portion that is movable in at least one dimension relative to the base portion and to which the reference mark is attached. It is the Processing means adapted to move the head portion relative to the base portion and the reference mark relative to the head portion to align the reference mark on the user. Optionally, the reference mark is aligned with an eye of the user, as explained above. Through the head section, the impression of an understanding being with the user can increase, so that, for example, reservations of the user with respect to a technical device can not tarnish the dialogue.
In einer ersten Variante ist die Referenzmarke dreidimensional ausgebildet und es ist eine Antriebseinrichtung zur Bewegung der Referenzmarke vorgesehen. Eine realistische Darstellung eines Auges kann so einfach verwendet werden, um die oben beschriebene Fixierung auf den Benutzer zu realisieren. Eine graphische Anzeigeeinrichtung ist nicht erforderlich. Ist trotzdem eine graphische Anzeigeeinrichtung vorgesehen, so kann diese zur Ausgabe anderer Informationen verwendet werden, insbesondere bildlicher oder textueller Informationen.In a first variant, the reference mark is formed three-dimensionally and a drive device is provided for moving the reference mark. A realistic representation of an eye can be used so easily to realize the above-described fixation on the user. A graphic display is not required. If, nevertheless, a graphical display device is provided, it can be used to output other information, in particular visual or textual information.
In einer anderen Variante umfasst die Vorrichtung eine zweidimensionale graphische Anzeigeeinrichtung, und die Verarbeitungseinrichtung ist dazu eingerichtet, die Referenzmarke auf der Anzeigeeinrichtung darzustellen und auszurichten. In dieser Variante kann eine erhöhte Flexibilität bei der Darstellung der Referenzmarke erzielt werden. Insbesondere können einfache Gefühle verbessert simuliert werden, indem die Darstellung der Referenzmarke entsprechend angepasst wird.In another variant, the device comprises a two-dimensional graphic display device, and the processing device is configured to display and align the reference mark on the display device. In this variant, increased flexibility in the representation of the reference mark can be achieved. In particular, simple feelings can be simulated better by adjusting the representation of the reference mark accordingly.
Die akustische Eingabevorrichtung kann ein Mikrofon-Array umfassen, mit dessen Hilfe eine akustische Position des Benutzers bestimmt werden kann. Vorzugsweise ist dann die Kamera dafür eingerichtet, in einem vorbestimmten Fenster um die bestimmte akustische Position des Benutzers verschwenkt zu werden, um ein Gesicht des Benutzers zu finden.The acoustic input device may comprise a microphone array with the aid of which an acoustic position of the user can be determined. Preferably, the camera is then adapted to be pivoted in a predetermined window around the user's particular acoustic position to find a user's face.
Eine Vorrichtung zur Steuerung einer Interaktion zwischen einem Benutzer und einem Hausgerät umfasst eine optische Referenzmarke, die dazu eingerichtet ist, beim Benutzer den optischen Eindruck eines Auges zu vermitteln. Ein erfindungsgemäßes Verfahren zum Steuern der Vorrichtung umfasst Schritte des Erfassens des Beginns eines natürlichsprachigen Dialogs zwischen dem Benutzer und der Vorrichtung; des Abtastens eines Bildes des Benutzers; des Ausrichtens der Referenzmarke auf den Benutzer während des Dialogs und des Steuerns des Hausgeräts auf der Basis des Dialogs.An apparatus for controlling an interaction between a user and a home appliance includes an optical reference mark arranged to convey to the user the visual impression of an eye. A method of controlling the device according to the invention comprises steps of detecting the beginning of a natural language dialogue between the user and the device; scanning an image of the user; aligning the reference mark to the user during the dialogue and controlling the home appliance based on the dialogue.
Das erfindungsgemäße Verfahren kann insbesondere auf der oben beschriebenen Vorrichtung ablaufen. Dazu kann die Vorrichtung eine Verarbeitungseinrichtung aufweisen, die einen programmierbaren Mikrocomputer oder Mikrocontroller umfasst. Das Verfahren kann dabei insbesondere als Computerprogrammprodukt mit Programmcodemitteln realisiert sein. Das Verfahren kann zur Steuerung eines oder mehrerer Hausgeräte verwendet werden. Es ist bevorzugt, dass das Verfahren zusätzlich das Umwandeln einer natürlichsprachigen Eingabe des Benutzers in ein maschinenverständliches Signal und/oder das Umwandeln eines maschinenverständlichen Signals in eine natürlichsprachige Äußerung an den Benutzer durchführt. Dadurch kann das Verfahren verbessert die Interaktion zwischen dem Benutzer und einer Vorrichtung steuern, während eine Gerätefunktion eines Hausgeräts auf bekannte Weise maschinell gesteuert wird. Die maschinelle Steuerung kann insbesondere das Austauschen von Status-, Befehls- oder Anforderungsinformationen umfassen.The method according to the invention can be carried out in particular on the device described above. For this purpose, the device may have a processing device which comprises a programmable microcomputer or microcontroller. The method can be realized in particular as a computer program product with program code means. The method can be used to control one or more domestic appliances. It is preferred that the method additionally performs transforming a natural language input of the user into a machine intelligible signal and / or converting a machine intelligible signal to a natural language utterance to the user. Thereby, the method can more effectively control the interaction between the user and a device, while a device function of a domestic appliance is mechanically controlled in a known manner. In particular, the machine controller may include the exchange of status, command or request information.
Der Dialog umfasst bevorzugt wenigstens eine natürlichsprachige Äußerung des Benutzers und eine natürlichsprachige Äußerung der Vorrichtung, wobei die beiden Äußerungen miteinander in Kontext stehen. Beispielsweise kann der Benutzer eine Anforderung äußern, worauf verfahrensgemäß eine Bestätigung der verstandenen Anforderung zurückgegeben wird. In einem anderen Beispiel kann der Benutzer einen Gerätezustand des Hausgeräts anfordern und verfahrensgemäß wird der Gerätezustand beschafft und natürlichsprachig ausgegeben.The dialogue preferably comprises at least one natural language utterance of the user and a natural language utterance of the device, the two utterances being related to each other. For example, the user may issue a request, which, according to the method, returns an acknowledgment of the understood request. In another example, the user may request a device state of the home appliance, and according to the method, the device state is obtained and output in natural language.
Der Beginn des Dialogs kann erfasst werden, nachdem ein vom Benutzer gesprochenes Schlüsselwort erfasst wurde. Das Schlüsselwort kann fest vorgegeben sein und beispielsweise eine Bezeichnung einer das Verfahren durchführenden Vorrichtung umfassen. In einer anderen Ausführungsform kann das Schlüsselwort durch den Benutzer vorgegeben sein.The beginning of the dialogue can be detected after a user-spoken keyword has been captured. The keyword may be fixed and may include, for example, a name of a device performing the method. In another embodiment, the keyword may be predetermined by the user.
Es ist weiterhin bevorzugt, dass das Ausrichten der Referenzmarke auf den Benutzer aufgehoben wird, wenn das Ende des Dialogs bestimmt wurde. Ein Eindruck des Beobachtetwerdens durch den Benutzer kann dadurch vermieden werden. Durch das verbesserte Abgrenzen einer Dialogphase von einer dialogfreien Phase kann die Interaktion des Benutzers mit dem Verfahren bzw. einer ausführenden Vorrichtung insgesamt verbessert werden.It is further preferred that the alignment of the reference mark with the user be canceled when the end of the dialogue has been determined. An impression of being observed by the user can thereby be avoided. The improved delimitation of a dialog phase from a dialog-free phase can improve the user's overall interaction with the method or an executing device.
Der Dialog wird bevorzugt als beendet bestimmt, wenn länger als eine vorbestimmte Dauer keine natürlichsprachige Äußerung mit dem Benutzer ausgetauscht wurde. Dabei kann die Äußerung alternativ seitens des Verfahrens bzw. der ausführenden Vorrichtung oder seitens des Benutzers erfolgen. In einer alternativen Ausführungsform kann der Dialog auch als beendet bestimmt werden, wenn dies aus dem Dialog bzw. der Abfolge der natürlichsprachigen Äußerungen hervorgeht.The dialogue is preferably determined to have ended when no natural language utterance has been exchanged with the user for longer than a predetermined period. The utterance can alternatively be made by the method or the executing device or by the user. In an alternative embodiment, the dialogue may also be determined to have ended when it emerges from the dialogue or sequence of natural language utterances.
Zusätzlich umfasst die Erfindung ein Hausgerät mit einer erfindungsgemäßen Vorrichtung. In addition, the invention comprises a domestic appliance with a device according to the invention.
Die Erfindung wurde mit Bezug auf eine Vorrichtung, ein Hausgerät sowie ein Verfahren erläutert. Sofern nichts Anderes angegeben ist, sind Merkmale einer Anspruchskategorie analog auf die anderen Anspruchskategorien anwendbar.The invention has been explained with reference to a device, a domestic appliance and a method. Unless otherwise specified, features of one claim category are analogously applicable to the other claim categories.
Kurze Beschreibung der FigurenBrief description of the figures
Die Erfindung wird nun unter Bezug auf die beiliegenden Figuren genauer beschrieben, in denen:The invention will now be described in more detail with reference to the attached figures, in which:
Genaue Beschreibung eines AusführungsbeispielsDetailed description of an embodiment
Die Vorrichtung
Am Basisabschnitt
Die Vorrichtung
Es ist weiterhin bevorzugt, dass die Vorrichtung
Die Referenzmarke
In weiteren Ausführungsformen können noch weitere Elemente von Augen oder einer Augenpartie, die beispielsweise oben mit Bezug auf
In
In einem Schritt
In einem Schritt
In einem Schritt
Wurde im Schritt
In einem Schritt
Wird im Schritt
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 100100
- Vorrichtung contraption
- 105105
- Benutzer user
- 110110
- Hausgerät household appliance
- 115115
- Schnittstelle interface
- 120120
- Verarbeitungseinrichtung processing device
- 125125
- akustische Eingabevorrichtung acoustic input device
- 130130
- akustische Ausgabevorrichtung acoustic output device
- 135135
- Schnittstelle interface
- 140140
- Basisabschnitt base section
- 145145
- Kopfabschnitt header
- 150150
- Antriebseinrichtung driving means
- 155155
- Referenzmarke reference mark
- 160160
- Anzeigeeinrichtung display
- 165165
- Kamera camera
- 170170
- Auge des Benutzers Eye of the user
- 305305
- Augapfel eyeball
- 310310
- Iris iris
- 315315
- Pupille pupil
- 320320
- oberes Augenlid upper eyelid
- 325325
- unteres Augenlid lower eyelid
- 330330
- Wimper eyelash
- 335335
- Augenbraue eyebrow
- 500500
- Verfahren method
- 502502
- Schlüsselwort erfasst Keyword captured
- 504504
- Benutzer bekannt? User known?
- 506506
- setzen Marke user_detectable put brand user_detectable
- 508508
- Bestimmen akustische Richtung des Benutzers Determine acoustic direction of the user
- 510510
- Kopfabschnitt schwenken, Kamerabild erstellen Swivel head section, create camera image
- 512512
- Gesicht erkannt? Face recognized?
- 514 514
- Bestimmen rel. Position des Benutzers aus Kamerabild Determine rel. Position of the user from camera image
- 516516
- Ausrichten Referenzmarke Align reference mark
- 518518
- Benutzer verfolgen Track users
- 520520
- Äußerung Benutzer erfassen Capture user input
- 522522
- Schallquelle Äußerung bestimmen Determine sound source expression
- 524524
- Positionen fusionieren Merge positions
- 526526
- Ausrichtung justieren Adjust alignment
- 528528
- Marke user_detectable gesetzt? Brand user_detectable set?
- 530530
- Kamera in vorbestimmtem Fenster bewegen Move the camera in a predetermined window
- 532532
- Gesicht erkannt? Face recognized?
- 534534
- Fenster komplett durchsucht? Searched the window completely?
- 536536
- c = 0 c = 0
- 538538
- Frage an Benutzer Question to user
- 540540
- Antwort auswerten Evaluate answer
- 542542
- user_detectable = 0 user_detectable = 0
- 544544
- warten waiting
- 546546
- c = 3? c = 3?
- 548548
- Ende The End
- 550550
- c = 0 c = 0
- 552552
- Benutzer bitten, Schlüsselwort zu wiederholen Ask user to repeat keyword
- 554554
- Schlüsselwort gesprochen? Keyword spoken?
- 556556
- warten waiting
- 558558
- c = 3? c = 3?
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 2010/0023163 A1 [0005] US 2010/0023163 A1 [0005]
Claims (13)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016216409.0A DE102016216409A1 (en) | 2016-08-31 | 2016-08-31 | Interactive control device |
PCT/EP2017/071337 WO2018041711A1 (en) | 2016-08-31 | 2017-08-24 | Interactive control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016216409.0A DE102016216409A1 (en) | 2016-08-31 | 2016-08-31 | Interactive control device |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102016216409A1 true DE102016216409A1 (en) | 2018-03-01 |
Family
ID=59761940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102016216409.0A Pending DE102016216409A1 (en) | 2016-08-31 | 2016-08-31 | Interactive control device |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102016216409A1 (en) |
WO (1) | WO2018041711A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018214417B3 (en) | 2018-08-27 | 2019-07-25 | Volkswagen Aktiengesellschaft | Method for programming a robot as well as computing device and computer program |
EP3636391A1 (en) | 2018-10-11 | 2020-04-15 | BSH Hausgeräte GmbH | Joint and household assistant |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114690909B (en) * | 2022-06-01 | 2022-08-16 | 润芯微科技(江苏)有限公司 | AI visual self-adaption method, device, system and computer readable medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004047940A1 (en) | 2002-11-26 | 2004-06-10 | Ramin Assisi | Device for orienting doll's eyes |
US20050137747A1 (en) | 2003-12-18 | 2005-06-23 | Miro Xavier A. | Interactive personalized robot for home use |
US20050215171A1 (en) | 2004-03-25 | 2005-09-29 | Shinichi Oonaka | Child-care robot and a method of controlling the robot |
US20090118865A1 (en) | 2007-11-05 | 2009-05-07 | Hitachi, Ltd. | Robot |
US20100023163A1 (en) | 2008-06-27 | 2010-01-28 | Kidd Cory D | Apparatus and Method for Assisting in Achieving Desired Behavior Patterns |
US20150138333A1 (en) | 2012-02-28 | 2015-05-21 | Google Inc. | Agent Interfaces for Interactive Electronics that Support Social Cues |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8583282B2 (en) * | 2005-09-30 | 2013-11-12 | Irobot Corporation | Companion robot for personal interaction |
US20150314454A1 (en) * | 2013-03-15 | 2015-11-05 | JIBO, Inc. | Apparatus and methods for providing a persistent companion device |
-
2016
- 2016-08-31 DE DE102016216409.0A patent/DE102016216409A1/en active Pending
-
2017
- 2017-08-24 WO PCT/EP2017/071337 patent/WO2018041711A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004047940A1 (en) | 2002-11-26 | 2004-06-10 | Ramin Assisi | Device for orienting doll's eyes |
US20050137747A1 (en) | 2003-12-18 | 2005-06-23 | Miro Xavier A. | Interactive personalized robot for home use |
US20050215171A1 (en) | 2004-03-25 | 2005-09-29 | Shinichi Oonaka | Child-care robot and a method of controlling the robot |
US20090118865A1 (en) | 2007-11-05 | 2009-05-07 | Hitachi, Ltd. | Robot |
US20100023163A1 (en) | 2008-06-27 | 2010-01-28 | Kidd Cory D | Apparatus and Method for Assisting in Achieving Desired Behavior Patterns |
US20150138333A1 (en) | 2012-02-28 | 2015-05-21 | Google Inc. | Agent Interfaces for Interactive Electronics that Support Social Cues |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018214417B3 (en) | 2018-08-27 | 2019-07-25 | Volkswagen Aktiengesellschaft | Method for programming a robot as well as computing device and computer program |
US11491652B2 (en) | 2018-08-27 | 2022-11-08 | Volkswagen Aktiengesellschaft | Method for programming robots and computing device and computer program |
EP3636391A1 (en) | 2018-10-11 | 2020-04-15 | BSH Hausgeräte GmbH | Joint and household assistant |
Also Published As
Publication number | Publication date |
---|---|
WO2018041711A1 (en) | 2018-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19953835C1 (en) | Computer-aided method for contactless, video-based gaze direction determination of a user's eye for eye-guided human-computer interaction and device for carrying out the method | |
DE10063089C1 (en) | User-controlled linking of information within an augmented reality system | |
DE60014833T2 (en) | language processing | |
DE2264123C3 (en) | Method for the computer-aided generation of trick sequence projection images of multi-dimensional objects | |
DE102016216409A1 (en) | Interactive control device | |
DE202009018950U1 (en) | welding simulator | |
DE102005009437A1 (en) | Method and device for fading AR objects | |
AT507538A1 (en) | METHOD AND DEVICE FOR CONTROLLING THE SIMULATION OF A WELDING PROCESS | |
WO2018054945A1 (en) | Prosthesis that can be actuated by external force | |
DE102013017425A1 (en) | Method for detecting gestures of a human body | |
DE112017003723B4 (en) | Improved control of a robotic prosthesis through a cognitive system | |
EP3108789A1 (en) | Support for surface cleaning | |
CH709251A2 (en) | Method and apparatus for telepresence. | |
DE102011052836A1 (en) | Interactive training system for rehabilitation of patients with movement impairments of extremities, has input and output units with part interacting with patient, so that physiotherapeutic training program is interactively completed | |
DE10215885A1 (en) | Automatic process control | |
EP3470919A1 (en) | Household assistant with projector | |
EP3609366A1 (en) | Workstation system and method for controlling a workstation system | |
EP2317910A1 (en) | Method for visualizing multi-channel signals | |
DE102016205849B4 (en) | Virtual reality system and method for operating such | |
DE102014018423B4 (en) | Motor vehicle with a status display that can be interpreted by peripheral vision and a corresponding method | |
DE102021133625A1 (en) | Method for planning movements to be carried out automatically by a robot arm guiding a massage device and associated robot system | |
DE102014115992A1 (en) | Method for recording, selecting and editing at least one video sequence | |
DE102004028082A1 (en) | Household appliance e.g. oven, has detection device for evaluating image signal in order to identify sound spoken by operator, and outputting control commands to control unit, such that control unit controls function unit accordingly | |
DE102011017305A1 (en) | Operating and monitoring system for technical installations | |
DE102007057924A1 (en) | Force-feedback-control element providing method for use by blind person or visually handicapped person, involves adopting force-feedback-control element or object in principle arbitrary form while areas are large to detect controller |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06F0003000000 Ipc: G06F0003010000 |
|
R016 | Response to examination communication |