DE102016124906A1 - Method of controlling a floor care appliance and floor care appliance - Google Patents

Method of controlling a floor care appliance and floor care appliance Download PDF

Info

Publication number
DE102016124906A1
DE102016124906A1 DE102016124906.8A DE102016124906A DE102016124906A1 DE 102016124906 A1 DE102016124906 A1 DE 102016124906A1 DE 102016124906 A DE102016124906 A DE 102016124906A DE 102016124906 A1 DE102016124906 A1 DE 102016124906A1
Authority
DE
Germany
Prior art keywords
signal
gesture
floor care
face
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102016124906.8A
Other languages
German (de)
Inventor
Eckard Riedenklau
Seyfettin Kara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Miele und Cie KG
Original Assignee
Miele und Cie KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Miele und Cie KG filed Critical Miele und Cie KG
Priority to DE102016124906.8A priority Critical patent/DE102016124906A1/en
Publication of DE102016124906A1 publication Critical patent/DE102016124906A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Der hier vorgestellte Ansatz betrifft ein Verfahren zum Steuern eines Bodenpflegegeräts (105). Das Verfahren umfasst zumindest einen Schritt des Einlesens, einen Schritt des Empfangens und einen Schritt des Ausgebens. Im Schritt des Einlesens wird ein Gesichtserkennungssignal (125) eingelesen, das zumindest ein in einem Kamerabild erkanntes Gesicht (130) einer Person (135) repräsentiert. Im Schritt des Empfangens wird zumindest ein Gestensignal (140) empfangen, das zumindest eine in einem weiteren oder dem Kamerabild erkannte Geste (145) der Person (135) repräsentiert. Im Schritt des Ausgebens wird ein Steuersignal (150) zum Steuern zumindest des Bodenpflegegeräts (105) unter Verwendung zumindest des Gestensignals (140) ausgegeben.The approach presented here relates to a method for controlling a floor care appliance (105). The method comprises at least a reading step, a receiving step and a step of outputting. In the read-in step, a face recognition signal (125) is read in which represents at least one face (130) of a person (135) recognized in a camera image. In the step of receiving, at least one gesture signal (140) is received, which represents at least one gesture (145) of the person (135) recognized in another or the camera image. In the step of outputting, a control signal (150) is output for controlling at least the floor care device (105) using at least the gesture signal (140).

Description

Der hier vorgestellte Ansatz betrifft ein Verfahren zum Steuern eines Bodenpflegegeräts und ein Bodenpflegegerät.The approach presented here relates to a method for controlling a floor care appliance and a floor care appliance.

Bodenpflegegeräte wie autonome Reinigungsroboter können durch Gesten von Personen gesteuert werden.Floor care equipment such as autonomous cleaning robots can be controlled by gestures from people.

Die DE 10 2012 105 608 A1 beschreibt ein selbstfahrendes Reinigungsgerät mit einem optischen Sensor und einem Steuergerät, das dazu ausgebildet ist, um das Reinigungsgerät unter Verwendung von erkannten Nutzergesten zu steuern.The DE 10 2012 105 608 A1 describes a self-propelled cleaning device having an optical sensor and a controller adapted to control the cleaning device using recognized user gestures.

Dem hier vorgestellten Ansatz liegt die Aufgabe zugrunde, ein verbessertes Verfahren zum Steuern eines Bodenpflegegeräts und ein verbessertes Bodenpflegegerät zu schaffen.The approach presented here is to provide an improved method of controlling a floor care appliance and an improved floor care appliance.

Erfindungsgemäß wird diese Aufgabe durch ein Verfahren zum Steuern eines Bodenpflegegeräts und ein Bodenpflegegerät und ein Bodenpflegegerät mit den Schritten bzw. Merkmalen der Hauptansprüche gelöst. Gegenstand des vorliegenden Ansatzes ist auch ein Computerprogramm. Vorteilhafte Ausgestaltungen und Weiterbildungen des Ansatzes ergeben sich aus den nachfolgenden Unteransprüchen.According to the invention, this object is achieved by a method for controlling a floor care appliance and a floor care appliance and a floor care appliance with the steps or features of the main claims. Subject of the present approach is also a computer program. Advantageous embodiments and further developments of the approach will become apparent from the following subclaims.

Die mit dem hier vorgestellten Ansatz erreichbaren Vorteile bestehen darin, dass eine an ein Bodenpflegegerät adressierte Geste einer Person durch eine Gesichtserkennung eindeutig erkannt werden kann.The advantages that can be achieved with the approach presented here are that a person's gesture addressed to a floor care device can be clearly recognized by a face recognition.

Ein Verfahren zum Steuern eines Bodenpflegegeräts umfasst zumindest einen Schritt des Einlesens, einen Schritt des Empfangens und einen Schritt des Ausgebens. Im Schritt des Einlesens wird ein Gesichtserkennungssignal eingelesen, das zumindest ein in einem Kamerabild erkanntes Gesicht einer Person repräsentiert. Im Schritt des Empfangens wird zumindest ein Gestensignal empfangen, das zumindest eine in einem weiteren oder dem Kamerabild erkannte Geste der Person repräsentiert. Im Schritt des Ausgebens wird ein Steuersignal zum Steuern zumindest des Bodenpflegegeräts unter Verwendung zumindest des Gestensignals ausgegeben.A method for controlling a floor care apparatus includes at least a reading step, a receiving step, and a step of outputting. In the reading-in step, a face recognition signal is read in which represents at least one face of a person recognized in a camera image. In the receiving step, at least one gesture signal is received which represents at least one person's gesture recognized in another or the camera image. In the step of outputting, a control signal for controlling at least the floor care apparatus is output using at least the gesture signal.

Bei dem Bodenpflegegerät kann es sich um ein hoch automatisiertes Bodenpflegegerät handeln, das selbstständig über einen zu pflegenden und/oder reinigenden Boden fährt. Hierbei kann es sich beispielsweise um einen Staubsaugerroboter handeln. Das hier vorgestellte Verfahren ermöglicht es vorteilhafterweise, dass eine durch eine Person ausgeführte Geste zum Steuern des Bodenpflegegeräts dienen kann. Das vorteilhafterweise zuvor eingelesene Gesichtserkennungssignal stellt hierbei sicher, dass die Geste auch tatsächlich an das Bodenpflegegerät gerichtet ist und nicht beispielsweise während eines Gesprächs mit einer anderen Person ausgeführt wurde.The floor care appliance can be a highly automated floor care appliance that autonomously travels over a floor to be cared for and / or cleaned. This may be, for example, a vacuum cleaner robot. The method presented here advantageously allows a gesture performed by a person to serve to control the floor care appliance. The advantageously previously read face recognition signal in this case ensures that the gesture is actually directed to the ground care device and was not executed, for example, during a conversation with another person.

Im Schritt des Einlesens kann ein Gesichtserkennungssignal eingelesen werden, das zumindest ein in dem Kamerabild erkanntes Gesicht der Person repräsentiert, bei dem eine Blickrichtung auf das Bodenpflegegerät gerichtet ist. Ein direkt auf das Bodenpflegegerät gerichteter Blick der Person kann ein besonders zuverlässiges Indiz dafür sein, dass die Person mit dem Bodenpflegegerät kommuniziert oder eine Kommunikation mit dem Bodenpflegegerät beabsichtigt. Der auf das Bodenpflegegerät gerichtete Blick liefert hiermit also eine für die Person einfach ausführbare und natürliche Möglichkeit, eine Ansteuerung des Bodenpflegegeräts einzuleiten.In the reading-in step, a facial recognition signal can be read in which represents at least one face of the person recognized in the camera image in which a viewing direction is directed to the floor care device. A person's gaze directed directly at the floor care appliance may be a particularly reliable indication that the person is communicating with the floor care appliance or intends to communicate with the floor care appliance. Thus, the gaze directed to the floor care appliance provides a natural and easy way for the person to initiate activation of the floor care appliance.

Im Schritt des Einlesens kann ein Gesichtserkennungssignal eingelesen werden, bei dem das Gesicht durch ein Eigengesichter-, engl. Eigenfaces-, und/oder Fisherfaces- und/oder Local Binary Pattern Histogram- und/oder Haar-Kaskaden-klassifizier-Verfahren erkannt wurde. Die hier beschriebenen Gesichtserkennungsverfahren sind zuverlässig und technisch einfach umsetzbar.In the reading-in step, a facial recognition signal may be read in which the face is read by a facial expression. Eigenfaces, and / or Fisherfaces and / or Local Binary Pattern Histogram and / or Hair Cascade Classification has been detected. The face recognition methods described here are reliable and technically easy to implement.

Im Schritt des Empfangens kann ein Gestensignal empfangen werden, bei dem die Geste eine Bewegung zumindest eines Teils einer Hand und/oder eines Teils eines Arms der Person repräsentiert. Eine solche Geste ist für die Person einfach und natürlich umsetzbar. Das Gestensignal kann hierbei beispielsweise eine Geste repräsentieren, bei der die Person den Arm in eine Richtung bewegt, in die das Bodenpflegegerät sich bewegen soll, oder bei der die Person das Bodenpflegegerät zu sich herwinkt.In the step of receiving, a gesture signal may be received, in which the gesture represents a movement of at least a part of a hand and / or part of an arm of the person. Such a gesture is simple and natural for the person. The gesture signal may in this case represent, for example, a gesture in which the person moves the arm in a direction in which the floor care appliance is to move, or in which the person waves the floor care appliance towards him.

Wenn das Verfahren gemäß einer vorteilhaften Ausführungsform einen Schritt des Festhaltens aufweist, in dem ansprechend auf den Schritt des Einlesens ein Festhaltesignal ausgegeben wird, das dazu ausgebildet ist, um zumindest eine Farbinformation des erkannten Gesichts auf dem Kamerabild festzuhalten, so kann die Hand und/oder der Arm anhand der Farbinformation des Gesichts einfach erkannt und/oder eine Bewegung der Hand oder des Arms nachverfolgt werden, beispielsweise durch einen Blob Detector.If, according to an advantageous embodiment, the method comprises a step of holding, in response to the step of reading in, outputting a holding signal designed to capture at least one color information of the detected face on the camera image, the hand and / or the arm can be easily recognized based on the color information of the face and / or a movement of the hand or arm can be tracked, for example by a blob detector.

Ansprechend auf den Schritt des Einlesens kann das Verfahren einen Schritt des Erzeugens aufweisen, in dem ein Suchsignal erzeugt wird, das dazu ausgebildet ist, um in einem Suchbereich nach der Geste zu suchen, insbesondere wobei im Schritt des Erzeugens ein Suchsignal erzeugt werden kann, das dazu ausgebildet ist, um in einem Suchbereich zu suchen, der in einem Verhältnis zu einer Position des erkannten Gesichts angeordnet ist. Ein derart definierter Suchbereich ist sinnvoll, da sich die Arme und/oder Hände der Person in einem abschätzbaren Abstand zu dem Gesicht befinden. Es kann somit sichergestellt werden, dass das Gesichtserkennungssignal und das Gestensignal von derselben Person eingelesen werden.In response to the reading step, the method may comprise a generating step of generating a search signal adapted to search for the gesture in a search area, in particular wherein a search signal may be generated in the step of generating is adapted to search in a search area which is arranged in relation to a position of the recognized face. Such a defined search area makes sense, as the arms and / or or the person's hands are within a predictable distance to the face. It can thus be ensured that the face recognition signal and the gesture signal are read in by the same person.

Es ist weiterhin von Vorteil, wenn das Verfahren gemäß einem weiteren Ausführungsbeispiel einen Schritt des Sendens umfasst, in dem ansprechend auf den Schritt des Einlesens ein Schwärzsignal gesendet wird, das dazu ausgebildet ist, um das erkannte Gesicht auf dem Kamerabild zu schwärzen. Dies kann verhindern, dass das Gesicht während des Schritts des Erzeugens, in dem nach der Geste der Hand und/oder des Arms gesucht wird, ebenfalls erkannt wird. Das Gesicht könnte in dem Suchbereich dabei ungewollterweise ebenfalls als Blob erkannt werden, wenn mittels des Blob Detektors gesucht wird.It is further advantageous if, according to a further embodiment, the method comprises a step of transmitting, in response to the step of reading, sending a black signal which is designed to blacken the detected face on the camera image. This can prevent the face from being also detected during the step of creating in which the gesture of the hand and / or the arm is sought. The face could also be unknowingly recognized as a blob in the search area when searching by means of the blob detector.

Im Schritt des Empfangens kann ein Gestensignal empfangen werden, das zumindest eine Trajektorie der Geste umfasst, insbesondere wobei im Schritt des Empfangens ein Gestensignal empfangen werden kann, das eine relativ zu dem erkannten Gesicht erfasste Trajektorie der Geste umfasst. Die Trajektorie kann hilfreich sein, um eine durch die Geste ausgedrückte, von der Person gewünschte Bewegung des Bodenpflegegeräts zu identifizieren und/oder um die Trajektorie mit einer Referenztrajektorie zu vergleichen. Eine zu dem Gesicht relative Trajektorie kann hierbei eine Orientierungshilfe bieten. Durch das Steuersignal kann im Folgenden vorteilhafterweise eine Bewegung des Bodenpflegegeräts veranlasst werden, die in einem Verhältnis zu der Trajektorie steht.In the step of receiving, a gesture signal may be received which comprises at least one trajectory of the gesture, in particular wherein in the step of receiving a gesture signal may be received comprising a trajectory of the gesture detected relative to the recognized face. The trajectory may be useful for identifying a movement of the floor care device expressed by the gesture, as expressed by the gesture, and / or for comparing the trajectory with a reference trajectory. A relative to the face trajectory can provide a guide. In the following, advantageously, the control signal can cause a movement of the floor care device that is in relation to the trajectory.

Das Verfahren kann zudem oder alternativ einen Schritt des Vergleichens aufweisen, in dem zumindest das Gestensignal mit zumindest einem Referenzgestensignal verglichen wird, das eine charakteristische Geste repräsentiert; insbesondere wobei das Steuersignal oder ein weiteres Steuersignal ausgegeben werden kann, wenn das Gestensignal in einem vorbestimmten Verhältnis zu dem Referenzgestensignal steht. Typische Gesten können so schnell und einfach und wenig rechenintensiv beispielsweise durch die Trajektorie erkannt werden. So kann beispielsweise durch eine erkannte Übereinstimmung zwischen dem Gestensignal und dem Referenzgestensignal eine Geste erkannt werden, der eine im Folgenden durch das Steuersignal ausgelöste oder auslösbare Bewegung des Bodenpflegegeräts zugeordnet ist.The method may additionally or alternatively comprise a step of comparing, in which at least the gesture signal is compared with at least one reference gesture signal representing a characteristic gesture; in particular, wherein the control signal or another control signal can be output when the gesture signal is in a predetermined relationship to the reference gesture signal. Typical gestures can be recognized so quickly and simply and with little computation, for example, by the trajectory. Thus, for example, by a recognized agreement between the gesture signal and the reference gesture signal, a gesture can be recognized, which is associated with a subsequently triggered by the control signal or triggerable movement of the ground care device.

Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control unit.

Der hier vorgestellte Ansatz schafft ferner ein Steuergerät, das ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einheiten durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante des Ansatzes in Form eines Steuergeräts kann die dem Ansatz zugrunde liegende Aufgabe schnell und effizient gelöst werden.The approach presented here also creates a control unit which is designed to execute, to control or to implement the steps of a variant of a method presented here in corresponding units. Also by this embodiment of the approach in the form of a controller, the task underlying the approach can be solved quickly and efficiently.

Hierzu kann das Steuergerät zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Steuersignalen an den Aktor und/oder zumindest eine Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann.For this purpose, the control unit can have at least one arithmetic unit for processing signals or data, at least one memory unit for storing signals or data, at least one interface to a sensor or an actuator for reading sensor signals from the sensor or for outputting control signals to the actuator and / or or at least a communication interface for reading or outputting data embedded in a communication protocol. The arithmetic unit may be, for example, a signal processor, a microcontroller or the like, wherein the memory unit may be a flash memory, an EPROM or a magnetic memory unit. The communication interface can be designed to read or output data wirelessly and / or by line, wherein a communication interface that can read or output line-bound data, for example, electrically or optically read this data from a corresponding data transmission line or output to a corresponding data transmission line.

Unter einem Steuergerät kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Das Steuergerät kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen des Steuergeräts beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.In the present case, a control device can be understood as meaning an electrical device which processes sensor signals and outputs control and / or data signals in dependence thereon. The control unit may have an interface, which may be formed in hardware and / or software. In the case of a hardware-based embodiment, the interfaces can be part of a so-called system ASIC, for example, which contains various functions of the control unit. However, it is also possible that the interfaces are their own integrated circuits or at least partially consist of discrete components. In a software training, the interfaces may be software modules that are present, for example, on a microcontroller in addition to other software modules.

In einer vorteilhaften Ausgestaltung erfolgt durch das Steuergerät eine Steuerung des Steuersignals. Hierzu kann das Steuergerät beispielsweise auf Sensorsignale wie das Gesichtserkennungssignal und das Gestensignal zugreifen. Die Ansteuerung erfolgt zumindest über Aktoren wie eine Einleseeinrichtung, eine Empfangseinrichtung und eine Ausgabeeinrichtung.In an advantageous embodiment, a control of the control signal is performed by the control unit. For this purpose, the control device can access, for example, sensor signals such as the face recognition signal and the gesture signal. The control is at least via actuators such as a read-in device, a receiving device and an output device.

Ein Bodenpflegegerät weist ein hier vorgestelltes Steuergerät auf. Vorteilhafterweise kann das Bodenpflegegerät auch eine Kamera aufweisen, um die Kamerabilder bereitzustellen. Ein solches Bodenpflegegerät kann als Ersatz für bekannte Bodenpflegegeräte dienen, wobei das hier vorgestellte Bodenpflegegerät vorteilhafterweise das zuvor vorgestellte Verfahren ausführen kann. A floor care appliance has a control unit presented here. Advantageously, the ground care device may also include a camera to provide the camera images. Such a floor care appliance can serve as a substitute for known floor care appliances, wherein the floor care appliance presented here can advantageously carry out the previously presented method.

Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.Also of advantage is a computer program product or computer program with program code which can be stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk memory or an optical memory and for carrying out, implementing and / or controlling the steps of the method according to one of the embodiments described above is used, especially when the program product or program is executed on a computer or a device.

Ausführungsbeispiele des Ansatzes sind in den Zeichnungen rein schematisch dargestellt und werden nachfolgend näher beschrieben. Es zeigtEmbodiments of the approach are shown purely schematically in the drawings and will be described in more detail below. It shows

1 eine schematische Darstellung eines Steuergeräts zum Steuern eines Bodenpflegegeräts gemäß einem Ausführungsbeispiel; 1 a schematic representation of a control device for controlling a floor care device according to an embodiment;

2 ein Ablaufdiagramm eines Verfahrens zum Steuern eines Bodenpflegegeräts gemäß einem Ausführungsbeispiel; 2 a flowchart of a method for controlling a floor care device according to an embodiment;

3 ein Ablaufdiagramm eines Verfahrens zum Steuern eines Bodenpflegegeräts gemäß einem weiteren Ausführungsbeispiel; 3 a flowchart of a method for controlling a floor care device according to another embodiment;

4 eine schematische Darstellung eines Kamerabilds zur Verdeutlichung eines Schritts des Bereitstellens eines Verfahrens zum Steuern eines Bodenpflegegeräts gemäß einem Ausführungsbeispiel; 4 a schematic representation of a camera image to illustrate a step of providing a method for controlling a floor care device according to an embodiment;

5 eine schematische Darstellung eines Kamerabilds zur Verdeutlichung eines Schritts des Einlesens eines Verfahrens zum Steuern eines Bodenpflegegeräts gemäß einem Ausführungsbeispiel; 5 a schematic representation of a camera image to illustrate a step of reading a method for controlling a floor care device according to an embodiment;

6 eine schematische Darstellung eines Kamerabilds zur Verdeutlichung eines Schritts des Schwärzens eines Verfahrens zum Steuern eines Bodenpflegegeräts gemäß einem Ausführungsbeispiel; und 6 a schematic representation of a camera image to illustrate a step of blackening a method for controlling a floor care device according to an embodiment; and

7 eine schematische Darstellung eines Kamerabilds zur Verdeutlichung eines Schritts des Empfangens eines Verfahrens zum Steuern eines Bodenpflegegeräts gemäß einem Ausführungsbeispiel. 7 a schematic representation of a camera image to illustrate a step of receiving a method for controlling a floor care device according to an embodiment.

1 zeigt eine schematische Darstellung eines Steuergeräts 100 zum Steuern eines Bodenpflegegeräts 105 gemäß einem Ausführungsbeispiel. Das Steuergerät 100 ist gemäß diesem Ausführungsbeispiel an dem Bodenpflegegerät 105 angeordnet und dazu ausgebildet, um das Bodenpflegegerät 105 zu steuern. Hierzu weist das Steuergerät 100 eine Einleseeinrichtung 110, eine Empfangseinrichtung 115 und eine Ausgabeeinrichtung 120 auf. Die Einleseeinrichtung 110 ist dazu ausgebildet, um zumindest ein Gesichtserkennungssignal 125 einzulesen, das zumindest ein in einem Kamerabild erkanntes Gesicht 130 einer Person 135 repräsentiert. Die Empfangseinrichtung 115 ist dazu ausgebildet, um zumindest ein Gestensignal 140 zu empfangen, das zumindest eine in einem weiteren oder dem Kamerabild erkannte Geste 145 der Person 135 repräsentiert. Die Ausgabeeinrichtung 120 ist dazu ausgebildet, um unter Verwendung zumindest des Gestensignals 140 ein Steuersignal 150 auszugeben, das dazu ausgebildet ist, um das Bodenpflegegerät 105 zu steuern. Gemäß diesem Ausführungsbeispiel ist das Steuersignal 150 dazu ausgebildet, um eine Bewegung des Bodenpflegegeräts 105 zu steuern. 1 shows a schematic representation of a control device 100 for controlling a floor care appliance 105 according to an embodiment. The control unit 100 is according to this embodiment of the floor care device 105 arranged and adapted to the floor care device 105 to control. For this purpose, the control unit 100 a reading device 110 , a receiving device 115 and an output device 120 on. The reading device 110 is adapted to at least one face recognition signal 125 read in, at least one recognized in a camera image face 130 one person 135 represents. The receiving device 115 is designed to be at least a gesture signal 140 to receive, at least one recognized in another or the camera image gesture 145 the person 135 represents. The output device 120 is adapted to use at least the gesture signal 140 a control signal 150 issued, which is adapted to the floor care device 105 to control. According to this embodiment, the control signal 150 designed to be a movement of the floor care device 105 to control.

Im Folgenden werden Ausführungsbeispiele anhand der 1 nochmals näher beschrieben:
In Haushalten wird häufig versehentlich etwas verschüttet, z. B. Zucker, Waschpulver, Blumenerde, etc., hilfreich wäre es nun, wenn eine Person 135 das Bodenpflegegerät 105, das auch als Reinigungsroboter bezeichnet werden kann, einfach herbeirufen könnte, jedoch ist häufig weder eine Fernbedienung noch ein Smartphone mit einer entsprechenden App für die Person 135 spontan griffbereit. Hier kann eine Gestensteuerung in Form von beispielsweise Herbeiwinken des Bodenpflegegeräts 105 helfen. Jedoch ist es technisch schwierig, zum einen Hände in wechselnden Beleuchtungssituationen korrekt zu erkennen und zum anderen Winkgesten, die das Bodenpflegegerät 105 adressieren, von Gesten, wie sie bei Gesprächen zwischen Personen durchgeführt werden, sicher zu unterscheiden. Das Bodenpflegegerät 105 soll schließlich nur dann reagieren, wenn es auch wirklich gemeint ist und sonst nicht – dies würde sonst unter Umständen sehr stören. Das hier vorgestellte Steuergerät 100 ist vorteilhafterweise durch die zusätzliche Gesichtserkennung dazu ausgebildet, um sicher zu erkennen, dass durch die Geste 145 tatsächlich das Bodenpflegegerät 105 durch die Geste 145 adressiert wird. Von Vorteil ist hierbei, dass Bodenpflegegeräte 105 häufig bereits über eine Kamera verfügen und somit kein zusätzliches Gerät zum Bereitstellen des Gesichtserkennungssignals 125 und/oder Gestensignals 140 vonnöten ist. Anders als bekannte Bodenpflegegeräte, die nicht unterscheiden können, ob mit einer Geste 145 das Bodenpflegegerät 105 oder eine andere Person gemeint ist, kann das hier vorgestellte Steuergerät 100 False-Positives vermeiden und somit im Alltag sehr nützlich sein.
In the following, embodiments are based on the 1 again described in more detail:
Households are often accidentally spilled something, such. As sugar, washing powder, potting soil, etc., it would be helpful if a person 135 the floor care device 105 which can also be called a cleaning robot, could easily summon, but is often neither a remote control nor a smartphone with a corresponding app for the person 135 spontaneously at hand. Here can be a gesture control in the form of, for example, waving the floor care device 105 help. However, it is technically difficult to properly recognize hands in changing lighting situations and, secondly, winking gestures that the floor care device 105 to distinguish from gestures, as they are performed in conversations between people, certainly distinguish. The floor care device 105 After all, it should only react if it is really meant and not otherwise - otherwise this would be very disturbing. The control unit presented here 100 is advantageously designed by the additional face recognition to reliably recognize that by the gesture 145 actually the floor care device 105 by the gesture 145 is addressed. The advantage here is that floor care equipment 105 often already have a camera and thus no additional device for providing the face recognition signal 125 and / or gesture signal 140 is needed. Unlike known floor care appliances that can not tell whether with a gesture 145 the floor care device 105 or another person is meant, the presented here control unit 100 Avoid false positives and thus be very useful in everyday life.

Als mittels einer Kamera erkennbarer Anhaltspunkt, dass die Person 135 das Bodenpflegegerät 105 adressiert, dient wie bereits erwähnt die Gesichtserkennung des Gesichts 130 der Person 135. Wenn Personen Kontakt zueinander aufbauen möchten, spielt Blickkontakt eine zentrale Rolle zur Steuerung der gegenseitigen Aufmerksamkeit. Dieser Mechanismus wird durch das hier vorgestellte Steuergerät 100 mithilfe der Gesichtserkennung genutzt. Hierbei gibt es verschiedene Möglichkeiten zur Detektion und Erkennung von Gesichtern 130, z. B. Eigenfaces, Fisherfaces, Local Binary Pattern Histograms und/oder Cascade Classifier wie einen Haar Cascade Classifier. Speziell die Haar Kaskaden bieten sich an, um auch entferntere Gesichter 130, und somit mit nur wenigen Pixeln zu erkennen, insbesondere auch unter wechselnden Beleuchtungssituationen. Gemäß einem Ausführungsbeispiel werden alle diese Gesichtserkennungs-Verfahren in einem Reinigungsroboter-Szenario des Bodenpflegegeräts 105 gegeneinander evaluiert, auch mit Blick auf eine Rechenlast. Vor allem beim Thema Rechenlast können auch Cloud-Lösungen oder andere Lösungen hilfreich sein, um die Gesichts- und/oder Gesten-Erkennung von dem Bodenpflegegerät 105 auszulagern. As by a camera recognizable clue that the person 135 the floor care device 105 addressed, serves as already mentioned the facial recognition of the face 130 the person 135 , When people want to connect with each other, eye contact plays a central role in controlling mutual attention. This mechanism is achieved by the control unit presented here 100 used with the face recognition. There are various ways to detect and recognize faces 130 , z. Eigenfaces, Fisherfaces, Local Binary Pattern Histograms and / or Cascade Classifiers like a Haar Cascade Classifier. Especially the hair cascades lend themselves to even more distant faces 130 , and thus with only a few pixels to recognize, especially under changing lighting situations. According to one embodiment, all of these face recognition methods are in a cleaning robot scenario of the floor care device 105 evaluated against each other, also with a view to a computational burden. Especially on the issue of compute load, cloud solutions or other solutions can be helpful to the face and / or gesture recognition of the floor care device 105 outsource.

2 zeigt ein Ablaufdiagramm eines Verfahrens 200 zum Steuern eines Bodenpflegegeräts gemäß einem Ausführungsbeispiel. Dabei kann es sich um ein Verfahren 200 handeln, das von dem anhand von 1 beschriebenen Steuergerät ausführbar ist. 2 shows a flowchart of a method 200 for controlling a floor care appliance according to an embodiment. This can be a procedure 200 act by the basis of 1 described control unit is executable.

Das Verfahren 200 umfasst zumindest einen Schritt 205 des Einlesens, einen Schritt 210 des Empfangens und einen Schritt 215 des Ausgebens. Im Schritt 205 des Einlesens wird ein Gesichtserkennungssignal eingelesen, das zumindest ein in einem Kamerabild erkanntes Gesicht einer Person repräsentiert. Im Schritt 210 des Empfangens wird zumindest ein Gestensignal empfangen, das zumindest eine in einem weiteren oder dem Kamerabild erkannte Geste der Person repräsentiert. Im Schritt 215 des Ausgebens wird ein Steuersignal zum Steuern zumindest des Bodenpflegegeräts unter Verwendung zumindest des Gestensignals ausgegeben.The procedure 200 includes at least one step 205 of reading in, one step 210 of receiving and one step 215 of spending. In step 205 During reading, a face recognition signal is read in which represents at least one face of a person recognized in a camera image. In step 210 the receiving is received at least one gesture signal representing at least one recognized in another or the camera image gesture of the person. In step 215 outputting, a control signal is output for controlling at least the floor care device using at least the gesture signal.

Gemäß diesem Ausführungsbeispiel wird im Schritt 205 des Einlesens ein Gesichtserkennungssignal eingelesen, das zumindest ein in dem Kamerabild erkanntes Gesicht der Person repräsentiert, bei dem eine Blickrichtung auf das Bodenpflegegerät gerichtet ist. Gemäß diesem Ausführungsbeispiel wird im Schritt 205 des Einlesens außerdem ein Gesichtserkennungssignal eingelesen, bei dem das Gesicht durch ein Eigengesichter- und/oder Fisherfaces- und/oder Local Binary Pattern Histogram- und/oder Haar-Kaskaden-klassifizier-Verfahren erkannt wurde.According to this embodiment, in step 205 reading in a face recognition signal which represents at least one face of the person recognized in the camera image in which a viewing direction is directed to the floor care device. According to this embodiment, in step 205 reading in a face recognition signal in which the face has been recognized by a Eigenfaces and / or Fisherfaces and / or Local Binary Pattern histogram and / or hair cascade classifier method.

Im Schritt 210 des Empfangens wird gemäß diesem Ausführungsbeispiel ein Gestensignal empfangen, bei dem die Geste eine Bewegung zumindest eines Teils einer Hand und/oder eines Teils eines Arms der Person repräsentiert. Außerdem wird gemäß diesem Ausführungsbeispiel im Schritt 210 des Empfangens ein Gestensignal empfangen, das eine relativ zu dem erkannten Gesicht erfasste Trajektorie der Geste umfasst.In step 210 receiving is in accordance with this embodiment received a gesture signal in which the gesture represents a movement of at least a part of a hand and / or a part of an arm of the person. In addition, according to this embodiment, in step 210 receive a gesture signal comprising a relative to the detected face detected trajectory of the gesture.

Optional umfasst das Verfahren 200 weiterhin einen Schritt 220 des Festhaltens, einen Schritt 225 des Sendens, einen Schritt 230 des Erzeugens und einen Schritt 235 des Vergleichens.Optionally, the method includes 200 continue one step 220 of clinging, one step 225 sending, one step 230 of creating and a step 235 of comparing.

Im Schritt 220 des Festhaltens wird ansprechend auf den Schritt 205 des Einlesens ein Festhaltesignal ausgegeben, das dazu ausgebildet ist, um zumindest eine Farbinformation des erkannten Gesichts auf dem Kamerabild festzuhalten.In step 220 clinging becomes responsive to the step 205 of the read-in, outputs a hold-in signal that is configured to hold at least one color information of the recognized face on the camera image.

Im Schritt 225 des Sendens wird ansprechend auf den Schritt 205 des Einlesens ein Schwärzsignal gesendet, das dazu ausgebildet ist, um das erkannte Gesicht auf dem Kamerabild zu schwärzen.In step 225 sending is appealing to the step 205 sent a black signal, which is adapted to blacken the recognized face on the camera image of the reading.

Im Schritt 230 des Erzeugens wird ansprechend auf den Schritt 205 des Einlesens ein Suchsignal erzeugt, das dazu ausgebildet ist, um in einem Suchbereich, der in einem Verhältnis zu einer Position des erkannten Gesichts angeordnet ist, nach der Geste zu suchen.In step 230 of generating is responsive to the step 205 of the reading, generates a search signal adapted to search for the gesture in a search area arranged in relation to a position of the recognized face.

Im Schritt 235 des Vergleichens wird zumindest das Gestensignal mit zumindest einem Referenzgestensignal verglichen, das eine charakteristische Geste repräsentiert, wobei das Steuersignal oder ein weiteres Steuersignal ausgegeben wird, wenn das Gestensignal in einem vorbestimmten Verhältnis zu dem Referenzgestensignal steht.In step 235 comparing at least the gesture signal is compared with at least one reference gesture signal representing a characteristic gesture, wherein the control signal or another control signal is output when the gesture signal is in a predetermined relationship to the reference gesture signal.

Die hier vorgestellten Verfahrensschritte können wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden.The method steps presented here can be repeated and executed in a sequence other than that described.

3 zeigt ein Ablaufdiagramm eines Verfahrens 200 zum Steuern eines Bodenpflegegeräts gemäß einem Ausführungsbeispiel. Dabei kann es sich um das anhand von 2 beschriebene Verfahren 200 mit zusätzlichen Schritten handeln. Das Verfahren 200 weist gemäß diesem Ausführungsbeispiel einen Schritt 300 des Bereitstellens auf, in dem das zumindest eine Kamerabild bereitgestellt wird. Die Schritte 205a, 205b, 205c, 205d, und 205e sind alternativ oder in Kombination ausführbare Ausführungsbeispiele des Schritts 205 des Einlesens. Im Schritt 205a wird ein Gesichtserkennungssignal eingelesen, bei dem das Gesicht durch ein Eigengesichter-Verfahren erkannt wurde. Im Schritt 205b wird ein Gesichtserkennungssignal eingelesen, bei dem das Gesicht durch ein Fisherfaces-Verfahren erkannt wurde. Im Schritt 205c wird ein Gesichtserkennungssignal eingelesen, bei dem das Gesicht durch ein Local Binary Pattern Histogram-Verfahren erkannt wurde. Im Schritt 205d wird ein Gesichtserkennungssignal eingelesen, bei dem das Gesicht durch ein Haar-Kaskaden-klassifizier-Verfahren erkannt wurde. Im Schritt 205e wird ein Gesichtserkennungssignal eingelesen, bei dem das Gesicht durch ein weiteres Gesichtserkennungs-Verfahren erkannt wurde. In einem Schritt 305 des Erstellens wird ein Kamerabild mit Gesichtsannotation erstellt. In einem Schritt 310 des Hinzuziehens wird für ein im Schritt 230 des Erzeugens durchgeführtes Hand-Blob Tracking zumindest ein weiteres Kamerabild hinzugezogen. In einem Schritt 315 des Extrahierens werden Trajektorien-Daten extrahiert. Gemäß diesem Ausführungsbeispiel werden im Schritt 235 des Vergleichens eine Segmentierung und ein Vergleich mit Referenzsequenzen durchgeführt. 3 shows a flowchart of a method 200 for controlling a floor care appliance according to an embodiment. This may be based on 2 described method 200 to act with additional steps. The procedure 200 has a step according to this embodiment 300 the providing, in which the at least one camera image is provided. The steps 205a . 205b . 205c . 205d , and 205e are alternatively or in combination executable embodiments of the step 205 of reading in. In step 205a becomes a Read face recognition signal, in which the face was detected by a Eigengesichter method. In step 205b A face recognition signal is read in which the face was recognized by a Fisherfaces method. In step 205c A face recognition signal is read in which the face is detected by a Local Binary Pattern Histogram method. In step 205d a facial recognition signal is read in which the face has been recognized by a hair cascade classifier method. In step 205e A face recognition signal is read in which the face was recognized by another face recognition method. In one step 305 When creating, a camera image is created with facial annotation. In one step 310 of drawing in is for one in step 230 At least one additional camera image is added to the generated hand-blob tracking. In one step 315 Extracting extracts trajectory data. According to this embodiment, in step 235 comparing a segmentation and a comparison with reference sequences carried out.

Im Folgenden werden Ausführungsbeispiele der 3 noch einmal genauer ausgeführt:
Das hier vorgestellte Verfahren 200 kann auch als ein Verfahren zur Erkennung von Gesten zur Steuerung von autonomen Bodenpflegegeräten bezeichnet werden. Anders als bekannte Verfahren nutzt es eine Gesichtserkennung zur verbesserten Gestensteuerung. Sobald ein Gesicht mit Blickrichtung zu dem Bodenpflegegerät sicher erkannt wurde, werden Farbinformationen des Gesichts in einem HSL-Farbraum festgehalten, HSL steht hierbei für Hue, Saturation, Lightness, dieser HSL-Farbraum erleichtert eine Betrachtung der eigentlichen Farbe, auch Hue genannt, gegenüber Lichteinflüssen. Zudem wird um das Gesicht eine ROI, engl. für Region of Interest, gelegt, also ein beschränkter Bereich festgelegt, in dem nach Armen und/oder Händen gesucht wird. Hände und Arme können nun anhand der Farbinformationen des Gesichts relativ einfach mit einem Blob Detector erkannt und verfolgt werden, nachdem das erkannte Gesicht aus der ROI geschwärzt wurde, ohne das Schwärzen würde das Gesicht ebenfalls als Blob erkannt werden. Über mehrere Kamerabilder hinweg werden nun die Hand-Blobs verfolgt und deren Koordinaten als Trajektorien, gemäß diesem Ausführungsbeispiel relativ zum Gesicht, aufgezeichnet. Die Trajektorien können in einer einfachsten Analyse in Segmente aufgeteilt für eine definierte Anzahl Kamerabilder verlaufen. Aus der Segmentierung kann die Sequenz der abgedeckten Segmente als einfacher Vergleich zu Referenz-Sequenzen implementiert werden. Alternativ sind gemäß einem alternativen Ausführungsbeispiel weitere Verfahren wie Dynamic Time Warping, Hidden Markov Models oder General Means Models, oder rekursive neuronale Netze, etc. denkbar. Diese sind zwar robuster hinsichtlich Erkennungsraten, müssen aber vor Auslieferung vortrainiert sein und sind auch rechenintensiver. Mit dem hier vorgeschlagenen Verfahren 200 werden Nutzer von entsprechend ausgestatteten, beispielsweise autonomen, Bodenpflegegeräten vorteilhafterweise befähigt, diese aus der Ferne bei Sichtkontakt mittels einfacher Gesten zu steuern, ohne etwa eine Fernbedienung oder eine Smartphone-App nutzen zu müssen.
In the following, embodiments of the 3 once more detailed:
The procedure presented here 200 may also be referred to as a method of detecting gestures for controlling autonomous floor care appliances. Unlike known methods, it uses face recognition for improved gesture control. As soon as a face with a line of vision to the floor care device has been reliably recognized, color information of the face is recorded in an HSL color space, HSL stands for Hue, Saturation, Lightness, this HSL color space makes it easier to observe the actual color, also called Hue, against the effects of light , In addition, around the face an ROI, Engl. for Region of Interest, that is, a restricted area in which to search for the poor and / or the hands. Hands and arms can now be relatively easily detected and tracked using the color information of the face with a blob detector after the recognized face has been blackened from the ROI, without the blackening the face would also be recognized as a blob. The hand blobs are now tracked over several camera images and their coordinates recorded as trajectories, relative to the face according to this embodiment. The trajectories can be divided into segments in a simple analysis for a defined number of camera images. From the segmentation, the sequence of covered segments can be implemented as a simple comparison to reference sequences. Alternatively, according to an alternative embodiment, further methods such as Dynamic Time Warping, Hidden Markov Models or General Means Models, or recursive neural networks, etc. are conceivable. Although these are more robust in terms of detection rates, they must be pre-trained before delivery and are also more computationally intensive. With the method proposed here 200 Users are advantageously enabled by appropriately equipped, for example autonomous, floor care appliances to control them remotely in visual contact by means of simple gestures without having to use a remote control or a smartphone app.

4 zeigt eine schematische Darstellung eines Kamerabilds 400 zur Verdeutlichung eines Schritts des Bereitstellens eines Verfahrens zum Steuern eines Bodenpflegegeräts gemäß einem Ausführungsbeispiel. Dabei kann es sich um den anhand von 3 beschriebenen Schritt des Bereitstellens eines Kamerabilds 400 handeln. 4 shows a schematic representation of a camera image 400 to illustrate a step of providing a method for controlling a floor care appliance according to an embodiment. This can be the basis of 3 described step of providing a camera image 400 act.

5 zeigt eine schematische Darstellung eines Kamerabilds 400 zur Verdeutlichung eines Schritts des Einlesens eines Verfahrens zum Steuern eines Bodenpflegegeräts gemäß einem Ausführungsbeispiel. Dabei kann es sich um einen der anhand einer der 2 oder 3 beschriebenen Schritte des Einlesens eines Gesichtserkennungssignals handeln. Gemäß diesem Ausführungsbeispiel wird im Schritt des Einlesens auf dem Kamerabild 400 ein Rahmen 500 um das erkannte Gesicht 130 der Person 135 gelegt. 5 shows a schematic representation of a camera image 400 to illustrate a step of reading in a method of controlling a floor care appliance according to an embodiment. This can be one of the basis of one of 2 or 3 act described steps of reading a face recognition signal. According to this embodiment, in the step of reading on the camera image 400 a frame 500 around the recognized face 130 the person 135 placed.

6 zeigt eine schematische Darstellung eines Kamerabilds 400 zur Verdeutlichung eines Schritts des Schwärzens eines Verfahrens zum Steuern eines Bodenpflegegeräts gemäß einem Ausführungsbeispiel. Dabei kann es sich um einen der anhand einer der 2 oder 3 beschriebenen Schritte des Schwärzens handeln, in dem das erkannte Gesicht 130 der Person 135 in dem Kamerabild 400 geschwärzt wird. 6 shows a schematic representation of a camera image 400 to illustrate a step of blackening a method for controlling a floor care appliance according to an embodiment. This can be one of the basis of one of 2 or 3 act described steps of blackening, in which the recognized face 130 the person 135 in the camera picture 400 blackened.

7 zeigt eine schematische Darstellung eines Kamerabilds 400 zur Verdeutlichung eines Schritts des Empfangens eines Verfahrens zum Steuern eines Bodenpflegegeräts gemäß einem Ausführungsbeispiel. Dabei kann es sich um einen der anhand einer der 2 oder 3 beschriebenen Schritte des Empfangens des Gestensignals handeln, das die erkannte Geste 145 der Person 135 in dem Kamerabild 400 repräsentiert. 7 shows a schematic representation of a camera image 400 to illustrate a step of receiving a method of controlling a floor care appliance according to an embodiment. This can be one of the basis of one of 2 or 3 described steps of receiving the gesture signal that the detected gesture 145 the person 135 in the camera picture 400 represents.

Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.If an exemplary embodiment comprises a "and / or" link between a first feature and a second feature, then this is to be read so that the embodiment according to one embodiment, both the first feature and the second feature and according to another embodiment either only first feature or only the second feature.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102012105608 A1 [0003] DE 102012105608 A1 [0003]

Claims (12)

Verfahren (200) zum Steuern eines Bodenpflegegeräts (105), wobei das Verfahren (200) zumindest die folgenden Schritte umfasst: – Einlesen (205) zumindest eines Gesichtserkennungssignals (125), das zumindest ein in einem Kamerabild (400) erkanntes Gesicht (130) einer Person (135) repräsentiert; – Empfangen (210) zumindest eines Gestensignals (140), das zumindest eine in einem weiteren oder dem Kamerabild (400) erkannte Geste (145) der Person (135) repräsentiert; und – Ausgeben (215) eines Steuersignals (150) zum Steuern zumindest des Bodenpflegegeräts (105) unter Verwendung zumindest des Gestensignals (140).Procedure ( 200 ) for controlling a floor care appliance ( 105 ), the process ( 200 ) comprises at least the following steps: - reading in ( 205 ) at least one face recognition signal ( 125 ), at least one in a camera image ( 400 ) recognized face ( 130 ) one person ( 135 represents; - Receive ( 210 ) at least one gesture signal ( 140 ), at least one in another or the camera image ( 400 ) recognized gesture ( 145 ) the person ( 135 represents; and - spend ( 215 ) of a control signal ( 150 ) for controlling at least the floor care appliance ( 105 ) using at least the gesture signal ( 140 ). Verfahren (200) gemäß Anspruch 1, bei dem im Schritt (205) des Einlesens ein Gesichtserkennungssignal (125) eingelesen wird, das zumindest ein in dem Kamerabild (400) erkanntes Gesicht (130) der Person (135) repräsentiert, bei dem eine Blickrichtung auf das Bodenpflegegerät (105) gerichtet ist.Procedure ( 200 ) according to claim 1, wherein in step ( 205 ) of reading a face recognition signal ( 125 ) is read, the at least one in the camera image ( 400 ) recognized face ( 130 ) the person ( 135 ), in which a view of the floor care device ( 105 ). Verfahren (200) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (205) des Einlesens ein Gesichtserkennungssignal (125) eingelesen wird, bei dem das Gesicht (130) durch ein Eigengesichter- und/oder Fisherfaces- und/oder Local Binary Pattern Histogram- und/oder Haar-Kaskaden-klassifizier-Verfahren erkannt wurde.Procedure ( 200 ) according to one of the preceding claims, wherein in step ( 205 ) of reading a face recognition signal ( 125 ) is read, in which the face ( 130 ) has been recognized by a Eigenfaces and / or Fisherfaces and / or Local Binary Pattern histogram and / or hair cascade classifier method. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (210) des Empfangens ein Gestensignal (140) empfangen wird, bei dem die Geste (145) eine Bewegung zumindest eines Teils einer Hand und/oder eines Teils eines Arms der Person (135) repräsentiert.Procedure ( 200 ) according to one of the preceding claims, wherein in step ( 210 ) of receiving a gesture signal ( 140 ), at which the gesture ( 145 ) a movement of at least a part of a hand and / or part of an arm of the person ( 135 ). Verfahren (200) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt (220) des Festhaltens, in dem ansprechend auf den Schritt (205) des Einlesens ein Festhaltesignal ausgegeben wird, das dazu ausgebildet ist, um zumindest eine Farbinformation des erkannten Gesichts (130) auf dem Kamerabild (400) festzuhalten.Procedure ( 200 ) according to one of the preceding claims, with a step ( 220 ) of holding, in response to the step ( 205 ) of the read in a capture signal is output, which is designed to at least a color information of the recognized face ( 130 ) on the camera image ( 400 ). Verfahren (200) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt (230) des Erzeugens, in dem ansprechend auf den Schritt (205) des Einlesens ein Suchsignal erzeugt wird, das dazu ausgebildet ist, um in einem Suchbereich nach der Geste (145) zu suchen, insbesondere wobei im Schritt (230) des Erzeugens ein Suchsignal erzeugt wird, das dazu ausgebildet ist, um in einem Suchbereich zu suchen, der in einem Verhältnis zu einer Position des erkannten Gesichts (130) angeordnet ist. Procedure ( 200 ) according to one of the preceding claims, with a step ( 230 ) of generating, in response to the step ( 205 ) of the reading a search signal is generated, which is designed to be in a search area after the gesture ( 145 ), in particular where in step ( 230 ) generating a search signal adapted to search in a search area that is related to a position of the detected face ( 130 ) is arranged. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt (225) des Sendens, in dem ansprechend auf den Schritt (205) des Einlesens ein Schwärzsignal gesendet wird, das dazu ausgebildet ist, um das erkannte Gesicht (130) auf dem Kamerabild (400) zu schwärzen.Procedure ( 200 ) according to one of the preceding claims, with a step ( 225 ) of the transmission in response to the step ( 205 ) of the reading a black signal is sent, which is adapted to the recognized face ( 130 ) on the camera image ( 400 ) to blacken. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (210) des Empfangens ein Gestensignal (140) empfangen wird, das zumindest eine Trajektorie der Geste (145) umfasst, insbesondere wobei im Schritt (210) des Empfangens ein Gestensignal (140) empfangen wird, das eine relativ zu dem erkannten Gesicht (130) erfasste Trajektorie der Geste (145) umfasst.Procedure ( 200 ) according to one of the preceding claims, wherein in step ( 210 ) of receiving a gesture signal ( 140 ) receives at least one trajectory of the gesture ( 145 ), in particular wherein in step ( 210 ) of receiving a gesture signal ( 140 ), which is a relative to the recognized face ( 130 ) trajectory of the gesture ( 145 ). Verfahren (200) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt (235) des Vergleichens, in dem zumindest das Gestensignal (140) mit zumindest einem Referenzgestensignal verglichen wird, das eine charakteristische Geste repräsentiert; insbesondere wobei das Steuersignal (150) oder ein weiteres Steuersignal ausgegeben wird, wenn das Gestensignal (140) in einem vorbestimmten Verhältnis zu dem Referenzgestensignal steht.Procedure ( 200 ) according to one of the preceding claims, with a step ( 235 ) of comparing, in which at least the gesture signal ( 140 ) is compared with at least one reference gesture signal representing a characteristic gesture; especially where the control signal ( 150 ) or another control signal is output when the gesture signal ( 140 ) is in a predetermined relationship to the reference gesture signal. Steuergerät (100), das ausgebildet ist, um die Schritte des Verfahrens (200) gemäß einem der vorangegangenen Ansprüche in entsprechenden Einheiten (110; 115; 120) anzusteuern und/oder auszuführen.Control unit ( 100 ), which is adapted to the steps of the method ( 200 ) according to one of the preceding claims in corresponding units ( 110 ; 115 ; 120 ) to drive and / or execute. Computer-Programmprodukt mit Programmcode zur Durchführung des Verfahrens (200) nach einem der Ansprüche 1 bis 9, wenn das Computer-Programmprodukt auf einer Vorrichtung ausgeführt wird.Computer program product with program code for carrying out the method ( 200 ) according to one of claims 1 to 9, when the computer program product is executed on a device. Bodenpflegegerät (105) mit einem Steuergerät (100) gemäß Anspruch 10.Floor care device ( 105 ) with a control device ( 100 ) according to claim 10.
DE102016124906.8A 2016-12-20 2016-12-20 Method of controlling a floor care appliance and floor care appliance Ceased DE102016124906A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016124906.8A DE102016124906A1 (en) 2016-12-20 2016-12-20 Method of controlling a floor care appliance and floor care appliance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016124906.8A DE102016124906A1 (en) 2016-12-20 2016-12-20 Method of controlling a floor care appliance and floor care appliance

Publications (1)

Publication Number Publication Date
DE102016124906A1 true DE102016124906A1 (en) 2017-11-30

Family

ID=60268883

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016124906.8A Ceased DE102016124906A1 (en) 2016-12-20 2016-12-20 Method of controlling a floor care appliance and floor care appliance

Country Status (1)

Country Link
DE (1) DE102016124906A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107837046A (en) * 2017-12-01 2018-03-27 潘美娣 A kind of recognition of face monitors sweeping robot
CN108769594A (en) * 2018-06-05 2018-11-06 北京智行者科技有限公司 A kind of data monitoring method
CN112274074A (en) * 2020-10-26 2021-01-29 河南工学院 Kitchen wall cleaning robot

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040199292A1 (en) * 2003-04-01 2004-10-07 Yoshiaki Sakagami Apparatus, process, and program for controlling movable robot control
CN101344816A (en) * 2008-08-15 2009-01-14 华南理工大学 Human-machine interaction method and device based on sight tracing and gesture discriminating
US20110001813A1 (en) * 2009-07-03 2011-01-06 Electronics And Telecommunications Research Institute Gesture recognition apparatus, robot system including the same and gesture recognition method using the same
US20130009861A1 (en) * 2011-07-04 2013-01-10 3Divi Methods and systems for controlling devices using gestures and related 3d sensor
DE102012105608A1 (en) 2012-06-27 2014-01-02 Miele & Cie. Kg Self-propelled cleaning device and method for operating a self-propelled cleaning device
WO2016011204A1 (en) * 2014-07-15 2016-01-21 Face Checks Llc Multi-algorithm-based face recognition system and method with optimal dataset partitioning for a cloud environment
US20160343389A1 (en) * 2015-05-19 2016-11-24 Bxb Electronics Co., Ltd. Voice Control System, Voice Control Method, Computer Program Product, and Computer Readable Medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040199292A1 (en) * 2003-04-01 2004-10-07 Yoshiaki Sakagami Apparatus, process, and program for controlling movable robot control
CN101344816A (en) * 2008-08-15 2009-01-14 华南理工大学 Human-machine interaction method and device based on sight tracing and gesture discriminating
US20110001813A1 (en) * 2009-07-03 2011-01-06 Electronics And Telecommunications Research Institute Gesture recognition apparatus, robot system including the same and gesture recognition method using the same
US20130009861A1 (en) * 2011-07-04 2013-01-10 3Divi Methods and systems for controlling devices using gestures and related 3d sensor
DE102012105608A1 (en) 2012-06-27 2014-01-02 Miele & Cie. Kg Self-propelled cleaning device and method for operating a self-propelled cleaning device
WO2016011204A1 (en) * 2014-07-15 2016-01-21 Face Checks Llc Multi-algorithm-based face recognition system and method with optimal dataset partitioning for a cloud environment
US20160343389A1 (en) * 2015-05-19 2016-11-24 Bxb Electronics Co., Ltd. Voice Control System, Voice Control Method, Computer Program Product, and Computer Readable Medium

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CN 101 344 816 A (Maschinenübersetzung), ESPACENET [online] Patent Translate Powered by EPO and Google [abgerufen am 02.10.2017]
CN 101 344 816 A (Maschinenübersetzung), ESPACENET [online] Patent Translate Powered by EPO and Google [abgerufen am 02.10.2017] *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107837046A (en) * 2017-12-01 2018-03-27 潘美娣 A kind of recognition of face monitors sweeping robot
CN108769594A (en) * 2018-06-05 2018-11-06 北京智行者科技有限公司 A kind of data monitoring method
CN112274074A (en) * 2020-10-26 2021-01-29 河南工学院 Kitchen wall cleaning robot
CN112274074B (en) * 2020-10-26 2022-03-18 河南工学院 Kitchen wall cleaning robot

Similar Documents

Publication Publication Date Title
CN111316291B (en) Segmentation and denoising depth images with generative antagonistic neural networks for recognition applications
KR101500711B1 (en) Method for human tracking using color histograms
EP3642696B1 (en) Method and device for detecting a user input on the basis of a gesture
DE102013225744A1 (en) SYSTEM AND METHOD FOR EFFECTIVE RANGE DETECTION OF A HANDGESTE
CN105528703A (en) Method and system for implementing payment verification via expression
CN110889334A (en) Personnel intrusion identification method and device
CN110516623B (en) Face recognition method and device and electronic equipment
DE102016124906A1 (en) Method of controlling a floor care appliance and floor care appliance
DE102012112624A1 (en) Head movement detecting device
US11804026B2 (en) Device and a method for processing data sequences using a convolutional neural network
CN111263955A (en) Method and device for determining movement track of target object
JP2021089717A (en) Method of subject re-identification
JP6103765B2 (en) Action recognition device, method and program, and recognizer construction device
CN111860057A (en) Face image blurring and living body detection method and device, storage medium and equipment
DE112015005688T5 (en) Image recognition system
EP2483834B1 (en) Method and apparatus for the recognition of a false object detection in an image
US11605224B2 (en) Automated media editing operations in consumer devices
KR101762400B1 (en) Method and apparatus for recognizing action
CN112861588A (en) Living body detection method and device
JP6859641B2 (en) Evaluation system, information processing equipment and programs
WO2019212501A1 (en) Trained recognition models
CN114038026A (en) Face recognition method and device
CN114004974A (en) Method and device for optimizing images shot in low-light environment
EP3226166A3 (en) Systems and methods for authentication based on human teeth pattern
Urgen et al. Representational similarity of actions in the human brain

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R230 Request for early publication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final