DE102016124894A1 - Method and device for creating a user interface for operating a building automation system by means of a cleaning robot, cleaning robot and building automation system - Google Patents
Method and device for creating a user interface for operating a building automation system by means of a cleaning robot, cleaning robot and building automation system Download PDFInfo
- Publication number
- DE102016124894A1 DE102016124894A1 DE102016124894.0A DE102016124894A DE102016124894A1 DE 102016124894 A1 DE102016124894 A1 DE 102016124894A1 DE 102016124894 A DE102016124894 A DE 102016124894A DE 102016124894 A1 DE102016124894 A1 DE 102016124894A1
- Authority
- DE
- Germany
- Prior art keywords
- cleaning robot
- component
- automation system
- building automation
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004140 cleaning Methods 0.000 title claims abstract description 102
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000009471 action Effects 0.000 claims abstract description 15
- 238000013459 approach Methods 0.000 claims abstract description 8
- 230000004913 activation Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 5
- 230000003213 activating effect Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003319 supportive effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0011—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
- G05D1/0016—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the operator's input device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B15/00—Systems controlled by a computer
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B15/00—Systems controlled by a computer
- G05B15/02—Systems controlled by a computer electric
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/04—Programme control other than numerical control, i.e. in sequence controllers or logic controllers
- G05B19/042—Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/20—Pc systems
- G05B2219/26—Pc applications
- G05B2219/2642—Domotique, domestic, home control, automation, smart house
Abstract
Die Erfindung betrifft ein Verfahren zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems (102) mittels eines Reinigungsroboters (100), wobei der Reinigungsroboter (100) ausgebildet ist, um eine Karte einer dem Gebäudeautomationssystem (102) zugeordneten Umgebung zu erstellen und unter Verwendung der Karte zumindest einen Zielpunkt (106) in der Umgebung anzufahren. Bei dem Verfahren wird zunächst eine Verortungsinformation (114) eingelesen, die eine beim Anfahren des Zielpunktes (106) mittels eines Sensors (108) des Reinigungsroboters (100) erfasste Aktion zumindest einer Komponente (112) des Gebäudeautomationssystems (102) und/oder eine beim Anfahren des Zielpunktes (106) mittels eines Sensors (112) des Gebäudeautomationssystems (102) erfasste Aktion des Reinigungsroboters (100) repräsentiert. Die Komponente (112) wird anschließend unter Verwendung der Verortungsinformation (114) in der Karte verortet. Schließlich wird abhängig von einem Ergebnis des Verortens zumindest ein Steuerungselement zum Steuern der Komponente (112) in die Karte eingefügt, um die Bedienoberfläche zu erstellen.The invention relates to a method for creating a user interface for operating a building automation system (102) by means of a cleaning robot (100), wherein the cleaning robot (100) is designed to create a map of an environment associated with the building automation system (102) and using the map at least one destination point (106) to drive in the area. In the method, location information (114) is read in first, which is an action of at least one component (112) of the building automation system (102) detected during the approach of the destination point (106) by a sensor (108) of the cleaning robot (100) and / or at Approaching the target point (106) by means of a sensor (112) of the building automation system (102) represents detected action of the cleaning robot (100). The component (112) is then located in the map using the location information (114). Finally, depending on a result of the request, at least one control element for controlling the component (112) is inserted in the card to create the user interface.
Description
Die Erfindung betrifft ein Verfahren zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters, eine entsprechende Vorrichtung, ein entsprechendes Computerprogramm, einen Reinigungsroboter sowie ein Gebäudeautomationssystem.The invention relates to a method for creating a user interface for operating a building automation system by means of a cleaning robot, a corresponding device, a corresponding computer program, a cleaning robot and a building automation system.
Es sind Saugroboter bekannt, die beim Saugen autonom eine Karte ihrer Umgebung aufbauen können. Diese Karte kann beispielsweise auf einem mobilen Gerät wie einem Smartphone oder Tablet angezeigt werden.Vacuum robots are known, which can autonomously build a map of their environment while vacuuming. For example, this map may be displayed on a mobile device such as a smartphone or tablet.
Ferner sind sogenannte Smart-Home-Systeme zur Gebäudeautomation bekannt, deren Steuerungen händisch zusammengestellt werden können. Insbesondere die logische Verknüpfung und Gruppierung zu Räumen wird dabei typischerweise vom Benutzer vorgenommen.Furthermore, so-called smart home systems for building automation are known, the controls can be put together manually. In particular, the logical linking and grouping to rooms is typically done by the user.
Vor diesem Hintergrund stellt sich die vorliegende Erfindung die Aufgabe, ein verbessertes Verfahren und eine verbesserte Vorrichtung zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems, einen verbesserten Reinigungsroboter sowie ein verbessertes Gebäudeautomationssystem zu schaffen.Against this background, the present invention has the object to provide an improved method and an improved device for creating a user interface for operating a building automation system, an improved cleaning robot and an improved building automation system.
Erfindungsgemäß wird diese Aufgabe durch ein Verfahren, eine Vorrichtung, einen Reinigungsroboter und ein Gebäudeautomationssystem mit den Merkmalen der Hauptansprüche gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung ergeben sich aus den nachfolgenden Unteransprüchen.According to the invention this object is achieved by a method, a device, a cleaning robot and a building automation system with the features of the main claims. Advantageous embodiments and further developments of the invention will become apparent from the following subclaims.
Es wird ein Verfahren zum, vorzugsweise autonomen, Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters vorgestellt, wobei der Reinigungsroboter ausgebildet ist, um eine Karte einer dem Gebäudeautomationssystem zugeordneten Umgebung zu erstellen und unter Verwendung der Karte zumindest einen Zielpunkt in der Umgebung anzufahren, wobei das Verfahren folgende Schritte umfasst:
- Einlesen einer Verortungsinformation, die eine beim Anfahren des Zielpunktes mittels eines Sensors des Reinigungsroboters erfasste Aktion zumindest einer Komponente des Gebäudeautomationssystems und/oder eine beim Anfahren des Zielpunktes mittels eines Sensors des Gebäudeautomationssystems erfasste Aktion des Reinigungsroboters repräsentiert;
- Verorten der Komponente in der Karte unter Verwendung der Verortungsinformation; und
- Einfügen zumindest eines Steuerungselements zum Steuern der Komponente in die Karte abhängig von einem Ergebnis des Verortens, um die Bedienoberfläche zu erstellen.
- Reading a location information that represents an action of the cleaning robot detected by a sensor of the cleaning robot when approaching the destination point of at least one component of the building automation system and / or an action of the cleaning robot detected by the start of the destination point by means of a sensor of the building automation system;
- Locating the component in the map using the location information; and
- Inserting at least one control element for controlling the component into the map depending on a result of the request to create the user interface.
Unter einer Bedienoberfläche kann beispielsweise eine Steuerungskarte mit Bediensymbolen zum Steuern einzelner Komponenten des Gebäudeautomationssystems verstanden werden. Die Bedienoberfläche kann beispielsweise auf einem berührungsempfindlichen Bildschirm, der Teil des Reinigungsroboters, eines Smartphones oder eines Tablets sein kann, angezeigt werden, sodass ein Benutzer in der Lage ist, das Gebäudeautomationssystem durch Berühren der Bediensymbole zu steuern. Unter einem Gebäudeautomationssystem, auch Smart Home oder intelligentes Wohnen genannt, kann ein System zur Vernetzung von Geräten, Leuchten und Tastern in einem Gebäude, insbesondere einer Wohnumgebung, verstanden werden. Bei den vernetzten Geräten, auch Komponenten des Gebäudeautomationssystems genannt, kann es sich beispielsweise um Geräte der Haustechnik, um Haushaltsgeräte, beispielsweise Rollläden, Heizkörper, Herde, Kühlschränke oder Waschmaschinen, oder um Geräte der Unterhaltungselektronik handeln. Bei der Komponente kann es sich entweder um einen Aktor oder einen Sensor handeln. Beispielsweise kann die Komponente fernsteuerbar sein. Unter einem Reinigungsroboter kann ein Bodenpflegegerät verstanden werden, das ausgebildet ist, um Räume autonom zu reinigen. Der Reinigungsroboter kann ausgebildet sein, um die Umgebung des Gebäudeautomationssystems, beispielsweise eine Wohnumgebung, mittels der von ihm erstellten Karte selbstständig abzufahren. Die Karte kann beispielsweise in einem SLAM-Verfahren (SLAM = Simultaneous Localization And Mapping; „simultane Lokalisierung und Kartenerstellung“) von dem Reinigungsroboter erstellt worden sein. Unter einem Zielpunkt kann ein von dem Reinigungsroboter anzufahrender Ort in der Karte verstanden werden, dessen Koordinaten dem Reinigungsroboter bekannt sind.Under a user interface, for example, a control card with control icons for controlling individual components of the building automation system can be understood. For example, the user interface may be displayed on a touch-sensitive screen, which may be part of the cleaning robot, a smartphone, or a tablet, so that a user is able to control the building automation system by touching the operation icons. A building automation system, also called smart home or intelligent living, can be understood as a system for networking devices, lights and buttons in a building, in particular a living environment. The networked devices, also called components of the building automation system, may, for example, appliances of domestic technology, household appliances, such as shutters, radiators, stoves, refrigerators or washing machines, or devices of consumer electronics. The component can be either an actuator or a sensor. For example, the component may be remotely controllable. A cleaning robot may be understood to mean a floor care device that is designed to clean rooms autonomously. The cleaning robot can be designed to autonomously exit the environment of the building automation system, for example a living environment, by means of the map created by it. The card may, for example, have been created in a SLAM (Simultaneous Localization And Mapping) method by the cleaning robot. A destination point can be understood as a location to be approached by the cleaning robot in the map whose coordinates are known to the cleaning robot.
Unter einer Verarbeitungsinformation kann ein von dem Sensor des Reinigungsroboters bzw. von dem Sensor des Gebäudeautomationssystems erfasstes optisches oder akustisches Signal verstanden werden, das einen bestimmten durch die Komponente hervorgerufenen Effekt repräsentieren kann, wie er etwa beim Ein- und Ausschalten einer Leuchte oder beim Auf- und Abrollen eines Rollladens entsteht.Processing information may be taken to mean an optical or acoustic signal detected by the sensor of the cleaning robot or by the sensor of the building automation system, which may represent a specific effect caused by the component, such as when a lamp is switched on or off or when it is turned on. and rolling a roller shutter arises.
Bei dem Sensor des Gebäudeautomationssystems kann es sich beispielsweise um die zu verortende Komponente des Gebäudeautomationssystems handeln.The sensor of the building automation system can be, for example, the component of the building automation system to be located.
Unter einem Steuerungselement kann beispielsweise ein Bedienelement verstanden werden, das je nach Ausführungsform Schalter oder Taster zum Steuern der Komponente grafisch nachbildet. Die Bedienoberfläche kann beispielsweise dadurch erstellt werden, dass das Steuerungselement in der Karte des Reinigungsroboters eingeblendet wird, beispielsweise an einer Stelle der Karte, an dem die Komponente mittels der Verortungsinformation verortet wurde. For example, a control element can be understood as an operating element which, depending on the embodiment, graphically simulates switches or buttons for controlling the component. The user interface can be created, for example, by the control element being displayed in the map of the cleaning robot, for example at a point on the map where the component was located by means of the location information.
Der hier beschriebene Ansatz beruht auf der Erkenntnis, dass eine Kartendarstellung eines Reinigungsroboters, etwa eines Saugroboters oder eines sonstigen Serviceroboters, um interaktive Steuerungselemente für ein Smart-Home-System erweitert werden kann.The approach described here is based on the recognition that a map display of a cleaning robot, such as a robotic vacuum cleaner or other service robots, can be extended to interactive controls for a smart home system.
Durch Verwendung des Kartenmaterials des Reinigungsroboters kann eine umständliche, unter Umständen komplett von Hand durchzuführende Einrichtung des Smart-Home-Systems durch dessen Benutzer vermieden werden und somit der Bedienkomfort des Smart-Home-Systems deutlich gesteigert werden. Dadurch kann eine anschauliche Steuerungsoberfläche realisiert werden, die der jeweiligen Wohnsituation in besonderem Maße gerecht wird. Vor allem ein als Karte dargestelltes Smart-Home-Interface kommt dem Verständnis des Benutzers sehr entgegen.By using the map material of the cleaning robot, a cumbersome, possibly completely to be performed by hand device of the smart home system can be avoided by the user and thus the ease of use of the smart home system can be significantly increased. As a result, a clear control surface can be realized, which is particularly suitable for the respective living situation. Above all, a smart home interface represented as a card greatly accommodates the user's understanding.
Durch den Reinigungsroboter kann die Erstellung einer solchen interaktiven Steuerungskarte automatisiert werden. Dabei kann der Reinigungsroboter autonom Steuerungselemente für seine jeweilige Karte erstellen, mit denen das Smart-Home-System intuitiver gesteuert werden kann. Das Kartenmaterial kann beispielsweise bereits vom Reinigungsroboter nach verschiedenen Algorithmen, die etwa das SLAM-Problem lösen, erstellt und per Wi-Fi zur Weiterverarbeitung bereitgestellt werden. Beispielsweise kann der Reinigungsroboter mit demselben Netzwerk wie eine Steuerung des Smart-Home-Systems verbunden sein. Dabei kann das Netzwerk lokal oder vom Anbieter der Smart-Home-System-Steuerung über das Internet bereitgestellt sein.The cleaning robot can automate the creation of such an interactive control card. In this case, the cleaning robot autonomously create control elements for its respective card, with which the smart home system can be controlled more intuitive. For example, the map material can already be created by the cleaning robot according to various algorithms that solve the problem of SLAM, for example, and provided by Wi-Fi for further processing. For example, the cleaning robot may be connected to the same network as a controller of the smart home system. In this case, the network can be provided locally or by the provider of the smart home system control via the Internet.
Gemäß einer Ausführungsform kann im Schritt des Einlesens eine die Komponente repräsentierende Komponenteninformation eingelesen werden. Im Schritt des Verortens kann die Komponente unter Verwendung der Komponenteninformation verortet werden. Unter einer Komponenteninformation kann eine Information verstanden werden, durch die der Reinigungsroboter auf eine semantische Bedeutung der Komponente schließen kann. Beispielsweise kann die Komponenteninformation Angaben zu einem Typ, einem Namen, einem Gruppennamen oder einem Raum der Komponente umfassen. Durch diese Ausführungsform wird eine zuverlässige und genaue Verortung der Komponente in der Karte des Reinigungsroboters ermöglicht.According to one embodiment, component information representing the component may be read in the step of reading. In the step of providing, the component can be located using the component information. Component information can be understood to mean information by which the cleaning robot can conclude that the component has a semantic meaning. For example, the component information may include information about a type, a name, a group name or a space of the component. This embodiment enables a reliable and accurate location of the component in the map of the cleaning robot.
Gemäß einer weiteren Ausführungsform kann im Schritt des Einfügens das Steuerungselement mit einem Abschnitt der Karte verknüpft werden, in dem die Komponente verortet wurde. Beispielsweise kann das Steuerungselement derart mit der Karte verknüpft werden, dass das Steuerungselement bei Berühren der Bedienoberfläche an einer der Komponente zugeordneten Stelle automatisch eingeblendet wird. Durch diese Ausführungsform kann eine manuelle Verknüpfung zwischen einem Ort der Komponente in der Karte und dem Steuerungselement entfallen.According to another embodiment, in the step of insertion, the control element may be linked to a portion of the map in which the component has been located. For example, the control element can be linked to the card in such a way that the control element is automatically superimposed upon touching the user interface at a location assigned to the component. By this embodiment, a manual link between a location of the component in the map and the control element can be omitted.
Es ist vorteilhaft, wenn im Schritt des Verortens die Komponente durch Triangulation verortet wird. Dadurch kann die Komponente genau und effizient verortet werden.It is advantageous if, in the step of making the component, the component is located by triangulation. This allows the component to be located accurately and efficiently.
Das Verfahren kann gemäß einer weiteren Ausführungsform einen Schritt des Empfangens eines eine Anwesenheit des Reinigungsroboters am Zielpunkt repräsentierenden Anwesenheitssignals umfassen. Dabei kann in einem Schritt des Ausgebens ein Aktivierungssignal zum Aktivieren der Komponente unter Verwendung des Anwesenheitssignals ausgegeben werden. Dadurch kann die Komponente in Abhängigkeit von der Anwesenheit des Reinigungsroboters am Zielpunkt aktiviert werden.The method may comprise, according to another embodiment, a step of receiving a presence signal representing a presence of the cleaning robot at the destination point. At this time, in a step of outputting, an activation signal for activating the component may be output by using the presence signal. This allows the component to be activated depending on the presence of the cleaning robot at the target point.
Der Reinigungsroboter kann ausgebildet sein, um unter Verwendung der Karte zumindest einen weiteren Zielpunkt in der Umgebung anzufahren. Hierbei ist es von Vorteil, wenn im Schritt des Einlesens zumindest eine weitere Verortungsinformation eingelesen wird, wobei die weitere Verortungsinformation eine beim Anfahren des weiteren Zielpunktes mittels des Sensors des Reinigungsroboters erfasste Aktion der Komponente oder, zusätzlich oder alternativ, eine beim Anfahren des weiteren Zielpunktes mittels des Sensors des Gebäudeautomationssystems erfasste Aktion des Reinigungsroboters repräsentiert. Dementsprechend kann im Schritt des Verortens die Komponente unter Verwendung der weiteren Verortungsinformation verortet werden. Dadurch wird eine besonders genaue Verortung der Komponente in der Karte des Reinigungsroboters ermöglicht.The cleaning robot may be configured to use the card to approach at least one further target point in the environment. In this case, it is advantageous if at least one further location information is read in the step of reading in, the further location information being an action of the component detected when the further destination is approached by the sensor of the cleaning robot or, additionally or alternatively, a starting point of the further destination represents the action of the cleaning robot detected by the sensor of the building automation system. Accordingly, in the step of providing, the component may be located using the further location information. This allows a particularly accurate location of the component in the map of the cleaning robot.
Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware, beispielsweise in einer Vorrichtung, implementiert sein.This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a device.
Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.The approach presented here also creates a device that is designed to perform the steps of a variant of a method presented here in appropriate facilities to drive or implement. Also through this Embodiment of the invention in the form of a device, the object underlying the invention can be solved quickly and efficiently.
Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.In the present case, a device can be understood as meaning an electrical device which processes sensor signals and outputs control and / or data signals in dependence thereon. The device may have an interface, which may be formed in hardware and / or software. In the case of a hardware-based embodiment, the interfaces can be part of a so-called system ASIC, for example, which contains a wide variety of functions of the device. However, it is also possible that the interfaces are their own integrated circuits or at least partially consist of discrete components. In a software training, the interfaces may be software modules that are present, for example, on a microcontroller in addition to other software modules.
Des Weiteren schafft der hier beschriebene Ansatz einen Reinigungsroboter mit einer Vorrichtung gemäß einer vorstehenden Ausführungsform sowie ein Gebäudeautomationssystem mit einer Vorrichtung gemäß einer vorstehenden Ausführungsform.Furthermore, the approach described here creates a cleaning robot with a device according to a preceding embodiment as well as a building automation system with a device according to a preceding embodiment.
Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.Also of advantage is a computer program product or computer program with program code which can be stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk memory or an optical memory and for carrying out, implementing and / or controlling the steps of the method according to one of the embodiments described above is used, especially when the program product or program is executed on a computer or a device.
Ein Ausführungsbeispiel der Erfindung ist in den Zeichnungen rein schematisch dargestellt und wird nachfolgend näher beschrieben. Es zeigt
-
1 eine schematische Darstellung eines Reinigungsroboters gemäß einem Ausführungsbeispiel; -
2 eine schematische Darstellung einer Vorrichtung gemäß einem Ausführungsbeispiel; -
3 eine schematische Darstellung einer Bedienoberfläche gemäß einem Ausführungsbeispiel; -
4 eine schematische Darstellung einer Bedienoberfläche gemäß einem Ausführungsbeispiel; -
5 eine schematische Darstellung eines Verfahrens zum Erstellen einer Karte mittels eines Reinigungsroboters gemäß einem Ausführungsbeispiel; und -
6 eine schematische Darstellung eines Verfahrens zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters gemäß einem Ausführungsbeispiel.
-
1 a schematic representation of a cleaning robot according to an embodiment; -
2 a schematic representation of a device according to an embodiment; -
3 a schematic representation of a user interface according to an embodiment; -
4 a schematic representation of a user interface according to an embodiment; -
5 a schematic representation of a method for creating a map by means of a cleaning robot according to an embodiment; and -
6 a schematic representation of a method for creating a user interface for operating a building automation system by means of a cleaning robot according to an embodiment.
Der Reinigungsroboter
Optional ist die Vorrichtung
Gemäß dem in
Gemäß einem weiteren Ausführungsbeispiel ist der Reinigungsroboter
Gemäß
Der Reinigungsroboter
Gemäß einem alternativen Ausführungsbeispiel ist die Vorrichtung
Beispielsweise öffnet sich nach einem Klick auf den jeweiligen Smart-Home-Aktor in der Karte, etwa durch Berühren mit einem Finger, ein Overlay-Fenster mit den zugehörigen Steuerungselementen. Im Fall des Rollladens umfasst das erste Steuerungselement
Auf den Pfaden kann der Reinigungsroboter nach einer Durchgangsprüfung sicher navigieren. Die Skeleton-Methode erzeugt mehr Pfade mit einer besseren Abdeckung der Karte. Die Zielpunkte liegen alle nahe an den berechneten Pfaden. Hier liefert die Ultimate-Points-Methode eine bessere Abdeckung. Eine Schwellenwertberechnung kann helfen, um die Anzahl der Ziele zu reduzieren.On the paths, the cleaning robot can navigate safely after a continuity test. The Skeleton method creates more paths with better map coverage. The target points are all close to the calculated paths. Here, the Ultimate Points method provides better coverage. A threshold calculation can help to reduce the number of goals.
Einzelne Versionen der Karte bei oder nach der Erstellung sind mit Quadraten mit dem Bezugszeichen
Durch ein derartiges Verfahren kann der Reinigungsroboter in einem Smart Home, vorangehend auch Gebäudeautomationssystem genannt, weitestgehend autonom eine intuitiv zu bedienende Karte als Steuerung für das Smart Home erstellen. Je nach Ausführungsbeispiel kann dabei der Nutzer an jeder Stelle unterstützend eingreifen, sofern gewünscht.By such a method, the cleaning robot in a smart home, also called building automation system above, largely autonomously create an intuitive map as a controller for the smart home. Depending on the embodiment, the user can intervene in any way supportive, if desired.
Gemäß einem Ausführungsbeispiel umfasst das Verfahren
Zunächst scannt der Reinigungsroboter in einen ihm zugewiesenen IP-Segment, beispielsweise 192.168.1.*, alle 255 möglichen IP-Adressen auf bekannte Schnittstellen von Smart-Home-Systemen und vernetzten Geräten. Beispielsweise werden bei Verwendung von OpenHAB (Open Home Automation Bus) folgende Aufrufe gestartet, wobei auf Rückantworten gewartet wird:
http://192.168.1.0:8080/rest/items ... http://192.168.1.254:8080/rest/itemsFirst, the cleaning robot scans in an IP segment assigned to it, for example 192.168.1. *, All 255 possible IP addresses to known interfaces of smart home systems and networked devices. For example, when using OpenHAB (Open Home Automation Bus), the following calls are started, waiting for backflushes:
http://192.168.1.0:8080/rest/items ... http://192.168.1.254:8080/rest/items
Gleichzeitig können auch andere Protokolle (HTTP, TCP/IP, UDP, WebSocket, etc. unterschiedlicher Hersteller) auf eine ähnliche Weise abgefragt werden. Diese Aufrufe veranlassen das System dazu, eine Gesamtliste aller dem Smart Home bekannten Sensoren und Aktoren und deren logische Gruppierung auszugeben. Auf mindestens einer Adresse wird es wahrscheinlich eine verwertbare Antwort geben, die weiter verarbeitet werden kann.At the same time other protocols (HTTP, TCP / IP, UDP, WebSocket, etc. of different manufacturers) can be queried in a similar way. These calls cause the system to get a complete list of all the smart home output known sensors and actuators and their logical grouping. There will probably be a usable answer on at least one address that can be further processed.
Dieser Scan wird mit weiteren Smart-Home-Schnittstellen fortgesetzt, die eventuell eine andere Aufrufstruktur aufweisen. Diese Aufrufe können dem Reinigungsroboter beispielsweise auch noch nach Auslieferung, etwa über eine Schnittstelle zur drahtlosen Kommunikation, mittels Softwareupdates nachgerüstet werden. Der Nutzer kann darüber hinaus gezielt IP-Adressen und Schnittstellen vorgeben, um diesen Prozess abzukürzen.This scan continues with other smart home interfaces that may have a different polling structure. These calls can also be retrofitted to the cleaning robot after delivery, for example via an interface for wireless communication, by means of software updates. The user can also specify specific IP addresses and interfaces in order to shorten this process.
Hat der Reinigungsroboter den Scan der Systeme erfolgreich abgeschlossen, liegt eine Liste verfügbarer Sensoren und Aktoren vor. Im Fall von OpenHAB ist ein Aktor, etwa ein Rollladen, beispielsweise wie folgt im JSON-Format beschrieben:
{ "link":"http://192.168.1.100:8080/rest/items/Shutter_GF_Living", "state":"100", "type":"Rollershutterltem", "name":"Shutter_G F_Living", "label":"Livingroom", "tags":[], "groupNames":[ "GF_Living", "Shutters" }, ...If the cleaning robot has successfully completed the scan of the systems, a list of available sensors and actuators is available. In the case of OpenHAB, for example, an actuator, such as a roller shutter, is described in the JSON format as follows:
{ "Link": "http://192.168.1.100:8080/rest/items/Shutter_GF_Living""State":"100""Type":"Rollershutterltem""name":"Shutter_GF_Living","Label":"LivingRoom""Tags": [] "Group names": [ "GF_Living""Shutters" }, ...
An dem Beispiel ist zu erkennen, dass jedes Listenelement einen Typ hat, mit dem der Reinigungsroboter schon auf die semantische Bedeutung des Elements schließen kann. Optional wird über die Auswertung des Feldes „groupNames“ ein Graph erstellt, um damit auf die Zugehörigkeit der Elemente zueinander schließen zu können.It can be seen from the example that each list element has a type with which the cleaning robot can already deduce the semantic meaning of the element. Optionally, a graph is created by evaluating the field "groupNames" in order to conclude that the elements belong to each other.
Um die gesammelten Elemente des Smart-Home-Systems in der Karte des Reinigungsroboters zu verorten, sollten Zielpunkte und Pfade zwischen den Zielen berechnet werden, mit denen der Reinigungsroboter sicher die gesamte Wohnumgebung abfahren und beobachten kann. Ein Flussdiagramm, das diese Berechnungen vereinfacht illustriert, ist beispielhaft in
Die Liste der Zielpunkte wird Punkt für Punkt angefahren. An jedem Zielpunkt wird die Liste der vom Roboter mit Sensoren beobachtbaren Smart-Home-Elemente ein- oder mehrfach geschaltet, um beispielsweise in einem Kamerabild oder mit einem Mikrofon den jeweiligen Effekt zu beobachten. Für jeden Zielpunkt und jedes Element wird die Effektgröße, gegebenenfalls verknüpft mit einer Richtung, erfasst und in einer Kreuztabelle hinterlegt. Aus diesen Daten wird nun etwa durch Triangulation relativ genau ermittelt, an welchem Punkt in der Karte des Reinigungsroboters die Quelle des Effekts zu verorten ist.The list of destination points is approached point by point. At each target point, the list of the smart home elements observable by the robot with sensors is switched on or several times in order, for example, to observe the respective effect in a camera image or with a microphone. For each target point and each element, the effect size, possibly linked to a direction, is recorded and stored in a crosstab. From these data, it is now relatively precisely determined by triangulation at which point in the map of the cleaning robot the source of the effect is to be located.
Analog kann auch mit Sensoren des Smart-Home-Systems verfahren werden. Sofern der Reinigungsroboter in der Lage ist, Bewegungsmelder, Lichtsensoren, Lautstärkepegelmesser o. Ä. auszulösen, können auch diese in entsprechender Weise kartiert werden.Analogously, it is also possible to use sensors of the smart home system. If the cleaning robot is capable of motion detectors, light sensors, volume meters or the like. These can also be mapped in a corresponding manner.
Gemäß einem Ausführungsbeispiel hat der Nutzer an dieser Stelle die Möglichkeit einzugreifen, um nur Teile der Element- oder Zielliste durch den Roboter abarbeiten zu lassen, etwa wenn dem Nutzer bekannt ist, dass in einem bestimmten Raum keine Smart-Home-Elemente verbaut sind, oder die Steuerung bestimmter Elemente durch den Nutzer nicht gewünscht sind.According to one embodiment, the user has the opportunity to intervene at this point to have only parts of the element or target list processed by the robot, such as when the user is aware that no smart home elements are installed in a particular room, or the control of certain elements by the user are not desired.
An diesen Punkten werden beispielsweise in einer App des Reinigungsroboters passende Steuerungselemente für den jeweiligen Smart-Home-Aktor und entsprechende Anzeigen für Sensoren eingeblendet. Diese ermöglichen dem Nutzer nun eine intuitive Überwachung und Steuerung. Auch hier hat der Nutzer optional die Möglichkeit, das Ergebnis nach eigenen Vorstellungen zu bearbeiten und zu verändern.For example, in an app of the cleaning robot suitable control elements for the respective smart home actuator and corresponding displays for sensors are displayed at these points. These now provide the user with intuitive monitoring and control. Here, too, the user has the option to edit and change the result according to his own ideas.
Je nach Ausführungsbeispiel wird der Nutzer bei der Einrichtung des Smart-Home-Systems teilweise oder vollständig durch den Reinigungsroboter unterstützt. Somit kann eine aufwendige händische Einrichtung des Smart-Home-Systems entfallen, zumal eine solche Einrichtung ohne technisches Grundwissen sehr schwierig sein kann. Gleichzeitig erhält der Nutzer eine intuitiv zu bedienende Nutzerschnittstelle.Depending on the embodiment, the user is partially or completely supported by the cleaning robot when setting up the smart home system. Thus, a complex manual device of the smart home system can be omitted, especially since such a device can be very difficult without technical knowledge. At the same time, the user receives an intuitive user interface.
Mittels eines derartigen Verfahrens erstellte Karten und Interaktionsmöglichkeiten sind beispielhaft in den
Reinigungsroboter und Smart-Home-Installationen werden am Markt bislang nicht als verknüpfbare Systeme betrachtet. Folglich generiert zwar der Reinigungsroboter eine Karte, diese kann aber nur im Roboterkontext genutzt werden. Umgekehrt ist es oft erforderlich, das Smart Home langwierig von Hand einzurichten, bis es sinnvoll funktioniert und steuerbar ist. Hier fehlt dann aber oft eine intuitive Darstellung für die Steuerung, die oft nur eine abstrakte Darstellung der Sensorwerte und Schalter beinhaltet. Mittels des hier vorgeschlagenen Ansatzes wird nun eine Kartendarstellung ermöglicht, durch die der Aufwand bei der Einrichtung auf ein Minimum reduziert werden kann. Durch die Nutzung von Synergien zwischen Reinigungsroboter und Smart Home kann dieses Problem weitgehend in Software gelöst werden.Cleaning robots and smart home installations are not yet considered to be interchangeable systems on the market. Consequently, although the cleaning robot generates a card, but this can only be used in the robot context. Conversely, it often takes a long time to set up the smart home by hand until it makes sense and is controllable. However, an intuitive representation for the control is often missing here, which often only contains an abstract representation of the sensor values and switches. By means of the approach proposed here, a map display is now made possible by which the effort in the device can be reduced to a minimum. By using synergies between cleaning robot and smart home, this problem can largely be solved in software.
Je nach Ausführungsbeispiel kann die Implementierung aufseiten des Reinigungsroboters wie auch aufseiten des Smart-Home-Systems erfolgen. Dabei kann das Smart-Home-System Kartenmaterial nutzen, das es über die API des Reinigungsroboters oder auch mehrerer Reinigungsroboter empfängt. Der Reinigungsroboter wird dabei durch das Smart-Home-System entsprechend gesteuert.Depending on the embodiment, the implementation can take place on the part of the cleaning robot as well as on the side of the smart home system. The smart home system can use map material that it receives via the API of the cleaning robot or even several cleaning robots. The cleaning robot is controlled accordingly by the smart home system.
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016124894.0A DE102016124894B4 (en) | 2016-12-20 | 2016-12-20 | Method and device for creating a user interface for operating a building automation system by means of a cleaning robot, cleaning robot and building automation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016124894.0A DE102016124894B4 (en) | 2016-12-20 | 2016-12-20 | Method and device for creating a user interface for operating a building automation system by means of a cleaning robot, cleaning robot and building automation system |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102016124894A1 true DE102016124894A1 (en) | 2018-06-21 |
DE102016124894B4 DE102016124894B4 (en) | 2021-06-10 |
Family
ID=62250732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102016124894.0A Active DE102016124894B4 (en) | 2016-12-20 | 2016-12-20 | Method and device for creating a user interface for operating a building automation system by means of a cleaning robot, cleaning robot and building automation system |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102016124894B4 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020011519A1 (en) * | 2018-07-12 | 2020-01-16 | BSH Hausgeräte GmbH | Method and device for detecting metadata for smart home components |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140324271A1 (en) * | 2013-04-26 | 2014-10-30 | Samsung Electronics Co., Ltd. | Cleaning robot, home monitoring apparatus, and method for controlling the cleaning robot |
US20160005229A1 (en) * | 2014-07-01 | 2016-01-07 | Samsung Electronics Co., Ltd. | Electronic device for providing map information |
DE102014113040A1 (en) * | 2014-09-10 | 2016-03-10 | Miele & Cie. Kg | Method for operating a household appliance system |
DE102015100419A1 (en) * | 2015-01-13 | 2016-07-14 | Miele & Cie. Kg | Method and arrangement for processing floor surfaces |
-
2016
- 2016-12-20 DE DE102016124894.0A patent/DE102016124894B4/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140324271A1 (en) * | 2013-04-26 | 2014-10-30 | Samsung Electronics Co., Ltd. | Cleaning robot, home monitoring apparatus, and method for controlling the cleaning robot |
US20160005229A1 (en) * | 2014-07-01 | 2016-01-07 | Samsung Electronics Co., Ltd. | Electronic device for providing map information |
DE102014113040A1 (en) * | 2014-09-10 | 2016-03-10 | Miele & Cie. Kg | Method for operating a household appliance system |
DE102015100419A1 (en) * | 2015-01-13 | 2016-07-14 | Miele & Cie. Kg | Method and arrangement for processing floor surfaces |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020011519A1 (en) * | 2018-07-12 | 2020-01-16 | BSH Hausgeräte GmbH | Method and device for detecting metadata for smart home components |
Also Published As
Publication number | Publication date |
---|---|
DE102016124894B4 (en) | 2021-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102016113060A1 (en) | Method for controlling an object | |
EP3654816B1 (en) | Household dishwasher machine, system comprising household dishwasher machine, and method for operating a household dishwasher machine | |
WO2017137104A1 (en) | Home automation system | |
DE102017207341A1 (en) | Method for controlling cleaning devices | |
DE102017113279A1 (en) | System of at least one household appliance, at least one self-propelled cleaning device and a control device | |
WO2012155997A1 (en) | Home automation control system and method for controlling a device in a home automation system | |
DE102015224308A1 (en) | Manipulator system and method for identifying operating devices | |
EP3644554B1 (en) | Method for a removal unit and corresponding removal unit | |
DE102016124894B4 (en) | Method and device for creating a user interface for operating a building automation system by means of a cleaning robot, cleaning robot and building automation system | |
DE102014116865A1 (en) | Analysis device for analyzing and manipulating a communication sequence | |
CN103777851A (en) | Method and system for video interaction of internet of things | |
EP1345097B1 (en) | Method and device for creating a control-layer in a building automation system | |
EP3821314B1 (en) | Method and device for detecting metadata for smart home components | |
EP3995065B1 (en) | Automatically moving cleaning device | |
DE102011084321A1 (en) | Communication unit for use in system of process automation technology, has user interface which represents information based on system structure, while system structure on field bus topology is inversely mapped with drawing algorithm | |
DE102016006809A1 (en) | Control system for a climate cabinet | |
DE102014217615A1 (en) | Method and device for central operation of networked electrical devices in a house | |
EP1971080B1 (en) | Method for operating a radio system | |
DE102014201343A1 (en) | Building services control device for an air conditioning arrangement | |
WO2016134935A1 (en) | Method and system for projecting information in a room | |
DE102017113605A1 (en) | Autonomous cleaning system and cleaning process | |
WO2012155949A1 (en) | Method for operating an automation system | |
WO2019001978A1 (en) | Mobile unit, mobile terminal, and associated method | |
DE102022003876A1 (en) | Mobile terminal for use in automated building locks, and a method for object-oriented use of a mobile terminal in automated building locks | |
DE102019216001A1 (en) | Infotainment device of a vehicle and control method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R084 | Declaration of willingness to licence | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G05D0001020000 Ipc: G05D0001430000 |