DE102017121127A1 - Exploration of an unknown environment by an autonomous mobile robot - Google Patents

Exploration of an unknown environment by an autonomous mobile robot Download PDF

Info

Publication number
DE102017121127A1
DE102017121127A1 DE102017121127.6A DE102017121127A DE102017121127A1 DE 102017121127 A1 DE102017121127 A1 DE 102017121127A1 DE 102017121127 A DE102017121127 A DE 102017121127A DE 102017121127 A1 DE102017121127 A1 DE 102017121127A1
Authority
DE
Germany
Prior art keywords
robot
area
sub
subarea
robotic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102017121127.6A
Other languages
German (de)
Inventor
Harold Artes
Dominik Seethaler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robart GmbH
Original Assignee
Robart GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robart GmbH filed Critical Robart GmbH
Priority to DE102017121127.6A priority Critical patent/DE102017121127A1/en
Publication of DE102017121127A1 publication Critical patent/DE102017121127A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Es wird ein Verfahren zur Erkundung eines Robotereinsatzgebietes durch einen autonomen mobilen Roboter beschrieben. Gemäß einem Ausführungsbeispiel umfasst das Verfahren das Starten einer Erkundungsfahrt, wobei der der Roboter während der Erkundungsfahrt Objekte in seiner Umgebung detektiert und detektierte Objekte als Kartendaten in einer Karte speichert, während der Roboter sich durch das Robotereinsatzgebiet bewegt. Während der Erkundungsfahrt führt der Roboter Teilgebietsdetektion basierend auf den gespeicherten Kartendaten durch, wobei zumindest ein Referenzteilgebiet detektiert wird. Anschließend wird geprüft, ob das Referenzteilgebiet vollständig erkundet ist. Der Roboter wiederholt die Teilgebietsdetektion, um das Referenzteilgebiet zu aktualisieren, und prüft erneut, ob das (aktualisierte) Referenzteilgebiet vollständig erkundet ist. Die Erkundung des Referenzteilgebiets wird fortgesetzt, bis dass die Prüfung ergibt, dass das Referenzteilgebiet vollständig erkundet ist. Anschließend wird der Roboter die Erkundungsfahrt in einem weiteren Teilgebiet fortsetzen, sofern ein weiteres Teilgebiet detektiert wurde, wobei das weitere Teilgebiet als Referenzteilgebiet verwendet wird.

Figure DE102017121127A1_0000
A method of exploring a robotic mission area by an autonomous mobile robot is described. According to an embodiment, the method comprises starting a reconnaissance trip, wherein the robot detects objects in its vicinity during the reconnaissance trip and stores detected objects as map data in a map while the robot is moving through the robotic use area. During the reconnaissance trip, the robot performs subarea detection based on the stored map data, wherein at least one reference subarea is detected. Subsequently, it is checked whether the reference subarea is completely explored. The robot repeats the partial area detection to update the reference partial area and again checks whether the (updated) reference partial area is fully explored. The exploration of the reference subarea is continued until the test reveals that the reference subarea is fully explored. Subsequently, the robot will continue the reconnaissance trip in a further subarea, provided that a further subarea has been detected, wherein the further subarea is used as the reference subarea.
Figure DE102017121127A1_0000

Description

TECHNISCHES GEBIETTECHNICAL AREA

Die Beschreibung betrifft das Gebiet der autonomen mobilen Roboter, insbesondere Methoden zur Exploration einer für den autonomen mobilen Roboter noch unbekannten Umgebung in einem Robotereinsatzgebiet.The description relates to the field of autonomous mobile robots, in particular methods for the exploration of a still unknown to the autonomous mobile robot environment in a robotic area.

HINERGRUNDHinergrund

Zahlreiche autonome mobile Roboter sind für verschiedenste private oder gewerbliche Anwendungen erhältlich, beispielsweise die Bearbeitung oder Reinigung von Bodenflächen, der Transport von Gegenständen oder die Inspektion einer Umgebung. Einfache Geräte kommen ohne die Erstellung und Nutzung einer Karte des Robotereinsatzgebiets aus, indem sie sich beispielsweise zufällig über eine zu reinigende Bodenfläche bewegen (vgl. z.B. Publikation EP 2287697 A2 von iRobot Corp.). Komplexere Roboter nutzen eine Karte des Robotereinsatzgebiets, welche sie selber erstellen oder in elektronischer Form zur Verfügung gestellt bekommen.Many autonomous mobile robots are available for a wide variety of residential or commercial applications, such as the treatment or cleaning of floor space, the transport of objects or the inspection of an environment. Simple devices can do without the creation and use of a map of the robotic area, for example, by accidentally moving over a floor surface to be cleaned (see eg Publication EP 2287697 A2 from iRobot Corp.). More complex robots use a map of the robotic area, which they create themselves or get provided in electronic form.

Bevor die Karte für eine Pfadplanung (und andere Zwecke) genutzt werden kann, muss der Roboter seine Umgebung in dem Robotereinsatzgebiet erkunden, um eine Karte zu erstellen. Es sind Methoden für die Exploration einer für den Roboter unbekannten Umgebung bekannt. Beispielsweise können Techniken wie z.B. die „simultane Lokalisierung und Kartenerstellung“ (Simultaneous Localization and Mapping, SLAM) in einer Explorationsphase eines Robotereinsatzes verwendet werden. Die Erfinder haben sich die Aufgabe gestellt, den Vorgang der Exploration einer für den Roboter noch unbekannten Umgebung innerhalb eines Robotereinsatzgebiets zu verbessern.Before the map can be used for path planning (and other purposes), the robot must explore its environment in the robotic field to create a map. Methods are known for exploring an environment unknown to the robot. For example, techniques such as Simultaneous Localization and Mapping (SLAM) are used in an exploration phase of a robotic mission. The inventors have set themselves the task to improve the process of exploration of a still unknown to the robot environment within a robotic area.

ZUSAMMENFASSUNGSUMMARY

Die oben genannte Aufgabe kann mit einem Verfahren gemäß Anspruch 1 oder 16 sowie mit einer Robotersteuerung gemäß Anspruch 19 gelöst werden. Unterschiedliche Ausführungsbeispiele und Weiterentwicklungen sind Gegenstand der abhängigen Ansprüche.The above object can be achieved by a method according to claim 1 or 16 as well as with a robot controller according to claim 19. Different embodiments and further developments are the subject of the dependent claims.

Es wird ein Verfahren zur Erkundung eines Robotereinsatzgebietes durch einen autonomen mobilen Roboter beschrieben. Gemäß einem Ausführungsbeispiel umfasst das Verfahren das Starten einer Erkundungsfahrt, wobei der der Roboter während der Erkundungsfahrt Objekte in seiner Umgebung detektiert und detektierte Objekte als Kartendaten in einer Karte speichert, während der Roboter sich durch das Robotereinsatzgebiet bewegt. Während der Erkundungsfahrt führt der Roboter Teilgebietsdetektion basierend auf den gespeicherten Kartendaten durch, wobei zumindest ein Referenzteilgebiet detektiert wird. Anschließend wird geprüft, ob das Referenzteilgebiet vollständig erkundet ist. Der Roboter wiederholt die Teilgebietsdetektion, um das Referenzteilgebiet zu aktualisieren, und prüft erneut, ob das (aktualisierte) Referenzteilgebiet vollständig erkundet ist. Die Erkundung des Referenzteilgebiets wird fortgesetzt, bis dass die Prüfung ergibt, dass das Referenzteilgebiet vollständig erkundet ist. Anschließend wird der Roboter die Erkundungsfahrt in einem weiteren Teilgebiet fortsetzen, sofern ein weiteres Teilgebiet detektiert wurde, wobei das weitere Teilgebiet als Referenzteilgebiet verwendet wird.A method of exploring a robotic mission area by an autonomous mobile robot is described. According to an embodiment, the method comprises starting a reconnaissance trip, wherein the robot detects objects in its vicinity during the reconnaissance trip and stores detected objects as map data in a map while the robot is moving through the robotic use area. During the reconnaissance trip, the robot performs subarea detection based on the stored map data, wherein at least one reference subarea is detected. Subsequently, it is checked whether the reference subarea is completely explored. The robot repeats the partial area detection to update the reference partial area and again checks whether the (updated) reference partial area is fully explored. The exploration of the reference subarea is continued until the test reveals that the reference subarea is fully explored. Subsequently, the robot will continue the reconnaissance trip in a further subarea, provided that a further subarea has been detected, wherein the further subarea is used as the reference subarea.

Gemäß einem weiteren Ausführungsbeispiel umfasst das Verfahren das Starten einer Erkundungsfahrt in einem ersten von mehreren Räumen des Robotereinsatzgebietes, welche durch Türdurchgänge verbunden sind. Während der Erkundungsfahrt detektiert der Roboter Objekte in seiner Umgebung und speichert detektierte Objekte als Kartendaten in einer Karte, während der Roboter sich durch das Robotereinsatzgebiet bewegt. Des Weiteren detektiert der Roboter während der Erkundungsfahrt einen oder mehrere Türdurchgänge und prüft, ob der erste Raum bereits vollständig erkundet ist. Die Erkundungsfahrt wird im ersten Raum fortgesetzt, bis dass die Prüfung ergibt, dass der erste Raum vollständig erkundet ist. Anschließend kann die Erkundungsfahrt in einem weiteren Raum fortgesetzt werden.According to a further embodiment, the method comprises starting a reconnaissance trip in a first of a plurality of rooms of the robotic use area, which are connected by doorways. During the reconnaissance trip, the robot detects objects in its environment and stores detected objects as map data in a map while the robot is moving through the robot use area. Furthermore, the robot detects one or more doorways during the reconnaissance trip and checks if the first space is already fully explored. The reconnaissance trip will continue in the first room until the test reveals that the first room is fully explored. Afterwards the exploration trip can be continued in another room.

Figurenlistelist of figures

Verschiedene Ausführungsbeispiele werden nachfolgend anhand von Abbildungen näher erläutert. Die Darstellungen sind nicht zwangsläufig maßstabsgetreu und die Erfindung beschränkt sich nicht nur auf die dargestellten Aspekte. Vielmehr wird Wert darauf gelegt, die zugrunde liegenden Prinzipien darzustellen. In den Abbildungen zeigt:

  • 1 illustriert einen autonomen mobilen Roboters in einem Robotereinsatzgebiet.
  • 2 illustriert anhand eines Blockdiagramms exemplarisch den Aufbau eines autonomen mobilen Roboters.
  • 3 zeigt eine von einem mobilen Roboter automatisiert erzeugte Karte seines Robotereinsatzgebietes (einer Wohnung) mit einer Vielzahl von Begrenzungslinien.
  • 4 zeigt exemplarisch das Ergebnis eine automatisierten Aufteilung des Robotereinsatzgebietes in Teilgebiete.
  • 5 illustriert anhand eines Flussdiagramms ein Beispiel eines Verfahrens zur vollständigen Exploration eines Robotereinsatzgebietes.
  • 6 illustriert die Kartierung von Hindernissen durch den Roboter.
  • 7 illustriert die Bewegung des Roboters durch ein zu erkundendes Einsatzgebiet.
  • 8-13 illustrieren schrittweise die Erkundung eines Robotereinsatzgebietes mit mehreren Zimmern.
Various exemplary embodiments are explained in more detail below with reference to figures. The illustrations are not necessarily to scale and the invention is not limited to the aspects presented. Rather, value is placed on presenting the underlying principles. In the pictures shows:
  • 1 illustrates an autonomous mobile robot in a robotic area.
  • 2 illustrates exemplarily the structure of an autonomous mobile robot based on a block diagram.
  • 3 shows an automated map generated by a mobile robot robot use area (a flat) with a plurality of boundary lines.
  • 4 shows by way of example the result of an automated division of the robot application area into subareas.
  • 5 Illustrates, by means of a flow chart, an example of a method for the complete exploration of a robotic area.
  • 6 illustrates the mapping of obstacles by the robot.
  • 7 illustrates the movement of the robot through a field to be explored.
  • 8-13 illustrate the step-by-step exploration of a multi-room robotic deployment area.

DETAILLIERTE BESCHREIBUNGDETAILED DESCRIPTION

1 illustriert exemplarisch einen Reinigungsroboter 100 als Beispiel für einen autonomen mobilen Roboter. Andere Beispiele für autonomen mobile Roboter sind u.a. Serviceroboter, Überwachungsroboter, Telepräsenzroboter, etc. Moderne autonome mobile Roboter navigieren kartenbasiert, d.h. sie verfügen über eine elektronische Karte des Robotereinsatzgebietes. In manchen Situationen hat der Roboter jedoch keine oder keine aktuelle Karte des Robotereinsatzgebietes und er muss seine (ihm unbekannte) Umgebung erkunden und kartieren. Dieser Prozess wird auch als „Exploration“ bezeichnet. Dabei detektiert der Roboter Hindernisse, während er sich durch das Robotereinsatzgebiet bewegt. In dem dargestellten Beispiel hat der Roboter 100 bereits Teile der Wände W1 und W2 eines Raumes erkannt. Verfahren zur Exploration der Umgebung eines autonomen mobilen Roboters sind an sich bekannt. Eine häufig eingesetzte Methode ist wie erwähnt SLAM. 1 exemplifies a cleaning robot 100 as an example of an autonomous mobile robot. Other examples of autonomous mobile robots include service robots, surveillance robots, telepresence robots, etc. Modern autonomous mobile robots navigate card-based, ie they have an electronic map of the robotic operational area. In some situations, however, the robot has no or no up-to-date map of the robotic field and he must explore and map his (unknown) environment. This process is also referred to as "exploration." The robot detects obstacles as it moves through the robotic area. In the example shown, the robot has 100 already parts of the walls W1 and W2 of a room. Methods for exploring the environment of an autonomous mobile robot are known per se. A common method is as mentioned SLAM.

Des Weiteren ist die Unterteilung der vom Roboter erstellten Karte in Teilgebiete an sich bekannt (vgl. z.B. DE 10 2010 017 689 A1 ). Dabei unterteilt der Roboter seine Karte anhand vorgegebener Kriterien wie z.B. mittels Sensoren detektierter Türdurchgänge, detektierter Bodenbeläge, etc. Zweck der Unterteilung des Robotereinsatzgebietes in mehrere Teilgebiete ist es, die Möglichkeit zu schaffen unterschiedliche Gebiete (z.B. Zimmer einer Wohnung) individuell zu behandeln. Im Falle eines Reinigungsroboters können unterschiedliche Teilgebiete z.B. unterschiedlich häufig, unterschiedlich intensiv, zu definierten Uhrzeiten, mit bestimmten Werkzeugen oder Reinigungsmitteln, etc. gereinigt werden. Solange der Roboter seine Umgebung nicht (im Wesentlichen vollständig erkundet hat, ist eine endgültige Aufteilung der Karte in Teilgebiete jedoch noch nicht möglich. Es existieren verschieden Strategien zur Exploration eines Robotereinsatzgebiets. Beispiele hierfür sind zufälliges Fahren, Fahrten entlang von Hindernissen (um insbesondere die Außenkontur abzufahren) bis hin zu komplexen Verfahren, die einen nächsten Explorationspunkt bestimmen, den der Roboter anfahren kann und hierbei einen maximalen Explorationsgewinn macht (vgl. z.B. D. Lee: The Map-Building and Exploration Strategies of a Simple Sonar-Equipped Mobile Robot (Cambridge University Press, 1996)). Jedoch gibt es kein Verfahren, dass die besonderen Gegebenheiten von Wohnumgebungen mit einzelnen Räumen berücksichtigt. Die Räume sind in der Regel durch Türdurchgänge verbunden und somit klar voneinander abgegrenzt. Gleichzeitig kann ein Raum zumindest aus Sicht des Roboters auf Grund der Einrichtung (Hindernisse) sehr komplex sein. Dies führt dazu, dass bei übliche Strategien zur Exploration der Roboter sehr oft zwischen den Räumen hin und her fährt, was viel Zeit und Energie kostet. Die zugrundeliegende Idee der Erfindung ist, einen Raum vollständig zu erkunden (zu explorieren) bevor der Roboter in den nächsten Raum wechselt. Hierzu führt der Roboter während der Exploration eine Aufteilung der Karte in Teilgebiete aus, um beispielsweise einen Raum als sinnvolles Teilgebiet zu erkenn. Der Roboter kann dieses Teilgebiet erkunden und feststellen, wann dieses Teilgebiet (und somit der Raum) vollständig erkundet ist.Furthermore, the subdivision of the map created by the robot into subareas is known per se (cf., eg DE 10 2010 017 689 A1 ). The robot subdivides its map according to predetermined criteria, such as door passages detected by sensors, detected floor coverings, etc. The purpose of subdividing the robotic deployment area into several subareas is to create the possibility to individually treat different areas (eg rooms of an apartment). In the case of a cleaning robot, different subregions can be cleaned, for example, with different frequency, with different intensities, at defined times, with certain tools or cleaning agents, etc. However, as long as the robot has not (essentially) completely explored its surroundings, final mapping of the map into subareas is not yet possible There are various strategies for exploring a robotic area, such as random driving, driving along obstacles (especially the outer contour) to complex procedures that determine a next exploration point that the robot can approach and thereby maximize exploration gain (see, eg, D. Lee: The Map-Building and Exploration Strategies of a Simple Sonar-Equipped Mobile Robot (Cambridge University Press, 1996).) However, there is no method that takes into account the particularities of individual room living environments, which are usually connected by doorways and thus clearly separated from one another the device (obstacles) be very complex. As a result, common exploration strategies often move the robot back and forth between rooms, which costs a lot of time and energy. The underlying idea of the invention is to fully explore (explore) a room before the robot changes to the next room. For this purpose, during the exploration, the robot performs a division of the map into subareas in order, for example, to recognize a space as a meaningful subarea. The robot can explore this sub-area and determine when this sub-area (and thus the space) is fully explored.

Bevor auf die Exploration der Umgebung des Roboters genauer eingegangen wird, soll zunächst der Aufbau eines autonomen mobilen Roboters kurz beschrieben werden. 2 zeigt beispielhaft anhand eines Blockdiagrams verschiedene Einheiten (Module) eines autonomen mobilen Roboters 100. Eine Einheit bzw. ein Modul kann dabei eine eigenständige Baugruppe oder ein Teil einer Software zur Steuerung des Roboters sein. Eine Einheit kann mehrere Untereinheiten aufweisen. Die für das Verhalten des Roboters 100 zuständige Software kann von der Steuereinheit 150 des Roboters 100 ausgeführt werden. In dem dargestellten Beispiel beinhaltet die Steuereinheit 150 einen Prozessor 155, der dazu ausgebildet ist, in einem Speicher 156 enthaltene Software-Instruktionen auszuführen. Einige Funktionen der Steuereinheit 150 können zumindest teilweise auch mit Hilfe eines externen Rechners durchgeführt werden. Das heißt, die von der Steuereinheit 150 benötigte Rechenleistung kann zumindest teilweise auf einen externen Rechner ausgelagert sein, welcher beispielsweise über ein Heimnetzwerk oder über das Internet (Cloud) erreichbar sein kann.Before exploring the environment of the robot in more detail, the construction of an autonomous mobile robot will first be briefly described. 2 shows by way of example a block diagram various units (modules) of an autonomous mobile robot 100 , A unit or a module can be an independent module or a part of a software for controlling the robot. A unit can have multiple subunits. The for the behavior of the robot 100 Responsible software may be provided by the control unit 150 of the robot 100 be executed. In the illustrated example, the control unit includes 150 a processor 155 that is trained in a store 156 to execute contained software instructions. Some functions of the control unit 150 can be done at least partially with the help of an external computer. That is, that of the control unit 150 required computing power may be at least partially outsourced to an external computer, which may be accessible via a home network or via the Internet (cloud), for example.

Der autonome mobile Roboter 100 umfasst eine Antriebseinheit 170, welche beispielsweise Elektromotoren, Getriebe und Räder aufweisen kann, wodurch der Roboter 100 - zumindest theoretisch - jeden Punkt eines Einsatzgebiets anfahren kann. Die Antriebseinheit 170 ist dazu ausgebildet, von der Steuereinheit 150 empfangene Kommandos oder Signale in eine Bewegung des Roboters 100 umzusetzenThe autonomous mobile robot 100 includes a drive unit 170 , which may include, for example, electric motors, transmissions and wheels, whereby the robot 100 - at least theoretically - can approach every point of a field of application. The drive unit 170 is designed by the control unit 150 received commands or signals in a movement of the robot 100 implement

Der autonome mobile Roboter 100 umfasst des Weiteren eine Kommunikationseinheit 140, um eine Kommunikationsverbindung 145 zu einer Mensch-Maschine-Schnittstelle (HMI) 200 und/oder anderen externen Geräten 300 herzustellen. Die Kommunikationsverbindung 145 ist beispielsweise eine direkte drahtlose Verbindung (z. B. Bluetooth), eine lokale drahtlose Netzwerkverbindung (z. B. WLAN oder ZigBee) oder eine Internetverbindung (z. B. zu einem Cloud-Service). Die Mensch-Maschine-Schnittstelle 200 kann einem Nutzer Informationen über den autonomen mobilen Roboter 100 beispielsweise in visueller oder auch akustischer Form ausgeben (z. B. Batteriestatus, aktueller Arbeitsauftrag, Karteninformationen wie eine Reinigungskarte, etc.) und Nutzerkommandos für einen Arbeitsauftrag des autonomen mobilen Roboters 100 entgegennehmen. Beispiele für eine HMI 200 sind Tablet-PC, Smartphone, Smartwatch und andere Wearables, Computer, Smart-TV, oder Head-Mounted Displays, usw. Eine HMI 200 kann zusätzlich oder alternativ direkt in den Roboter integriert sein, wodurch der Roboter 100 beispielsweise über Tasten, Gesten und/oder Sprachein- und -ausgabe bedient werden kann.The autonomous mobile robot 100 further comprises a communication unit 140 to a communication connection 145 to a human machine interface (HMI) 200 and / or other external devices 300 manufacture. The communication connection 145 is for example a direct wireless connection (eg Bluetooth), a local wireless network connection (for example, Wi-Fi or ZigBee) or an Internet connection (for example, to a cloud service). The man-machine interface 200 can give a user information about the autonomous mobile robot 100 For example, in visual or acoustic form output (eg battery status, current work order, map information such as a cleaning card, etc.) and user commands for a work order of the autonomous mobile robot 100 answer. Examples of an HMI 200 are tablet PC, smartphone, smartwatch and other wearables, computers, smart TV, or head-mounted displays, etc. An HMI 200 may additionally or alternatively be integrated directly into the robot, whereby the robot 100 can be operated for example via buttons, gestures and / or voice input and output.

Beispiele für externe Geräte 300 sind Computer und Server, auf denen Berechnungen und/oder Daten ausgelagert werden, externe Sensoren, die zusätzliche Informationen liefern, oder andere Haushaltsgeräte (z.B. andere autonome mobile Roboter), mit denen der autonome mobile Roboter 100 zusammenarbeiten und/oder Informationen austauschen kann.Examples of external devices 300 are computers and servers on which calculations and / or data are outsourced, external sensors that provide additional information, or other household appliances (eg, other autonomous mobile robots) that are used by the autonomous mobile robot 100 work together and / or exchange information.

Der autonome mobile Roboter 100 kann eine Arbeitseinheit 160 aufweisen, wie beispielsweise eine Bearbeitungseinheit zur Bearbeitung einer Bodenfläche und insbesondere zur Reinigung einer Bodenfläche (z. B. Bürste, Saugvorrichtung) oder ein Greifarm zum Fassen und Transportieren von Gegenständen.The autonomous mobile robot 100 can be a work unit 160 Such as a processing unit for processing a bottom surface and in particular for cleaning a bottom surface (eg brush, suction device) or a gripping arm for grasping and transporting objects.

In einigen Fällen wie beispielsweise bei einem Telepräsenz-Roboter oder einem Überwachungsroboter wird eine andere Baueinheit zur Erfüllung der vorgesehenen Aufgaben genutzt und es ist keine Arbeitseinheit 160 notwendig. So kann ein Telepräsenz-Roboter eine mit der HMI gekoppelte Kommunikationseinheit 140 aufweisen, die beispielsweise mit einer Multimediaeinheit ausgestattet sein kann, welche z.B. Mikrofon, Kamera und Bildschirm umfasst, um die Kommunikation zwischen mehreren räumlich weit entfernten Personen zu ermöglichen. Ein Überwachungsroboter ermittelt auf Kontrollfahrten mit Hilfe seiner Sensoren ungewöhnliche Ereignisse (z. B. Feuer, Licht, unautorisierte Personen, etc.) und informiert beispielsweise eine Kontrollstelle hierüber. In diesem Fall ist statt der Arbeitseinheit 160 eine Überwachungseinheit mit Sensoren zur Überwachung des Robotereinsatzgebietes vorgesehen.In some cases, such as a telepresence robot or a surveillance robot, another assembly is used to accomplish the intended tasks and is not a unit of work 160 necessary. Thus, a telepresence robot can communicate with the HMI coupled communication unit 140 have, for example, can be equipped with a multimedia unit, which includes, for example, microphone, camera and screen to allow communication between several distant people. A surveillance robot determines unusual events (eg fire, light, unauthorized persons, etc.) on control trips with the aid of its sensors and, for example, informs a control center about this. In this case, instead of the work unit 160 a monitoring unit provided with sensors for monitoring the robotic area.

Der autonome mobile Roboter 100 umfasst eine Sensoreinheit 120 mit verschiedenen Sensoren, beispielsweise einen oder mehrere Sensoren zur Erfassung von Informationen über die Umgebung (environment) des Roboters in seinem Einsatzgebiet, wie z.B. die Position und Ausdehnung von Hindernissen oder anderen Landmarken (landmarks) im Einsatzgebiet. Sensoren zur Erfassung von Informationen über die Umgebung sind beispielsweise Sensoren zur Messung von Abständen zu Objekten (z.B. Wänden oder anderen Hindernissen, etc.) in der Umgebung des Roboters wie beispielsweise einen optischen und/oder akustischen Sensor, der mittels Triangulation oder Laufzeitmessung eines ausgesandten Signals Abstände messen kann (Triangulationssensor, 3D-Kamera, Laserscanner, Ultraschallsensoren, etc.). Alternativ oder zusätzlich kann eine Kamera genutzt werden, um Informationen über die Umgebung zu sammeln. Insbesondere bei Betrachtung eines Objekts von zwei oder mehr Positionen aus, kann ebenfalls die Position und Ausdehnung eines Objekts bestimmt werden.The autonomous mobile robot 100 includes a sensor unit 120 with various sensors, for example one or more sensors for detecting information about the environment of the robot in its field of application, such as the position and extent of obstacles or other landmarks in the field. Sensors for acquiring information about the environment are, for example, sensors for measuring distances to objects (eg walls or other obstacles, etc.) in the environment of the robot, such as an optical and / or acoustic sensor, by means of triangulation or transit time measurement of an emitted signal Measure distances (triangulation sensor, 3D camera, laser scanner, ultrasonic sensors, etc.). Alternatively or additionally, a camera can be used to collect information about the environment. In particular, when viewing an object from two or more positions, the position and extent of an object can also be determined.

Zusätzlich kann der Roboter Sensoren besitzen, um einen (zumeist unbeabsichtigten) Kontakt (bzw. Kollision) mit einem Hindernis zu detektieren. Dies kann durch Beschleunigungsmesser (die z.B. die Geschwindigkeitsänderung des Roboters bei einer Kollision detektieren), Kontaktschalter, kapazitive Sensoren oder andere taktile bzw. berührungsempfindliche Sensoren realisiert werden. Zusätzlich kann der Roboter Bodensensoren besitzen, um eine Kante im Boden, beispielsweise einer Treppenstufe, zu erkennen. Weitere übliche Sensoren im Bereich autonomer mobiler Roboter sind Sensoren zur Bestimmung der Geschwindigkeit und/oder des zurückgelegten Weges des Roboters wie z.B. O-dometer bzw. Inertialsensoren (Beschleunigungssensor, Drehratensensor) zur Bestimmung von Lage- und Bewegungsänderung des Roboters sowie Radkontaktschalter, um einen Kontakt zwischen Rad und Boden zu detektieren.In addition, the robot may have sensors to detect (mostly unintentional) contact (or collision) with an obstacle. This can be realized by accelerometers (which detect, for example, the speed change of the robot in a collision), contact switches, capacitive sensors or other tactile or touch-sensitive sensors. In addition, the robot may have floor sensors to detect an edge in the floor, for example a step. Other common sensors in the field of autonomous mobile robots are sensors for determining the speed and / or the distance traveled by the robot, such as e.g. O-dometer or inertial sensors (acceleration sensor, yaw rate sensor) for determining the position and movement of the robot and Radkontaktschalter to detect contact between the wheel and ground.

Der autonome mobile Roboter 100 kann einer Basisstation 110 zugeordnet sein, an welcher er beispielsweise seine Energiespeicher (Batterien) laden kann. Zu dieser Basisstation 110 kann der Roboter 100 nach Abschluss einer Aufgabe zurückkehren. Wenn der Roboter keine Aufgabe mehr zu bearbeiten hat, kann er in der Basisstation 110 auf einen neuen Einsatz warten.The autonomous mobile robot 100 can be a base station 110 be assigned, on which he can load his energy storage (batteries), for example. To this base station 110 can the robot 100 return after completing a task. If the robot has no task left to work on, it can work in the base station 110 wait for a new mission.

Die Steuereinheit 150 kann dazu ausgebildet sein, alle Funktionen bereit zu stellen, die der Roboter benötigt, um sich selbstständig in seinem Einsatzgebiet zu bewegen und eine Aufgabe zu verrichten. Hierzu umfasst die Steuereinheit 150 beispielsweise den Prozessor 155 und das Speichermodul 156, um eine Software auszuführen. Die Steuereinheit 150 kann basierend auf den von der Sensoreinheit 120 und der Kommunikationseinheit 140 erhaltenen Informationen Steuerkommandos (z. B. Steuersignale) für die Arbeitseinheit 160 und die Antriebseinheit 170 erzeugen. Die Antriebseinheit 170 kann wie bereits erwähnt diese Steuersignale bzw. Steuerkommandos in eine Bewegung des Roboters umsetzen. Auch die in dem Speicher 156 enthaltene Software kann modular ausgebildet sein. Ein Navigationsmodul 152 stellt beispielsweise Funktionen zum automatischen Erstellen einer Karte des Robotereinsatzgebietes, sowie zur Bewegungsplanung des Roboters 100 bereit. Das Steuersoftwaremodul 151 stellt z.B. allgemeine (globale) Steuerfunktionen bereit und kann eine Schnittstelle zwischen den einzelnen Modulen bilden.The control unit 150 can be designed to provide all the functions that the robot needs to move independently in his field of application and to perform a task. This includes the control unit 150 for example, the processor 155 and the memory module 156 to run a software. The control unit 150 can be based on that of the sensor unit 120 and the communication unit 140 information received control command (eg control signals) for the work unit 160 and the drive unit 170 produce. The drive unit 170 can, as already mentioned implement these control signals or control commands in a movement of the robot. Also in the store 156 contained software can be modular. A navigation module 152 provides, for example, functions for automatically creating a map of the robot deployment area, as well as for planning the movement of the robot 100 ready. The control software module 151 provides eg general (global) control functions and can form an interface between the individual modules.

Damit der Roboter autonom eine Aufgabe (task) verrichten kann, kann die Steuereinheit 150 Funktionen zur Navigation des Roboters in seinem Einsatzgebiet umfassen, die von dem oben erwähnten Navigationsmodul 152 bereitgestellt werden. Diese Funktionen sind an sich bekannt und können unter anderem eine der folgenden umfassen:

  • • das Erstellen von (elektronischen) Karten durch Sammeln von Informationen über die Umgebung mit Hilfe der Sensoreinheit 120, beispielsweise aber nicht ausschließlich mittels SLAM-Verfahren,
  • • das Management von einer oder mehreren Karten zu einem oder mehreren den Karten zugeordneten Einsatzgebieten des Roboters,
  • • das Bestimmen der Position und Orientierung (Pose) des Roboters in einer Karte basierend auf den mit den Sensoren der Sensoreinheit 120 ermittelten Informationen der Umgebung,
  • • eine kartenbasierte Pfadplanung (Trajektorienplanung) von einer aktuellen Pose des Roboters (Startpunkt) zu einem Zielpunkt,
  • • ein Konturfolgemodus, in dem der Roboter (100) sich entlang der Kontur eines oder mehrerer Hindernisse (z.B. einer Wand) in einem im Wesentlichen konstanten Abstand d zur dieser Kontur bewegt,
  • • eine Teilgebietserkennung, bei der die Karte analysiert und in Teilgebiete zerlegt wird, wobei beispielsweise Raumgrenzen wie Wände und Türdurchgänge identifiziert werden, wodurch die Teilgebiete die Räume einer Wohnung und/oder sinnvolle Teilbereiche dieser Räume beschreiben.
In order for the robot autonomously to perform a task, the control unit can 150 Functions for the navigation of the robot in his field of use include the above-mentioned navigation module 152 to be provided. These functions are known per se and may include, but are not limited to, one of the following:
  • • creating (electronic) maps by gathering information about the environment using the sensor unit 120 but not exclusively by means of SLAM methods,
  • The management of one or more cards to one or more application areas of the robot assigned to the cards,
  • • determining the position and orientation (pose) of the robot in a map based on that with the sensors of the sensor unit 120 determined information of the environment,
  • A map-based path planning (trajectory planning) from a current pose of the robot (starting point) to a destination point,
  • A contour following mode in which the robot ( 100 ) moves along the contour of one or more obstacles (eg, a wall) at a substantially constant distance d from that contour,
  • • Partial area recognition, in which the map is analyzed and divided into subareas, identifying, for example, spatial boundaries such as walls and doorways, whereby the subareas describe the spaces of a dwelling and / or meaningful parts of these spaces.

Die Steuereinheit 150 kann mit Hilfe des Navigationsmoduls 152 und basierend auf den Informationen der Sensoreinheit 120 beispielsweise während des Betriebs des Roboters laufend eine Karte des Robotereinsatzgebietes aktualisieren z.B. wenn die Umgebung des Roboters sich verändert (Hindernis wird verschoben, Tür wird geöffnet, etc.). Eine aktuelle Karte kann dann von der Steuereinheit 150 zur kurz- und/oder langfristigen Bewegungsplanung für den Roboter verwendet werden. Als Planungshorizont wird jener Weg bezeichnet, den die Steuereinheit 150 eine (Soll-) Bewegung des Roboters vorherberechnet, bevor diese tatsächlich ausgeführt wird. Die hier beschriebenen Ausführungsbeispiele betreffen unter anderem verschiedene Ansätze und Strategien für die Bewegungsplanung in bestimmten Situationen, z.B. in Situationen, in denen bestimmte Manöver durch Hindernisse blockiert sind und daher nicht durchgeführt werden können.The control unit 150 can with the help of the navigation module 152 and based on the information of the sensor unit 120 For example, during operation of the robot continuously update a map of the robotic area, for example, when the environment of the robot changes (obstacle is moved, door is opened, etc.). A current map can then be from the control unit 150 used for short and / or long-term motion planning for the robot. The planning horizon is the path the control unit uses 150 predicts a (target) movement of the robot before it is actually executed. The embodiments described herein relate inter alia to different approaches and strategies for motion planning in certain situations, for example in situations in which certain maneuvers are blocked by obstacles and therefore can not be performed.

Im Allgemeinen ist eine vom Roboter 100 verwendbare (elektronische) Karte eine Sammlung von Kartendaten (z.B. eine Datenbank) zur Speicherung von ortsbezogenen Informationen über ein Einsatzgebiet des Roboters und die für den Roboter relevante Umgebung in diesem Einsatzgebiet. In diesem Zusammenhang bedeutet „ortbezogen“, dass die gespeicherten Informationen jeweils einer Position oder einer Pose in einer Karte zugeordnet sind. Eine Karte repräsentiert also eine Vielzahl von Datensätzen mit Kartendaten, und die Kartendaten können beliebige ortsbezogene Informationen enthalten. Hierbei können die ortsbezogenen Informationen in unterschiedlichen Detail- und Abstraktionsgrad gespeichert sein, wobei dieser an eine spezifische Funktion angepasst sein kann. Insbesondere können einzelne Informationen redundant gespeichert sein. Häufig wird eine Zusammenstellung mehrerer Karten, die das gleiche Gebiet betreffen, jedoch in unterschiedlicher Form (Datenstruktur) gespeichert sind, ebenfalls als „eine Karte“ bezeichnet.In general, one is from the robot 100 usable (electronic) map a collection of map data (eg a database) for storage of location-based information about a field of application of the robot and the environment relevant to the robot in this field. In this context, "location-based" means that the stored information is associated with a position or a pose in a map. A map thus represents a plurality of data records with map data, and the map data may contain any location-related information. Here, the location-related information can be stored in different levels of detail and abstraction, which can be adapted to a specific function. In particular, individual information can be stored redundantly. Often, a collection of multiple maps that relate to the same area but are stored in different form (data structure) is also referred to as "a map".

Ein technisches Gerät ist für einen menschlichen Nutzer im täglichen Leben am nützlichsten, wenn einerseits das Verhalten des Geräts für den Nutzer nachvollziehbar und verständlich ist und andererseits die Bedienung intuitiv möglich ist. Es ist in der Regel wünschenswert, dass ein autonomer mobiler Roboter (z.B. ein Bodenreinigungsroboter) ein für einen menschlichen Nutzer intuitiv nachvollziehbares und praktisches Verhalten an den Tag legt. Dazu muss der Roboter sein Einsatzgebiet durch technische Verfahren ähnlich interpretieren und in Teilgebiete aufteilen wie dies ein menschlicher Nutzer tun würde (z.B. Wohnzimmer, Schlafzimmer, Flur, Küche, Essbereich, etc.). Dies ermöglicht eine einfache Kommunikation zwischen Nutzer und Roboter, beispielsweise in Form einfacher Kommandos an den Roboter (z.B. „Reinige das Schlafzimmer“) und/oder in Form von Benachrichtigungen an den Nutzer (z.B. „Reinigung des Schlafzimmers abgeschlossen“). Darüber hinaus können die erwähnten Teilgebiete für die Anzeige einer Karte des Robotereinsatzgebiets und die Bedienung des Roboters mittels dieser Karte genutzt werden.A technical device is the most useful for a human user in daily life, when on the one hand the behavior of the device is comprehensible and understandable for the user and on the other hand the operation is intuitively possible. It is generally desirable for an autonomous mobile robot (e.g., a floor cleaning robot) to exhibit an intuitively traceable and practical behavior for a human user. For this purpose, the robot must interpret its field of application by technical methods similar and divide into subdivisions as a human user would do (for example, living room, bedroom, hallway, kitchen, dining area, etc.). This allows for easy user-robot communication, for example, in the form of simple commands to the robot (e.g., "clean the bedroom") and / or in the form of notifications to the user (e.g., "cleaning the bedroom completed"). In addition, the mentioned sub-areas can be used for the display of a map of the robotic area and the operation of the robot by means of this card.

Nun kann eine Aufteilung des Robotereinsatzgebiets in Teilgebiete durch einen Nutzer zum Einen nach anerkannten Konvention und zum Anderen nach persönlichen Vorlieben (und somit benutzerspezifisch, z.B. Essbereich, Kinderspielecke, etc.) vorgenommen werden. Ein Beispiel einer bekannten Konvention ist die Unterteilung einer Wohnung in verschiedene Zimmer wie z.B. Schlafzimmer, Wohnzimmer und Flur. Gemäß einer beispielhaften benutzerspezifischen Unterteilung könnte ein Wohnzimmer z.B. in einen Kochbereich, eine Essecke oder Bereiche vor und neben dem Sofa eingeteilt werden. Die Grenzen zwischen diesen Bereichen können mitunter sehr „unscharf“ definiert sein und unterliegen im Allgemeinen der Interpretation des Nutzers. Ein Kochbereich könnte beispielsweise durch einen Fliesenboden gekennzeichnet sein, während der Essbereich lediglich durch die Anwesenheit eines Tisches mit Stühlen gekennzeichnet ist. Die Anpassung an den menschlichen Nutzer kann für einen Roboter eine sehr schwierige Aufgabe sein und häufig kann eine Roboter-Nutzer-Interaktion notwendig sein, um die Aufteilung des Robotereinsatzgebietes korrekt vorzunehmen. Um diese Roboter-Nutzer-Interaktion einfach und verständlich zu gestalten müssen die Kartendaten und die bereits automatisch vorgenommene Aufteilung vom Gerät interpretiert und aufbereitet werden. Des Weiteren erwartet sich der menschliche Nutzer ein an die vorgenommene Aufteilung angepasstes Verhalten des autonomen mobilen Roboters. Deshalb kann es gewünscht sein, dass die Teilgebiete vom Benutzer oder automatisch durch den Roboter mit Attributen versehen werden können, die das Verhalten des Roboters beeinflussen.Now a division of the robot use area into sub-areas by a user on the one hand according to recognized convention and on the other hand according to personal preferences (and thus user-specific, eg dining area, children's play area, etc.) are made. An example of one well-known convention is the subdivision of an apartment in different rooms such as bedroom, living room and hallway. According to an exemplary user-specific subdivision, a living room could, for example, be divided into a cooking area, a dining area or areas in front of and beside the sofa. The boundaries between these areas can sometimes be defined very "blurred" and are generally subject to the user's interpretation. For example, a cooking area could be characterized by a tile floor, while the dining area is characterized only by the presence of a table with chairs. The adaptation to the human user can be a very difficult task for a robot and often a robot-user interaction may be necessary to correctly divide the robotic area. In order to make this robot-user interaction simple and comprehensible, the map data and the already automatic division must be interpreted and prepared by the device. Furthermore, the human user expects a behavior of the autonomous mobile robot adapted to the division made. Therefore, it may be desired that the subregions may be provided by the user or automatically by the robot with attributes that affect the behavior of the robot.

Eine technische Voraussetzung hierfür ist, dass der autonome mobile Roboter eine Karte seines Einsatzgebiets besitzt, um sich in diesem anhand der Karte zu orientieren. Diese Karte wird beispielsweise von dem Roboter selbsttätig aufgebaut und permanent gespeichert. Um das Ziel einer für den Nutzer intuitiven Aufteilung des Robotereinsatzgebiets zu erreichen, werden technische Verfahren benötigt, die (1) selbsttätig eine Aufteilung der Karte des Robotereinsatzgebiets wie beispielsweise einer Wohnung nach vorgegebenen Regeln vornehmen, (2) eine einfache Interaktion mit dem Benutzer zulassen, um sich den a-priori nicht bekannten Benutzerwünschen bei der Aufteilung anzupassen, (3) die automatisch generierte Aufteilung vorverarbeiten, um sie dem Benutzer einfach und verständlich in einer Karte darzustellen, und (4) aus der so erstellten Aufteilung möglichst selbsttätig gewisse Eigenschaften ableiten können, die geeignet sind, ein vom Nutzer erwartetes Verhalten zu erreichen.A technical prerequisite for this is that the autonomous mobile robot has a map of its area of use in order to orient itself in the map. This map is for example built up automatically by the robot and stored permanently. In order to achieve the goal of a user-intuitive division of the robotic area, technical methods are needed which ( 1 ) automatically make a division of the map of the robot use area such as an apartment according to predetermined rules, ( 2 ) permit a simple interaction with the user in order to adapt to the a priori unknown user wishes in the distribution, 3 ) preprocess the automatically generated split to make it easy and understandable to present to the user on a map; and (4) to derive, as far as possible, automatically certain characteristics suitable for achieving user expected behavior.

3 zeigt eine mögliche Darstellung einer Karte eines Robotereinsatzgebietes, wie sie vom Roboter, z.B. mittels Sensoren und eines SLAM-Algorithmus aufgebaut wird. Beispielsweise misst der Roboter mittels eines Abstandssensors den Abstand zu Hindernissen (z.B. eine Wand, ein Möbelstück, eine Tür, etc.) und berechnet aus den Messdaten (üblicherweise eine Punktwolke) Liniensegmente, welche die Grenzen seines Einsatzgebietes definieren. Das Einsatzgebiet des Roboters kann beispielsweise durch eine geschlossene Kette von Liniensegmenten (meist ein konkaver, einfacher Polygonzug) definiert werden, wobei jedes Liniensegment einen Startpunkt, einen Endpunkt und folglich auch eine Richtung aufweist. Die Richtung des Liniensegmentes zeigt an, welche Seite des Liniensegmentes ins Innere des Einsatzgebietes zeigt, bzw. von welcher Seite der Roboter das Hindernis, welches durch ein bestimmtes Liniensegment angezeigt wird, „gesehen“ hat. Das in 3 dargestellte Polygon beschreibt für den Roboter das Einsatzgebiet vollständig, ist jedoch für eine Roboter-Nutzer-Kommunikation nur sehr schlecht geeignet. Ein menschlicher Nutzer wird unter Umständen Schwierigkeiten haben, seine eigene Wohnung wiederzuerkennen und sich darin zu orientieren. Eine Alternative zu der genannten Kette von Liniensegmenten ist eine Rasterkarte, bei der ein Raster von z.B. 10×10cm über das Robotereinsatzgebiet gelegt wird, und jede Zelle (d.h. 10×10cm-Box) markiert wird, sofern Sie von einem Hindernis belegt ist. Auch solche Rasterkarten sind für einen menschlichen Nutzer nur schwer interpretierbar. 3 shows a possible representation of a map of a robotic area, as constructed by the robot, for example by means of sensors and a SLAM algorithm. For example, the robot uses a distance sensor to measure the distance to obstacles (eg a wall, a piece of furniture, a door, etc.) and uses the measured data (usually a point cloud) to calculate line segments that define the limits of its area of application. The field of application of the robot can be defined, for example, by a closed chain of line segments (usually a concave, simple polygon), each line segment having a starting point, an end point and consequently also a direction. The direction of the line segment indicates which side of the line segment points to the interior of the mission area, or from which side the robot has "seen" the obstacle indicated by a particular line segment. This in 3 shown polygon describes for the robot the field of application completely, but is very poorly suited for a robot-user communication. A human user may have difficulty recognizing and orienting his own home. An alternative to the mentioned chain of line segments is a raster map, where a grid of, for example, 10 × 10 cm is placed over the robotic area, and each cell (ie 10 × 10 cm box) is marked, if it is occupied by an obstacle. Even such raster maps are difficult to interpret for a human user.

Nicht nur um die Interaktion mit einem menschlichen Nutzer zu vereinfachen, sondern auch, um das Einsatzgebiet in (aus Sicht des Nutzers) sinnvollerweise „abzuarbeiten“ soll der Roboter zunächst automatisiert sein Robotereinsatzgebiet in Teilgebiete unterteilen (also eine Teilgebietsdetektion durchführen). Eine solche Unterteilung in Teilgebiete ermöglicht dem Roboter, seine Aufgabe in seinem Einsatzgebiet leichter, systematischer, differenzierter, (aus Sicht des Nutzers) „logischer“, etc. auszuführen und die Interaktion mit dem Nutzer zu verbessern. Um eine sinnvolle Unterteilung zu erhalten, muss der Roboter verschieden Sensordaten gegeneinander abwägen. Insbesondere kann er Informationen über die Befahrbarkeit (schwierig/leicht) eines Bereichs seines Einsatzgebietes nutzen, um ein Teilgebiet zu definieren. Des Weiteren kann der Roboter von der (widerlegbaren) Annahme ausgehen, dass Räume in der Regel rechteckig sind. Der Roboter kann lernen, dass einige Änderungen der Aufteilung zu sinnvolleren Ergebnissen führt (so dass z.B. bestimmte Hindernisse mit einer gewissen Wahrscheinlichkeit in einem bestimmten Teilgebiet liegen).Not only to simplify the interaction with a human user, but also to "work off" the application area in (from the point of view of the user), the robot should first automatically subdivide its robot deployment area into subareas (ie carry out a subarea detection). Such a subdivision into subareas allows the robot to carry out its task more easily, more systematically, more differentiated, (from the point of view of the user) "logical", etc., and to improve the interaction with the user. In order to obtain a meaningful subdivision, the robot must weigh different sensor data against each other. In particular, he can use information about the navigability (difficult / easy) of a section of his field of application to define a sub-area. Furthermore, the robot can assume (refutable) that spaces are usually rectangular. The robot can learn that some changes in the split lead to more meaningful results (so that, for example, certain obstacles are likely to be in a particular sub-area).

Wie in 3 dargestellt, ist ein Roboter üblicherweise in der Lage, Hindernisse mittels Sensoren (z.B. Laser-Abstandssensoren, Triangulations-Sensoren, Ultraschall-Abstandssensoren, Kollisionssensoren oder eine Kombination der genannten) zu erkennen und die Grenzen seines Einsatzgebietes in Form von Begrenzungslinien in einer Karte einzuzeichnen. Allerdings ermöglicht die beschränkte Sensorik eines Roboters im Allgemeinen kein eindeutiges Erkennen einer für einen menschlichen Nutzer selbstverständlichen Unterteilung des Einsatzgebietes in unterschiedliche Räume (z.B. Schlafzimmer, Wohnzimmer, Flur, etc). Selbst die Entscheidung, ob die in der Karte enthaltenen Begrenzungslinien (beispielsweise die Linie zwischen den Punkten J und K in 3) zu einer Wand oder zu einem Möbelstück gehören, ist nicht ohne weiteres automatisiert möglich. Auch die „Grenze“ zwischen zwei Räumen ist für einen Roboter nicht ohne weiteres erkennbar.As in 3 As shown, a robot is typically capable of detecting obstacles by means of sensors (eg, laser proximity sensors, triangulation sensors, ultrasonic distance sensors, collision sensors, or a combination of the above) and drawing the boundaries of its area of use in the form of boundary lines in a map. However, the limited sensor technology of a robot generally does not allow unambiguous recognition of a subdivision of the application area into different rooms (eg bedroom, living room, corridor, etc.) that is natural for a human user. Even the decision, whether the boundary lines contained in the map (for example, the line between the points J and K in 3 ) belong to a wall or to a piece of furniture is not automatically possible. Even the "border" between two rooms is not easily recognizable to a robot.

Um die erwähnten Probleme zu lösen und eine Unterteilung des Robotereinsatzgebietes in unterschiedliche Teilgebiete (z.B. Zimmer) automatisiert zu ermöglichen, stellt der Roboter basierend auf den Sensordaten „Hypothesen“ betreffend die Umgebung des Roboters auf, welche mittels unterschiedlicher Verfahren getestet werden. Kann eine Hypothese falsifiziert werden, wird sie verworfen. Sind zwei Begrenzungslinien (z.B. die Linien A-A' und O-O' in 3) annähernd parallel und in einem Abstand, der der üblichen lichten Breite (hierfür gibt es standardisierte Größen) eines Türdurchgangs entspricht, kann der Roboter die Hypothese „Türdurchgang“ aufstellen und daraus schließen, dass dieser zwei unterschiedliche Zimmer trennt. Im einfachsten Fall kann eine automatisiert aufgestellte Hypothese getestet werden, indem der Roboter den Nutzer „befragt“, d.h. Feedback des Nutzers einfordert. Der Nutzer kann die Hypothese dann entweder bestätigen oder verwerfen. Eine Hypothese kann jedoch automatisiert getestet werden, in dem die aus der Hypothese resultierenden Schlussfolgerungen im Hinblick auf Ihre Plausibilität geprüft werden. Wenn die vom Roboter erkannten Räume (z.B. mittels Erkennung der Türschwellen) einen zentralen Raum umfassen, der z.B. kleiner ist als ein Quadratmeter, ist die Hypothese, die letztendlich zu diesem kleinen zentralen Raum geführt hat, wahrscheinlich falsch. Ein weiterer automatisierter Test kann darin bestehen, zu prüfen, ob sich die aus zwei Hypothesen abgeleiteten Schlussfolgerungen widersprechen oder nicht. Wenn beispielsweise sechs Hypothesen betreffend eine Tür aufgestellt werden können und nur bei fünf vermeintlichen Türen kann der Roboter eine Türschwelle (eine kleine Stufe) detektieren, so kann dies ein Indiz dafür sein, dass die Hypothese betreffend die Tür ohne Türschwelle falsch ist.In order to solve the mentioned problems and to enable a subdivision of the robotic deployment area into different subareas (eg rooms), the robot sets up "hypotheses" concerning the environment of the robot, which are tested by means of different methods, based on the sensor data. If a hypothesis can be falsified, it is rejected. Are two boundary lines (eg the lines AA 'and OO' in 3 ) approximately parallel and at a distance that corresponds to the usual clear width (there are standardized sizes) of a doorway, the robot can establish the "doorway" hypothesis and conclude that it separates two different rooms. In the simplest case, an automated hypothesis can be tested by the robot "questioning" the user, ie requesting feedback from the user. The user can then either confirm or reject the hypothesis. However, a hypothesis can be tested in an automated way by testing the hypothesis's conclusions for plausibility. If the spaces recognized by the robot (eg by detecting the thresholds) comprise a central space that is smaller than one square meter, for example, the hypothesis that ultimately led to this small central space is probably wrong. Another automated test may be to examine whether or not the two-hypothesis conclusions contradict each other. For example, if six hypotheses regarding a door can be set up and only for five supposed doors can the robot detect a doorstep (a small step), this may be an indication that the hypothesis concerning the door without the door sill is wrong.

Bei der Erstellung einer Hypothese durch den Roboter werden verschieden Sensormessungen kombiniert. Für einen Türdurchgang sind dies beispielsweise die Durchgangsbreite, Durchgangstiefe (gegeben durch Wanddicke), die Existenz einer Wand rechts und links des Durchgangs oder eine in den Raum ragende Tür. Diese Informationen können beispielsweise mit einem Abstandssensor durch den Roboter ermittelt werden. Mittels eines Beschleunigungssensors oder eines Lagesensors (z.B. ein gyroskopischer Sensor) kann eine möglicherweise vorhandene Türschwelle, welche der Roboter überfährt, detektiert werden. Durch Bildverarbeitung und eine Vermessung der Deckenhöhe können zusätzliche Informationen ermittelt werden.When creating a hypothesis by the robot different sensor measurements are combined. For a doorway these are, for example, the passage width, passage depth (given by wall thickness), the existence of a wall to the right and left of the passage or a door projecting into the room. This information can be determined, for example, with a distance sensor by the robot. By means of an acceleration sensor or a position sensor (for example a gyroscopic sensor), it is possible to detect a possibly existing door threshold which the robot passes over. By image processing and a measurement of the ceiling height additional information can be determined.

Ein weiteres Beispiel für eine mögliche Hypothese ist der Verlauf von Wänden im Robotereinsatzgebiet. Diese sind unter anderem durch zwei parallele Linien gekennzeichnet, welche einen Abstand einer typischen Wanddicke (siehe 3, Dicke dw) haben und vom Roboter aus zwei entgegengesetzten Richtungen gesehen wurden (z.B. die Linien K-L und L'-K' in 3). Vor einer Wand können jedoch weitere Objekte (Hindernisse) wie beispielsweise Schränke, Regale, Blumentöpfe, etc., stehen, welche ebenfalls mit Hilfe von Hypothesen identifiziert werden können. Eine Hypothese kann auch auf einer anderen Hypothese beruhen. So ist beispielsweise eine Tür eine Unterbrechung einer Wand. Wenn also eine zuverlässige Hypothese über den Verlauf von Wänden im Einsatzgebiet des Roboters gemacht werden können, so können diese das Erkennen von Türen und somit die automatisierte Unterteilung des Robotereinsatzgebiets erleichtern.Another example of a possible hypothesis is the course of walls in the robotic field. These are characterized inter alia by two parallel lines, which are at a distance of a typical wall thickness (see 3 , Thickness dw) and were seen by the robot in two opposite directions (eg the lines KL and L'-K 'in 3 ). However, other objects (obstacles), such as cupboards, shelves, flowerpots, etc., can stand in front of a wall, which can also be identified with the help of hypotheses. A hypothesis can also be based on a different hypothesis. For example, a door is a break in a wall. Thus, if a reliable hypothesis can be made about the course of walls in the field of use of the robot, these can facilitate the recognition of doors and thus the automated subdivision of the robot deployment area.

Um Hypothesen zu testen und zu bewerten, kann ihnen ein Maß an Plausibilität zugeordnet werden. In einem einfachen Ausführungsbeispiel wird einer Hypothese für jede bestätigende Sensormessung ein vordefinierter Punktewert gutgeschrieben. Wenn auf diese Weise eine bestimmte Hypothese eine Mindestpunktzahl erreicht, so wird sie als plausibel angesehen. Eine negative Punktzahl könnte zum Verwerfen der Hypothese führen. In einem weiter entwickelten Ausführungsbeispiel wird einer bestimmten Hypothese eine Wahrscheinlichkeit für ihr zutreffen zugeordnet. Dies erfordert ein Wahrscheinlichkeitsmodel, welches Korrelationen zwischen verschiedenen Sensormessungen berücksichtigt, ermöglicht aber auch komplexe Wahrscheinlichkeitsaussagen mit Hilfe stochastischer Rechenmodelle und somit eine verlässlichere Vorhersage der Erwartungen des Benutzers. Beispielsweise können in gewissen Region (z.B. Ländern), in denen der Roboter zum Einsatz kommt, die Türbreiten standardisiert sein. Misst der Roboter eine solche standardisierte Breite, handelt es sich mit hoher Wahrscheinlichkeit um eine Tür. Abweichungen von den Standardbreiten reduzieren die Wahrscheinlichkeit, dass es sich um eine Tür handelt. Hierfür kann beispielsweise ein Wahrscheinlichkeitsmodell basierend auf einer Normalverteilung verwendet werden. Eine weitere Möglichkeit zur Erstellung und Bewertung von Hypothesen ist die Nutzung von „maschinellem Lernen“, um geeignete Modelle und Maßfunktionen zu erstellen (siehe z.B. Trevor Hastie, Robert Tibshirani, Jerome Friedman: „The Elements of Statistical Learning“, 2. Auflage. Springer-Verlag, 2008). Hierzu werden beispielsweise Kartendaten in verschiedenen Wohnumgebungen durch einen oder mehr Roboter aufgenommen. Diese können dann mit Grundrissen oder durch einen Nutzer eingegebene Daten (z.B. betreffend den Verlauf von Wänden oder Türdurchgängen oder über eine gewünschte Aufteilung) ergänzt werden und von einem Lern-Algorithmus ausgewertet werden.In order to test and evaluate hypotheses, a degree of plausibility can be assigned to them. In a simple embodiment, a hypothesis is credited with a predefined score for each confirmatory sensor measurement. If in this way a particular hypothesis reaches a minimum score, it is considered plausible. A negative score could lead to the rejection of the hypothesis. In a further developed embodiment, a certain hypothesis is assigned a probability for applying it. This requires a probabilistic model that accounts for correlations between different sensor measurements, but also allows for complex probability statements using stochastic computational models, thus providing a more reliable prediction of user expectations. For example, in certain regions (eg, countries) where the robot is used, door widths may be standardized. If the robot measures such a standardized width, it is most likely a door. Deviations from the standard width reduce the likelihood that it is a door. For example, a probability model based on a normal distribution can be used for this purpose. Another way to create and evaluate hypotheses is to use "machine learning" to build appropriate models and measure functions (see, eg, Trevor Hastie, Robert Tibshirani, Jerome Friedman: "The Elements of Statistical Learning"). 2 , Edition. Springer-Verlag, 2008). For this purpose, for example, map data in different living environments are recorded by one or more robots. These can then be supplemented with floor plans or data entered by a user (eg concerning the course of walls or doorways or a desired partitioning) and evaluated by a learning algorithm.

Eine weitere Methode, die alternativ oder zusätzlich zu der Verwendung der oben erläuterten Hypothesen verwendet werden kann, ist die Unterteilung eines Robotereinsatzgebietes (z.B. eine Wohnung) in mehrere rechteckige Bereiche (z.B. Zimmer). Dieser Ansatz basiert auf der Annahme, dass Zimmer in der Regel rechteckig sind oder aus mehreren Rechtecken zusammengesetzt werden können. In einer von einem Roboter erstellten Karte ist diese rechteckige Form der Zimmer im Allgemeinen nicht zu erkennen, da in den Zimmern zahlreiche Hindernisse mit komplexen Begrenzungen wie z.B. Möbel das Einsatzgebiet des Roboters einschränken. Another method, which can be used alternatively or in addition to the use of the hypotheses discussed above, is to divide a robotic deployment area (eg, an apartment) into several rectangular areas (eg, rooms). This approach is based on the assumption that rooms are usually rectangular or can be composed of multiple rectangles. In a map created by a robot, this rectangular shape of the room is generally undetectable because in the rooms, numerous obstacles with complex boundaries such as furniture restrict the field of use of the robot.

Basierend auf der Annahme rechteckiger Zimmer wird das Robotereinsatzgebiet mit Rechtecken unterschiedlicher Größe überdeckt, welche die Zimmer wiedergeben sollen. Insbesondere werden die Rechtecke so gewählt, dass jedem für den Roboter zugänglichen Punkt in der Karte des Robotereinsatzgebiets eindeutig ein Rechteck zugeordnet werden kann. Das heißt, die Rechtecke überlappen sich in der Regel nicht. Dabei wird nicht ausgeschlossen, dass ein Rechteck Punkte enthält, die für den Roboter nicht zugänglich sind (z.B. weil Möbel die Zugänglichkeit ausschließen). Das durch die Rechtecke beschriebene Gebiet kann also größer und von geometrisch einfacherer Gestalt sein als das tatsächliche Robotereinsatzgebiet. Um die Orientierung und Größe der einzelnen Rechtecke zu bestimmen, werden beispielsweise lange gerade Begrenzungslinien in der Karte des Robotereinsatzgebiets genutzt, wie sie z.B. entlang von Wänden auftreten (siehe z.B. 3, Gerade durch die Punkte L' und K', Gerade durch die Punkte P und P' sowie P" und P"’). Zur Auswahl der zu verwendenden Begrenzungslinien werden verschiedene Kriterien verwendet. Ein Kriterium kann z.B. sein, dass die betreffenden Begrenzungslinien zu einer Vielzahl anderer Begrenzungslinien annähernd parallel oder orthogonal sind. Ein weiteres Kriterium kann sein, dass die betreffenden Begrenzungslinien annähernd auf einer Geraden liegen und/oder vergleichsweise (d.h. in der Größenordnung der Außenabmessungen des Robotereinsatzgebietes) lang sind. Andere Kriterien zur Wahl der Orientierung und Größe der Rechtecke sind beispielsweise erkannte Türdurchgänge oder Bodenbelagsgrenzen. Diese und andere Kriterien können zu ihrer Beurteilung in eine oder in mehreren Bewertungsfunktionen (analog zu dem Maß an Plausibilität einer Hypothese, z.B. dem Zuordnen eines Punktewertes für eine Hypothese) verwendet werden, um die konkrete Form und Lage der Rechtecke zu ermitteln. Beispielsweise werden den Begrenzungslinien Punkte für erfüllte Kriterien gegeben. Die Begrenzungslinie mit dem höchsten Punktwert wird als Grenze zwischen zwei Rechtecken genutzt.Based on the assumption of rectangular rooms, the robotic area is covered with rectangles of different sizes intended to render the rooms. In particular, the rectangles are selected such that each point accessible to the robot in the map of the robotic area can be clearly assigned a rectangle. That is, the rectangles usually do not overlap. It is not excluded that a rectangle contains points that are not accessible to the robot (eg because furniture excludes accessibility). Thus, the area described by the rectangles may be larger and of a geometrically simpler shape than the actual robotic area. To determine the orientation and size of the individual rectangles, for example, long straight boundary lines are used in the map of the robotic area, as they occur along walls (see, eg 3 , Straight through the points L 'and K', straight through the points P and P 'and P "and P"'). Various criteria are used to select the boundary lines to use. A criterion may be, for example, that the respective boundary lines to a plurality of other boundary lines are approximately parallel or orthogonal. Another criterion may be that the respective boundary lines are approximately on a straight line and / or comparatively long (ie in the order of the external dimensions of the robotic area). Other criteria for choosing the orientation and size of the rectangles are, for example, recognized doorways or floor coverings. These and other criteria may be used to evaluate them in one or more evaluation functions (analogous to the degree of plausibility of a hypothesis, eg, mapping a score for a hypothesis) to determine the specific shape and location of the rectangles. For example, the boundary lines are given points for satisfied criteria. The boundary line with the highest score is used as the boundary between two rectangles.

Basierend auf der Annahme, dass Räume im Wesentlichen rechteckig sind, kann der Roboter aus der Karte der Begrenzungslinien (siehe 3) die äußersten Begrenzungslinien zu einem rechtwinkligen Polygon (rectilinear polygon) vervollständigen. Ein mögliches Ergebnis einer Unterteilung einer Karte in Teilgebiete ist exemplarisch in 4 dargestellt. Demnach wurde die Wohnung in verschiedene Zimmer unterteilt (z.B. Schlafzimmer 10 mit Bett, Flur 20, Wohnzimmer mit offenem Küchenbereich 30). Die Unterteilung der Wohnung in Teilgebiete 10, 20, 30 (Zimmer) wurde z.B. aufgrund detektierter Türdurchgänge vorgenommen. Von dem Teilgebiet 30 (Wohnzimmer mit offenem Küchenbereich) wurde basierend auf erkannten Bodenbelägen weiter die Teilgebiete 31 (Küchenbereich, gefliester Boden) und 32 (Teppichboden) abgeteilt (der verbleibende Teilgebiet 30 hat z.B. einen Parkettboden).Based on the assumption that spaces are essentially rectangular, the robot can choose from the map of the boundary lines (see 3 ) complete the outermost boundary lines to a right-angled polygon (rectilinear polygon). A possible result of a subdivision of a map into subareas is exemplary in 4 shown. Accordingly, the apartment was divided into different rooms (eg bedroom 10 with bed, hall 20 , Living room with open kitchen area 30 ). The subdivision of the apartment into subareas 10 . 20 . 30 (Room) was made eg due to detected doorways. From the subarea 30 (Living room with open kitchen area) was based on recognized flooring continue the subareas 31 (Kitchen area, tiled floor) and 32 (Carpet) (the remaining area 30 has eg a parquet floor).

Wie bereits erwähnt wird in der Regel eine im Wesentlichen vollständige Karte des Robotereinsatzgebietes benötigt, bevor der Roboter eine sinnvolle automatische Unterteilung einer Karte in Teilgebiete (z.B. Zimmer) vornehmen kann. Bis dahin bewegt sich der Roboter durch das Roboter Einsatzgebiet, ohne Teilgebietsgrenzen beachten zu können. Dies kann zu ineffizienten und für einem Nutzer schwer nachvollziehbaren Verhalten des Roboters in der „Explorationsphase“ führen. Beispielsweise passiert der Roboter einen Türdurchgang und kommt in einen weiteren Raum bevor er einen Raum vollständig erkundet hat, was dazu führen kann, dass der Roboter durch einen großen Teil des Robotereinsatzgebietes (z.B. einer Wohnung) gefahren ist, und dennoch an unterschiedlichen Stellen der Wohnung (in unterschiedlichen Zimmern) „weiße Flecken“ in der Karte bleiben. Der Roboter muss schließlich diese „weißen Flecken“ in der Karte einzeln anfahren, um diese zu erkunden und eine vollständige Karte zu erhalten. Die hier beschriebenen Ausführungsbeispiele betreffen unter anderem ein Verfahren, welches zumindest in einigen Situationen die erwähnte Explorationsphase effizienter gestaltet das Verhalten des Roboters in dieser Explorationsphase für einen Nutzer „logischer“ erscheinen lässt.As already mentioned, a substantially complete map of the robotic area is usually needed before the robot can make a meaningful automatic subdivision of a map into subareas (e.g., rooms). Until then, the robot moves through the robot application area, without being able to pay attention to sub-area boundaries. This can lead to inefficient and difficult to understand behavior of the robot in the "exploration phase". For example, the robot passes through a doorway and enters another room before fully exploring a room, which may result in the robot moving through a large part of the robotic area (eg, a dwelling) and yet at different locations in the dwelling ( in different rooms) "white spots" remain in the map. The robot must finally approach these "white spots" in the map individually to explore them and get a complete map. The exemplary embodiments described here relate inter alia to a method which, at least in some situations, makes the mentioned exploration phase more efficient and makes the behavior of the robot in this exploration phase more "logical" for a user.

5 illustriert ein exemplarisches Beispiel eines Verfahrens zur Erkundung eines Robotereinsatzgebietes durch einen autonomen mobile Roboter (vgl. 1, Roboter 100). Eine Erkundungsfahrt kann an einem beliebigen Punkt im Robotereinsatzgebiet gestartet werden (5, Schritt S10), und während der Erkundungsfahrt bewegt sich der Roboter durch das Robotereinsatzgebiet. Der Roboter hat am Anfang der Erkundungsfahrt keine oder nur sehr wenige Informationen über seine Umgebung. Die (elektronische) Karte des Roboters wird neu erstellt und ist somit mit Beginn der Erkundung praktisch leer. Der Roboter 100 führt während der Erkundungsfahrt laufend Messungen durch (5, Schritt S11), um Objekte (z.B. Hindernisse, allgemein auch als Navigationsfeatures bezeichnet) in seiner Umgebung zu detektieren, und speichert detektierte Objekte als Kartendaten in einer Karte. Beispielsweise werden Wände und andere Hindernisse (z.B. Möbel und andere Gegenstände) detektiert und deren Position und Lage in der Karte gespeichert. Die für die Detektion verwendete Sensorik ist an sich bekannt und kann in einer Sensoreinheit 120 des Roboters 100 enthalten sein (vgl. 2). Für die Detektion notwendige Berechnungen können von einem in der Steuereinheit 150 (vgl. 2) des Roboters 100 enthaltenen Prozessor durchgeführt werden. 5 illustrates an exemplary example of a method for exploring a robotic area by an autonomous mobile robot (cf. 1 , Robot 100 ). A reconnaissance trip can be started at any point in the robotic area ( 5 , Step S10 ), and during the reconnaissance trip, the robot moves through the robotic area. At the beginning of the exploration, the robot has little or no information about its surroundings. The (electronic) map of the robot is recreated and is thus virtually empty at the beginning of the exploration. The robot 100 carries out continuous measurements during the reconnaissance trip ( 5 , Step S11 ) to objects (eg obstacles, also commonly referred to as navigation features) in its environment detect and stores detected objects as map data in a map. For example, walls and other obstacles (eg furniture and other objects) are detected and their position and location are stored in the map. The sensor system used for the detection is known per se and can be used in a sensor unit 120 of the robot 100 be included (cf. 2 ). Calculations necessary for detection can be made by one in the control unit 150 (see. 2 ) of the robot 100 contained processor are performed.

Während der Erkundungsfahrt führt der Roboter 100 basierend auf den aktuellen Kartendaten eine Teilgebietsdetektion durch (siehe 5, Schritt S12), wobei zumindest ein Referenzteilgebiet detektiert wird (z.B. ein Teil des Robotereinsatzgebietes, in dem der Roboter sich aktuell befindet). Des Weiteren wird geprüft, ob das Referenzteilgebiet vollständig erkundet ist (siehe 5, Schritt S13). Solange das nicht der Fall ist, erkundet der Roboter weiter (nur) das Referenzteilgebiet (siehe 5, Schritt S14), indem laufend Messungen durchgeführt werden, um Objekte in der Umgebung des Roboters zu detektieren und detektierte Objekte in der Karte zu speichern. Die Teilgebietsdetektion wird fortlaufend und/oder nach vorgebbaren Regeln wiederholt, um die Festlegung des Referenzteilgebietes zu aktualisieren. Anschließend prüft der Roboter erneut, ob das (aktualisierte) Referenzteilgebiet vollständig erkundet ist (zurück zu Schritt S13). Sobald die Prüfung ergibt, dass das (aktualisierte) Referenzteilgebiet vollständig erkundet ist, wird weiter geprüft, ob das Robotereinsatzgebiet schon vollständig erkundet ist (siehe 5, Schritt S15). Beispielsweise kann der Roboter bei einer Teilgebietsdetektion ein weiteres Teilgebiet detektiert haben, das noch nicht erkundet wurde. Daraus kann der Roboter schließen, dass die Erkundung des Robotereinsatzgebietes noch nicht vollständig ist und die Erkundung in einem anderen Teilgebiet fortsetzen (5, Schritt S16), welches dann zum Referenzteilgebiet wird. Wenn der Roboter kein weiteres Teilgebiet mehr detektieren kann, welches noch nicht erkundet wurde, ist die Erkundung des Robotereinsatzgebietes abgeschlossen.During the reconnaissance trip, the robot leads 100 based on the current map data a partial area detection by (see 5 , Step S12 ), wherein at least one reference sub-area is detected (eg a part of the robotic area in which the robot is currently located). Furthermore, it is checked whether the reference sub-area is completely explored (see 5 , Step S13 ). As long as this is not the case, the robot continues to explore (only) the reference sub-area (see 5 , Step S14 ) by continuously taking measurements to detect objects in the environment of the robot and to store detected objects in the map. The subarea detection is repeated continuously and / or according to predefinable rules in order to update the definition of the reference subarea. The robot then checks again whether the (updated) reference sub-area is completely explored (back to step S13 ). As soon as the test reveals that the (updated) reference subarea is fully explored, it is further checked whether the robotic area is already fully explored (see 5 , Step S15 ). For example, the robot may have detected a sub-area in a sub-area detection, which has not yet been explored. From this, the robot can conclude that the exploration of the robotic area is not yet complete and that the exploration continues in another area ( 5 , Step S16 ), which then becomes the reference sub-area. If the robot can no longer detect another sub-area that has not yet been explored, the exploration of the robotic area is completed.

Zur Aktualisierung des Referenzteilgebietes können bei der Teilgebietsdetektion sowohl die aktuellen Kartendaten als auch die bisherigen (d.h. bei einer früheren Teilgebietsdetektion festgelegten) Grenzen des Referenzteilgebietes berücksichtigt werden. Die laufende Aktualisierung des Referenzteilgebietes wird später noch genauer erläutert (vgl. 8 bis 10). In einem Ausführungsbeispiel kann zur Aktualisierung des Referenzteilgebietes der bereits erkundete Teil des Robotereinsatzgebietes in ein oder mehrere Teilgebiete gegliedert werden, wobei aus den detektierten Teilgebieten das Referenzteilgebiet nach vordefinierten Kriterien ausgewählt wird. Wird nur ein einziges Teilgebiet detektiert, ist dieses das Referenzteilgebiet. Ein Kriterium zur Auswahl des Referenzteilgebietes kann z.B. das Ausmaß der Überlappung mit dem zuvor (bei der vorhergehenden Teilgebietsdetektion) festgelegten Referenzteilgebiet sein. Das heißt, es wird aus den detektierten Teilgebieten jenes als aktuelles Referenzteilgebiet ausgewählt, welches mit dem zuvor ermittelten Referenzteilgebiet die größte Überlappung aufweist.For updating the reference subarea, both the current map data and the previous limits (that are specified in an earlier subarea detection) of the reference subarea can be taken into account in the subarea detection. The current update of the reference sub-area will be explained in more detail later (see. 8th to 10 ). In one embodiment, for updating the reference sub-area, the already explored part of the robotic area can be subdivided into one or more sub-areas, wherein the reference sub-area is selected according to predefined criteria from the detected sub-areas. If only a single sub-area is detected, this is the reference sub-area. A criterion for selecting the reference subarea may be, for example, the extent of the overlap with the reference subarea previously determined (in the preceding subarea detection). That is, it is selected from the detected sub-areas of that as the current reference sub-area, which has the largest overlap with the previously determined reference sub-area.

Algorithmen zur automatisierten Aufteilung einer Karte in Teilgebiete sind an sich bekannt. Einige dieser Algorithmen funktionieren nur, wenn die Karte vollständig erkundet, also durch Wände und andere Hindernisse vollständig eingeschlossen ist. Diese Algorithmen können für eine nicht-vollständig erkundete Karte genutzt werden, wenn die Karte „künstlich“ abgeschlossen wird. Hierzu kann beispielsweise ein Rahmen (bounding box) um das bereits erkundete Gebiet gelegt werden, und als „virtuelles“ Hindernis berücksichtigt werden. Auch andere Möglichkeiten, eine unvollständig erkundete Karte abzuschließen um die Algorithmen zur automatisierten Aufteilung einer vollständigen Karte zu nutzen, können alternative verwendet werden. In den hier beschriebenen Ausführungsbeispielen können für die Teilgebietsdetektion eine oder mehrere auf Kartendaten basierenden Informationen genutzt werden, beispielsweise die Position von Wänden und/oder anderen Hindernissen, die Position von Türdurchgängen und die Position von Bodenbelagsgrenzen. Zusätzlich oder alternativ können (z.B. in der Karte gespeicherte) Informationen über die Bodenstruktur, die Deckenstruktur und/oder die Wandstruktur berücksichtigt werden. Ein weiteres Kriterium für die Festlegung eines Teilgebiets sind vorgebbare geometrische Eigenschaften von Teilgebieten, wie beispielsweise eine minimale oder eine maximale Größe eines Teilgebiets. Deckenstrukturen und insbesondere die Ecken zwischen Decke und einer Wand können direkt Hinweise über die Form und Größe eines Raumes liefern. Hieraus können beispielsweise Türdurchgänge erkannt werden als Öffnungen in der Wand, die nicht bis an die Decke reichen. Wandstrukturen wie beispielsweise Fenster können Hinweise geben, ob es sich bei der besagten Wand um eine Außenwand handelt. Bodenstrukturen wie insbesondere der Wechsel des Bodenbelags oder eine Türschwelle können Indizien für Raumgrenzen und insbesondere für Türdurchgänge sein.Algorithms for the automated division of a map into subareas are known per se. Some of these algorithms only work if the card is fully explored, ie completely enclosed by walls and other obstructions. These algorithms can be used for a not fully explored map when the map is "artificially" completed. For this purpose, for example, a bounding box can be placed around the already explored area, and considered as a "virtual" obstacle. Other ways of completing an incompletely explored map to use the algorithms to automatically map a complete map can also be used as alternatives. In the embodiments described herein, one or more information based on map data may be utilized for the partial area detection, such as the position of walls and / or other obstacles, the position of doorways, and the location of flooring boundaries. Additionally or alternatively, information about the floor structure, the ceiling structure, and / or the wall structure (e.g., stored in the map) may be taken into account. Another criterion for the definition of a subarea are predefinable geometric properties of subareas, such as a minimum or a maximum size of a subarea. Ceiling structures and in particular the corners between the ceiling and a wall can directly provide information about the shape and size of a room. From this, for example, doorways can be recognized as openings in the wall that do not reach to the ceiling. Wall structures, such as windows, can provide clues as to whether the wall is an exterior wall. Floor structures such as, in particular, the change of floor covering or a threshold may be indicia of room boundaries and, in particular, doorways.

Je nach Implementierung der Teilbereichsdetektion können die Begrenzungslinien eines Teilgebietes zumindest teilweise prädiktiv ermittelt werden. In diesem Zusammenhang bedeutet prädiktiv, dass vorhandene, bereits detektierte und in der Karte gespeicherte Konturen (z.B. einer Wand) genutzt werden, um eine Begrenzungslinie eines Teilbereichs vorherzusagen. Beispielsweise kann eine bereits detektierte und in der Karte gespeicherte Kontur einer Wand (virtuell) geradlinig verlängert werden, um die Begrenzung eines Teilgebiets zu vervollständigen. Gemäß einem anderen Beispiel wird eine Begrenzungslinie eines Teilgebiets parallel oder rechtwinklig zu einer bereits detektierten und in der Karte gespeicherten Kontur einer Wand (oder eines anderen Hindernisses) so festgelegt, dass sie den Rand des bereits erkundeten Bereichs des Robotereinsatzgebietes berührt. Ein Beispiel hierfür wird später anhand 9 und 10 erläutert.Depending on the implementation of the partial area detection, the boundary lines of a partial area can be determined at least partially predictively. In this context, prediction means that existing, already detected and stored in the map contours (eg a wall) are used to predict a boundary line of a subarea. For example, an already detected and stored in the map contour of a wall (virtually) be linearly extended to the Limit of a sub-area to complete. According to another example, a boundary line of a subarea parallel or perpendicular to an already detected and stored in the map contour of a wall (or other obstacle) is set so that it touches the edge of the already explored area of the robotic area. An example of this will be explained later 9 and 10 explained.

Der Roboter verfolgt (tracking) seine eigene Position in der Karte. Nach einer Teilgebietsdetektion prüft kann der Roboter prüfen, ob er sich noch in dem (aktualisierten) Referenzteilgebiet befindet. Falls das nicht der Fall ist und falls das Referenzteilgebiet noch nicht vollständig erkundet ist, fährt der Roboter in das Referenzteilgebiet zurück, um dort die Erkundungsfahrt fortzusetzen. Die Erkundungsfahrt wird außerhalb des Referenzteilgebietes nicht fortgesetzt. Ergibt die Prüfung jedoch, dass das (aktualisierte) Referenzteilgebiet bereits vollständig erkundet wurde (beispielsweise weil es ausschließlich durch Konturen von Hindernissen oder Grenzlinien zu anderen detektierten Teilgebieten begrenzt ist) wird ein anderes Teilgebiet zum Referenzteilgebiet und die Erkundungsfahrt wird dort fortgesetzt.The robot tracks its own position in the map. After a partial area detection, the robot can check whether it is still in the (updated) reference subarea. If this is not the case and if the reference sub-area is not yet fully explored, the robot travels back to the reference sub-area to continue the reconnaissance there. The reconnaissance trip will not continue outside the reference subarea. However, if the test indicates that the (updated) reference sub-area has already been completely explored (for example, because it is limited only by contours of obstacles or borderlines to other detected sub-areas), another sub-area will become the reference sub-area and the reconnaissance will continue there.

Wie erwähnt kann die Teilgebietsdetektion regelmäßig oder als Reaktion auf die Detektion bestimmter Ereignisse wiederholt werden. Eine Wiederholung der Teilgebietsdetektion kann z.B. ausgelöst werden, wenn der Roboter feststellt, dass ein bestimmtes Zeitintervall ist seit der letzten Teilgebietsdetektion abgelaufen ist, dass der Roboter seit der letzten Teilgebietsdetektion eine bestimmte Wegstrecke zurückgelegt hat, dass seit der letzten Teilgebietsdetektion der erkundete Bereich des Robotereinsatzgebietes um eine bestimmte Fläche angewachsen ist oder dass der Aufwand für die weitere Erkundung des Referenzteilgebietes einen bestimmten Wert übersteigt. Der Aufwand kann z.B. mittels einer Kostenfunktion bewertet werden. Eine Wiederholung der Teilgebietsdetektion kann z.B. auch ausgelöst werden, wenn der Roboter einen für die Erkundung ermittelten Zielpunkt erreicht hat. Solch ein Zielpunkt kann beispielsweise auf der Grenze zwischen erkundetem und (noch) nicht-erkundetem Teilgebieten gewählt werden. Während der Roboter auf diesen Punkt zusteuert, kann er mit seinen Sensoren neue Bereiche erfassen und so die Grenzen des erkundeten Gebietes ausdehnen.As mentioned, the sub-area detection may be repeated regularly or in response to the detection of certain events. A repetition of the partial area detection may e.g. are triggered when the robot determines that a certain time interval has elapsed since the last subarea detection, that the robot has traveled since the last subarea detection a certain distance that since the last subarea detection of the explored area of the robotic area has increased by a certain area, or that the effort for the further exploration of the reference sub-area exceeds a certain value. The effort can e.g. be evaluated by means of a cost function. A repetition of the partial area detection may e.g. also be triggered when the robot has reached a destination determined for the exploration. Such a target point can be chosen, for example, on the border between explored and (still) unexplored subareas. While the robot is heading to this point, it can detect new areas with its sensors and thus extend the boundaries of the area explored.

Wenn der Roboter feststellt, dass das Referenzteilgebiet vollständig erkundet wurde, dann wird es gespeichert und seine Grenzen werden später nicht mehr verändert. Solange noch weitere nicht vollständig erkundete Teilgebiete existieren, wählt der Roboter ein weiteres Teilgebiet als Referenzteilgebiet und setzt die Erkundungsfahrt dort fort. Das bisherige Referenzteilgebiet (oder die bisherigen Referenzteilgebiete) können bei der weiteren Teilgebietsdetektion dahingehend berücksichtigt werden, dass dessen (oder deren) Begrenzungslinien nicht mehr verändert werden und damit auch die Grenzen benachbarter Teilgebiete (zumindest teilweise) festgelegt sind. Das heißt, die Begrenzungslinien der bisherigen Referenzteilgebiete können bei der Ermittlung der Begrenzungslinien weiterer Teilgebiete berücksichtigt werden.When the robot detects that the reference sub-area has been completely explored, it is saved and its boundaries are not changed later. As long as there are more sub-regions that are not completely explored, the robot selects a further sub-area as reference sub-area and continues the exploration journey there. The previous reference sub-area (or the previous reference sub-areas) can be considered in the further sub-area detection to the effect that its (or their) boundary lines are not changed and thus the boundaries of adjacent sub-areas (at least partially) are fixed. That is, the boundary lines of the previous reference sub-areas can be taken into account in the determination of the boundary lines of other sub-areas.

Falls der Roboter ein Reinigungsroboter ist, kann er - nachdem er ein Referenzteilgebiet vollständig erkundet hat - dieses reinigen, bevor ein weiteres Teilgebiet als Referenzgebiet gewählt und die Erkundungsfahrt dort fortgesetzt wird. Dieses Verhalten kann abhängig von einer Nutzereingabe gemacht werden, was die Flexibilität des Roboters erhöht. Der Roboter kann demnach eine Nutzereingabe entgegennehmen, abhängig von der der Roboter drei Betriebsmodi unterscheidet. Die Nutzereingabe (z.B. „erkunden“, „erkunden und reinigen“, „reinigen“) kann beispielsweise über eine HMI erfolgen (z.B. auf einem portablen externen Gerät oder direkt am Roboter). In einem ersten Betriebsmodus führt der Roboter eine Erkundungsfahrt durch und erkundet der Roboter das Robotereinsatzgebiet und erstellt dabei eine neue Karte. Die Erkundungsfahrt kann gemäß den hier beschriebenen Verfahren implementiert sein. In einem zweiten Betriebsmodus führt der Roboter eine Erkundungsfahrt durch, erstellt dabei eine neue Karte und reinigt dabei auch das Robotereinsatzgebiet. In einem dritten Betriebsmodus wird keine neue Karte erstellt, sondern das Robotereinsatzgebiet basierend auf einer bereits existierenden, gespeicherten Karte gereinigt. Dieses Konzept kann auch auf andere Roboter übertragen werden, die keine Reinigungsroboter sind. In diesem Fall führt der Roboter statt der Reinigung eine andere Tätigkeit aus.If the robot is a cleaning robot, it can - after he has completely explored a reference sub-area - clean it before selecting another sub-area as a reference area and continue the reconnaissance trip there. This behavior can be made dependent on a user input, which increases the flexibility of the robot. The robot can therefore accept a user input, depending on which the robot distinguishes three operating modes. The user input (e.g., "explore," "explore and clean," "clean") may be, for example, via an HMI (e.g., on a portable external device or directly on the robot). In a first mode of operation, the robot performs a reconnaissance trip and the robot explores the robotic area and creates a new map. The reconnaissance trip may be implemented according to the methods described herein. In a second operating mode, the robot performs a reconnaissance trip, creating a new map while also cleaning the robotic area. In a third mode of operation, no new map is created, but the robotic area is cleaned based on an existing, stored map. This concept can also be applied to other robots that are not cleaning robots. In this case, the robot performs another activity instead of cleaning.

Der Roboter kann den bereits erkundeten Bereich des Robotereinsatzgebietes als „erkundet“ in der Karte markieren (z.B. durch Setzen eines bestimmten Bits oder einer anderen Markierung, oder durch erfassen, aktualisieren und speichern der Grenze zwischen erkundeten und nicht-erkundeten Bereichen). Beispielsweise können jene Bereiche als erkundet in der Karte markiert werden, die während der Erkundungsfahrt zumindest einmal innerhalb eines Erfassungsbereichs eines Navigationssensors des Roboters gelegen sind (vgl. 7). Der Roboter kann üblicherweise mittels des Navigationssensors innerhalb des Erfassungsbereichs des Navigationssensors Objekte detektieren, beispielsweise indem berührungslos der Abstand zwischen Navigationssensor und mehreren Punkten eines Objekts gemessen wird (vgl. 6).The robot may mark the already explored area of the robotic area as "explored" on the map (eg, by setting a particular bit or other marker, or by capturing, updating and storing the boundary between explored and unexplored areas). For example, those areas can be marked as explored in the map, which are located at least once within a detection range of a navigation sensor of the robot during the reconnaissance trip (cf. 7 ). The robot can usually detect objects by means of the navigation sensor within the detection range of the navigation sensor, for example by measuring without contact the distance between the navigation sensor and a plurality of points of an object (cf. 6 ).

Der Roboter kann die Erkundungsfahrt beenden, wenn er feststellt, dass das Einsatzgebiet vollständig erkundet wurde (z.B. weil der als erkundet markierte Bereich vollständig von Hindernissen begrenzt ist) und/oder falls ein Fortsetzen der Erkundungsfahrt nicht möglich ist, weil kein weiteres (noch nicht vollständig erkundetes) Teilgebiet mehr detektiert wurde. In dieser Situation kann der Roboter erneut eine Teilgebietsdetektion durchführen und dabei die Kartendaten betreffend das vollständig erkundete Robotereinsatzgebiet berücksichtigen. Bei dieser abschließenden Teilbereichsdetektion kann der Roboter andere (z.B. genauere und/oder aufwändigere) Algorithmen verwenden als bei der wiederholt durchgeführten Teilbereichsdetektion während der Erkundungsfahrt. Alternativ kann der gleiche Algorithmus jedoch mit veränderten Parametern verwendet werden. Schließlich kann der Roboter nach Beenden der Erkundungsfahrt zu einem Ausgangspunkt zurückkehren, an dem die Erkundungsfahrt gestartet wurde, oder zu einer Basisstation, die während der Erkundungsfahrt detektiert und in der Karte gespeichert wurde.The robot may terminate the reconnaissance if it determines that the mission has been fully explored (eg, because the explorer is explored) marked area is completely limited by obstacles) and / or if it is not possible to continue the reconnaissance trip because no further (not yet fully explored) subarea has been detected. In this situation, the robot can again perform a partial area detection taking into account the map data concerning the fully explored robotic area. In this final partial area detection, the robot can use other (eg more accurate and / or more elaborate) algorithms than in the repeatedly performed partial area detection during the exploration trip. Alternatively, however, the same algorithm can be used with changed parameters. Finally, after completing the reconnaissance, the robot may return to a starting point where the reconnaissance trip was started or to a base station detected during the reconnaissance trip and stored in the map.

Die Diagramme in 6 illustrieren exemplarisch wie ein autonomer mobiler Roboter 100 seine Umgebung erkundet. In dem dargestellten Beispiel weist die Sensoreinheit 120 des Roboters 100 (siehe 2) einen Navigationssensor 121 auf, der einen definierten Erfassungsbereich Z (coverage area) abdeckt. Im dargestellten Beispiel hat der Erfassungsbereich Z näherungsweise die Form eines Kreissektors mit dem Radius d. Diese Situation ist in Diagramm (a) der 6 dargestellt. Der Navigationssensor 121 ist dazu ausgebildet, Objekte (z.B. Hindernisse, Möbel und andere Gegenstände) in der Umgebung des Roboters 100 zu detektieren, indem er den Abstand zur Kontur eines Objekts misst, sobald ein Objekt innerhalb des Erfassungsbereichs Z des Sensors 121 liegt. Der Erfassungsbereich Z bewegt sich mit dem Roboter mit, und der Erfassungsbereich Z kann Objekte überlappen, wenn der Roboter ihnen näher kommt als die Distanz d. Diagramm (b) der 6 zeigt eine Situation, in der ein Hindernis H sich innerhalb des Erfassungsbereichs Z des Navigationssensors 121 des Roboters befindet. Der Roboter kann einen Teil der Kontur des Hindernisses H erkennen, im vorliegenden Beispiel ist das die Linie L auf der dem Sensor 121 zugewandten Seite des Hindernisses H. Die Linie L wird in der Karte gespeichert. Im Laufe der Erkundungsfahrt wird der Roboter das Hindernis H noch aus anderen Blickrichtungen detektieren, und so die Kontur des Hindernisses in der Karte vervollständigen können. In dem dargestellten Beispiel hat der Erfassungsbereich Z der Sensorik ein vergleichsweise kleines Blickfeld. Es gibt jedoch auch Sensoren, welche in der Lage sind, einen Bereich von 360° abzudecken. In diesem Fall, hat der Erfassungsbereich Z die Form eines (vollständigen) Kreises. Auch weitere Erfassungsbereiche sind je nach Sensor möglich und an sich bekannt. Insbesondere kann der Erfassungsbereich speziell bei Sensoren zur dreidimensionalen Erfassung der Umgebung ein Volumen wie beispielsweise ein Öffnungskegel sein.The diagrams in 6 exemplify as an autonomous mobile robot 100 explores his surroundings. In the illustrated example, the sensor unit 120 of the robot 100 (please refer 2 ) a navigation sensor 121 on, which has a defined coverage area Z coverage area. In the example shown, the detection area has Z approximately the shape of a circular sector with the radius d. This situation is shown in diagram (a) of 6 shown. The navigation sensor 121 is designed to contain objects (eg obstacles, furniture and other objects) in the environment of the robot 100 to detect by measuring the distance to the contour of an object, as soon as an object within the detection range Z of the sensor 121 lies. The coverage area Z moves with the robot, and the detection area Z may overlap objects when the robot comes closer to them than the distance d. Diagram ( b ) of the 6 shows a situation in which an obstacle H is within the detection range Z of the navigation sensor 121 of the robot. The robot can be part of the contour of the obstacle H recognize, in the present example this is the line L on the sensor 121 facing side of the obstacle H , The line L is saved in the map. During the exploration, the robot becomes the obstacle H detect from other directions, and so can complete the contour of the obstacle in the map. In the example shown, the detection area has Z the sensors a comparatively small field of view. However, there are also sensors capable of covering a range of 360 °. In this case, the coverage area has Z the shape of a (complete) circle. Other detection areas are possible depending on the sensor and known per se. In particular, the detection area may be a volume, such as an opening cone, especially for sensors for three-dimensional detection of the environment.

Der Roboter 100 kennt in der Regel seine eigene Position in der Karte; Veränderungen seiner Position kann der Roboter 100 beispielsweise mittels Odometrie (z.B. mittels Radsensoren, visueller Odometrie, etc) messen. Somit „weiß“ der Roboter auch, welche Bereiche des Robotereinsatzgebietes er bereits erkundet hat und kann diese erkundeten Bereiche in der Karte als „erkundet“ markieren. In dem in 7 dargestellten Beispiel umfasst der erkundete Bereich E alle Punkte des Robotereinsatzgebietes, die sich während der Erkundungsfahrt zumindest einmal in dem (mit dem Roboter 100 mitbewegten) Erfassungsbereich Z befunden haben. Die nicht als erkundet markierten Bereiche der Karte können als „weiße Flecken“ betrachtet werden, über die dem Roboter (noch) keine Informationen vorliegen. Es sei an dieser Stelle noch angemerkt, dass ein in dem Erfassungsbereich Z befindliches Objekt H einen Teil des Erfassungsbereichs abschattet und diesen effektiv kleiner machen (siehe Diagramm (b) in 6).The robot 100 usually knows his own position in the map; The robot can change its position 100 for example by means of odometry (eg by means of wheel sensors, visual odometry, etc). Thus, the robot also "knows" which areas of the robotic area it has already explored and can mark these explored areas in the map as "explored". In the in 7 In the example shown, the explored area E comprises all points of the robotic area which, during the reconnaissance trip, at least once in the (with the robot 100 moved) have detected Z detection area. The areas of the map that are not marked as explored can be considered as "white spots" over which the robot has no information (yet). It should also be noted at this point that an object H located in the detection area Z shades off a part of the detection area and effectively makes it smaller (see diagram (b) in FIG 6 ).

Die 8 bis 10 illustrieren die fortschreitende Erkundung eines Robotereinsatzgebietes mit mehreren Zimmern. 8 zeigt eine Situation kurz nach dem Beginn einer Erkundungsfahrt. Das dargestellte Robotereinsatzgebiet entspricht dem aus den 3 und 4. In dem vorliegenden Beispiel startet die Erkundungsfahrt in dem in der Darstellung oberen Bereich des Schlafzimmers (vgl. 4, Raum 10). Der einfach halber wird angenommen, dass der Erfassungsbereich Z des Navigationssensors 121 360° abdeckt und daher kreisförmig ist. Der mit Z bezeichnete Kreis kennzeichnet den theoretischen maximalen Erfassungsbereich des Sensors 121. Dementsprechend ist die Begrenzung EB des erkundeten Bereichs E durch die erkannten Hindernisse um den Roboter herum und zwei Kreisbögen gegeben.The 8th to 10 illustrate the progressive exploration of a multi-room robotic deployment area. 8th shows a situation shortly after the start of a reconnaissance trip. The illustrated robot use area corresponds to that from the 3 and 4 , In the present example, the exploration trip starts in the upper area of the bedroom (cf. 4 , Room 10 ). For the sake of simplicity, it is assumed that the detection range Z of the navigation sensor 121 360 ° and therefore is circular. The circle marked Z indicates the theoretical maximum detection range of the sensor 121 , Accordingly, the boundary EB of the explored area E is given by the detected obstacles around the robot and two circular arcs.

Der Roboter 100 kann nun eine Teilgebietsdetektion durchführen, um ein erstes Referenzteilgebiet R (bzw. dessen Grenzen) festzulegen. Das Referenzteilgebiet R ist beispielsweise zum einen durch die erkannten Hindernisse begrenzt. Zum zweiten werden zwei virtuelle vorläufige Begrenzungslinien definiert. Da es für ihre Lage keine weiteren Anhaltspunkte gibt, werden sie beispielsweise als Geraden festgelegt, die orthogonal zu den erkannten Hindernissen liegen, welche die Begrenzung EB des erkundeten Bereichs E berühren (siehe 8, waagerecht und senkrecht liegende gestrichelte Tangenten an die Kreisbögen EB).The robot 100 can now perform a partial area detection to a first reference sub-area R (or its limits). The reference subarea R is for example limited on the one hand by the detected obstacles. Second, two virtual tentative boundary lines are defined. Since there are no further clues for their location, they are defined, for example, as straight lines that are orthogonal to the detected obstacles, which are the boundary EB of the explored area e touch (see 8th , horizontal and vertical dashed tangents to the circular arcs EB).

Um das Referenzteilgebiet weiter zu erkunden kann der Roboter beispielsweise versuchen zu einer der Begrenzungslinien des erkundeten Bereichs EB hin zu fahren, die nicht durch ein detektiertes Hindernis (z.B. Wand, Bett, Kommode, etc.) gebildet werden. Im vorliegenden Beispiel fährt der Roboter nach unten in den auf der Karte unten liegenden Bereich des Zimmers 10 während er weiter laufend Messungen durchführt und Hindernisse in seiner Umgebung detektiert und in seiner Karte speichert. Diese Situation ist in 9 dargestellt. Wie man in 9 sehen kann, hat sich im vgl. zur 8 der erkundete Bereich E vergrößert, wobei eine Ecke der Wand links neben dem Roboter das Sichtfeld des Sensors 121 des Roboters 100 teilweise abschattet. In der dargestellten Situation liegt ein Teil eines Türdurchgangs (hin zum Flur 20) bereits in dem erkundeten Gebiet E. Bei einer erneuten Teilgebietsdetektion ergeben sich andere Grenzen für das Referenzteilgebiet R. Bei der Teilgebietsdetektion können weitere, vordefinierte Annahmen einfließen, beispielswiese die Annahme, dass ein Zimmer eine im Wesentlichen rechteckige Grundfläche aufweist. Gemäß 9 werden die Begrenzungslinien so gewählt, dass das Referenzteilgebiet eine im Wesentlichen rechteckige Fläche ist, welche den Großteil des erkundeten Gebiets beinhaltet. Die untere Begrenzungslinie des Referenzteilgebiets R (waagrechte gestrichelte Linie in 9) wird beispielsweise generiert, indem die Kontur der Wand verlängert wird. Die linke Begrenzungslinie des Referenzteilgebiets R (senkrechte gestrichelte Linie in 9) wird beispielsweise rechtwinklig dazu festgelegt, so dass keine Begrenzungslinie des erkundeten Bereichs EB diese schneidet (sondern nur im oberen Bereich berührt).For example, to further explore the reference subarea, the robot may try to one of the boundary lines of the explored area EB to go out, not by one Detected obstacle (eg wall, bed, dresser, etc.) are formed. In this example, the robot moves down into the area of the room below the map 10 while continuing to make measurements and detect and store obstacles in his environment. This situation is in 9 shown. How to get in 9 can see in the cp. to 8th the explored area E increases, with one corner of the wall to the left of the robot the field of view of the sensor 121 of the robot 100 partially shaded. In the situation shown is a part of a doorway (towards the hallway 20 ) in the explored area E. With a renewed partial area detection, other limits result for the reference subarea R. In the subarea detection, further, predefined assumptions can flow in, for example the assumption that a room has a substantially rectangular base area. According to 9 the boundary lines are chosen such that the reference sub-area is a substantially rectangular area that includes the majority of the explored area. The lower boundary line of the reference subarea R (horizontal dashed line in FIG 9 ) is generated, for example, by extending the contour of the wall. The left boundary line of the reference subarea R (vertical dashed line in FIG 9 ) is set, for example, at right angles thereto, so that no boundary line of the explored area EB intersects them (but touches only in the upper area).

Aufgrund der Festlegung des Referenzteilgebietes R fährt der Roboter 100 nun nicht durch den Türdurchgang in das benachbarte Zimmer, denn damit würde er ja das Referenzteilgebiet verlassen. Stattdessen bleibt der Roboter 100 in dem Referenzteilgebiet R und erkundet den zuvor noch nicht erkundeten Bereich (weißer Fleck) links unten (in der Karte) und das erkundete Gebiet E wächst weiter an und umfasst nun beinahe das gesamte Zimmer (siehe 2, Schlafzimmer 10). Diese Situation ist in 10 dargestellt. Bei der erneuten Teilgebietsdetektion erkennt der Roboter 100 den Türdurchgang zum benachbarten Zimmer (siehe 4, Flur 20), der als Linie D in die Karte eingetragen ist und zur Festlegung einer Begrenzungslinie zwischen zwei Teilgebieten genutzt wird. Deshalb wird der Roboter den bereits erkundeten Bereich auf der anderen Seite der Linie D einem weiteren (neuen, bisher noch nicht detektierten) Teilgebiet T zuordnen. In der in 10 dargestellten Situation liefert die Teilgebietsdetektion also zwei Teilgebiete, das Referenzteilgebiet R und das weitere Teilgebiet T.Due to the definition of the reference subarea R, the robot moves 100 now not through the doorway in the adjacent room, because that would leave him the reference sub-area. Instead, the robot stays 100 in the reference subarea R and explores the previously unrecognized area (white spot) on the lower left (in the map) and the explored area E continues to grow and now covers almost the entire room (see 2 , Bedroom 10 ). This situation is in 10 shown. During the renewed partial area detection, the robot recognizes 100 the doorway to the adjacent room (see 4 , Hall 20 ), as a line D is entered in the map and is used to define a boundary between two subregions. Therefore, the robot becomes the already explored area on the other side of the line D another (new, not yet detected) subarea T assign. In the in 10 the partial area detection thus provides two partial areas, the reference partial area R and the further subarea T ,

Ausgehend von der in 10 dargestellten Situation wird der Roboter nicht direkt in das nächste Teilgebiet T fahren (obwohl es sehr nahe beim Roboter 100 liegt), um dort die Erkundung fortzusetzen, sondern zunächst den im Referenzgebiet R noch vorhandenen „weißen Fleck“ (in der Karte links oben) erkunden. Danach wird der Roboter feststellen, dass das Referenzteilgebiet R vollständig erkundet ist, da es ausschließlich von Hindernissen (z.B. Wänden, Möbel, etc.) oder einer Begrenzungslinie zwischen zwei Teilgebieten (der Linie D, Türdurchgang) begrenzt ist. Erst danach fährt der Roboter in das weitere Teilgebiet T, welches als neues Referenzteilgebiet definiert wird, und setzt dort seine Erkundungsfahrt fort.Starting from the in 10 As shown, the robot does not move directly to the next sub-area T drive (although it is very close to the robot 100 lies), to continue the exploration, but first in the reference area R Explore the existing "white spot" (in the map on the top left). After that, the robot will notice that the reference subarea R is completely explored, as it is exclusively made of obstacles (eg walls, furniture, etc.) or a boundary line between two subregions (the line D , Doorway) is limited. Only then does the robot move into the further subarea T , which is defined as a new reference sub-area, and continues there his reconnaissance trip.

11 zeigt den Roboter 100 bei der Erkundung des Teilgebiets T, welches nun das Referenzteilgebiet ist. Nachdem der Roboter 100 durch den Türdurchgang durchgefahren ist, ist er in dem dargestellten Beispiel links abgebogen und dem Flur (vgl. 4, Flur 20) in Richtung des Wohnzimmers (vgl. 4, Wohnzimmer 30) gefolgt. In 11 sind wieder die Grenzen EB des erkundeten Bereichs E dargestellt sowie die bei der Teilbereichsdetektion festgelegten (aktualisierten) Grenzen des Referenzteilgebietes T. Die Begrenzungslinien auf der rechten und linken Seite des Referenzteilgebietes T sind gerade Linien, welche rechtwinklig zu einer detektierten Wand verlaufen und die Grenzen EB des erkundeten Bereichs tangieren. In der Darstellung gemäß 11 erstreckt sich der erkundete Bereich E bereits in das benachbarte Zimmer (vgl. 4, Wohnzimmer 30), wobei der Roboter 100 den Türdurchgang zum Wohnzimmer noch nicht als solchen erkannt hat. Deshalb setzt der Roboter 100 die Erkundungsfahrt bis in das benachbarte Zimmer hinein fort und kommt in eine Situation, die in 11 dargestellt ist. 11 shows the robot 100 in the exploration of the sub-area T, which is now the reference sub-area. After the robot 100 has passed through the doorway, he is left bent in the example shown and the corridor (see. 4 , Hall 20 ) in the direction of the living room (cf. 4 , Living room 30 ) followed. In 11 are again the limits EB of the explored area e The boundary lines on the right and left sides of the reference subarea T are straight lines, which run perpendicular to a detected wall and affect the boundaries EB of the explored area. In the illustration according to 11 the explored area E already extends into the adjacent room (cf. 4 , Living room 30 ), where the robot 100 the doorway to the living room has not yet recognized as such. That's why the robot is set 100 the reconnaissance trip continues into the neighboring room and comes into a situation that in 11 is shown.

In dem in 11 dargestellten Beispiel erkennt der Roboter 100 den Türdurchgang D' erst, nachdem er durch diesen durchgefahren ist. Eine anschließende Teilgebietsdetektion führt (aufgrund des nun erkannten Türdurchgangs D') zu der Detektion eines weiteren Teilgebietes U. In dieser Situation kann der Roboter erkennen, dass er sich nicht mehr im Referenzteilgebiet T befindet, obwohl dieses noch nicht vollständig erkundet ist (links ist das Referenzteilgebiet noch nicht durch ein detektiertes Hindernis oder ein weiteres bereits erkanntes Teilgebiet begrenzt und deshalb unvollständig erkundet). Der Roboter 100 wird also in das Referenzteilgebiet T zurückfahren und dieses weiter erkunden.In the in 11 the example shown recognizes the robot 100 the door passage D 'only after he has driven through this. A subsequent partial area detection leads (due to the now recognized doorway D ') to the detection of a further subarea U , In this situation, the robot can detect that it is no longer in the reference sub-area T Although this is not yet fully explored (left is the reference sub-area is not yet limited by a detected obstacle or another already recognized sub-area and therefore explored incomplete). The robot 100 will therefore return to the reference sub-area T and explore this further.

In der in 13 dargestellten Situation hat der Roboter 100 auch den linken Bereich des Referenzteilgebietes T erkundet, und der Roboter wird detektieren, dass das Referenzteilgebiet T nun vollständig erkundet ist, da es ausschließlich von detektierten Konturen von Hindernissen (Wänden) und detektierten benachbarten Teilgebieten R und U begrenzt wird. Ausgehend von der in 13 dargestellten Situation wird der Roboter nun das Teilgebiet U als neues Referenzteilgebiet wählen (weil dieses noch nicht vollständig erkundet ist) und die Erkundungsfahrt dort fortsetzen.In the in 13 the situation presented has the robot 100 also explores the left-hand area of the reference sub-area T, and the robot will detect that the reference sub-area T now fully explored, as it is exclusively detected contours of obstacles (walls) and detected adjacent sub-areas R and U is limited. Starting from the in 13 the situation is now the robot becomes the sub-area U choose as a new reference sub-area (because this is not yet completely explored) and continue the reconnaissance trip there.

In einer einfachen Variante des hier beschriebenen Verfahrens ist die Teilgebietsdetektion reduziert auf eine Detektion der Türdurchgänge. Die Detektion eines (offenen) Türdurchganges impliziert die Detektion eines benachbarten Raumes. Das heißt, die Teilgebietsdetektion detektiert während der Erkundungsfahrt praktisch nur verschiede Räume als unterschiedliche Teilgebiete. Im Übrigen ist dieses Ausführungsbeispiel gleich oder ähnlich zu den zuvor beschriebenen Ausführungsbeispielen. Der Roboter wird erst einen Raum vollständig erkunden, bevor er einen Türdurchgang durchfährt, um die Erkundungsfahrt in einem benachbarten Raum fortzusetzen. Sofern der Roboter zufällig in einen Benachbarten Raum fährt, beispielsweise weil ein Türdurchgang erst als solcher erkannt wird, nachdem der Roboter diesen Türdurchgang als solchen detektiert hat, kann der Roboter feststellen, dass er den zuvor erkundeten Raum verlassen hat, obwohl dieser noch nicht vollständig erkundet ist. In dieser Situation wird der Roboter die Erkundungsfahrt in dem Raum, in dem er sich aktuell befindet, beenden und den zuvor zufällig durchfahrenen Türdurchgang nochmal (in die entgegengesetzte Richtung) durchfahren, auf diese Weise in den zuvor erkundeten Raum zurückkehren und dieser weiter erkunden.In a simple variant of the method described here, the partial area detection is reduced to a detection of the doorways. The detection of an (open) doorway implies the detection of an adjacent room. That is, the sub-area detection detects during the reconnaissance trip practically only different rooms than different sub-areas. Incidentally, this embodiment is the same as or similar to the above-described embodiments. The robot will first fully explore a room before going through a doorway to continue exploration in a neighboring room. If the robot accidentally moves into a neighboring room, for example because a doorway is only recognized as such after the robot has detected this doorway as such, the robot can determine that it has left the previously explored space, although it has not yet fully explored is. In this situation, the robot will end the reconnaissance trip in the room in which it is currently located and drive through the previously accidentally passed doorway again (in the opposite direction), in this way return to the previously explored space and explore this further.

Die hier beschriebenen Verfahren können in Form von Software implementiert sein. Die Software kann auf einem Roboter, auf einem Mensch-Maschine-Schnittstelle (human-machine interface, HMI) und/oder auf einem beliebigen anderen Computer wie insbesondere einem Home-Server oder einem Cloud-Server ausgeführt werden. Insbesondere können einzelne Teile des Verfahrens mittels Software implementiert sein, die in verschieden Softwaremodule unterteilt sein kann und die auf verschiedenen Geräten ausgeführt werden können. Wenn der Roboter „etwas macht“ (z.B. einen Verfahrensschritt ausführt) kann dieser Vorgang (z.B. Verfahrensschritt) von der Steuereinheit 150 initiiert worden sein (vgl. 2). Diese Steuereinheit 150 kann (ggf. zusammen mit anderen Einheiten) ein Steuergerät für den autonomen mobilen Roboter bilden, das sämtliche Funktionen und Verhaltensweisen des autonomen und mobilen Roboters steuert (unter anderem mit Hilfe anderer im Roboter vorhandener Einheiten und Module).The methods described herein may be implemented in the form of software. The software may be executed on a robot, on a human-machine interface (HMI) and / or on any other computer such as, in particular, a home server or a cloud server. In particular, individual parts of the method may be implemented by means of software which may be subdivided into different software modules and which may be executed on different devices. When the robot "does something" (eg, performs a process step), this process (eg, process step) may be performed by the control unit 150 been initiated (cf. 2 ). This control unit 150 can (possibly together with other units) form an autonomous mobile robot control unit that controls all functions and behaviors of the autonomous and mobile robot (using, among other things, other units and modules present in the robot).

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • EP 2287697 A2 [0002]EP 2287697 A2
  • DE 102010017689 A1 [0009]DE 102010017689 A1 [0009]

Claims (19)

Verfahren zur Erkundung eines Robotereinsatzgebietes durch einen autonomen mobilen Roboter, wobei das Verfahren umfasst: Starten einer Erkundungsfahrt, wobei der Roboter während der Erkundungsfahrt folgendes durchführt: Detektieren von Objekten in der Umgebung des Roboters und speichern detektierter Objekte als Kartendaten in einer Karte während der Roboter sich durch das Robotereinsatzgebiet bewegt; Durchführen eine Teilgebietsdetektion basierend auf den gespeicherten Kartendaten, wobei zumindest ein Referenzteilgebiet detektiert wird; Prüfen, ob das Referenzteilgebiet vollständig erkundet ist; Wiederholen der Teilgebietsdetektion zur Aktualisierung des Referenzteilgebietes und Wiederholen der Prüfung, ob das Referenzteilgebiet vollständig erkundet ist, und Fortsetzen der Erkundung des Referenzteilgebiets, bis dass die Prüfung ergibt, dass das Referenzteilgebiet vollständig erkundet ist; und anschließend Fortsetzen der Erkundungsfahrt in einem weiteren Teilgebiet, sofern ein weiteres Teilgebiet detektiert wurde, wobei das weitere Teilgebiet als Referenzteilgebiet verwendet wird.A method of exploring a robotic area by an autonomous mobile robot, the method comprising: Starting a reconnaissance trip, during which the robot performs the following during the reconnaissance trip: Detecting objects in the environment of the robot and storing detected objects as map data in a map while the robot is moving through the robotic area; Performing a partial area detection based on the stored map data, wherein at least one reference partial area is detected; Check that the reference subarea is fully explored; Repeating the partial area detection to update the reference partial area and repeating the check as to whether the reference partial area is fully explored, and continuing the exploration of the reference partial area until the examination reveals that the reference partial area is fully explored; and subsequently Continue the reconnaissance trip in a further subarea, provided that a further subarea has been detected, the further subarea being used as reference subarea. Das Verfahren gemäß Anspruch 1, wobei zur Aktualisierung des Referenzteilgebietes die Teilgebietsdetektion sowohl die aktuellen Kartendaten als auch die bisherigen Grenzen des Referenzteilgebietes berücksichtigt.The method according to Claim 1 , wherein for updating the reference sub-area, the sub-area detection takes into account both the current map data and the previous boundaries of the reference sub-area. Das Verfahren gemäß Anspruch 2, wobei zur Aktualisierung des Referenzteilgebietes der Teil des Robotereinsatzgebietes, der bereits erkundet wurde, in ein oder mehrere Teilgebiete gegliedert wird, wobei aus den detektierten Teilgebieten das Referenzteilgebiet nach vordefinierten Kriterien ausgewählt wird.The method according to Claim 2 in which, for updating the reference sub-area, the part of the robot-use area which has already been explored is subdivided into one or more sub-areas, the reference sub-area being selected from the detected sub-areas according to predefined criteria. Das Verfahren gemäß Anspruch 3, wobei aus den detektierten Teilgebieten jenes als Referenzteilgebiet ausgewählt wird, welches mit dem zuvor ermittelten Referenzteilgebiet die größte Überlappung aufweist.The method according to Claim 3 , Which is selected from the detected sub-areas that as the reference sub-area, which has the largest overlap with the previously determined reference sub-area. Das Verfahren gemäß einem der Ansprüche 1 bis 4, wobei für die Teilgebietsdetektion zumindest eine der folgenden auf den Kartendaten basierenden Informationen genutzt wird: Position von Wänden und/oder anderen Hindernissen, Position von Türdurchgängen, Bodenbelagsgrenzen, Bodenstruktur, Deckenstruktur, Wandstruktur, vorgebbare geometrische Eigenschaften eines Teilgebiets, wie beispielsweise eine minimale oder eine maximale Größe eines Teilgebiets.The method according to one of Claims 1 to 4 , wherein for the sub-area detection at least one of the following based on the map data information is used: position of walls and / or other obstacles, position of doorways, floor coverings, floor structure, ceiling structure, wall structure, specifiable geometric properties of a sub-area, such as a minimum or a maximum size of a sub-area. Das Verfahren gemäß einem der Ansprüche 1 bis 5, wobei bei der Teilgebietsdetektion die Begrenzungslinien eines Teilgebietes zumindest teilweise prädiktiv ermittelt werden, insbesondere indem Konturen bereits erkannter Objekte verlängert und als Begrenzungslinien verwendet werden und/oder indem nach vordefinierten Kriterien ermittelte Geraden als Begrenzungslinien verwendet werden, die jenen Teil des Robotereinsatzgebietes, der bereits erkundet wurde, berühren.The method according to one of Claims 1 to 5 , wherein the boundary lines of a sub-area are determined at least partially predictive in the sub-area detection, in particular by contours of already recognized objects are extended and used as boundary lines and / or by using predefined criteria determined lines are used as boundary lines that already explored that part of the robotic field was, touch. Das Verfahren gemäß einem der Ansprüche 1 bis 6, wobei der Roboter nach einer Teilgebietsdetektion prüft, ob er sich noch in dem Referenzteilgebiet befindet, und, falls nicht, er in dieses zurück fährt.The method according to one of Claims 1 to 6 , wherein the robot checks after a partial area detection, if he is still in the reference sub-area, and, if not, he goes back into this. Das Verfahren gemäß einem der Ansprüche 1 bis 7, wobei das die Teilgebietsdetektion wiederholt wird, wenn der Roboter zumindest eines der folgenden Ereignisse feststellt: ein bestimmtes Zeitintervall ist seit der letzten Teilgebietsdetektion abgelaufen, der Roboter hat seit der letzten Teilgebietsdetektion eine bestimmte Wegstrecke zurückgelegt; seit der letzten Teilgebietsdetektion ist der erkundete Bereich des Robotereinsatzgebietes um eine bestimmte Fläche angewachsen; der Aufwand für die weitere Erkundung des Referenzteilgebietes übersteigt einen bestimmten Wert, wobei der Aufwand mit einer Kostenfunktion bewertet wird; und der Roboter hat einen für Erkundung ermittelten Zielpunkt erreicht.The method according to one of Claims 1 to 7 wherein the partial area detection is repeated when the robot detects at least one of the following events: a certain time interval has elapsed since the last partial area detection, the robot has traveled a certain distance since the last partial area detection; since the last subfield detection, the explored area of the robotic field has increased by a certain area; the cost of further exploration of the reference sub-area exceeds a certain value, the effort is evaluated with a cost function; and the robot has reached a target point for exploration. Das Verfahren gemäß einem der Ansprüche 1 bis 8, wobei ein Referenzteilgebiet gespeichert und nicht mehr verändert wird, nachdem der Roboter festgestellt hat, dass es vollständig erkundet ist.The method according to one of Claims 1 to 8th wherein a reference sub-region is stored and no longer altered after the robot has determined that it is fully explored. Das Verfahren gemäß Anspruch 9, wobei - wenn die Erkundung in einem weiteren Teilgebiet als Referenzteilgebiet fortgesetzt wird - das (die) vorherige(n) Referenzteilgebiet(e) bei der weiteren Teilgebietsdetektion dahingehend berücksichtigt werden, dass dessen (deren) Begrenzungslinien nicht mehr verändert und/oder dass dessen (deren) Begrenzungslinien für die Ermittlung von Begrenzungslinien weiterer Teilgebiete berücksichtigt werden.The method according to Claim 9 in which - if the exploration is continued in a further subarea as a reference subarea - the previous reference subarea (s) are taken into account in the further subarea detection in such a way that its (their) boundary lines no longer change and / or that its (their) whose) boundary lines are considered for the determination of boundary lines of further subregions. Das Verfahren gemäß einem der Ansprüche 1 bis 10, wobei der Roboter ein Reinigungsroboter ist, und er ein Referenzteilgebiet reinigt, nachdem er festgestellt hat, dass es vollständig erkundet ist und bevor er die Erkundung in einem weiteren Teilgebiet als Referenzteilgebiet fortsetzt.The method according to one of Claims 1 to 10 wherein the robot is a cleaning robot and cleans a reference sub-area after determining that it is fully explored and before continuing the exploration in a further sub-area as a reference sub-area. Das Verfahren gemäß einem der Ansprüche 1 bis 11, wobei der Roboter jene Bereiche des Roboterteilgebiets als erkundet in der Karte markiert, welche während der Erkundungsfahrt zumindest einmal innerhalb eines Erfassungsbereichs eines Navigationssensors des Roboters gelegen sind.The method according to one of Claims 1 to 11 wherein the robot marks those areas of the robot sub-area as explored in the map, which are located at least once within a detection range of a navigation sensor of the robot during the reconnaissance trip. Das Verfahren gemäß Anspruch 12, wobei der Roboter mittels des Navigationssensors innerhalb des Erfassungsbereichs des Navigationssensors Objekte detektiert, indem berührungslos der Abstand zwischen Navigationssensor und mehreren Punkten eines Objekts gemessen wird. The method according to Claim 12 wherein the robot detects objects by means of the navigation sensor within the detection range of the navigation sensor by non-contact measurement of the distance between the navigation sensor and a plurality of points of an object. Das Verfahren gemäß einem der Ansprüche 1 bis 13, das weiter umfasst, Beenden der Erkundungsfahrt, falls ein Fortsetzen der Erkundungsfahrt nicht möglich ist, weil kein weiteres Teilgebiet mehr detektiert wurde; und erneutes Durchführen einer Teilgebietsdetektion basierend auf den Kartendaten betreffend das vollständig erkundete Robotereinsatzgebiet.The method according to one of Claims 1 to 13 which further includes terminating the exploration trip if it is not possible to continue the reconnaissance trip because no further subarea was detected; and re-performing a partial area detection based on the map data regarding the fully explored robotic area. Das Verfahren gemäß einem der Ansprüche 1 bis 13, das weiter umfasst, Beenden der Erkundungsfahrt, falls ein Fortsetzen der Erkundungsfahrt nicht möglich ist, weil kein weiteres Teilgebiet mehr detektiert wurde; und Zurückkehren zu einem Ausgangspunkt, an dem der Roboter gestartet ist oder Anfahren einer Basisstation, die während der Erkundungsfahrt detektiert wurde.The method according to one of Claims 1 to 13 which further includes terminating the exploration trip if it is not possible to continue the reconnaissance trip because no further subarea was detected; and returning to a starting point where the robot is started or starting a base station that was detected during the reconnaissance trip. Verfahren zur Erkundung eines Robotereinsatzgebiets durch einen autonomen mobilen Roboter, wobei das Verfahren umfasst: Starten einer Erkundungsfahrt in einem ersten von mehreren Räumen des Robotereinsatzgebietes, welche durch Türdurchgänge verbunden sind, wobei der Roboter während der Erkundungsfahrt folgendes durchführt: Detektieren von Objekten in der Umgebung des Roboters und speichern detektierter Objekte als Kartendaten in einer Karte, während der Roboter sich durch das Robotereinsatzgebiet bewegt; Detektieren eines oder mehrerer Türdurchgänge; Prüfen, ob der erste Raum bereits vollständig erkundet ist, und Fortsetzen der Erkundungsfahrt im ersten Raum, bis dass die Prüfung ergibt, dass der erste Raum vollständig erkundet ist; und anschließend Fortsetzen der Erkundungsfahrt in einem weiteren Raum.A method of exploring a robotic area by an autonomous mobile robot, the method comprising: Commencing a reconnaissance trip in a first of several rooms of the robotic area connected by doorways, the robot performing the following during the reconnaissance trip: Detecting objects in the environment of the robot and storing detected objects as map data in a map while the robot is moving through the robot use area; Detecting one or more doorways; Checking that the first room is already fully explored and continuing the exploration trip in the first room until the examination reveals that the first room is fully explored; and then continue the reconnaissance trip in another room. Verfahren gemäß Anspruch 16, wobei ein Türdurchgang detektiert werden kann, bevor, während oder nachdem er durchfahren wurde, und wobei der Roboter, falls er einen Türdurchgang durchfahren hat, bevor der erste Raum vollständig erkundet wurde, den Türdurchgang in entgegengesetzte Richtung durchfährt, um in den ersten Raum zurückzukehren.Method according to Claim 16 wherein a doorway may be detected before, during, or after it has been passed, and wherein if the robot has traversed a doorway before the first room has been fully explored, the doorway passes in an opposite direction to return to the first room , Verfahren zum Steuern eines autonomen mobilen Roboters, das folgendes umfasst: Entgegennehmen einer Nutzereingabe durch den autonomen mobilen Roboter, Festlegen eines Betriebsmodus nach Maßgabe der Nutzereingabe, wobei der Roboter sich in einem Robotereinsatzgebiet befindet und in einem ersten Betriebsmodus das Robotereinsatzgebiet gemäß einem Verfahren gemäß einem der Ansprüche 1 bis 17 erkundet und dabei eine Karte neu erstellt, in einem zweiten Betriebsmodus das Robotereinsatzgebiet gemäß einem Verfahren gemäß einem der Ansprüche 1 bis 17 erkundet, dabei eine Karte neu erstellt und eine Tätigkeit durchführt, insbesondere das Robotereinsatzgebiet reinigt, und in einem dritten Betriebsmodus in dem Robotereinsatzgebiet eine Tätigkeit durchführt, insbesondere das Robotereinsatzgebiet reinigt, wobei für die Navigation in dem Robotereinsatzgebiet eine zuvor erstellte und gespeicherte Karte verwendet wird.A method for controlling an autonomous mobile robot, comprising: accepting a user input by the autonomous mobile robot, determining an operating mode according to the user input, wherein the robot is in a robotic area and in a first operating mode the robotic area according to a method according to any one of Claims 1 to 17 explores and recreates a map, in a second mode of operation, the robotic area according to a method according to one of Claims 1 to 17 exploring thereby recreating a map and performing an action, in particular cleaning the robotic area, and performing a task in the robotic area in a third operating mode, in particular cleaning the robotic area, using a previously created and stored map for navigation in the robotic area. Robotersteuergerät für einen autonomen, mobilen Roboter, die folgendes aufweist: einen Speicher zum Speichern von Softwareinstruktionen; mindestens einen Prozessor, der dazu ausgebildet ist, die Softwareinstruktionen auszuführen, wobei der Prozessor, wenn die Softwareinstruktionen ausgeführt werden, das Robotersteuergerät dazu veranlasst, ein Verfahren gemäß einem der Ansprüche 1 bis 17 auszuführen.A robot controller for an autonomous mobile robot, comprising: a memory for storing software instructions; at least one processor configured to execute the software instructions, wherein when the software instructions are executed, the processor causes the robot controller to perform a method according to any one of Claims 1 to 17 perform.
DE102017121127.6A 2017-09-12 2017-09-12 Exploration of an unknown environment by an autonomous mobile robot Ceased DE102017121127A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102017121127.6A DE102017121127A1 (en) 2017-09-12 2017-09-12 Exploration of an unknown environment by an autonomous mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017121127.6A DE102017121127A1 (en) 2017-09-12 2017-09-12 Exploration of an unknown environment by an autonomous mobile robot

Publications (1)

Publication Number Publication Date
DE102017121127A1 true DE102017121127A1 (en) 2019-03-14

Family

ID=65441407

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017121127.6A Ceased DE102017121127A1 (en) 2017-09-12 2017-09-12 Exploration of an unknown environment by an autonomous mobile robot

Country Status (1)

Country Link
DE (1) DE102017121127A1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110432834A (en) * 2019-07-02 2019-11-12 上海岚豹智能科技有限公司 A kind of cleaning method and sweeper of sweeper
CN111489362A (en) * 2020-04-03 2020-08-04 小狗电器互联网科技(北京)股份有限公司 Space division method and device, readable medium and electronic equipment
CN111721280A (en) * 2020-05-25 2020-09-29 科沃斯机器人股份有限公司 Area identification method, self-moving equipment and storage medium
CN111722630A (en) * 2020-06-30 2020-09-29 深圳市银星智能科技股份有限公司 Partition boundary extension method, device, equipment and storage medium of cleaning robot
CN112180940A (en) * 2020-10-16 2021-01-05 三一机器人科技有限公司 Mapping method and device for reverse positioning and vehicle operation method and device
CN113509104A (en) * 2021-04-25 2021-10-19 珠海格力电器股份有限公司 Cleaning method, storage medium and cleaning robot
CN114543808A (en) * 2022-02-11 2022-05-27 杭州萤石软件有限公司 Indoor relocation method, device, equipment and storage medium
WO2023024347A1 (en) * 2021-08-27 2023-03-02 深圳市优必选科技股份有限公司 Autonomous exploration method for robot, and terminal device and storage medium
US11656082B1 (en) * 2017-10-17 2023-05-23 AI Incorporated Method for constructing a map while performing work
WO2024037260A1 (en) * 2022-08-18 2024-02-22 科沃斯家用机器人有限公司 Control method of cleaning device, cleaning device, and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2287697A2 (en) 2001-06-12 2011-02-23 iRobot Corporation Method and system for multi-code coverage for an autonomous robot
DE102010017689A1 (en) 2010-07-01 2012-01-05 Vorwerk & Co. Interholding Gmbh Automatically movable device and method for orientation of such a device
DE102015119501A1 (en) * 2015-11-11 2017-05-11 RobArt GmbH Subdivision of maps for robot navigation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2287697A2 (en) 2001-06-12 2011-02-23 iRobot Corporation Method and system for multi-code coverage for an autonomous robot
DE102010017689A1 (en) 2010-07-01 2012-01-05 Vorwerk & Co. Interholding Gmbh Automatically movable device and method for orientation of such a device
DE102015119501A1 (en) * 2015-11-11 2017-05-11 RobArt GmbH Subdivision of maps for robot navigation

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HASTIE, Trevor; TIBSHIRANI, Robert; FRIEDMAN, Jerome: The elements of statistical learning - Data mining, inference, and prediction. 2. ed. New York: Springer, [2016] (Springer series in statistics). Deckblatt und Inhaltsverzeichnis. - ISBN 978-0-387-84857-0 (P); 978-0-387-84858-7 (E). DOI: 10.1007/978-0-387-84858-7. URL: https://rd.springer.com/content/pdf/bfm%3A978-0-387-84858-7%2F1.pdf [abgerufen am 2017-10-09] *
LEE, David: The map-building and exploration strategies of a simple sonar-equipped robot - An experimental, quantitative evaluation. Cambridge: Cambridge University Press, 1996 (Distinguished dissertations in computer science). Deckblatt und Inhaltsverzeichnis. - ISBN 0-521-57331-9. - Zugl.: London, Univ., Diss., 1995 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11656082B1 (en) * 2017-10-17 2023-05-23 AI Incorporated Method for constructing a map while performing work
CN110432834A (en) * 2019-07-02 2019-11-12 上海岚豹智能科技有限公司 A kind of cleaning method and sweeper of sweeper
CN111489362A (en) * 2020-04-03 2020-08-04 小狗电器互联网科技(北京)股份有限公司 Space division method and device, readable medium and electronic equipment
CN111489362B (en) * 2020-04-03 2023-12-05 北京小狗吸尘器集团股份有限公司 Space division method and device, readable medium and electronic equipment
CN111721280A (en) * 2020-05-25 2020-09-29 科沃斯机器人股份有限公司 Area identification method, self-moving equipment and storage medium
CN111722630A (en) * 2020-06-30 2020-09-29 深圳市银星智能科技股份有限公司 Partition boundary extension method, device, equipment and storage medium of cleaning robot
CN111722630B (en) * 2020-06-30 2024-02-02 深圳银星智能集团股份有限公司 Partition boundary extension method, device and equipment of cleaning robot and storage medium
CN112180940A (en) * 2020-10-16 2021-01-05 三一机器人科技有限公司 Mapping method and device for reverse positioning and vehicle operation method and device
CN113509104A (en) * 2021-04-25 2021-10-19 珠海格力电器股份有限公司 Cleaning method, storage medium and cleaning robot
WO2023024347A1 (en) * 2021-08-27 2023-03-02 深圳市优必选科技股份有限公司 Autonomous exploration method for robot, and terminal device and storage medium
CN114543808A (en) * 2022-02-11 2022-05-27 杭州萤石软件有限公司 Indoor relocation method, device, equipment and storage medium
WO2024037260A1 (en) * 2022-08-18 2024-02-22 科沃斯家用机器人有限公司 Control method of cleaning device, cleaning device, and storage medium

Similar Documents

Publication Publication Date Title
EP3682305B1 (en) Exploration of an unknown environment by an autonomous mobile robot
DE102017121127A1 (en) Exploration of an unknown environment by an autonomous mobile robot
EP3814067B1 (en) Exploration of a robot deployment area by an autonomous mobile robot
EP3659001B1 (en) Magnetometer for robot navigation
EP3590014B1 (en) Method for controlling an autonomous, mobile robot
EP3417350B1 (en) Method for controlling an autonomous mobile robot
EP3494446A1 (en) Method for controlling an autonomous mobile robot
EP3374834A2 (en) Subdivision of maps for robot navigation
DE102016114594A1 (en) Method for controlling an autonomous mobile robot
EP3676680A1 (en) Movement planning for autonomous mobile robots
DE102015119865B4 (en) Robot-assisted processing of a surface using a robot
EP2812766B1 (en) Method for automatically triggering a self-positioning process
EP2898382B1 (en) Robot and method for autonomous inspection or processing of floor areas
DE102017104427A1 (en) Method for controlling an autonomous, mobile robot
EP3538967B1 (en) Method and system for operating an automatically moving robot
DE102017104428A1 (en) Method for controlling an autonomous, mobile robot
DE102015114883A1 (en) Identification and localization of a base station of an autonomous mobile robot
DE112017008358B3 (en) Vision-based robot control system
EP3709853B1 (en) Floor processing by means of an autonomous mobile robot
DE102020105045A1 (en) METHODS AND DEVICES FOR FACILITATING AUTONOMOUS NAVIGATION OF ROBOTIC DEVICES
DE102016114593A1 (en) Method for controlling an autonomous mobile robot

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001020000

Ipc: G05D0001430000

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final