DE102011006062A1 - Verfahren zur autonomen Inspektion einer Umgebung oder Bearbeitung von Bodenflächen - Google Patents

Verfahren zur autonomen Inspektion einer Umgebung oder Bearbeitung von Bodenflächen Download PDF

Info

Publication number
DE102011006062A1
DE102011006062A1 DE102011006062A DE102011006062A DE102011006062A1 DE 102011006062 A1 DE102011006062 A1 DE 102011006062A1 DE 102011006062 A DE102011006062 A DE 102011006062A DE 102011006062 A DE102011006062 A DE 102011006062A DE 102011006062 A1 DE102011006062 A1 DE 102011006062A1
Authority
DE
Germany
Prior art keywords
robot
environment
module
processing
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102011006062A
Other languages
English (en)
Other versions
DE102011006062B4 (de
Inventor
Harold Artes
Michael Schahpar
Dominik Seethaler
Werner Weichselberger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rotrade Asset Management At GmbH
Original Assignee
Robart GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robart GmbH filed Critical Robart GmbH
Priority to DE102011006062.6A priority Critical patent/DE102011006062B4/de
Publication of DE102011006062A1 publication Critical patent/DE102011006062A1/de
Application granted granted Critical
Publication of DE102011006062B4 publication Critical patent/DE102011006062B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0033Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by having the operator tracking the vehicle either by direct line of sight or via one or more cameras located remotely from the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Es wird ein mobiler, selbstfahrender Roboter zur autonomen Bearbeitung von Bodenflächen oder zur Inspektion einer Umgebung beschrieben. Gemäß einem Beispiel der Erfindung weist der Roboter folgendes auf: ein Antriebsmodul zur Bewegung des Roboters über die Bodenfläche; gegebenenfalls ein Bearbeitungsmodul zur Bearbeitung der Bodenfläche während eines Bearbeitungsvorganges; mindestens ein Sensormodul zum Erfassen von Informationen betreffend die Struktur der Umgebung und/oder betreffend die Bodenfläche; und ein Navigationsmodul zum Navigieren des Roboters über die Bodenfläche während des Bearbeitungs- oder Inspektionsvorganges anhand einer Karte der Umgebung. Das Navigationsmodul ist dazu ausgebildet, während des Bearbeitungs- bzw. Inspektionsvorganges die von dem mindestens einen Sensormodul erfassten Informationen mit den dazugehörenden Positionen des Roboters auf der Karte zu verknüpfen und zu speichern. Schließlich weist der Roboter ein Kommunikationsmodul auf, welches dazu ausgebildet ist, während, nach Abschluss oder nach einer Unterbrechung des Bearbeitungs- oder Inspektionsvorganges eine Verbindung mit einem Mensch-Maschine-Interface herzustellen, um die gespeicherten Informationen mit den korrespondierenden Positionen darzustellen und damit einem Benutzer die Möglichkeit zu geben in den Bearbeitungsvorgang einzugreifen und/oder Veränderungen der Umgebung vorzunehmen. Das Kommunikationsmodul ist weiter dazu ausgebildet, einen Steuerbefehl von dem Benutzer entgegenzunehmen, den Bearbeitungs- oder Inspektionsvorgang zu unterbrechen, zu modifizieren, fortzusetzen oder neu zu beginnen.

Description

  • Technisches Gebiet
  • Die vorliegende Beschreibung betrifft ein Verfahren zur autonomen Bearbeitung von Bodenflächen, insbesondere zum automatischen Reinigen von Böden beispielsweise durch selbstfahrende autonome Reinigungsgeräte (z. B. robotische Staubsauger).
  • Hintergrund
  • Zahlreiche selbstfahrende Roboter zur Reinigung bzw. Bearbeitung von Bodenflächen sind bekannt und käuflich erhältlich. Grundsätzlich soll eine möglichst vollständige Bearbeitung der Bodenfläche in möglichst kurzer Zeit erreicht werden. Bei einfachen Systemen werden zufällige Navigationsverfahren verwendet (z. B. EP 2287697 A2 von iRobot Corp.), welche ohne Erstellung bzw. Verwendung einer Karte der Umgebung, in der sich die zu bearbeitende Bodenfläche befindet, auskommen. Das heißt, es wird keine Ortsinformation betreffend Hindernisse, Bodenflächenbegrenzungen, gereinigte/nicht gereinigte Bereiche, etc. verwendet. In Kombination mit lokalen Bewegungsstrategien wird bei einer Kollision mit einem Hindernis lediglich die Fahrtrichtung (zufällig) geändert. Dadurch nimmt man z. B. eine mehrfache Reinigung von Bodenflächen in Kauf ohne (in endlicher Zeit) eine Garantie für eine vollständige Reinigung der Bodenfläche abgeben zu können.
  • Kompliziertere Systeme erstellen eine Karte der Umgebung zur gezielten Pfadplanung und gezielten Reinigung der Bodenfläche mittels eines SLAM-Algorithmus (SLAM: ”Simultaneous Localization and Mapping”, ”simultane Lokalisierung und Kartenerstellung”). Hierbei wird eine Karte und die Position des Roboters in der Karte mittels externer Sensoren (Laser-Range-Scanner, Triangulation mittels Kamera und Laser, Berührungssensoren, etc.) und inertialer Sensoren (odometrische Sensoren, Beschleunigungssensoren, etc.) ermittelt. Bei neueren Reinigungsrobotern, welche ein derartiges SLAM-Modul verwenden, ist die erstellte Karte nicht-permanent, d. h. eine neue Karte wird für jeden neuen Reinigungsvorgang (d. h. nach Abschluss eines vorangegangen Reinigungsvorgangs) erstellt. Des Weiteren werden dem Benutzer keine kartenbasierten Informationen (z. B. ”Was wurde auf welche Weise gereinigt?”, Darstellung der Karte) mitgeteilt und der Benutzer hat keinen Einfluss auf die interne Verwendung der Karte (z. B. auf die Einteilung der Bodenfläche in gesperrte/nicht-gesperrte Bereiche).
  • Die erstellte Karte kann auch dazu verwendet werden, Eigenschaften der Bodenfläche (z. B. Art der Bodenfläche, Verschmutzungs- bzw. Reinigungsgrad) positionsabhängig zu speichern, um eine noch gezieltere Bodenbearbeitung zu erreichen. In der Publikation EP 1967116 A1 wird zum Beispiel der Verschmutzungsgrad der Bodenfläche ermittelt und gespeichert, um die Bearbeitungsintensität (Dauer, Häufigkeit, etc.) eines nachfolgenden Bearbeitungszyklus zu steuern. In US 6,667,592 B2 von Intellibot wird eine gespeicherte/permanente Karte dazu verwendet, (eventuell unterschiedliche) Funktionen (z. B. saugen, wischen) einzelner Teilbereiche einer Karte zuzuordnen, welche dann von einem Reinigungsgerät autonom abgearbeitet werden können.
  • In US 2009/0182464 A1 von Samsung wird die verfügbare Karte in Teilbereiche zerlegt, welche nachfolgend sequentiell gereinigt werden.
  • Die Reinigungsqualität und damit auch die Akzeptanz derartiger autonom arbeitender Geräte ist dennoch häufig nicht zufriedenstellend, da der Benutzer keinen Einfluss (abgesehen von der Vorauswahl rudimentärer Reinigungsprogramme) auf den Reinigungsvorgang nehmen kann.
  • Die der Erfindung zugrunde liegende Aufgabe besteht darin einen autonomen Roboter zur Inspektion einer Umgebung oder zur Bearbeitung (z. B. zur Reinigung) einer Bodenfläche zur Verfügung zu stellen, der eine Information des Benutzers und damit eine Interaktion mit dem Benutzer ermöglicht, um den Inspektions- bzw. Bearbeitungsvorgang sowie das Ergebnis der Bearbeitung bzw. die Qualität der Inspektion zu verbessern oder die Handhabung des Roboters zu vereinfachen.
  • Zusammenfassung der Erfindung
  • Diese genannte Aufgabe wird durch einen mobilen Roboter gemäß Anspruch 1 gelöst. Unterschiedliche Beispiele und Weiterentwicklungen der Erfindung sind Gegenstand der abhängigen Ansprüche.
  • Im Folgenden wird ein mobiler, selbstfahrender Roboter zur autonomen Bearbeitung von Bodenflächen beschrieben. Gemäß einem Beispiel der Erfindung weist der Roboter folgendes auf: ein Antriebsmodul zur Bewegung des Roboters über die Bodenfläche; ein Bearbeitungsmodul zur Bearbeitung der Bodenfläche während eines Bearbeitungsvorganges; mindestens ein Sensormodul zum Erfassen von Informationen betreffend die Struktur der Umgebung und/oder betreffend die Bodenfläche; und ein Navigationsmodul zum Navigieren des Roboters über die Bodenfläche während des Bearbeitungsvorganges anhand einer Karte der Umgebung. Das Navigationsmodul ist dazu ausgebildet, während des Bearbeitungsvorganges die von dem mindestens einen Sensormodul erfassten Informationen mit den dazugehörenden Positionen des Roboters auf der Karte zu verknüpfen und zu speichern. Schließlich weist der Roboter ein Kommunikationsmodul auf, welches dazu ausgebildet ist, während, nach Abschluss oder nach einer Unterbrechung des Bearbeitungsvorganges eine Verbindung mit einem Mensch-Maschine-Interface herzustellen, um die gespeicherten Informationen mit den korrespondierenden Positionen darzustellen und damit einem Benutzer die Möglichkeit zu geben in den Bearbeitungsvorgang einzugreifen und/oder Veränderungen der Umgebung vorzunehmen. Das Kommunikationsmodul ist weiter dazu ausgebildet, einen Steuerbefehl von dem Benutzer entgegenzunehmen, den Bearbeitungsvorgang zu unterbrechen, zu modifizieren, fortzusetzen oder neu zu beginnen.
  • Des Weiteren wird ein Verfahren zur automatischen Bearbeitung von Bodenflächen mit Hilfe eines selbstfahrenden, autonomen Roboters beschrieben. Gemäß einem Beispiel der Erfindung weist das Verfahren folgendes auf: Starten des Bearbeitungsvorganges und Bearbeiten der Bodenfläche mit Hilfe eines an dem Roboter angeordneten Bearbeitungsmoduls; Navigieren des Roboters über die Bodenfläche während des Bearbeitungsvorganges anhand einer Karte der Umgebung; Erfassen von Informationen betreffend die Struktur der Umgebung und/oder betreffend die Bodenfläche während des Bearbeitungsvorganges durch mindestens ein am oder im Roboter angeordnetes Sensormodul; Lokalisieren des Roboters in der Karte der Umgebung; Zuordnen der erfassten Informationen zu den dazugehörenden Positionen des Roboters auf der Karte und Speichern von erfassten Informationen und den dazugehörigen Positionen; optionales Beenden oder Unterbrechen des Bearbeitungsvorganges; Herstellen einer Verbindung mit einem Mensch-Maschine-Interface, um die währende des Bearbeitungsvorganges gespeicherten Informationen mit den korrespondierenden Positionen darzustellen und damit einem Benutzer die Möglichkeit zu geben in den Bearbeitungsvorgang einzugreifen und/oder Veränderungen der Umgebung vorzunehmen; und Abbruch, Modifikation, Fortsetzung oder Neustart des Bearbeitungsvorganges nach dem Empfang eines entsprechenden Steuerbefehls von dem Benutzer über das Mensch-Maschine-Interface.
  • Der oben beschriebene mobile Roboter kann alternativ auch nur zur Inspektion der Bodenfläche oder der Umgebung statt zur Bearbeitung der Bodenfläche eingesetzt werden. Die im Zusammenhang mit der Bearbeitung einer Bodenfläche beschriebenen Beispiele und technischen Merkmale des mobilen Roboters sind auch auf einen mobilen Roboter zur Inspektion der Bodenfläche, der Umgebung oder von in der Umgebung befindlichen Gegenständen übertragbar. Ein Bearbeitungsmodul ist bei alleiniger Verwendung zur Inspektion nicht zwingend notwendig.
  • Gemäß einem weiteren Beispiel der Erfindung umfasst ein mobiler, selbstfahrender Roboter zur autonomen Inspektion einer Umgebung oder von in der Umgebung befindlichen Gegenständen; zumindest folgende Komponenten: ein Antriebsmodul zur Bewegung des Roboters in der Umgebung; mindestens ein Sensormodul zum Erfassen von Informationen betreffend die Struktur der Umgebung und/oder betreffend die zu inspizierenden Geräte; ein Navigationsmodul zum Navigieren des Roboters durch die Umgebung während des Inspektionsvorganges anhand einer Karte der Umgebung, wobei das Navigationsmodul weiter dazu ausgebildet ist, während des Inspektionsvorganges die von dem mindestens einen Sensormodul erfassten Informationen mit den dazugehörenden Positionen des Roboters auf der Karte zu verknüpfen und zu speichern; ein Kommunikationsmodul, welches dazu ausgebildet ist, während, nach Abschluss oder nach Unterbrechung des Inspektionsvorganges eine Verbindung mit einem Mensch-Maschine-Interface herzustellen, um die gespeicherten Informationen mit den korrespondierenden Positionen mitzuteilen und damit einem Benutzer die Möglichkeit zu geben in den Bearbeitungsvorgang einzugreifen oder Veränderungen der Umgebung vorzunehmen, und das weiter dazu ausgebildet ist, einen Steuerbefehl von dem Benutzer entgegenzunehmen, den Inspektionsvorganges zu unterbrechen, fortzusetzen, zu modifizieren oder neu zu beginnen.
  • Kurze Beschreibung der Abbildungen
  • Die folgenden Abbildungen und die weitere Beschreibung soll helfen, die Erfindung besser zu verstehen. Die Elemente in den Abbildungen sind nicht unbedingt als Einschränkung zu verstehen, vielmehr wird Wert darauf gelegt, das Prinzip der Erfindung darzustellen. In den Abbildungen bezeichnen gleiche Bezugszeichen gleiche oder ähnliche Komponenten oder Signale mit gleicher oder ähnlicher Bedeutung. In den Abbildungen zeigen:
  • 1 eine schematische isometrische Darstellung ein Beispiel eines selbstfahrenden Roboters zur autonomen Reinigung von Bodenflächen; und
  • 2 anhand eines Blockschaltbildes den Aufbau eines Roboters zum autonomen Bearbeiten von Bodenflächen.
  • Detaillierte Beschreibung
  • 1 zeigt eine schematische isometrische Darstellung ein Beispiel eines selbstfahrenden Roboters 100 zur autonomen Reinigung von Bodenflächen. Die 1 zeigt auch ein kartesisches Koordinatensystem mit dem Ursprung in der Mitte des Roboters 100. Derartige Geräte sind häufig – jedoch nicht notwendigerweise – scheibenförmig ausgebildet. Die Hochachse z geht durch das Zentrum der Scheibe. Die longitudinale Achse ist mit x bezeichnet und die transversale Achse mit y.
  • Der Roboter 100 umfasst ein Antriebsmodul (nicht dargestellt), welches z. B. Elektromotore, Getriebe und Räder aufweisen kann. Das Antriebsmodul kann z. B. dazu ausgebildet sein, den Roboter in Vorwärts- und Rückwärtsrichtung zu bewegen (in der Darstellung aus 1 wäre das entlang der x-Achse) und um die Hochachse zu drehen (in der Darstellung aus 1 wäre das die z-Achse). Somit kann der Roboter – theoretisch – jeden Punkt einer Bodenfläche (die parallel zu der durch die x-Achse und y-Achse definierten Ebene liegt) anfahren. Der Roboter umfasst des weiteren ein Bearbeitungsmodul, wie z. B. ein Reinigungsmodul, das dazu ausgebildet ist, die unter (und/oder neben) dem Roboter befindliche Bodenfläche zu reinigen. Beispielsweise werden Staub und Schmutzpartikel in einen Auffangbehälter gesaugt oder auf mechanische (oder irgendeine andere Weise) in diesen befördert. Derartige Roboter sind – als solche – bekannt und unterscheiden sich im Wesentlichen durch die Art der Navigation in der Umgebung und die ”Strategie”, die bei der Bearbeitung der Bodenfläche, wie z. B. bei einem Reinigungsvorgang, angewandt wird.
  • Das Ziel bisheriger Entwicklungen war häufig den Roboter möglichst ”smart” und damit möglichst selbstständig zu machen, um ein gutes Reinigungsergebnis zu erzielen, so dass der Benutzer des Roboters möglichst wenig oder gar nicht nacharbeiten muss. Auf den Behandlungsvorgang selbst hat der Benutzer keinen oder nur marginalen Einfluss (z. B. durch die Wahl unterschiedlicher Bearbeitungsprogramme), weshalb die Akzeptanz derartiger Geräte beim Verbraucher noch verhältnismäßig gering ist. Im Folgenden wird ein Roboter zum autonomen Bearbeiten von Bodenflächen sowie ein entsprechendes Verfahren beschrieben, mit dem dieser Zustand verbessert werden soll.
  • 2 ist ein Blockschaltbild, das den schematischen Aufbau eines Beispiels eines Roboters zum autonomen Bearbeiten (z. B. Reinigen) von Bodenflächen illustriert. Es sind ein Antriebsmodul 130 und ein Bearbeitungsmodul 140 dargestellt, die bereits oben erwähnt wurden. Beide Module 130 und 140 werden von einem Steuer- und Navigationsmodul 110 (navigation and control module) kontrolliert. Das Navigationsmodul ist dazu ausgebildet, den Roboter während eines Reinigungsvorganges anhand einer Karte der Umgebung über die Bodenfläche zu navigieren. Die Karte ist dabei in einem Speicher des Steuer- und Navigationsmoduls in Form von Kartendaten (map data) 110 abgelegt. Zur Navigation in der Umgebung sind unterschiedliche Strategien zur Planung der Soll-Trajektorie des Roboters bekannt. Im Allgemeinen wird versucht, mit einer möglichst kurzen Trajektorie die zu bearbeitende (z. B. zu reinigende) Bodenfläche möglichst vollständig abzudecken, um eine flächendeckende Bearbeitung (z. B. Reinigung) zu gewährleisten.
  • Der Roboter 100 umfasst weiter ein Sensormodul 120 zum Erfassen von Informationen betreffend die Struktur der Umgebung und/oder betreffend Eigenschaften der Bodenfläche. Zu diesem Zweck kann das Sensormodul eine oder mehrere Sensoreinheiten aufweisen, die dazu ausgebildet sind, Informationen zu erfassen, auf deren Basis eine Karte der Umgebung aufgebaut und die Position des Roboters auf der Karte lokalisiert werden kann. Zu diesem Zweck geeignete Sensoren sind z. B. Laser-Range-Scanner, Kameras, Triangulationssensoren, Berührungssensoren zum Erkennen eines Zusammenstoßes mit einem Hindernis, etc. Zum Aufbau der Karte und zur Lokalisierung des Roboters (d. h. zur Bestimmung der Position des Roboters innerhalb der Umgebung) können an sich bekannte SLAM-Verfahren (SLAM: simultaneous localisation and mapping) verwendet werden (siehe z. B. H. Durrant-Whyte and T. Bailey: „Simultaneous Localization and Mapping (SLAM): Part I The Essential Algorithms," in: IEEE Robotics and Automation Magazine, Bd. 13, Nr. 2, S. 99–110, Juni 2006). Die Sensoreinheiten, welche die zum Aufbau der Karte notwendigen Umgebungsinformationen liefern, können auch dazu verwendet werden, auf einer vorhandenen Karte noch nicht verzeichnete Hindernisse zu erkennen. Berührungssensoren können eine Kollision detektieren, Über Stromsensoren zur Messung des Laststromes der Antriebseinheit kann z. B. erkannt werden, wenn der Roboter (z. B. an den Fransen eines Teppichs) festhängt. Andere Sensoreinheiten können z. B. ein Feststecken des Roboters dadurch detektieren, dass die Antriebsräder durchdrehen. Es können weitere Sensoreinheiten vorgesehen sein, die z. B. dazu ausgebildet sind, den Verschmutzungsgrad des Bodens zu ermitteln. Die erfassten Umgebungsinformationen können zusammen mit einer der jeweiligen Information zugeordneten Position des Roboters auf der Karte an das Steuer- und Navigationsmodul 110 übermittelt werden.
  • Das Steuer- und Navigationsmodul 110 verknüpft die vom Sensormodul 120 übermittelten Umgebungsinformationen mit zugehörigen Positionen des Roboters auf der Karte und kann auf diese Weise ”Problemzonen” auf der Karte markieren und speichern und so bei der Navigation bei künftigen Reinigungsvorgängen berücksichtigen. Ein Kommunikationsmodul 150 ist dazu vorgesehen, eine Kommunikationsverbindung zu einer Mensch-Maschine-Schnittstelle 200 (human machine interface, HMI) herzustellen. Diese Mensch-Maschine-Schnittstelle 200 ermöglicht, die gespeicherten Informationen mit den korrespondierenden Positionen für einen Benutzer darzustellen, und gibt damit diesem die Möglichkeit, in den Bearbeitungsvorgang (oder alternativ einen Inspektionsvorgang) einzugreifen oder Veränderungen der Umgebung vorzunehmen. Die Mensch-Maschine-Schnittstelle 200 ermöglicht weiter, einen Steuerbefehl von dem Benutzer entgegenzunehmen, den Bearbeitungsvorgang (oder den Inspektionsvorgang) abzubrechen, zu modifizieren, fortzusetzen oder neu zu beginnen. Die Funktion der Kommunikationsmoduls 150 und der Mensch-Maschine-Schnittstelle 200 wird im folgenden anhand von Fallbeispielen näher erläutert. Als Mensch-Maschine-Schnittstelle 200 kommt dabei ein Personal Computer (PC) in Betracht, es kann sich jedoch auch nur um ein Einfaches Display am Robotergehäuse handeln. Der erwähnte Steuerbefehl kann, je nach Anwendung, über einen PC eingegeben werden oder über eine am Robotergehäuse angeordnete Taste. Selbstverständlich sind auch andere Varianten einer Mensch-Maschine-Kommunikation bekannt.
  • Die folgenden Beispiele setzen voraus, dass der Roboter bereits eine (vollständige oder unvollständige) Karte der Umgebung im Navigationsmodul 110 gespeichert hat. Diese Karte kann, wie bereits angedeutet, z. B. mit Hilfe eines SLAM-Algorithmus beim erstmaligen Betrieb in einer neuen Umgebung (z. B. eine Wohnung mit Vorzimmer, Schlafzimmer, Wohnzimmer, Bad und Küche) aufgebaut und gespeichert werden. Sinnvollerweise wird der Benutzer dafür sorgen dass der Roboter bei diesem ersten Aufbau der Karte vollen Zugang zu der gesamten zu bearbeitenden Bodenfläche (oder zu der gesamten zu inspizierenden Umgebung) hat, um eine vollständige und korrekte Karte aufbauen zu können. Die Karte kann aber auch während der Bearbeitung der Bodenfläche mittels des SLAM-Algorithmus selbsttätig durch den Roboter erweitert werden.
  • Erstes Beispiel: Bei einem nachfolgendem Reinigungsvorgang (z. B. aufgrund einer Benutzerkalendereinstellung um 12:00 am nächsten Tag) ist die Couch im Wohnzimmer derart verschoben, dass er dahinter liegende Bereich nicht mehr angefahren bzw. gereinigt werden kann (z. B. wurde die Couch so nahe an die Wand gerückt, dass der Roboter keinen Platz mehr zwischen Wand und Couch hat). Der Benutzer ist außer Haus und kommt erst am Abend nach Hause. Der Roboter reinigt den Rest der Wohnung, speichert den aktuellen Reinigungsvorgang ab, kehrt zu seiner Aufladestation zurück und schaltet sich ab.
  • Auf Anfrage des Benutzers (oder von sich aus) informiert der Roboter (über die Mensch-Maschine-Schnittstelle 200) den Benutzer über die nicht gereinigten Bereiche der Wohnung im Vergleich zu seinem ersten Reinigungsvorgang (In diesem Fall entspricht der nicht gereinigte Bereich dem Bereich hinter der Couch.) und gibt eine entsprechende Begründung an (in diesem Fall ”Bereich konnte nicht angefahren werden – Platz reicht nicht aus”). Der Benutzer hat nun die Möglichkeit in den Reinigungsprozess insofern einzugreifen, dass er die Couch wieder verschiebt, sodass der Roboter ausreichend Platz für einen Reinigung hat. Anschließend kann der Benutzer dem Roboter (wiederum über die Mensch-Maschine-Schnittstelle 200, z. B. eine Taste am Roboter) ein ”Finish Cleaning” Kommando (”Schließe die Reinigung ab” Kommando) geben. Mit Hilfe der gespeicherten Karte der Umgebung und der Information über den nicht gereinigten Bereich kann der Roboter nun gezielt versuchen den Bereich hinter der Couch anzufahren und zu reinigen. Falls die Couch ausreichend verschoben wurde, wird nun (nur) der Bereich hinter der Couch gereinigt und damit der Reinigungsvorgang der kompletten Wohnung abgeschlossen. Durch die erhaltene Information weiß der Benutzer nun auch, dass der Roboter den Bereich hinter der Couch nur schwer bzw. knapp erreichen kann. Um den Erfolg für zukünftige Reinigungsvorgänge zu erhöhen, hat der Benutzer nun auch die Möglichkeit diesen schwer zugänglichen Bereich für den Roboter leichter erreichbar zu machen.
  • Zweites Beispiel: Bei einem nachfolgendem Reinigungsvorgang bleibt der Roboter nach rund 80 Prozent des Reinigungsvorgangs an den Fransen des Wohnzimmerteppichs hängen und kann sich nicht selbsttätig befreien. Der Benutzer ist wiederum außer Haus und kommt erst am Abend zurück. Der Roboter erkennt, dass er hängen geblieben ist, speichert den aktuellen Reinigungsvorgang und schaltet sich ab. Optional kann der Roboter diese ”Gefahrenzone” zusätzlich abspeichern, um sie bei zukünftigen Reinigungsvorgängen anders anzufahren, den Bereich zu meiden, oder erst als Letztes zu reinigen. Auf Anfrage des Benutzers (wenn dieser am Abend nach Hause kommt) oder von sich aus informiert der Roboter (über die Mensch-Maschine-Schnittstelle 200) den Benutzer über die ca. 20% nicht gereinigten Bereiche der Wohnung im Vergleich zu seinem ersten (Soll-)Reinigungsvorgang und gibt eine entsprechende Begründung an (in diesem Fall ”Bin im Wohnzimmer hängengeblieben”). Der Benutzer hat nun die Möglichkeit den Reinigungsroboter zu befreien und dem Reinigungsroboter ein ”Finish Cleaning”-Kommando zu geben. Mit Hilfe der gespeicherten Karte und der Information über die nicht gereinigten Bereiche kann der Roboter nun gezielt versuchen die restlichen ca. 20% der Wohnung zu reinigen. Falls dies gelingt, ist damit Reinigungsvorgang der kompletten Wohnung abgeschlossen.
  • Die Information muss natürlich nicht nur auf Anfrage des Benutzers an diesen ausgegeben werden. Es ist auch möglich, dass der Roboter den Benutzer (z. B. über einen drahtlosen Internet-Zugang) über eine e-Mail-Nachricht von sich aus über den Reinigungsvorgang in Kenntnis setzt.
  • In ähnlicher Weise ist es auch möglich, den Benutzer über besonders stark verschmutzte Bereich zu informieren, die manuell nachgereinigt werden müssen. Das Kommunikationsmodul 150 und die Mensch-Maschine-Schnittstelle 200 ermöglichen jedenfalls ein direktes oder indirektes Eingreifen des Benutzers in den Reinigungsvorgang, was das Gesamtergebnis verbessert und die Akzeptanz des Geräts beim Benutzer erhöht.
  • Drittes Beispiel: Bei einem nachfolgendem Reinigungsvorgang ”entdeckt” der Roboter durch eine geöffnete Tür, welche bisher verschlossen war, ein zusätzlich zu reinigendes Zimmer. Der Roboter reinigt dieses neu entdeckte Zimmer und den Rest der Wohnung, speichert den aktuellen Reinigungsvorgang ab, kehrt zu seiner Aufladestation zurück, und schaltet sich ab. Die abgespeicherte Karte ist nun entsprechend um das neu entdeckten Zimmer erweitert. Bei einem nachfolgendem Reinigungsvorgang ist die Tür wieder geschlossen und das kürzlich neu entdeckte Zimmer kann daher nicht mehr angefahren und gereinigt werden. Der Benutzer ist außer Haus und kommt erst am Abend nach Hause. Der Roboter reinigt den Rest der Wohnung, speichert den aktuellen Reinigungsvorgang ab, kehrt zu seiner Aufladestation zurück und schaltet sich ab. Auf Anfrage des Benutzers (oder von sich aus) informiert der Roboter (über die Mensch-Maschine-Schnittstelle 200) den Benutzer über die nicht gereinigten Bereiche der Wohnung im Vergleich zu seinem letzten Reinigungsvorgang (in diesem Fall entspricht der nicht gereinigte Bereich dem kürzlich neu entdecktem Zimmer) und gibt eine entsprechende Begründung an (in diesem Fall ”Bereich konnte nicht angefahren werden – Tür ist geschlossen”). Der Benutzer hat nun die Möglichkeit in den Reinigungsprozess insofern einzugreifen, als er die Tür öffnet, sodass der Roboter in das Zimmer fahren kann. Anschließend kann der Benutzer dem Roboter (wiederum über die Mensch-Maschine-Schnittstelle 200, z. B. eine Taste am Roboter) ein ”Finish Cleaning” Kommando (”Schließe die Reinigung ab” Kommando) geben. Mit Hilfe der vom letzten Reinigungsvorgang gespeicherten Karte der Umgebung und der Information über den nicht gereinigten Bereich kann der Roboter nun gezielt versuchen das Zimmer anzufahren und zu reinigen. Falls dies gelingt, ist damit Reinigungsvorgang der kompletten Wohnung abgeschlossen. Durch die erhaltene Information weiß der Benutzer, dass der Roboter dieses Zimmer als zu reinigenden Bereich gespeichert hat. Um den Erfolg für zukünftige Reinigungsvorgänge zu erhöhen, hat der Benutzer nun auch die Möglichkeit darauf zu achten die Tür zu diesem Zimmer geöffnet zu lassen.
  • Viertes Beispiel: Bei einem nachfolgendem Reinigungsvorgang bricht der Roboter seinen Reinigungsvorgang der Küche ab, da zu viele bewegte Hindernisse (z. B. Menschen) den Reinigungsvorgang zu lange (z. B. in Bezug einer vordefinierbaren Zeitvorgabe) verzögern. Der Roboter reinigt den Rest der Wohnung, speichert den aktuellen Reinigungsvorgang ab, kehrt zu seiner Aufladestation zurück, und schaltet sich ab. Optional kann der Roboter diese ”zeitliche Gefahrenzone” zusätzlich abspeichern, um sie bei zukünftigen Reinigungsvorgängen zu einem anderen Zeitpunkt anzufahren. Auf Anfrage des Benutzers (oder von sich aus) informiert der Roboter (über die Mensch-Maschine-Schnittstelle 200) den Benutzer über die unzureichend gereinigte Bereiche der Wohnung im Vergleich zu seinem letzten Reinigungsvorgang (in diesem Fall entspricht der unzureichend gereinigte Bereich der Küche) und gibt eine entsprechende Begründung an (in diesem Fall ”Bereich konnte nicht ausreichend gereinigt werden – zu viel Bewegung”). Der Benutzer kann dem Roboter (wiederum über die Mensch-Maschine-Schnittstelle 200, z. B. eine Taste am Roboter) ein ”Finish Cleaning” Kommando (”Schließe die Reinigung ab” Kommando) geben. Mit Hilfe der vom letzten Reinigungsvorgang gespeicherten Karte der Umgebung und der Information über den nicht gereinigten Bereich kann der Roboter nun gezielt versuchen, die Küche anzufahren und zu reinigen. Falls dies gelingt, ist damit Reinigungsvorgang der kompletten Wohnung abgeschlossen. Durch die erhaltene Information weiß der Benutzer nun auch, dass der Roboter zu dieser Zeit die Küche (z. B. aufgrund eines zu hohen Menschenaufkommens) nur erschwert reinigen kann. Um den Erfolg für zukünftige Reinigungsvorgänge zu erhöhen, hat der Benutzer nun auch die Möglichkeit die Kalendereinstellung des Roboters derart zu ändern, dass sich mit hoher Wahrscheinlichkeit weniger Menschen während des neu gewählten Zeitabschnitts in der Küche aufhalten.
  • Fünftes Beispiel: Ein mobiler Roboter wird dazu verwendet in einem Gebäude aufgestellte Geräte (Wasserspender, Kopiermaschinen, Kaffeeautomaten, Beleuchtung, etc.) zu inspizieren oder ganz allgemein, das Gebäude nach unerwarteten Objekten oder (unbefugten) Personen abzusuchen. Zu diesem Zweck hat der mobile Roboter bereits eine vollständige Karte der Umgebung bei einer früheren Inspektion aufgebaut. Der Roboter kann einen Raum nicht anfahren, weil eine Schiebetür klemmt. Der Roboter inspiziert den Rest des Gebäudes soweit möglich, fährt zurück in seine Ausgangsposition und meldet dem Benutzer (z. B. dem Nachtportier) beispielsweise per e-Mail über eine drahtlose LAN-Schnittstelle (LAN: local area network) dass ein Raum nicht inspiziert werden konnte. Der Benutzer hat die Gelegenheit, die klemmende Tür zu reparieren und den Roboter, beispielsweise über eine Antwort e-Mail, zum Fortsetzen der Inspektion zu bringen.
  • Im letzten Beispiel wird die Mensch-Maschine-Schnittstelle 200 durch einen e-Mail-Client auf einen PC gebildet und das Kommunikationsmodul 150 durch die Wireless-LAN-Schnittstelle des Roboters, welche eine Kommunikation über ein (lokales) Netwerk mit dem Benutzer ermöglicht.
  • Während die Erfindung anhand einer beispielhaften Ausgestaltung beschrieben wurde, lässt sich die Erfindung zusätzlich innerhalb des Grundgedankens und des Schutzumfangs dieser Offenbarung modifizieren. Die vorliegende Anmeldung soll daher zahlreiche Varianten, Einsatzmöglichkeiten oder Adaptionen der Erfindung unter Verwendung von deren grundsätzlichen Prinzipien abdecken. Außerdem ist die vorliegende Anmeldung dazu gedacht, derartige Abweichungen von der vorliegenden Offenbarung abzudecken, die bekannte oder übliche Praxis im Stand der Technik darstellen, auf dem die vorliegende Erfindung beruht. Die Erfindung ist nicht auf die oben angegebenen Einzelheiten beschränkt, sondern lässt sich gemäß den beigefügten Ansprüchen modifizieren.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 2287697 A2 [0002]
    • EP 1967116 A1 [0004]
    • US 6667592 B2 [0004]
    • US 2009/0182464 A1 [0005]
  • Zitierte Nicht-Patentliteratur
    • H. Durrant-Whyte and T. Bailey: „Simultaneous Localization and Mapping (SLAM): Part I The Essential Algorithms,” in: IEEE Robotics and Automation Magazine, Bd. 13, Nr. 2, S. 99–110, Juni 2006 [0020]

Claims (10)

  1. Mobiler selbstfahrender Roboter zur autonomen Bearbeitung von Bodenflächen; der Roboter weist folgendes auf: ein Antriebsmodul zur Bewegung des Roboters über die Bodenfläche ein Bearbeitungsmodul zur Bearbeitung der Bodenfläche während eines Bearbeitungsvorganges; mindestens ein Sensormodul zum Erfassen von Informationen betreffend die Struktur der Umgebung und/oder betreffend die Bodenfläche; ein Navigationsmodul zum Navigieren des Roboters über die Bodenfläche während des Bearbeitungsvorganges anhand einer Karte der Umgebung, wobei das Navigationsmodul weiter dazu ausgebildet ist, während des Bearbeitungsvorganges die von dem mindestens einen Sensormodul erfassten Informationen mit den dazugehörenden Positionen des Roboters auf der Karte zu verknüpfen und zu speichern; ein Kommunikationsmodul, welches dazu ausgebildet ist, während, nach Abschluss oder nach Unterbrechung des Bearbeitungsvorganges eine Verbindung mit einem Mensch-Maschine-Interface herzustellen, um die gespeicherten Informationen mit den korrespondierenden Positionen mitzuteilen und damit einem Benutzer die Möglichkeit zu geben in den Bearbeitungsvorgang einzugreifen oder Veränderungen der Umgebung vorzunehmen, und das weiter dazu ausgebildet ist, einen Steuerbefehl von dem Benutzer entgegenzunehmen, den Bearbeitungsvorgang zu unterbrechen, fortzusetzen, zu modifizieren oder neu zu beginnen.
  2. Roboter gemäß Anspruch 1, bei dem die Mensch-Maschine-Schnittstelle eine Anzeigeeinheit zur visuellen Darstellung von Information umfasst und zumindest eine Eingabeeinheit zur Eingabe des Steuerbefehls durch den Benutzer.
  3. Roboter gemäß Anspruch 1 oder 2, bei dem die mit der (den) dazugehörigen Position(en) gespeicherte(n) Informationen jene Bereiche betreffen, die nicht bearbeitet werden konnten sowie die zugrunde liegende Ursache(n), die eine Bearbeitung verhindert hat.
  4. Roboter gemäß Anspruch 3, bei dem das Navigationsmodul dazu ausgebildet ist, während des Bearbeitungsvorganges bereits gereinigte Bereiche zu protokollieren, sodass zu jedem Zeitpunkt der Bearbeitungsvorganges bekannt ist, welche Bereiche noch nicht bearbeitet wurden.
  5. Roboter gemäß Anspruch 3 oder 4, bei dem das Sensormodul zumindest eine Sensoreinheit umfasst, die dazu ausgebildet ist, ein Feststecken oder Hängenbleiben des Roboters zu detektieren.
  6. Roboter gemäß Anspruch 3, 4 oder 5, bei dem das Sensormodul dazu ausgebildet ist, ein auf der Karte nicht verzeichnetes Hindernis zu erkennen, und bei dem das Navigationsmodul dazu ausgebildet ist, zu detektieren, ob durch das Hindernis ein Bereich der zu bearbeitenden Bodenfläche unzugänglich wird und daher nicht bearbeitet werden kann.
  7. Roboter gemäß Anspruch 6, bei dem das Sensormodul dazu ausgebildet ist, bewegte Hindernisse zu erkennen, und bei dem das Navigationsmodul dazu ausgebildet ist, erkannten Hindernissen auszuweichen und die Bearbeitung jenes Teilbereichs, in dem die bewegten Hindernisse sich befinden, der Bodenfläche abzubrechen und, optional, es später noch einmal zu versuchen.
  8. Roboter gemäß Anspruch 7, wobei die Navigationseinheit dazu ausgebildet ist, den Zeitpunkt und/oder die Zeitdauer des Auftretens von Hindernissen zu protokollieren, um diese Information dem Benutzer mitzuteilen.
  9. Verfahren zur automatischen Bearbeitung von Bodenflächen mit Hilfe eines selbstfahrenden autonomen Roboters; das Verfahren umfasst folgendes: Starten des Bearbeitungsvorganges und Bearbeiten der Bodenfläche mit Hilfe eines an dem Roboter angeordneten Bearbeitungsmoduls; Navigieren des Roboters über die Bodenfläche während des Bearbeitungsvorganges anhand einer Karte der Umgebung; Erfassen von Informationen betreffend die Struktur der Umgebung und/oder betreffend die Bodenfläche während des Bearbeitungsvorganges durch mindestens ein am oder im Roboter angeordnetes Sensormodul; Lokalisieren des Roboters in der Karte der Umgebung; Zuordnen der erfassten Informationen zu den dazugehörenden Positionen des Roboters auf der Karte und Speichern von erfassten Informationen und den dazugehörigen Positionen; Beenden oder Unterbrechen des Bearbeitungsvorganges; Herstellen einer Verbindung mit einem Mensch-Maschine-Interface, um die währende des Bearbeitungsvorganges gespeicherten Informationen mit den korrespondierenden Positionen darzustellen und damit einem Benutzer die Möglichkeit zu geben in den Bearbeitungsvorgang einzugreifen oder Veränderungen der Umgebung vorzunehmen; Fortsetzung, Abbruch, Modifikation oder Neustart des Bearbeitungsvorganges nach dem Empfang eines entsprechenden Steuerbefehls von dem Benutzer über das Mensch-Maschine-Interface.
  10. Mobiler selbstfahrender Roboter zur autonomen Inspektion einer Umgebung oder von in der Umgebung befindlichen Gegenständen; der Roboter weist folgendes auf: ein Antriebsmodul zur Bewegung des Roboters in der Umgebung; mindestens ein Sensormodul zum Erfassen von Informationen betreffend die Struktur der Umgebung und/oder betreffend die zu inspizierenden Geräte; ein Navigationsmodul zum Navigieren des Roboters durch die Umgebung während des Inspektionsvorganges anhand einer Karte der Umgebung, wobei das Navigationsmodul weiter dazu ausgebildet ist, während des Inspektionsvorganges die von dem mindestens einen Sensormodul erfassten Informationen mit den dazugehörenden Positionen des Roboters auf der Karte zu verknüpfen und zu speichern; ein Kommunikationsmodul, welches dazu ausgebildet ist, während, nach Abschluss oder nach Unterbrechung des Inspektionsvorganges eine Verbindung mit einem Mensch-Maschine-Interface herzustellen, um die gespeicherten Informationen mit den korrespondierenden Positionen mitzuteilen und damit einem Benutzer die Möglichkeit zu geben in den Bearbeitungsvorgang einzugreifen oder Veränderungen der Umgebung vorzunehmen, und das weiter dazu ausgebildet ist, einen Steuerbefehl von dem Benutzer entgegenzunehmen, den Inspektionsvorganges zu unterbrechen, fortzusetzen, zu modifizieren oder neu zu beginnen.
DE102011006062.6A 2011-03-24 2011-03-24 Verfahren zur autonomen Inspektion einer Umgebung oder Bearbeitung von Bodenflächen Active DE102011006062B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102011006062.6A DE102011006062B4 (de) 2011-03-24 2011-03-24 Verfahren zur autonomen Inspektion einer Umgebung oder Bearbeitung von Bodenflächen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011006062.6A DE102011006062B4 (de) 2011-03-24 2011-03-24 Verfahren zur autonomen Inspektion einer Umgebung oder Bearbeitung von Bodenflächen

Publications (2)

Publication Number Publication Date
DE102011006062A1 true DE102011006062A1 (de) 2012-09-27
DE102011006062B4 DE102011006062B4 (de) 2023-05-25

Family

ID=46831508

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011006062.6A Active DE102011006062B4 (de) 2011-03-24 2011-03-24 Verfahren zur autonomen Inspektion einer Umgebung oder Bearbeitung von Bodenflächen

Country Status (1)

Country Link
DE (1) DE102011006062B4 (de)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012109004A1 (de) * 2012-09-24 2014-03-27 RobArt GmbH Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen
WO2015144202A1 (de) 2014-03-24 2015-10-01 Alfred Kärcher Gmbh & Co. Kg Verfahren zum reinigen einer bodenfläche und bodenreinigungsgerät
DE102016102644A1 (de) * 2016-02-15 2017-08-17 RobArt GmbH Verfahren zur Steuerung eines autonomen mobilen Roboters
EP3072432B1 (de) 2015-03-23 2018-02-28 LG Electronics Inc. Reinigungsroboter und reinigungsrobotersystem damit
WO2018098490A1 (en) 2016-11-28 2018-05-31 Brain Corporation Systems and methods for remote operating and/or monitoring of a robot
WO2020161021A1 (de) * 2019-02-07 2020-08-13 Robert Bosch Gmbh Autonomes arbeitsgerät
CN112739505A (zh) * 2018-08-31 2021-04-30 罗博艾特有限责任公司 自主移动机器人对机器人工作区域的勘察
CN112826391A (zh) * 2019-11-22 2021-05-25 德国福维克控股公司 具有至少两个地面处理设备的系统和运行系统的方法
US11175670B2 (en) 2015-11-17 2021-11-16 RobArt GmbH Robot-assisted processing of a surface using a robot
US11188086B2 (en) 2015-09-04 2021-11-30 RobArtGmbH Identification and localization of a base station of an autonomous mobile robot
US11550054B2 (en) 2015-06-18 2023-01-10 RobArtGmbH Optical triangulation sensor for distance measurement
US11709489B2 (en) 2017-03-02 2023-07-25 RobArt GmbH Method for controlling an autonomous, mobile robot
US11768494B2 (en) 2015-11-11 2023-09-26 RobArt GmbH Subdivision of maps for robot navigation
US11789447B2 (en) 2015-12-11 2023-10-17 RobArt GmbH Remote control of an autonomous mobile robot

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5995884A (en) * 1997-03-07 1999-11-30 Allen; Timothy P. Computer peripheral floor cleaning system and navigation method
WO2003014852A1 (de) * 2001-08-03 2003-02-20 Siemens Aktiengesellschaft Planung einer erweiterten bahn für eine autonome mobile einheit zum späteren ab fahren temporär versperrter bahnbereiche
US6667592B2 (en) 2001-08-13 2003-12-23 Intellibot, L.L.C. Mapped robot system
DE10319513A1 (de) * 2002-10-31 2004-05-19 Samsung Gwangju Electronics Co. Ltd. Automatische Reinigungsvorrichtung und automatisches Reinigungssystem sowie Verfahren zu deren Steuerung
EP1967116A1 (de) 2007-03-05 2008-09-10 MIELE & CIE. KG Verfahren zur Reinigung einer Bodenfläche mittels eines selbstfahrenden Reinigungsgerätes, insbesondere eines Robotsaugers
US20080294288A1 (en) * 2005-12-30 2008-11-27 Irobot Corporation Autonomous Mobile Robot
US20090037033A1 (en) * 2007-05-14 2009-02-05 Emilie Phillips Autonomous Behaviors for a Remote Vehicle
US20090182464A1 (en) 2008-01-11 2009-07-16 Samsung Electronics Co., Ltd. Method and apparatus for planning path of mobile robot
EP2287697A2 (de) 2001-06-12 2011-02-23 iRobot Corporation Verfahren und System zur multimodalen Bedeckung für einen autonomen Roboter

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5995884A (en) * 1997-03-07 1999-11-30 Allen; Timothy P. Computer peripheral floor cleaning system and navigation method
EP2287697A2 (de) 2001-06-12 2011-02-23 iRobot Corporation Verfahren und System zur multimodalen Bedeckung für einen autonomen Roboter
WO2003014852A1 (de) * 2001-08-03 2003-02-20 Siemens Aktiengesellschaft Planung einer erweiterten bahn für eine autonome mobile einheit zum späteren ab fahren temporär versperrter bahnbereiche
US6667592B2 (en) 2001-08-13 2003-12-23 Intellibot, L.L.C. Mapped robot system
DE10319513A1 (de) * 2002-10-31 2004-05-19 Samsung Gwangju Electronics Co. Ltd. Automatische Reinigungsvorrichtung und automatisches Reinigungssystem sowie Verfahren zu deren Steuerung
US20080294288A1 (en) * 2005-12-30 2008-11-27 Irobot Corporation Autonomous Mobile Robot
EP1967116A1 (de) 2007-03-05 2008-09-10 MIELE & CIE. KG Verfahren zur Reinigung einer Bodenfläche mittels eines selbstfahrenden Reinigungsgerätes, insbesondere eines Robotsaugers
US20090037033A1 (en) * 2007-05-14 2009-02-05 Emilie Phillips Autonomous Behaviors for a Remote Vehicle
US20090182464A1 (en) 2008-01-11 2009-07-16 Samsung Electronics Co., Ltd. Method and apparatus for planning path of mobile robot

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
H. Durrant-Whyte and T. Bailey: "Simultaneous Localization and Mapping (SLAM): Part I The Essential Algorithms," in: IEEE Robotics and Automation Magazine, Bd. 13, Nr. 2, S. 99-110, Juni 2006

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012109004A1 (de) * 2012-09-24 2014-03-27 RobArt GmbH Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen
US10390674B2 (en) 2014-03-24 2019-08-27 Alfred Kärcher SE & Co. KG Method for cleaning a floor surface and floor cleaning device
WO2015144202A1 (de) 2014-03-24 2015-10-01 Alfred Kärcher Gmbh & Co. Kg Verfahren zum reinigen einer bodenfläche und bodenreinigungsgerät
EP3072432B1 (de) 2015-03-23 2018-02-28 LG Electronics Inc. Reinigungsroboter und reinigungsrobotersystem damit
EP3072432B2 (de) 2015-03-23 2023-09-20 LG Electronics Inc. Reinigungsroboter und reinigungsrobotersystem damit
EP3679850B1 (de) * 2015-03-23 2022-06-29 LG Electronics Inc. Roboterreiniger, roboterreinigungssystem damit
US11550054B2 (en) 2015-06-18 2023-01-10 RobArtGmbH Optical triangulation sensor for distance measurement
US11188086B2 (en) 2015-09-04 2021-11-30 RobArtGmbH Identification and localization of a base station of an autonomous mobile robot
US11768494B2 (en) 2015-11-11 2023-09-26 RobArt GmbH Subdivision of maps for robot navigation
US12093050B2 (en) 2015-11-17 2024-09-17 Rotrade Asset Management Gmbh Robot-assisted processing of a surface using a robot
US11175670B2 (en) 2015-11-17 2021-11-16 RobArt GmbH Robot-assisted processing of a surface using a robot
US11789447B2 (en) 2015-12-11 2023-10-17 RobArt GmbH Remote control of an autonomous mobile robot
DE102016102644A1 (de) * 2016-02-15 2017-08-17 RobArt GmbH Verfahren zur Steuerung eines autonomen mobilen Roboters
US10860029B2 (en) 2016-02-15 2020-12-08 RobArt GmbH Method for controlling an autonomous mobile robot
US11709497B2 (en) 2016-02-15 2023-07-25 RobArt GmbH Method for controlling an autonomous mobile robot
EP3545377A4 (de) * 2016-11-28 2020-07-29 Brain Corporation Systeme und verfahren zur fernbedienung und/oder -überwachung eines roboters
WO2018098490A1 (en) 2016-11-28 2018-05-31 Brain Corporation Systems and methods for remote operating and/or monitoring of a robot
US11709489B2 (en) 2017-03-02 2023-07-25 RobArt GmbH Method for controlling an autonomous, mobile robot
EP3814067B1 (de) 2018-08-31 2023-05-31 Robart GmbH Exploration eines robotereinsatzgebietes durch einen autonomen mobilen roboter
CN112739505A (zh) * 2018-08-31 2021-04-30 罗博艾特有限责任公司 自主移动机器人对机器人工作区域的勘察
CN113661459A (zh) * 2019-02-07 2021-11-16 罗伯特·博世有限公司 自主工作器具
WO2020161021A1 (de) * 2019-02-07 2020-08-13 Robert Bosch Gmbh Autonomes arbeitsgerät
CN112826391A (zh) * 2019-11-22 2021-05-25 德国福维克控股公司 具有至少两个地面处理设备的系统和运行系统的方法
CN112826391B (zh) * 2019-11-22 2024-05-28 德国福维克控股公司 具有至少两个地面处理设备的系统和运行系统的方法

Also Published As

Publication number Publication date
DE102011006062B4 (de) 2023-05-25

Similar Documents

Publication Publication Date Title
DE102011006062B4 (de) Verfahren zur autonomen Inspektion einer Umgebung oder Bearbeitung von Bodenflächen
EP2898382B1 (de) Roboter und verfahren zur autonomen inspektion oder bearbeitung von bodenflächen
EP2812766B2 (de) Verfahren zum automatischen auslösen einer selbstlokalisierung
EP3417350B1 (de) Verfahren zur steuerung eines autonomen mobilen roboters
EP3814067B1 (de) Exploration eines robotereinsatzgebietes durch einen autonomen mobilen roboter
EP3376933B1 (de) Robotergestützte bearbeitung einer oberfläche mittels eines roboters
EP3494446A1 (de) Verfahren zur steuerung eines autonomen mobilen roboters
EP3682305A1 (de) Exploration einer unbekannten umgebung durch einen autonomen mobilen roboter
EP3709853B1 (de) Bodenbearbeitung mittels eines autonomen mobilen roboters
EP3616016A1 (de) Verfahren für die navigation eines roboters
EP3619585B1 (de) Verfahren zur steuerung von reinigungsgeräten
EP3367200B1 (de) Verfahren zum betrieb eines sich selbsttätig fortbewegenden roboters
EP3974934A1 (de) Verfahren zur steuerung eines autonomen, mobilen roboters
EP3685722A1 (de) System aus einem ausschliesslich manuell geführten bodenbearbeitungsgerät und einem ausschliesslich automatisch betriebenen bodenbearbeitungsgerät sowie verfahren zum betrieb eines solchen systems
DE102014012811A1 (de) Bodenreinigungsgerät und Verfahren und System zum Ermitteln eines Wohnungsgrundrisses durch ein selbstfahrendes Bodenreinigungsgerät
DE102015100419A1 (de) Verfahren und Anordnung zum Bearbeiten von Bodenflächen
EP3862938A1 (de) Verfahren zum betrieb eines reinigungssystems
EP3995065B1 (de) Sich selbsttätig fortbewegendes reinigungsgerät
EP3984434A2 (de) Verfahren zum betrieb eines mobilen, selbstfahrenden geräts
DE102017113605A1 (de) Autonomes Reinigungssystem und Reinigungsverfahren
DE102017113606A1 (de) Autonomes Reinigungssystem und Reinigungsverfahren
DE102017113609A1 (de) Autonomes Reinigungssystem und Reinigungsverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001020000

Ipc: G05D0001430000

R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: ROTRADE ASSET MANAGEMENT GMBH, AT

Free format text: FORMER OWNER: ROBART GMBH, LINZ, AT