DE102012109004A1 - Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen - Google Patents

Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen Download PDF

Info

Publication number
DE102012109004A1
DE102012109004A1 DE102012109004.1A DE102012109004A DE102012109004A1 DE 102012109004 A1 DE102012109004 A1 DE 102012109004A1 DE 102012109004 A DE102012109004 A DE 102012109004A DE 102012109004 A1 DE102012109004 A1 DE 102012109004A1
Authority
DE
Germany
Prior art keywords
robot
user
area
information
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102012109004.1A
Other languages
English (en)
Inventor
Harold Artes
Michael Schahpar
Dominik Seethaler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robart GmbH
Original Assignee
Robart GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robart GmbH filed Critical Robart GmbH
Priority to DE102012109004.1A priority Critical patent/DE102012109004A1/de
Priority to EP13791727.4A priority patent/EP2898382B1/de
Priority to CN201811026710.6A priority patent/CN109613913A/zh
Priority to JP2015532244A priority patent/JP6430944B2/ja
Priority to US14/430,461 priority patent/US9298183B2/en
Priority to CN201380049511.6A priority patent/CN104737085B/zh
Priority to PCT/AT2013/050192 priority patent/WO2014043732A1/de
Publication of DE102012109004A1 publication Critical patent/DE102012109004A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0022Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4011Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Electric Vacuum Cleaner (AREA)
  • Selective Calling Equipment (AREA)
  • Telephonic Communication Services (AREA)

Abstract

Es wird ein mobiler selbstfahrender Roboter zum autonomen Ausführen von Tätigkeiten beschrieben. Der Roboter weist folgendes auf: ein Antriebsmodul zur Bewegung des Roboters über die Bodenfläche; ein Bearbeitungsmodul zum Ausführen der Tätigkeiten während eines Bearbeitungsvorganges; ein Navigationsmodul, welches dazu ausgebildet ist, den Roboter während des Bearbeitungsvorganges anhand einer Karte der Umgebung über die Bodenfläche zu navigieren, und eine oder mehrere Karten der Umgebung abzuspeichern und zu verwalten. Der Roboter umfasst des Weiteren mindestens ein Sensormodul zum Erfassen von Informationen betreffend die Struktur der Umgebung; eine Analyseeinheit, welche dazu ausgebildet ist, die bei einem Bearbeitungsvorgang bearbeitete Fläche zu bestimmen, diese mit einer Referenz zu vergleichen und Informationen über eine Abweichung zwischen der Referenz und der tatsächlich bearbeiteten Fläche zu speichern, und ein Kommunikationsmodul, welches dazu ausgebildet ist, während, nach Abschluss oder nach Unterbrechung des Bearbeitungsvorganges eine Verbindung mit einer Mensch-Maschine-Schnittstelle herzustellen, um die gespeicherten Informationen über eine Abweichung zwischen der Referenz und der tatsächlich bearbeiteten Fläche mitzuteilen und damit einem Nutzer die Möglichkeit zu geben in den Bearbeitungsvorgang einzugreifen, Veränderungen der Umgebung vorzunehmen oder einen erneuten Bearbeitungsvorgang zu starten, wobei anhand bestimmter, vordefinierbarer Kriterien entschieden wird, ob eine Information nach Aufforderung durch den Nutzer, ohne Aufforderung, oder gar nicht mitgeteilt werden soll. Das Kommunikationsmodul ist weiter dazu ausgebildet, einen Steuerbefehl von dem Nutzer entgegenzunehmen, den Bearbeitungsvorgang zu unterbrechen, fortzusetzen, zu modifizieren oder neu zu beginnen.

Description

  • Technisches Gebiet
  • Die vorliegende Beschreibung betrifft ein Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen, insbesondere zum Inspizieren oder Bearbeiten beispielsweise mittels eines autonomen Roboters.
  • Hintergrund
  • Zahlreiche selbstfahrende Roboter zur Reinigung bzw. Bearbeitung von Bodenflächen sind bekannt und käuflich erhältlich. Grundsätzlich soll eine möglichst vollständige Bearbeitung der Bodenfläche in möglichst kurzer Zeit erreicht werden. Bei einfachen Systemen werden zufällige Navigationsverfahren verwendet (z.B. EP 2287697 A2 von iRobot Corp.), welche ohne Erstellung bzw. Verwendung einer Karte der Umgebung, in der sich die zu bearbeitende Bodenfläche befindet, auskommen. Das heißt, es wird keine Ortsinformation betreffend Hindernisse, Bodenflächenbegrenzungen, gereinigte/nicht gereinigte Bereiche, etc. verwendet. In Kombination mit lokalen Bewegungsstrategien wird bei einer Kollision mit einem Hindernis lediglich die Fahrtrichtung (zufällig) geändert. Dadurch nimmt man z.B. eine mehrfache Reinigung von Bodenflächen in Kauf ohne (in endlicher Zeit) eine Garantie für eine vollständige Reinigung der Bodenfläche abgeben zu können.
  • Kompliziertere Systeme erstellen eine Karte der Umgebung zur gezielten Pfadplanung und gezielten Reinigung der Bodenfläche mittels eines SLAM-Algorithmus (SLAM: "Simultaneous Localization and Mapping", "simultane Lokalisierung und Kartenerstellung"). Hierbei wird eine Karte und die Position des Roboters in der Karte mittels Sensoren wie z.B. Laser-Range-Scanner, Triangulation mittels Kamera und Laser, Berührungssensoren, odometrische Sensoren, Beschleunigungssensoren, etc. ermittelt. Bei neueren Reinigungsrobotern, welche ein derartiges SLAM-Modul verwenden, ist die erstellte Karte nicht-permanent, d.h. eine neue Karte wird für jeden neuen Reinigungsvorgang (d.h. nach Abschluss eines vorangegangen Reinigungsvorgangs) erstellt. Bei derartigen Systemen werden dem Nutzer meist keine kartenbasierten Informationen (z.B. was wurde auf welche Art und Weise gereinigt) mitgeteilt und der Nutzer hat keinen Einfluss auf die interne Verwendung der Karte (z.B. auf eine Einteilung der Bodenfläche in zu bearbeitende und nicht zu bearbeitende Bereiche).
  • Im Gegensatz zu nicht-permanenten Karten ermöglicht die Verwendung permanent abgespeicherter Karten effizientere Bearbeitungsvorgänge, da eine wiederholte Erkundung der Umgebung nicht notwendig ist. Ein Bearbeitungsvorgang kann somit im Vornherein berechnet werden. Dabei können zusätzliche kartenbasierte Informationen ermittelt und wieder verwendet werden (z.B. Problembereiche, stark verschmutzte Bereiche, etc.). In der EP 1 967 116 A1 wird beispielsweise der Verschmutzungsgrad einer Bodenfläche ermittelt und in der Karte gespeichert, um bei nachfolgenden Bearbeitungszyklen die Bearbeitungsintensität (z.B. Dauer, Häufigkeit, etc.) entsprechend anzupassen. In der US 6,667,592 B2 von Intellibot wird beispielsweise eine gespeicherte/permanente Karte dazu verwendet, (eventuell unterschiedliche) Funktionen (z.B. saugen, wischen) einzelnen Teilbereichen einer Karte zuzuordnen, welche dann von einem Reinigungsgerät autonom abgearbeitet werden können. In der US 2009/0182464 A1 von Samsung wird die verfügbare Karte in Teilbereiche zerlegt, welche nachfolgend sequentiell gereinigt werden.
  • Häufig sind jedoch die in dem zu reinigenden Gebiet gegebenen Umstände von einem Bearbeitungsvorgang zum nächsten veränderbar. So können sich beispielsweise Personen oder unbekannte Gegenstände (z.B. Schuhe oder Taschen) im zu reinigenden Gebiet befinden oder Möbel verstellt werden. Dies macht es schwer für den Roboter, vollkommen autonom die Bearbeitung durchzuführen. Aus diesem Grund ist bei vielen Systemen eine Interaktion zwischen Nutzer und Roboter vorgesehen. Dabei ist es hilfreich, wenn der Roboter gezielt Hilfe vom Nutzer anfordert, wenn er beispielsweise veränderte Umstände detektiert.
  • In der US 5,995,884 A ist ein Reinigungssystem beschrieben, welches die Erweiterung eines Computers darstellt. Der Computer verwaltet eine permanente Karte die er aktualisieren kann. Die Karte dient als Basis für die Reinigung. Der Computer stellt ein Interface zum Nutzer dar, mittels welchem Nachrichten über mögliche Hindernisse ausgegeben werden können.
  • Es sind auch Verfahren bekannt, mittels welcher Bereiche die während eines Bearbeitungsvorganges nicht zugänglich sind ausgelassen und zu einem späteren Zeitpunkt im gleichen Bearbeitungsvorgang oder in einem darauf folgenden Bearbeitungsvorgang nachgeholt werden können. Ein solches Verfahren ist beispielsweise in der WO 03/014852 A1 beschrieben.
  • In der US 2010/0313364 A1 wird ein Roboter beschrieben, der Gebiete, die er während einer Bearbeitungsfahrt möglicherweise nicht bearbeitet hat in einer Nachbearbeitungsfahrt nachreinigen kann.
  • In der US 2011/0264305 wird ein Verfahren beschrieben, bei dem ein Reinigungsroboter eine Karte über das zu reinigende Gebiet an ein externes Gerät übermittelt und auf diese Art und Weise eine Interaktion mit dem Nutzer zulässt.
  • Der Nutzer hat jedoch meist entweder keinen Einfluss auf das Verhalten des Roboters bei eventuellen Unregelmäßigkeiten oder nicht zugänglichen Bereichen, z.B. bei Robotersystemen die ganz ohne oder nur mit temporären Karten arbeiten, oder der Nutzer muss dem Roboter für jede festgestellte Unregelmäßigkeit vorgeben, wie weiter vorgegangen werden soll.
  • Zu häufige Interaktion oder wiederholte Interaktion zu ein und demselben Problem wird dabei vom Nutzer häufig als störend empfunden. Eine zu geringe oder fehlende Interaktion hingegen wird häufig als zu geringe Intelligenz des Roboters interpretiert.
  • Die der Erfindung zugrunde liegende Aufgabe besteht nun darin einen autonomen Roboter zur Verfügung zu stellen, der die Interaktion an die Bedürfnisse und Wünsche des Nutzers sowie an das Aufgabengebiet des Roboters anpasst.
  • Zusammenfassung der Erfindung
  • Diese genannte Aufgabe wird durch einen mobilen Roboter gemäß Anspruch 1 sowie ein Verfahren gemäß Anspruch 17 gelöst. Unterschiedliche Beispiele und Weiterentwicklungen der Erfindung sind Gegenstand der abhängigen Ansprüche.
  • Im Folgenden wird ein mobiler, selbstfahrender Roboter zum autonomen Ausführen von Tätigkeiten beschrieben. Der Roboter weist gemäß einem Beispiel der Erfindung folgendes auf: ein Antriebsmodul zur Bewegung des Roboters über die Bodenfläche; ein Bearbeitungsmodul zum Ausführen der Tätigkeiten während eines Bearbeitungsvorganges; ein Navigationsmodul, welches dazu ausgebildet ist, den Roboter während des Bearbeitungsvorganges anhand einer Karte der Umgebung über die Bodenfläche zu navigieren, und eine oder mehrere Karten der Umgebung abzuspeichern und zu verwalten. Der Roboter umfasst des Weiteren mindestens ein Sensormodul zum Erfassen von Informationen betreffend die Struktur der Umgebung; eine Analyseeinheit, welche dazu ausgebildet ist, die bei einem Bearbeitungsvorgang bearbeitete Fläche zu bestimmen, diese mit einer Referenz zu vergleichen und Informationen über eine Abweichung zwischen der Referenz und der tatsächlich bearbeiteten Fläche zu speichern, und ein Kommunikationsmodul, welches dazu ausgebildet ist, während, nach Abschluss oder nach Unterbrechung des Bearbeitungsvorganges eine Verbindung mit einer Mensch-Maschine-Schnittstelle herzustellen, um die gespeicherten Informationen über eine Abweichung zwischen der Referenz und der tatsächlich bearbeiteten Fläche mitzuteilen und damit einem Nutzer die Möglichkeit zu geben in den Bearbeitungsvorgang einzugreifen, Veränderungen der Umgebung vorzunehmen oder einen erneuten Bearbeitungsvorgang zu starten, wobei anhand bestimmter, vordefinierbarer Kriterien entschieden wird, ob eine Information nach Aufforderung durch den Nutzer, ohne Aufforderung, oder gar nicht mitgeteilt werden soll. Das Kommunikationsmodul ist weiter dazu ausgebildet, einen Steuerbefehl von dem Nutzer entgegenzunehmen, den Bearbeitungsvorgang zu unterbrechen, fortzusetzen, zu modifizieren oder neu zu beginnen.
  • Des Weiteren wird ein korrespondierendes Verfahren zur automatischen Ausführung von Tätigkeiten mit Hilfe eines selbstfahrenden, autonomen Roboters beschrieben. Das Bearbeitungsmodul muss nicht zwangsläufig die Bodenfläche Bearbeiten. Reine Inspektion- oder Transportaufgaben können ebenso durchgeführt werden. Es müssen nicht alle genannten Module explizit in dem mobilen Roboter integriert sein. Beispielsweise kann die Analyseeinheit auch auf einem stationären Computer implementiert sein, der mit dem mobilen Roboter (z.B. über Funk) kommunizieren kann.
  • Die im Zusammenhang mit der Bearbeitung einer Bodenfläche beschriebenen Beispiele und technischen Merkmale des mobilen Roboters sind, wie erwähnt, auch auf einen mobilen Roboter zur Ausführung anderer oder zusätzlicher Tätigkeiten übertragbar. Die vom beschriebenen mobilen Roboter ausgeführten Tätigkeiten können beispielsweise die Bearbeitung von Bodenflächen, die Inspektion der Bodenfläche oder der Umgebung, den Transport von Gegenständen, die Reinigung von Luft und/oder das Ausführen von Unterhaltungsspielen umfassen. Ein Bearbeitungsmodul ist beispielsweise bei alleiniger Verwendung zur Inspektion nicht zwingend notwendig.
  • Kurze Beschreibung der Abbildungen
  • Die folgenden Abbildungen und die weitere Beschreibung sollen helfen, die Erfindung besser zu verstehen. Die Elemente in den Abbildungen sind nicht unbedingt als Einschränkung zu verstehen, vielmehr wird Wert darauf gelegt, das Prinzip der Erfindung darzustellen. In den Abbildungen bezeichnen gleiche Bezugszeichen gleiche oder ähnliche Komponenten oder Signale mit gleicher oder ähnlicher Bedeutung. In den Abbildungen zeigen:
  • 1 beispielhaft eine schematische isometrische Darstellung eines selbstfahrenden Roboters zur autonomen Reinigung von Bodenflächen;
  • 2 anhand eines Blockschaltbildes beispielhaft den Aufbau eines Roboters zum autonomen Bearbeiten von Bodenflächen;
  • 3 eine beispielhafte Darstellung eines selbstfahrenden Roboters zur autonomen Reinigung von Bodenflächen an verschiedenen Positionen in einem zu reinigenden Gebiet; und
  • 4 eine beispielhafte Darstellung eines selbstfahrenden Roboters zur autonomen Reinigung von Bodenflächen in einem zu reinigenden Gebiet, welches Unregelmäßigkeiten aufweist;
  • 5 anhand eines Blockschaltbildes beispielhaft den Aufbau eines erfindungsgemäßen Roboters zum autonomen Bearbeiten von Bodenflächen;
  • 6 beispielhaft anhand eines Flussdiagramms ein Verfahren zur Bearbeitung von Bodenflächen mit Nutzerinteraktion.
  • Detaillierte Beschreibung
  • 1 zeigt beispielhaft eine schematische isometrische Darstellung eines selbstfahrenden Roboters 100 zur autonomen Reinigung von Bodenflächen. Die 1 zeigt auch ein kartesisches Koordinatensystem mit dem Ursprung in der Mitte des Roboters 100. Derartige Geräte sind häufig – jedoch nicht notwendigerweise – scheibenförmig ausgebildet. Die Hochachse z geht durch das Zentrum der Scheibe. Die longitudinale Achse ist mit x bezeichnet und die transversale Achse mit y.
  • Der Roboter 100 umfasst ein Antriebsmodul (nicht dargestellt), welches z.B. Elektromotore, Getriebe und Räder aufweisen kann. Das Antriebsmodul kann z.B. dazu ausgebildet sein, den Roboter in Vorwärts- und Rückwärtsrichtung zu bewegen (in der Darstellung aus 1 wäre das entlang der x-Achse) und um die Hochachse zu drehen (in der Darstellung aus 1 wäre das die z-Achse). Somit kann der Roboter – theoretisch – jeden Punkt einer Bodenfläche (die parallel zu der durch die x-Achse und y-Achse definierten Ebene liegt) anfahren. Der Roboter umfasst des weiteren ein Bearbeitungsmodul, wie z.B. ein Reinigungsmodul, das dazu ausgebildet ist, die unter (und/oder neben) dem Roboter befindliche Bodenfläche zu reinigen. Beispielsweise werden Staub und Schmutzpartikel in einen Auffangbehälter gesaugt oder auf mechanische (oder irgendeine andere Weise) in diesen befördert. Derartige Roboter sind – als solche – bekannt und unterscheiden sich im Wesentlichen durch die Art der Navigation in der Umgebung und die "Strategie", die bei der Bearbeitung der Bodenfläche, wie z.B. bei einem Reinigungsvorgang, angewandt wird.
  • Es sind Roboter bekannt, welche ohne Erstellung bzw. Verwendung einer Karte auskommen. Bei derartigen, verhältnismäßig einfachen, Systemen werden in der Regel zufällige Navigationsverfahren verwendet. Es werden keine ortsbezogenen Informationen wie beispielsweise Informationen bezüglich Hindernissen oder Orientierungspunkten abgespeichert und während den Bearbeitungsvorgängen wieder verwendet. In Kombination mit lokalen Bewegungsstrategien wechseln solche Roboter in der Regel bei Kollision mit einem Hindernis (zufällig) die Fahrtrichtung. Auf diese Weise werden Bodenflächen in einem zu reinigenden Gebiet teilweise mehrfach gereinigt, während andere Bodenflächen möglicherweise gar nicht gereinigt werden.
  • Aus diesem Grund wurden kompliziertere, „smarte“ Systeme entwickelt, welche eine Karte der Umgebung und gleichzeitig die entsprechende Position des Roboters in dieser Karte ermitteln um dadurch den Roboter möglichst selbstständig zu machen und um ein möglichst gutes Reinigungsergebnis zu erzielen, so dass ein Nacharbeiten durch den Nutzer nur in geringem Maße oder gar nicht notwendig ist. Derartige Verfahren sind bekannt und werden als SLAM-Verfahren bezeichnet (engl.: Simultaneous Localization and Mapping, deutsch: simultane Lokalisierung und Kartenerstellung, siehe z.B. H. Durrant-Whyte and T. Bailey: „Simultaneous Localization and Mapping (SLAM): Part I The Essential Algorithms," in: IEEE Robotics and Automation Magazine, Bd. 13, Nr. 2, S. 99–110, Juni 2006). Auf diese Weise wird eine gezielte Navigation ermöglicht. Die Karte und die Position des Roboters in der Karte kann dabei mittels einem oder mehrerer Sensoren ermittelt werden. Bei einigen bekannten Systemen wird für jeden neuen Reinigungsvorgang eine neue Karte erstellt, die Karten sind also nicht permanent.
  • Mit Systemen, bei denen die durch den Roboter erstellten Karten permanent gespeichert und für nachfolgende Reinigungsvorgänge wieder verwendet werden, sind im Vergleich zu Systemen mit temporären Karten effizientere Bearbeitungsvorgänge möglich, da eine wiederholte Erkundung der Umgebung nicht notwendig ist. Zusätzlich können kartenbasierte Informationen ermittelt und wieder verwendet werden. So können beispielsweise stark verschmutzte Bereiche in der Karte markiert, und bei einem folgenden Reinigungsvorgang besonders behandelt werden. Auch benutzerspezifische Informationen wie beispielsweise Zimmerbezeichnungen können übernommen werden. Gemäß den hier beschrieben Beispielen der Erfindung kann der Nutzer auf den Bearbeitungsvorgang Einfluss nehmen, insbesondere dadurch, dass er auf Mitteilungen des Roboters betreffend den Bearbeitungsvorgang oder betreffend die Umgebung reagiert. Diese Interaktionsmöglichkeit bzw. der damit verbundenen Nutzen für den Benutzer soll dafür sorgen, die Akzeptanz derartiger Roboter bei den Verbrauchern zu erhöhen.
  • 2 ist ein Blockschaltbild, das den schematischen Aufbau eines Beispiels eines Roboters 100 zum autonomen Bearbeiten (z.B. Reinigen) von Bodenflächen illustriert. Es sind ein Antriebsmodul 130 und ein Bearbeitungsmodul 140 dargestellt, die bereits oben erwähnt wurden. Beide Module 130 und 140 werden von einem Steuer- und Navigationsmodul 110 kontrolliert. Das Navigationsmodul 110 ist dazu ausgebildet, den Roboter während eines Reinigungsvorganges anhand einer Karte der Umgebung über die Bodenfläche zu navigieren. Die Karte ist dabei in einem Speicher des Steuer- und Navigationsmoduls 110 in Form von Kartendaten (map data) abgelegt. Zur Navigation in der Umgebung sind unterschiedliche Strategien zur Planung der Soll-Trajektorie des Roboters bekannt. Im Allgemeinen wird versucht, mit einer möglichst kurzen Trajektorie (Pfad) die zu bearbeitende (z.B. zu reinigende) Bodenfläche möglichst vollständig abzudecken, um eine flächendeckende Bearbeitung (z.B. Reinigung) zu gewährleisten.
  • Der Roboter 100 umfasst weiter ein Sensormodul 120 zum Erfassen von Informationen betreffend die Struktur der Umgebung und/oder betreffend Eigenschaften der Bodenfläche. Zu diesem Zweck kann das Sensormodul eine oder mehrere Sensoreinheiten aufweisen, die dazu ausgebildet sind, Informationen zu erfassen, auf deren Basis eine Karte der Umgebung aufgebaut und die Position des Roboters auf der Karte lokalisiert werden kann. Zu diesem Zweck geeignete Sensoren sind z.B. Laser-Range-Scanner, Kameras, Triangulationssensoren, Berührungssensoren zum Erkennen eines Zusammenstoßes mit einem Hindernis, etc. Zum Aufbau der Karte und zur gleichzeitigen Positionsbestimmung des Roboters innerhalb der Karte kann, wie bereits beschrieben, ein SLAM-Verfahren eingesetzt werden. Die so neu aufgebaute (temporäre) Karte und die dieser entsprechende permanente Lokalisierungskarte können zusammengeführt werden, um mögliche Unterschiede zu erkennen. Erkannte Unterschiede können z.B. auf ein Hindernis hindeuten. In einem Raum befindliche Personen können z.B. bewegte Hindernisse darstellen (siehe weiter unten).
  • Mittels eines Kommunikationsmoduls 160 kann eine Kommunikationsverbindung zu einer Mensch-Maschine-Schnittstelle 200 (human machine interface, HMI) hergestellt werden. Als Mensch-Maschine-Schnittstelle 200 kommt dabei ein Personal Computer (PC) in Betracht, es kann sich jedoch auch nur um ein einfaches Display am Robotergehäuse oder um ein Mobiltelefon oder Smart-Phone handeln. Auch ein externer Bildschirm wie z.B. ein Fernsehgerät kann Teil der Mensch-Maschine-Schnittstelle 200 sein. Gemäß einem Beispiel der Erfindung ermöglicht es die Mensch-Maschine-Schnittstelle 200 dem Roboter, Informationen betreffend den Bearbeitungsvorgang oder betreffend die Umgebung (d.h. Karteninformationen) an den Nutzer zu melden und von dem Nutzer eine Rückmeldung (d.h. Nutzerfeedback) einzufordern. Der Nutzer kann beispielsweise über einen PC oder über eine am Robotergehäuse angeordnete Taste einen Steuerbefehl eingeben. Selbstverständlich sind auch andere Varianten einer Mensch-Maschine-Kommunikation bekannt. Diese Mensch-Maschine-Schnittstelle 200 ermöglicht, gespeicherte Informationen mit den korrespondierenden Positionen in der Karte für einen Nutzer darzustellen, und gibt damit diesem die Möglichkeit, in den Bearbeitungsvorgang (oder alternativ einen Inspektionsvorgang) einzugreifen oder Veränderungen der Umgebung vorzunehmen. Die Mensch-Maschine-Schnittstelle 200 ermöglicht durch die Eingabe eines Steuerbefehls durch den Nutzer, den Bearbeitungsvorgang (oder den Inspektionsvorgang) abzubrechen, zu modifizieren, fortzusetzen oder neu zu beginnen.
  • 3 zeigt beispielhaft einen autonomen Roboter 100 an einer Position A innerhalb eines zu reinigenden Gebietes G. Das zu reinigende Gebiet G unterteilt sich dabei in verschiedene Zimmer G1 und G2, welche durch eine Tür miteinander verbunden sind. In den einzelnen Zimmern G1, G2 können sich dabei verschiedenartige Gegenstände (schwarze Flächen) befinden. In einer vom Roboter 100 gespeicherten Karte kann die gesamte zu reinigende Fläche G mit den darin befindlichen Gegenständen gespeichert sein. Bei einem Bearbeitungsvorgang kann der Roboter 100 dann das zu reinigende Gebiet G anhand der Karte bearbeiten.
  • Bei einem normalen Bearbeitungsvorgang wird der Roboter das gesamte zu reinigende Gebiet G bearbeiten können, bis auf die Bereiche unter den Gegenständen. Er kann sich somit beispielsweise von der Position A in die Position A’ bewegen um auch im zweiten Zimmer G2 die Bearbeitung durchzuführen.
  • Es kann jedoch vorkommen, dass beispielsweise Gegenstände verschoben werden, Teilgebiete versperrt sind oder sich unbekannte, nicht in der Karte verzeichnete Gegenstände im zu reinigenden Gebiet G befinden. Dies ist beispielhaft in 4 dargestellt. In dieser Darstellung ist ein Gegenstand 20 im ersten Zimmer G1 derart verschoben (im Vergleich zu 3), dass eine Bearbeitung des Bereiches GN (gepunktet dargestellt) für den Roboter 100 nicht mehr möglich ist. Zudem ist die Tür zum zweiten Zimmer G2 geschlossen, so dass der Roboter 100 dieses Zimmer G2 (ebenfalls gepunktet dargestellt) nicht befahren kann und eine Bearbeitung somit nicht möglich ist.
  • Die Sensoreinheiten, welche die zum Aufbau der Karte notwendigen Umgebungsinformationen liefern, können beispielsweise dazu verwendet werden, auf einer vorhandenen Karte (noch nicht verzeichnete) Hindernisse zu erkennen. Berührungssensoren können eine Kollision detektieren, über Stromsensoren zur Messung des Laststromes der Antriebseinheit kann z.B. erkannt werden, wenn der Roboter (z.B. an den Fransen eines Teppichs) festhängt. Andere Sensoreinheiten können z.B. ein Feststecken des Roboters dadurch detektieren, dass die Antriebsräder durchdrehen. Es können weitere Sensoreinheiten vorgesehen sein, die z.B. dazu ausgebildet sind, den Verschmutzungsgrad des Bodens zu ermitteln. Die erfassten Umgebungsinformationen können zusammen mit einer der jeweiligen Information zugeordneten Position des Roboters auf der Karte an das Steuer- und Navigationsmodul 110 übermittelt werden. Plötzlich an einer Stelle „auftauchende“ und nach kurzer Zeit wieder „verschwindende“ Hindernisse können auf eine Bewegung im Raum hindeuten, insbesondere auf Personen, die sich im Raum bewegen. Der Roboter kann so z.B. erkennen, ob sich in einem Raum Personen bewegen und er kann insbesondere darauf reagieren.
  • Der Roboter 100 kann dazu ausgebildet sein, gezielt eine Interaktion mit einem Nutzer zu initiieren, um den Nutzer beispielsweise über eine unvollständige Bodenabdeckung zu informieren und es diesem zu ermöglichen, die Umstände für die unvollständige Abdeckung zu beseitigen und dem Roboter beispielsweise mitzuteilen, welche der nicht bearbeiteten Teilbereiche nochmals einem Bearbeitungsversuch unterzogen werden sollen. Zu häufige Interaktion kann dabei vom Nutzer jedoch leicht als störend empfunden werden.
  • 5 zeigt ein weiteres Beispiel eines Roboters zum autonomen Bearbeiten von Bodenflächen. Der Roboter unterscheidet sich von dem in 2 gezeigten Beispiel durch eine zusätzliche Analyseeinheit 150. Die Analyseeinheit 150 kann beispielsweise verschiedene Informationen verarbeiten und anhand bestimmter Kriterien entscheiden, ob eine Interaktion mit dem Nutzer initiiert werden soll oder nicht. Soll eine Interaktion initiiert werden, so kann beispielsweise auch bestimmt werden, ob eine Interaktion nur nach Aufforderung durch den Nutzer oder selbstständig durch den Roboter erfolgen soll. Das Verhalten des Roboters kann auf diese Art und Weise auf die gegebenen Umstände im zu reinigenden Gebiet G sowie auf die Wünsche und Bedürfnisse des Nutzers angepasst werden.
  • Die Analyseeinheit 150 kann, wie in 5 dargestellt, als eigenständiges Modul implementiert sein. Sie kann aber beispielsweise auch im Navigationsmodul 110, im Kommunikationsmodul 160 oder jeder beliebigen Komponente des Roboters 100 integriert sein. Es ist zudem auch möglich, dass die Analyseeinheit 150 nicht im Roboter 100, sondern beispielsweise in der verwendeten Mensch-Maschine-Schnittstelle 200 ausgeführt ist (z.B. in einem Computer oder Smart-Phone)
  • Ein Verfahren zum Anpassen des Verhaltens des Roboters ist beispielhaft in 6 gezeigt. Dem Roboter kann beispielsweise zunächst eine Referenz zur Verfügung stehen. Diese kann dem Roboter das zu reinigende Gebiet sowie die gewünschte zu erreichende Abdeckung des Gebiets vorgeben. Die Referenz kann beispielsweise vorab durch einen Nutzer in Form einer Karte vorgegeben werden, in welcher die zu reinigenden Gebiete eingetragen sind. Die Referenz kann aber beispielsweise auch durch den Roboter selbst, zum Beispiel durch eine Erkundungsfahrt oder während der Durchführung von Bearbeitungsvorgängen, erstellt werden. Eine derart erstellte oder durch den Nutzer vorgegebene Referenz könnte auch, falls nötig, automatisch durch den Roboter, zum Beispiel anhand von Nutzerinteraktionen, angepasst werden.
  • Eine Referenz in Form einer Karte könnte beispielsweise eine so genannte Feature-Karte sein, in der die Umgebung des Roboters abstrahiert aus Features zusammengesetzt wird. Diese Features können dann mithilfe von Logik-Regeln zu Objekten zusammengefügt werden. Derartige Objekte können beispielsweise Zimmer oder in einem Zimmer befindliche Gegenstände sein. Sobald eine solche Karte zur Verfügung steht kann beispielsweise vor einem Bearbeitungsvorgang eine zu erreichende Fläche berechnet werden. Mittels Pfadplanung können beispielsweise alle Punkte in einem Raum auf Erreichbarkeit von einer momentanen Roboterposition aus überprüft werden.
  • Bei einem Bearbeitungsvorgang kann der Roboter dann eine Messung der tatsächlich bearbeiteten Fläche durchführen. Bei dieser Messung kann beispielsweise die abgefahrene Fläche mitprotokolliert werden. Dies kann beispielsweise anhand der gespeicherten Karte erfolgen, aber zum Beispiel auch anhand einer neu erstellten Karte, welche mit der vorhandenen Karte verglichen werden kann. Der Kartentyp, welcher bei der Messung erstellt wird kann dem Kartentyp der gespeicherten Karte angepasst sein. Beispielsweise können lokal Gebiete mit Hilfe einer Grid-Karte (eine mit Hilfe eines Netzes (grid) diskretisierte Karte) mitgeschrieben werden und diese lokalen Gebiete mit einer Feature-Karte verknüpft werden. Dies kann beispielsweise dadurch erfolgen, indem die lokalen Gebiete in „Features“ (z.B. durch eine Linie oder Polygonzüge angenäherte Beschreibungen des lokalen Gebiets) umgewandelt werden und in die Feature-Karte eingefügt werden (im einfachsten Fall die Endpunkte einer Linie und die Information, dass diese Punkte zu einer Linie gehören). Es ist jedoch beispielsweise auch ein einfaches Mitprotokollieren in einer vorhandenen Grid-Karte möglich, indem zum Beispiel jeder Gridpunkt, dessen äquivalente Fläche bearbeitet wurde als bearbeitet markiert wird.
  • Neben der Messung der Bodenabdeckung, was im Wesentlichen durch ein Mitprotokollieren der bearbeiteten Fläche erfolgt können während der Bearbeitung weiter Hindernisse erkannt werden. Des weiteren kann die Umgebung weiter „gescannt“ werden, um neue Objekte zu erkennen. So kann beispielsweise eine Tür durch Objekterkennung, zum Beispiel durch Erkennung der Türschnalle und unter Zuhilfenahme einer Bilddatenbank, als solche erkannt werden. Detektierte Objekte können in der Karte eingetragen werden.
  • Eine unvollständige Bearbeitung eines zu bearbeitenden Gebiets kann beispielsweise durch den Roboter selbst hervorgerufen werden, indem er beispielsweise selbstständig die Bearbeitung eines Gebiets oder Teilgebiets abbricht. Dies kann beispielsweise der Fall sein, wenn der Roboter (zu viele) Menschen in einem Bereich detektiert, welche seine Bearbeitung stören oder die der Roboter durch seine Bearbeitung stören könnte. Die Gründe, warum der Roboter die Bearbeitung eines Gebiets abbricht können ebenfalls mit der Karte verknüpft werden. Eine solche Verknüpfung kann beispielsweise dadurch erreicht werden, dass entsprechende Objekte (z.B. ein Raum, ein Teil eines Raumes, ein Möbelstück), welche beispielsweise aus Features bestehen, mit Gründen verknüpft werden.
  • Die durchgeführte Messung der bei einem Bearbeitungsvorgang erzielten Bodenabdeckung kann als Grundlage für eine nachfolgende Analyse dienen. In einer nachfolgenden Analyse können beispielsweise die Referenz und eine durchgeführte Messung miteinander verglichen werden. Die vorhandenen Daten können dabei aufbereitet werden und relevante (interessierende) Parameter (z.B. die gereinigten Flächen, nicht gereinigte Bereiche, Gründe für die Nichtreinigung) können extrahiert werden. Die Durchführung eines solchen Vergleichs kann auf verschiedenste Arten erfolgen und kann beispielsweise am Ende eines Bearbeitungsvorgangs und/oder zu einem oder mehreren Zeitpunkten während eines Bearbeitungsvorgangs durchgeführt werden. Wird der Vergleich während eines Bearbeitungsvorgangs durchgeführt, so beschränkt sich der Vergleich auf die Bereiche, für die die Bearbeitung bereits abgeschlossen wurde. Hierfür kann das zu bearbeitende Gebiet, sowohl in der Referenz, als auch in der aktuellen Messung, in Teilbereiche segmentiert werden. Ein Vergleich kann beispielsweise dann gestartet werden, wenn die Bearbeitung eines Teilbereichs abgeschlossen ist.
  • Zur Durchführung des Vergleichs sind verschiedenste Algorithmen bekannt. Derartige Algorithmen können beispielsweise ein Gridpunkt zu Gridpunkt-Vergleich, zum Beispiel bei Verwendung einer Referenz- und Resultate-Gridkarte, oder eine Einbindung von regelbasierter Logik sein, um komplexe Zusammenhänge erfassen zu können. Ein Vorteil einer komplexeren Analyse ist beispielsweise, dass die aktualisierte Messkarte nach jedem (Teil-)Messvorgang erneut interpretiert werden kann. So kann zum Beispiel aufgrund von logischen Regeln in einer Feature-Karte nachträglich ein Hindernis beispielsweise als geschlossene Tür interpretiert werden, wenn das Hindernis zum Beispiel den Durchgang zu einem Raum komplett blockiert hat. Somit kann beispielsweise ohne Nutzung einer Objekterkennung, eine geschlossene Tür anhand von Logik erkannt werden oder die Detektion einer Tür in einem vorangegangenen Messschritt verifiziert werden.
  • Bei der Analyse können beispielsweise Flächen nach Kostenfunktionen beurteilt werden. Im Falle eines Reinigungsroboters kann beispielsweise für die i-te Teilfläche Ai das Produkt aus erwarteter Schmutzaufnahme Si (kann aus vorangegangenen Bearbeitungsvorgängen bekannt sein) und (unbearbeiteter) Teilfläche Ai berechnet werden, woraus sich ein möglicher Teil-Reinigungsgewinn Ri wie folgt ergibt: Ri = Ai·Si·Wi, (1) wobei Wi ein der i-ten Teilfläche Ai zugeordnetes Gewicht ist (siehe unten). Setzt man (per Definition) z.B. für alle Teilflächen Si = 1 erhält man als Spezialfall des Reinigungsgewinns den Flächengewinn. Den integralen (gesamten) Reinigungsgewinn R erhält man durch Aufsummieren der Teil-Reinigungsgewinne Ri für alle Flächen Ai und alle Indizes i in der Menge I: R = Σi∊IRi (2)
  • Eine üblicherweise stark verschmutze Fläche hat damit einen höheren Reinigungsgewinn als eine Fläche, die normalerweise wenig verschmutzt ist. Die „Kosten“ für eine Nichtreinigung sind bei einer Fläche mit hohem Reinigungsgewinn daher hoch. Der Reinigungsgewinn ist ein Beispiel für eine allgemeine Kostenfunktion die der Roboter minimieren soll. Es wäre also alternativ oder zusätzlich auch möglich, ein Bearbeitungsrisiko einer Fläche mit einzuberechnen. Ein Risiko könnte beispielsweise das Steckenbleiben des Roboters auf einem rutschigen oder glatten Untergrund sein. Dieses Risiko könnte z.B. über durch Anpassen der Gewichtungsfaktoren (welche normalerweise auf 1 gesetzt werden können) berücksichtigt werden. Die Kostenfunktion kann als Kriterium herangezogen werden, um zu entscheiden, ob eine Information betreffend den Bearbeitungsvorgang, ein Hindernis, einem erkannten Objekt oder dgl. grundsätzlich erst nach Aufforderung durch den Nutzer, ohne Aufforderung, oder dem Nutzer gar nicht mitgeteilt werden soll.
  • Derartige Kostenfunktionen können beispielsweise durch vorangegangenes Nutzerfeedback adaptiert und angepasst werden. So kann beispielsweise bei wiederholter vorangegangener Nutzereingabe, dass kleine unbearbeitete Teilbereiche keinem nochmaligen Bearbeitungsversuch unterzogen werden sollen, zu einer Verringerung (z.B. durch die Gewichtungsfaktoren Wi) des errechneten möglichen Gewinns bei kleinen Flächen führen.
  • Wird beispielsweise der Bereich einer Wohnung unter einem Esstisch häufig durch Stühle verstellt und ist damit dem Roboter nicht zugänglich, könnte der Nutzer dem Roboter mitteilen, dass er nicht mehr wünscht auf diesen Bereich aufmerksam gemacht zu werden. Häufig ist in Wohnräumen jedoch die Lage von Stühlen und Sesseln von einem Bearbeitungsvorgang zum nächsten sehr unterschiedlich. So kann bei einem Bearbeitungsgang der Bereich unter dem Esstisch versperrt, bei einem darauffolgenden Bearbeitungsvorgang jedoch teilweise oder komplett möglich sein. Durch die Analyse kann beispielsweise sichergestellt sein, dass dieser Bereich bei jedem Bearbeitungsvorgang als Essbereich wiedererkannt wird, um zuverlässig zu verhindern, dass der Nutzer nicht informiert wird.
  • In einer Feature-Karte welche in Objekte segmentiert ist, ist dies beispielsweise dadurch möglich, dass dem abstrakten Objekt „Bereich unter dem Esstisch“ eine sehr unscharfe Beschreibung von Lage, Form und Größe gegeben wird. Zusätzlich kann beispielsweise das Objekt auch mit „Stuhlhindernissen“ verknüpft werden. Auf diese Weise kann der Roboter beispielsweise unerreichbare Gebiete im Wohnzimmer, die aufgrund von Stuhlhindernissen nicht zugänglich sind, als Essbereich identifizieren, welcher dem Nutzer nicht mitgeteilt wird.
  • In manchen Fällen kann es vorkommen, dass Bereiche, aufgrund der limitierten Informationen die der Roboter mit seinen Sensorelementen messen kann, nicht identifiziert werden können. Aus diesem Grund kann beispielsweise aus der Kostenfunktion eine Detektionswahrscheinlichkeit berechnet werden. Diese Detektionswahrscheinlichkeit kann beispielsweise mit jedem Entdecken eines Hindernisses (z.B. Stuhlhinderniss) erhöht werden. So kann das Resultat der Analyse beispielsweise auch eine statistische Beschreibung der nicht bearbeiteten Gebiete sein.
  • Bei der Analyse kann beispielsweise auch auf neue Informationen geschlossen werden. So kann zum Beispiel eine im Messschritt detektierte Türschnalle als Tür zu einem bisher unentdeckten (und somit unbearbeiteten) Gebiet interpretiert werden. Bei der Analyse kann beispielsweise auch berücksichtigt werden, dass nur eine Teilbearbeitung des gesamten zu bearbeiteten Gebiets gewünscht war. Dies kann beispielsweise dadurch erreicht werden, dass die Referenz entsprechend angepasst wird.
  • Im folgenden Schritt kann beispielsweise eine Entscheidung getroffen werden, welche Informationen dem Nutzer mitgeteilt werden und/oder welches Feedback vom Nutzer erwartet wird. Indem die Schritte der Analyse und der Entscheidung getrennt werden, kann dem Verfahren beispielsweise mehr Struktur gegeben werden und es können beispielsweise mit weniger Aufwand komplexere Verhaltensmuster erzeugt werden. Es ist jedoch beispielsweise auch möglich, Analyse und Entscheidung zusammenzufassen.
  • Beispielsweise mit Hilfe der bei der Analyse extrahierten Daten können bei der Entscheidung mit Hilfe vordefinierter Regeln Entscheidungen getroffen werden. In einem einfachen Fall kann beispielsweise ein Vergleich der berechneten Reinigungsgewinne mit einem Schwellwert (Sollwert, z.B. ein definierter Bruchteil des maximal möglichen Reinigungsgewinns) durchgeführt und darauf basierend eine Entscheidung getroffen werden. Es können jedoch auch komplexe Zustandsautomaten (state-machines) implementiert werden. So könnte beispielsweise zusätzlich ein Batterieladestand des Roboters bestimmt werden bevor ein Nutzer informiert wird. Der Nutzer könnte eine sofortige Nachbearbeitung einer unbearbeiteten Fläche fordern, welche möglicherweise mit dem gegebenen Batterieladestand nicht möglich ist, da dieser zu gering ist. Der Roboter könnte in einem solchen Fall den Nutzer erst informieren, wenn der Batterieladestand ausreichend für eine Nachbearbeitung ist. Es kann beispielsweise auch die aktuelle Uhrzeit berücksichtigt werden. So kann beispielsweise spät abends oder nachts von einer sofortigen Information des Nutzers abgesehen werden und diese zum Beispiel auf den folgenden Tag verschoben werden.
  • Es könnte beispielsweise auch überprüft werden, ob sich der Nutzer im Haus aufhält. Dies könnte beispielsweise dann möglich sein, wenn der Nutzer in einem lokalen WLAN-Netzwerk (wireless local area network) angemeldet ist, solange er sich im Haus befindet. Zusätzlich oder alternativ zu den genannten Faktoren ist noch eine Vielzahl weiterer Faktoren denkbar, anhand derer eine Entscheidung, ob und wann ein Nutzer informiert werden soll, beeinflusst werden könnte.
  • Bei der Interaktion werden abhängig von der getroffenen Entscheidung Daten für den Nutzer aufbereitet und an die Mensch-Maschine-Schnittstelle weitergegeben. Die Art der Darstellung der Daten kann dabei entsprechend der Art der Mensch-Maschine-Schnittstelle variieren. So kann zum Beispiel eine Karte in der die unbearbeiteten Gebiete beispielsweise farbig markiert sind nur über ein grafikfähiges Benutzerinterface wie z.B über eine Smart-Phone Applikation dargestellt werden.
  • Es ist auch möglich die Entscheidung des Roboters dem Nutzer auf mehrere verschiedene Arten gleichzeitig zugänglich zu machen. So könnte zum Beispiel zusätzlich zur oben genannten farblichen Hervorhebung der nicht bearbeiteten Gebiete über eine Smart-Phone Applikation auch eine Email mit einer Kurzzusammenfassung der Information geschickt werden. Darüber hinaus kann dem Nutzer, wenn möglich, der Grund für eine nicht vollständige Bearbeitung genannt werden um es beispielsweise dem Nutzer möglichst einfach zu machen die Ursachen hierfür zu beseitigen um einen erneuten Versuch der Bodenbearbeitung zu ermöglichen.
  • Zusätzlich zum Informationsfluss an den Nutzer kann ein Feedback vom Nutzer erwartet werden. Da die Art des gewünschten Feedbacks von der übermittelten Information abhängig sein kann, kann beispielsweise dem Nutzer auch die Art der erwarteten Antwort mitgeteilt werden. So kann beispielsweise auf eine Mitteilung “Küche konnte nicht gereinigt werden da die Türe verschlossen war. Bitte um Information sobald ich die Küche reinigen soll.“ lediglich eine Bestätigung erwartet werden, während auf eine Information „Bitte jene Teilbereiche markieren die ich nochmals bearbeiten soll“ eine Kartendarstellung mit Teilbereichen erwartet werden kann.
  • Zusätzlich kann dem Nutzer beispielsweise während der Interaktion die vorangegangene Entscheidung mitgeteilt werden, indem zum Beispiel ein Teilbereich, über den der Nutzer nicht explizit informiert werden wollte in einer dargestellten Karte farblich hervorgehoben wird. Auf diese Weise kann dem Nutzer die Möglichkeit geben werden, ein vorangegangenes Feedback zu korrigieren. Der Nutzer könnte hierfür beispielsweise den entsprechenden Bereich in der Karte anwählen und einen Eintrag „Nicht melden“ löschen.
  • Bei der Interpretation kann eine Entscheidung über eine Aktion des Roboters gefällt werden oder abhängig vom Nutzerfeedback zukünftige Entscheidungen beeinflusst werden. Bei der Interpretation kann beispielsweise bei positiver Antwort des Nutzers (Aktion gefordert) an den nächsten Block weitergegeben werden bzw. bei negativer Antwort (keine Aktion gefordert) abgebrochen werden. Es ist jedoch auch möglich die Antwort des Nutzers mit vorherigen Antworten sowie mit weiteren Regeln zu verknüpfen um einerseits zu entscheiden welche Aktion aktuell ausgeführt werden soll (z.B. vollständige oder teilweise Nachreinigung eines Teilgebietes) und andererseits Vorbereitungen für zukünftige Interaktionen zu treffen.
  • Teilt der Nutzer dem Roboter beispielsweise mit, für die nicht bearbeiteten Teilbereiche „später“ einen neuen Bearbeitungsversuch zu starten, so könnte der Roboter warten bis der Benutzer verifizierbar nicht im Gebäude ist (z.B über eine Registrierung in einem lokalen WLAN Netzwerk) und danach einen Neu-Versuch veranlassen. Hat ein Nutzer beispielsweise zu einem wiederholten Male mitgeteilt, dass er nicht wünscht, dass Bereiche welche beispielsweise die Fläche eines Schuhs unterschreiten und im Vorzimmer lokalisiert werden nachbearbeitet werden, so könnte der Roboter die Analyse bzw. die Entscheidungsregeln entsprechend adaptieren, sodass der Nutzer zukünftig mit kleinen nicht bearbeiteten Flächen, die mit hoher Wahrscheinlichkeit von herumstehenden Schuhen im Vorzimmer herrühren nicht mehr „belästigt“ wird.
  • Alternativ kann das Nutzerfeedback in der Referenzkarte gespeichert werden bzw. die Referenzkarte entsprechend beeinflussen. So kann beispielsweise das abstrakte Objekt „Vorzimmer“ mit der Eigenschaft: „Flächen unter 27cm2 nicht melden“ belegt werden. Genauso könnte das Vorzimmer ganz von der Meldung ausgenommen werden, indem die Referenz für das Vorzimmer auf „nicht zu reinigen“ gesetzt wird.
  • Bei der Vorbereitung der Aktion können die vom Verfahren entschiedenen Aktionen so aufbereitet werden, dass sie der Roboter durchführen kann. Die Ausführung von Aktionen kann dabei von den Fähigkeiten des Roboters abhängen. So können in diesem Block beim Vorhandensein mehrerer nicht bearbeiteter Flächen für die ein weiterer Bearbeitungsversuch gestartet werden soll zum Beispiel die Schritte durchgeführt werden: 1. Sortieren der Flächen nach verschiedenen Kriterien (z.B Erreichbarkeit, Risiko des Bearbeitungsversuchs). 2. Pfadplanung zu den einzelnen Flächen. 3. Übergabe der Pfadliste zur Ausführung an den Roboter.
  • Die mögliche Funktion eines erfindungsgemäßen Roboters 100 zum autonomen Bearbeiten von Bodenflächen wird im Folgenden anhand von fünf Fallbeispielen näher erläutert.
  • Erstes Beispiel: Bei einem Bearbeitungsvorgang (z.B. ausgelöst durch eine entsprechende Kalendereinstellung des Nutzers) ist die Couch im Wohnzimmer derart verschoben, dass der dahinter liegende Bereich vom Roboter nicht mehr angefahren bzw. gereinigt werden kann (z.B. wurde die Couch so nahe an die Wand gerückt, dass der Roboter keinen Platz mehr zwischen Wand und Couch hat). Der Nutzer ist während des Bearbeitungsvorgangs außer Haus und kommt erst nach Abschluss des Bearbeitungsvorgangs zurück. Der Roboter reinigt den Rest der Wohnung, speichert den aktuellen Bearbeitungsvorgang ab, und kehrt zu seiner Aufladestation zurück.
  • Im Anschluss analysiert der Roboter die Karte und ermittelt, ob ein wesentlicher Reinigungsgewinn (also eine Verbesserung der „Reinheit“ der zu reinigenden Wohnung) erzielt werden könnte, wenn die Couch wieder an den ursprünglichen Platz verschoben wird. In dem Fall, dass es zu einem wesentlichen Reinigungsgewinn kommen würde verständigt der Roboter den Nutzer (über die Mensch-Maschine-Schnittstelle 200) über die nicht gereinigten Bereiche der Wohnung (in diesem Beispiel der nicht gereinigte Bereich hinter der Couch) und gibt eine entsprechende Begründung an (z.B. "Bereich konnte nicht angefahren werden – Platz reicht nicht aus").
  • Der Nutzer hat dann die Möglichkeit in den Reinigungsprozess insofern einzugreifen, als er die Couch wieder zurück verschiebt, sodass der Roboter ausreichend Platz für eine Reinigung hat. Anschließend kann der Nutzer dem Roboter (über die Mensch-Maschine-Schnittstelle 200, z.B. eine Taste am Roboter) ein "Finish Cleaning" Kommando ("Schließe die Reinigung ab" Kommando) geben. Mit Hilfe der gespeicherten Karte der Umgebung und der Information über den nicht gereinigten Bereich kann der Roboter nun gezielt versuchen den Bereich hinter der Couch anzufahren und zu reinigen. Falls die Couch ausreichend verschoben wurde, wird dann beispielsweise (nur) der Bereich hinter der Couch gereinigt und damit der Reinigungsvorgang der kompletten Wohnung abgeschlossen.
  • Alternativ dazu hat der Nutzer aber beispielsweise auch die Möglichkeit den Roboter darüber zu informieren, dass er in Zukunft keine Verständigung mehr über die verschobene Couch erhalten möchte. In diesem Fall kann der Roboter diese Information mit dem Objekt „Couch“ in der Karte verknüpfen, in der Karte speichern und in Zukunft bei einem Verschieben der Couch selbst dann nicht nachfragen, wenn ein signifikanter Reinigungsgewinn erzielt werden könnte. Zudem ist es durch das Verknüpfen der Benutzerinteraktion mit Teilen der Karte und das Speichern dieser Verknüpfung auch möglich in Zukunft dem Nutzer die Information, dass keine Verständigung bei Blockierung dieses Bereichs erwünscht ist, in der Karte anzuzeigen. Auf diese Weise könnte der Nutzer diese Verknüpfungen zu einem späteren Zeitpunkt bearbeiten und beispielsweise ändern.
  • Durch die vom Roboter mitgeteilte Information weiß der Nutzer beispielsweise auch, dass der Roboter den Bereich hinter der Couch nur schwer bzw. knapp erreichen kann. Um den Erfolg für zukünftige Reinigungsvorgänge zu erhöhen hat der Nutzer nun auch die Möglichkeit diesen schwer zugänglichen Bereich für den Roboter leichter erreichbar zu machen. Der Roboter könnte jedoch auch aus einfachen Eingaben des Benutzers lernen, welches Verhalten von ihm in Bezug auf Informationen über Hindernisse erwartet wird und kann in Zukunft darauf Rücksicht nehmen.
  • Zweites Beispiel: Bei einem Reinigungsvorgang ist der Platz unter dem Esstisch mit Stühlen so verstellt, dass keine gute Reinigungsabdeckung unter dem Tisch möglich ist. Der Roboter lässt diesen Bereich aus und setzt die Reinigung an anderer Stelle fort. Nach Abschluss der Reinigung der Wohnung kehrt der Roboter zur Basisstation zurück. Dort ergibt die Analyse der Reinigungskarte im Vergleich zur gespeicherten Karte und zu früheren Reinigungsergebnissen, dass es sich bei dem ausgelassenen Bereich um einen üblicherweise stark verschmutzten Bereich handelt und somit ein großer Reinigungsgewinn erzielt werden könnte. Aus diesem Grund benachrichtigt der Roboter den Nutzer, dass der Bereich unter dem Tisch nicht gereinigt werden konnte, da die Stuhlbeine zu eng stehen.
  • Der Nutzer hat dann die Möglichkeit den Bereich besser zugänglich zu machen (zB.: durch Stellen der Stühle auf den Tisch) und den Roboter mit Hilfe einer „Finish Cleaning“ Taste zu einem erneuten Reinigungsversuch des ausgelassenen Bereiches zu veranlassen. Alternativ könnte der Nutzer aber auch beschließen, dass er diesen Bereich im Allgemeinen lieber von Hand reinigen möchte und den Bereich als Ausschlussbereich in der Karte markieren. Der Roboter wird in diesem Fall den Bereich nicht mehr anzufahren versuchen. Dadurch kann beispielsweise auch die Gefahr reduziert werden dort hängen zu bleiben.
  • Drittes Beispiel: Bei einem Reinigungsvorgang "entdeckt" der Roboter, dass eine Tür verschlossen oder blockiert ist. Der Roboter reinigt den Rest der Wohnung und kehrt zu seiner Aufladestation zurück. Die im Anschluss durchgeführte Analyse der Reinigungskarte ergibt, dass durch die geschlossene Tür ein ganzes Zimmer nicht mehr angefahren und gereinigt werden konnte. Auf Anfrage des Nutzers (oder von sich aus) informiert der Roboter (über die Mensch-Maschine-Schnittstelle 200) den Nutzer über die nicht gereinigten Bereiche der Wohnung im Vergleich zu seinen letzten Reinigungsvorgängen (in diesem Fall entspricht der nicht gereinigte Bereich dem geschlossenen Zimmer) und gibt eine entsprechende Begründung an (z.B. "Zimmer konnte nicht angefahren werden – Tür ist geschlossen").
  • Der Nutzer hat nun die Möglichkeit in den Reinigungsprozess insofern einzugreifen, als er die Tür öffnet, sodass der Roboter in das Zimmer fahren kann. Anschließend kann der Nutzer dem Roboter (wiederum über die Mensch-Maschine-Schnittstelle 200, z.B. eine Taste am Roboter) ein "Finish Cleaning" Kommando ("Schließe die Reinigung ab" Kommando) geben. Mit Hilfe der gespeicherten Karte der Umgebung und der Information über den nicht gereinigten Bereich kann der Roboter nun gezielt versuchen das Zimmer anzufahren und zu reinigen. Falls dies gelingt, ist damit der Reinigungsvorgang der kompletten Wohnung abgeschlossen. Um den Erfolg für zukünftige Reinigungsvorgänge zu erhöhen, hat der Nutzer nun auch die Möglichkeit darauf zu achten, die Tür zu diesem Zimmer geöffnet zu lassen.
  • Alternativ dazu kann der Nutzer dem Roboter aber beispielsweise (über die Mensch-Maschine-Schnittstelle 200, z.B. über eine weitere Taste) mitteilen, dass er wünscht, dass dieses Zimmer nur gereinigt wird, wenn die Türe offen ist. In einem beispielsweise darauf folgenden Dialog kann er zum Beispiel auch auswählen, dass eine erneute Mitteilung jedoch dann erwünscht ist, wenn das Zimmer zum Beinspiel seit mehr als einer Woche (oder einem anderen definierbaren Zeitraum) nicht gereinigt wurde. Der Roboter kann dann diese Information über das gewünschte Verhalten mit der entsprechenden Kartenposition verknüpfen und abspeichern und in Zukunft nach den Wünschen des Benutzers handeln.
  • Viertes Beispiel: Der Roboter bricht seinen aktuellen Reinigungsvorgang der Küche ab, da zu viele bewegte Hindernisse (z.B. Menschen) den Reinigungsvorgang zu lange (z.B. in Bezug einer vordefinierbaren Zeitvorgabe) verzögern. Der Roboter reinigt den Rest der Wohnung, speichert den aktuellen Reinigungsvorgang ab und kehrt zu seiner Aufladestation zurück. Nach der Analyse der Reinigungskarte entscheidet der Roboter, dass er den Nutzer informieren soll, da ein wesentlicher Reinigungsgewinn durch die Reinigung der Küche entstehen würde. Er sendet dem Nutzer (über die Mensch-Maschine-Schnittstelle 200) eine Nachricht über die unzureichend gereinigten Bereiche der Wohnung (in diesem Fall entspricht der unzureichend gereinigte Bereich der Küche) und gibt eine entsprechende Begründung an (z.B. "Bereich konnte nicht ausreichend gereinigt werden – zu viel Bewegung").
  • Der Nutzer kann dem Roboter (über die Mensch-Maschine-Schnittstelle 200, z.B. eine Taste am Roboter) ein "Finish Cleaning" Kommando ("Schließe die Reinigung ab" Kommando) geben. Der Roboter kann nun gezielt die Küche anfahren und reinigen. Falls dies gelingt, ist damit der Reinigungsvorgang der kompletten Wohnung abgeschlossen. Durch die erhaltene Information weiß der Benutzer nun auch, dass der Roboter zur ursprünglichen Zeit die Küche (z.B. aufgrund eines zu hohen Menschenaufkommens) nur erschwert reinigen kann. Um den Erfolg für zukünftige Reinigungsvorgänge zu erhöhen, hat der Nutzer nun beispielsweise die Möglichkeit die Kalendereinstellung des Roboters derart zu ändern, dass sich mit hoher Wahrscheinlichkeit weniger Menschen während des neu gewählten Zeitabschnitts in der Küche aufhalten.
  • In dem Fall, beispielsweise, dass es keinen geeigneteren Zeitpunkt für die Reinigung dieses Zimmers gibt, kann der Benutzer aber den Roboter auch auffordern in Zukunft trotz Bewegung die Küche so gut wie möglich zu reinigen. Es bestünde zum Beispiel auch die Möglichkeit den Roboter anzuweisen, das Gebiet mehrmals während eines Reinigungsvorganges zu bearbeiten, um eine bessere Abdeckung trotz Bewegung zu gewährleisten. Diese Information kann dann wieder in der Karte vermerkt werden und der Roboter kann sich in Zukunft dem erwünschten Verhalten anpassen.
  • Fünftes Beispiel: Ein mobiler Roboter wird dazu verwendet in einem Gebäude aufgestellte Geräte (z.B. Wasserspender, Kopiermaschinen, Kaffeeautomaten, Beleuchtung, etc.) zu inspizieren oder allgemein das Gebäude beispielsweise nach unerwarteten Objekten oder (unbefugten) Personen abzusuchen. Zu diesem Zweck hat der mobile Roboter bereits eine vollständige Karte der Umgebung bei einer früheren Inspektion aufgebaut. Der Roboter kann einen Raum nicht anfahren, weil eine Schiebetür klemmt. Der Roboter inspiziert den Rest des Gebäudes soweit wie möglich, fährt zurück in seine Ausgangsposition und meldet dem Nutzer (z.B. dem Nachtportier) beispielsweise per Email über eine drahtlose LAN-Schnittstelle (LAN: local area network) dass ein Raum nicht inspiziert werden konnte. Der Nutzer hat die Gelegenheit, die klemmende Tür zu reparieren und den Roboter, beispielsweise über eine Antwort-Email zum Fortsetzen der Inspektion zu bringen.
  • Im fünften Beispiel wird die Mensch-Maschine-Schnittstelle 200 beispielsweise durch einen Email-Client auf einen Computer gebildet und das Kommunikationsmodul 150 durch die Wireless-LAN-Schnittstelle des Roboters, welche eine Kommunikation über ein (lokales) Netwerk mit dem Benutzer ermöglicht. Andere Ausführungen einer Mensch-Maschine-Schnittstelle 200 und eines Kommunikationsmoduls 150 sind jedoch möglich.
  • Die im Zusammenhang mit der Bearbeitung einer Bodenfläche beschriebenen Beispiele und technischen Merkmale des mobilen Roboters sind auch auf einen mobilen Roboter zur Ausführung anderer Tätigkeiten übertragbar. Alle Tätigkeiten, welche von autonomen selbstfahrenden Robotern übernommen werden können sind hierbei denkbar. Diese Tätigkeiten können beispielsweise die Inspektion der Bodenfläche oder der Umgebung, den Transport von Gegenständen, die Reinigung von Luft und/oder das Ausführen von Unterhaltungsspielen umfassen. Das beschriebene Bearbeitungsmodul 140 ist bei Robotern, welche andere oder zusätzliche Tätigkeiten als die Bearbeitung von Böden ausführen entsprechend ausgebildet. In manchen Fällen ist ein Bearbeitungsmodul 140 nicht notwendig, wie beispielsweise beim alleinigen Überwachen oder Inspizieren von Räumen, Flächen oder Gegenständen.
  • Während die Erfindung anhand einer beispielhaften Ausgestaltung beschrieben wurde, lässt sich die Erfindung demnach zusätzlich innerhalb des Grundgedankens und des Schutzumfangs dieser Offenbarung modifizieren. Die vorliegende Anmeldung soll daher zahlreiche Varianten, Einsatzmöglichkeiten oder Adaptionen der Erfindung unter Verwendung von deren grundsätzlichen Prinzipien abdecken. Außerdem ist die vorliegende Anmeldung dazu gedacht, derartige Abweichungen von der vorliegenden Offenbarung abzudecken, die bekannte oder übliche Praxis im Stand der Technik darstellen, auf dem die vorliegende Erfindung beruht. Die Erfindung ist nicht auf die oben angegebenen Einzelheiten beschränkt, sondern lässt sich gemäß den beigefügten Ansprüchen modifizieren.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 2287697 A2 [0002]
    • EP 1967116 A1 [0004]
    • US 6667592 B2 [0004]
    • US 2009/0182464 A1 [0004]
    • US 5995884 A [0006]
    • WO 03/014852 A1 [0007]
    • US 2010/0313364 A1 [0008]
    • US 2011/0264305 [0009]
  • Zitierte Nicht-Patentliteratur
    • H. Durrant-Whyte and T. Bailey: „Simultaneous Localization and Mapping (SLAM): Part I The Essential Algorithms,“ in: IEEE Robotics and Automation Magazine, Bd. 13, Nr. 2, S. 99–110, Juni 2006 [0027]

Claims (17)

  1. Mobiler selbstfahrender Roboter (100) zum autonomen Ausführen von Tätigkeiten; der Roboter weist folgendes auf: ein Antriebsmodul (130) zur Bewegung des Roboters (100) über die Bodenfläche; ein Bearbeitungsmodul (140) zum Ausführen der Tätigkeiten während eines Bearbeitungsvorganges; ein Navigationsmodul (110), welches dazu ausgebildet ist den Roboter (100) während des Bearbeitungsvorganges anhand einer Karte der Umgebung über die Bodenfläche zu navigieren, und eine oder mehrere Karten der Umgebung abzuspeichern und zu verwalten; mindestens ein Sensormodul (120) zum Erfassen von Informationen betreffend die Struktur der Umgebung; eine Analyseeinheit (150), welche dazu ausgebildet ist, die bei einem Bearbeitungsvorgang bearbeitete Fläche zu bestimmen, diese mit einer Referenz zu vergleichen und Informationen über eine Abweichung zwischen der Referenz und der tatsächlich bearbeiteten Fläche zu speichern; und ein Kommunikationsmodul (160), welches dazu ausgebildet ist, während, nach Abschluss oder nach Unterbrechung des Bearbeitungsvorganges eine Verbindung mit einer Mensch-Maschine-Schnittstelle (200) herzustellen, um die gespeicherten Informationen über eine Abweichung zwischen der Referenz und der tatsächlich bearbeiteten Fläche mitzuteilen und damit einem Nutzer die Möglichkeit zu geben in den Bearbeitungsvorgang einzugreifen, Veränderungen der Umgebung vorzunehmen oder einen erneuten Bearbeitungsvorgang zu starten, wobei anhand bestimmter, vordefinierbarer Kriterien entschieden wird, ob eine Information nach Aufforderung durch den Nutzer, ohne Aufforderung, oder gar nicht mitgeteilt werden soll; das Kommunikationsmodul (160) ist weiter dazu ausgebildet, einen Steuerbefehl von dem Nutzer entgegenzunehmen, den Bearbeitungsvorgang zu unterbrechen, fortzusetzen, zu modifizieren oder neu zu beginnen.
  2. Roboter (100) gemäß Anspruch 1, bei dem die Referenz durch einen Nutzer in den Roboter (100) eingegeben und geändert werden kann und/oder der Roboter (100) selbstständig eine Referenz erstellen und eine bestehende Referenz ändern kann.
  3. Roboter (100) gemäß Anspruch 2, der dazu ausgebildet ist, die Referenz durch Analyse wenigstens eines vorangegangenen Bearbeitungsvorgangs und/oder vorangegangener Steuerbefehle eines Nutzers zu erstellen oder zu ändern.
  4. Roboter (100) gemäß einem der Ansprüche 1 bis 3, bei dem die Analyseeinheit (150) die bei einem Bearbeitungsvorgang bearbeitete Fläche durch Protokollieren des abgefahrenen Pfads bestimmt.
  5. Roboter (100) gemäß einem der Ansprüche 1 bis 4, bei dem bei einem Bearbeitungsvorgang von dem Sensormodul laufend Informationen betreffend die Struktur der Umgebung erfasst werden und diese Informationen analysiert und, beispielsweise als bekanntes Objekt, als Hindernis oder als Person, klassifiziert werden.
  6. Roboter (100) gemäß einem der vorangehenden Ansprüche, bei dem die Bestimmung der bearbeitete Fläche wenigstens einmal während und/oder am Ende des Bearbeitungsvorgangs durchgeführt wird.
  7. Roboter (100) gemäß einem der vorangehenden Ansprüche, der dazu ausgebildet ist, einen Reinigungsgewinn und/oder einen Flächengewinn einer nicht bearbeiteten Fläche zu bestimmen.
  8. Roboter (100) gemäß einem der vorangehenden Ansprüche, der dazu ausgebildet ist, Flächen nach Kostenfunktionen (R) zu beurteilen.
  9. Roboter (100) gemäß einem der vorangehenden Ansprüche, bei dem die Kostenfunktionen durch vorangegangenes Nutzerfeedback adaptiert werden können.
  10. Roboter (100) gemäß einem der vorangehenden Ansprüche, bei dem Kriterien zur Entscheidung, ob eine Information nach Aufforderung durch einen Nutzer, ohne Aufforderung oder gar nicht mitgeteilt werden soll, ein Reinigungsgewinn oder Flächengewinn einer nicht bearbeiteten Fläche oder die Kostenfunktion einer Fläche sind.
  11. Roboter gemäß einem der vorangehenden Ansprüche, bei dem zu nicht gereinigten Teil-Flächen zugehörige Teil-Kostenfunktionen berechnet und aus diesen eine Gesamt-Kostenfunktion gebildet wird, wobei abhängig von dieser Gesamt-Kostenfunktion entschieden wird, ob und in welcher Weise mit dem Nutzer über die Mensch-Maschine-Schnittstelle Kontakt aufgenommen wird.
  12. Roboter (100) gemäß einem der vorangehenden Ansprüche, bei dem die gespeicherten Informationen über eine Abweichung zwischen der Referenz und der tatsächlich bearbeiteten Fläche durch Übertragung an ein Mobiltelefon, ein Smart-Phone, einen Computer, ein Fernsehgerät und/oder ein Display mitgeteilt werden.
  13. Roboter (100) gemäß einem der vorangehenden Ansprüche, bei der die Mitteilung der Informationen über eine Abweichung zwischen der Referenz und der tatsächlich bearbeiteten Fläche Informationen über die Gründe der Nichtbearbeitung und/oder über vorangegangenes Nutzerfeedback beinhaltet, beispielsweise um dem Benutzer eine Korrektur seines Feedbacks zu ermöglichen.
  14. Roboter (100) gemäß einem der vorangehenden Ansprüche, der dazu ausgebildet ist, Nutzerfeedback in den Karten der Umgebung zu speichern.
  15. Roboter (100) gemäß einem der vorangehenden Ansprüche, der dazu ausgebildet ist, anhand bestimmter Kriterien zu bestimmen, ob Informationen über eine Abweichung zwischen der Referenz und der tatsächlich bearbeiteten Fläche sofort oder zu einem späteren Zeitpunkt mitgeteilt werden.
  16. Roboter (100) gemäß Anspruch 15, bei dem Kriterien zum späteren Mitteilen von Informationen eine Uhrzeit, ein Batterieladestand, die Abwesenheit des Nutzers und/oder vorher eingegebenes Nutzerfeedback sind.
  17. Verfahren zur automatischen Ausführung von Tätigkeiten mit Hilfe eines selbstfahrenden autonomen Roboters (100); das Verfahren umfasst folgendes: Speichern und Verwalten wenigstens einer Karte der Umgebung; Starten des Bearbeitungsvorganges und Ausführen der Tätigkeiten mit Hilfe eines am Roboter (100) angeordneten Bearbeitungsmoduls (140); Navigieren des Roboters über die Bodenfläche während des Bearbeitungsvorganges anhand einer Karte der Umgebung; Erfassen von Informationen betreffend die Struktur der Umgebung während des Bearbeitungsvorganges durch mindestens ein am oder im Roboter (100) angeordnetes Sensormodul (120); Bestimmen der während eines Bearbeitungsvorganges bearbeiteten Fläche; Vergleichen der während eines Bearbeitungsvorganges bearbeiteten Fläche mit einer Referenz; Ermitteln von Informationen über eine Abweichung zwischen der Referenz und der tatsächlich bearbeiteten Fläche; und Entscheiden anhand bestimmter Kriterien, ob die Informationen über eine Abweichung zwischen der Referenz und der tatsächlich bearbeiteten Fläche nach Aufforderung durch einen Nutzer, ohne Aufforderung oder gar nicht mitgeteilt werden sollen.
DE102012109004.1A 2012-09-24 2012-09-24 Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen Withdrawn DE102012109004A1 (de)

Priority Applications (7)

Application Number Priority Date Filing Date Title
DE102012109004.1A DE102012109004A1 (de) 2012-09-24 2012-09-24 Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen
EP13791727.4A EP2898382B1 (de) 2012-09-24 2013-09-24 Roboter und verfahren zur autonomen inspektion oder bearbeitung von bodenflächen
CN201811026710.6A CN109613913A (zh) 2012-09-24 2013-09-24 自主移动机器人工作方法、自主移动机器人及系统
JP2015532244A JP6430944B2 (ja) 2012-09-24 2013-09-24 床面を自律式に点検または処理するロボットおよび方法
US14/430,461 US9298183B2 (en) 2012-09-24 2013-09-24 Robot and method for autonomous inspection or processing of floor areas
CN201380049511.6A CN104737085B (zh) 2012-09-24 2013-09-24 用于自主地检测或处理地面的机器人和方法
PCT/AT2013/050192 WO2014043732A1 (de) 2012-09-24 2013-09-24 Roboter und verfahren zur autonomen inspektion oder bearbeitung von bodenflächen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012109004.1A DE102012109004A1 (de) 2012-09-24 2012-09-24 Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen

Publications (1)

Publication Number Publication Date
DE102012109004A1 true DE102012109004A1 (de) 2014-03-27

Family

ID=49584547

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012109004.1A Withdrawn DE102012109004A1 (de) 2012-09-24 2012-09-24 Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen

Country Status (6)

Country Link
US (1) US9298183B2 (de)
EP (1) EP2898382B1 (de)
JP (1) JP6430944B2 (de)
CN (2) CN104737085B (de)
DE (1) DE102012109004A1 (de)
WO (1) WO2014043732A1 (de)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104164717A (zh) * 2014-07-21 2014-11-26 苏州凯枫瑞电子科技有限公司 纺织车间的移动式除尘装置
CN104298239A (zh) * 2014-09-29 2015-01-21 湖南大学 一种室内移动机器人增强地图学习路径规划方法
DE102014012811A1 (de) * 2014-03-27 2015-10-01 Miele & Cie. Kg Bodenreinigungsgerät und Verfahren und System zum Ermitteln eines Wohnungsgrundrisses durch ein selbstfahrendes Bodenreinigungsgerät
WO2016103067A1 (en) * 2014-12-22 2016-06-30 Husqvarna Ab Garden mapping and planning via robotic vehicle
DE102015100419A1 (de) * 2015-01-13 2016-07-14 Miele & Cie. Kg Verfahren und Anordnung zum Bearbeiten von Bodenflächen
DE102015220840A1 (de) * 2015-10-26 2017-04-27 Siemens Schweiz Ag Steuerung von Reinigungsrobotern
EP3072432B1 (de) 2015-03-23 2018-02-28 LG Electronics Inc. Reinigungsroboter und reinigungsrobotersystem damit
DE102016125319A1 (de) 2016-12-22 2018-06-28 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Fahrzeugs
DE102017108194A1 (de) 2017-04-18 2018-10-18 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Fahrzeugs
DE102017211166A1 (de) * 2017-06-30 2019-01-03 BSH Hausgeräte GmbH Bodenbearbeitungsroboter
EP3486741A1 (de) * 2017-11-16 2019-05-22 Miele & Cie. KG Selbstfahrender roboter
DE102018121365A1 (de) * 2018-08-31 2020-04-23 RobArt GmbH Exploration eines robotereinsatzgebietes durch einen autonomen mobilen roboter
DE102018133165A1 (de) * 2018-12-20 2020-06-25 Peter Beeken Verfahren und System zur Bestimmung einer oder mehrerer Spielfiguren
US10860029B2 (en) 2016-02-15 2020-12-08 RobArt GmbH Method for controlling an autonomous mobile robot
US11175670B2 (en) 2015-11-17 2021-11-16 RobArt GmbH Robot-assisted processing of a surface using a robot
US11188086B2 (en) 2015-09-04 2021-11-30 RobArtGmbH Identification and localization of a base station of an autonomous mobile robot
US11550054B2 (en) 2015-06-18 2023-01-10 RobArtGmbH Optical triangulation sensor for distance measurement
US11709489B2 (en) 2017-03-02 2023-07-25 RobArt GmbH Method for controlling an autonomous, mobile robot
US11768494B2 (en) 2015-11-11 2023-09-26 RobArt GmbH Subdivision of maps for robot navigation
US11789447B2 (en) 2015-12-11 2023-10-17 RobArt GmbH Remote control of an autonomous mobile robot

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140031980A1 (en) * 2011-11-11 2014-01-30 Jens-Steffen Gutmann Systems and methods for extending slam to multiple regions
WO2015018437A1 (de) 2013-08-06 2015-02-12 Alfred Kärcher Gmbh & Co. Kg Verfahren zum betreiben eines bodenreinigungsgerätes und bodenreinigungsgerät
KR20150104311A (ko) * 2014-03-05 2015-09-15 엘지전자 주식회사 로봇 청소기 및 그의 제어방법
KR101571719B1 (ko) * 2014-10-02 2015-11-25 엘지전자 주식회사 로봇 청소기
US9630318B2 (en) * 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
US9751210B2 (en) 2014-11-26 2017-09-05 Irobot Corporation Systems and methods for performing occlusion detection
US9519289B2 (en) * 2014-11-26 2016-12-13 Irobot Corporation Systems and methods for performing simultaneous localization and mapping using machine vision systems
KR101684072B1 (ko) 2015-03-06 2016-12-07 엘지전자 주식회사 진공 청소기 및 그의 제어방법
CN105072179B (zh) * 2015-08-05 2018-12-11 山东同其智能科技有限公司 一种智能安全卫士主机控制系统及其通信方法
US10496262B1 (en) 2015-09-30 2019-12-03 AI Incorporated Robotic floor-cleaning system manager
DE102015120221A1 (de) * 2015-11-23 2017-05-24 Alfred Kärcher Gmbh & Co. Kg Bodenreinigungssystem und Verfahren zum Reinigen einer Bodenfläche
US11624631B2 (en) * 2015-11-24 2023-04-11 Daxbot Inc. Autonomous robots and methods for determining, mapping, and traversing routes for autonomous robots
JP7058067B2 (ja) * 2016-02-16 2022-04-21 東芝ライフスタイル株式会社 自律走行体
CA3024145A1 (en) * 2016-04-14 2017-10-19 Deka Products Limited Partnership User control device for a transporter
DE102016108513A1 (de) * 2016-05-09 2017-11-09 Vorwerk & Co. Interholding Gmbh System und ein Verfahren zur Reinigung eines Fußbodens mit einem Reinigungsroboter
US10241514B2 (en) 2016-05-11 2019-03-26 Brain Corporation Systems and methods for initializing a robot to autonomously travel a trained route
US20170329347A1 (en) * 2016-05-11 2017-11-16 Brain Corporation Systems and methods for training a robot to autonomously travel a route
US9987752B2 (en) 2016-06-10 2018-06-05 Brain Corporation Systems and methods for automatic detection of spills
US10282849B2 (en) 2016-06-17 2019-05-07 Brain Corporation Systems and methods for predictive/reconstructive visual object tracker
US10016896B2 (en) 2016-06-30 2018-07-10 Brain Corporation Systems and methods for robotic behavior around moving bodies
CN109804325A (zh) * 2016-08-05 2019-05-24 罗伯特有限责任公司 用于控制自主移动机器人的方法
CN106343925B (zh) * 2016-08-30 2018-10-26 特斯联(北京)科技有限公司 一种具有人工扫地辅助功能的扫地机器人及进行人工打扫的方法
US10274325B2 (en) 2016-11-01 2019-04-30 Brain Corporation Systems and methods for robotic mapping
CN106708034A (zh) * 2016-11-23 2017-05-24 河池学院 一种基于手机对机器人的行走路径进行控制的实现方法
US10723018B2 (en) 2016-11-28 2020-07-28 Brain Corporation Systems and methods for remote operating and/or monitoring of a robot
JP6681326B2 (ja) * 2016-12-27 2020-04-15 本田技研工業株式会社 作業システムおよび作業方法
DE102017100366A1 (de) * 2017-01-10 2018-07-12 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines Bodenbearbeitungsgerätes
CN106708053A (zh) * 2017-01-26 2017-05-24 湖南人工智能科技有限公司 一种自主导航的机器人及其自主导航方法
US10852730B2 (en) 2017-02-08 2020-12-01 Brain Corporation Systems and methods for robotic mobile platforms
CN106647774A (zh) * 2017-02-14 2017-05-10 南京罗普森智能科技有限公司 实现室内扫地机器人自主探索建图及自主路径覆盖的方法
DE102017103986A1 (de) * 2017-02-27 2018-08-30 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Roboters
DE102017109219A1 (de) * 2017-04-28 2018-10-31 RobArt GmbH Verfahren für die Roboternavigation
US10882186B1 (en) * 2017-05-11 2021-01-05 AI Incorporated Method for efficient operation of mobile robotic devices
JP2018196622A (ja) * 2017-05-24 2018-12-13 株式会社東芝 電子機器、方法及びプログラム
DE102017209318A1 (de) * 2017-06-01 2018-12-06 Robert Bosch Gmbh Verfahren und Vorrichtung zur Lokalisierung eines Objekts
DE102017113285A1 (de) * 2017-06-16 2018-12-20 Vorwerk & Co. Interholding Gmbh System mit mindestens zwei Reinigungsgeräten
DE102018116065A1 (de) * 2017-07-13 2019-01-17 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Servicegerätes
KR102048992B1 (ko) * 2017-07-21 2019-11-27 엘지전자 주식회사 인공지능 청소기 및 그 제어방법
DE102017117148A1 (de) * 2017-07-28 2019-01-31 RobArt GmbH Magnetometer für die roboternavigation
DE102017118226A1 (de) * 2017-08-10 2019-02-14 Vorwerk & Co. Interholding Gmbh Bodenbearbeitungsgerät mit mehreren Tanks zur Bevorratung von Flüssigkeit
DE102017118382A1 (de) 2017-08-11 2019-02-14 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Reinigungsgerätes
DE102017118383A1 (de) * 2017-08-11 2019-02-14 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Reinigungsgerätes
WO2019053062A1 (de) * 2017-09-12 2019-03-21 RobArt GmbH Exploration einer unbekannten umgebung durch einen autonomen mobilen roboter
JP2019076658A (ja) * 2017-10-27 2019-05-23 パナソニックIpマネジメント株式会社 自律走行掃除機、および、拡張エリア識別方法
WO2019089018A1 (en) 2017-10-31 2019-05-09 Hewlett-Packard Development Company, L.P. Mobile robots to generate reference maps for localization
JP6985922B2 (ja) * 2017-12-20 2021-12-22 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム
CN108113580A (zh) * 2017-12-20 2018-06-05 苏州燕云网络技术有限公司 扫地机自动清扫局部区域的方法及扫地机
CN108107892B (zh) * 2017-12-22 2020-12-25 重庆秉为科技有限公司 一种智能清扫仪器控制方法
CN107960953A (zh) * 2017-12-27 2018-04-27 江苏美的清洁电器股份有限公司 清洁机器人及其控制方法、控制装置
US11144056B1 (en) 2018-01-12 2021-10-12 AI Incorporated Autonomous refuse container replacement system
US11144066B1 (en) 2018-01-31 2021-10-12 AI Incorporated Autonomous refuse bag replacement system
US11243540B2 (en) 2018-05-17 2022-02-08 University Of Connecticut System and method for complete coverage of unknown environments
CN108594823A (zh) * 2018-05-21 2018-09-28 珠海格力电器股份有限公司 扫地机器人的控制方法及其控制系统
US10835096B2 (en) * 2018-08-30 2020-11-17 Irobot Corporation Map based training and interface for mobile robots
CN109363578B (zh) * 2018-09-13 2020-12-04 珠海格力电器股份有限公司 清洁监控方法、装置及吸尘器和移动终端
CN112703458A (zh) * 2018-09-25 2021-04-23 罗伯特·博世有限公司 用于执行任务的机器人系统和方法
US10816994B2 (en) * 2018-10-10 2020-10-27 Midea Group Co., Ltd. Method and system for providing remote robotic control
WO2020146352A1 (en) * 2019-01-08 2020-07-16 R-Go Robotics Ltd. System and method for monitoring movements
DE102019201616A1 (de) * 2019-02-07 2020-08-13 Robert Bosch Gmbh Autonomes Arbeitsgerät
US20220129000A1 (en) * 2019-03-22 2022-04-28 The Toro Company Smart scheduling for autonomous machine operation
CN110025268B (zh) * 2019-05-05 2021-11-12 深圳信息职业技术学院 一种顽固污渍的清扫方法
CN110403528B (zh) * 2019-06-12 2022-03-08 深圳乐动机器人有限公司 一种基于清洁机器人提高清洁覆盖率的方法和系统
US11231712B2 (en) 2019-06-12 2022-01-25 Ford Global Technologies, Llc Digital model rectification with sensing robot
US11220006B2 (en) 2019-06-24 2022-01-11 Ford Global Technologies, Llc Digital model rectification
CN110448230A (zh) * 2019-08-09 2019-11-15 湛江维尔科技服务有限公司 一种智能家用自动清理扫地机器人
GB2592414B (en) * 2020-02-27 2022-08-31 Dyson Technology Ltd Robot
CN112168090B (zh) * 2020-09-02 2021-11-23 珠海格力电器股份有限公司 扫地机、其控制方法及门控装置的控制方法
JP7464508B2 (ja) 2020-11-24 2024-04-09 日機装株式会社 ロボット掃除機
CN113534813A (zh) * 2021-07-30 2021-10-22 珠海一微半导体股份有限公司 移动机器人作业方法、系统及芯片
DE102021130326A1 (de) 2021-11-19 2023-05-25 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Reinigen eines Bodens sowie Reinigungsmaschine

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5995884A (en) 1997-03-07 1999-11-30 Allen; Timothy P. Computer peripheral floor cleaning system and navigation method
EP1053516B1 (de) * 1998-02-03 2001-08-29 Siemens Aktiengesellschaft Bahnplanungsverfahren für eine mobile einheit zur flächenbearbeitung
WO2003014852A1 (de) 2001-08-03 2003-02-20 Siemens Aktiengesellschaft Planung einer erweiterten bahn für eine autonome mobile einheit zum späteren ab fahren temporär versperrter bahnbereiche
US6667592B2 (en) 2001-08-13 2003-12-23 Intellibot, L.L.C. Mapped robot system
DE10319513A1 (de) * 2002-10-31 2004-05-19 Samsung Gwangju Electronics Co. Ltd. Automatische Reinigungsvorrichtung und automatisches Reinigungssystem sowie Verfahren zu deren Steuerung
EP1967116A1 (de) 2007-03-05 2008-09-10 MIELE & CIE. KG Verfahren zur Reinigung einer Bodenfläche mittels eines selbstfahrenden Reinigungsgerätes, insbesondere eines Robotsaugers
US20090182464A1 (en) 2008-01-11 2009-07-16 Samsung Electronics Co., Ltd. Method and apparatus for planning path of mobile robot
US20100313364A1 (en) 2009-06-12 2010-12-16 Samsung Electronics Co., Ltd. Robot cleaner and control method thereof
EP2287697A2 (de) 2001-06-12 2011-02-23 iRobot Corporation Verfahren und System zur multimodalen Bedeckung für einen autonomen Roboter
DE102009052629A1 (de) * 2009-11-10 2011-05-12 Vorwerk & Co. Interholding Gmbh Verfahren zur Steuerung eines Roboters
US20110264305A1 (en) 2010-04-26 2011-10-27 Suuk Choe Robot cleaner and remote monitoring system using the same
DE102011050357A1 (de) * 2010-08-12 2012-02-16 Vorwerk & Co. Interholding Gmbh Verfahren zur Steuerung eines selbsttätig verfahrbaren Gerätes
DE102011006062A1 (de) * 2011-03-24 2012-09-27 RobArt GmbH Verfahren zur autonomen Inspektion einer Umgebung oder Bearbeitung von Bodenflächen

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02235114A (ja) * 1989-03-09 1990-09-18 Sanyo Electric Co Ltd 移動車
US6539284B2 (en) * 2000-07-25 2003-03-25 Axonn Robotics, Llc Socially interactive autonomous robot
US7571511B2 (en) * 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
JP4445210B2 (ja) * 2003-04-28 2010-04-07 株式会社東芝 自律走行ロボット
JP2005204872A (ja) * 2004-01-22 2005-08-04 Matsushita Electric Ind Co Ltd 自走式掃除機及びそのプログラム
JP2005211367A (ja) * 2004-01-30 2005-08-11 Funai Electric Co Ltd 自律走行ロボットクリーナー
JP2005222226A (ja) * 2004-02-04 2005-08-18 Funai Electric Co Ltd 自律走行ロボットクリーナー
JP2005230044A (ja) * 2004-02-17 2005-09-02 Funai Electric Co Ltd 自律走行ロボットクリーナー
CN1756153B (zh) * 2004-09-29 2010-04-21 宏碁股份有限公司 于热点环境下执行自动登入因特网的方法
WO2006089307A2 (en) * 2005-02-18 2006-08-24 Irobot Corporation Autonomous surface cleaning robot for wet and dry cleaning
US8392021B2 (en) * 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
US20060184293A1 (en) * 2005-02-18 2006-08-17 Stephanos Konandreas Autonomous surface cleaning robot for wet cleaning
AU2006295337B2 (en) * 2005-07-20 2011-06-16 Optimus Services Ag Robotic floor cleaning with sterile, disposable cartridges
JP2007132938A (ja) * 2005-11-07 2007-05-31 Samsung Electronics Co Ltd ロボット及び前記ロボットの位置推定方法
JP2007159609A (ja) * 2005-12-09 2007-06-28 Matsushita Electric Ind Co Ltd 自走式掃除機およびそのプログラム
US7539557B2 (en) * 2005-12-30 2009-05-26 Irobot Corporation Autonomous mobile robot
KR101268432B1 (ko) * 2006-01-09 2013-05-28 삼성전자주식회사 스마트 커뮤니케이터를 이용한 지능형 출입 인증 시스템 및방법
JP2007226322A (ja) * 2006-02-21 2007-09-06 Sharp Corp ロボットコントロールシステム
JP5033527B2 (ja) * 2007-07-20 2012-09-26 ローム株式会社 アナウンスシステム、電気機器及び制御装置
JP5548139B2 (ja) * 2008-01-28 2014-07-16 シーグリッド コーポレーション 施設を整備するロボットと実時間または近実時間で相互作用する方法
US8755936B2 (en) * 2008-01-28 2014-06-17 Seegrid Corporation Distributed multi-robot system
CN101540034A (zh) * 2008-03-21 2009-09-23 当代天启技术(北京)有限公司 一种客房管理系统及客房管理方法
EP2286704A2 (de) * 2008-06-02 2011-02-23 Woongjin Coway Co., Ltd. Robotisches reinigungssystem und verfahren zur steuerung eines reinigungsroboters
US8774970B2 (en) * 2009-06-11 2014-07-08 S.C. Johnson & Son, Inc. Trainable multi-mode floor cleaning device
JP2011024845A (ja) * 2009-07-28 2011-02-10 Panasonic Corp 室内用集塵装置および室内用集塵装置用プログラム
CN201543633U (zh) * 2009-09-22 2010-08-11 泰怡凯电器(苏州)有限公司 清洁机器人及其脏物识别装置
JP2011076168A (ja) * 2009-09-29 2011-04-14 Shimizu Corp 自動搬送台車の衝突事故回避システム及び自動搬送台車の衝突事故回避方法
EP2496995B1 (de) * 2009-11-06 2019-04-24 iRobot Corporation Verfahren und system zur kompletten abdeckung einer fläche durch einen autonomen roboter
CN102092048A (zh) * 2009-12-09 2011-06-15 恩斯迈电子(深圳)有限公司 控制方法及清扫机器人装置
CN103534659B (zh) * 2010-12-30 2017-04-05 美国iRobot公司 覆盖机器人导航
US8818556B2 (en) * 2011-01-13 2014-08-26 Microsoft Corporation Multi-state model for robot and user interaction

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5995884A (en) 1997-03-07 1999-11-30 Allen; Timothy P. Computer peripheral floor cleaning system and navigation method
EP1053516B1 (de) * 1998-02-03 2001-08-29 Siemens Aktiengesellschaft Bahnplanungsverfahren für eine mobile einheit zur flächenbearbeitung
EP2287697A2 (de) 2001-06-12 2011-02-23 iRobot Corporation Verfahren und System zur multimodalen Bedeckung für einen autonomen Roboter
WO2003014852A1 (de) 2001-08-03 2003-02-20 Siemens Aktiengesellschaft Planung einer erweiterten bahn für eine autonome mobile einheit zum späteren ab fahren temporär versperrter bahnbereiche
US6667592B2 (en) 2001-08-13 2003-12-23 Intellibot, L.L.C. Mapped robot system
DE10319513A1 (de) * 2002-10-31 2004-05-19 Samsung Gwangju Electronics Co. Ltd. Automatische Reinigungsvorrichtung und automatisches Reinigungssystem sowie Verfahren zu deren Steuerung
EP1967116A1 (de) 2007-03-05 2008-09-10 MIELE & CIE. KG Verfahren zur Reinigung einer Bodenfläche mittels eines selbstfahrenden Reinigungsgerätes, insbesondere eines Robotsaugers
US20090182464A1 (en) 2008-01-11 2009-07-16 Samsung Electronics Co., Ltd. Method and apparatus for planning path of mobile robot
US20100313364A1 (en) 2009-06-12 2010-12-16 Samsung Electronics Co., Ltd. Robot cleaner and control method thereof
DE102009052629A1 (de) * 2009-11-10 2011-05-12 Vorwerk & Co. Interholding Gmbh Verfahren zur Steuerung eines Roboters
US20110264305A1 (en) 2010-04-26 2011-10-27 Suuk Choe Robot cleaner and remote monitoring system using the same
DE102011050357A1 (de) * 2010-08-12 2012-02-16 Vorwerk & Co. Interholding Gmbh Verfahren zur Steuerung eines selbsttätig verfahrbaren Gerätes
DE102011006062A1 (de) * 2011-03-24 2012-09-27 RobArt GmbH Verfahren zur autonomen Inspektion einer Umgebung oder Bearbeitung von Bodenflächen

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
H. Durrant-Whyte and T. Bailey: „Simultaneous Localization and Mapping (SLAM): Part I The Essential Algorithms," in: IEEE Robotics and Automation Magazine, Bd. 13, Nr. 2, S. 99-108, Juni 2006
H. Durrant-Whyte and T. Bailey: "Simultaneous Localization and Mapping (SLAM): Part I The Essential Algorithms," in: IEEE Robotics and Automation Magazine, Bd. 13, Nr. 2, S. 99-108, Juni 2006 *
H. Durrant-Whyte and T. Bailey: "Simultaneous Localization and Mapping (SLAM): Part I The Essential Algorithms," in: IEEE Robotics and Automation Magazine, Bd. 13, Nr. 2, S. 99-110, Juni 2006

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014012811A1 (de) * 2014-03-27 2015-10-01 Miele & Cie. Kg Bodenreinigungsgerät und Verfahren und System zum Ermitteln eines Wohnungsgrundrisses durch ein selbstfahrendes Bodenreinigungsgerät
DE102014012811B4 (de) * 2014-03-27 2017-09-21 Miele & Cie. Kg Bodenreinigungsgerät und Verfahren und System zum Ermitteln eines Wohnungsgrundrisses durch ein selbstfahrendes Bodenreinigungsgerät
CN104164717A (zh) * 2014-07-21 2014-11-26 苏州凯枫瑞电子科技有限公司 纺织车间的移动式除尘装置
CN104298239A (zh) * 2014-09-29 2015-01-21 湖南大学 一种室内移动机器人增强地图学习路径规划方法
CN104298239B (zh) * 2014-09-29 2016-08-24 湖南大学 一种室内移动机器人增强地图学习路径规划方法
US10643377B2 (en) 2014-12-22 2020-05-05 Husqvarna Ab Garden mapping and planning via robotic vehicle
WO2016103067A1 (en) * 2014-12-22 2016-06-30 Husqvarna Ab Garden mapping and planning via robotic vehicle
DE102015100419A1 (de) * 2015-01-13 2016-07-14 Miele & Cie. Kg Verfahren und Anordnung zum Bearbeiten von Bodenflächen
EP3072432B2 (de) 2015-03-23 2023-09-20 LG Electronics Inc. Reinigungsroboter und reinigungsrobotersystem damit
EP3679850B1 (de) * 2015-03-23 2022-06-29 LG Electronics Inc. Roboterreiniger, roboterreinigungssystem damit
EP3679849A1 (de) * 2015-03-23 2020-07-15 LG Electronics Inc. -1- Roboterreiniger und roboterreinigungssystem mit einem solchen
EP3072432B1 (de) 2015-03-23 2018-02-28 LG Electronics Inc. Reinigungsroboter und reinigungsrobotersystem damit
US11550054B2 (en) 2015-06-18 2023-01-10 RobArtGmbH Optical triangulation sensor for distance measurement
US11188086B2 (en) 2015-09-04 2021-11-30 RobArtGmbH Identification and localization of a base station of an autonomous mobile robot
US10492654B2 (en) 2015-10-26 2019-12-03 Siemens Schweiz Ag Control of cleaning robots
DE102015220840A1 (de) * 2015-10-26 2017-04-27 Siemens Schweiz Ag Steuerung von Reinigungsrobotern
DE102015220840B4 (de) * 2015-10-26 2018-11-15 Siemens Schweiz Ag Steuerung von Reinigungsrobotern
US11768494B2 (en) 2015-11-11 2023-09-26 RobArt GmbH Subdivision of maps for robot navigation
US11175670B2 (en) 2015-11-17 2021-11-16 RobArt GmbH Robot-assisted processing of a surface using a robot
US11789447B2 (en) 2015-12-11 2023-10-17 RobArt GmbH Remote control of an autonomous mobile robot
US11709497B2 (en) 2016-02-15 2023-07-25 RobArt GmbH Method for controlling an autonomous mobile robot
US10860029B2 (en) 2016-02-15 2020-12-08 RobArt GmbH Method for controlling an autonomous mobile robot
DE102016125319A1 (de) 2016-12-22 2018-06-28 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Fahrzeugs
EP3355147A1 (de) 2016-12-22 2018-08-01 Vorwerk & Co. Interholding GmbH Verfahren zum betrieb eines sich selbsttätig fortbewegenden fahrzeugs
US11709489B2 (en) 2017-03-02 2023-07-25 RobArt GmbH Method for controlling an autonomous, mobile robot
US10895880B2 (en) 2017-04-18 2021-01-19 Vorwerk & Co. Interholding Gmbh Method for operating a self-traveling vehicle
EP3392738A1 (de) 2017-04-18 2018-10-24 Vorwerk & Co. Interholding GmbH Verfahren zum betrieb eines sich selbsttätig fortbewegenden fahrzeugs
DE102017108194A1 (de) 2017-04-18 2018-10-18 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Fahrzeugs
DE102017211166A1 (de) * 2017-06-30 2019-01-03 BSH Hausgeräte GmbH Bodenbearbeitungsroboter
EP3486741A1 (de) * 2017-11-16 2019-05-22 Miele & Cie. KG Selbstfahrender roboter
DE102018121365A1 (de) * 2018-08-31 2020-04-23 RobArt GmbH Exploration eines robotereinsatzgebietes durch einen autonomen mobilen roboter
DE102018133165A1 (de) * 2018-12-20 2020-06-25 Peter Beeken Verfahren und System zur Bestimmung einer oder mehrerer Spielfiguren
DE102018133165B4 (de) * 2018-12-20 2021-03-18 Peter Beeken Verfahren und System zur Bestimmung einer oder mehrerer Spielfiguren

Also Published As

Publication number Publication date
JP2015536489A (ja) 2015-12-21
EP2898382B1 (de) 2019-10-30
US20150212520A1 (en) 2015-07-30
US9298183B2 (en) 2016-03-29
CN104737085B (zh) 2018-08-14
CN104737085A (zh) 2015-06-24
CN109613913A (zh) 2019-04-12
JP6430944B2 (ja) 2018-11-28
WO2014043732A1 (de) 2014-03-27
EP2898382A1 (de) 2015-07-29

Similar Documents

Publication Publication Date Title
EP2898382B1 (de) Roboter und verfahren zur autonomen inspektion oder bearbeitung von bodenflächen
EP3814067B1 (de) Exploration eines robotereinsatzgebietes durch einen autonomen mobilen roboter
DE102011006062B4 (de) Verfahren zur autonomen Inspektion einer Umgebung oder Bearbeitung von Bodenflächen
EP3417350B1 (de) Verfahren zur steuerung eines autonomen mobilen roboters
EP3682305B1 (de) Exploration einer unbekannten umgebung durch einen autonomen mobilen roboter
WO2018024897A1 (de) Verfahren zur steuerung eines autonomen mobilen roboters
EP3619585B1 (de) Verfahren zur steuerung von reinigungsgeräten
EP3374834A2 (de) Unterteilung von karten für die roboternavigation
EP3616016A1 (de) Verfahren für die navigation eines roboters
DE102017121127A1 (de) Exploration einer unbekannten Umgebung durch einen autonomen mobilen Roboter
DE102017104428A1 (de) Verfahren zur Steuerung eines autonomen, mobilen Roboters
DE102015100419A1 (de) Verfahren und Anordnung zum Bearbeiten von Bodenflächen
DE102017127180A1 (de) Bodenbearbeitung mittels eines autonomen mobilen Roboters
DE102016114593A1 (de) Verfahren zur Steuerung eines autonomen mobilen Roboters
DE102020102766A1 (de) Verfahren zum Betrieb eines Reinigungssystems
DE102017113612A1 (de) Autonomes Reinigungssystem und Reinigungsverfahren
EP3825802B1 (de) System mit mindestens zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten sowie verfahren zum betrieb des systems
EP3995065B1 (de) Sich selbsttätig fortbewegendes reinigungsgerät
EP3848770B1 (de) Verfahren zum betrieb eines systems mit zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten sowie system zur durchführung eines solchen verfahrens
EP3851929A1 (de) Verfahren zum betrieb eines systems mit mindestens zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten sowie system zur durchführung eines solchen verfahrens
DE102018131732A1 (de) System aus mindestens einem Bodenbearbeitungsgerät und mindestens einer Signalsendeeinrichtung sowie Betriebsverfahren dafür
WO2022152875A2 (de) Situationsbewertung mittels objekterkennung in autonomen mobilen robotern
DE102020208893A1 (de) Steuerung eines Reinigungsroboters
DE102022210911A1 (de) Verfahren zum Bestimmen eines Auswahlbereichs in einer Umgebung für ein mobiles Gerät
EP3984434A2 (de) Verfahren zum betrieb eines mobilen, selbstfahrenden geräts

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001020000

Ipc: G05D0001430000

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee