DE102015100419A1 - Verfahren und Anordnung zum Bearbeiten von Bodenflächen - Google Patents

Verfahren und Anordnung zum Bearbeiten von Bodenflächen Download PDF

Info

Publication number
DE102015100419A1
DE102015100419A1 DE102015100419.4A DE102015100419A DE102015100419A1 DE 102015100419 A1 DE102015100419 A1 DE 102015100419A1 DE 102015100419 A DE102015100419 A DE 102015100419A DE 102015100419 A1 DE102015100419 A1 DE 102015100419A1
Authority
DE
Germany
Prior art keywords
information
mobile
amount
robotic
interaction device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102015100419.4A
Other languages
English (en)
Inventor
Otto Braun
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Miele und Cie KG
Original Assignee
Miele und Cie KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Miele und Cie KG filed Critical Miele und Cie KG
Priority to DE102015100419.4A priority Critical patent/DE102015100419A1/de
Publication of DE102015100419A1 publication Critical patent/DE102015100419A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/06Control of the cleaning action for autonomous devices; Automatic detection of the surface condition before, during or after cleaning

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • General Engineering & Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Bearbeiten von Bodenflächen (300) sowie eine Anordnung zur Durchführung des Verfahren mit einem mobilen robotischen Bodenflächenbearbeitungsgerät (100) und einer mobilen Interaktionseinrichtung (200). Erfindungsgemäß wird mittels einer Sensoreinrichtung (140) eine erste und eine zweite Informationsmenge bezüglich der Bodenfläche (300) erfasst und daraus mittels einer Verarbeitungseinheit (120, 220) ein graphisches Abbild erstellt, das an einer graphischen Anzeigeeinheit (260) dargestellt wird, wobei in dem graphischen Abbild unterschiedliche Ausprägungen des Zustands der Bodenfläche (300) entsprechend unterschiedlich graphisch repräsentiert sind.

Description

  • Die Erfindung betrifft ein Verfahren zum Bearbeiten von Bodenflächen sowie eine Anordnung zur Durchführung des Verfahren umfassend ein mobiles robotisches Bodenflächenbearbeitungsgerät und eine mobile Interaktionseinrichtung.
  • Das Bearbeiten einer Bodenfläche kann etwa im Haushalt oder Büro zum Zweck der Reinigung und Pflege der Bodenfläche beispielsweise in Form von Staubsaugen erfolgen. Dafür eingesetzte Staubsauger gibt es zum einen als handgeführte Geräte. Zum anderen sind seit geraumer Zeit auch robotische Staubsauger bekannt, die selbstständig bzw. autonom agieren und oft als Saugroboter oder Robotsauger bezeichnet und vermarktet werden.
  • Als Unterstützung für eine Person bei der Bearbeitung von Bodenflächen mit einem handgeführten Staubsauger wird von der Anmelderin unter der Bezeichnung "AllergoTeQ" eine speziell angepasste Staubsaugerbodendüse angeboten, die über einen Sensor und eine Anzeige verfügt, um den Verschmutzungs- bzw. Sauberkeitsgrad der jeweils mit der Bodendüse überfahrenen Bodenfläche zu ermitteln und dem Benutzer stufenweise grafisch anzuzeigen. Dies ist vor allem für Benutzer von Vorteil, die selbst Allergiker sind oder bei denen Allergiker oder Kleinkinder im Haushalt leben, die zum Beispiel auf Staub empfindlich reagieren. Um die vollständige Sauberkeit einer bestimmen Bodenfläche sicherstellen zu können, muss der Benutzer allerdings die gesammte Bodenfläche vollständig mit der Bodendüse überfahren und dabei permanent die Anzeige aufmerksam beobachten. Ferner muss der Benutzer dabei möglichst systematisch vorgehen, um nicht versehentlich eine Teilfläche zu vergessen.
  • Des Weiteren kommen zur Unterstützung bei der Bodenflächenbearbeitung in letzter Zeit immer häufiger autonom agierende Staubsauger, sogenannte Saugroboter oder Robotsauger, zum Einsatz, die dem Benutzer ein manuelles Staubsaugen ersparen können. Dabei fahren die Saugroboter selbstständig und automatisch gesteuert eine vorgegebene Bodenfläche ab und reinigen diese.
  • Bei einfachen Saugrobotern werden zufällige Navigationsverfahren angewendet. Das heißt, der Saugroboter fährt im Wesentlichen orientierungslos eine Bodenfläche ab, wobei er im Falle einer Kollision mit einem Hindernis nach dem Zufallsprinzip seine Fahrtrichtung ändert. Die Sensorik und Steuerung eines solchen Saugroboters kann dafür sehr einfach und preiswert ausgebildet sein. Allerdings bringt das zum einen den Nachteil eines höheren Zeitbedarfs mit sich, da der Saugroboter viele Bereiche der Bodenfläche mehrfach überfährt und reinigt. Zum anderen kann der Benutzer am Ende eines Bearbeitungsvorgangs nicht sicher sein, dass der Saugroboter wirklich alle Bereiche der Bodenfläche zumindest einmal überfahren und gereinigt hat.
  • Demgegenüber verwenden kompliziertere Saugroboter eine zielgerichtete Navigation. Zur simultanen Lokalisation und Kartenerstellung verfügen solche Saugroboter über ein SLAM-Modul (SLAM – Simultaneous Location and Mapping). Dies erlaubt ihnen eine sinnvolle Pfadplanung und gezielte Reinigung einer Bodenfläche in einer unbekannten Umgebung. Während der Abarbeitung des Pfades muss der Saugroboter außerdem auf aktuelle Ereignisse reagieren und Kollisionen vermeiden, indem er Hindernissen ausweicht. Die Lokalisation und Kartenerstellung erfolgt zum Beispiel anhand erkannter prägnanter Punkte der Umgebung (Landmarks). Zu dem SLAM-Modul gehören zum Beispiel externe Sensoren wie optische und akustische Abstandssensoren, Laser-Range-Scanner, (stereoskopische) Kamerasysteme, Berührungssensoren, etc. sowie inertiale Sensoren wie odometrische Sensoren, Beschleunigungssensoren, etc. Detailreiche Informationen über die Umgebung des Roboters und Abstände von Hindernissen liefern insbesondere 3D-orientierte Systeme wie Laserscanner oder stereoskopische Kamerasysteme, die mittels Triangulation auch Tiefeninformationen gewinnen können. Im Zusammenhang mit solchen oder ähnlichen Sensoren, die zur Navigation innerhalb von Gebäuden genutzt werden können, wird auch oft der Begriff IPS verwendet (Indoor Positioning System).
  • Ferner wird bei einigen Saugrobotern mit zielgerichteter Navigation die erstellte Karte permanent gespeichert, bei anderen hingegen nicht. Wird die Karte nicht gespeichert, muss eine neue Karte für jeden neuen Bearbeitungsvorgang erstellt werden. Das permanente Speichern der Karte ermöglicht effizientere Bearbeitungsvorgänge, da eine wiederholte Erkundung der Umgebung nicht notwendig ist und ein Bearbeitungsvorgang anhand der Ortsinformationen betreffend Hindernisse, Bodenflächenbegrenzungen, etc. vorab berechnet werden kann. Saugroboter, welche Karten permanent speichern, müssen sich zudem auch autonom in der permanenten Karte lokalisieren können. Diese Fähigkeit wird auch als globale Selbstlokalisierung (Global Self Localization) bezeichnet.
  • So ist zum Beispiel aus der DE 10 2012 201 870 A1 ein Saugroboter mit der Fähigkeit zur Selbstlokalisierung und Erstellung permanenter Karten bekannt.
  • Aus der DE 10 2007 010 979 B3 der Anmelderin ist ein Saugroboter bekannt, der den Verschmutzungsgrad einzelner Bereiche einer Bodenfläche ermitteln und dann die Bearbeitungsintensität entsprechend steuern kann.
  • Saugroboter mit gezielter Navigation können es zwar im Wesentlichen vermeiden, einen Bereich einer Bodenflächen mehrmals zu überfahren. Allerdings kann der Benutzer auch bei dieser Art von Saugrobotern am Ende eines Bearbeitungsvorgangs nicht sicher sein, dass der Saugroboter wirklich alle Bereiche der Bodenfläche zumindest einmal überfahren und gereinigt hat. Denn es gibt zum Beispiel in einer Wohnung oder einem Büro schlicht Bereiche, die für einen Saugroboter nur schlecht oder gar nicht zugänglich bzw. erreichbar sind.
  • Die Anmelderin beschreibt in der DE 10 2012 105 608 A1 einen Saugroboter, der Gesten einer Person erkennen und den Bearbeitungsvorgang entsprechend der ekannten Gesten steuern kann. Die Person kann dabei zum Beispiel mit der Hand auf einen bestimmten Bereich einer Bodenfläche deuten, um den Saugroboter anzuweisen, diesen Bereich zu bearbeiten. Ferner beschreibt die Anmelderin in der DE 10 2013 102 941 A1 einen Saugroboter, der Informationen und Befehle bezüglich eines zu bearbeitenden Bereichs einer Bodenfläche von einem mobilen Datenverarbeitungsgerät erhält. Dieses mobile Datenverarbeitungsgerät kann zum Beispiel ein Smartphone mit einer Kamera sein, mit dem eine Person einen verschmutzen Bereich einer Bodenfläche fotografiert und die aus dem Bild gewonnenen Informationen an den Saugroboter übermittelt.
  • Zwar sind solche Saugroboter recht bequem zu bedienen, allerdings kommt es auch hier darauf an, dass der Benutzer die verschmutzen bzw. die vom Saugroboter noch nicht oder nicht ausreichend gereinigten Bodenflächenbereiche selbst erkennt.
  • Gegenüber handgeführten Staubsaugern haben im Wesentlichen alle bisher bekannten Saugroboter den Nachteil, dass sie nur eine deutlich geringere Reinigungswirkung erzielen können. Ein Saugroboter kann den Benutzer daher bei der Reinigung von Bodenflächen zwar unterstützen, jedoch ein manuelles Staubsaugen nicht gänzlich ersetzen. Wenn aber der Benutzer nicht weiß bzw. nicht nachvollziehen kann, welche Bereiche einer vorgegebenen Bodenfläche der Saugroboter tatsächlich gereinigt hat und wie gründlich er diese gereinigt hat, wird der Benutzer, um sicher sein zu können, wesentlich größere Bereiche der Bodenfläche nochmals mit einem handgeführten Staubsauger bearbeiten als es vielleicht tatsächlich erforderlich gewesen wäre. Der Benutzer verschwendet auf diese Weise also nicht nur einen Teil seiner Zeit, sondern auch eine Menge an Energie. Zudem wird die Bodenfläche durch die mehrfache Bearbeitung unnötig strapaziert.
  • Neben den erwähnten Saugrobotern gibt es auch noch andere selbstständig agierende robotische Bodenflächenbearbeitungsgeräte wie zum Beispiel solche, die Bodenflächen kehren, wischen, schrubben, bohnern und/oder polieren können. Darüber hinaus sind zum Beispiel für den Einsatz in Gärten und Grünanlagen auch selbstständig agierende robotische Rasenmäher bekannt geworden. Auch für diese Geräte gelten zumindest einige der in Bezug auf Saugroboter beschriebenen Probleme.
  • Es ist somit eine der vorliegenden Erfindung zugrunde liegende Aufgabe, die Bearbeitung von Bodenflächen effizienter zu machen und für eine Person weiter zu vereinfachen. Insbesondere soll die Interaktion zwischen einem robotischen Bodenflächenbearbeitungsgerät und einer Person verbessert werden.
  • Erfindungsgemäß wird dieses Problem durch ein Verfahren mit den Merkmalen gemäß Patentanspruch 1, ein mobiles robotisches Bodenflächenbearbeitungsgerät mit den Merkmalen gemäß Patentanspruch 7, eine mobile Interaktionseinrichtung mit den Merkmalen gemäß Patentanspruch 9, einen Programmcode gemäß Patentanspruch 14 und eine Anordnung gemäß Patentanspruch 15 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung ergeben sich aus den jeweiligen Unteransprüchen.
  • Die mit der Erfindung erreichbaren Vorteile bestehen vor allem darin, dass die von dem Bodenflächenbearbeitungsgerät ermittelten Informationen über die Bodenfläche, insbesondere deren Umgebung sowie deren Zustand zu einem graphischen Abbild verarbeitet und an einer graphischen Anzeigeeinheit für den Benutzer graphisch dargestellt werden, und dass dabei unterschiedliche Zustandsausprägungen der Bodenfläche unterschiedliche graphisch dargestellt werden. Dadurch kann der Benutzer einfach und komfortabel erkennen, welche Bereiche der Bodenfläche welchen Zustand aufweisen. Ohne das robotische Bodenflächenbearbeitungsgerät permanent beobachtet haben zu müssen, weiß der Benutzer somit dennoch genau, welche Bodenflächenbereiche das robotische Bodenflächenbearbeitungsgerät zum Beispiel erfolgreich bearbeitet hat, und welche es nicht erfolgreich oder gar nicht bearbeitet hat bzw. bearbeiten konnte. Der Benutzer kann dann basierend auf diesen Angaben gezielt entscheiden, ob er das robotische Bodenflächenbearbeitungsgerät mit der Bearbeitung des einen oder anderen Bereichs (erneut) beauftragt oder ob er die Bearbeitung selbst, zum Beispiel mittels eines handgeführten Bodenflächenbearbeitungsgeräts, vornimmt.
  • Bei dem erfindungsgemäßen Verfahren zum Bearbeiten einer Bodenfläche kommt demnach ein mobiles robotisches Bodenflächenbearbeitungsgerät, insbesondere ein Saugroboter, zum Einsatz, und das Verfahren umfasst folgende Schritte:
    • – Ermitteln wenigstens einer ersten Informationsmenge betreffend die Umgebung und wenigstens einer zweiten Informationsmenge betreffend einen Zustand der Bodenfläche jeweils an der jeweiligen Position des auf der Bodenfläche positionierten robotischen Bodenflächenbearbeitungsgeräts mittels dessen Sensoreinrichtung,
    • – Bewegen des robotischen Bodenflächenbearbeitungsgeräts (100) auf und entlang der Bodenfläche mittels einer Fortbewegungseinrichtung,
    • – Steuern des Betriebs und Navigieren des robotischen Bodenflächenbearbeitungsgeräts mittels einer Steuerungseinrichtung unter Berücksichtigung zumindest eines Teils der ersten und/oder der zweiten Informationsmenge,
    • – Speichern der ersten und der zweiten Informationsmenge in einer Speichereinheit,
    • – Verarbeiten zumindest eines Teils der ersten und der zweiten Informationsmenge mittels einer Verarbeitungseinheit zu wenigstens einem graphischen Abbild wenigstens eines Bereichs der Bodenfläche und der Umgebung, wobei in dem graphischen Abbild unterschiedliche Ausprägungen des Zustands der Bodenfläche entsprechend unterschiedlich graphisch repräsentiert sind, und
    • – Darstellen des graphischen Abbilds mittels einer eine graphische Anzeigeeinheit umfassenden Interaktionseinrichtung für einen Benutzer.
  • Die Sensoreinrichtung kann ein oder mehrere Sensormodule umfassen, wie zum Beispiel optische und/oder akustische Abstandssensoren, Laser-Range-Scanner, Kamerasysteme, Berührungssensoren, odometrische Sensoren, Beschleunigungssensoren, SLAM-Module und/oder Schmutzpartikelsensoren.
  • Bevorzugt kommt bei dem Verfahren als Interaktionseinrichtung eine mobile bzw. tragbare Interaktionseinrichtung zum Einsatz. Sowohl das mobile robotische Bodenflächenbearbeitungsgerät als auch die mobile Interaktionseinrichtung besitzen dann jeweils eine Kommunikationseinheit zwischen denen eine insbesondere drahtlose Kommunikationsverbindung betrieben wird, über die Informationen ausgetauscht werden. Die mobile Interaktionseinrichtung kann zum Beispiel als ein Mobiltelefon, Smartphone, Tablet-Computer oder Notebook-Computer ausgebildet sein. Mit der Bedienung solcher Interaktionseinrichtungen ist der Benutzer in der Regel bereits vertraut, so dass es für ihn sehr komfortabel ist, damit auch mit dem robotischen Bodenflächenbearbeitungsgerät interagieren zu können. Wenn es sich bei dem mobilen robotischen Bodenflächenbearbeitungsgerät zum Beispiel um einen Saugroboter handelt, bekommt der Benutzer beispielsweise auf der graphischen Anzeigeeinheit seines Smartphones oder Tablet-Computers ein graphisches Abbild eines Bereichs einer Bodenfläche graphisch dargestellt und kann anhand der unterschiedlichen graphischen Darstellung erkennen, an welchen Stellen die Bodenfläche etwa noch einen verschmutzten Zustand aufweist und welchen Stellen sich die Bodenfläche bereits in einem sauberen Zustand befindet. Die als verschmutzt dargestellten Stellen kann der Benutzer dann aufsuchen und zum Beispiel gezielt mit einem handgeführten Bodenstaubsauger manuell reinigen.
  • Damit der Benutzer bei der manuellen Bearbeitung der Bodenfläche die Hände zum Arbeiten frei hat und dennoch deren graphisches Abbild bequem im Blick haben kann, ist besonders bevorzugt vorgesehen, dass die Interaktionseinrichtung als ein sogenanntes Head-Mounted-Display kurz HMD ausgebildet ist bzw. ein solches umfasst. Bei einem HMD befindet sich dann zumindest die graphische Anzeigeeinheit stets im Blickfeld des Benutzers, da sie zum Beispiel mittels einer Helm- oder Brillenartigen Halterung am Kopf tragbar ist. Gemäß einer anderen Ausgestaltung kann für eine zum Beispiel als Smartphone ausgebildete Interaktionseinrichtung eine Halterung vorgesehen sein, mittels welcher die Interaktionseinrichtung an einem Gehäuseteil eines handgeführten Bodenflächenbearbeitungsgeräts befestigbar ist. Auch auf diese Weise hat der Benutzer dann beim Staubsaugen mit dem Bodenstaubsauger die graphische Anzeigeeinheit stets im Blick, ohne das Smartphone in seiner Hand halten zu müssen.
  • Bei dem Verfahren wird das Verarbeiten der ersten und der zweiten Informationsmenge bevorzugt mittels einer Verarbeitungseinheit des robotischen Bodenflächenbearbeitungsgeräts durchgeführt. Zu dessen Entlastung von derartigen Verarbeitungsaufgaben, ist aber besonders bevorzugt vorgesehen, dass das Verarbeiten der ersten und der zweiten Informationsmenge mittels einer Verarbeitungseinheit der Interaktionseinrichtung erfolgt. In einigen Fällen kann es aber besonders vorteilhaft sein, wenn das Verarbeiten der ersten und der zweiten Informationsmenge von einer Verarbeitungseinheit einer externen Recheneinrichtung, zu der eine Kommunikationsverbindung, zum Beispiel über eine LAN-, MAN und/oder WAN-Verbindung, besteht, durchgeführt wird. Es kann zum Beispiel aus Gründen der Performance auch zweckmäßig sein, die Verarbeitung besagter Informationen auf mehrere unterschiedliche Verarbeitungseinheiten zu verteilen.
  • Bevorzugt ist vorgesehen, dass die Interaktionseinrichtung selbst auch über eine Sensoreinrichtung mit wenigstens einem Sensormodul, insbesondere einer Kamera, verfügt, und dass mittels dieser Sensoreinrichtung wenigstens eine dritte Informationsmenge betreffend die Umgebung an der jeweiligen Position der Interaktionseinrichtung ermittelt wird. Basierend darauf wird dann das Abbild desjenigen Bereichs der Bodenfläche und der Umgebung an der graphischen Anzeigeeinheit der Interaktionseinrichtung dargestellt wird, das aus der ersten und zweiten Informationsmenge verarbeitet wurde, die an derselben Position von der Sensoreinrichtung des robotischen Bodenflächenbearbeitungsgeräts ermittelt wurden. Besonders bevorzugt findet hierzu ein Vergleich von Informationen aus der dritten Informationsmenge und der ersten Informationsmenge betreffend die Umgebung statt, um darin Übereinstimmungen zu finden. Dieser Vergleich kann je nach Ausführungsform von der Verarbeitungseinheit des Bodenflächenbearbeitungsgeräts, der Interaktionseinrichtung und/oder einer externen Recheneinrichtung durchgeführt werden. Für einen Bereich der Bodenfläche, den der Benutzer zum Beispiel mit der Kamera seines Smartphones erfasst hat, bekommt er also anschließend das zugehörige graphische Abbild auf der Anzeigeeinheit des Smartphones dargestellt, so dass er anhand des Abbilds die unterschiedlichen Zustandsausprägungen einfach erkennen kann.
  • Ferner wird bevorzugt zumindest ein Teil der dritten Informationsmenge auch zu wenigstens einem weiteren graphischen Abbild wenigstens eines Bereichs der Bodenfläche und der Umgebung verarbeitet, wobei diese Verarbeitung je nach Ausführungsform von einer Verarbeitungseinheit der Interaktionseinrichtung und/oder einer Verarbeitungseinheit einer externen Recheneinrichtung durchgeführt wird, zu der eine Kommunikationsverbindung besteht. An der graphischen Anzeigeeinheit werden dann das aus der ersten und der zweiten Informationsmenge verarbeitete Abbild und das aus der dritten Informationsmenge verarbeitete Abbild gemeinsam graphisch dargestellt. Es werden also bevorzugt zwei graphische Abbilder für den gleichen Bereich einer Bodenfläche gemeinsam angezeigt, die auf Informationen beruhen, die von unterschiedlichen Sensoreinrichtungen ermittelt wurden. Das graphische Abbild, welches auf der dritten Informationsmenge basiert, wird dabei durch das graphische Abbild, welches auf der ersten und zweiten Informationsmenge beruht, ergänzt. Die beiden graphischen Abbilder können dabei nebeneinander an der graphischen Anzeigeeinheit dargestellt werden. Bevorzugter Weise wird aber das auf der ersten und der zweiten Informationsmenge basierende graphische Abbild wie eine halbtransparente Schicht über bzw. auf das auf der dritten Informationsmenge basierende graphische Abbild gelegt, und beide Abbilder werden gleichzeitig angezeigt. Dies entspricht im Wesentlichen dem Prinzip der sogenannten erweiterten Realität (engl.: augmented reality), also der Ergänzung von Bildern durch zusätzliche, insbesondere computergenerierte, Informationen.
  • Besonders bevorzugt ist bei dem Verfahren vorgesehen, dass die Interaktionseinrichtung auch über eine Eingabeeinheit verfügt, mittels welcher eine Eingabe des Benutzers als eine vierte Informationsmenge betreffend den Zustand der Bodenfläche an wenigstens einer Position erfasst wird. Es wird dann zumindest ein Teil der in der Speichereinheit des mobilen robotischen Bodenflächenbearbeitungsgeräts gespeicherten zweiten Informationsmenge mit zumindest einem Teil der vierten Informationsmenge betreffend den Zustand der Bodenfläche an der jeweiligen Position aktualisiert. Dazu wird zweckmäßiger Weise zumindest ein Teil der vierten Informationsmenge über die Kommunikationsverbindung zwischen der Interaktionseinrichtung und dem robotischen Bodenflächenbearbeitungsgerät übertragen. Der Benutzer hat dadurch die Möglichkeit bezüglich des Zustands eines Bereichs der Bodenfläche neue Informationen selbst einzugeben und damit die bisher gespeicherten Informationen zu ergänzen und/oder zu korrigieren. Hat der Benutzer zum Beispiel einen Bereich der Bodenfläche selbst bearbeitet, kann er auf diese Weise das robotische Bodenflächenbearbeitungsgerät davon in Kenntnis setzen, welches diese neuen Informationen etwa bei der Durchführung eines nächsten automatischen Bearbeitungsvorgangs berücksichtigen kann. Dadurch wird die Koordination und Abstimmung von Bearbeitungsvorgängen, von denen einige von dem robotischen Bodenflächenbearbeitungsgerät und andere manuell durch den Benutzer durchgeführt wurden, deutlich erleichtert.
  • Die hier bisher dargelegten Vorteile des erfindungsgemäßen Verfahrens und dessen bevorzugter Ausführungsformen gelten im Wesentlichen ebenso für das mobile robotische Bodenflächenbearbeitungsgerät und die mobile Interaktionseinrichtung und deren bevorzugt Ausführungsformen in entsprechender Weise, sowie für die erfindungsgemäße Anordnung, welche bei dem Verfahren zum Einsatz kommen und welche nachfolgend beschrieben werden.
  • Das erfindungsgemäße mobile robotische Bodenflächenbearbeitungsgerät umfasst eine Fortbewegungseinrichtung, die ausgebildet ist zum Bewegen des robotischen Bodenflächenbearbeitungsgeräts auf und entlang der Bodenfläche, eine Bodenbearbeitungseinrichtung und eine Sensoreinrichtung, die ausgebildet ist zum Ermitteln wenigstens einer ersten Informationsmenge betreffend die Umgebung und wenigstens einer zweiten Informationsmenge betreffend den Zustand der Bodenfläche jeweils an der jeweiligen Position des robotischen Bodenflächenbearbeitungsgeräts. Zudem umfasst das Bodenflächenbearbeitungsgerät eine Speichereinheit, die ausgebildet ist zum Speichern der ersten und der zweiten Informationsmenge, eine Kommunikationseinheit, die ausgebildet ist zum insbesondere drahtlosen Kommunizieren und Austauschen von Informationen mit einer mobilen Interaktionseinrichtung, und eine Steuerungseinrichtung, die ausgebildet ist zum Navigieren und Steuern des Betriebs des robotischen Bodenflächenbearbeitungsgeräts unter Berücksichtigung zumindest eines Teils der ersten und/oder der zweiten Informationsmenge. Dabei ist nun ferner entweder die Kommunikationseinheit ausgebildet zum Senden zumindest eines Teils der ersten und der zweiten Informationsmenge an die mobile Interaktionseinrichtung, oder aber es ist ferner eine Verarbeitungseinheit umfasst, die ausgebildet ist zum Verarbeiten zumindest eines Teils der ersten und der zweiten Informationsmenge zu wenigstens einem graphischen Abbild wenigstens eines Bereichs der Bodenfläche und der Umgebung, wobei in dem graphischen Abbild unterschiedliche Ausprägungen des Zustands der Bodenfläche entsprechend unterschiedlich graphisch repräsentiert sind, und die Kommunikationseinheit ist ausgebildet zum Senden des grafischen Abbilds an die mobile Interaktionseinrichtung.
  • Gemäß einer bevorzugten Ausführungsform ist die Kommunikationseinheit des mobilen robotischen Bodenflächenbearbeitungsgeräts zudem ausgebildet zum Empfangen von der Interaktionseinrichtung zumindest eines Teils einer vierten Informationsmenge betreffend den Zustand der Bodenfläche an wenigstens einer Position, wobei die Steuerungseinrichtung zudem ausgebildet ist zum Aktualisieren zumindest eines Teils der in der Speichereinheit gespeicherten zweiten Informationsmenge mit zumindest einem Teil der vierten Informationsmenge betreffend den Zustand der Bodenfläche an der jeweiligen Position.
  • Die erfindungsgemäße mobile Interaktionseinrichtung umfasst eine Kommunikationseinheit, die ausgebildet ist zum insbesondere drahtlosen Kommunizieren und Austauschen von Informationen mit einem mobilen robotischen Bodenflächenbearbeitungsgerät, eine graphische Anzeigeeinheit, eine Speichereinheit und eine Steuerungseinrichtung, die ausgebildet ist zum Steuern des Betriebs und des Zusammenwirkens der Einheiten und Einrichtungen der mobilen Interaktionseinrichtung. Dabei ist nun ferner entweder die Kommunikationseinheit ausgebildet zum Empfangen von dem mobilen robotischen Bodenflächenbearbeitungsgerät zumindest eines Teils einer ersten Informationsmenge betreffend die Umgebung und zumindest eines Teils einer zweiten Informationsmenge betreffend einen Zustand einer Bodenfläche jeweils an einer Position, und eine Verarbeitungseinheit umfasst, die ausgebildet ist zum Verarbeiten zumindest eines Teils der ersten und der zweiten Informationsmenge zu wenigstens einem graphischen Abbild wenigstens eines Bereichs der Bodenfläche und der Umgebung, wobei in dem graphischen Abbild unterschiedliche Ausprägungen des Zustands der Bodenfläche entsprechend unterschiedlich graphisch repräsentiert sind, oder aber es ist ferner die Kommunikationseinheit ausgebildet zum Empfangen von dem mobilen robotischen Bodenflächenbearbeitungsgerät wenigstens eines grafischen Abbilds wenigstens eines Bereichs einer Bodenfläche und der Umgebung. Die graphische Anzeigeeinheit der mobilen Interaktionseinrichtung ist jedenfalls ausgebildet zum graphischen Darstellen bzw. Anzeigen des aus den empfangenen Informationen verarbeiteten graphischen Abbilds oder des empfangenen graphischen Abbilds für einen Benutzer.
  • Bevorzugt umfasst die mobile Interaktionseinrichtung ferner eine Sensoreinrichtung, die ausgebildet ist zum Ermitteln wenigstens einer dritten Informationsmenge betreffend die Umgebung an der jeweiligen Position der Interaktionseinrichtung. Dabei ist die graphische Anzeigeeinheit bevorzugt ausgebildet zum graphischen Darstellen des graphischen Abbilds desjenigen Bereichs der Bodenfläche und der Umgebung, das aus zumindest jeweils einem Teil der ersten und der zweiten Informationsmenge verarbeitet wurde, die an derselben Position von der Sensoreinrichtung des robotischen Bodenflächenbearbeitungsgeräts ermittelt wurden.
  • Besonders bevorzugt ist die Verarbeitungseinheit der mobilen Interaktionseinrichtung ausgebildet zum Verarbeiten zumindest eines Teils der dritten Informationsmenge zu wenigstens einem weiteren graphischen Abbild wenigstens eines Bereichs der Bodenfläche und der Umgebung. Dabei ist dann die Anzeigeeinheit bevorzugt ausgebildet zum gemeinsamen graphischen Darstellen wenigstens zweier graphischer Abbilder desselben Bereichs der Bodenfläche und der Umgebung, von denen das eine Abbild aus zumindest einem Teil der dritten Informationsmenge verarbeitet wurde und das andere Abbild aus zumindest jeweils einem Teil der ersten und der zweiten Informationsmenge verarbeitet wurde.
  • Gemäß einer weiteren Ausführungsform umfasst die mobile Interaktionseinrichtung eine Eingabeeinheit, die ausgebildet ist zum Erfassen einer Eingabe des Benutzers als eine vierte Informationsmenge betreffend den Zustand der Bodenfläche an wenigstens einer Position, wobei die Kommunikationseinheit ausgebildet ist zum Senden zumindest eines Teils der vierten Informationsmenge an das mobile robotische Bodenflächenbearbeitungsgerät.
  • Bevorzugt ist die mobile Interaktionseinrichtung als Mobiltelefon, Smartphone, Tablet-Computer, Notebook-Computer ausgebildet. Sie kann auch als Head-Mounted-Display ausgebildet sein oder ein solches umfassen.
  • Besonders bevorzugt ist in der Speichereinheit der mobilen Interaktionseinrichtung ein Programmcode gespeichert. Dabei ist die Steuerungseinrichtung ferner dazu ausgebildet, den in der Speichereinheit gespeicherten Programmcode auszuführen und den Betrieb der mobilen Interaktionseinrichtung und das Zusammenwirken der Einheiten und Einrichtungen der mobilen Interaktionseinrichtung gemäß den in dem Programmcode enthaltenen Befehle zu steuern.
  • Der erfindungsgemäße Programmcode umfasst also Befehle zum Steuern des Betriebs und des Zusammenwirkens von Einheiten und Einrichtungen einer mobilen Interaktionseinrichtung, und er ist geeignet zur Speicherung in einer Speichereinheit der mobilen Interaktionseinrichtung sowie zur Ausführung durch eine Steuerungseinrichtung der mobilen Interaktionseinrichtung. Somit sind bestimmte Eigenschaften und Funktionen der Interaktionseinrichtung anpassbar, erweiterbar und/oder aktualisierbar indem ein geeigneter Programmcode mit entsprechenden Befehlen in der Speichereinheit gespeichert ist, der durch die Steuerungseinrichtung ausführbar ist. Ein solcher Programmcode kann daher bereits bei der Herstellung der Interaktionseinrichtung in deren Speichereinheit hinterlegt werden und/oder er kann auch zum Beispiel auf einer Servereinrichtung im Internet bereitstehen und zu einem späteren Zeitpunkt, insbesondere vom Benutzer selbst, über eine Kommunikationsverbindung in die Speichereinheit geladen werden.
  • Eine erfindungsgemäße Anordnung zur Durchführung des Verfahrens zur Bodenflächenbearbeitung umfasst ein mobiles robotisches Bodenflächenbearbeitungsgerät und eine mobile Interaktionseinrichtung, wie sie bereits beschreiben wurden bzw. auch nachfolgend noch weiter beschrieben werden. Zweckmäßiger Weise besitzen das robotische Bodenflächenbearbeitungsgerät und die Interaktionseinrichtung jeweils eine Kommunikationseinheit, zwischen denen sie wenigstens eine insbesondere drahtlose Kommunikationsverbindung aufbauen und betreiben können, um Informationen insbesondere bezüglich der zu bearbeitenden Bodenfläche auszutauschen.
  • Diese und weitere Merkmale und Vorteile der Erfindung ergeben sich auch aus der nachfolgenden näheren Beschreibung von Ausführungsbeispielen der Erfindung, die in den beiliegenden Zeichnungen rein schematisch dargestellt. Es zeigt
  • 1 ein als Saugroboter ausgebildetes mobiles robotisches Bodenflächenbearbeitungsgerät in einer skizzierten Schnittdarstellung;
  • 2 eine Anordnung mit einem als Saugroboter ausgebildeten mobilen robotischen Bodenflächenbearbeitungsgerät und einer als Smartphone ausgebildeten mobilen Interaktionseinrichtung;
  • 3 eine als Head-Mounted-Display ausgebildete mobile Interaktionseinrichtung;
  • 4, 5, 6 eine als Tablet-Computer ausgebildete mobile Interaktionseinrichtung mit einer graphischen Anzeigeeinheit an der verschiedene graphische Abbilder einer Bodenfläche dargestellt werden.
  • Die 1 zeigt ein als Saugroboter ausgebildetes mobiles robotisches Bodenflächenbearbeitungsgerät 100 mit einem Gehäuse 101. Der Saugroboter 100 besitzt eine Fortbewegungseinrichtung 170 mit einem Antriebsmotor 171, Antriebsrädern 172, von denen nur eins in der Figur zu sehen ist, und einem Stützrad 173. Die Antriebsräder 172 sind unabhängig voneinander antreibbar, so dass der Saugroboter beliebige Bewegungen auf und entlang der Bodenfläche 300 ausführen kann. Als Bodenbearbeitungseinrichtung 180 besitzt der Saugroboter 100 eine durch einen Bürstenantrieb 182 angetriebene rotierende Bürste 181, die im Bereich des Saugmundes 183 eines Saugkanals 184 angeordnet ist. Die Saugwirkung wird durch ein Sauggebläse 185 erzeugt, welches über einen Schmutzsammelbehälter 186 mit dem Saugkanal in Verbindung steht. Während eines Bearbeitungsvorgangs von der Bodenfläche 300 eingesaugte Schmutzpartikel gelangen über den Saugkanal 184 in den Schmutzsammelbehälter 186, wo sie zunächst verbleiben. In dem Saugkanal 184 ist als Teil der Sensoreinrichtung 140 ein Sensormodul 142 angeordnet, welches einen Schmutzpartikelsensor umfasst, um zum Beispiel Informationen über die eingesaugte Schmutzmenge zu erfassen und daraus den Verschmutzungsgrad der Bodenfläche zu ermitteln. Zu der Sensoreinrichtung 140 gehört ferner das Sensormodul 141, welches eine Kamera umfasst, um zum Beispiel die Umgebung des Saugroboters 100 optisch zu erfassen und Informationen über Hindernisse zu ermitteln. Die mittels des Sensormoduls 141 ermittelten Informationen gehören zu einer ersten Informationsmenge betreffend die Umgebung, während die mittels des Sensormoduls 142 ermittelten Informationen zu einer zweiten Informationsmenge betreffend den Zustand der Bodenfläche gehören. Die Sensoreinrichtung 140 umfasst noch weitere Sensormodule, die hier nicht dargestellt sind, insbesondere ein SLAM-Modul mit Abstandssensoren, Berührungssensoren, odometrischen Sensoren und/oder Beschleunigungssensoren. Die von der Sensoreinrichtung 140 erfassten oder ermittelten Informationen beziehen sich jeweils auf eine bestimmte Position, das heißt zum Beispiel zu einer Information bezüglich eines Hindernisses in der Umgebung oder eines Zustands der Bodenoberfläche gehört immer auch eine Positionsangabe, zum Beispiel in Form von Koordinaten.
  • Zudem umfasst der Saugroboter 100 eine Speichereinheit 130 zum Speichern der erfassten bzw. ermittelten Informationsmengen. Eine Steuerungseinrichtung 110 des Saugroboters 100 ist ausgebildet zum Navigieren und Steuern des Betriebs des Saugroboters unter Berücksichtigung zumindest eines Teils der ersten und/oder der zweiten Informationsmenge. Die Steuerungseinrichtung 110 umfasst ferner eine Verarbeitungseinheit 120, die ausgebildet ist zum Verarbeiten zumindest eines Teils der ersten und der zweiten Informationsmenge zu wenigstens einem graphischen Abbild wenigstens eines Bereichs der Bodenfläche 300 und der Umgebung. Innerhalb dieses von der Verarbeitungseinheit erstellten graphischen Abbilds sind unterschiedliche Ausprägungen des Zustands der Bodenfläche 300 entsprechend unterschiedlich graphisch repräsentiert, das heißt zum Beispiel das saubere Bereiche anders dargestellt sind als schmutzige Bereiche oder bearbeitete Bereiche anders dargestellt sind als unbearbeitete Bereiche der Bodenfläche. Über eine Kommunikationseinheit 150 des Saugroboters, kann das erstellte graphische Abbild dann an eine mobile Interaktionseinrichtung 200 gesendet werden, die weiter unten noch genauer beschrieben wird. Über die Kommunikationseinheit 150 können auch Informationen von der mobilen Interaktionseinrichtung 200 empfangen werden, insbesondere zumindest ein Teils einer vierten Informationsmenge betreffend den Zustand der Bodenfläche 300. Die Steuerungseinrichtung 110 kann dann zumindest einen Teil der in der Speichereinheit 130 gespeicherten zweiten Informationsmenge mit zumindest einem Teil der empfangenen vierten Informationsmenge aktualisieren.
  • Weitere für den Betrieb des Saugroboters 100 vorhandene Elemente, beispielsweise eine wiederaufladbare Batterie zur Stromversorgung und Ladeanschlüsse für die Batterie, sind in der 1 aus Gründen der Übersichtlichkeit nicht wiedergegeben.
  • Die 2 zeigt eine Anordnung mit einem als Saugroboter ausgebildeten mobilen robotischen Bodenflächenbearbeitungsgerät 100 und einer als Smartphone ausgebildeten mobilen Interaktionseinrichtung 200. Der Saugroboter 100 ist im wesentlichen aufgebaut, wie bezüglich 1 bereits beschrieben, aus Gründen der Übersichtlichkeit sind jedoch einige Elemente des Saugroboters 100 in 2 nicht mehr dargestellt.
  • Das Smartphone 200 umfasst eine Kommunikationseinheit 250, mittels welcher eine drahtlose Kommunikationsverbindung zu der Kommunikationseinheit 150 des Saugroboters 100 bereitgestellt werden kann, so dass der Saugroboter 100 und das Smartphone 200 miteinander kommunizieren und insbesondere Informationen bezüglich der zu bearbeitenden Bodenfläche 300 austauschen können. Ferner besitzt das Smartphone 200 eine graphische Anzeigeeinheit 260, eine Speichereinheit 230 und eine Steuerungseinrichtung 210.
  • Dank der Kommunikationseinheit 250 kann das Smartphone 200 von dem Saugroboter 100 auch das von dessen Verarbeitungseinheit 120 erstellte wenigstens eine grafische Abbild eines Bereichs der Bodenfläche 300 und der Umgebung empfangen. An der graphischen Anzeigeeinheit 260 ist das graphische Abbild dann darstellbar. Die Steuerungseinrichtung 210 ist steuert den Betrieb und das Zusammenwirken der Einheiten und Einrichtungen des Smartphones 200, wobei in der Speichereinheit 230 ein Programmcode gespeichert ist, den die Steuerungseinrichtung 210 ausführt und das Smartphone gemäß den in dem Programmcode enthaltenen Befehle steuert. Der Programmcode kann zum Beispiel in Form einer sogenannten App in der Speichereinheit 230 gespeichert sein.
  • Das in 2 gezeigte Smartphone 200 besitzt ferner eine Sensoreinrichtung 240 und eine Eingabeeinheit 290. Die Sensoreinrichtung 240 umfasst dabei ein Sensormodul 241 mit einer Kamera, um zum Beispiel die Umgebung des Smartphones 200 optisch zu erfassen und Informationen ermitteln, die eine dritte Informationsmenge bilden. Die Eingabeeinheit 290 ist hier als Tastatur ausgebildet, mittels welcher eine Eingabe des Benutzers erfasst werden kann, wobei diese Eingabe dann eine vierte Informationsmenge bildet.
  • Mittels des Kommunikationseinheit 250 kann zumindest eines Teils der vierten Informationsmenge an den Saugroboter 100 übermittelt werden. Ferner ist eine von der Steuerungseinrichtung 210 umfasste Verarbeitungseinheit 220 vorhanden, die zumindest einen Teil der dritten Informationsmenge zu wenigstens einem weiteren graphischen Abbild eines Bereichs der Bodenfläche 300 und der Umgebung verarbeiten kann, wobei auch dieses graphische Abbild an der graphischen Anzeigeeinheit 260 darstellbar ist.
  • Die 3 zeigt eine als sogenanntes Head-Mounted-Display, kurz HMD, ausgebildete mobile Interaktionseinrichtung 200. Solche HMD gibt es in verschiedenen Ausführungen. Das HMD 200 gemäß 3 kann ähnlich wie eine herkömmliche Brille am Kopf getragen werden und besitzt eine Anzeigeeinheit 260, die, wenn der Benutzer das HMD 200 trägt, sich wenige Zentimeter vor dem Auge des Benutzers befindet. Das HMD 200 besitzt ferner eine Kommunikationseinheit 250, eine Speichereinheit 230, eine Steuerungseinrichtung 210, eine Verarbeitungseinheit 220 und eine Sensoreinrichtung 240, die ein Sensormodul mit einer Kamera umfasst. Diese Einheiten und Einrichtungen des HMD 200 sind mit den entsprechenden Einheiten und Einrichtungen des Smartphones 200 gemäß 2 vergleichbar und funktionieren im Wesentlichen ebenso. Als Eingabeeinheit 290 besitzt das HMD 200 jedoch keine Tastatur sondern ein Mikrophon, um Sprachbefehle des Benutzers entgegennehmen zu können. Außerdem kann auch die Kamera der Sensoreinrichtung 240 als Eingabeeinrichtung dienen, indem sie Gesten erfasst, die der Benutzer in vorbestimmter Weise mit seiner Hand oder seinen Händen vollzieht, wobei jede Geste einem Befehl zugeordnet ist.
  • In einem anderem, nicht dargestellten Ausführungsbeispiel kann ein HMD zumindest ohne Speichereinheit und Verarbeitungseinheit ausgebildet sein. Das HMD wirkt dann mit einer anderen Interaktionseinrichtung, zum Beispiel einem Smartphone, zusammen, wobei zwischen HMD und Smartphone eine vorzugsweise drahtlose Kommunikationsverbindung besteht.
  • Die 4 bis 6 zeigen eine als Tablet-Computer ausgebildete mobile Interaktionseinrichtung 200. Der Tablet-Computer 200 besitzt einen sogenannten Touchscreen, also ein berührungsempfindliches Display. Der Touchscreen fungiert somit sowohl als graphische Anzeigeeinheit 260 als auch als Eingabeeinheit 290. Wie das Smartphone 200 gemäß 2 besitzt auch der Tablet-Computer 200 gemäß der 4 bis 6 eine Kommunikationseinheit, eine Speichereinheit, eine Steuerungseinrichtung, eine Verarbeitungseinheit und eine Sensoreinrichtung, die ein Sensormodul mit einer Kamera umfasst, wobei diese Einheiten und Einrichtungen in den 4 bis 6 nicht dargestellt sind, jedoch mit den entsprechenden Einheiten und Einrichtungen des Smartphones 200 gemäß 2 vergleichbar sind und im Wesentlichen ebenso wie diese funktionieren.
  • Auf der als Touchscreen ausgebildeten Anzeigeeinheit 260 des Tablet-Computers 200 wird ein graphisches Abbild eines Bereichs der Bodenfläche 300 und der Umgebung angezeigt. Das graphische Abbild ist ähnlich einer Karte oder einem Grundriss gestaltet und zeigt Wände, Fenster, Türen, Möbel und andere Einrichtungsgegenstände an, die der Saugroboter 100 erfasst hat. Ferner zeigt das Abbild verschmutze und/oder nicht gereinigte Bereiche der Bodenfläche 300 besonders hervorgehoben an. In 5 erfolgt an der als Touchscreen ausgebildeten Eingabeeinheit 290 eine Benutzereingabe. In der 6 wird dann ein aufgrund der Benutzereingabe aktualisiertes graphisches Abbild an der Anzeigeeinheit 260 des Tablet-Computers 200 angezeigt.
  • Unter Bezugnahme auf die 1 bis 6 wird nachfolgend eine bevorzugte Variante des erfindungsgemäßen Verfahrens zum Bearbeiten einer Bodenfläche 300 näher beschrieben:
    Bei dem Verfahren kommt ein mobiles robotisches Bodenflächenbearbeitungsgerät 100 zum Einsatz, welches hier als Saugroboter ausgebildet ist. Der Saugroboter 100 befindet sich auf der Bodenfläche 300, die gereinigt werden soll, und ermittelt an seiner aktuellen Position eine erste Informationsmenge betreffend die Umgebung und eine zweite Informationsmenge betreffend einen Zustand der Bodenfläche 300 mittels der Sensoreinrichtung 140. Die erste Informationsmenge umfasst dabei Angaben hinsichtlich Wände, Türen, Möbel und sonstiger Hindernisse, die erkannt werden konnten. Die zweite Informationsmenge umfasst Angaben hinsichtlich Zustandsparametern der Bodenfläche 300 wie zum Beispiel Verschmutzungsgrad, Material und Oberflächenstruktur.
  • Mittels seiner Fortbewegungseinrichtung 170 bewegt sich der Saugroboter 100 auf und entlang der Bodenfläche 300. An mehreren verschiedenen Positionen ermittelt er wiederum eine erste und eine zweite Informationsmenge. Unter Berücksichtigung zumindest eines Teils der ersten und/oder der zweiten Informationsmenge steuert die Steuerungseinrichtung 110 dabei den Betrieb des Saugroboters und navigiert ihn über die Bodenfläche 300. Die erfassten bzw. ermittelten Informationsmengen werden in der Speichereinheit 130 abgelegt. Zumindest ein Teil der ersten und der zweiten Informationsmenge wird mittels der Verarbeitungseinheit 120 zu einem graphischen Abbild eines Bereichs der Bodenfläche 300 und der Umgebung verarbeitet. Ein Bereich der Bodenfläche und Umgebung kann dabei zum Beispiel einen Raum, eine Wohnung oder eine Etage eines Gebäudes entsprechen. Das graphische Abbild repräsentiert dieses Bereich zum Beispiel in Form einer Karte oder eines Grundrisses. Bei der Verarbeitung können auch weitere Informationen einbezogen werden, zum Beispiel Erfahrungswerte, nach denen die Strecke zwischen zwei Türen eines Raumes oft von Personen begangen wird und besonderes verunreinigt sein kann. Ferner können bei der Verarbeitung zusätzliche Informationen berechnet werden, zum Beispiel wird der erfasste bereits bearbeitete Bereich der Bodenfläche von der Gesamtbodenfläche subtrahiert, um den noch unbearbeiteten und potenziell verunreinigten Bereich der Bodenfläche zu ermitteln. Die Gesamtbodenfläche kann bei früheren Bearbeitungsvorgängen bereits ermittelt und die diese Information in der Speichereinheit abgelegt worden sein.
  • Innerhalb des graphischen Abbilds werden die erkannten Begrenzungen und Hindernisse bezüglich eines Bereichs der Bodenfläche 300 dargestellt und es werden unterschiedliche Ausprägungen des Zustands der Bodenfläche entsprechend unterschiedlich graphisch repräsentiert. Zum Beispiel werden Bereiche der Bodenfläche, die noch verunreinigt sind und/oder nicht gereinigt werden konnten mittels Symbolen, Farben oder Mustern gegenüber anderen Bereichen hervorgehoben dargestellt. Das erstellt graphische Abbild, welches sozusagen die ermittelten Informationen zu einem Bereich der Bodenfläche graphisch aufbereitet zusammenfasst, wird dann mittels einer eine graphische Anzeigeeinheit 260 umfassenden Interaktionseinrichtung 200 für einen Benutzer angezeigt. Bei der Interaktionseinrichtung 200 kann es sich um ein Smartphone wie in 2, um ein HMD wie in 3 oder einen Tablet-Computer wie in den 4 bis 6 handeln. Die Interaktionseinrichtung 200 kann aber auch als Notebook-Computer, Mobiltelefon oder Smart-TV ausgebildet sein, wobei diese Beispiele in den Figuren nicht gezeigt sind.
  • Sowohl der Saugroboter 100 als auch die jeweilige Interaktionseinrichtung 200 besitzen eine Kommunikationseinheit 150 bzw. 250, mittels welcher eine drahtlose Kommunikationsverbindung betrieben wird, über welche dann erstellte graphische Abbilder, zumindest Teile der ersten und/oder der zweiten Informationsmenge und/oder weitere Informationen ausgetauscht werden.
  • Anhand des angezeigten graphischen Abbilds eines Bereichs der Bodenfläche 300 kann der Benutzer dann erkennen, an welchen Stellen die Bodenfläche etwa noch einen verschmutzten oder unbearbeiteten Zustand aufweist und an welchen Stellen sich die Bodenfläche bereits in einem sauberen Zustand befindet. Die als verschmutzt dargestellten Stellen kann der Benutzer dann aufsuchen und zum Beispiel gezielt mit einem handgeführten Bodenstaubsauger (nicht in den Figuren gezeigt) manuell reinigen.
  • Wenn als mobile Interaktionseinrichtung 200 ein HMD eingesetzt wird, hat das für den Benutzer den zusätzlichen Vorteil, dass er bei der manuellen Bearbeitung der Bodenfläche 300 die Hände zum Arbeiten frei hat und dennoch deren graphisches Abbild bequem im Blick haben kann, da er das HMD wie eine Brille am Kopf tragen kann. Wenn als mobile Interaktionseinrichtung 200 ein Smartphone oder ein Mobiltelefon eingesetzt wird, kann dieses mittels einer zusätzlichen Halterung (nicht in den Figuren gezeigt) zum Beispiel am Saugrohr oder Handgriff des handgeführten Staubsaugers befestigt werden, so dass der Benutzer auch in diesem Fall die Interaktionseinrichtung nicht von Hand halten muss und die graphische Anzeige stets bequem im Blick hat.
  • Wie bereits erwähnt, wird das Verarbeiten der ermittelten Informationen zu einem graphischen Abbild mittels der Verarbeitungseinheit 120 des Saugroboters 100 durchgeführt. Alternativ kann aber auch vorgesehen sein, dass diese Aufgabe mittels der Verarbeitungseinheit 220 der Interaktionseinrichtung 200 erfolgt. Die Verarbeitungseinheit 120 kann dann leistungsschwächer ausgelegt sein oder sogar ganz entfallen. Über die Kommunikationsverbindung zwischen den Kommunikationseinheiten 150 und 250 werden dann die ermittelten Informationen, also zumindest Teile der ersten und der zweiten Informationsmenge vom Saugroboter 100 an die Interaktionseinrichtung 200 übertragen, wo sie dann mittels der Verarbeitungseinheit 220 zu wenigstens einem graphischen Abbild verarbeitet werden. In einer anderen Alternative kann aber auch vorgesehen sein, diese Verarbeitung von einer Verarbeitungseinheit einer externen Recheneinrichtung (nicht in den Figuren gezeigt), zu der ebenfalls eine Kommunikationsverbindung besteht, durchgeführt wird. Die externe Recheneinrichtung kann zum Beispiel ein Server, insbesondere ein Cloud-Server, im Internet sein. Die vom Saugroboter ermittelten Informationen, also zumindest Teile der ersten und der zweiten Informationsmenge, werden dabei vom Saugroboter 100 oder von der Interaktionseinrichtung 200 an die externe Recheneinrichtung übertragen, die dann das daraus erstellte graphische Abbild zurück überträgt.
  • Da die Interaktionseinrichtung 200 mobil, das heißt tragbar bzw. transportabel, ist, kann der Benutzer sich mit ihr frei zum Beispiel auf einem Bereich dem Bodenfläche 300 bewegen. Damit der Benutzer auf der graphischen Anzeigeeinheit 260 genau das graphische Abbild des Bodenflächenbereichs angezeigt bekommt, auf der er sich selbst aktuell befindet, ist insbesondere Folgendes bei dem Verfahren vorgesehen: Mittels der Sensoreinrichtung 240, über welche die Interaktionseinrichtung 200 verfügt, und welche zum Beispiel ein Sensormodul 241 mit einer Kamera umfasst, wird eine dritte Informationsmenge betreffend die Umgebung an der jeweiligen Position der Interaktionseinrichtung 200, die auch der Position des Benutzers entspricht, ermittelt. Diese dritte Informationsmenge umfasst dabei zum Beispiel Angaben hinsichtlich Wände, Türen, Möbel, Art der Bodenoberfläche. Basierend auf zumindest einem Teil der dritten Informationsmenge wird dann das graphische Abbild desjenigen Bereichs der Bodenfläche 300 und der Umgebung an der graphischen Anzeigeeinheit 260 dargestellt, das zumindest aus einem Teil der ersten und der zweiten Informationsmenge verarbeitet wurde, die an derselben Position von der Sensoreinrichtung 140 des Saugroboters 100 ermittelt wurden. Hierzu findet ein Vergleich von Informationen aus der dritten Informationsmenge und der ersten Informationsmenge betreffend die Umgebung statt, um darin Übereinstimmungen zu finden. Die dafür erforderlichen Informationen sind entweder der Speichereinheit 230 oder der Speichereinheit 130 gespeichert und können von dort abgerufen werden. Der Vergleich kann je nach Ausführungsform von der Verarbeitungseinheit 120 des Saugroboters 100, der Verarbeitungseinheit 220 der Interaktionseinrichtung 200 und/oder der Verarbeitungseinheit einer externen Recheneinrichtung durchgeführt werden. Für einen Bereich der Bodenfläche, den der Benutzer zum Beispiel mit der Kamera seines Smartphones erfasst hat, bekommt er also anschließend das zugehörige graphische Abbild auf der Anzeigeeinheit des Smartphones dargestellt, so dass er anhand des Abbilds die unterschiedlichen Zustandsausprägungen der Bodenfläche 300 einfach erkennen kann.
  • Vorzugsweise wird die dritte Informationsmenge nicht nur für den Abgleich mit der ersten Informationsmenge herangezogen, sondern es wird zum Beispiel von der Verarbeitungseinheit 220 zumindest ein Teil der dritten Informationsmenge zu wenigstens einem weiteren graphischen Abbild eines Bereichs der Bodenfläche 300 und der Umgebung verarbeitet. An der graphischen Anzeigeeinheit 260 werden dann das aus der ersten und der zweiten Informationsmenge verarbeitete Abbild und das aus der dritten Informationsmenge verarbeitete Abbild gemeinsam graphisch dargestellt, wobei beide Abbilder den gleichen Bereich der Bodenfläche 300 repräsentieren. Es werden also bevorzugt zwei graphische Abbilder für den gleichen Bereich einer Bodenfläche gemeinsam angezeigt, die auf Informationen beruhen, die von unterschiedlichen Sensoreinrichtungen ermittelt wurden. Das graphische Abbild, welches auf der dritten Informationsmenge basiert, wird dabei durch das graphische Abbild, welches auf der ersten und zweiten Informationsmenge beruht, ergänzt. Die beiden graphischen Abbilder können dabei nebeneinander an der graphischen Anzeigeeinheit dargestellt werden. Besonders bevorzugt wird aber das auf der ersten und der zweiten Informationsmenge basierende graphische Abbild wie eine halbtransparente Schicht über bzw. auf das auf der dritten Informationsmenge basierende graphische Abbild gelegt, und beide Abbilder werden gleichzeitig, sozusagen als ein aggregiertes graphisches Abbild angezeigt. Dies entspricht im Wesentlichen dem Prinzip der sogenannten erweiterten Realität (engl.: augmented reality), also der Ergänzung von Bildern der Umwelt durch zusätzliche, insbesondere computergenerierte, Informationen. Besonders vorteilhaft ist dieses Verfahrensmerkmal, wenn der Benutzer als Interaktionseinrichtung 200 ein HMD trägt (vgl. 3) oder ein Smartphone vor sich hat (vgl. 2), mit dessen Sensoreinrichtung 240 er einen bestimmten Bereich der Bodenfläche 300 erfasst. An der Anzeigeeinheit sieht der Benutzer dann das zugehörige aggregierte graphische Abbild, das zusätzlich auf Informationen beruht, die weder die Sensoreinrichtung 240 noch der Benutzer mit bloßem Auge ermitteln konnte, sondern die von der Sensoreinrichtung 140 bzw. der Verarbeitungseinheit 120 des Saugroboters ermittelt wurden.
  • Mittels der Eingabeeinheit 290 der Interaktionseinrichtung, welche zum Beispiel als Tastatur, Touchscreen, Mikrofon oder Kamera ausgebildet ist, kann eine Eingabe des Benutzers erfasst werden. Diese Benutzereingabe kann zum Beispiel einen Befehl an den Saugroboter 100 umfassen, einen bestimmten Bereich der Bodenfläche 300 zu bearbeiten. Ist die Anzeigeeinheit 260 zum Beispiel als Touchscreen ausgebildet (vgl. 4 bis 6), kann der Benutzer direkt aus dem angezeigten graphischen Abbild eine bestimmte Stelle der Bodenfläche, die als noch unbearbeitet und/oder verschmutzt hervorgehoben dargestellt ist, durch Antippen mit dem Finger auswählen (vgl. 5). Der Saugroboter 100 steuert dann diese bestimmte Stelle der Bodenfläche an und bearbeitet sie mit seiner Bodenbearbeitungseinrichtung 180. Anschließend übermittelt der Saugroboter 100 mittels der Kommunikationseinheit 150 aktualisierte Informationen bezüglich des Zustands der Bodenfläche oder ein aktualisiertes graphisches Abbild, das die Verarbeitungseinheit 120 erstellt hat, an die Kommunikationseinheit 250 der Interaktionseinrichtung 200, deren Verarbeitungseinheit 220 dann ein aktualisiertes graphisches Abbild aus den erhaltenen Informationen erstellt und/oder deren Anzeigeeinheit 260 das aktualisierte Abbild graphisch darstellt (vgl. 6).
  • Die mittels der Eingabeeinheit 290 erfasste Benutzereingabe kann aber auch eine direkte Information betreffend den Zustand der Bodenfläche (300) an einer bestimmten Position sein. Derartige Informationen gehören zu einer vierten Informationsmenge. Ist die Anzeigeeinheit 260 zum Beispiel als Touchscreen ausgebildet (vgl. 4 bis 6), kann der Benutzer direkt aus dem angezeigten graphischen Abbild eine bestimmte Stelle der Bodenfläche, die als noch unbearbeitet und/oder verschmutzt hervorgehoben dargestellt ist, durch Antippen mit dem Finger auswählen (vgl. 5), um eine eine aktuelle Zustandsinformation einzugeben. Es wird dann zumindest ein Teil der in der Speichereinheit 130 des Saugroboters gespeicherten zweiten Informationsmenge mit zumindest einem Teil der vierten Informationsmenge betreffend den Zustand der Bodenfläche 300 an der jeweiligen Position aktualisiert. Dazu wird zweckmäßiger Weise zumindest ein Teil der vierten Informationsmenge über die Kommunikationsverbindung zwischen der Kommunikationseinheit 250 der Interaktionseinrichtung 200 und der Kommunikationseinheit 150 des Saugroboters übertragen. Anschließend übermittelt der Saugroboter 100 mittels der Kommunikationseinheit 150 ein aktualisiertes graphisches Abbild, das die Verarbeitungseinheit 120 erstellt hat, an die Kommunikationseinheit 250 der Interaktionseinrichtung 200, deren Anzeigeeinheit 260 das aktualisierte Abbild graphisch darstellt (vgl. 6). Alternativ kann Verarbeitungseinheit 220 selbst ein aktualisiertes graphisches Abbild erstellen, in welchem die vom Benutzer eingegebene Information berücksichtigt ist. Der Benutzer hat dadurch die Möglichkeit bezüglich des Zustands eines Bereichs der Bodenfläche neue Informationen selbst einzugeben und damit die bisher gespeicherten Informationen zu ergänzen und/oder zu korrigieren. Hat der Benutzer zum Beispiel einen Bereich der Bodenfläche selbst bearbeitet, kann er auf diese Weise den Saugroboter 100 davon in Kenntnis setzen, wobei der Saugroboter diese neuen Informationen auch zum Beispiel bei der Durchführung eines nächsten automatischen Bearbeitungsvorgangs berücksichtigen kann.
  • In der Speichereinheit 230 der mobilen Interaktionseinrichtung 200 ist ein Programmcode gespeichert, die von der Steuerungseinrichtung 210 geladen wird und dessen Befehle von der Steuerungseinrichtung 210 ausgeführt werden, woraufhin die Steuerungseinrichtung 210 den Betrieb der mobilen Interaktionseinrichtung und das Zusammenwirken der Einheiten und Einrichtungen der mobilen Interaktionseinrichtung gemäß der in dem Programmcode enthaltenen Befehle steuert. Somit sind bestimmte Eigenschaften und Funktionen der Interaktionseinrichtung anpassbar, erweiterbar und/oder aktualisierbar, indem ein geeigneter Programmcode mit entsprechenden Befehlen in der Speichereinheit hinterlegt wird, der durch die Steuerungseinrichtung 210 ausführbar ist. Ein solcher Programmcode kann daher bereits bei der Herstellung der Interaktionseinrichtung 200 in deren Speichereinheit 230 hinterlegt werden und/oder er kann auch zum Beispiel auf einer Servereinrichtung, insbesondere einem Cloud-Server, im Internet bereitstehen und zu einem späteren Zeitpunkt, insbesondere vom Benutzer selbst, über eine Kommunikationsverbindung in die Speichereinheit 230 geladen werden.
  • In der Beschreibung von Ausführungsbeispielen anhand der 1 bis 6 war als mobiles Bodenflächenbearbeitungsgerät ein Saugroboter vorgesehen. Es versteht sich, dass die Erfindung ebenso mit anderen Bodenflächenbearbeitungsgeräte ausführbar ist, wie zum Beispiel mit robotischen Geräten, die Bodenflächen kehren, wischen, schrubben, bohnern und/oder polieren können. Auch mit einem robotischen Rasenmäher ist die Erfindung umsetzbar.
  • In jedem Fall bringt mehrere Vorteile. Ein Vorteil besteht darin, dass die von dem Bodenflächenbearbeitungsgerät ermittelten Informationen über die Bodenfläche, insbesondere deren Umgebung sowie deren Zustand zu einem graphischen Abbild verarbeitet und an einer graphischen Anzeigeeinheit für den Benutzer graphisch dargestellt werden, und dass dabei unterschiedliche Zustandsausprägungen der Bodenfläche unterschiedliche graphisch dargestellt werden. Der Benutzer kann dadurch einfach und komfortabel erkennen, welche Bereiche der Bodenfläche welchen Zustand aufweisen. Ohne das robotische Bodenflächenbearbeitungsgerät permanent beobachtet haben zu müssen, weiß der Benutzer somit dennoch genau, welche Bodenflächenbereiche das robotische Bodenflächenbearbeitungsgerät zum Beispiel erfolgreich bearbeitet hat, und welche es nicht erfolgreich oder gar nicht bearbeitet hat bzw. bearbeiten konnte. Ein weiterer wesentlicher Vorteil besteht darin, dass die Koordination und Abstimmung von Bearbeitungsvorgängen erleichtert wird, von denen einige von dem robotischen Bodenflächenbearbeitungsgerät und andere manuell durch den Benutzer durchgeführt wurden. Der Benutzer weiß dank der Erfindung nicht nur genau, welche Bereiche einer Bodenfläche bereits erfolgreich automatisch bearbeitet wurden und welche nicht, sondern er kann dem robotischen Bodenflächenbearbeitungsgerät auch mitteilen, welche Bereiche manuell bearbeitet wurden. Insgesamt erhöht sich damit die Effizienz und Effektivität der Bodenflächenbearbeitung.
  • Bezugszeichenliste
  • 100
    Bodenflächenbearbeitungsgerät
    200
    Interaktionseinrichtung
    101
    Gehäuse
    210
    Steuerungseinrichtung
    110
    Steuerungseinrichtung
    220
    Verarbeitungseinheit
    120
    Verarbeitungseinheit
    230
    Speichereinheit
    130
    Speichereinheit
    240
    Sensoreinrichtung
    140
    Sensoreinrichtung
    241
    Sensormodul (Kamera)
    141
    Sensormodul (Kamera)
    250
    Kommunikationseinheit
    142
    Sensormodul (Partikelsensor)
    260
    Graphische Anzeigeeinheit
    150
    Kommunikationseinheit
    290
    Eingabeeinheit
    170
    Fortbewegungseinrichtung
    300
    Bodenfläche
    171
    Antriebseinheit
    172
    Antriebsrad
    173
    Stützrad
    180
    Bodenbearbeitungseinrichtung
    181
    Bürste
    182
    Bürstenantrieb
    183
    Saugmund
    184
    Saugkanal
    185
    Sauggebläse
    186
    Schmutzsammelbehälter
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102012201870 A1 [0008]
    • DE 102007010979 B3 [0009]
    • DE 102012105608 A1 [0011]
    • DE 102013102941 A1 [0011]

Claims (16)

  1. Verfahren zum Bearbeiten einer Bodenfläche (300) unter Einsatz eins mobilen robotischen Bodenflächenbearbeitungsgeräts (100), umfassend die Schritte – Ermitteln wenigstens einer ersten Informationsmenge betreffend die Umgebung und wenigstens einer zweiten Informationsmenge betreffend einen Zustand der Bodenfläche (300) jeweils an der jeweiligen Position des auf der Bodenfläche (300) positionierten robotischen Bodenflächenbearbeitungsgeräts (100) mittels dessen Sensoreinrichtung (140), – Bewegen des robotischen Bodenflächenbearbeitungsgeräts (100) auf und entlang der Bodenfläche (300) mittels einer Fortbewegungseinrichtung (170), – Steuern des Betriebs und Navigieren des robotischen Bodenflächenbearbeitungsgeräts (100) mittels einer Steuerungseinrichtung (110) unter Berücksichtigung zumindest eines Teils der ersten und/oder der zweiten Informationsmenge, – Speichern der ersten und der zweiten Informationsmenge in einer Speichereinheit (130), – Verarbeiten zumindest eines Teils der ersten und der zweiten Informationsmenge mittels einer Verarbeitungseinheit (120) zu wenigstens einem graphischen Abbild wenigstens eines Bereichs der Bodenfläche (300) und der Umgebung, wobei in dem graphischen Abbild unterschiedliche Ausprägungen des Zustands der Bodenfläche (300) entsprechend unterschiedlich graphisch repräsentiert sind, und – Darstellen des graphischen Abbilds mittels einer eine graphische Anzeigeeinheit (260) umfassenden Interaktionseinrichtung (200) für einen Benutzer.
  2. Verfahren nach Anspruch 1, wobei die Interaktionseinrichtung (200) mobil ist, und wobei zwischen einer Kommunikationseinheit (250) der Interaktionseinrichtung (200) und einer Kommunikationseinheit (150) des robotischen Bodenflächenbearbeitungsgeräts (100) eine insbesondere drahtlose Kommunikationsverbindung betrieben wird, über die Informationen ausgetauscht werden.
  3. Verfahren nach einem der Ansprüche 1 oder 2, wobei das Verarbeiten der ersten und der zweiten Informationsmenge mittels einer Verarbeitungseinheit (120, 220) des robotischen Bodenflächenbearbeitungsgeräts (100), der Interaktionseinrichtung (200) und/oder einer externen Recheneinrichtung, zu der eine Kommunikationsverbindung besteht, durchgeführt wird.
  4. Verfahren nach einem der Ansprüche 2 oder 3, wobei mittels einer Sensoreinrichtung (240) der Interaktionseinrichtung (200) wenigstens eine dritte Informationsmenge betreffend die Umgebung an der jeweiligen Position der Interaktionseinrichtung (200) ermittelt wird, und wobei das Abbild desjenigen Bereichs der Bodenfläche (300) und der Umgebung an der graphischen Anzeigeeinheit (260) der Interaktionseinrichtung (200) dargestellt wird, das aus der ersten und zweiten Informationsmenge verarbeitet wurde, die an derselben Position von der Sensoreinrichtung (140) des robotischen Bodenflächenbearbeitungsgeräts (100) ermittelt wurden.
  5. Verfahren nach Anspruch 4, wobei mittels einer Verarbeitungseinheit der Interaktionseinrichtung (200) und/oder einer externen Recheneinrichtung, zu der eine Kommunikationsverbindung besteht, zumindest ein Teil der dritten Informationsmenge zu wenigstens einem weiteren graphischen Abbild wenigstens eines Bereichs der Bodenfläche (300) und der Umgebung verarbeitet wird, und wobei an der graphischen Anzeigeeinheit (260) das aus der ersten und der zweiten Informationsmenge verarbeitete Abbild und das aus der dritten Informationsmenge verarbeitete Abbild gemeinsam graphisch dargestellt werden.
  6. Verfahren nach einem der Ansprüche 1 bis 5, wobei mittels einer von der Interaktionseinrichtung (200) umfassten Eingabeeinheit (290) eine Eingabe des Benutzers als eine vierte Informationsmenge betreffend den Zustand der Bodenfläche (300) an wenigstens einer Position erfasst wird, und wobei zumindest ein Teil der in der Speichereinheit (130) gespeicherten zweiten Informationsmenge mit zumindest einem Teil der vierten Informationsmenge betreffend den Zustand der Bodenfläche (300) an der jeweiligen Position aktualisiert wird.
  7. Mobiles robotisches Bodenflächenbearbeitungsgerät (100), umfassend – eine Fortbewegungseinrichtung (170) ausgebildet zum Bewegen des robotischen Bodenflächenbearbeitungsgeräts (100) auf und entlang der Bodenfläche, – eine Bodenbearbeitungseinrichtung (180), – eine Sensoreinrichtung (140) ausgebildet zum Ermitteln wenigstens einer ersten Informationsmenge betreffend die Umgebung und wenisgtens einer zweiten Informationsmenge betreffend den Zustand der Bodenfläche (300) jeweils an der jeweiligen Position des robotischen Bodenflächenbearbeitungsgeräts (100), – eine Speichereinheit (130) ausgebildet zum Speichern der ersten und der zweiten Informationsmenge, – eine Kommunikationseinheit (150) ausgebildet zum insbesondere drahtlosen Kommunizieren und Austauschen von Informationen mit einer mobilen Interaktionseinrichtung (200), und – eine Steuerungseinrichtung (110) ausgebildet zum Navigieren und Steuern des Betriebs des robotischen Bodenflächenbearbeitungsgeräts (100) unter Berücksichtigung zumindest eines Teils der ersten und/oder der zweiten Informationsmenge, wobei ferner – entweder die Kommunikationseinheit (150) ausgebildet ist zum Senden zumindest eines Teils der ersten und der zweiten Informationsmenge an die mobile Interaktionseinrichtung (200), – oder eine Verarbeitungseinheit (120) umfasst ist, die ausgebildet ist zum Verarbeiten zumindest eines Teils der ersten und der zweiten Informationsmenge zu wenigstens einem graphischen Abbild wenigstens eines Bereichs der Bodenfläche (300) und der Umgebung, wobei in dem graphischen Abbild unterschiedliche Ausprägungen des Zustands der Bodenfläche (300) entsprechend unterschiedlich graphisch repräsentiert sind, und die Kommunikationseinheit (150) ausgebildet ist zum Senden des grafischen Abbilds an die mobile Interaktionseinrichtung (200).
  8. Mobiles robotisches Bodenflächenbearbeitungsgerät (100) nach Anspruch 7, wobei die Kommunikationseinheit (150) zudem ausgebildet ist zum Empfangen von der Interaktionseinrichtung (200) zumindest eines Teils einer vierten Informationsmenge betreffend den Zustand der Bodenfläche (300) an wenigstens einer Position, und wobei die Steuerungseinrichtung (110) zudem ausgebildet ist zum Aktualisieren zumindest eines Teils der in der Speichereinheit (130) gespeicherten zweiten Informationsmenge mit zumindest einem Teil der vierten Informationsmenge betreffend den Zustand der Bodenfläche (300) an der jeweiligen Position.
  9. Mobile Interaktionseinrichtung (200), umfassend – eine Kommunikationseinheit (250) ausgebildet zum insbesondere drahtlosen Kommunizieren und Austauschen von Informationen mit einem mobilen robotischen Bodenflächenbearbeitungsgerät (100), – eine graphische Anzeigeeinheit (260), – eine Speichereinheit (230), und – eine Steuerungseinrichtung (210) ausgebildet zum Steuern des Betriebs und des Zusammenwirkens der Einheiten und Einrichtungen der mobilen Interaktionseinrichtung (200), wobei – entweder die Kommunikationseinheit (250) ausgebildet ist zum Empfangen von dem mobilen robotischen Bodenflächenbearbeitungsgerät (100) zumindest eines Teils einer ersten Informationsmenge betreffend die Umgebung und zumindest eines Teils einer zweiten Informationsmenge betreffend einen Zustand einer Bodenfläche (300) jeweils an einer Position, und eine Verarbeitungseinheit (220) umfasst ist, die ausgebildet ist zum Verarbeiten zumindest eines Teils der ersten und der zweiten Informationsmenge zu wenigstens einem graphischen Abbild wenigstens eines Bereichs der Bodenfläche (300) und der Umgebung, wobei in dem graphischen Abbild unterschiedliche Ausprägungen des Zustands der Bodenfläche (300) entsprechend unterschiedlich graphisch repräsentiert sind, – oder die Kommunikationseinheit (250) ausgebildet ist zum Empfangen von dem mobilen robotischen Bodenflächenbearbeitungsgerät (100) wenigstens eines grafischen Abbilds wenigstens eines Bereichs einer Bodenfläche (300) und der Umgebung, und wobei die graphische Anzeigeeinheit (260) ausgebildet ist zum graphischen Darstellen des graphischen Abbilds für einen Benutzer.
  10. Mobile Interaktionseinrichtung (200) nach Anspruch 9, ferner umfassend – eine Sensoreinrichtung (240) ausgebildet zum Ermitteln wenigstens einer dritten Informationsmenge betreffend die Umgebung an der jeweiligen Position der Interaktionseinrichtung (200), wobei die graphische Anzeigeeinheit (260) ausgebildet ist zum graphischen Darstellen des graphischen Abbilds desjenigen Bereichs der Bodenfläche (300) und der Umgebung, das aus zumindest jeweils einem Teil der ersten und der zweiten Informationsmenge verarbeitet wurde, die an derselben Position von der Sensoreinrichtung (140) des robotischen Bodenflächenbearbeitungsgeräts (100) ermittelt wurden.
  11. Mobile Interaktionseinrichtung (200) nach Anspruch 10, wobei die Verarbeitungseinheit (220) ausgebildet ist zum Verarbeiten wenigstens eines Teils der dritten Informationsmenge zu wenigstens einem weiteren graphischen Abbild wenigstens eines Bereichs der Bodenfläche (300) und der Umgebung, und wobei die graphische Anzeigeeinheit (260) ausgebildet ist zum gemeinsamen graphischen Darsttellen wenigstens zweier graphischer Abbilder desselben Bereichs der Bodenfläche (300) und der Umgebung, von denen das eine Abbild aus zumindest einem Teil der dritten Informationsmenge verarbeitet wurde und das andere Abbild aus zumindest jeweils einem Teil der ersten und der zweiten Informationsmenge verarbeitet wurde.
  12. Mobile Interaktionseinrichtung (200) nach einem der Ansprüche 9 bis 11, ferner umfassend – eine Eingabeeinheit (290) ausgebildet zum Erfassen einer Eingabe des Benutzers als eine vierte Informationsmenge betreffend den Zustand der Bodenfläche (300) an wenigstens einer Position, und wobei die Kommunikationseinheit (250) ausgebildet ist zum Senden zumindest eines Teils der vierten Informationsmenge an das mobile robotische Bodenflächenbearbeitungsgerät (100).
  13. Mobile Interaktionseinrichtung (200) nach einem der Ansprüche 8 bis 12, die ausgebildet ist als Mobiltelefon, Smartphone, Tablet-Computer, Notebook-Computer oder Head-Mounted-Display.
  14. Mobile Interaktionseinrichtung (200) nach einem der Ansprüche 8 bis 13, wobei in der Speichereinheit (230) ein Programmcode gespeichert ist, und wobei die Steuerungseinrichtung (210) ausgebildet ist zum Ausführen des in der Speichereinheit (230) gespeicherten Programmcodes und zum Steuern des Betriebs und des Zusammenwirkens der Einheiten und Einrichtungen der mobilen Interaktionseinrichtung (200) gemäß den in dem Programmcode enthaltenen Befehle.
  15. Programmcode umfassend Befehle zum Steuern des Betriebs und des Zusammenwirkens von Einheiten und Einrichtungen einer mobilen Interaktionseinrichtung (200) nach Anspruch 13, geeignet zur Speicherung in einer Speichereinheit (230) der mobilen Interaktionseinrichtung (200) und zur Ausführung durch eine Steuerungseinrichtung (210) der mobilen Interaktionseinrichtung (200).
  16. Anordnung zur Durchführung des Verfahren nach einem der Ansprüche 1 bis 6 umfassend ein mobiles robotisches Bodenflächenbearbeitungsgerät (100) nach einem der Ansprüche 7 oder 8 und eine mobile Interaktionseinrichtung (200) nach einem der Ansprüche 9 bis 14.
DE102015100419.4A 2015-01-13 2015-01-13 Verfahren und Anordnung zum Bearbeiten von Bodenflächen Withdrawn DE102015100419A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015100419.4A DE102015100419A1 (de) 2015-01-13 2015-01-13 Verfahren und Anordnung zum Bearbeiten von Bodenflächen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015100419.4A DE102015100419A1 (de) 2015-01-13 2015-01-13 Verfahren und Anordnung zum Bearbeiten von Bodenflächen

Publications (1)

Publication Number Publication Date
DE102015100419A1 true DE102015100419A1 (de) 2016-07-14

Family

ID=56233744

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015100419.4A Withdrawn DE102015100419A1 (de) 2015-01-13 2015-01-13 Verfahren und Anordnung zum Bearbeiten von Bodenflächen

Country Status (1)

Country Link
DE (1) DE102015100419A1 (de)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016124894A1 (de) * 2016-12-20 2018-06-21 Miele & Cie. Kg Verfahren und Vorrichtung zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters, Reinigungsroboter und Gebäudeautomationssystem
DE102017113605A1 (de) 2017-06-20 2018-12-20 Vorwerk & Co. Interholding Gmbh Autonomes Reinigungssystem und Reinigungsverfahren
DE102017113612A1 (de) 2017-06-20 2018-12-20 Vorwerk & Co. Interholding Gmbh Autonomes Reinigungssystem und Reinigungsverfahren
DE102017113609A1 (de) 2017-06-20 2018-12-20 Vorwerk & Co. Interholding Gmbh Autonomes Reinigungssystem und Reinigungsverfahren
DE102017113606A1 (de) 2017-06-20 2018-12-20 Vorwerk & Co. Interholding Gmbh Autonomes Reinigungssystem und Reinigungsverfahren
EP3440978A1 (de) * 2017-08-11 2019-02-13 Vorwerk & Co. Interholding GmbH Verfahren zum betrieb eines sich selbsttätig fortbewegenden reinigungsgerätes
EP3441840A1 (de) * 2017-08-11 2019-02-13 Vorwerk & Co. Interholding GmbH Verfahren zum betrieb eines sich selbsttätig fortbewegenden reinigungsgerätes
DE102017118381A1 (de) * 2017-08-11 2019-02-14 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Bodenbearbeitungsgerätes
DE102018109845A1 (de) * 2018-04-24 2019-10-24 Kuka Deutschland Gmbh Kartierungsverfahren
DE102018114385A1 (de) * 2018-06-15 2019-12-19 Ifm Electronic Gmbh System und Verfahren zum Betreiben einer mobilen Arbeitsmaschine
US10809740B2 (en) 2017-06-09 2020-10-20 Andreas Stihl Ag & Co. Kg Method for identifying at least one section of a boundary edge of an area to be treated, method for operating an autonomous mobile green area maintenance robot, identifying system and green area maintenance system
DE102020129026A1 (de) 2020-11-04 2022-05-05 Vorwerk & Co. Interholding Gesellschaft mit beschränkter Haftung Sich selbsttätig fortbewegendes Reinigungsgerät

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007010979B3 (de) 2007-03-05 2008-05-08 Miele & Cie. Kg Verfahren zur Reinigung einer Bodenfläche mittels eines selbstfahrenden Reinigungsgerätes, insbesondere eines Robotsaugers
DE102009052629A1 (de) * 2009-11-10 2011-05-12 Vorwerk & Co. Interholding Gmbh Verfahren zur Steuerung eines Roboters
DE102012201870A1 (de) 2012-02-08 2013-08-08 RobArt GmbH Verfahren zum automatischen Auslösen einer Selbstlokalisierung
DE102012105608A1 (de) 2012-06-27 2014-01-02 Miele & Cie. Kg Selbstfahrendes Reinigungsgerät und Verfahren zur Bedienung eines selbstfahrenden Reinigungsgeräts
DE102012109004A1 (de) * 2012-09-24 2014-03-27 RobArt GmbH Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen
DE102013102941A1 (de) 2013-03-22 2014-09-25 Miele & Cie. Kg Selbstfahrendes Reinigungsgerät und Verfahren zum selbsttätigen Anfahren und/oder Reinigen einer verunreinigten Fläche mit dem selbstfahrenden Reinigungsgerät

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007010979B3 (de) 2007-03-05 2008-05-08 Miele & Cie. Kg Verfahren zur Reinigung einer Bodenfläche mittels eines selbstfahrenden Reinigungsgerätes, insbesondere eines Robotsaugers
DE102009052629A1 (de) * 2009-11-10 2011-05-12 Vorwerk & Co. Interholding Gmbh Verfahren zur Steuerung eines Roboters
DE102012201870A1 (de) 2012-02-08 2013-08-08 RobArt GmbH Verfahren zum automatischen Auslösen einer Selbstlokalisierung
DE102012105608A1 (de) 2012-06-27 2014-01-02 Miele & Cie. Kg Selbstfahrendes Reinigungsgerät und Verfahren zur Bedienung eines selbstfahrenden Reinigungsgeräts
DE102012109004A1 (de) * 2012-09-24 2014-03-27 RobArt GmbH Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen
DE102013102941A1 (de) 2013-03-22 2014-09-25 Miele & Cie. Kg Selbstfahrendes Reinigungsgerät und Verfahren zum selbsttätigen Anfahren und/oder Reinigen einer verunreinigten Fläche mit dem selbstfahrenden Reinigungsgerät

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016124894A1 (de) * 2016-12-20 2018-06-21 Miele & Cie. Kg Verfahren und Vorrichtung zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters, Reinigungsroboter und Gebäudeautomationssystem
DE102016124894B4 (de) * 2016-12-20 2021-06-10 Miele & Cie. Kg Verfahren und Vorrichtung zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters, Reinigungsroboter und Gebäudeautomationssystem
US10809740B2 (en) 2017-06-09 2020-10-20 Andreas Stihl Ag & Co. Kg Method for identifying at least one section of a boundary edge of an area to be treated, method for operating an autonomous mobile green area maintenance robot, identifying system and green area maintenance system
DE102017113605A1 (de) 2017-06-20 2018-12-20 Vorwerk & Co. Interholding Gmbh Autonomes Reinigungssystem und Reinigungsverfahren
DE102017113612A1 (de) 2017-06-20 2018-12-20 Vorwerk & Co. Interholding Gmbh Autonomes Reinigungssystem und Reinigungsverfahren
DE102017113609A1 (de) 2017-06-20 2018-12-20 Vorwerk & Co. Interholding Gmbh Autonomes Reinigungssystem und Reinigungsverfahren
DE102017113606A1 (de) 2017-06-20 2018-12-20 Vorwerk & Co. Interholding Gmbh Autonomes Reinigungssystem und Reinigungsverfahren
DE102017118381A1 (de) * 2017-08-11 2019-02-14 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Bodenbearbeitungsgerätes
DE102017118382A1 (de) * 2017-08-11 2019-02-14 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Reinigungsgerätes
CN109381122A (zh) * 2017-08-11 2019-02-26 德国福维克控股公司 运行自动前进的清洁设备的方法
CN109381105A (zh) * 2017-08-11 2019-02-26 德国福维克控股公司 用于自动行走式的清洁设备的运行方法
EP3441840A1 (de) * 2017-08-11 2019-02-13 Vorwerk & Co. Interholding GmbH Verfahren zum betrieb eines sich selbsttätig fortbewegenden reinigungsgerätes
EP3440978A1 (de) * 2017-08-11 2019-02-13 Vorwerk & Co. Interholding GmbH Verfahren zum betrieb eines sich selbsttätig fortbewegenden reinigungsgerätes
CN109381122B (zh) * 2017-08-11 2022-04-26 德国福维克控股公司 运行自动前进的清洁设备的方法
CN109381105B (zh) * 2017-08-11 2022-05-31 德国福维克控股公司 用于自动行走式的清洁设备的运行方法
DE102018109845A1 (de) * 2018-04-24 2019-10-24 Kuka Deutschland Gmbh Kartierungsverfahren
DE102018114385A1 (de) * 2018-06-15 2019-12-19 Ifm Electronic Gmbh System und Verfahren zum Betreiben einer mobilen Arbeitsmaschine
DE102020129026A1 (de) 2020-11-04 2022-05-05 Vorwerk & Co. Interholding Gesellschaft mit beschränkter Haftung Sich selbsttätig fortbewegendes Reinigungsgerät

Similar Documents

Publication Publication Date Title
DE102015100419A1 (de) Verfahren und Anordnung zum Bearbeiten von Bodenflächen
EP3417350A1 (de) Verfahren zur steuerung eines autonomen mobilen roboters
EP1967116B2 (de) Verfahren zur Reinigung einer Bodenfläche mittels eines selbstfahrenden Reinigungsgerätes, insbesondere eines Robotsaugers
EP3379990B1 (de) Bodenreinigungssystem und verfahren zum reinigen einer bodenfläche
EP2812766B2 (de) Verfahren zum automatischen auslösen einer selbstlokalisierung
DE102011006062B4 (de) Verfahren zur autonomen Inspektion einer Umgebung oder Bearbeitung von Bodenflächen
EP3709853B1 (de) Bodenbearbeitung mittels eines autonomen mobilen roboters
EP3416018B1 (de) System mit mindestens zwei bodenbearbeitungsgeräten
EP3441840B1 (de) Verfahren zum betrieb eines sich selbsttätig fortbewegenden reinigungsgerätes
WO2016034732A1 (de) Vorrichtung und verfahren zum erfassen geleisteter reinigungsarbeiten
DE102012109004A1 (de) Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen
EP3234715A1 (de) Verfahren zur kartierung einer bearbeitungsfläche für autonome roboterfahrzeuge
DE102017113288A1 (de) System mit mindestens zwei Bodenbearbeitungseinrichtungen
DE102013212605A1 (de) Verfahren zu einer Arbeitsbereichserfassung zumindest eines Arbeitsbereichs eines autonomen Serviceroboters
EP3685722A1 (de) System aus einem ausschliesslich manuell geführten bodenbearbeitungsgerät und einem ausschliesslich automatisch betriebenen bodenbearbeitungsgerät sowie verfahren zum betrieb eines solchen systems
DE102011083309A1 (de) Autonomes Arbeitsgerät
EP3538967A1 (de) Verfahren zum betrieb eines sich selbsttätig fortbewegenden roboters
EP3108789A1 (de) Unterstützung einer oberflächenreinigung
WO2014079632A1 (de) Autonomes Fortbewegungsgerät
EP3683645B1 (de) System mit einem ersten bodenbearbeitungsgerät und einem zweiten bodenbearbeitungsgerät sowie verfahren zum betrieb eines solchen systems
EP3613321A1 (de) Sich selbsttätig innerhalb einer umgebung fortbewegendes bodenbearbeitungsgerät
EP3995065B1 (de) Sich selbsttätig fortbewegendes reinigungsgerät
EP3812869B1 (de) Verfahren zur erstellung einer umgebungskarte für ein sich selbsttätig fortbewegendes bodenbearbeitungsgerät, sowie system aus zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten
EP3825802A1 (de) System mit mindestens zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten sowie verfahren zum betrieb des systems
EP4188183A1 (de) Bodenreinigungssystem

Legal Events

Date Code Title Description
R163 Identified publications notified
R084 Declaration of willingness to licence
R005 Application deemed withdrawn due to failure to request examination