DE102012112036A1 - Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät - Google Patents

Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät Download PDF

Info

Publication number
DE102012112036A1
DE102012112036A1 DE201210112036 DE102012112036A DE102012112036A1 DE 102012112036 A1 DE102012112036 A1 DE 102012112036A1 DE 201210112036 DE201210112036 DE 201210112036 DE 102012112036 A DE102012112036 A DE 102012112036A DE 102012112036 A1 DE102012112036 A1 DE 102012112036A1
Authority
DE
Germany
Prior art keywords
starting point
reference points
sensor data
self
row
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE201210112036
Other languages
English (en)
Other versions
DE102012112036B4 (de
Inventor
David Fleer
Lorenz Hillen
Michael Horst
Martin Krzykawski
Ralf Möller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Miele und Cie KG
Universitaet Bielefeld
Original Assignee
Miele und Cie KG
Universitaet Bielefeld
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Miele und Cie KG, Universitaet Bielefeld filed Critical Miele und Cie KG
Priority to DE102012112036.6A priority Critical patent/DE102012112036B4/de
Publication of DE102012112036A1 publication Critical patent/DE102012112036A1/de
Application granted granted Critical
Publication of DE102012112036B4 publication Critical patent/DE102012112036B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät (1), das eine Antriebseinheit (5) und eine Steuereinrichtung (8) zur Steuerung der Antriebseinheit (5) aufweist, wobei eine aktuelle Position mithilfe eines Vergleich von Sensordaten, aufgenommen an der aktuellen Position, mit gespeicherten Sensordaten, aufgenommen an vorherigen Positionen des Bodenbearbeitungsgeräts (1), bestimmt wird, wobei ein erster Raumbereich (17a) von einem ersten Startpunkt (18a) bis zu einem ersten Endpunkt (19a) auf einer mäanderförmigen Bahn (15) abgefahren wird. Das Verfahren zeichnet sich dadurch aus, dass ein weiterer Raumbereich (17b, 17c, 17d) von einem weiteren Startpunkt (18b, 18c, 18d) bis zu einem weiteren Endpunkt (19b, 19c, 19d) auf einer ebenfalls mäanderförmigen Bahn (15) abgefahren wird, wobei der weitere Startpunkt (18b, 18c, 18d) so gewählt wird, dass für zumindest einen ersten Abschnitt der Bahn (15) im weiteren Raumbereich (17b, 17c, 17d) für alle Referenzpunkte (14) ein Vergleich von Sensordaten, aufgenommen an diesen Referenzpunkten (14), mit gespeicherten Sensordaten, aufgenommen an Referenzpunkten (14) in einem der zuvor befahrenen Raumbereiche (17a), erfolgt. Die Erfindung betrifft weiterhin ein zur Durchführung des Verfahrens eingerichtetes selbstfahrendes Bodenbearbeitungsgerät.

Description

  • Die Erfindung betrifft ein Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät, das eine Antriebseinheit und eine Steuereinrichtung zur Steuerung der Antriebseinheit aufweist.
  • Die Erfindung betrifft weiterhin ein selbstfahrendes Bodenbearbeitungsgerät, das ein derartiges Verfahren bei seiner Navigation über den Boden durchführt.
  • Selbstfahrende Bodenbearbeitungsgeräte dienen der automatisierten Bearbeitung, beispielsweise Reinigung, von Flächen, ohne dass sie von einem Benutzer geschoben oder geführt werden müssen. Zu solchen selbstfahrenden Bodenbearbeitungsgeräten zählen für den Innenbereich beispielsweise selbstfahrende Staubsauger, auch Saugroboter genannt. Weiterhin werden für den Innenbereich selbstfahrende Reinigungsgeräte zum Wischen von Bodenbelägen eingesetzt. Für den Außenbereich sind als selbstfahrende Bodenbearbeitungsgeräte Mähroboter zum Rasenmähen bekannt und, für eine landwirtschaftliche Nutzung, selbstständig arbeitende Landwirtschaftsmaschinen, beispielsweise zum Pflügen, Säen oder Ernten von großen Feldern. Zur Steuerung von selbstständig arbeiten Landwirtschaftsmaschinen auf entsprechend großen Flächen hat sich eine Navigation der Geräte über die zu bearbeitende Fläche mittels Satelliten, z.B. GPS (Global Positioning System), etabliert. Für Innenanwendungen oder auch Außenanwendungen in einem kleineren, häuslichen Rahmen ist die mit diesem System erzielbare Genauigkeit jedoch nicht ausreichend.
  • Selbstfahrende Bodenbearbeitungsgeräte für kleinere Flächen weisen üblicherweise ein oder mehrere Sensoren auf, um die Bewegung des Geräts über die zu bearbeitende Fläche zu kontrollieren, beispielsweise um einen Zusammenstoß mit Hindernissen zu vermeiden. Solche Sensoren können beispielsweise Tast- oder Ultraschallsensoren oder auch optische Sensoren sein, z.B. eine oder mehrere Kameras. Nur in einem Nahbereich arbeitende Sensoren dienen meist der Vermeidung von Zusammenstößen mit Hindernissen, wohingegen Sensoren mit einer größeren Erfassungsreichweite, beispielsweise Kameras, zur Aufnahme von Umgebungsbildern auch zur Navigation des Geräts, also zur Planung einer koordinierten Bewegung des Geräts über die zu bearbeitende Fläche, eingesetzt werden. Bei der koordinierten Bewegung soll insbesondere sichergestellt werden, dass die gesamte Fläche bearbeitet wird, ohne dass Bereiche der Fläche mehrfach überfahren werden.
  • Aus der Druckschrift DE 10 2007 016 802 B3 ist ein Navigationsverfahren für ein selbstfahrendes Bodenbearbeitungsgerät bekannt, bei dem das Bodenbearbeitungsgerät eine vorgegebene Bahnkurve im Raum durch entsprechende Ansteuerung seiner Antriebseinheit abfährt, wobei das Bodenbearbeitungsgerät der Bahnkurve in kleinen Abschnitten durch ein odometrisches Verfahren folgt, also durch ein Verfahren, bei dem die (vermutlich) gefahrene Strecke durch Auswertung der Drehbewegung der einzelnen Räder des Bodenbearbeitungsgeräts ermittelt wird. Durch Radschlupf, insbesondere auf Teppichen oder hervorgerufen durch Bodenunebenheiten im Innenbereich oder durch schlammigen oder sandigen Untergrund im Außenbereich, weicht die tatsächliche Position des Bodenbearbeitungsgeräts mit der Zeit zunehmend von der odometrisch bestimmten ab. Bei der genannten Druckschrift wird dieses dadurch korrigiert, dass eine Kamera in regelmäßigen Zeitabständen Bilder der Umgebung des Bodenbearbeitungsgeräts aufnimmt und abspeichert. Ein aktuell aufgenommenes Bild wird dann mit mindestens zwei zuvor aufgenommenen Bildern verglichen, z.B. mit zwei Bildern, die auf der zuletzt gefahrenen geraden Reihe aufgenommen wurden. Aus dem Vergleich der Bilder wird die Position des Bodenbearbeitungsgeräts zum Aufnahmezeitpunkt des aktuellen Bildes über trigonometrische Verfahren relativ zu den Positionen des Bodenbearbeitungsgeräts zum Aufnahmezeitpunkt der gespeicherten Bilder mit einem sogenannten visuellen Homing-Verfahren bestimmt. Insbesondere wird ein Abstand zur vorherigen Reihe ermittelt, welcher dann dazu verwendet wird, eine zu einer ersten Reihe möglichst parallele zweite Reihe abzufahren, so dass ein mäander- oder spiralförmiges Befahren eines Raumbereichs möglich ist. Ein Abfahren eines Raums, der keinen rechteckigen Grundriss aufweist oder bei dem sich Hindernisse innerhalb des Raums befinden, ist nicht offenbart.
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät der eingangs genannten Art zu schaffen, bei dem jederzeit gewährleistet ist, dass die gesamte Fläche bearbeitet wird, wobei der Anteil von Mehrfach-Überfahrten möglichst gering gehalten wird.
  • Erfindungsgemäß wird dieses Problem durch ein Navigationsverfahren und ein Bodenbearbeitungsgerät mit den Merkmalen der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung ergeben sich aus den jeweiligen Unteransprüchen.
  • Bei einem erfindungsgemäßen Navigationsverfahren für ein selbstfahrendes Bodenbearbeitungsgerät, das eine Antriebseinheit und eine Steuereinrichtung zur Steuerung der Antriebseinheit aufweist, wird eine aktuelle Position des Bodenbearbeitungsgeräts mithilfe eines Vergleichs von Sensordaten, aufgenommen an der aktuellen Position, mit gespeicherten Sensordaten, aufgenommen an vorherigen Positionen des Bodenbearbeitungsgeräts, bestimmt, und es wird ein erster Raumbereich von einem ersten Startpunkt bis zu einem ersten Endpunkt auf einer mäanderförmigen Bahn abgefahren. Das Verfahren zeichnet sich dadurch aus, dass ein weiterer Raumbereich von einem weiteren Startpunkt bis zu einem weiteren Endpunkt auf einer ebenfalls mäanderförmigen Bahn abgefahren wird, wobei der weitere Startpunkt so gewählt wird, dass für zumindest einen ersten Abschnitt der Bahn im weiteren Raumbereich für alle Referenzpunkte ein Vergleich von Sensordaten, aufgenommen an diesen Referenzpunkten, mit gespeicherten Sensordaten, aufgenommen an Referenzpunkten in einem der zuvor befahrenen Raumbereiche erfolgt, durch den eine Korrektur einer Positionsschätzung des Bodenbearbeitungsgeräts erfolgen kann.
  • Auf diese Weise ist sichergestellt, dass in auch in dem weiteren Raumbereich eine Positionsbestimmung des Bodenbearbeitungsgeräts auf Basis von Referenzpunkten erfolgen kann. Das innerhalb eines Raumbereichs verwendete Positionsbestimmungs- und Navigationsverfahren kann so auch Raumbereichs-übergreifend eingesetzt werden. Das Verfahren kann wiederholt angewandt werden, bis der gesamte zu bearbeitende Raum systematisch abgefahren ist.
  • In einer vorteilhaften Ausgestaltung des Verfahrens wird während der Fahrt des Bodenbearbeitungsgeräts an jedem der Referenzpunkte ein Umgebungsbild, z.B. ein Panoramabild, als Sensordaten aufgenommen, wobei der Vergleich der Umgebungsbilder in einem visuellen Homing-Verfahren erfolgt. Bei dem visuellen Homing-Verfahren wird eine Positionsbestimmung anhand von Umgebungsbildern vorgenommen, die von einer oder mehreren mitgeführten Kameras erstellt werden. Das visuelle Homing-Verfahren ist im Hinblick auf die erzielbare Genauigkeit und die Anforderungen an die benötigte Rechenleistung sehr gut zur Verwendung in selbstfahrenden Bodenbearbeitungsgeräten geeignet.
  • In weiteren vorteilhaften Ausgestaltungen des Verfahrens wird während der Fahrt des Bodenbearbeitungsgeräts eine topologisch-metrische Karte erstellt, die gespeicherte Positionen und gespeicherte Sensordaten umfasst, und/oder es wird eine Hinderniskarte erstellt, die Informationen über die Umgebung eines Referenzpunktes umfasst. Eine topologisch-metrische Karte ist ein Graph (im mathematischen Sinne), dessen Knoten Orte im Raum anhand der dort aufgezeichneten sensorischen Informationen sowie anhand einer Positionsschätzung charakterisieren, und dessen Kanten die wechselseitige Erreichbarkeit der zwei verknüpften Knoten anzeigen. Die erstellten Karten können anschließend vorteilhaft zur globalen Navigation verwendet werden. Bevorzugt stammen die Informationen über die Umgebung eines Referenzpunktes von Abstandssensoren des Bodenbearbeitungsgeräts. Weiter bevorzugt wird ein weiterer Startpunkt für einen weiteren Raumbereich anhand der topologisch-metrischen Karte und/oder der Hinderniskarte ermittelt, wodurch eine systematische Erschließung des zu bearbeitenden Raums erfolgt. Weiter bevorzugt werden solange weitere Startpunkte für einen weiteren Raumbereich ermittelt und angefahren, wie in der topologisch-metrischen Karte und/oder der Hinderniskarte Bereiche vorhanden sind, die weder von Referenzpunkten, noch von Hindernissen belegt sind. Auf diese Weise wird sichergestellt, dass der gesamte zu bearbeitende Raum erfasst wird.
  • Die Erfindung betrifft weiterhin ein selbstfahrendes Bodenbearbeitungsgerät mit einer Antriebseinheit und einer Steuereinrichtung zur Steuerung der Antriebseinheit. Das Bodenbearbeitungsgerät zeichnet sich dadurch aus, dass es zur Durchführung eines der vorgenannten Verfahren zur Navigation eingerichtet ist. Es ergeben sich die im Zusammenhang mit dem Verfahren genannten Vorteile.
  • Die Erfindung wird nachfolgend anhand von fünf Figuren näher erläutert. Die Figuren zeigen:
  • 1 eine schematische Darstellung eines Bodenbearbeitungsgeräts zur Durchführung des erfindungsgemäßen Verfahrens;
  • 2 bis 4 jeweils eine schematische Darstellung einer von einem Bodenbearbeitungsgerät abgefahrenen Bahnkurve bei Durchführung eines erfindungsgemäßen Verfahrens und
  • 5 eine von einem Bodenbearbeitungsgerät abgefahrenen Bahnkurve bei Durchführung eines erfindungsgemäßen Verfahrens in einer Simulation.
  • 1 zeigt ein selbstfahrendes Bodenbearbeitungsgerät 1 in einer schematischen Darstellung. Es sind lediglich die für die Bewegung des Bodenbearbeitungsgeräts 1 für die Navigation notwendigen Komponenten dargestellt. Die zur Bodenbearbeitung benötigten Werkzeuge, beispielsweise Saug- und/oder Bürsteinrichtungen, Schneidmesser usw. sind zur Durchführung des erfindungsgemäßen Verfahrens nicht relevant und deshalb hier nicht dargestellt oder beschrieben.
  • Das Bodenbearbeitungsgerät 1, nachfolgend der einfacheren Darstellung halber auch Gerät 1 genannt, weist im Bereich einer Bodenplatte 3 eines Gehäuses 2 angeordnete Antriebsräder 4 auf. Es sind zwei dieser Antriebsräder 4 vorgesehen, die unabhängig voneinander von jeweils einem Antriebsmotor 5 gedreht werden können. Zudem ist als Teil des Fahrwerks ein Stützrad 6 vorhanden. Die beiden Antriebsräder 4 können bezüglich ihrer Drehzahl und auch Drehrichtung unabhängig voneinander angetrieben werden, wodurch das Gerät 1 angetrieben und gelenkt werden kann (differenzielle Lenkung). Für jedes dieser Antriebsräder 4 ist ein Sensor 7 vorgesehen, der die Drehbewegung des jeweiligen Antriebsrads 4 erfasst. Der Sensor 7 kann beispielsweise ein optischer Drehimpulsgeber sein. In alternativen Ausgestaltungen des Bodenbearbeitungsgeräts kann auch ein anderes als das hier beschriebene Antriebs- und Lenksystem eingesetzt werden.
  • Weiter ist eine Steuereinrichtung 8 vorhanden, die mit den Antriebsmotoren 5 in Verbindung steht und diese ansteuert. Die Steuereinrichtung 8 weist weiterhin Steuereingänge auf, mit denen sie mit den Sensoren 7 verbunden ist. Weiterhin sind einer oder mehrere Abstandssensoren 9 vorhanden, die am Umfang des Geräts 1 und/oder im Bereich der Bodenplatte 2 angeordnet sind und die ebenfalls mit der Steuereinrichtung 8 verbunden sind. Mithilfe der Abstandssensoren 9, von denen in der 1 beispielhaft nur ein einziger im vorderen Bereich des Geräts 1 dargestellt ist, können Hindernisse erkannt und Zusammenstöße mit den Hindernissen verhindert werden. Als Abstandssensoren 9 können optisch, akustisch oder über eine Tastfunktion arbeitende Sensoren eingesetzt werden.
  • Weiterhin ist bei dem Bodenbearbeitungsgerät 1 eine Kamera 10 als Vorrichtung zur Aufnahme eines Umgebungsbildes vorgesehen, beispielsweise ein CCD(Charge-Coupled Device)-Chip mit geeigneter räumlicher und zeitlicher Auflösung. Auf der nach oben gerichteten optischen Achse 11 der Kamera 10 ist ein hyperbolischer Spiegel 12 angeordnet. Auf diese Weise kann ein 360°-Panoramabild von der Umgebung des Roboters 1 mit einer Kameraaufnahme erfasst und zur weiteren Auswertung an die Steuereinrichtung 8 weitergegeben werden. Es wird angemerkt, dass anstelle des dargestellten hyperbolischen Spiegels 12 andere Vorrichtungen zur Aufnahme einer möglichst weitwinkligen Aufnahme der Umgebung des Geräts 1 verwendet werden können. Beispielsweise können eine oder mehrere mit Weitwinkel-Objektiven oder extrem weitwinkligen Objektiven, sogenannten Fisheye-Objektiven, versehene Kameras eingesetzt werden. Auch eine drehbare Kamera ist denkbar, ebenso wie eine Laser-Scaneinheit, die beispielsweise mithilfe eines rotierenden Spiegels ein weitwinkliges oder 360°-Panoramabild der Umgebung erfasst.
  • Im Folgenden wird ein erfindungsgemäßes Verfahren zur Navigation eines Bodenbearbeitungsgeräts beschrieben, das beispielsweise von dem in 1 dargestellten Bodenbearbeitungsgerät 1 durchgeführt werden kann. Das Verfahren wird daher nachfolgend beispielhaft an dem Bodenbearbeitungsgerät 1 der 1 erläutert.
  • In 2 ist eine Draufsicht auf einen von Wänden begrenzten Raum 13 gezeigt. Das hier nicht dargestellte Bodenbearbeitungsgerät fährt entlang einer durch Referenzpunkte 14 führenden Bahnkurve 15. Gestartet ist das Gerät 1 an einer Startposition P1.
  • In regelmäßigen Zeitabständen wird bei der Bewegung des Geräts 1 von der Startposition P1 an den Referenzpunkten 14 die zu dem Zeitpunkt jeweils aktuelle Position des Geräts 1 zusammen mit Sensorinformationen gespeichert. Sensorinformationen sind in diesem Zusammenhang solche Informationen, die zu einem späteren Zeitpunkt bei einer Positionsbestimmung durch ein Homing-Verfahren, insbesondere einem visuellen Homing-Verfahren, verwendet werden können, sowie Informationen von den Abstandssensoren 9, die entweder zusammen mit den Sensorinformationen oder in einer separaten Hinderniskarte gespeichert werden. Beispielhaft umfassen die Sensorinformationen jeweils ein Umgebungsbild, möglichst ein Panoramabild, aufgenommen beispielsweise durch die Kamera 10 des Geräts 1 gemäß der 1. Entsprechend wird an der Position ein erstes Umgebungsbild B1 aufgenommen und gemeinsam mit der Position P1 gespeichert. Die Startposition P1 und das Bild B1 sind dabei einander zugeordnet.
  • Es wird davon ausgegangen, dass beim Start von der Startposition P1 sowohl die Position als auch die Ausrichtung des Geräts 1 bekannt sind, beispielsweise weil die Startposition P1 die Position der Lade- oder Basisstation des Geräts 1 ist, die den Koordinatenursprung definiert. Nach dem Losfahren des Geräts 1 wird dann eine aktuelle Position des Geräts 1 zunächst anhand von Fahrinformationen der Sensoren 7 odometrisch bestimmt. Hierzu können beispielsweise die bekannten Odometrie-Beziehungen von R. Siegwart und I.R. Nourbakhsh aus dem Buch „Introduction to Autonomous Mobile Robots", MIT Press, 2004 verwendet werden, wobei Annahmen über die Unsicherheiten der Fahrinformationen vorgegeben werden. Das Verfahren wird mit unveränderter Fahrtrichtung fortgesetzt, bis ein Hindernis vor dem Gerät 1 detektiert wird, beispielsweise über den Näherungssensor 9. Im dargestellten Beispiel geschieht dies nach dem fünften Referenzpunkt 14 nach dem Start. Bis dahin wurde ein erster möglichst gerader Bahnabschnitt abgefahren, der nachfolgend auch als erste Reihe bezeichnet wird. Vorteilhafterweise kann die erste Reihe entlang einer Wand des Raums 13 verlaufen. In dem Fall können durch seitliche Abstandssensoren 9 bestimmte Abstände zur Wand verwendet werden, um eine möglichst gerade erste Reihe zu erhalten. Alternativ können auch zuvor in der ersten Reihe aufgenommene Bilder zur Positionsbestimmung verwendet werden, um einen möglichst geraden Bahnabschnitt zu fahren, oder die Lade- oder Basisstation des Geräts 1 kann zu diesem Zweck im Bild der Kamera 10 angepeilt werden.
  • Es erfolgt dann eine Drehung des Geräts 1 um 90°, hier im Uhrzeigersinn, gefolgt von einer Bewegung um wiederum eine vorgegebene Distanz, die sich beispielsweise an der Breite des Reinigungswerkzeugs orientiert. Das Gerät 1 dreht sich danach wiederum um 90° im Uhrzeigersinn und steht damit am Anfang einer weiteren Reihe, von der in der 2 beispielhaft die Position P8 gekennzeichnet ist.
  • Die erste Reihe dient der Aufnahme von ersten Umgebungsbildern an den Positionen der Referenzpunkte 14, die nur mittels odometrischer Methoden bestimmt werden. Alternativ kann auch beim Befahren der ersten Reihe eine Korrektur der Positionsbestimmung erfolgen, wobei zuvor in der ersten Reihe aufgenommene Bilder herangezogen werden. Eine weitere Alternative ist eine Fahrt entlang eines geraden Wandabschnitts, bei der die odometrische Positionsbestimmung in der ersten gefahrenen Reihe mithilfe der Abstandssensoren 9 korrigiert wird, oder das Anpeilen der Ladestation. Bei allen nachfolgend angefahrenen Referenzpunkten kann das odometrische Verfahren mit Positionskorrekturen anhand eines (visuellen) Homing-Verfahrens kombiniert werden.
  • Dazu wird nach Aufnahme eines aktuellen Bildes an der aktuellen Position, hier beispielhaft des Bildes B8 an der Position P8, dieses aktuelle Bild B8 mit einem oder mehreren zuvor aufgenommenen Bildern verglichen, in der 2 mit den drei Bildern aus der ersten Reihe. Aus dem Bildvergleich kann mit bekannten Verfahren des „lokalen visuellen Homings“ die Richtung bestimmt werden, unter der die aktuelle Position P8 jeweils von den zuvor erreichten Positionen der ersten Reihe aus erscheint, ebenso die Differenz in der Azimuthorientierung, in der die Bilder aufgenommen wurden. Die Differenzen in der Azimuthorientierung werden nachfolgend auch als Orientierungsdifferenzen bezeichnet. Diese Richtungen sind als Richtungsvektoren 16 in der Figur eingezeichnet. Anhand der Richtungsvektoren 16 und der Orientierungsdifferenzen kann ausgehend von den bekannten Positionen der ersten Reihe die odometrisch bestimmte Positionsschätzung korrigiert werden.
  • Das beschriebene Verfahren liefert so jederzeit eine (relativ zur Startposition, welche ein „Weltkoordinatensystem“ definiert) absolute Position und Orientierung des Geräts 1. Ebenso kann das Verfahren auch Informationen zur Genauigkeit liefern, mit der Position und Orientierung angegeben werden können, z.B. in Form einer Wahrscheinlichkeitsverteilung.
  • Im Folgenden wird anhand von 2 ein anmeldungsgemäßes Navigationsverfahren für ein Bodenbearbeitungsgerät beschrieben, durch das zum einen der gesamte Raum 13 mit einem möglichst kleinen Anteil an Mehrfachüberfahrten abgefahren wird und zum anderen bei diesem Abfahren eine Karte des Raums 13 unter Einbeziehung von Hindernissen erstellt wird.
  • Mithilfe des zuvor beschriebenen Verfahrens fährt das Gerät 1 ausgehend von der Position P1 eine mäanderförmige Bahn ab. Die einzelnen Reihen der Bahn sind parallel zueinander ausgerichtet, wobei die Länge der Reihen durch die Länge der ersten Reihe beschränkt ist, da für eine Navigation auf der zweiten und allen folgenden Reihen durch das angewendete Verfahren des visuellen Homings Referenzpunkte 14 auf der jeweils vorhergehenden Reihe vorteilhaft unter einem nicht zu flachen Winkel, beispielsweise unter einem Winkel von mindestens 45 Grad zur aktuellen Reihe, anpeilbar sein sollten. Dies wird erreicht, indem eine Reihe nicht (oder nur wenig) über die parallele Vorgängerreihe hinaus verlängert wird. Eine Reihe kann jedoch auch kürzer als die Vorgängerreihe sein, falls das Gerät 1 auf ein Hindernis trifft.
  • Gemäß dem zuvor beschriebenen Verfahren wird ein Raumbereich 17 mit einer zusammenhängenden mäanderförmigen Bahn abgefahren. Ein solcher Raumbereich 17 wird im Rahmen der Anmeldung auch als ein Block 17 bezeichnet. Er weist jeweils einen Startpunkt 18 (in der Figur als dickerer Punkt eingezeichnet) und einen Endpunkt 19 (als Stern gekennzeichnet) auf. Wenn die nachfolgenden Reihen eines Blocks 17 zu keiner Seite weiter als die erste Reihe nach außen ragen, nimmt der Block 17 die Form eines Rechtecks an. Es wird angemerkt, dass eine Reihe in der Regel nicht länger als die Vorgängerreihe sein sollte, dass jedoch ein leichtes Überfahren der durch die erste Reihe abgesteckten Breite zu einer oder beiden Seiten jedoch durchaus möglich ist, wodurch der Block 17 z.B. anstelle eines Rechtecks die Form eines Trapezes oder eines Parallelogramms annimmt. Eine Reihe kann auch kürzer als eine Vorgängerreihe sein, z.B. wenn die Reihe an einem Hindernis endet.
  • In dieser wie auch den nächsten Figuren werden die Blöcke 17 in Reihenfolge ihres Abfahrens mit angehängten Indizes a, b, c usw. gekennzeichnet. Gleiches gilt für Startpunkte 18 und Endpunkte 19 eines jeden Blocks 17. Der vorliegend zuerst abgefahrene Block 17a endet an dem Endpunkt 19a, da an dieser Stelle aufgrund der angrenzenden Wand keine weitere Reihe an den Block 17a angesetzt werden kann. Erfindungsgemäß wird nun ein nächster Startpunkt 18b eines nächsten Blocks 17b angefahren, wobei dieser Block 17b mit seiner ersten Reihe so zum Block 17a positioniert ist, dass an Referenzpunkten 14 auf dieser ersten Reihe – beispielhaft dem in der Figur eingezeichneten Referenzpunkt 14 an der Position Pn – ihre Positionen mittels des Verfahrens des visuellen Homings an Referenzpunkten 14 eines bereits zuvor abgefahrenen Blocks 17 – hier dem Block 17a – korrigiert werden können. Die erste Reihe des Blocks 17b wird nun solange in der angegebenen Richtung weitergefahren, bis entweder ein Hindernis erreicht wird oder bis eine Referenzierung (d.h. Positionskorrektur) an bereits vorhandenen Referenzpunkten 14 nicht mehr möglich ist.
  • Im vorliegenden Fall endet die erste Reihe aufgrund einer Wand des Raums 13, woraufhin in bekannter Weise eine nächste Reihe des Blocks 17b abgefahren wird, die sich dann an den Referenzpunkten 14 der ersten Reihe dieses Blocks 17b orientieren kann. Der zweite Block 17b endet mit den Endpunkten 19b, mit dem auch der gesamte Raum 13 abgefahren ist.
  • Neben einer topologisch-metrischen Karte des Raums 13, in die die Positionen P1....Pn mit zugehörigen Bildern B1...Bn für das visuelle Homing-Verfahren eingetragen werden, wird bei der Fahrt des Geräts 1 eine Hinderniskarte angelegt, in der an jedem der Referenzpunkte 14 die lokale Umgebung eingetragen wird. Diese wird durch Hindernissensoren des Geräts 1, beispielsweise den in 1 dargestellten Näherungssensor 9, aufgezeichnet, wenn sich das Gerät 1 auf seiner Fahrt in der Nähe dieses Referenzpunktes 14 befindet. Wird ein Referenzpunkt 14 mehrfach angefahren, können die Hindernisinformationen entsprechend aktualisiert werden.
  • Jeweils am Ende eines Blocks 17, hier beispielsweise am Ende des ersten Blocks 17a am Endpunkt 19a, wird eine mögliche Startposition für den nächsten Block, hier die Startposition 18b für den Block 17b, ermittelt. Dazu werden die topologisch-metrische Karte und die Hinderniskarte konsultiert. Es wird ein neuer Startpunkt 18 eines nächsten Blocks 17 gesucht, der nicht im Bereich der bestehenden topologisch-metrische Karte liegt und an dem gemäß der Hinderniskarte (noch) kein Hindernis verzeichnet ist. Dabei wird ausgehend von dem jeweiligen Endpunkt 19, hier dem Endpunkt 19a, gesucht, so dass eine möglichst kurze Fahrt 20 zum nächsten Startpunkt 18, hier dem Startpunkt 18b, notwendig ist. Zusätzlich oder alternativ können auch weitere Kriterien für die Auswahl des Startpunktes 18 herangezogen werden, z.B. die voraussichtliche Länge der ersten Reihe der Bahn des neuen Blocks 17, die möglichst groß sein sollte. Kann nach Abschluss eines Blocks 17, hier dem Block 17b, am entsprechenden Endpunkt 19 kein neuer Startpunkt mehr gefunden werden, ist das Verfahren beendet. Das Gerät 1 kann nun mithilfe der angelegten topologisch-metrischen Karte des Raums 13 und der Hinderniskarte im Raum 13 navigieren, um zurück zu seinem ursprünglichen Startpunkt, hier dem Startpunkt 18a, zu fahren und dort beispielsweise eine Lade- oder Basisstation anzusteuern.
  • 3 zeigt in gleicher Weise wie 2 einen Raum 13 mit anderem Grundriss. Wiederum erfolgt eine Fahrt des Geräts 1 vom Startpunkt 18a eines ersten Blocks 17a aus. Dieser endet am Endpunkt 19a, von dem aus ein Startpunkt 18b eines nächsten Blocks 17b unter Zuhilfenahme der Hinderniskarte gesucht wird. Hier findet sich in unmittelbarer Umgebung des Endpunkts 19a kein möglicher nächster Startpunkt. Dieser kann erst in der Umgebung des Anfangspunktes der dritten Reihe des ersten Blocks 17b gefunden werden. Entsprechend navigiert das Gerät 1 mithilfe der topologisch-metrischen Karte und der Hinderniskarte zu diesem Startpunkt 18b. Für die Planung des Pfades zu dem Startpunkt 18b kann beispielsweise ein Verfahren zur Bestimmung kürzester Pfade in Graphen auf die topologisch-metrische Karte angewandt werden. In 3 ist beispielhaft ein direkter Weg 20 zum nächsten Startpunkt 18b dargestellt. Auch von dem Startpunkt 18b erfolgt wiederum eine Navigation des Geräts 1 mäanderförmig im nächsten Block 17b, wobei zu jeder Zeit eine Positionsbestimmung mithilfe von bereits angefahrenen Referenzpunkten 14 erfolgt.
  • 4 zeigt in einem weiteren Beispiel in gleicher Art wie die 2 und 3 eine Fahrt durch einen Raum 13 mit einem wiederum anderen Grundriss. Bei diesem Beispiel befindet sich etwa in der Mitte des Raums 13 ein inselförmiges Hindernis 21, beispielsweise ein Raumteiler oder ein Möbelstück. Das zuvor beschriebene Verfahren führt hier zu einer Navigation des Geräts 1 in vier aufeinanderfolgenden Blöcken 17a bis 17d, wodurch wiederum der gesamte freie Raum des Raums 13 abgefahren wird, wobei wiederum an jedem Referenzpunkt 14 eine Positionsbestimmung anhand von bereits bekannten abgefahrenen Referenzpunkten 14 möglich ist. Am Ende der Fahrt des Geräts 1 in der letzten Reihe des Blocks 17d ist eine Positionsbestimmung zum einen anhand von Punkten des Blocks 17d und zum anderen anhand von Referenzpunkten 14 des ersten Blocks 17a möglich. Wenn bei den Punkten der letzten Reihe des Blocks 17d eine derartige mehrfache Positionsbestimmung mittels visuellen Homings durchgeführt wird, kann eine zwischen beiden Positionsbestimmungen ermittelte Diskrepanz benutzt werden, um einen sich im Laufe des Verfahrens akkumulierten Fehler zu bestimmen und ggf. anhand des Fehlers zuvor aufgenommene Referenzpunkte 14 zu korrigieren. Dabei kann angenommen werden, dass sich ein Fehler tendenziell im Laufe des Verfahrens erhöht, so dass weiter zurückliegende Referenzpunkte weniger stark korrigiert werden als später aufgenommene Referenzpunkte 14.
  • In einer Weiterbildung des beschriebenen Verfahrens ist es möglich, ausgehend von einem Block auch quer, z.B. senkrecht, zu diesem eine sogenannte Stichfahrt anzusetzen, um beispielsweise enge Durchgänge wie Türen zu durchfahren. Des Weiteren können Zusatzstrategien vorgesehen sein, wie. z.B. ein Umfahren von Hindernissen.
  • 5 zeigt schließlich eine im Computermodell simulierte Fahrt eines Bodenreinigungsgeräts bei einem realen Grundriss einer Wohnetage. Von den einzelnen Blöcken 17 sind in diesem Beispiel nur die Reihen durch Fahrbahnen markiert. Ohne auf die Details des Ergebnisses dieser Simulation einzugehen, ist jedoch bereits an dieser grafischen Darstellung der simulierten Fahrbahnen ersichtlich, dass mit dem anmeldungsgemäßen Verfahren eine gute Abdeckung des gesamten frei zugänglichen Raums der dargestellten Wohnung erfolgt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102007016802 B3 [0005]
  • Zitierte Nicht-Patentliteratur
    • R. Siegwart und I.R. Nourbakhsh aus dem Buch „Introduction to Autonomous Mobile Robots“, MIT Press, 2004 [0024]

Claims (10)

  1. Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät (1), das eine Antriebseinheit (5) und eine Steuereinrichtung (8) zur Steuerung der Antriebseinheit (5) aufweist, wobei eine aktuelle Position mithilfe eines Vergleichs von Sensordaten, aufgenommen an der aktuellen Position, mit gespeicherten Sensordaten, aufgenommen an vorherigen Positionen des Bodenbearbeitungsgeräts (1), bestimmt wird, und wobei ein erster Raumbereich (17a) von einem ersten Startpunkt (18a) bis zu einem ersten Endpunkt (19a) auf einer mäanderförmigen Bahn (15) abgefahren wird, dadurch gekennzeichnet, dass ein weiterer Raumbereich (17b, 17c, 17d) von einem weiteren Startpunkt (18b, 18c, 18d) bis zu einem weiteren Endpunkt (19b, 19c, 19d) auf einer ebenfalls mäanderförmigen Bahn (15) abgefahren wird, wobei der weitere Startpunkt (18b, 18c, 18d) so gewählt wird, dass für zumindest einen ersten Abschnitt der Bahn (15) im weiteren Raumbereich (17b, 17c, 17d) für alle Referenzpunkte (14) ein Vergleich von Sensordaten, aufgenommen an diesen Referenzpunkten (14), mit gespeicherten Sensordaten, aufgenommen an Referenzpunkten (14) in einem der zuvor befahrenen Raumbereiche (17a) erfolgt, durch den eine Korrektur einer Positionsschätzung des Bodenbearbeitungsgeräts (1) erfolgen kann.
  2. Verfahren nach Anspruch 1, bei dem während der Fahrt des Bodenbearbeitungsgeräts (1) an jedem der Referenzpunkte (14) ein Umgebungsbild als Sensordaten aufgenommen wird, wobei der Vergleich der Umgebungsbilder in einem visuellen Homing-Verfahren erfolgt.
  3. Verfahren nach Anspruch 1 oder 2, bei dem während der Fahrt des Bodenbearbeitungsgeräts (1) eine topologisch-metrische Karte erstellt wird, die gespeicherte Positionen und gespeicherte Sensordaten umfasst.
  4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem während der Fahrt des Bodenbearbeitungsgeräts (1) eine Hinderniskarte erstellt wird, die Informationen über die Umgebung eines Referenzpunktes (14) umfasst.
  5. Verfahren nach Anspruch 4, bei dem die Informationen über die Umgebung eines Referenzpunktes (14) von Abstandssensoren (9) des Bodenbearbeitungsgeräts (1) stammen.
  6. Verfahren nach einem der Ansprüche 3 bis 5, bei dem ein weiterer Startpunkt für einen weiteren Raumbereich (17b, 17c, 17d) anhand der topologisch-metrischen Karte und/oder der Hinderniskarte ermittelt wird.
  7. Verfahren nach Anspruch 6, bei dem solange weitere Startpunkte für einen weiteren Raumbereich (17b, 17c, 17d) ermittelt und angefahren werden, wie in der topologisch-metrischen Karte und/oder der Hinderniskarte Bereiche vorhanden sind, die weder von Referenzpunkten (14), noch von Hindernissen belegt sind.
  8. Verfahren nach einem der Ansprüche 1 bis 7, bei dem zur Positionsbestimmung zusätzlich Fahrinformationen des Bodenbearbeitungsgeräts (1), die von Sensoren (7) bereitgestellt werden, verwendet werden.
  9. Verfahren nach einem der Ansprüche 1 bis 8, bei dem die Raumbereiche (17a bis 17d) rechteckig, trapezförmig oder parallelogrammförmig sind.
  10. Selbstfahrendes Bodenbearbeitungsgerät (1), mit einer Antriebseinheit (5) und einer Steuereinrichtung (8) zur Steuerung der Antriebseinheit (5), dadurch gekennzeichnet, dass das Bodenbearbeitungsgerät (1) zur Durchführung eines Verfahrens zur Navigation nach einem der Ansprüche 1 bis 9 eingerichtet ist.
DE102012112036.6A 2012-12-10 2012-12-10 Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät Active DE102012112036B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102012112036.6A DE102012112036B4 (de) 2012-12-10 2012-12-10 Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012112036.6A DE102012112036B4 (de) 2012-12-10 2012-12-10 Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät

Publications (2)

Publication Number Publication Date
DE102012112036A1 true DE102012112036A1 (de) 2014-06-12
DE102012112036B4 DE102012112036B4 (de) 2023-06-07

Family

ID=50777900

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012112036.6A Active DE102012112036B4 (de) 2012-12-10 2012-12-10 Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät

Country Status (1)

Country Link
DE (1) DE102012112036B4 (de)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016180514A1 (de) * 2015-05-13 2016-11-17 Universität Bielefeld Bodenbearbeitungsgerät und verfahren zu dessen navigation sowie schwarm von bodenbearbeitungsgeräten und verfahren zu deren gemeinsamer navigation
DE102015119865A1 (de) * 2015-11-17 2017-05-18 RobArt GmbH Robotergestützte Bearbeitung einer Oberfläche mittels eines Roboters
EP3428885A4 (de) * 2016-03-09 2019-08-14 Guangzhou Airob Robot Technology Co., Ltd. Kartenkonstruktionsverfahren und korrekturverfahren und -vorrichtung
DE102018113015A1 (de) 2018-05-30 2019-12-05 Armin Stark Autonome, mobile Arbeitmaschine
US10860029B2 (en) 2016-02-15 2020-12-08 RobArt GmbH Method for controlling an autonomous mobile robot
US11188086B2 (en) 2015-09-04 2021-11-30 RobArtGmbH Identification and localization of a base station of an autonomous mobile robot
US11550054B2 (en) 2015-06-18 2023-01-10 RobArtGmbH Optical triangulation sensor for distance measurement
US11709489B2 (en) 2017-03-02 2023-07-25 RobArt GmbH Method for controlling an autonomous, mobile robot
US11768494B2 (en) 2015-11-11 2023-09-26 RobArt GmbH Subdivision of maps for robot navigation
US11789447B2 (en) 2015-12-11 2023-10-17 RobArt GmbH Remote control of an autonomous mobile robot

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007016802B3 (de) 2007-04-05 2008-05-15 Miele & Cie. Kg Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004004505B9 (de) 2004-01-22 2010-08-05 Alfred Kärcher Gmbh & Co. Kg Bodenbearbeitungsgerät sowie Verfahren zu dessen Steuerung

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007016802B3 (de) 2007-04-05 2008-05-15 Miele & Cie. Kg Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
R. Siegwart und I.R. Nourbakhsh aus dem Buch "Introduction to Autonomous Mobile Robots", MIT Press, 2004

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10345821B2 (en) 2015-05-13 2019-07-09 Universitaet Bielefeld Floor-treatment apparatus and navigation system therefor
DE102015006014A1 (de) * 2015-05-13 2016-11-17 Universität Bielefeld Bodenbearbeitungsgerät und Verfahren zu dessen Navigation sowie Schwarm von Bodenbearbeitungsgeräten und Verfahren zu deren gemeinsamer Navigation
WO2016180514A1 (de) * 2015-05-13 2016-11-17 Universität Bielefeld Bodenbearbeitungsgerät und verfahren zu dessen navigation sowie schwarm von bodenbearbeitungsgeräten und verfahren zu deren gemeinsamer navigation
US11550054B2 (en) 2015-06-18 2023-01-10 RobArtGmbH Optical triangulation sensor for distance measurement
US11188086B2 (en) 2015-09-04 2021-11-30 RobArtGmbH Identification and localization of a base station of an autonomous mobile robot
US11768494B2 (en) 2015-11-11 2023-09-26 RobArt GmbH Subdivision of maps for robot navigation
US11175670B2 (en) 2015-11-17 2021-11-16 RobArt GmbH Robot-assisted processing of a surface using a robot
DE102015119865A1 (de) * 2015-11-17 2017-05-18 RobArt GmbH Robotergestützte Bearbeitung einer Oberfläche mittels eines Roboters
DE102015119865B4 (de) 2015-11-17 2023-12-21 RobArt GmbH Robotergestützte Bearbeitung einer Oberfläche mittels eines Roboters
US11789447B2 (en) 2015-12-11 2023-10-17 RobArt GmbH Remote control of an autonomous mobile robot
US10860029B2 (en) 2016-02-15 2020-12-08 RobArt GmbH Method for controlling an autonomous mobile robot
US11709497B2 (en) 2016-02-15 2023-07-25 RobArt GmbH Method for controlling an autonomous mobile robot
EP3428885A4 (de) * 2016-03-09 2019-08-14 Guangzhou Airob Robot Technology Co., Ltd. Kartenkonstruktionsverfahren und korrekturverfahren und -vorrichtung
US11709489B2 (en) 2017-03-02 2023-07-25 RobArt GmbH Method for controlling an autonomous, mobile robot
DE102018113015A1 (de) 2018-05-30 2019-12-05 Armin Stark Autonome, mobile Arbeitmaschine

Also Published As

Publication number Publication date
DE102012112036B4 (de) 2023-06-07

Similar Documents

Publication Publication Date Title
DE102012112036B4 (de) Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät
DE102007016802B3 (de) Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes
DE102015119865B4 (de) Robotergestützte Bearbeitung einer Oberfläche mittels eines Roboters
EP3295267B1 (de) Bodenbearbeitungsgerät und verfahren zu dessen navigation sowie schwarm von bodenbearbeitungsgeräten und verfahren zu deren gemeinsamer navigation
EP2977844B1 (de) Verfahren zur reinigung oder bearbeitung eines raumes mittels eines selbsttätig verfahrbaren gerätes
EP2818954B1 (de) Verfahren zum Planen einer virtuellen Spur, fahrerloses Transportfahrzeug mit einer Steuervorrichtung zur Unterstützung des entsprecheden Planungsverfahrens
EP3234715B1 (de) Verfahren zur kartierung einer bearbeitungsfläche für autonome roboterfahrzeuge
DE60011674T2 (de) Autonomes mehrplattform robotersystem
EP2752726B1 (de) Bodenbehandlungsmaschine und Verfahren zum Behandeln von Bodenflächen
EP2758841B1 (de) Autonomes arbeitsgerät
WO2012089679A1 (de) Verfahren zur bearbeitung einer fläche mittels eines roboter-fahrzeugs
CH619799A5 (en) Orientation device for an appliance system which moves over a surface for the purpose of treating it
DE102008001813A1 (de) Ansteuerverfahren für ein Roboterfahrzeug sowie Roboterfahrzeug
EP1769662A1 (de) Landwirtschaftliche Arbeitseinheit mit einem Arbeitsaggregat zum Erzeugen einer Objektreihe
DE102013202075A1 (de) Bewegungsstrategieerarbeitungs- und/oder Navigationsvorrichtung
EP3710781A1 (de) Verfahren zur automatischen führung eines fahrzeugs entlang eines virtuellen schienensystems
DE102018113015A1 (de) Autonome, mobile Arbeitmaschine
EP2741161B1 (de) Selbstfahrendes bodenbearbeitungsgerät und verfahren zur positionsbestimmung bei einem selbstfahrenden bodenbearbeitungsgerät
DE102014208434A1 (de) Autonomes Fahrzeug und Navigationsverfahren für ein autonomes Fahrzeug zur Kollisionsvermeidung
DE102014110201B3 (de) Selbstfahrender Roboter und Verfahren zur Hinderniserkennung bei einem selbstfahrenden Roboter
DE102010029241A1 (de) Bodenbearbeitungsgerät sowie Verfahren zur Bearbeitung einer Bodenfläche
DE102004013811A1 (de) Verfahren zur flächendeckenden Befahrung eines Gebietes sowie Fahrzeug zur Durchführung des Verfahrens
DE102022103370A1 (de) Verfahren zur sensorgestützten Führung einer Arbeitsmaschine und entsprechende Anordnung
DE102022109611A1 (de) Verbesserte hindernishandhabung für ein robotisches arbeitsgerät
DE202022100588U1 (de) Unbemanntes, autonomes Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R083 Amendment of/additions to inventor(s)
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001020000

Ipc: G05D0001430000

R020 Patent grant now final