DE102007016802B3 - Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes - Google Patents

Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes Download PDF

Info

Publication number
DE102007016802B3
DE102007016802B3 DE102007016802A DE102007016802A DE102007016802B3 DE 102007016802 B3 DE102007016802 B3 DE 102007016802B3 DE 102007016802 A DE102007016802 A DE 102007016802A DE 102007016802 A DE102007016802 A DE 102007016802A DE 102007016802 B3 DE102007016802 B3 DE 102007016802B3
Authority
DE
Germany
Prior art keywords
self
images
navigating
travel
soil cultivation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102007016802A
Other languages
English (en)
Inventor
Lorenz Gerstmayr
Sven Kreft
Ralf Prof. Dr. Möller
Frank Röben
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Miele und Cie KG
Universitaet Bielefeld
Original Assignee
Miele und Cie KG
Universitaet Bielefeld
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Miele und Cie KG, Universitaet Bielefeld filed Critical Miele und Cie KG
Priority to DE102007016802A priority Critical patent/DE102007016802B3/de
Application granted granted Critical
Publication of DE102007016802B3 publication Critical patent/DE102007016802B3/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Abstract

Die Erfindung betrifft ein Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1), welches mit einer Antriebseinheit (4, 5), einer Steuereinheit (8) zum Steuern der Fahrtrichtung und einer ersten Sensorvorrichtung (10) zur optischen Erfassung eines Umgebungsbildes ausgestattet ist, wobei die Navigation derart erfolgt, dass sich das Bodenbearbeitungsgerät (1) auf einer vorgegebenen Bahn (14) innerhalb eines Raums bewegt. Damit das Verfahren bei geringer Rechnerleistung effektiv und sicher arbeitet, wird vorgeschlagen, dass die Steuereinrichtung die Fahrtrichtung vom jeweiligen Standort des Bodenbearbeitungsgerätes bis zum nächsten Punkt auf der vorgegebenen Bahn mit Hilfe eines Verfahrens der Ego-Motion Estimation und Triangulation ermittelt, und wobei die vorgegebene Bahn nicht zu einem von der ersten Sensorvorrichtung (10) optisch erfassten Ausgangspunkt führt.

Description

  • Die Erfindung betrifft ein Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes, welches mit einer Antriebseinheit, einer Steuereinheit zum Steuern der Fahrtrichtung und einer ersten Sensorvorrichtung zur optischen Erfassung eines Umgebungsbildes ausgestattet ist, wobei die Navigation derart erfolgt, dass sich das Bodenbearbeitungsgerät auf einer vorgegebenen Bahn innerhalb eines Raums bewegt, wobei die Steuereinrichtung die Fahrtrichtung vom jeweiligen Standort des Bodenbearbeitungsgerätes bis zum nächsten Punkt auf der vorgegebenen Bahn mit Hilfe eines Verfahrens der Ego-Motion Estimation ermittelt, und wobei die vorgegebene Bahn nicht zu einem von der ersten Sensorvorrichtung optisch erfassten Ausgangspunkt führt.
  • Die Verwendung von selbstfahrenden Bodenbearbeitungsgeräten zur Säuberung von Bodenflächen oder zum Rasenschneiden ist bekannt. Der Einsatz in der Landwirtschaft oder als Minenräumgerät ist ebenfalls denkbar. Einfache Systeme arbeiten nach dem Zufallsprinzip, d. h. bei einer Kollision mit einem Hindernis oder beim Auftreffen auf eine Begrenzung ändern sie lediglich ihre Fahrtrichtung. Aus der DE 298 24 544 U1 ist es beispielsweise bekannt, zur Begrenzung eines zu bearbeitenden Areals ein Kabel zu verwenden, in welches ein Wechselstromsignal eingespeist wird. Das Bodenbearbeitungsgerät besitzt dann einen Sensor, der in der Lage ist, dieses Signal zu erkennen. Ziel jedes Einsatzes ist eine möglichst vollständige Bearbeitung einer Bodenfläche, wobei auch mehrfaches Überfahren von Bereichen in Kauf genommen wird. Der damit verbundene Vorteil einer einfachen und preiswerten Sensorik wird mit größerem Zeitbedarf erkauft.
  • Komplexe Systeme sollen deshalb eine systematische Fahrstrategie bieten, die neben der vollständigen Überdeckung der zu bearbeitenden Fläche einen möglichst geringen Mehrfachbesuch garantiert. Diese Anforderungen lassen sich in rechteckigen Räumen durch mäandrierende Bewegungsbahnen erfüllen, andere Einsatzfälle können beispielsweise mittels spiralförmiger Bahnen besser gelöst werden. Zur zielgerichteten Navigation der Systeme sind folgende Verfahren bekannt:
    Mittels Odometrie wird die gefahrene Strecke einzelner Räder ausgewertet und zur Steuerung im Raum verwendet. Hierdurch ist das Abfahren von vorgegebenen Bahnen wie Mäander oder Spiralen ansatzweise möglich. Durch Radschlupf, insbesondere auf Teppichen und Bodenunebenheiten im Indoorbereich und schlammigem oder sandigem Untergrund im Outdoorbereich, summieren sich allerdings unvermeidliche Messfehler mit der Zeit auf. Auch Abweichungen im Radumfang, beispielsweise durch Nachlassen des Luftdrucks in Pneus, verursachen Messfehler. Dies führt nach kurzen Fahrstrecken zu starken Bahnabweichungen, was bei den oben genannten Einsatzfällen, wo eine Fläche vollständig bearbeitet werden soll, nicht erwünscht ist. Auch durch Kombination mit Abstands- und/oder Kamerasensoren ist das Odometrieverfahren nur mit Abstrichen tauglich. Außerdem stellen diese Verfahren (SLAM) hohe Anforderungen an die Genauigkeit der Sensoren und an die Leistung eines Steuerrechners zur Auswertung der Sensorsignale.
  • Andere Systeme verwenden künstliche Landmarken, wie z. B. IR-Spots, RFID-Chips oder GPS. Die beiden ersten Alternativen erfordern eine aufwändige und meist teure Vorleistung des Anwenders, die Verwendung von GPS ist nur im Outdoorbereich und dort auch nur mit geringer Genauigkeit möglich.
  • In der Natur finden Insekten, z.B. Wüstenameisen, zum Nest zurück, die lediglich über ca. 1 Million Neuronen verfügen. Diese Anzahl reicht in einer komplexen realen Umgebung nicht für die oben beschriebene Objekterkennung, Kartenerstellung und Pfadplanung aus, zumal sie auch für alle anderen Aufgaben, die ein Tier hat, ausreichen müssen. Aus der Beobachtung dieser Tiere haben Informatiker in Zusammenarbeit mit Biologen eine ganze Klasse von Verfahren abgeleitet, die man unter dem Oberbegriff Ego-Motion Estimation zusammenfasst. Die Anwendung solcher Verfahren ist bisher auf das Auffinden eines bereits besuchten, nahe gelegenen Ausgangspunktes beschränkt, was auch als lokales visuelles Homing bezeichnet wird. Lokale visuelle Homingverfahren berechnen aus zwei Bildern einen Homevektor, der vom Aufnahmeort des einen Bildes zu dem des anderen weist, bzw. eine Homerichtung.
  • Es existieren derzeit drei wichtige Klassen von Verfahren des lokalen visuellen Homings, die ohne Tiefeninformation auskommen:
    • 1. Korrespondenzverfahren/Optischer Fluss: Bei diesen Verfahren wird versucht, eine lokale Region aus dem ersten Bild im jeweils zweiten wiederzufinden. Dies kann durch eine explizite Suche nach einer passenden Partnerregion geschehen (Blockmatching), oder durch Näherungslösungen (1st/2nd order differential flow methods). Die gefundene Korrespondenz definiert einen Verschiebungsvektor im Bild, den Flussvektor, der in eine zugehörige Bewegungsrichtung, den lokalen Homevektor, umgerechnet werden kann. Diese lokalen Homevektoren werden dann zu einem Gesamthomevektor verknüpft, z. B. durch Mittelung. Eine Vorauswahl geeigneter Regionen für die Suche ist möglich. Literatur. Vardy A., Möller R. (2005) Biologically plausible visual homing methods based an optical flow techniques. Connection Science 17: 47-89
    • 2. Descent in Image Distances (Abstieg in Bildabständen): Diese Verfahren berechnen Abstandsmaße zwischen Bildern. Der Homevektor wird so bestimmt, dass sich in diese Richtung das Abstandsmaß verringert. Beim ursprünglichen Verfahren (Zeil et al., 2003) sind dazu Testschritte (Bewegungen des Roboters) erforderlich, bspw. um den Bildabstand an drei Punkten im Raum zu bestimmen, was eine Berechnung des Gradienten im Bildabstand ermöglicht. Neuere Verfahren (MFDID, Möller and Vardy, 2006) vermeiden diese Testschritte durch Vorhersageschritte, die keine Bewegung des Roboters erfordern. Die Berechnung des Abstandsmaßes erfolgt entweder direkt auf der Bildinformation, oder auf kompakten Beschreibungen der Bilder durch Parametervektoren. Literatur: Zeil J., Hoffmann M. I., Chahl J. S. (2003) Catchment areas of panoramic images in outdoor scenes. Journal of the Optical Society of America A 20: 450-469; Möller R., Vardy A. (2006) Local Visual Homing by Matched-Filter Descent in Image Distances. Biological Cybernetics, 95: 413-430
    • 3. Warping (Bildverzerrung): Dieses Verfahren (Franz et al., 1998) bestimmt den Homevektor sowie weitere Bewegungsparameter durch Bildverzerrung und Suche. Eines der Bilder wird so verzerrt, als ob der Roboter ausgehend vom Aufnahmeort des Bildes eine bestimmte Bewegung durchgeführt hätte. Nun wird der Raum der möglichen Bewegungen des Roboters durchmustert, und es wird festgestellt, welches der verzerrten Varianten des ersten Bildes am besten mit dem zweiten Bild übereinstimmt. Die Bewegungsparameter, die zur besten Passung gehören, ergeben den Homevektor und zusätzlich Information über die relative Orientierung der Bilder zueinander. Literatur: Franz M. O., Schälkopf B., Mallot H. A., Bülthoff H. H. (1998) Where did I take that snapshot? Scene-based homing by image matching. Biological Cybernetics 79: 191-202
  • Über diese exemplarisch genannten Verfahren des lokalen visuellen Homings hinaus sind zahlreiche weitere Lösungen des Ego-Motion Estimation-Problems bekannt.
  • Desweiteren kann aus zwei an unterschiedlichen Orten aufgenommenen Panoramabildern auch die relative Orientierung der Kamera (Azimuth) an beiden Orten bestimmt werden. Dazu wird das erste der Panoramabilder gegen das zweite im Azimuth (horizontaler Winkel) schrittweise verschoben. Es wird ein Bildabstandsmaß zwischen dem verschobenen ersten Bild und dem ursprünglichen zweiten Bild berechnet. Dieses Abstandsmaß hat ein globales Minimum bei derjenigen Verschiebung, bei der beide Bilder so ausgerichtet sind, als ob sie in gleicher Orientierung der Kamera aufgenommen worden wären. Ist bekannt, in welcher Orientierung das eine Bild aufgenommen wurde, so kann aus dem Verfahren ermittelt werden, in welcher Orientierung das zweite aufgenommen wurde. Dieses Verfahren ist also ein "Bildkompass", der magnetische Kompasse ersetzen kann, die im Indoor-Bereich als unzuverlässig bekannt sind. Der Bildkompass kann eingesetzt werden, um in lokalen Homing-Verfahren beide Bilder vor Anwendung des Homing-Verfahrens in dieselbe Orientierung zu bringen. Dies ist bei o.g. Verfahren der Klassen 1 und 2 erforderlich.
    • Literatur: Zeil J., Hoffmann M. I., Chahl J. S. (2003) Catchment areas of panoramic images in outdoor scenes. Journal of the Optical Society of America A 20: 450-469;
  • Ein gattungsgemäßes Verfahren ist aus Koyasu, H.; Miura, J.; Shiray, Y.; Mobile robot navigation in dynamic environments using omidirectional stereo; in Robotics and Automation, 2003 Proceedings, IEEE International Conference an Volume 1, 14-19 Sept. 2003 Page (s):893-898 vol.1 bekannt. Dort wird mittels eines stereoskopischen Sensors eine Umgebungskarte erzeugt und ein Roboter mit Hilfe eines Verfahrens der Ego-Motion Estimation zu einem Zielpunkt bewegt. Aufgabe des beschriebenen Verfahrens ist es, den Roboter auf einer möglichst kurzen Strecke von einem Startpunkt zu einem Zielpunkt zu navigieren und dabei statischen und dynamische Hindernissen auszuweichen.
  • Aus der DE 101 64 280 A1 ist ein Reinigungsrobotersystem bekannt, welcher mit Hilfe von Bilddaten seine Eigenposition erkennt und Hindernisse detektiert. Der Roboter soll sich auf einer vorgegeben Bahn bewegen, die hierzu verwendete Navigationsstrategie ist nicht beschrieben.
  • Aus der DE 196 14 916 A1 ist ein Fahrroboter für die automatische Behandlung von Bodenflächen bekannt. Der Roboter ist mit Sensoren zur Aufnahme von Daten eines Raummodells ausgestattet. Aus diesen Daten soll eine Fahrstrecke und eine Bearbeitungsstrecke berechnet werden. Die Art der Navigation zur Einhaltung dieser Strecken ist nicht beschrieben.
  • Der Erfindung stellt sich somit das Problem, ein Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes der eingangs genannten Art zu offenbaren, welches die eingangs genannten Nachteile vermeidet und bei geringer Rechnerleistung effektiv und sicher arbeitet.
  • Erfindungsgemäß wird dieses Problem durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung ergeben sich aus den nachfolgenden Unteransprüchen.
  • Zur Durchführung des erfindungsgemäßen Verfahrens erfasst die erste Sensoreinrichtung zunächst Umgebungsbilder auf bekannten Bahnpunkten, anschließend ermittelt die Steuereinrichtung Vektoren vom aktuellen Bahnpunkt zu mindestens zwei vorhergehenden Bahnpunkten durch Vergleich des Umgebungsbildes des aktuellen Bahnpunktes mit den Umgebungsbildern der mindestens zwei vorhergehenden Bahnpunkte, und zuletzt ermittelt die Steuereinrichtung die weitere Fahrtrichtung durch Auswertung der Vektoren in der Art, dass die vorgegebene Bahn mäanderförmig oder annähernd spiralförmig ausgebildet ist und dass die Steuereinrichtung die weitere Fahrtrichtung durch Regelung des Abstands zur Vorgängerbahn ermittelt. Das vorbeschriebene Verfahren benötigt eine geringe Rechnerkapazität und ist trotzdem ausreichend genau, um das selbstfahrende Bodenbearbeitungsgerät auf seiner vorgegebenen Bahn zu halten.
  • Zur Verbesserung der Genauigkeit erfasst die Sensorvorrichtung als Umgebungsbild ein 360°-Panoramabild. Ein solches Bild kann dadurch erzeugt werden, dass die Kamera mit ihrer optischen Achse auf das Zentrum eines hyperbolischen Spiegels gerichtet ist.
  • Zur Ermittlung der Bahnpunkte, an denen Umgebungsbilder erfasst werden, bedient sich die Steuereinrichtung in zweckmäßiger Weise einer zweiten Sensoreinrichtung zur Erfassung der Fahrdistanz. Hier kann beispielsweise ein Odometrie-Verfahren eingesetzt werden. Zur Vereinfachung dieses Verfahrens ist es zweckmäßig, wenn Fahrdistanzen zwischen benachbarten Bahnpunkten gleich sind.
  • Die Berechnung der weiteren Fahrtrichtung kann in einfachster Weise durch Triangulation der Vektoren erfolgen.
  • Wie bereits eingangs erwähnt, sollte die vorgegebene Bahn je nach Beschaffenheit der zu bearbeitenden Fläche mäanderförmig oder annähernd spiralförmig ausgebildet sein. Dann kann die Steuereinrichtung die weitere Fahrtrichtung einfach durch Regelung des Abstands zur Vorgängerbahn ermitteln. Insbesondere bei mäanderförmigen Bahnen, aber auch anderen Fahrstrategien auf Flächen, auf denen sich Hindernisse befinden, muss die Fahrtrichtung beim Auftreffen auf die Flächengrenze oder auf das Hindernis geändert werden. Hierzu ist es vorteilhaft, eine dritte Sensoreinrichtung einzusetzen, mit deren Hilfe die Steuereinrichtung Flächengrenzen und/oder Hindernisse erkennt und die Fahrtrichtung ändert.
  • Der Vergleich der Umgebungsbilder kann vorteilhafterweise durch eines oder mehrere der nachfolgend aufgeführten Verfahren erfolgen, welche dadurch gekennzeichnet sind, dass
    • • Merkmale in den Bildern extrahiert und deren Verschiebung zwischen den Bildern bestimmt wird;
    • • Bilder entsprechend angenommener Bewegungen zwischen Aufnahmeorten verzerrt und miteinander verglichen werden;
    • • Abstandsmaße zwischen den Bildern minimiert werden.
  • Ein Ausführungsbeispiel der Erfindung ist in den Zeichnungen rein schematisch dargestellt und wird nachfolgend näher beschrieben. Es zeigt
  • 1 die Schemaskizze eines Bodenbearbeitungsgerätes zur Durchführung des erfindungsgemäßen Verfahrens;
  • 2 den ersten Teil einer mäandrischen Fahrstrecke des Bodenbearbeitungsgerätes;
  • 3 eine Schemaskizze zur Berechnung des Abstandes zur Vorgängerbahn;
  • 4 die weitere Fahrstrecke des Bodenbearbeitungsgerätes.
  • Bei dem in 1 dargestellten Bodenbearbeitungsgerät 1 sind lediglich die zur Navigation notwendigen Bauteile dargestellt. Die Werkzeuge, die zur Durchführung der eigentlichen Arbeit notwendig sind, wie Schneidmesser, Sauggebläse, Reinigungsbürsten etc., sind zur Durchführung des erfindungsgemäßen Navigationsverfahrens nicht relevant und deshalb hier weder dargestellt noch beschrieben.
  • Das Bodenbearbeitungsgerät 1, im Folgenden Roboter 1 genannt, besitzt ein Gehäuse 2, dessen Bodenplatte 3 von einem Fahrwerk getragen wird. Das Fahrwerk besteht aus zwei Antriebsrädern 4, denen jeweils ein Antriebsmotor 5 zugeordnet ist, und einem Stützrad 6. In die Antriebsmotoren 5 sind Sensoren 7 integriert, mit denen die Anzahl der Radumdrehungen bzw. der Drehwinkel der Antriebsräder 4 messbar ist. Aus dem Sensorsignal und dem Radumfang berechnet und regelt der Steuerrechner 8 die jeweilige Fahrdistanz eines Rades 4, durch unterschiedliche Ansteuerung der beiden Motoren 5 kann außerdem die Fahrtrichtung beeinflusst werden. Näherungssensoren 9, von denen in der Figur beispielhaft ein einziger Infrarotsensor eingezeichnet ist, erkennen Hindernisse (nicht dargestellt) und ermöglichen dem Steuerrechner 8, die Fahrtrichtung beim Auftreffen auf ein solches Hindernis zu ändern. In komplexen Systemen ist es sinnvoll, mehrere solcher Sensoren 9 auf dem Umfang des Roboters 1 zu verteilen, wobei auch Bumper oder andere Sensoren verwendet werden können. Wird der Roboter 1 in einem geschlossenen Raum eingesetzt, stellen üblicherweise die Wände nicht nur ein Hindernis, sondern auch die Grenze der zu bearbeitenden Fläche dar. Neben den Näherungssensoren 9 sind dann keine weiteren Sensoren zur Erkennung dieser Grenze erforderlich. Im Outdoor-Bereich müssen weitere Vorkehrungen getroffen werden, durch die Grenzen gesetzt und erkannt werden, siehe beispielsweise DE 298 24 544 U1 . Zur Erfassung von Umgebungsbildern auf seiner Bewegungsbahn besitzt der Roboter ein Kameramodul 10, beispielsweise einen CCD-Chip mit geeigneter Auflösung, dessen optische Achse 11 auf einen hyperbolischen Spiegel 12 gerichtet ist. Auf diese Weise kann ein 360°-Panoramabild von der Umgebung des Roboters 1 erfasst und zur weiteren Auswertung an den Steuerrechner 8 gegeben werden.
  • Im Folgenden wird das Navigationsverfahren beschrieben, mit dem sich der Roboter 1 mit Hilfe der vorgenannten Sensoren 7, 9 und 10 und eines vom Steuerrechner 8 durchgeführten Verfahren zur Ego-Motion Estimation in einem geschlossenen Raum 13 bewegt. Aus den 2 und 4 ist erkennbar, dass eine mäandrische Bahn 14 vorgegeben ist. Auf dieser Bahn 14 werden an vorgegeben Bahnpunkten Si, d. h., jeweils nach einer Fahrdistanz von b (beispielsweise 20 cm), Umgebungsbilder aufgenommen. Die Fahrdistanz b wird vom Steuerrechner 8 durch bekannte Odometrieverfahren mit Hilfe der Sensoren 7 berechnet. Trifft der Roboter 1 auf ein Hindernis in Form einer Wand 13, welches der Steuerrechner 8 mit Hilfe des Näherungssensors 9 erkennt, dreht er um 90°, legt eine weitere Strecke d0 zurück und dreht nochmals um 90° (siehe 2). Anschließend wird ein weiteres Umgebungsbild am Punkt S5 aufgenommen.
  • Der Steuerrechner 8 vergleicht nun das Umgebungsbild am Punkt S5 mit den Umgebungsbildern an den Punkten S3 und S4 mittels eines oder mehrerer der vorbeschriebenen Verfahren der Ego-Motion Estimation oder speziell des lokalen visuellen Homings und ermittelt die Home-Vektoren S5-54 bzw. S5-S3. Dabei kommt bei einigen Verfahren des lokalen visuellen Homings der oben beschriebene Bildkompass zum Einsatz, um beide Bilder zuvor in dieselbe Orientierung zu bringen.
  • Aus den beiden Winkeln β1 und β2, die aufgrund der Home-Vektoren bekannt sind, und der bekannten Fahrdistanz b berechnet der Steuerrechner 8 dann durch Triangulation die Distanz d0, den Abstand zur Vorgängerbahn S1-S4. Da die Ermittlung in Abhängigkeit von der Kameraauflösung, der Rechnerleistung und anderer Einflussfaktoren mit Ungenauigkeiten behaftet sein kann, kann es sinnvoll sein, weitere benachbarte Homevektoren (S5-S2 und S5-S1) heranzuziehen. Nach dem Zurücklegen von weiteren Distanzen b und der Aufnahme von Umgebungsbildern werden durch das vorgenannte Verfahren erneut die Abstände zur Vorgängerbahn S1-S4 berechnet. Durch Regelung des Abstandes d0 auf einen vorgegebenen Wert, im einfachsten Fall ist d0 = b, wird eine Fahrtrichtung eingehalten, die parallel und im vorgegebenen Abstand zur Vorgängerbahn ist. Der Abstand d0 sollte vorzugsweise etwa der Distanz b entsprechen, da bei zu steilen oder zu flachen Winkeln die Triangulation zu ungenau ist. Außerdem können zum Eliminieren von "Ausreißern" Plausibilitätsbetrachtungen und andere geeignete statistische Verfahren herangezogen werden. Für die Triangulation muss die Orientierung des Roboters in Bezug auf die Vorgängerbahn bekannt sein. Dazu wird der oben beschriebene Bildkompass verwendet. Der Bildkompass ermittelt die relative Orientierung des Roboters zur Vorgängerbahn anhand eines aktuell aufgenommenen Bildes (z.B. S5) und eines Bildes auf der Vorgängerbahn (z.B. S1-S4), dessen Orientierung bekannt ist.

Claims (9)

  1. Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1), welches mit einer Antriebseinheit (4, 5), einer Steuereinheit (8) zum Steuern der Fahrtrichtung und einer ersten Sensorvorrichtung (10) zur optischen Erfassung eines Umgebungsbildes ausgestattet ist, wobei die Navigation derart erfolgt, dass sich das Bodenbearbeitungsgerät (1) auf einer vorgegebenen Bahn (14) innerhalb eines Raums bewegt, wobei die Steuereinrichtung die Fahrtrichtung vom jeweiligen Standort des Bodenbearbeitungsgerätes bis zum nächsten Punkt auf der vorgegebenen Bahn mit Hilfe eines Verfahrens der Ego-Motion Estimation ermittelt, und wobei die vorgegebene Bahn nicht zu einem von der ersten Sensorvorrichtung (10) optisch erfassten Ausgangspunkt führt, gekennzeichnet durch folgende Verfahrensschritte: • Erfassen von Umgebungsbildern auf bekannten Bahnpunkten (Si) durch die erste Sensoreinrichtung (10); • Ermitteln der Vektoren vom aktuellen Bahnpunkt zu mindestens zwei vorhergehenden Bahnpunkten durch Vergleich des Umgebungsbildes des aktuellen Bahnpunktes mit den Umgebungsbildern der mindestens zwei vorhergehenden Bahnpunkte durch die Steuereinrichtung (8); • Ermitteln der weiteren Fahrtrichtung durch Auswertung der Vektoren durch die Steuereinrichtung (8) in der Art, dass die vorgegebene Bahn (14) mäanderförmig oder annähernd spiralförmig ausgebildet ist und dass die Steuereinrichtung die weitere Fahrtrichtung durch Regelung des Abstands zur Vorgängerbahn (S1-S4) ermittelt.
  2. Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1) nach Anspruch 1, dadurch gekennzeichnet, dass die Sensorvorrichtung (10) als Umgebungsbild ein 360°-Panoramabild erfasst.
  3. Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Steuereinrichtung (8) die Bahnpunkte, an denen Umgebungsbilder erfasst werden, mit Hilfe einer zweiten Sensoreinrichtung (7) zur Erfassung der Fahrdistanz ermittelt.
  4. Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1) nach Anspruch 3, dadurch gekennzeichnet, dass die Fahrdistanzen (b) zwischen benachbarten Bahnpunkten gleich sind.
  5. Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinrichtung die weitere Fahrtrichtung durch Triangulation der Vektoren ermittelt.
  6. Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinrichtung (8) mittels einer dritten Sensoreinrichtung (9) beim Auftreffen des Bodenbearbeitungsgerätes (1) auf ein Hindernis oder eine Begrenzung (13) der zu bearbeitenden Fläche die Fahrtrichtung ändert.
  7. Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Vergleich der Umgebungsbilder dadurch erfolgt, dass Merkmale in den Bildern extrahiert werden und deren Verschiebung zwischen den Bildern bestimmt wird.
  8. Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Vergleich der Umgebungsbilder dadurch erfolgt, dass Bilder entsprechend angenommener Bewegungen zwischen Aufnahmeorten verzerrt und miteinander verglichen werden.
  9. Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Vergleich der Umgebungsbilder dadurch erfolgt, dass Abstandsmaße zwischen den Bildern minimiert werden.
DE102007016802A 2007-04-05 2007-04-05 Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes Expired - Fee Related DE102007016802B3 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102007016802A DE102007016802B3 (de) 2007-04-05 2007-04-05 Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007016802A DE102007016802B3 (de) 2007-04-05 2007-04-05 Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes

Publications (1)

Publication Number Publication Date
DE102007016802B3 true DE102007016802B3 (de) 2008-05-15

Family

ID=39277945

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007016802A Expired - Fee Related DE102007016802B3 (de) 2007-04-05 2007-04-05 Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes

Country Status (1)

Country Link
DE (1) DE102007016802B3 (de)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ITPD20080261A1 (it) * 2008-09-12 2010-03-13 Provincia Lombardo Veneta I Stituto Di Cura S C Apparato di interfaccia uomo - macchina per scopo riabilitativo e metodo di riabilitazione
DE102009003061A1 (de) * 2009-05-13 2010-11-18 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bahnregelung, insbesondere von mobilen Fahrzeugen
DE102012212204A1 (de) * 2012-07-12 2014-01-16 Siemens Aktiengesellschaft Parameterbestimmung, Kalibrierung
DE102012112401B3 (de) * 2012-12-17 2014-03-27 Miele & Cie. Kg Selbstfahrender Roboter und Verfahren zur Bestimmung einer Drehstellung mindestens eines Antriebsrads eines selbstfahrenden Roboters
DE102012221572A1 (de) * 2012-11-26 2014-05-28 Robert Bosch Gmbh Autonomes Fortbewegungsgerät
EP2741161A2 (de) 2012-12-10 2014-06-11 Miele & Cie. KG Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Positionsbestimmung bei einem selbstfahrenden Bodenbearbeitungsgerät
DE102012112036A1 (de) 2012-12-10 2014-06-12 Miele & Cie. Kg Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät
DE102012112740A1 (de) 2012-12-20 2014-06-26 Miele & Cie. Kg Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters
DE102012112741A1 (de) 2012-12-20 2014-06-26 Miele & Cie. Kg Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters
DE102013100192A1 (de) 2013-01-10 2014-07-10 Miele & Cie. Kg Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter
DE102013201769A1 (de) * 2013-02-04 2014-08-07 Deutsches Zentrum für Luft- und Raumfahrt e.V. Vermessungsanordnung und Verfahren zur Vermessung
DE102013104547A1 (de) 2013-05-03 2014-11-06 Miele & Cie. Kg Selbstfahrendes Bodenbearbeitungsgerät und optisches System für ein selbstfahrendes Bodenbearbeitungsgerät
DE102014110201B3 (de) * 2014-07-21 2015-08-13 Miele & Cie. Kg Selbstfahrender Roboter und Verfahren zur Hinderniserkennung bei einem selbstfahrenden Roboter
DE102014012811A1 (de) 2014-03-27 2015-10-01 Miele & Cie. Kg Bodenreinigungsgerät und Verfahren und System zum Ermitteln eines Wohnungsgrundrisses durch ein selbstfahrendes Bodenreinigungsgerät
DE102015104251A1 (de) 2015-03-20 2016-09-22 Miele & Cie. Kg Bodenpflegegerät und Verfahren zur Pflege eines Hartbodens mit einem selbstfahrenden Bodenpflegegerät
DE102015104250A1 (de) 2015-03-20 2016-09-22 Miele & Cie. Kg Bodenpflegegerät und Verfahren zur Pflege eines zumindest teilweise mit Teppich belegten Bodens mit einem selbstfahrenden Bodenpflegegerät
DE102015104244A1 (de) 2015-03-20 2016-09-22 Miele & Cie. Kg Bodenpflegegerät und Verfahren zur Pflege eines Bodens mit einem selbstfahrenden Bodenpflegegerät
DE102015006014A1 (de) 2015-05-13 2016-11-17 Universität Bielefeld Bodenbearbeitungsgerät und Verfahren zu dessen Navigation sowie Schwarm von Bodenbearbeitungsgeräten und Verfahren zu deren gemeinsamer Navigation
EP3156872A1 (de) * 2015-10-13 2017-04-19 Looq Systems Inc Staubsaugender roboter mit sichtnavigationsfunktion und navigationsverfahren dafür
CN109843752A (zh) * 2016-09-15 2019-06-04 亚马逊科技有限公司 集成式障碍物检测和有效负载定心传感器系统
US10321625B2 (en) 2015-12-30 2019-06-18 Honda Research Institute Europe Gmbh Autonomous working machine such as autonomous lawn mower
US10860029B2 (en) 2016-02-15 2020-12-08 RobArt GmbH Method for controlling an autonomous mobile robot
US11175670B2 (en) 2015-11-17 2021-11-16 RobArt GmbH Robot-assisted processing of a surface using a robot
US11188086B2 (en) 2015-09-04 2021-11-30 RobArtGmbH Identification and localization of a base station of an autonomous mobile robot
US11550054B2 (en) 2015-06-18 2023-01-10 RobArtGmbH Optical triangulation sensor for distance measurement
US11709489B2 (en) 2017-03-02 2023-07-25 RobArt GmbH Method for controlling an autonomous, mobile robot
US11768494B2 (en) 2015-11-11 2023-09-26 RobArt GmbH Subdivision of maps for robot navigation
US11789447B2 (en) 2015-12-11 2023-10-17 RobArt GmbH Remote control of an autonomous mobile robot

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19614916A1 (de) * 1996-04-16 1997-11-06 Detlef Raupach Fahrroboter für die automatische Behandlung von Bodenflächen
DE29824544U1 (de) * 1997-09-19 2001-08-09 Electrolux Ab Elektronisches Begrenzungssystem
DE10164280A1 (de) * 2001-04-18 2002-10-31 Samsung Kwangju Electronics Co Reinigungsrobotersystem unter Verwendung eines Mobilkommunikationsnetzwerks

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19614916A1 (de) * 1996-04-16 1997-11-06 Detlef Raupach Fahrroboter für die automatische Behandlung von Bodenflächen
DE29824544U1 (de) * 1997-09-19 2001-08-09 Electrolux Ab Elektronisches Begrenzungssystem
DE10164280A1 (de) * 2001-04-18 2002-10-31 Samsung Kwangju Electronics Co Reinigungsrobotersystem unter Verwendung eines Mobilkommunikationsnetzwerks

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
Franz M. O., Schölkopf B., Mallot H.A., Bülthoff H.H. (1998) Where did I take that snapshot? Scene-based homing by image matching. Biological Cybernetics 79: 191-202 *
Koyasu,H., Miura,J., Shirai,Y.: Mobile robot na- vigation in dynamic environments using omnidirec- tional stereo, in Robitics and Automation, 2003, Proceedings, IEEE International Conference on Volume1, 14-19 Sept. 2003 Page(s): 893-898 vol.1
Koyasu,H., Miura,J., Shirai,Y.: Mobile robot navigation in dynamic environments using omnidirectional stereo, in Robitics and Automation, 2003, Proceedings, IEEE International Conference on Volume1, 14-19 Sept. 2003 Page(s): 893-898 vol.1 *
Möller R., Vardy A. (2006) Local Visual Homing by Matched-Filter Descent in Image Distances. Bio- logical Cybernetics. 95: 413-430
Möller R., Vardy A. (2006) Local Visual Homing by Matched-Filter Descent in Image Distances. Biological Cybernetics. 95: 413-430 *
Vardy A., Möller R. (2005) Biologically plausible visul homing methods based on optical flow tech- niques. Connection Science 17: 47-89
Vardy A., Möller R. (2005) Biologically plausible visul homing methods based on optical flow techniques. Connection Science 17: 47-89 *
Zeil J., Hoffmann M.I.. Chal J. S (2003) Catchment areas of panoramic images in outdoor scenes. Journal of the Optical Society A 20: 450-469 *

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ITPD20080261A1 (it) * 2008-09-12 2010-03-13 Provincia Lombardo Veneta I Stituto Di Cura S C Apparato di interfaccia uomo - macchina per scopo riabilitativo e metodo di riabilitazione
DE102009003061A1 (de) * 2009-05-13 2010-11-18 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bahnregelung, insbesondere von mobilen Fahrzeugen
DE102012212204B4 (de) * 2012-07-12 2016-02-11 Siemens Aktiengesellschaft Parameterbestimmung, Kalibrierung
DE102012212204A1 (de) * 2012-07-12 2014-01-16 Siemens Aktiengesellschaft Parameterbestimmung, Kalibrierung
DE102012221572A1 (de) * 2012-11-26 2014-05-28 Robert Bosch Gmbh Autonomes Fortbewegungsgerät
EP2741161A2 (de) 2012-12-10 2014-06-11 Miele & Cie. KG Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Positionsbestimmung bei einem selbstfahrenden Bodenbearbeitungsgerät
DE102012112036A1 (de) 2012-12-10 2014-06-12 Miele & Cie. Kg Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät
DE102012112037A1 (de) 2012-12-10 2014-06-12 Miele & Cie. Kg Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Positionsbestimmung bei einem selbstfahrenden Bodenbearbeitungsgerät
EP2741161A3 (de) * 2012-12-10 2017-07-12 Miele & Cie. KG Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Positionsbestimmung bei einem selbstfahrenden Bodenbearbeitungsgerät
DE102012112036B4 (de) 2012-12-10 2023-06-07 Miele & Cie. Kg Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät
DE102012112401B3 (de) * 2012-12-17 2014-03-27 Miele & Cie. Kg Selbstfahrender Roboter und Verfahren zur Bestimmung einer Drehstellung mindestens eines Antriebsrads eines selbstfahrenden Roboters
EP2743789A1 (de) 2012-12-17 2014-06-18 Miele & Cie. KG Selbstfahrender Roboter und Verfahren zur Bestimmung einer Drehstellung mindestens eines Antriebsrads eines selbstfahrenden Roboters
DE102012112741A1 (de) 2012-12-20 2014-06-26 Miele & Cie. Kg Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters
DE102012112740B4 (de) 2012-12-20 2024-02-29 Miele & Cie. Kg Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters
DE102012112740A1 (de) 2012-12-20 2014-06-26 Miele & Cie. Kg Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters
DE102012112741B4 (de) 2012-12-20 2022-10-27 Miele & Cie. Kg Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters
EP2755101A2 (de) 2013-01-10 2014-07-16 Miele & Cie. KG Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter
DE102013100192A1 (de) 2013-01-10 2014-07-10 Miele & Cie. Kg Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter
EP2755101A3 (de) * 2013-01-10 2017-11-29 Miele & Cie. KG Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter
DE102013201769A1 (de) * 2013-02-04 2014-08-07 Deutsches Zentrum für Luft- und Raumfahrt e.V. Vermessungsanordnung und Verfahren zur Vermessung
DE102013104547A1 (de) 2013-05-03 2014-11-06 Miele & Cie. Kg Selbstfahrendes Bodenbearbeitungsgerät und optisches System für ein selbstfahrendes Bodenbearbeitungsgerät
DE102014012811A1 (de) 2014-03-27 2015-10-01 Miele & Cie. Kg Bodenreinigungsgerät und Verfahren und System zum Ermitteln eines Wohnungsgrundrisses durch ein selbstfahrendes Bodenreinigungsgerät
DE102014110201B3 (de) * 2014-07-21 2015-08-13 Miele & Cie. Kg Selbstfahrender Roboter und Verfahren zur Hinderniserkennung bei einem selbstfahrenden Roboter
DE102015104244A1 (de) 2015-03-20 2016-09-22 Miele & Cie. Kg Bodenpflegegerät und Verfahren zur Pflege eines Bodens mit einem selbstfahrenden Bodenpflegegerät
DE102015104251B4 (de) 2015-03-20 2022-05-19 Miele & Cie. Kg Bodenpflegegerät und Verfahren zur Pflege eines Hartbodens mit einem selbstfahrenden Bodenpflegegerät
DE102015104251A1 (de) 2015-03-20 2016-09-22 Miele & Cie. Kg Bodenpflegegerät und Verfahren zur Pflege eines Hartbodens mit einem selbstfahrenden Bodenpflegegerät
DE102015104250A1 (de) 2015-03-20 2016-09-22 Miele & Cie. Kg Bodenpflegegerät und Verfahren zur Pflege eines zumindest teilweise mit Teppich belegten Bodens mit einem selbstfahrenden Bodenpflegegerät
US10345821B2 (en) 2015-05-13 2019-07-09 Universitaet Bielefeld Floor-treatment apparatus and navigation system therefor
DE102015006014A1 (de) 2015-05-13 2016-11-17 Universität Bielefeld Bodenbearbeitungsgerät und Verfahren zu dessen Navigation sowie Schwarm von Bodenbearbeitungsgeräten und Verfahren zu deren gemeinsamer Navigation
WO2016180514A1 (de) 2015-05-13 2016-11-17 Universität Bielefeld Bodenbearbeitungsgerät und verfahren zu dessen navigation sowie schwarm von bodenbearbeitungsgeräten und verfahren zu deren gemeinsamer navigation
US11550054B2 (en) 2015-06-18 2023-01-10 RobArtGmbH Optical triangulation sensor for distance measurement
US11188086B2 (en) 2015-09-04 2021-11-30 RobArtGmbH Identification and localization of a base station of an autonomous mobile robot
EP3156872A1 (de) * 2015-10-13 2017-04-19 Looq Systems Inc Staubsaugender roboter mit sichtnavigationsfunktion und navigationsverfahren dafür
US11768494B2 (en) 2015-11-11 2023-09-26 RobArt GmbH Subdivision of maps for robot navigation
US11175670B2 (en) 2015-11-17 2021-11-16 RobArt GmbH Robot-assisted processing of a surface using a robot
US11789447B2 (en) 2015-12-11 2023-10-17 RobArt GmbH Remote control of an autonomous mobile robot
US10321625B2 (en) 2015-12-30 2019-06-18 Honda Research Institute Europe Gmbh Autonomous working machine such as autonomous lawn mower
US11709497B2 (en) 2016-02-15 2023-07-25 RobArt GmbH Method for controlling an autonomous mobile robot
US10860029B2 (en) 2016-02-15 2020-12-08 RobArt GmbH Method for controlling an autonomous mobile robot
CN109843752A (zh) * 2016-09-15 2019-06-04 亚马逊科技有限公司 集成式障碍物检测和有效负载定心传感器系统
CN109843752B (zh) * 2016-09-15 2021-01-15 亚马逊科技有限公司 机器人驱动单元及其系统
US11709489B2 (en) 2017-03-02 2023-07-25 RobArt GmbH Method for controlling an autonomous, mobile robot

Similar Documents

Publication Publication Date Title
DE102007016802B3 (de) Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes
DE102012112036B4 (de) Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät
EP3295267B1 (de) Bodenbearbeitungsgerät und verfahren zu dessen navigation sowie schwarm von bodenbearbeitungsgeräten und verfahren zu deren gemeinsamer navigation
EP3659001B1 (de) Magnetometer für die roboternavigation
EP3443301B1 (de) Verfahren und system zum bestimmen einer globalen position einer ersten landmarke
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE10145150B4 (de) Verfahren zur Einstellung eines Kurses eines mobilen Roboters
DE60220435T2 (de) Autonome maschine
EP3491417B1 (de) Verfahren und system zum erfassen von landmarken in einem verkehrsumfeld einer mobilen einheit
EP1664674B1 (de) Verfahren und system zur bestimmung der aktualposition eines handhaltbaren messgerätes im raum
EP2755101B1 (de) Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter
EP2977844A1 (de) Verfahren zur reinigung oder bearbeitung eines raumes mittels eines selbsttätig verfahrbaren gerätes
DE102013207899A1 (de) Fahrerloses Transportfahrzeug, System mit einem Rechner und einem fahrerlosen Transportfahrzeug, Verfahren zum Planen einer virtuellen Spur und Verfahren zum Betreiben eines fahrerlosen Transportfahrzeugs
EP3355147A1 (de) Verfahren zum betrieb eines sich selbsttätig fortbewegenden fahrzeugs
WO2009033935A2 (de) Anordnung zum erfassen einer umgebung
DE102017210070A1 (de) Verfahren zum Erstellen einer digitalen Karte für ein automatisiertes Fahrzeug
DE102013202075A1 (de) Bewegungsstrategieerarbeitungs- und/oder Navigationsvorrichtung
WO2018115153A1 (de) Verfahren zur navigation und selbstlokalisierung eines sich autonom fortbewegenden bearbeitungsgerätes
DE102019218192A1 (de) Verfahren zum Bearbeiten von Pflanzen auf einem Feld
DE102018113015A1 (de) Autonome, mobile Arbeitmaschine
DE102007015552B3 (de) Selbstfahrender Roboter zur Behandlung von Bodenflächen
DE102014110201B3 (de) Selbstfahrender Roboter und Verfahren zur Hinderniserkennung bei einem selbstfahrenden Roboter
EP2741161B1 (de) Selbstfahrendes bodenbearbeitungsgerät und verfahren zur positionsbestimmung bei einem selbstfahrenden bodenbearbeitungsgerät
DE102022202548B3 (de) Verfahren zum Trainieren eines Computerprogrammprodukts
EP4148386A1 (de) Ermittlung einer absoluten initialposition eines fahrzeugs

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001020000

Ipc: G05D0001430000