DE102007016802B3 - Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes - Google Patents
Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes Download PDFInfo
- Publication number
- DE102007016802B3 DE102007016802B3 DE102007016802A DE102007016802A DE102007016802B3 DE 102007016802 B3 DE102007016802 B3 DE 102007016802B3 DE 102007016802 A DE102007016802 A DE 102007016802A DE 102007016802 A DE102007016802 A DE 102007016802A DE 102007016802 B3 DE102007016802 B3 DE 102007016802B3
- Authority
- DE
- Germany
- Prior art keywords
- self
- images
- navigating
- travel
- soil cultivation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 239000013598 vector Substances 0.000 title claims abstract description 22
- 230000007613 environmental effect Effects 0.000 claims description 16
- 239000002689 soil Substances 0.000 claims description 13
- 230000003287 optical effect Effects 0.000 claims description 11
- 238000003971 tillage Methods 0.000 claims description 11
- 230000033001 locomotion Effects 0.000 claims description 9
- 230000001276 controlling effect Effects 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims description 2
- 230000001105 regulatory effect Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 claims 2
- 230000000007 visual effect Effects 0.000 description 10
- 238000004140 cleaning Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 241000257303 Hymenoptera Species 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0272—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
Abstract
Die Erfindung betrifft ein Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1), welches mit einer Antriebseinheit (4, 5), einer Steuereinheit (8) zum Steuern der Fahrtrichtung und einer ersten Sensorvorrichtung (10) zur optischen Erfassung eines Umgebungsbildes ausgestattet ist, wobei die Navigation derart erfolgt, dass sich das Bodenbearbeitungsgerät (1) auf einer vorgegebenen Bahn (14) innerhalb eines Raums bewegt. Damit das Verfahren bei geringer Rechnerleistung effektiv und sicher arbeitet, wird vorgeschlagen, dass die Steuereinrichtung die Fahrtrichtung vom jeweiligen Standort des Bodenbearbeitungsgerätes bis zum nächsten Punkt auf der vorgegebenen Bahn mit Hilfe eines Verfahrens der Ego-Motion Estimation und Triangulation ermittelt, und wobei die vorgegebene Bahn nicht zu einem von der ersten Sensorvorrichtung (10) optisch erfassten Ausgangspunkt führt.
Description
- Die Erfindung betrifft ein Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes, welches mit einer Antriebseinheit, einer Steuereinheit zum Steuern der Fahrtrichtung und einer ersten Sensorvorrichtung zur optischen Erfassung eines Umgebungsbildes ausgestattet ist, wobei die Navigation derart erfolgt, dass sich das Bodenbearbeitungsgerät auf einer vorgegebenen Bahn innerhalb eines Raums bewegt, wobei die Steuereinrichtung die Fahrtrichtung vom jeweiligen Standort des Bodenbearbeitungsgerätes bis zum nächsten Punkt auf der vorgegebenen Bahn mit Hilfe eines Verfahrens der Ego-Motion Estimation ermittelt, und wobei die vorgegebene Bahn nicht zu einem von der ersten Sensorvorrichtung optisch erfassten Ausgangspunkt führt.
- Die Verwendung von selbstfahrenden Bodenbearbeitungsgeräten zur Säuberung von Bodenflächen oder zum Rasenschneiden ist bekannt. Der Einsatz in der Landwirtschaft oder als Minenräumgerät ist ebenfalls denkbar. Einfache Systeme arbeiten nach dem Zufallsprinzip, d. h. bei einer Kollision mit einem Hindernis oder beim Auftreffen auf eine Begrenzung ändern sie lediglich ihre Fahrtrichtung. Aus der
DE 298 24 544 U1 ist es beispielsweise bekannt, zur Begrenzung eines zu bearbeitenden Areals ein Kabel zu verwenden, in welches ein Wechselstromsignal eingespeist wird. Das Bodenbearbeitungsgerät besitzt dann einen Sensor, der in der Lage ist, dieses Signal zu erkennen. Ziel jedes Einsatzes ist eine möglichst vollständige Bearbeitung einer Bodenfläche, wobei auch mehrfaches Überfahren von Bereichen in Kauf genommen wird. Der damit verbundene Vorteil einer einfachen und preiswerten Sensorik wird mit größerem Zeitbedarf erkauft. - Komplexe Systeme sollen deshalb eine systematische Fahrstrategie bieten, die neben der vollständigen Überdeckung der zu bearbeitenden Fläche einen möglichst geringen Mehrfachbesuch garantiert. Diese Anforderungen lassen sich in rechteckigen Räumen durch mäandrierende Bewegungsbahnen erfüllen, andere Einsatzfälle können beispielsweise mittels spiralförmiger Bahnen besser gelöst werden. Zur zielgerichteten Navigation der Systeme sind folgende Verfahren bekannt:
Mittels Odometrie wird die gefahrene Strecke einzelner Räder ausgewertet und zur Steuerung im Raum verwendet. Hierdurch ist das Abfahren von vorgegebenen Bahnen wie Mäander oder Spiralen ansatzweise möglich. Durch Radschlupf, insbesondere auf Teppichen und Bodenunebenheiten im Indoorbereich und schlammigem oder sandigem Untergrund im Outdoorbereich, summieren sich allerdings unvermeidliche Messfehler mit der Zeit auf. Auch Abweichungen im Radumfang, beispielsweise durch Nachlassen des Luftdrucks in Pneus, verursachen Messfehler. Dies führt nach kurzen Fahrstrecken zu starken Bahnabweichungen, was bei den oben genannten Einsatzfällen, wo eine Fläche vollständig bearbeitet werden soll, nicht erwünscht ist. Auch durch Kombination mit Abstands- und/oder Kamerasensoren ist das Odometrieverfahren nur mit Abstrichen tauglich. Außerdem stellen diese Verfahren (SLAM) hohe Anforderungen an die Genauigkeit der Sensoren und an die Leistung eines Steuerrechners zur Auswertung der Sensorsignale. - Andere Systeme verwenden künstliche Landmarken, wie z. B. IR-Spots, RFID-Chips oder GPS. Die beiden ersten Alternativen erfordern eine aufwändige und meist teure Vorleistung des Anwenders, die Verwendung von GPS ist nur im Outdoorbereich und dort auch nur mit geringer Genauigkeit möglich.
- In der Natur finden Insekten, z.B. Wüstenameisen, zum Nest zurück, die lediglich über ca. 1 Million Neuronen verfügen. Diese Anzahl reicht in einer komplexen realen Umgebung nicht für die oben beschriebene Objekterkennung, Kartenerstellung und Pfadplanung aus, zumal sie auch für alle anderen Aufgaben, die ein Tier hat, ausreichen müssen. Aus der Beobachtung dieser Tiere haben Informatiker in Zusammenarbeit mit Biologen eine ganze Klasse von Verfahren abgeleitet, die man unter dem Oberbegriff Ego-Motion Estimation zusammenfasst. Die Anwendung solcher Verfahren ist bisher auf das Auffinden eines bereits besuchten, nahe gelegenen Ausgangspunktes beschränkt, was auch als lokales visuelles Homing bezeichnet wird. Lokale visuelle Homingverfahren berechnen aus zwei Bildern einen Homevektor, der vom Aufnahmeort des einen Bildes zu dem des anderen weist, bzw. eine Homerichtung.
- Es existieren derzeit drei wichtige Klassen von Verfahren des lokalen visuellen Homings, die ohne Tiefeninformation auskommen:
- 1. Korrespondenzverfahren/Optischer Fluss: Bei diesen Verfahren wird versucht, eine lokale Region aus dem ersten Bild im jeweils zweiten wiederzufinden. Dies kann durch eine explizite Suche nach einer passenden Partnerregion geschehen (Blockmatching), oder durch Näherungslösungen (1st/2nd order differential flow methods). Die gefundene Korrespondenz definiert einen Verschiebungsvektor im Bild, den Flussvektor, der in eine zugehörige Bewegungsrichtung, den lokalen Homevektor, umgerechnet werden kann. Diese lokalen Homevektoren werden dann zu einem Gesamthomevektor verknüpft, z. B. durch Mittelung. Eine Vorauswahl geeigneter Regionen für die Suche ist möglich. Literatur. Vardy A., Möller R. (2005) Biologically plausible visual homing methods based an optical flow techniques. Connection Science 17: 47-89
- 2. Descent in Image Distances (Abstieg in Bildabständen): Diese Verfahren berechnen Abstandsmaße zwischen Bildern. Der Homevektor wird so bestimmt, dass sich in diese Richtung das Abstandsmaß verringert. Beim ursprünglichen Verfahren (Zeil et al., 2003) sind dazu Testschritte (Bewegungen des Roboters) erforderlich, bspw. um den Bildabstand an drei Punkten im Raum zu bestimmen, was eine Berechnung des Gradienten im Bildabstand ermöglicht. Neuere Verfahren (MFDID, Möller and Vardy, 2006) vermeiden diese Testschritte durch Vorhersageschritte, die keine Bewegung des Roboters erfordern. Die Berechnung des Abstandsmaßes erfolgt entweder direkt auf der Bildinformation, oder auf kompakten Beschreibungen der Bilder durch Parametervektoren. Literatur: Zeil J., Hoffmann M. I., Chahl J. S. (2003) Catchment areas of panoramic images in outdoor scenes. Journal of the Optical Society of America A 20: 450-469; Möller R., Vardy A. (2006) Local Visual Homing by Matched-Filter Descent in Image Distances. Biological Cybernetics, 95: 413-430
- 3. Warping (Bildverzerrung): Dieses Verfahren (Franz et al., 1998) bestimmt den Homevektor sowie weitere Bewegungsparameter durch Bildverzerrung und Suche. Eines der Bilder wird so verzerrt, als ob der Roboter ausgehend vom Aufnahmeort des Bildes eine bestimmte Bewegung durchgeführt hätte. Nun wird der Raum der möglichen Bewegungen des Roboters durchmustert, und es wird festgestellt, welches der verzerrten Varianten des ersten Bildes am besten mit dem zweiten Bild übereinstimmt. Die Bewegungsparameter, die zur besten Passung gehören, ergeben den Homevektor und zusätzlich Information über die relative Orientierung der Bilder zueinander. Literatur: Franz M. O., Schälkopf B., Mallot H. A., Bülthoff H. H. (1998) Where did I take that snapshot? Scene-based homing by image matching. Biological Cybernetics 79: 191-202
- Über diese exemplarisch genannten Verfahren des lokalen visuellen Homings hinaus sind zahlreiche weitere Lösungen des Ego-Motion Estimation-Problems bekannt.
- Desweiteren kann aus zwei an unterschiedlichen Orten aufgenommenen Panoramabildern auch die relative Orientierung der Kamera (Azimuth) an beiden Orten bestimmt werden. Dazu wird das erste der Panoramabilder gegen das zweite im Azimuth (horizontaler Winkel) schrittweise verschoben. Es wird ein Bildabstandsmaß zwischen dem verschobenen ersten Bild und dem ursprünglichen zweiten Bild berechnet. Dieses Abstandsmaß hat ein globales Minimum bei derjenigen Verschiebung, bei der beide Bilder so ausgerichtet sind, als ob sie in gleicher Orientierung der Kamera aufgenommen worden wären. Ist bekannt, in welcher Orientierung das eine Bild aufgenommen wurde, so kann aus dem Verfahren ermittelt werden, in welcher Orientierung das zweite aufgenommen wurde. Dieses Verfahren ist also ein "Bildkompass", der magnetische Kompasse ersetzen kann, die im Indoor-Bereich als unzuverlässig bekannt sind. Der Bildkompass kann eingesetzt werden, um in lokalen Homing-Verfahren beide Bilder vor Anwendung des Homing-Verfahrens in dieselbe Orientierung zu bringen. Dies ist bei o.g. Verfahren der Klassen 1 und 2 erforderlich.
- Literatur: Zeil J., Hoffmann M. I., Chahl J. S. (2003) Catchment areas of panoramic images in outdoor scenes. Journal of the Optical Society of America A 20: 450-469;
- Ein gattungsgemäßes Verfahren ist aus Koyasu, H.; Miura, J.; Shiray, Y.; Mobile robot navigation in dynamic environments using omidirectional stereo; in Robotics and Automation, 2003 Proceedings, IEEE International Conference an Volume 1, 14-19 Sept. 2003 Page (s):893-898 vol.1 bekannt. Dort wird mittels eines stereoskopischen Sensors eine Umgebungskarte erzeugt und ein Roboter mit Hilfe eines Verfahrens der Ego-Motion Estimation zu einem Zielpunkt bewegt. Aufgabe des beschriebenen Verfahrens ist es, den Roboter auf einer möglichst kurzen Strecke von einem Startpunkt zu einem Zielpunkt zu navigieren und dabei statischen und dynamische Hindernissen auszuweichen.
- Aus der
DE 101 64 280 A1 ist ein Reinigungsrobotersystem bekannt, welcher mit Hilfe von Bilddaten seine Eigenposition erkennt und Hindernisse detektiert. Der Roboter soll sich auf einer vorgegeben Bahn bewegen, die hierzu verwendete Navigationsstrategie ist nicht beschrieben. - Aus der
DE 196 14 916 A1 ist ein Fahrroboter für die automatische Behandlung von Bodenflächen bekannt. Der Roboter ist mit Sensoren zur Aufnahme von Daten eines Raummodells ausgestattet. Aus diesen Daten soll eine Fahrstrecke und eine Bearbeitungsstrecke berechnet werden. Die Art der Navigation zur Einhaltung dieser Strecken ist nicht beschrieben. - Der Erfindung stellt sich somit das Problem, ein Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes der eingangs genannten Art zu offenbaren, welches die eingangs genannten Nachteile vermeidet und bei geringer Rechnerleistung effektiv und sicher arbeitet.
- Erfindungsgemäß wird dieses Problem durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung ergeben sich aus den nachfolgenden Unteransprüchen.
- Zur Durchführung des erfindungsgemäßen Verfahrens erfasst die erste Sensoreinrichtung zunächst Umgebungsbilder auf bekannten Bahnpunkten, anschließend ermittelt die Steuereinrichtung Vektoren vom aktuellen Bahnpunkt zu mindestens zwei vorhergehenden Bahnpunkten durch Vergleich des Umgebungsbildes des aktuellen Bahnpunktes mit den Umgebungsbildern der mindestens zwei vorhergehenden Bahnpunkte, und zuletzt ermittelt die Steuereinrichtung die weitere Fahrtrichtung durch Auswertung der Vektoren in der Art, dass die vorgegebene Bahn mäanderförmig oder annähernd spiralförmig ausgebildet ist und dass die Steuereinrichtung die weitere Fahrtrichtung durch Regelung des Abstands zur Vorgängerbahn ermittelt. Das vorbeschriebene Verfahren benötigt eine geringe Rechnerkapazität und ist trotzdem ausreichend genau, um das selbstfahrende Bodenbearbeitungsgerät auf seiner vorgegebenen Bahn zu halten.
- Zur Verbesserung der Genauigkeit erfasst die Sensorvorrichtung als Umgebungsbild ein 360°-Panoramabild. Ein solches Bild kann dadurch erzeugt werden, dass die Kamera mit ihrer optischen Achse auf das Zentrum eines hyperbolischen Spiegels gerichtet ist.
- Zur Ermittlung der Bahnpunkte, an denen Umgebungsbilder erfasst werden, bedient sich die Steuereinrichtung in zweckmäßiger Weise einer zweiten Sensoreinrichtung zur Erfassung der Fahrdistanz. Hier kann beispielsweise ein Odometrie-Verfahren eingesetzt werden. Zur Vereinfachung dieses Verfahrens ist es zweckmäßig, wenn Fahrdistanzen zwischen benachbarten Bahnpunkten gleich sind.
- Die Berechnung der weiteren Fahrtrichtung kann in einfachster Weise durch Triangulation der Vektoren erfolgen.
- Wie bereits eingangs erwähnt, sollte die vorgegebene Bahn je nach Beschaffenheit der zu bearbeitenden Fläche mäanderförmig oder annähernd spiralförmig ausgebildet sein. Dann kann die Steuereinrichtung die weitere Fahrtrichtung einfach durch Regelung des Abstands zur Vorgängerbahn ermitteln. Insbesondere bei mäanderförmigen Bahnen, aber auch anderen Fahrstrategien auf Flächen, auf denen sich Hindernisse befinden, muss die Fahrtrichtung beim Auftreffen auf die Flächengrenze oder auf das Hindernis geändert werden. Hierzu ist es vorteilhaft, eine dritte Sensoreinrichtung einzusetzen, mit deren Hilfe die Steuereinrichtung Flächengrenzen und/oder Hindernisse erkennt und die Fahrtrichtung ändert.
- Der Vergleich der Umgebungsbilder kann vorteilhafterweise durch eines oder mehrere der nachfolgend aufgeführten Verfahren erfolgen, welche dadurch gekennzeichnet sind, dass
- • Merkmale in den Bildern extrahiert und deren Verschiebung zwischen den Bildern bestimmt wird;
- • Bilder entsprechend angenommener Bewegungen zwischen Aufnahmeorten verzerrt und miteinander verglichen werden;
- • Abstandsmaße zwischen den Bildern minimiert werden.
- Ein Ausführungsbeispiel der Erfindung ist in den Zeichnungen rein schematisch dargestellt und wird nachfolgend näher beschrieben. Es zeigt
-
1 die Schemaskizze eines Bodenbearbeitungsgerätes zur Durchführung des erfindungsgemäßen Verfahrens; -
2 den ersten Teil einer mäandrischen Fahrstrecke des Bodenbearbeitungsgerätes; -
3 eine Schemaskizze zur Berechnung des Abstandes zur Vorgängerbahn; -
4 die weitere Fahrstrecke des Bodenbearbeitungsgerätes. - Bei dem in
1 dargestellten Bodenbearbeitungsgerät1 sind lediglich die zur Navigation notwendigen Bauteile dargestellt. Die Werkzeuge, die zur Durchführung der eigentlichen Arbeit notwendig sind, wie Schneidmesser, Sauggebläse, Reinigungsbürsten etc., sind zur Durchführung des erfindungsgemäßen Navigationsverfahrens nicht relevant und deshalb hier weder dargestellt noch beschrieben. - Das Bodenbearbeitungsgerät
1 , im Folgenden Roboter1 genannt, besitzt ein Gehäuse2 , dessen Bodenplatte3 von einem Fahrwerk getragen wird. Das Fahrwerk besteht aus zwei Antriebsrädern4 , denen jeweils ein Antriebsmotor5 zugeordnet ist, und einem Stützrad6 . In die Antriebsmotoren5 sind Sensoren7 integriert, mit denen die Anzahl der Radumdrehungen bzw. der Drehwinkel der Antriebsräder4 messbar ist. Aus dem Sensorsignal und dem Radumfang berechnet und regelt der Steuerrechner8 die jeweilige Fahrdistanz eines Rades4 , durch unterschiedliche Ansteuerung der beiden Motoren5 kann außerdem die Fahrtrichtung beeinflusst werden. Näherungssensoren9 , von denen in der Figur beispielhaft ein einziger Infrarotsensor eingezeichnet ist, erkennen Hindernisse (nicht dargestellt) und ermöglichen dem Steuerrechner8 , die Fahrtrichtung beim Auftreffen auf ein solches Hindernis zu ändern. In komplexen Systemen ist es sinnvoll, mehrere solcher Sensoren9 auf dem Umfang des Roboters1 zu verteilen, wobei auch Bumper oder andere Sensoren verwendet werden können. Wird der Roboter1 in einem geschlossenen Raum eingesetzt, stellen üblicherweise die Wände nicht nur ein Hindernis, sondern auch die Grenze der zu bearbeitenden Fläche dar. Neben den Näherungssensoren9 sind dann keine weiteren Sensoren zur Erkennung dieser Grenze erforderlich. Im Outdoor-Bereich müssen weitere Vorkehrungen getroffen werden, durch die Grenzen gesetzt und erkannt werden, siehe beispielsweiseDE 298 24 544 U1 . Zur Erfassung von Umgebungsbildern auf seiner Bewegungsbahn besitzt der Roboter ein Kameramodul10 , beispielsweise einen CCD-Chip mit geeigneter Auflösung, dessen optische Achse11 auf einen hyperbolischen Spiegel12 gerichtet ist. Auf diese Weise kann ein 360°-Panoramabild von der Umgebung des Roboters1 erfasst und zur weiteren Auswertung an den Steuerrechner8 gegeben werden. - Im Folgenden wird das Navigationsverfahren beschrieben, mit dem sich der Roboter
1 mit Hilfe der vorgenannten Sensoren7 ,9 und10 und eines vom Steuerrechner8 durchgeführten Verfahren zur Ego-Motion Estimation in einem geschlossenen Raum13 bewegt. Aus den2 und4 ist erkennbar, dass eine mäandrische Bahn14 vorgegeben ist. Auf dieser Bahn14 werden an vorgegeben Bahnpunkten Si, d. h., jeweils nach einer Fahrdistanz von b (beispielsweise 20 cm), Umgebungsbilder aufgenommen. Die Fahrdistanz b wird vom Steuerrechner8 durch bekannte Odometrieverfahren mit Hilfe der Sensoren7 berechnet. Trifft der Roboter1 auf ein Hindernis in Form einer Wand13 , welches der Steuerrechner8 mit Hilfe des Näherungssensors9 erkennt, dreht er um 90°, legt eine weitere Strecke d0 zurück und dreht nochmals um 90° (siehe2 ). Anschließend wird ein weiteres Umgebungsbild am Punkt S5 aufgenommen. - Der Steuerrechner
8 vergleicht nun das Umgebungsbild am Punkt S5 mit den Umgebungsbildern an den Punkten S3 und S4 mittels eines oder mehrerer der vorbeschriebenen Verfahren der Ego-Motion Estimation oder speziell des lokalen visuellen Homings und ermittelt die Home-Vektoren S5-54 bzw. S5-S3. Dabei kommt bei einigen Verfahren des lokalen visuellen Homings der oben beschriebene Bildkompass zum Einsatz, um beide Bilder zuvor in dieselbe Orientierung zu bringen. - Aus den beiden Winkeln β1 und β2, die aufgrund der Home-Vektoren bekannt sind, und der bekannten Fahrdistanz b berechnet der Steuerrechner
8 dann durch Triangulation die Distanz d0, den Abstand zur Vorgängerbahn S1-S4. Da die Ermittlung in Abhängigkeit von der Kameraauflösung, der Rechnerleistung und anderer Einflussfaktoren mit Ungenauigkeiten behaftet sein kann, kann es sinnvoll sein, weitere benachbarte Homevektoren (S5-S2 und S5-S1) heranzuziehen. Nach dem Zurücklegen von weiteren Distanzen b und der Aufnahme von Umgebungsbildern werden durch das vorgenannte Verfahren erneut die Abstände zur Vorgängerbahn S1-S4 berechnet. Durch Regelung des Abstandes d0 auf einen vorgegebenen Wert, im einfachsten Fall ist d0 = b, wird eine Fahrtrichtung eingehalten, die parallel und im vorgegebenen Abstand zur Vorgängerbahn ist. Der Abstand d0 sollte vorzugsweise etwa der Distanz b entsprechen, da bei zu steilen oder zu flachen Winkeln die Triangulation zu ungenau ist. Außerdem können zum Eliminieren von "Ausreißern" Plausibilitätsbetrachtungen und andere geeignete statistische Verfahren herangezogen werden. Für die Triangulation muss die Orientierung des Roboters in Bezug auf die Vorgängerbahn bekannt sein. Dazu wird der oben beschriebene Bildkompass verwendet. Der Bildkompass ermittelt die relative Orientierung des Roboters zur Vorgängerbahn anhand eines aktuell aufgenommenen Bildes (z.B. S5) und eines Bildes auf der Vorgängerbahn (z.B. S1-S4), dessen Orientierung bekannt ist.
Claims (9)
- Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (
1 ), welches mit einer Antriebseinheit (4 ,5 ), einer Steuereinheit (8 ) zum Steuern der Fahrtrichtung und einer ersten Sensorvorrichtung (10 ) zur optischen Erfassung eines Umgebungsbildes ausgestattet ist, wobei die Navigation derart erfolgt, dass sich das Bodenbearbeitungsgerät (1 ) auf einer vorgegebenen Bahn (14 ) innerhalb eines Raums bewegt, wobei die Steuereinrichtung die Fahrtrichtung vom jeweiligen Standort des Bodenbearbeitungsgerätes bis zum nächsten Punkt auf der vorgegebenen Bahn mit Hilfe eines Verfahrens der Ego-Motion Estimation ermittelt, und wobei die vorgegebene Bahn nicht zu einem von der ersten Sensorvorrichtung (10 ) optisch erfassten Ausgangspunkt führt, gekennzeichnet durch folgende Verfahrensschritte: • Erfassen von Umgebungsbildern auf bekannten Bahnpunkten (Si) durch die erste Sensoreinrichtung (10 ); • Ermitteln der Vektoren vom aktuellen Bahnpunkt zu mindestens zwei vorhergehenden Bahnpunkten durch Vergleich des Umgebungsbildes des aktuellen Bahnpunktes mit den Umgebungsbildern der mindestens zwei vorhergehenden Bahnpunkte durch die Steuereinrichtung (8 ); • Ermitteln der weiteren Fahrtrichtung durch Auswertung der Vektoren durch die Steuereinrichtung (8 ) in der Art, dass die vorgegebene Bahn (14 ) mäanderförmig oder annähernd spiralförmig ausgebildet ist und dass die Steuereinrichtung die weitere Fahrtrichtung durch Regelung des Abstands zur Vorgängerbahn (S1-S4) ermittelt. - Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (
1 ) nach Anspruch 1, dadurch gekennzeichnet, dass die Sensorvorrichtung (10 ) als Umgebungsbild ein 360°-Panoramabild erfasst. - Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (
1 ) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Steuereinrichtung (8 ) die Bahnpunkte, an denen Umgebungsbilder erfasst werden, mit Hilfe einer zweiten Sensoreinrichtung (7 ) zur Erfassung der Fahrdistanz ermittelt. - Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (
1 ) nach Anspruch 3, dadurch gekennzeichnet, dass die Fahrdistanzen (b) zwischen benachbarten Bahnpunkten gleich sind. - Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (
1 ) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinrichtung die weitere Fahrtrichtung durch Triangulation der Vektoren ermittelt. - Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (
1 ) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinrichtung (8 ) mittels einer dritten Sensoreinrichtung (9 ) beim Auftreffen des Bodenbearbeitungsgerätes (1 ) auf ein Hindernis oder eine Begrenzung (13 ) der zu bearbeitenden Fläche die Fahrtrichtung ändert. - Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (
1 ) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Vergleich der Umgebungsbilder dadurch erfolgt, dass Merkmale in den Bildern extrahiert werden und deren Verschiebung zwischen den Bildern bestimmt wird. - Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (
1 ) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Vergleich der Umgebungsbilder dadurch erfolgt, dass Bilder entsprechend angenommener Bewegungen zwischen Aufnahmeorten verzerrt und miteinander verglichen werden. - Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (
1 ) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Vergleich der Umgebungsbilder dadurch erfolgt, dass Abstandsmaße zwischen den Bildern minimiert werden.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007016802A DE102007016802B3 (de) | 2007-04-05 | 2007-04-05 | Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007016802A DE102007016802B3 (de) | 2007-04-05 | 2007-04-05 | Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102007016802B3 true DE102007016802B3 (de) | 2008-05-15 |
Family
ID=39277945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102007016802A Expired - Fee Related DE102007016802B3 (de) | 2007-04-05 | 2007-04-05 | Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102007016802B3 (de) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ITPD20080261A1 (it) * | 2008-09-12 | 2010-03-13 | Provincia Lombardo Veneta I Stituto Di Cura S C | Apparato di interfaccia uomo - macchina per scopo riabilitativo e metodo di riabilitazione |
DE102009003061A1 (de) * | 2009-05-13 | 2010-11-18 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Bahnregelung, insbesondere von mobilen Fahrzeugen |
DE102012212204A1 (de) * | 2012-07-12 | 2014-01-16 | Siemens Aktiengesellschaft | Parameterbestimmung, Kalibrierung |
DE102012112401B3 (de) * | 2012-12-17 | 2014-03-27 | Miele & Cie. Kg | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Drehstellung mindestens eines Antriebsrads eines selbstfahrenden Roboters |
DE102012221572A1 (de) * | 2012-11-26 | 2014-05-28 | Robert Bosch Gmbh | Autonomes Fortbewegungsgerät |
EP2741161A2 (de) | 2012-12-10 | 2014-06-11 | Miele & Cie. KG | Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Positionsbestimmung bei einem selbstfahrenden Bodenbearbeitungsgerät |
DE102012112036A1 (de) | 2012-12-10 | 2014-06-12 | Miele & Cie. Kg | Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät |
DE102012112740A1 (de) | 2012-12-20 | 2014-06-26 | Miele & Cie. Kg | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters |
DE102012112741A1 (de) | 2012-12-20 | 2014-06-26 | Miele & Cie. Kg | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters |
DE102013100192A1 (de) | 2013-01-10 | 2014-07-10 | Miele & Cie. Kg | Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter |
DE102013201769A1 (de) * | 2013-02-04 | 2014-08-07 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Vermessungsanordnung und Verfahren zur Vermessung |
DE102013104547A1 (de) | 2013-05-03 | 2014-11-06 | Miele & Cie. Kg | Selbstfahrendes Bodenbearbeitungsgerät und optisches System für ein selbstfahrendes Bodenbearbeitungsgerät |
DE102014110201B3 (de) * | 2014-07-21 | 2015-08-13 | Miele & Cie. Kg | Selbstfahrender Roboter und Verfahren zur Hinderniserkennung bei einem selbstfahrenden Roboter |
DE102014012811A1 (de) | 2014-03-27 | 2015-10-01 | Miele & Cie. Kg | Bodenreinigungsgerät und Verfahren und System zum Ermitteln eines Wohnungsgrundrisses durch ein selbstfahrendes Bodenreinigungsgerät |
DE102015104251A1 (de) | 2015-03-20 | 2016-09-22 | Miele & Cie. Kg | Bodenpflegegerät und Verfahren zur Pflege eines Hartbodens mit einem selbstfahrenden Bodenpflegegerät |
DE102015104250A1 (de) | 2015-03-20 | 2016-09-22 | Miele & Cie. Kg | Bodenpflegegerät und Verfahren zur Pflege eines zumindest teilweise mit Teppich belegten Bodens mit einem selbstfahrenden Bodenpflegegerät |
DE102015104244A1 (de) | 2015-03-20 | 2016-09-22 | Miele & Cie. Kg | Bodenpflegegerät und Verfahren zur Pflege eines Bodens mit einem selbstfahrenden Bodenpflegegerät |
DE102015006014A1 (de) | 2015-05-13 | 2016-11-17 | Universität Bielefeld | Bodenbearbeitungsgerät und Verfahren zu dessen Navigation sowie Schwarm von Bodenbearbeitungsgeräten und Verfahren zu deren gemeinsamer Navigation |
EP3156872A1 (de) * | 2015-10-13 | 2017-04-19 | Looq Systems Inc | Staubsaugender roboter mit sichtnavigationsfunktion und navigationsverfahren dafür |
CN109843752A (zh) * | 2016-09-15 | 2019-06-04 | 亚马逊科技有限公司 | 集成式障碍物检测和有效负载定心传感器系统 |
US10321625B2 (en) | 2015-12-30 | 2019-06-18 | Honda Research Institute Europe Gmbh | Autonomous working machine such as autonomous lawn mower |
US10860029B2 (en) | 2016-02-15 | 2020-12-08 | RobArt GmbH | Method for controlling an autonomous mobile robot |
US11175670B2 (en) | 2015-11-17 | 2021-11-16 | RobArt GmbH | Robot-assisted processing of a surface using a robot |
US11188086B2 (en) | 2015-09-04 | 2021-11-30 | RobArtGmbH | Identification and localization of a base station of an autonomous mobile robot |
US11550054B2 (en) | 2015-06-18 | 2023-01-10 | RobArtGmbH | Optical triangulation sensor for distance measurement |
US11709489B2 (en) | 2017-03-02 | 2023-07-25 | RobArt GmbH | Method for controlling an autonomous, mobile robot |
US11768494B2 (en) | 2015-11-11 | 2023-09-26 | RobArt GmbH | Subdivision of maps for robot navigation |
US11789447B2 (en) | 2015-12-11 | 2023-10-17 | RobArt GmbH | Remote control of an autonomous mobile robot |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19614916A1 (de) * | 1996-04-16 | 1997-11-06 | Detlef Raupach | Fahrroboter für die automatische Behandlung von Bodenflächen |
DE29824544U1 (de) * | 1997-09-19 | 2001-08-09 | Electrolux Ab | Elektronisches Begrenzungssystem |
DE10164280A1 (de) * | 2001-04-18 | 2002-10-31 | Samsung Kwangju Electronics Co | Reinigungsrobotersystem unter Verwendung eines Mobilkommunikationsnetzwerks |
-
2007
- 2007-04-05 DE DE102007016802A patent/DE102007016802B3/de not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19614916A1 (de) * | 1996-04-16 | 1997-11-06 | Detlef Raupach | Fahrroboter für die automatische Behandlung von Bodenflächen |
DE29824544U1 (de) * | 1997-09-19 | 2001-08-09 | Electrolux Ab | Elektronisches Begrenzungssystem |
DE10164280A1 (de) * | 2001-04-18 | 2002-10-31 | Samsung Kwangju Electronics Co | Reinigungsrobotersystem unter Verwendung eines Mobilkommunikationsnetzwerks |
Non-Patent Citations (8)
Title |
---|
Franz M. O., Schölkopf B., Mallot H.A., Bülthoff H.H. (1998) Where did I take that snapshot? Scene-based homing by image matching. Biological Cybernetics 79: 191-202 * |
Koyasu,H., Miura,J., Shirai,Y.: Mobile robot na- vigation in dynamic environments using omnidirec- tional stereo, in Robitics and Automation, 2003, Proceedings, IEEE International Conference on Volume1, 14-19 Sept. 2003 Page(s): 893-898 vol.1 |
Koyasu,H., Miura,J., Shirai,Y.: Mobile robot navigation in dynamic environments using omnidirectional stereo, in Robitics and Automation, 2003, Proceedings, IEEE International Conference on Volume1, 14-19 Sept. 2003 Page(s): 893-898 vol.1 * |
Möller R., Vardy A. (2006) Local Visual Homing by Matched-Filter Descent in Image Distances. Bio- logical Cybernetics. 95: 413-430 |
Möller R., Vardy A. (2006) Local Visual Homing by Matched-Filter Descent in Image Distances. Biological Cybernetics. 95: 413-430 * |
Vardy A., Möller R. (2005) Biologically plausible visul homing methods based on optical flow tech- niques. Connection Science 17: 47-89 |
Vardy A., Möller R. (2005) Biologically plausible visul homing methods based on optical flow techniques. Connection Science 17: 47-89 * |
Zeil J., Hoffmann M.I.. Chal J. S (2003) Catchment areas of panoramic images in outdoor scenes. Journal of the Optical Society A 20: 450-469 * |
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ITPD20080261A1 (it) * | 2008-09-12 | 2010-03-13 | Provincia Lombardo Veneta I Stituto Di Cura S C | Apparato di interfaccia uomo - macchina per scopo riabilitativo e metodo di riabilitazione |
DE102009003061A1 (de) * | 2009-05-13 | 2010-11-18 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Bahnregelung, insbesondere von mobilen Fahrzeugen |
DE102012212204B4 (de) * | 2012-07-12 | 2016-02-11 | Siemens Aktiengesellschaft | Parameterbestimmung, Kalibrierung |
DE102012212204A1 (de) * | 2012-07-12 | 2014-01-16 | Siemens Aktiengesellschaft | Parameterbestimmung, Kalibrierung |
DE102012221572A1 (de) * | 2012-11-26 | 2014-05-28 | Robert Bosch Gmbh | Autonomes Fortbewegungsgerät |
EP2741161A2 (de) | 2012-12-10 | 2014-06-11 | Miele & Cie. KG | Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Positionsbestimmung bei einem selbstfahrenden Bodenbearbeitungsgerät |
DE102012112036A1 (de) | 2012-12-10 | 2014-06-12 | Miele & Cie. Kg | Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät |
DE102012112037A1 (de) | 2012-12-10 | 2014-06-12 | Miele & Cie. Kg | Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Positionsbestimmung bei einem selbstfahrenden Bodenbearbeitungsgerät |
EP2741161A3 (de) * | 2012-12-10 | 2017-07-12 | Miele & Cie. KG | Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Positionsbestimmung bei einem selbstfahrenden Bodenbearbeitungsgerät |
DE102012112036B4 (de) | 2012-12-10 | 2023-06-07 | Miele & Cie. Kg | Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät |
DE102012112401B3 (de) * | 2012-12-17 | 2014-03-27 | Miele & Cie. Kg | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Drehstellung mindestens eines Antriebsrads eines selbstfahrenden Roboters |
EP2743789A1 (de) | 2012-12-17 | 2014-06-18 | Miele & Cie. KG | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Drehstellung mindestens eines Antriebsrads eines selbstfahrenden Roboters |
DE102012112741A1 (de) | 2012-12-20 | 2014-06-26 | Miele & Cie. Kg | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters |
DE102012112740B4 (de) | 2012-12-20 | 2024-02-29 | Miele & Cie. Kg | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters |
DE102012112740A1 (de) | 2012-12-20 | 2014-06-26 | Miele & Cie. Kg | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters |
DE102012112741B4 (de) | 2012-12-20 | 2022-10-27 | Miele & Cie. Kg | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters |
EP2755101A2 (de) | 2013-01-10 | 2014-07-16 | Miele & Cie. KG | Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter |
DE102013100192A1 (de) | 2013-01-10 | 2014-07-10 | Miele & Cie. Kg | Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter |
EP2755101A3 (de) * | 2013-01-10 | 2017-11-29 | Miele & Cie. KG | Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter |
DE102013201769A1 (de) * | 2013-02-04 | 2014-08-07 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Vermessungsanordnung und Verfahren zur Vermessung |
DE102013104547A1 (de) | 2013-05-03 | 2014-11-06 | Miele & Cie. Kg | Selbstfahrendes Bodenbearbeitungsgerät und optisches System für ein selbstfahrendes Bodenbearbeitungsgerät |
DE102014012811A1 (de) | 2014-03-27 | 2015-10-01 | Miele & Cie. Kg | Bodenreinigungsgerät und Verfahren und System zum Ermitteln eines Wohnungsgrundrisses durch ein selbstfahrendes Bodenreinigungsgerät |
DE102014110201B3 (de) * | 2014-07-21 | 2015-08-13 | Miele & Cie. Kg | Selbstfahrender Roboter und Verfahren zur Hinderniserkennung bei einem selbstfahrenden Roboter |
DE102015104244A1 (de) | 2015-03-20 | 2016-09-22 | Miele & Cie. Kg | Bodenpflegegerät und Verfahren zur Pflege eines Bodens mit einem selbstfahrenden Bodenpflegegerät |
DE102015104251B4 (de) | 2015-03-20 | 2022-05-19 | Miele & Cie. Kg | Bodenpflegegerät und Verfahren zur Pflege eines Hartbodens mit einem selbstfahrenden Bodenpflegegerät |
DE102015104251A1 (de) | 2015-03-20 | 2016-09-22 | Miele & Cie. Kg | Bodenpflegegerät und Verfahren zur Pflege eines Hartbodens mit einem selbstfahrenden Bodenpflegegerät |
DE102015104250A1 (de) | 2015-03-20 | 2016-09-22 | Miele & Cie. Kg | Bodenpflegegerät und Verfahren zur Pflege eines zumindest teilweise mit Teppich belegten Bodens mit einem selbstfahrenden Bodenpflegegerät |
US10345821B2 (en) | 2015-05-13 | 2019-07-09 | Universitaet Bielefeld | Floor-treatment apparatus and navigation system therefor |
DE102015006014A1 (de) | 2015-05-13 | 2016-11-17 | Universität Bielefeld | Bodenbearbeitungsgerät und Verfahren zu dessen Navigation sowie Schwarm von Bodenbearbeitungsgeräten und Verfahren zu deren gemeinsamer Navigation |
WO2016180514A1 (de) | 2015-05-13 | 2016-11-17 | Universität Bielefeld | Bodenbearbeitungsgerät und verfahren zu dessen navigation sowie schwarm von bodenbearbeitungsgeräten und verfahren zu deren gemeinsamer navigation |
US11550054B2 (en) | 2015-06-18 | 2023-01-10 | RobArtGmbH | Optical triangulation sensor for distance measurement |
US11188086B2 (en) | 2015-09-04 | 2021-11-30 | RobArtGmbH | Identification and localization of a base station of an autonomous mobile robot |
EP3156872A1 (de) * | 2015-10-13 | 2017-04-19 | Looq Systems Inc | Staubsaugender roboter mit sichtnavigationsfunktion und navigationsverfahren dafür |
US11768494B2 (en) | 2015-11-11 | 2023-09-26 | RobArt GmbH | Subdivision of maps for robot navigation |
US11175670B2 (en) | 2015-11-17 | 2021-11-16 | RobArt GmbH | Robot-assisted processing of a surface using a robot |
US11789447B2 (en) | 2015-12-11 | 2023-10-17 | RobArt GmbH | Remote control of an autonomous mobile robot |
US10321625B2 (en) | 2015-12-30 | 2019-06-18 | Honda Research Institute Europe Gmbh | Autonomous working machine such as autonomous lawn mower |
US11709497B2 (en) | 2016-02-15 | 2023-07-25 | RobArt GmbH | Method for controlling an autonomous mobile robot |
US10860029B2 (en) | 2016-02-15 | 2020-12-08 | RobArt GmbH | Method for controlling an autonomous mobile robot |
CN109843752A (zh) * | 2016-09-15 | 2019-06-04 | 亚马逊科技有限公司 | 集成式障碍物检测和有效负载定心传感器系统 |
CN109843752B (zh) * | 2016-09-15 | 2021-01-15 | 亚马逊科技有限公司 | 机器人驱动单元及其系统 |
US11709489B2 (en) | 2017-03-02 | 2023-07-25 | RobArt GmbH | Method for controlling an autonomous, mobile robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102007016802B3 (de) | Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes | |
DE102012112036B4 (de) | Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät | |
EP3295267B1 (de) | Bodenbearbeitungsgerät und verfahren zu dessen navigation sowie schwarm von bodenbearbeitungsgeräten und verfahren zu deren gemeinsamer navigation | |
EP3659001B1 (de) | Magnetometer für die roboternavigation | |
EP3443301B1 (de) | Verfahren und system zum bestimmen einer globalen position einer ersten landmarke | |
DE102015203016B4 (de) | Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld | |
DE10145150B4 (de) | Verfahren zur Einstellung eines Kurses eines mobilen Roboters | |
DE60220435T2 (de) | Autonome maschine | |
EP3491417B1 (de) | Verfahren und system zum erfassen von landmarken in einem verkehrsumfeld einer mobilen einheit | |
EP1664674B1 (de) | Verfahren und system zur bestimmung der aktualposition eines handhaltbaren messgerätes im raum | |
EP2755101B1 (de) | Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter | |
EP2977844A1 (de) | Verfahren zur reinigung oder bearbeitung eines raumes mittels eines selbsttätig verfahrbaren gerätes | |
DE102013207899A1 (de) | Fahrerloses Transportfahrzeug, System mit einem Rechner und einem fahrerlosen Transportfahrzeug, Verfahren zum Planen einer virtuellen Spur und Verfahren zum Betreiben eines fahrerlosen Transportfahrzeugs | |
EP3355147A1 (de) | Verfahren zum betrieb eines sich selbsttätig fortbewegenden fahrzeugs | |
WO2009033935A2 (de) | Anordnung zum erfassen einer umgebung | |
DE102017210070A1 (de) | Verfahren zum Erstellen einer digitalen Karte für ein automatisiertes Fahrzeug | |
DE102013202075A1 (de) | Bewegungsstrategieerarbeitungs- und/oder Navigationsvorrichtung | |
WO2018115153A1 (de) | Verfahren zur navigation und selbstlokalisierung eines sich autonom fortbewegenden bearbeitungsgerätes | |
DE102019218192A1 (de) | Verfahren zum Bearbeiten von Pflanzen auf einem Feld | |
DE102018113015A1 (de) | Autonome, mobile Arbeitmaschine | |
DE102007015552B3 (de) | Selbstfahrender Roboter zur Behandlung von Bodenflächen | |
DE102014110201B3 (de) | Selbstfahrender Roboter und Verfahren zur Hinderniserkennung bei einem selbstfahrenden Roboter | |
EP2741161B1 (de) | Selbstfahrendes bodenbearbeitungsgerät und verfahren zur positionsbestimmung bei einem selbstfahrenden bodenbearbeitungsgerät | |
DE102022202548B3 (de) | Verfahren zum Trainieren eines Computerprogrammprodukts | |
EP4148386A1 (de) | Ermittlung einer absoluten initialposition eines fahrzeugs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G05D0001020000 Ipc: G05D0001430000 |