DE102007016802B3 - Self-propelled tilling device e.g. robot, navigating method, involves determining driving direction by evaluating determined vectors and by controlling distance to preceding tracks, and forming meander/spiral shaped preset track - Google Patents
Self-propelled tilling device e.g. robot, navigating method, involves determining driving direction by evaluating determined vectors and by controlling distance to preceding tracks, and forming meander/spiral shaped preset track Download PDFInfo
- Publication number
- DE102007016802B3 DE102007016802B3 DE102007016802A DE102007016802A DE102007016802B3 DE 102007016802 B3 DE102007016802 B3 DE 102007016802B3 DE 102007016802 A DE102007016802 A DE 102007016802A DE 102007016802 A DE102007016802 A DE 102007016802A DE 102007016802 B3 DE102007016802 B3 DE 102007016802B3
- Authority
- DE
- Germany
- Prior art keywords
- self
- images
- navigating
- travel
- soil cultivation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 239000013598 vector Substances 0.000 title claims abstract description 22
- 230000007613 environmental effect Effects 0.000 claims description 16
- 239000002689 soil Substances 0.000 claims description 13
- 230000003287 optical effect Effects 0.000 claims description 11
- 238000003971 tillage Methods 0.000 claims description 11
- 230000033001 locomotion Effects 0.000 claims description 9
- 230000001276 controlling effect Effects 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims description 2
- 230000001105 regulatory effect Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 claims 2
- 230000000007 visual effect Effects 0.000 description 10
- 238000004140 cleaning Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 241000257303 Hymenoptera Species 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0272—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
Die Erfindung betrifft ein Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes, welches mit einer Antriebseinheit, einer Steuereinheit zum Steuern der Fahrtrichtung und einer ersten Sensorvorrichtung zur optischen Erfassung eines Umgebungsbildes ausgestattet ist, wobei die Navigation derart erfolgt, dass sich das Bodenbearbeitungsgerät auf einer vorgegebenen Bahn innerhalb eines Raums bewegt, wobei die Steuereinrichtung die Fahrtrichtung vom jeweiligen Standort des Bodenbearbeitungsgerätes bis zum nächsten Punkt auf der vorgegebenen Bahn mit Hilfe eines Verfahrens der Ego-Motion Estimation ermittelt, und wobei die vorgegebene Bahn nicht zu einem von der ersten Sensorvorrichtung optisch erfassten Ausgangspunkt führt.The The invention relates to a method for navigating a self-propelled vehicle Tillage equipment, which with a drive unit, a control unit for controlling the direction of travel and a first sensor device for optical Capturing an environmental image is equipped, with navigation such that the tillage device on a predetermined path is moved within a room, wherein the control means the Direction of travel from the respective location of the harrow up to to the next Point on the given orbit with the help of a method of ego-motion Estimation determined, and wherein the given path does not become a From the first sensor device optically detected starting point leads.
Die
Verwendung von selbstfahrenden Bodenbearbeitungsgeräten zur
Säuberung
von Bodenflächen
oder zum Rasenschneiden ist bekannt. Der Einsatz in der Landwirtschaft
oder als Minenräumgerät ist ebenfalls
denkbar. Einfache Systeme arbeiten nach dem Zufallsprinzip, d. h.
bei einer Kollision mit einem Hindernis oder beim Auftreffen auf
eine Begrenzung ändern
sie lediglich ihre Fahrtrichtung. Aus der
Komplexe
Systeme sollen deshalb eine systematische Fahrstrategie bieten,
die neben der vollständigen Überdeckung
der zu bearbeitenden Fläche einen
möglichst
geringen Mehrfachbesuch garantiert. Diese Anforderungen lassen sich
in rechteckigen Räumen
durch mäandrierende
Bewegungsbahnen erfüllen,
andere Einsatzfälle
können
beispielsweise mittels spiralförmiger
Bahnen besser gelöst werden.
Zur zielgerichteten Navigation der Systeme sind folgende Verfahren
bekannt:
Mittels Odometrie wird die gefahrene Strecke einzelner
Räder ausgewertet
und zur Steuerung im Raum verwendet. Hierdurch ist das Abfahren
von vorgegebenen Bahnen wie Mäander
oder Spiralen ansatzweise möglich.
Durch Radschlupf, insbesondere auf Teppichen und Bodenunebenheiten
im Indoorbereich und schlammigem oder sandigem Untergrund im Outdoorbereich,
summieren sich allerdings unvermeidliche Messfehler mit der Zeit
auf. Auch Abweichungen im Radumfang, beispielsweise durch Nachlassen
des Luftdrucks in Pneus, verursachen Messfehler. Dies führt nach
kurzen Fahrstrecken zu starken Bahnabweichungen, was bei den oben
genannten Einsatzfällen,
wo eine Fläche
vollständig
bearbeitet werden soll, nicht erwünscht ist. Auch durch Kombination
mit Abstands- und/oder Kamerasensoren ist das Odometrieverfahren
nur mit Abstrichen tauglich. Außerdem
stellen diese Verfahren (SLAM) hohe Anforderungen an die Genauigkeit
der Sensoren und an die Leistung eines Steuerrechners zur Auswertung der
Sensorsignale.Complex systems should therefore offer a systematic driving strategy, which guarantees not only complete coverage of the area to be worked on, but also the least possible multiple visits. These requirements can be met in rectangular spaces by meandering trajectories, other applications can be solved better, for example by means of spiral paths. For targeted navigation of the systems, the following methods are known:
Odometry is used to evaluate the distance traveled by individual wheels and use them for control in the room. As a result, the departure of predetermined paths such as meanders or spirals is possible. Wheel slippage, especially on carpets and uneven floors in the indoor area and muddy or sandy ground in the outdoor area, however, add up to inevitable measurement errors over time. Even deviations in the wheel circumference, for example, by decreasing the air pressure in tires, cause measurement errors. This leads after short distances to strong track deviations, which is not desirable in the above applications, where a surface is to be completely processed. Even by combination with distance and / or camera sensors, the odometry method is only suitable with a few drawbacks. In addition, these methods (SLAM) place high demands on the accuracy of the sensors and on the performance of a control computer for evaluating the sensor signals.
Andere Systeme verwenden künstliche Landmarken, wie z. B. IR-Spots, RFID-Chips oder GPS. Die beiden ersten Alternativen erfordern eine aufwändige und meist teure Vorleistung des Anwenders, die Verwendung von GPS ist nur im Outdoorbereich und dort auch nur mit geringer Genauigkeit möglich.Other Systems use artificial landmarks, such as As IR spots, RFID chips or GPS. The first two alternatives require a complex and mostly expensive up-front of the user, the use of GPS is only possible in the outdoor area and there only with low accuracy.
In der Natur finden Insekten, z.B. Wüstenameisen, zum Nest zurück, die lediglich über ca. 1 Million Neuronen verfügen. Diese Anzahl reicht in einer komplexen realen Umgebung nicht für die oben beschriebene Objekterkennung, Kartenerstellung und Pfadplanung aus, zumal sie auch für alle anderen Aufgaben, die ein Tier hat, ausreichen müssen. Aus der Beobachtung dieser Tiere haben Informatiker in Zusammenarbeit mit Biologen eine ganze Klasse von Verfahren abgeleitet, die man unter dem Oberbegriff Ego-Motion Estimation zusammenfasst. Die Anwendung solcher Verfahren ist bisher auf das Auffinden eines bereits besuchten, nahe gelegenen Ausgangspunktes beschränkt, was auch als lokales visuelles Homing bezeichnet wird. Lokale visuelle Homingverfahren berechnen aus zwei Bildern einen Homevektor, der vom Aufnahmeort des einen Bildes zu dem des anderen weist, bzw. eine Homerichtung.In of nature find insects, e.g. Desert ants, back to the nest that only about have about 1 million neurons. This number is not enough for the above in a complex real environment described object recognition, map creation and path planning, especially as she also for all other tasks that an animal has to suffice. From the Observation of these animals have computer scientists in collaboration with Biologists derive a whole class of procedures that one takes summarizes the generic term Ego-Motion Estimation. The application Such methods have hitherto been based on finding an already visited, limited starting point, which is also called local visual homing referred to as. Local visual homing methods calculate from two Images a home vector, which is the location of the one image that of the other points, or a home direction.
Es existieren derzeit drei wichtige Klassen von Verfahren des lokalen visuellen Homings, die ohne Tiefeninformation auskommen:
- 1. Korrespondenzverfahren/Optischer Fluss: Bei diesen Verfahren wird versucht, eine lokale Region aus dem ersten Bild im jeweils zweiten wiederzufinden. Dies kann durch eine explizite Suche nach einer passenden Partnerregion geschehen (Blockmatching), oder durch Näherungslösungen (1st/2nd order differential flow methods). Die gefundene Korrespondenz definiert einen Verschiebungsvektor im Bild, den Flussvektor, der in eine zugehörige Bewegungsrichtung, den lokalen Homevektor, umgerechnet werden kann. Diese lokalen Homevektoren werden dann zu einem Gesamthomevektor verknüpft, z. B. durch Mittelung. Eine Vorauswahl geeigneter Regionen für die Suche ist möglich. Literatur. Vardy A., Möller R. (2005) Biologically plausible visual homing methods based an optical flow techniques. Connection Science 17: 47-89
- 2. Descent in Image Distances (Abstieg in Bildabständen): Diese Verfahren berechnen Abstandsmaße zwischen Bildern. Der Homevektor wird so bestimmt, dass sich in diese Richtung das Abstandsmaß verringert. Beim ursprünglichen Verfahren (Zeil et al., 2003) sind dazu Testschritte (Bewegungen des Roboters) erforderlich, bspw. um den Bildabstand an drei Punkten im Raum zu bestimmen, was eine Berechnung des Gradienten im Bildabstand ermöglicht. Neuere Verfahren (MFDID, Möller and Vardy, 2006) vermeiden diese Testschritte durch Vorhersageschritte, die keine Bewegung des Roboters erfordern. Die Berechnung des Abstandsmaßes erfolgt entweder direkt auf der Bildinformation, oder auf kompakten Beschreibungen der Bilder durch Parametervektoren. Literatur: Zeil J., Hoffmann M. I., Chahl J. S. (2003) Catchment areas of panoramic images in outdoor scenes. Journal of the Optical Society of America A 20: 450-469; Möller R., Vardy A. (2006) Local Visual Homing by Matched-Filter Descent in Image Distances. Biological Cybernetics, 95: 413-430
- 3. Warping (Bildverzerrung): Dieses Verfahren (Franz et al., 1998) bestimmt den Homevektor sowie weitere Bewegungsparameter durch Bildverzerrung und Suche. Eines der Bilder wird so verzerrt, als ob der Roboter ausgehend vom Aufnahmeort des Bildes eine bestimmte Bewegung durchgeführt hätte. Nun wird der Raum der möglichen Bewegungen des Roboters durchmustert, und es wird festgestellt, welches der verzerrten Varianten des ersten Bildes am besten mit dem zweiten Bild übereinstimmt. Die Bewegungsparameter, die zur besten Passung gehören, ergeben den Homevektor und zusätzlich Information über die relative Orientierung der Bilder zueinander. Literatur: Franz M. O., Schälkopf B., Mallot H. A., Bülthoff H. H. (1998) Where did I take that snapshot? Scene-based homing by image matching. Biological Cybernetics 79: 191-202
- 1. Correspondence method / Optical flow: In these methods, an attempt is made to find a local region from the first image in the second. This can be done by an explicit search for a suitable partner region (block matching), or by approximate solutions (1st / 2nd order differential flow methods). The correspondence found defines a displacement vector in the image, the flow vector, which can be converted into an associated movement direction, the local home vector. These local home vectors are then linked to a total home vector, e.g. By averaging. A pre-selection of suitable regions for the search is possible. Literature. Vardy A., Moller R. (2005) Biologically plausible visual homing methods based on optical flow techniques. Connection Science 17: 47-89
- 2. Descent in Image Distances (Descent to Imageab These methods calculate distance measurements between images. The home vector is determined so that the distance is reduced in this direction. In the original method (Zeil et al., 2003), test steps (movements of the robot) are required for this, for example to determine the image distance at three points in space, which enables a calculation of the gradient in the image distance. Newer methods (MFDID, Möller and Vardy, 2006) avoid these test steps by predicting steps that do not require movement of the robot. The calculation of the distance measure takes place either directly on the image information or on compact descriptions of the images by parameter vectors. Literature: Zeil J., Hoffmann MI, Chahl JS (2003) Catchment areas of panoramic images in outdoor scenes. Journal of the Optical Society of America A 20: 450-469; Möller R., Vardy A. (2006) Local Visual Homing by Matched Filter Descent in Image Distances. Biological Cybernetics, 95: 413-430
- 3. Warping: This method (Franz et al., 1998) determines the home vector as well as other motion parameters by image distortion and search. One of the images is distorted as if the robot had made a certain movement from the location where the image was taken. Now the space of the possible movements of the robot is screened, and it is determined which of the distorted variants of the first image best matches the second image. The motion parameters that belong to the best fit give the home vector and additional information about the relative orientation of the images to each other. Literature: Franz MO, Schälkopf B., Mallot HA, Bülthoff HH (1998) Where did I take that snapshot? Scene-based homing by image matching. Biological Cybernetics 79: 191-202
Über diese exemplarisch genannten Verfahren des lokalen visuellen Homings hinaus sind zahlreiche weitere Lösungen des Ego-Motion Estimation-Problems bekannt.About these exemplary methods of local visual homing are many more solutions of the ego-motion estimation problem known.
Desweiteren kann aus zwei an unterschiedlichen Orten aufgenommenen Panoramabildern auch die relative Orientierung der Kamera (Azimuth) an beiden Orten bestimmt werden. Dazu wird das erste der Panoramabilder gegen das zweite im Azimuth (horizontaler Winkel) schrittweise verschoben. Es wird ein Bildabstandsmaß zwischen dem verschobenen ersten Bild und dem ursprünglichen zweiten Bild berechnet. Dieses Abstandsmaß hat ein globales Minimum bei derjenigen Verschiebung, bei der beide Bilder so ausgerichtet sind, als ob sie in gleicher Orientierung der Kamera aufgenommen worden wären. Ist bekannt, in welcher Orientierung das eine Bild aufgenommen wurde, so kann aus dem Verfahren ermittelt werden, in welcher Orientierung das zweite aufgenommen wurde. Dieses Verfahren ist also ein "Bildkompass", der magnetische Kompasse ersetzen kann, die im Indoor-Bereich als unzuverlässig bekannt sind. Der Bildkompass kann eingesetzt werden, um in lokalen Homing-Verfahren beide Bilder vor Anwendung des Homing-Verfahrens in dieselbe Orientierung zu bringen. Dies ist bei o.g. Verfahren der Klassen 1 und 2 erforderlich.
- Literatur: Zeil J., Hoffmann M. I., Chahl J. S. (2003) Catchment areas of panoramic images in outdoor scenes. Journal of the Optical Society of America A 20: 450-469;
- Literature: Zeil J., Hoffmann MI, Chahl JS (2003) Catchment areas of panoramic images in outdoor scenes. Journal of the Optical Society of America A 20: 450-469;
Ein gattungsgemäßes Verfahren ist aus Koyasu, H.; Miura, J.; Shiray, Y.; Mobile robot navigation in dynamic environments using omidirectional stereo; in Robotics and Automation, 2003 Proceedings, IEEE International Conference an Volume 1, 14-19 Sept. 2003 Page (s):893-898 vol.1 bekannt. Dort wird mittels eines stereoskopischen Sensors eine Umgebungskarte erzeugt und ein Roboter mit Hilfe eines Verfahrens der Ego-Motion Estimation zu einem Zielpunkt bewegt. Aufgabe des beschriebenen Verfahrens ist es, den Roboter auf einer möglichst kurzen Strecke von einem Startpunkt zu einem Zielpunkt zu navigieren und dabei statischen und dynamische Hindernissen auszuweichen.One generic method is from Koyasu, H .; Miura, J .; Shiray, Y .; Mobile robot navigation in dynamic environments using omidirectional stereo; in robotics and Automation, 2003 Proceedings, IEEE International Conference on Volume 1, 14-19 Sept. 2003 Page (s): 893-898 vol.1. There is by means of a stereoscopic sensor generates an environment map and a Robot using a method of ego-motion estimation to one Target point moved. The object of the method described is the Robot on as short as possible Route from a starting point to a destination point to navigate and Avoiding static and dynamic obstacles.
Aus
der
Aus
der
Der Erfindung stellt sich somit das Problem, ein Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes der eingangs genannten Art zu offenbaren, welches die eingangs genannten Nachteile vermeidet und bei geringer Rechnerleistung effektiv und sicher arbeitet.Of the Invention thus poses the problem of a method of navigation a self-propelled soil cultivation device of the type mentioned to disclose which avoids the disadvantages mentioned above and works effectively and safely with low computing power.
Erfindungsgemäß wird dieses Problem durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung ergeben sich aus den nachfolgenden Unteransprüchen.According to the invention this Problem by a method having the features of the claim 1 solved. Advantageous embodiments and further developments of the invention result from the following subclaims.
Zur Durchführung des erfindungsgemäßen Verfahrens erfasst die erste Sensoreinrichtung zunächst Umgebungsbilder auf bekannten Bahnpunkten, anschließend ermittelt die Steuereinrichtung Vektoren vom aktuellen Bahnpunkt zu mindestens zwei vorhergehenden Bahnpunkten durch Vergleich des Umgebungsbildes des aktuellen Bahnpunktes mit den Umgebungsbildern der mindestens zwei vorhergehenden Bahnpunkte, und zuletzt ermittelt die Steuereinrichtung die weitere Fahrtrichtung durch Auswertung der Vektoren in der Art, dass die vorgegebene Bahn mäanderförmig oder annähernd spiralförmig ausgebildet ist und dass die Steuereinrichtung die weitere Fahrtrichtung durch Regelung des Abstands zur Vorgängerbahn ermittelt. Das vorbeschriebene Verfahren benötigt eine geringe Rechnerkapazität und ist trotzdem ausreichend genau, um das selbstfahrende Bodenbearbeitungsgerät auf seiner vorgegebenen Bahn zu halten.For carrying out the inventive The control device detects vectors from the current track point to at least two previous track points by comparing the surrounding image of the current track point with the surrounding images of the at least two preceding track points, and finally the control device determines the further direction of travel by evaluation the vectors in such a way that the predetermined path is meander-shaped or approximately spiral-shaped and that the control device determines the further direction of travel by regulating the distance to the previous path. The method described above requires a low computing capacity and yet is sufficiently accurate to keep the self-propelled tillage implement on its predetermined path.
Zur Verbesserung der Genauigkeit erfasst die Sensorvorrichtung als Umgebungsbild ein 360°-Panoramabild. Ein solches Bild kann dadurch erzeugt werden, dass die Kamera mit ihrer optischen Achse auf das Zentrum eines hyperbolischen Spiegels gerichtet ist.to Improved accuracy detects the sensor device as an environmental image a 360 ° panorama picture. One such image can be generated by the camera with its optical axis directed to the center of a hyperbolic mirror is.
Zur Ermittlung der Bahnpunkte, an denen Umgebungsbilder erfasst werden, bedient sich die Steuereinrichtung in zweckmäßiger Weise einer zweiten Sensoreinrichtung zur Erfassung der Fahrdistanz. Hier kann beispielsweise ein Odometrie-Verfahren eingesetzt werden. Zur Vereinfachung dieses Verfahrens ist es zweckmäßig, wenn Fahrdistanzen zwischen benachbarten Bahnpunkten gleich sind.to Determination of the path points at which environmental images are captured the control device expediently uses a second sensor device for recording the driving distance. Here, for example, an odometry method be used. To simplify this process, it is expedient if Driving distances between adjacent track points are the same.
Die Berechnung der weiteren Fahrtrichtung kann in einfachster Weise durch Triangulation der Vektoren erfolgen.The Calculating the other direction of travel can be done in the simplest way done by triangulation of the vectors.
Wie bereits eingangs erwähnt, sollte die vorgegebene Bahn je nach Beschaffenheit der zu bearbeitenden Fläche mäanderförmig oder annähernd spiralförmig ausgebildet sein. Dann kann die Steuereinrichtung die weitere Fahrtrichtung einfach durch Regelung des Abstands zur Vorgängerbahn ermitteln. Insbesondere bei mäanderförmigen Bahnen, aber auch anderen Fahrstrategien auf Flächen, auf denen sich Hindernisse befinden, muss die Fahrtrichtung beim Auftreffen auf die Flächengrenze oder auf das Hindernis geändert werden. Hierzu ist es vorteilhaft, eine dritte Sensoreinrichtung einzusetzen, mit deren Hilfe die Steuereinrichtung Flächengrenzen und/oder Hindernisse erkennt und die Fahrtrichtung ändert.As already mentioned at the beginning, should the given path depending on the nature of the processed area meandering or almost spirally formed be. Then, the control device, the further direction of travel simply by controlling the distance to the predecessor train determine. Especially in meandering paths, but Also, other driving strategies on areas where there are obstacles must be the direction of travel when hitting the surface boundary or changed to the obstacle become. For this purpose, it is advantageous to use a third sensor device use, with the help of the control device area boundaries and / or Detects obstacles and changes the direction of travel.
Der Vergleich der Umgebungsbilder kann vorteilhafterweise durch eines oder mehrere der nachfolgend aufgeführten Verfahren erfolgen, welche dadurch gekennzeichnet sind, dass
- • Merkmale in den Bildern extrahiert und deren Verschiebung zwischen den Bildern bestimmt wird;
- • Bilder entsprechend angenommener Bewegungen zwischen Aufnahmeorten verzerrt und miteinander verglichen werden;
- • Abstandsmaße zwischen den Bildern minimiert werden.
- • extracts features in the images and determines their shift between the images;
- • images are distorted and compared with each other according to assumed movements between recording locations;
- • Distance dimensions between the images are minimized.
Ein Ausführungsbeispiel der Erfindung ist in den Zeichnungen rein schematisch dargestellt und wird nachfolgend näher beschrieben. Es zeigtOne embodiment The invention is shown purely schematically in the drawings and will be closer below described. It shows
Bei
dem in
Das
Bodenbearbeitungsgerät
Im
Folgenden wird das Navigationsverfahren beschrieben, mit dem sich
der Roboter
Der
Steuerrechner
Aus
den beiden Winkeln β1 und β2, die aufgrund der Home-Vektoren bekannt
sind, und der bekannten Fahrdistanz b berechnet der Steuerrechner
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007016802A DE102007016802B3 (en) | 2007-04-05 | 2007-04-05 | Self-propelled tilling device e.g. robot, navigating method, involves determining driving direction by evaluating determined vectors and by controlling distance to preceding tracks, and forming meander/spiral shaped preset track |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007016802A DE102007016802B3 (en) | 2007-04-05 | 2007-04-05 | Self-propelled tilling device e.g. robot, navigating method, involves determining driving direction by evaluating determined vectors and by controlling distance to preceding tracks, and forming meander/spiral shaped preset track |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102007016802B3 true DE102007016802B3 (en) | 2008-05-15 |
Family
ID=39277945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102007016802A Expired - Fee Related DE102007016802B3 (en) | 2007-04-05 | 2007-04-05 | Self-propelled tilling device e.g. robot, navigating method, involves determining driving direction by evaluating determined vectors and by controlling distance to preceding tracks, and forming meander/spiral shaped preset track |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102007016802B3 (en) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ITPD20080261A1 (en) * | 2008-09-12 | 2010-03-13 | Provincia Lombardo Veneta I Stituto Di Cura S C | MAN INTERFACE SYSTEM - MACHINE FOR REHABILITATION PURPOSE AND REHABILITATION METHOD |
DE102009003061A1 (en) * | 2009-05-13 | 2010-11-18 | Robert Bosch Gmbh | Method and device for web control, in particular of mobile vehicles |
DE102012212204A1 (en) * | 2012-07-12 | 2014-01-16 | Siemens Aktiengesellschaft | Method for determination of parameter of mobile technical system, involves matching parameters model with parameters actually present in technical system |
DE102012112401B3 (en) * | 2012-12-17 | 2014-03-27 | Miele & Cie. Kg | Self-propelled robot and method for determining a rotational position of at least one drive wheel of a self-propelled robot |
DE102012221572A1 (en) * | 2012-11-26 | 2014-05-28 | Robert Bosch Gmbh | Autonomous locomotion device |
EP2741161A2 (en) | 2012-12-10 | 2014-06-11 | Miele & Cie. KG | Autonomous apparatus for processing a surface and method for detecting the position of the autonomous apparatus |
DE102012112036A1 (en) | 2012-12-10 | 2014-06-12 | Miele & Cie. Kg | Method for navigation of self-propelled soil cultivation device, involves digging space region from starting point to end point on meandering path, where starting point is selected |
DE102012112741A1 (en) | 2012-12-20 | 2014-06-26 | Miele & Cie. Kg | Method for determining inclination of automotive robot, involves determining inclination of robot relative to reference position based on comparison of position and orientation of characteristic features in two images |
DE102012112740A1 (en) | 2012-12-20 | 2014-06-26 | Miele & Cie. Kg | Self-propelled robot e.g. self-propelled soil tilling machine, has camera capturing images of environment of robot, and visually readable inclination sensors arranged in field of vision of camera |
DE102013100192A1 (en) | 2013-01-10 | 2014-07-10 | Miele & Cie. Kg | Self-propelled robot and method for distance determination in a self-propelled robot |
DE102013201769A1 (en) * | 2013-02-04 | 2014-08-07 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Surveying arrangement and method of surveying |
DE102013104547A1 (en) | 2013-05-03 | 2014-11-06 | Miele & Cie. Kg | Self-propelled tillage implement and optical system for a self-propelled tillage implement |
DE102014110201B3 (en) * | 2014-07-21 | 2015-08-13 | Miele & Cie. Kg | Self-propelled robot and obstacle detection method for a self-propelled robot |
DE102014012811A1 (en) | 2014-03-27 | 2015-10-01 | Miele & Cie. Kg | Floor cleaning apparatus and method and system for determining a floor plan by a self-propelled floor cleaning device |
DE102015104250A1 (en) | 2015-03-20 | 2016-09-22 | Miele & Cie. Kg | Floor care appliance and method of maintaining an at least partially carpeted floor with a self-propelled floor care appliance |
DE102015104244A1 (en) | 2015-03-20 | 2016-09-22 | Miele & Cie. Kg | Floor care appliance and method of maintaining a floor with a self-propelled floor care appliance |
DE102015104251A1 (en) | 2015-03-20 | 2016-09-22 | Miele & Cie. Kg | Floor care appliance and method of maintaining a hard floor with a self-propelled floor care appliance |
DE102015006014A1 (en) | 2015-05-13 | 2016-11-17 | Universität Bielefeld | Soil cultivation device and method for its navigation and swarm of tillage equipment and methods for their joint navigation |
EP3156872A1 (en) * | 2015-10-13 | 2017-04-19 | Looq Systems Inc | Vacuum cleaning robot with visual navigation and navigation method thereof |
CN109843752A (en) * | 2016-09-15 | 2019-06-04 | 亚马逊科技有限公司 | Integrated form detection of obstacles and payload centering sensing system |
US10321625B2 (en) | 2015-12-30 | 2019-06-18 | Honda Research Institute Europe Gmbh | Autonomous working machine such as autonomous lawn mower |
US10860029B2 (en) | 2016-02-15 | 2020-12-08 | RobArt GmbH | Method for controlling an autonomous mobile robot |
US11175670B2 (en) | 2015-11-17 | 2021-11-16 | RobArt GmbH | Robot-assisted processing of a surface using a robot |
US11188086B2 (en) | 2015-09-04 | 2021-11-30 | RobArtGmbH | Identification and localization of a base station of an autonomous mobile robot |
US11550054B2 (en) | 2015-06-18 | 2023-01-10 | RobArtGmbH | Optical triangulation sensor for distance measurement |
US11709489B2 (en) | 2017-03-02 | 2023-07-25 | RobArt GmbH | Method for controlling an autonomous, mobile robot |
US11768494B2 (en) | 2015-11-11 | 2023-09-26 | RobArt GmbH | Subdivision of maps for robot navigation |
US11789447B2 (en) | 2015-12-11 | 2023-10-17 | RobArt GmbH | Remote control of an autonomous mobile robot |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19614916A1 (en) * | 1996-04-16 | 1997-11-06 | Detlef Raupach | Floor cleaning robot vehicle for use in rooms |
DE29824544U1 (en) * | 1997-09-19 | 2001-08-09 | Electrolux Ab | Electronic limitation system |
DE10164280A1 (en) * | 2001-04-18 | 2002-10-31 | Samsung Kwangju Electronics Co | Mobile communications distance controllable cleaning robot having cleaning robot moving freely digital communication words controlled from centre/communications relay set using mobile communications telephone |
-
2007
- 2007-04-05 DE DE102007016802A patent/DE102007016802B3/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19614916A1 (en) * | 1996-04-16 | 1997-11-06 | Detlef Raupach | Floor cleaning robot vehicle for use in rooms |
DE29824544U1 (en) * | 1997-09-19 | 2001-08-09 | Electrolux Ab | Electronic limitation system |
DE10164280A1 (en) * | 2001-04-18 | 2002-10-31 | Samsung Kwangju Electronics Co | Mobile communications distance controllable cleaning robot having cleaning robot moving freely digital communication words controlled from centre/communications relay set using mobile communications telephone |
Non-Patent Citations (8)
Title |
---|
Franz M. O., Schölkopf B., Mallot H.A., Bülthoff H.H. (1998) Where did I take that snapshot? Scene-based homing by image matching. Biological Cybernetics 79: 191-202 * |
Koyasu,H., Miura,J., Shirai,Y.: Mobile robot na- vigation in dynamic environments using omnidirec- tional stereo, in Robitics and Automation, 2003, Proceedings, IEEE International Conference on Volume1, 14-19 Sept. 2003 Page(s): 893-898 vol.1 |
Koyasu,H., Miura,J., Shirai,Y.: Mobile robot navigation in dynamic environments using omnidirectional stereo, in Robitics and Automation, 2003, Proceedings, IEEE International Conference on Volume1, 14-19 Sept. 2003 Page(s): 893-898 vol.1 * |
Möller R., Vardy A. (2006) Local Visual Homing by Matched-Filter Descent in Image Distances. Bio- logical Cybernetics. 95: 413-430 |
Möller R., Vardy A. (2006) Local Visual Homing by Matched-Filter Descent in Image Distances. Biological Cybernetics. 95: 413-430 * |
Vardy A., Möller R. (2005) Biologically plausible visul homing methods based on optical flow tech- niques. Connection Science 17: 47-89 |
Vardy A., Möller R. (2005) Biologically plausible visul homing methods based on optical flow techniques. Connection Science 17: 47-89 * |
Zeil J., Hoffmann M.I.. Chal J. S (2003) Catchment areas of panoramic images in outdoor scenes. Journal of the Optical Society A 20: 450-469 * |
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ITPD20080261A1 (en) * | 2008-09-12 | 2010-03-13 | Provincia Lombardo Veneta I Stituto Di Cura S C | MAN INTERFACE SYSTEM - MACHINE FOR REHABILITATION PURPOSE AND REHABILITATION METHOD |
DE102009003061A1 (en) * | 2009-05-13 | 2010-11-18 | Robert Bosch Gmbh | Method and device for web control, in particular of mobile vehicles |
DE102012212204B4 (en) * | 2012-07-12 | 2016-02-11 | Siemens Aktiengesellschaft | Parameter determination, calibration |
DE102012212204A1 (en) * | 2012-07-12 | 2014-01-16 | Siemens Aktiengesellschaft | Method for determination of parameter of mobile technical system, involves matching parameters model with parameters actually present in technical system |
DE102012221572A1 (en) * | 2012-11-26 | 2014-05-28 | Robert Bosch Gmbh | Autonomous locomotion device |
EP2741161A2 (en) | 2012-12-10 | 2014-06-11 | Miele & Cie. KG | Autonomous apparatus for processing a surface and method for detecting the position of the autonomous apparatus |
DE102012112037A1 (en) | 2012-12-10 | 2014-06-12 | Miele & Cie. Kg | Self-propelled soil tillage implement and method for determining position in a self-propelled tillage implement |
DE102012112036A1 (en) | 2012-12-10 | 2014-06-12 | Miele & Cie. Kg | Method for navigation of self-propelled soil cultivation device, involves digging space region from starting point to end point on meandering path, where starting point is selected |
EP2741161A3 (en) * | 2012-12-10 | 2017-07-12 | Miele & Cie. KG | Autonomous apparatus for processing a surface and method for detecting the position of the autonomous apparatus |
DE102012112036B4 (en) | 2012-12-10 | 2023-06-07 | Miele & Cie. Kg | Self-propelled tillage implement and method for navigating a self-propelled tillage implement |
DE102012112401B3 (en) * | 2012-12-17 | 2014-03-27 | Miele & Cie. Kg | Self-propelled robot and method for determining a rotational position of at least one drive wheel of a self-propelled robot |
EP2743789A1 (en) | 2012-12-17 | 2014-06-18 | Miele & Cie. KG | Self-propelled robot and method for determining a rotation position of at least one drive wheel |
DE102012112740A1 (en) | 2012-12-20 | 2014-06-26 | Miele & Cie. Kg | Self-propelled robot e.g. self-propelled soil tilling machine, has camera capturing images of environment of robot, and visually readable inclination sensors arranged in field of vision of camera |
DE102012112740B4 (en) | 2012-12-20 | 2024-02-29 | Miele & Cie. Kg | Self-driving robot and method for determining an inclination of a self-driving robot |
DE102012112741A1 (en) | 2012-12-20 | 2014-06-26 | Miele & Cie. Kg | Method for determining inclination of automotive robot, involves determining inclination of robot relative to reference position based on comparison of position and orientation of characteristic features in two images |
DE102012112741B4 (en) | 2012-12-20 | 2022-10-27 | Miele & Cie. Kg | Self-propelled robot and method for determining an inclination of a self-propelled robot |
EP2755101A2 (en) | 2013-01-10 | 2014-07-16 | Miele & Cie. KG | Self-propelled robot and method for distance determination in a self-propelled robot |
DE102013100192A1 (en) | 2013-01-10 | 2014-07-10 | Miele & Cie. Kg | Self-propelled robot and method for distance determination in a self-propelled robot |
EP2755101A3 (en) * | 2013-01-10 | 2017-11-29 | Miele & Cie. KG | Self-propelled robot and method for distance determination in a self-propelled robot |
DE102013201769A1 (en) * | 2013-02-04 | 2014-08-07 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Surveying arrangement and method of surveying |
DE102013104547A1 (en) | 2013-05-03 | 2014-11-06 | Miele & Cie. Kg | Self-propelled tillage implement and optical system for a self-propelled tillage implement |
DE102014012811A1 (en) | 2014-03-27 | 2015-10-01 | Miele & Cie. Kg | Floor cleaning apparatus and method and system for determining a floor plan by a self-propelled floor cleaning device |
DE102014110201B3 (en) * | 2014-07-21 | 2015-08-13 | Miele & Cie. Kg | Self-propelled robot and obstacle detection method for a self-propelled robot |
DE102015104251A1 (en) | 2015-03-20 | 2016-09-22 | Miele & Cie. Kg | Floor care appliance and method of maintaining a hard floor with a self-propelled floor care appliance |
DE102015104251B4 (en) | 2015-03-20 | 2022-05-19 | Miele & Cie. Kg | Floor maintenance device and method of maintenance of a hard floor with a self-propelled floor maintenance device |
DE102015104250A1 (en) | 2015-03-20 | 2016-09-22 | Miele & Cie. Kg | Floor care appliance and method of maintaining an at least partially carpeted floor with a self-propelled floor care appliance |
DE102015104244A1 (en) | 2015-03-20 | 2016-09-22 | Miele & Cie. Kg | Floor care appliance and method of maintaining a floor with a self-propelled floor care appliance |
US10345821B2 (en) | 2015-05-13 | 2019-07-09 | Universitaet Bielefeld | Floor-treatment apparatus and navigation system therefor |
DE102015006014A1 (en) | 2015-05-13 | 2016-11-17 | Universität Bielefeld | Soil cultivation device and method for its navigation and swarm of tillage equipment and methods for their joint navigation |
WO2016180514A1 (en) | 2015-05-13 | 2016-11-17 | Universität Bielefeld | Floor treatment device and method for the navigation thereof, and group of floor treatment devices and method for the joint navigation of said floor treatment devices |
US11550054B2 (en) | 2015-06-18 | 2023-01-10 | RobArtGmbH | Optical triangulation sensor for distance measurement |
US11188086B2 (en) | 2015-09-04 | 2021-11-30 | RobArtGmbH | Identification and localization of a base station of an autonomous mobile robot |
EP3156872A1 (en) * | 2015-10-13 | 2017-04-19 | Looq Systems Inc | Vacuum cleaning robot with visual navigation and navigation method thereof |
US11768494B2 (en) | 2015-11-11 | 2023-09-26 | RobArt GmbH | Subdivision of maps for robot navigation |
US11175670B2 (en) | 2015-11-17 | 2021-11-16 | RobArt GmbH | Robot-assisted processing of a surface using a robot |
US11789447B2 (en) | 2015-12-11 | 2023-10-17 | RobArt GmbH | Remote control of an autonomous mobile robot |
US10321625B2 (en) | 2015-12-30 | 2019-06-18 | Honda Research Institute Europe Gmbh | Autonomous working machine such as autonomous lawn mower |
US11709497B2 (en) | 2016-02-15 | 2023-07-25 | RobArt GmbH | Method for controlling an autonomous mobile robot |
US10860029B2 (en) | 2016-02-15 | 2020-12-08 | RobArt GmbH | Method for controlling an autonomous mobile robot |
CN109843752A (en) * | 2016-09-15 | 2019-06-04 | 亚马逊科技有限公司 | Integrated form detection of obstacles and payload centering sensing system |
CN109843752B (en) * | 2016-09-15 | 2021-01-15 | 亚马逊科技有限公司 | Robot driving unit and system thereof |
US11709489B2 (en) | 2017-03-02 | 2023-07-25 | RobArt GmbH | Method for controlling an autonomous, mobile robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102007016802B3 (en) | Self-propelled tilling device e.g. robot, navigating method, involves determining driving direction by evaluating determined vectors and by controlling distance to preceding tracks, and forming meander/spiral shaped preset track | |
EP2977844B1 (en) | Method for cleaning or processing a room using an automatically moved device | |
DE102012112036B4 (en) | Self-propelled tillage implement and method for navigating a self-propelled tillage implement | |
EP3295267B1 (en) | Floor treatment device and method for the navigation thereof, and group of floor treatment devices and method for the joint navigation of said floor treatment devices | |
EP3659001B1 (en) | Magnetometer for robot navigation | |
EP3443301B1 (en) | Method and system for determining a global position of a first landmark | |
DE102015203016B4 (en) | Method and device for optical self-localization of a motor vehicle in an environment | |
DE10145150B4 (en) | Method for setting a course of a mobile robot | |
DE60220435T2 (en) | AUTONOMOUS MACHINE | |
EP3491417B1 (en) | Method and system for detecting landmarks in a traffic environment of a mobile unit | |
EP1664674B1 (en) | Method and system for the determination of the actual position of a hand-held positioning apparatus | |
EP2755101B1 (en) | Self-propelled robot and method for distance determination in a self-propelled robot | |
DE102013207899A1 (en) | Automated guided vehicle, system with a computer and a driverless transport vehicle, method for planning a virtual lane and method for operating a driverless transport vehicle | |
EP3355147A1 (en) | Method for operating an automatically moving vehicle | |
EP2191340A2 (en) | Arrangement for detecting an environment | |
DE102017210070A1 (en) | Method for creating a digital map for an automated vehicle | |
DE102013202075A1 (en) | Movement strategy development and/or navigation device for use in autonomous lawn mower, has computing unit comprising signature generation function for creating signature of substrate due to detection of information by sensor unit | |
DE102019218192A1 (en) | Method of working crops in a field | |
DE102018113015A1 (en) | Autonomous, mobile work machine | |
DE102018221864A1 (en) | Method and system for determining a trajectory of a vehicle | |
DE102007015552B3 (en) | Self-propelled automotive robot for e.g. treatment of floor space, has lenses and mirrors spaced apart from each other in horizontal direction to guide environment image to image halves of camera module | |
DE102014110201B3 (en) | Self-propelled robot and obstacle detection method for a self-propelled robot | |
EP2741161B1 (en) | Autonomous apparatus for processing a surface and method for detecting the position of the autonomous apparatus | |
DE102022202548B3 (en) | Method for training a computer program product | |
EP4148386A1 (en) | Determination of an absolute initial position of a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G05D0001020000 Ipc: G05D0001430000 |