DE102007016802B3 - Self-propelled tilling device e.g. robot, navigating method, involves determining driving direction by evaluating determined vectors and by controlling distance to preceding tracks, and forming meander/spiral shaped preset track - Google Patents

Self-propelled tilling device e.g. robot, navigating method, involves determining driving direction by evaluating determined vectors and by controlling distance to preceding tracks, and forming meander/spiral shaped preset track Download PDF

Info

Publication number
DE102007016802B3
DE102007016802B3 DE102007016802A DE102007016802A DE102007016802B3 DE 102007016802 B3 DE102007016802 B3 DE 102007016802B3 DE 102007016802 A DE102007016802 A DE 102007016802A DE 102007016802 A DE102007016802 A DE 102007016802A DE 102007016802 B3 DE102007016802 B3 DE 102007016802B3
Authority
DE
Germany
Prior art keywords
self
images
navigating
travel
soil cultivation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102007016802A
Other languages
German (de)
Inventor
Lorenz Gerstmayr
Sven Kreft
Ralf Prof. Dr. Möller
Frank Röben
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Miele und Cie KG
Universitaet Bielefeld
Original Assignee
Miele und Cie KG
Universitaet Bielefeld
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Miele und Cie KG, Universitaet Bielefeld filed Critical Miele und Cie KG
Priority to DE102007016802A priority Critical patent/DE102007016802B3/en
Application granted granted Critical
Publication of DE102007016802B3 publication Critical patent/DE102007016802B3/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

The method involves capturing surrounding images e.g. 360 degree panorama image, in track points by a camera module (10). Vectors from actual track points to two preceding track points are determined by comparing the surrounding images of the actual track points with the surrounding images of the two preceding track points by a controller (8). A driving direction is determined by evaluating the vectors and by controlling a distance to preceding tracks by the controller, and a meander or spiral shaped preset track is formed.

Description

Die Erfindung betrifft ein Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes, welches mit einer Antriebseinheit, einer Steuereinheit zum Steuern der Fahrtrichtung und einer ersten Sensorvorrichtung zur optischen Erfassung eines Umgebungsbildes ausgestattet ist, wobei die Navigation derart erfolgt, dass sich das Bodenbearbeitungsgerät auf einer vorgegebenen Bahn innerhalb eines Raums bewegt, wobei die Steuereinrichtung die Fahrtrichtung vom jeweiligen Standort des Bodenbearbeitungsgerätes bis zum nächsten Punkt auf der vorgegebenen Bahn mit Hilfe eines Verfahrens der Ego-Motion Estimation ermittelt, und wobei die vorgegebene Bahn nicht zu einem von der ersten Sensorvorrichtung optisch erfassten Ausgangspunkt führt.The The invention relates to a method for navigating a self-propelled vehicle Tillage equipment, which with a drive unit, a control unit for controlling the direction of travel and a first sensor device for optical Capturing an environmental image is equipped, with navigation such that the tillage device on a predetermined path is moved within a room, wherein the control means the Direction of travel from the respective location of the harrow up to to the next Point on the given orbit with the help of a method of ego-motion Estimation determined, and wherein the given path does not become a From the first sensor device optically detected starting point leads.

Die Verwendung von selbstfahrenden Bodenbearbeitungsgeräten zur Säuberung von Bodenflächen oder zum Rasenschneiden ist bekannt. Der Einsatz in der Landwirtschaft oder als Minenräumgerät ist ebenfalls denkbar. Einfache Systeme arbeiten nach dem Zufallsprinzip, d. h. bei einer Kollision mit einem Hindernis oder beim Auftreffen auf eine Begrenzung ändern sie lediglich ihre Fahrtrichtung. Aus der DE 298 24 544 U1 ist es beispielsweise bekannt, zur Begrenzung eines zu bearbeitenden Areals ein Kabel zu verwenden, in welches ein Wechselstromsignal eingespeist wird. Das Bodenbearbeitungsgerät besitzt dann einen Sensor, der in der Lage ist, dieses Signal zu erkennen. Ziel jedes Einsatzes ist eine möglichst vollständige Bearbeitung einer Bodenfläche, wobei auch mehrfaches Überfahren von Bereichen in Kauf genommen wird. Der damit verbundene Vorteil einer einfachen und preiswerten Sensorik wird mit größerem Zeitbedarf erkauft.The use of self-propelled soil tillage implements for cleaning ground surfaces or lawn cutting is known. The use in agriculture or mine clearance equipment is also conceivable. Simple systems work on a random basis, ie when they collide with an obstacle or when they hit a boundary, they merely change their direction of travel. From the DE 298 24 544 U1 For example, it is known to use a cable in which an AC signal is fed to limit an area to be processed. The harrow then has a sensor capable of detecting this signal. The aim of every mission is to complete the processing of a floor area as completely as possible, with multiple passes over areas also being accepted. The associated advantage of a simple and inexpensive sensor is purchased at a greater time.

Komplexe Systeme sollen deshalb eine systematische Fahrstrategie bieten, die neben der vollständigen Überdeckung der zu bearbeitenden Fläche einen möglichst geringen Mehrfachbesuch garantiert. Diese Anforderungen lassen sich in rechteckigen Räumen durch mäandrierende Bewegungsbahnen erfüllen, andere Einsatzfälle können beispielsweise mittels spiralförmiger Bahnen besser gelöst werden. Zur zielgerichteten Navigation der Systeme sind folgende Verfahren bekannt:
Mittels Odometrie wird die gefahrene Strecke einzelner Räder ausgewertet und zur Steuerung im Raum verwendet. Hierdurch ist das Abfahren von vorgegebenen Bahnen wie Mäander oder Spiralen ansatzweise möglich. Durch Radschlupf, insbesondere auf Teppichen und Bodenunebenheiten im Indoorbereich und schlammigem oder sandigem Untergrund im Outdoorbereich, summieren sich allerdings unvermeidliche Messfehler mit der Zeit auf. Auch Abweichungen im Radumfang, beispielsweise durch Nachlassen des Luftdrucks in Pneus, verursachen Messfehler. Dies führt nach kurzen Fahrstrecken zu starken Bahnabweichungen, was bei den oben genannten Einsatzfällen, wo eine Fläche vollständig bearbeitet werden soll, nicht erwünscht ist. Auch durch Kombination mit Abstands- und/oder Kamerasensoren ist das Odometrieverfahren nur mit Abstrichen tauglich. Außerdem stellen diese Verfahren (SLAM) hohe Anforderungen an die Genauigkeit der Sensoren und an die Leistung eines Steuerrechners zur Auswertung der Sensorsignale.
Complex systems should therefore offer a systematic driving strategy, which guarantees not only complete coverage of the area to be worked on, but also the least possible multiple visits. These requirements can be met in rectangular spaces by meandering trajectories, other applications can be solved better, for example by means of spiral paths. For targeted navigation of the systems, the following methods are known:
Odometry is used to evaluate the distance traveled by individual wheels and use them for control in the room. As a result, the departure of predetermined paths such as meanders or spirals is possible. Wheel slippage, especially on carpets and uneven floors in the indoor area and muddy or sandy ground in the outdoor area, however, add up to inevitable measurement errors over time. Even deviations in the wheel circumference, for example, by decreasing the air pressure in tires, cause measurement errors. This leads after short distances to strong track deviations, which is not desirable in the above applications, where a surface is to be completely processed. Even by combination with distance and / or camera sensors, the odometry method is only suitable with a few drawbacks. In addition, these methods (SLAM) place high demands on the accuracy of the sensors and on the performance of a control computer for evaluating the sensor signals.

Andere Systeme verwenden künstliche Landmarken, wie z. B. IR-Spots, RFID-Chips oder GPS. Die beiden ersten Alternativen erfordern eine aufwändige und meist teure Vorleistung des Anwenders, die Verwendung von GPS ist nur im Outdoorbereich und dort auch nur mit geringer Genauigkeit möglich.Other Systems use artificial landmarks, such as As IR spots, RFID chips or GPS. The first two alternatives require a complex and mostly expensive up-front of the user, the use of GPS is only possible in the outdoor area and there only with low accuracy.

In der Natur finden Insekten, z.B. Wüstenameisen, zum Nest zurück, die lediglich über ca. 1 Million Neuronen verfügen. Diese Anzahl reicht in einer komplexen realen Umgebung nicht für die oben beschriebene Objekterkennung, Kartenerstellung und Pfadplanung aus, zumal sie auch für alle anderen Aufgaben, die ein Tier hat, ausreichen müssen. Aus der Beobachtung dieser Tiere haben Informatiker in Zusammenarbeit mit Biologen eine ganze Klasse von Verfahren abgeleitet, die man unter dem Oberbegriff Ego-Motion Estimation zusammenfasst. Die Anwendung solcher Verfahren ist bisher auf das Auffinden eines bereits besuchten, nahe gelegenen Ausgangspunktes beschränkt, was auch als lokales visuelles Homing bezeichnet wird. Lokale visuelle Homingverfahren berechnen aus zwei Bildern einen Homevektor, der vom Aufnahmeort des einen Bildes zu dem des anderen weist, bzw. eine Homerichtung.In of nature find insects, e.g. Desert ants, back to the nest that only about have about 1 million neurons. This number is not enough for the above in a complex real environment described object recognition, map creation and path planning, especially as she also for all other tasks that an animal has to suffice. From the Observation of these animals have computer scientists in collaboration with Biologists derive a whole class of procedures that one takes summarizes the generic term Ego-Motion Estimation. The application Such methods have hitherto been based on finding an already visited, limited starting point, which is also called local visual homing referred to as. Local visual homing methods calculate from two Images a home vector, which is the location of the one image that of the other points, or a home direction.

Es existieren derzeit drei wichtige Klassen von Verfahren des lokalen visuellen Homings, die ohne Tiefeninformation auskommen:

  • 1. Korrespondenzverfahren/Optischer Fluss: Bei diesen Verfahren wird versucht, eine lokale Region aus dem ersten Bild im jeweils zweiten wiederzufinden. Dies kann durch eine explizite Suche nach einer passenden Partnerregion geschehen (Blockmatching), oder durch Näherungslösungen (1st/2nd order differential flow methods). Die gefundene Korrespondenz definiert einen Verschiebungsvektor im Bild, den Flussvektor, der in eine zugehörige Bewegungsrichtung, den lokalen Homevektor, umgerechnet werden kann. Diese lokalen Homevektoren werden dann zu einem Gesamthomevektor verknüpft, z. B. durch Mittelung. Eine Vorauswahl geeigneter Regionen für die Suche ist möglich. Literatur. Vardy A., Möller R. (2005) Biologically plausible visual homing methods based an optical flow techniques. Connection Science 17: 47-89
  • 2. Descent in Image Distances (Abstieg in Bildabständen): Diese Verfahren berechnen Abstandsmaße zwischen Bildern. Der Homevektor wird so bestimmt, dass sich in diese Richtung das Abstandsmaß verringert. Beim ursprünglichen Verfahren (Zeil et al., 2003) sind dazu Testschritte (Bewegungen des Roboters) erforderlich, bspw. um den Bildabstand an drei Punkten im Raum zu bestimmen, was eine Berechnung des Gradienten im Bildabstand ermöglicht. Neuere Verfahren (MFDID, Möller and Vardy, 2006) vermeiden diese Testschritte durch Vorhersageschritte, die keine Bewegung des Roboters erfordern. Die Berechnung des Abstandsmaßes erfolgt entweder direkt auf der Bildinformation, oder auf kompakten Beschreibungen der Bilder durch Parametervektoren. Literatur: Zeil J., Hoffmann M. I., Chahl J. S. (2003) Catchment areas of panoramic images in outdoor scenes. Journal of the Optical Society of America A 20: 450-469; Möller R., Vardy A. (2006) Local Visual Homing by Matched-Filter Descent in Image Distances. Biological Cybernetics, 95: 413-430
  • 3. Warping (Bildverzerrung): Dieses Verfahren (Franz et al., 1998) bestimmt den Homevektor sowie weitere Bewegungsparameter durch Bildverzerrung und Suche. Eines der Bilder wird so verzerrt, als ob der Roboter ausgehend vom Aufnahmeort des Bildes eine bestimmte Bewegung durchgeführt hätte. Nun wird der Raum der möglichen Bewegungen des Roboters durchmustert, und es wird festgestellt, welches der verzerrten Varianten des ersten Bildes am besten mit dem zweiten Bild übereinstimmt. Die Bewegungsparameter, die zur besten Passung gehören, ergeben den Homevektor und zusätzlich Information über die relative Orientierung der Bilder zueinander. Literatur: Franz M. O., Schälkopf B., Mallot H. A., Bülthoff H. H. (1998) Where did I take that snapshot? Scene-based homing by image matching. Biological Cybernetics 79: 191-202
There are currently three major classes of local visual homing methods that do not require depth information:
  • 1. Correspondence method / Optical flow: In these methods, an attempt is made to find a local region from the first image in the second. This can be done by an explicit search for a suitable partner region (block matching), or by approximate solutions (1st / 2nd order differential flow methods). The correspondence found defines a displacement vector in the image, the flow vector, which can be converted into an associated movement direction, the local home vector. These local home vectors are then linked to a total home vector, e.g. By averaging. A pre-selection of suitable regions for the search is possible. Literature. Vardy A., Moller R. (2005) Biologically plausible visual homing methods based on optical flow techniques. Connection Science 17: 47-89
  • 2. Descent in Image Distances (Descent to Imageab These methods calculate distance measurements between images. The home vector is determined so that the distance is reduced in this direction. In the original method (Zeil et al., 2003), test steps (movements of the robot) are required for this, for example to determine the image distance at three points in space, which enables a calculation of the gradient in the image distance. Newer methods (MFDID, Möller and Vardy, 2006) avoid these test steps by predicting steps that do not require movement of the robot. The calculation of the distance measure takes place either directly on the image information or on compact descriptions of the images by parameter vectors. Literature: Zeil J., Hoffmann MI, Chahl JS (2003) Catchment areas of panoramic images in outdoor scenes. Journal of the Optical Society of America A 20: 450-469; Möller R., Vardy A. (2006) Local Visual Homing by Matched Filter Descent in Image Distances. Biological Cybernetics, 95: 413-430
  • 3. Warping: This method (Franz et al., 1998) determines the home vector as well as other motion parameters by image distortion and search. One of the images is distorted as if the robot had made a certain movement from the location where the image was taken. Now the space of the possible movements of the robot is screened, and it is determined which of the distorted variants of the first image best matches the second image. The motion parameters that belong to the best fit give the home vector and additional information about the relative orientation of the images to each other. Literature: Franz MO, Schälkopf B., Mallot HA, Bülthoff HH (1998) Where did I take that snapshot? Scene-based homing by image matching. Biological Cybernetics 79: 191-202

Über diese exemplarisch genannten Verfahren des lokalen visuellen Homings hinaus sind zahlreiche weitere Lösungen des Ego-Motion Estimation-Problems bekannt.About these exemplary methods of local visual homing are many more solutions of the ego-motion estimation problem known.

Desweiteren kann aus zwei an unterschiedlichen Orten aufgenommenen Panoramabildern auch die relative Orientierung der Kamera (Azimuth) an beiden Orten bestimmt werden. Dazu wird das erste der Panoramabilder gegen das zweite im Azimuth (horizontaler Winkel) schrittweise verschoben. Es wird ein Bildabstandsmaß zwischen dem verschobenen ersten Bild und dem ursprünglichen zweiten Bild berechnet. Dieses Abstandsmaß hat ein globales Minimum bei derjenigen Verschiebung, bei der beide Bilder so ausgerichtet sind, als ob sie in gleicher Orientierung der Kamera aufgenommen worden wären. Ist bekannt, in welcher Orientierung das eine Bild aufgenommen wurde, so kann aus dem Verfahren ermittelt werden, in welcher Orientierung das zweite aufgenommen wurde. Dieses Verfahren ist also ein "Bildkompass", der magnetische Kompasse ersetzen kann, die im Indoor-Bereich als unzuverlässig bekannt sind. Der Bildkompass kann eingesetzt werden, um in lokalen Homing-Verfahren beide Bilder vor Anwendung des Homing-Verfahrens in dieselbe Orientierung zu bringen. Dies ist bei o.g. Verfahren der Klassen 1 und 2 erforderlich.

  • Literatur: Zeil J., Hoffmann M. I., Chahl J. S. (2003) Catchment areas of panoramic images in outdoor scenes. Journal of the Optical Society of America A 20: 450-469;
Furthermore, the relative orientation of the camera (azimuth) at both locations can be determined from two panoramic images recorded at different locations. For this purpose, the first of the panoramic images is shifted against the second in azimuth (horizontal angle) gradually. An image distance measure between the shifted first image and the original second image is calculated. This distance measure has a global minimum in that shift in which both images are oriented as if they were taken in the same orientation of the camera. If it is known in which orientation the one image was taken, it can be determined from the method in which orientation the second was taken. This method is therefore an "image compass" that can replace magnetic compasses that are known to be unreliable in the indoor field. The image compass can be used to bring both images into the same orientation in local homing procedures before applying the homing procedure. This is required for the above-mentioned Class 1 and Class 2 procedures.
  • Literature: Zeil J., Hoffmann MI, Chahl JS (2003) Catchment areas of panoramic images in outdoor scenes. Journal of the Optical Society of America A 20: 450-469;

Ein gattungsgemäßes Verfahren ist aus Koyasu, H.; Miura, J.; Shiray, Y.; Mobile robot navigation in dynamic environments using omidirectional stereo; in Robotics and Automation, 2003 Proceedings, IEEE International Conference an Volume 1, 14-19 Sept. 2003 Page (s):893-898 vol.1 bekannt. Dort wird mittels eines stereoskopischen Sensors eine Umgebungskarte erzeugt und ein Roboter mit Hilfe eines Verfahrens der Ego-Motion Estimation zu einem Zielpunkt bewegt. Aufgabe des beschriebenen Verfahrens ist es, den Roboter auf einer möglichst kurzen Strecke von einem Startpunkt zu einem Zielpunkt zu navigieren und dabei statischen und dynamische Hindernissen auszuweichen.One generic method is from Koyasu, H .; Miura, J .; Shiray, Y .; Mobile robot navigation in dynamic environments using omidirectional stereo; in robotics and Automation, 2003 Proceedings, IEEE International Conference on Volume 1, 14-19 Sept. 2003 Page (s): 893-898 vol.1. There is by means of a stereoscopic sensor generates an environment map and a Robot using a method of ego-motion estimation to one Target point moved. The object of the method described is the Robot on as short as possible Route from a starting point to a destination point to navigate and Avoiding static and dynamic obstacles.

Aus der DE 101 64 280 A1 ist ein Reinigungsrobotersystem bekannt, welcher mit Hilfe von Bilddaten seine Eigenposition erkennt und Hindernisse detektiert. Der Roboter soll sich auf einer vorgegeben Bahn bewegen, die hierzu verwendete Navigationsstrategie ist nicht beschrieben.From the DE 101 64 280 A1 a cleaning robot system is known, which recognizes its own position with the aid of image data and detects obstacles. The robot should move on a given path, the navigation strategy used for this is not described.

Aus der DE 196 14 916 A1 ist ein Fahrroboter für die automatische Behandlung von Bodenflächen bekannt. Der Roboter ist mit Sensoren zur Aufnahme von Daten eines Raummodells ausgestattet. Aus diesen Daten soll eine Fahrstrecke und eine Bearbeitungsstrecke berechnet werden. Die Art der Navigation zur Einhaltung dieser Strecken ist nicht beschrieben.From the DE 196 14 916 A1 is a driving robot for the automatic treatment of floor surfaces known. The robot is equipped with sensors for recording data of a room model. From this data, a travel route and a processing route are to be calculated. The type of navigation to comply with these routes is not described.

Der Erfindung stellt sich somit das Problem, ein Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes der eingangs genannten Art zu offenbaren, welches die eingangs genannten Nachteile vermeidet und bei geringer Rechnerleistung effektiv und sicher arbeitet.Of the Invention thus poses the problem of a method of navigation a self-propelled soil cultivation device of the type mentioned to disclose which avoids the disadvantages mentioned above and works effectively and safely with low computing power.

Erfindungsgemäß wird dieses Problem durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung ergeben sich aus den nachfolgenden Unteransprüchen.According to the invention this Problem by a method having the features of the claim 1 solved. Advantageous embodiments and further developments of the invention result from the following subclaims.

Zur Durchführung des erfindungsgemäßen Verfahrens erfasst die erste Sensoreinrichtung zunächst Umgebungsbilder auf bekannten Bahnpunkten, anschließend ermittelt die Steuereinrichtung Vektoren vom aktuellen Bahnpunkt zu mindestens zwei vorhergehenden Bahnpunkten durch Vergleich des Umgebungsbildes des aktuellen Bahnpunktes mit den Umgebungsbildern der mindestens zwei vorhergehenden Bahnpunkte, und zuletzt ermittelt die Steuereinrichtung die weitere Fahrtrichtung durch Auswertung der Vektoren in der Art, dass die vorgegebene Bahn mäanderförmig oder annähernd spiralförmig ausgebildet ist und dass die Steuereinrichtung die weitere Fahrtrichtung durch Regelung des Abstands zur Vorgängerbahn ermittelt. Das vorbeschriebene Verfahren benötigt eine geringe Rechnerkapazität und ist trotzdem ausreichend genau, um das selbstfahrende Bodenbearbeitungsgerät auf seiner vorgegebenen Bahn zu halten.For carrying out the inventive The control device detects vectors from the current track point to at least two previous track points by comparing the surrounding image of the current track point with the surrounding images of the at least two preceding track points, and finally the control device determines the further direction of travel by evaluation the vectors in such a way that the predetermined path is meander-shaped or approximately spiral-shaped and that the control device determines the further direction of travel by regulating the distance to the previous path. The method described above requires a low computing capacity and yet is sufficiently accurate to keep the self-propelled tillage implement on its predetermined path.

Zur Verbesserung der Genauigkeit erfasst die Sensorvorrichtung als Umgebungsbild ein 360°-Panoramabild. Ein solches Bild kann dadurch erzeugt werden, dass die Kamera mit ihrer optischen Achse auf das Zentrum eines hyperbolischen Spiegels gerichtet ist.to Improved accuracy detects the sensor device as an environmental image a 360 ° panorama picture. One such image can be generated by the camera with its optical axis directed to the center of a hyperbolic mirror is.

Zur Ermittlung der Bahnpunkte, an denen Umgebungsbilder erfasst werden, bedient sich die Steuereinrichtung in zweckmäßiger Weise einer zweiten Sensoreinrichtung zur Erfassung der Fahrdistanz. Hier kann beispielsweise ein Odometrie-Verfahren eingesetzt werden. Zur Vereinfachung dieses Verfahrens ist es zweckmäßig, wenn Fahrdistanzen zwischen benachbarten Bahnpunkten gleich sind.to Determination of the path points at which environmental images are captured the control device expediently uses a second sensor device for recording the driving distance. Here, for example, an odometry method be used. To simplify this process, it is expedient if Driving distances between adjacent track points are the same.

Die Berechnung der weiteren Fahrtrichtung kann in einfachster Weise durch Triangulation der Vektoren erfolgen.The Calculating the other direction of travel can be done in the simplest way done by triangulation of the vectors.

Wie bereits eingangs erwähnt, sollte die vorgegebene Bahn je nach Beschaffenheit der zu bearbeitenden Fläche mäanderförmig oder annähernd spiralförmig ausgebildet sein. Dann kann die Steuereinrichtung die weitere Fahrtrichtung einfach durch Regelung des Abstands zur Vorgängerbahn ermitteln. Insbesondere bei mäanderförmigen Bahnen, aber auch anderen Fahrstrategien auf Flächen, auf denen sich Hindernisse befinden, muss die Fahrtrichtung beim Auftreffen auf die Flächengrenze oder auf das Hindernis geändert werden. Hierzu ist es vorteilhaft, eine dritte Sensoreinrichtung einzusetzen, mit deren Hilfe die Steuereinrichtung Flächengrenzen und/oder Hindernisse erkennt und die Fahrtrichtung ändert.As already mentioned at the beginning, should the given path depending on the nature of the processed area meandering or almost spirally formed be. Then, the control device, the further direction of travel simply by controlling the distance to the predecessor train determine. Especially in meandering paths, but Also, other driving strategies on areas where there are obstacles must be the direction of travel when hitting the surface boundary or changed to the obstacle become. For this purpose, it is advantageous to use a third sensor device use, with the help of the control device area boundaries and / or Detects obstacles and changes the direction of travel.

Der Vergleich der Umgebungsbilder kann vorteilhafterweise durch eines oder mehrere der nachfolgend aufgeführten Verfahren erfolgen, welche dadurch gekennzeichnet sind, dass

  • • Merkmale in den Bildern extrahiert und deren Verschiebung zwischen den Bildern bestimmt wird;
  • • Bilder entsprechend angenommener Bewegungen zwischen Aufnahmeorten verzerrt und miteinander verglichen werden;
  • • Abstandsmaße zwischen den Bildern minimiert werden.
The comparison of the environmental images can advantageously be carried out by one or more of the methods listed below, which are characterized in that
  • • extracts features in the images and determines their shift between the images;
  • • images are distorted and compared with each other according to assumed movements between recording locations;
  • • Distance dimensions between the images are minimized.

Ein Ausführungsbeispiel der Erfindung ist in den Zeichnungen rein schematisch dargestellt und wird nachfolgend näher beschrieben. Es zeigtOne embodiment The invention is shown purely schematically in the drawings and will be closer below described. It shows

1 die Schemaskizze eines Bodenbearbeitungsgerätes zur Durchführung des erfindungsgemäßen Verfahrens; 1 the schematic of a tillage implement for performing the method according to the invention;

2 den ersten Teil einer mäandrischen Fahrstrecke des Bodenbearbeitungsgerätes; 2 the first part of a meandering route of the tillage implement;

3 eine Schemaskizze zur Berechnung des Abstandes zur Vorgängerbahn; 3 a schematic sketch for calculating the distance to the previous train;

4 die weitere Fahrstrecke des Bodenbearbeitungsgerätes. 4 the further route of the tillage implement.

Bei dem in 1 dargestellten Bodenbearbeitungsgerät 1 sind lediglich die zur Navigation notwendigen Bauteile dargestellt. Die Werkzeuge, die zur Durchführung der eigentlichen Arbeit notwendig sind, wie Schneidmesser, Sauggebläse, Reinigungsbürsten etc., sind zur Durchführung des erfindungsgemäßen Navigationsverfahrens nicht relevant und deshalb hier weder dargestellt noch beschrieben.At the in 1 shown soil cultivation device 1 only the necessary components for navigation are shown. The tools that are necessary for carrying out the actual work, such as cutting blades, suction fan, cleaning brushes, etc., are not relevant to the implementation of the navigation method according to the invention and therefore neither shown nor described here.

Das Bodenbearbeitungsgerät 1, im Folgenden Roboter 1 genannt, besitzt ein Gehäuse 2, dessen Bodenplatte 3 von einem Fahrwerk getragen wird. Das Fahrwerk besteht aus zwei Antriebsrädern 4, denen jeweils ein Antriebsmotor 5 zugeordnet ist, und einem Stützrad 6. In die Antriebsmotoren 5 sind Sensoren 7 integriert, mit denen die Anzahl der Radumdrehungen bzw. der Drehwinkel der Antriebsräder 4 messbar ist. Aus dem Sensorsignal und dem Radumfang berechnet und regelt der Steuerrechner 8 die jeweilige Fahrdistanz eines Rades 4, durch unterschiedliche Ansteuerung der beiden Motoren 5 kann außerdem die Fahrtrichtung beeinflusst werden. Näherungssensoren 9, von denen in der Figur beispielhaft ein einziger Infrarotsensor eingezeichnet ist, erkennen Hindernisse (nicht dargestellt) und ermöglichen dem Steuerrechner 8, die Fahrtrichtung beim Auftreffen auf ein solches Hindernis zu ändern. In komplexen Systemen ist es sinnvoll, mehrere solcher Sensoren 9 auf dem Umfang des Roboters 1 zu verteilen, wobei auch Bumper oder andere Sensoren verwendet werden können. Wird der Roboter 1 in einem geschlossenen Raum eingesetzt, stellen üblicherweise die Wände nicht nur ein Hindernis, sondern auch die Grenze der zu bearbeitenden Fläche dar. Neben den Näherungssensoren 9 sind dann keine weiteren Sensoren zur Erkennung dieser Grenze erforderlich. Im Outdoor-Bereich müssen weitere Vorkehrungen getroffen werden, durch die Grenzen gesetzt und erkannt werden, siehe beispielsweise DE 298 24 544 U1 . Zur Erfassung von Umgebungsbildern auf seiner Bewegungsbahn besitzt der Roboter ein Kameramodul 10, beispielsweise einen CCD-Chip mit geeigneter Auflösung, dessen optische Achse 11 auf einen hyperbolischen Spiegel 12 gerichtet ist. Auf diese Weise kann ein 360°-Panoramabild von der Umgebung des Roboters 1 erfasst und zur weiteren Auswertung an den Steuerrechner 8 gegeben werden.The tillage implement 1 , in the following robot 1 called, has a housing 2 whose bottom plate 3 is carried by a chassis. The chassis consists of two drive wheels 4 , which each have a drive motor 5 is assigned, and a jockey wheel 6 , In the drive motors 5 are sensors 7 integrated, with which the number of wheel revolutions and the rotation angle of the drive wheels 4 is measurable. The control computer calculates and regulates from the sensor signal and the wheel circumference 8th the respective driving distance of a wheel 4 , by different control of the two motors 5 In addition, the direction of travel can be influenced. Proximity sensors 9 , of which in the figure by way of example a single infrared sensor is shown, detect obstacles (not shown) and allow the control computer 8th to change the direction of travel when hitting such an obstacle. In complex systems it makes sense to have several such sensors 9 on the circumference of the robot 1 be distributed, which also bumpers or other sensors can be used. Will the robot 1 Used in a closed room, the walls are usually not only an obstacle, but also the limit of the surface to be machined. In addition to the proximity sensors 9 are then no ne other sensors to detect this limit required. In the outdoor area, further precautions must be taken to set and recognize the limits, see for example DE 298 24 544 U1 , To capture environmental images on its trajectory, the robot has a camera module 10 , For example, a CCD chip with suitable resolution, the optical axis 11 on a hyperbolic mirror 12 is directed. In this way, a 360 ° panoramic image of the environment of the robot 1 recorded and for further evaluation to the control computer 8th are given.

Im Folgenden wird das Navigationsverfahren beschrieben, mit dem sich der Roboter 1 mit Hilfe der vorgenannten Sensoren 7, 9 und 10 und eines vom Steuerrechner 8 durchgeführten Verfahren zur Ego-Motion Estimation in einem geschlossenen Raum 13 bewegt. Aus den 2 und 4 ist erkennbar, dass eine mäandrische Bahn 14 vorgegeben ist. Auf dieser Bahn 14 werden an vorgegeben Bahnpunkten Si, d. h., jeweils nach einer Fahrdistanz von b (beispielsweise 20 cm), Umgebungsbilder aufgenommen. Die Fahrdistanz b wird vom Steuerrechner 8 durch bekannte Odometrieverfahren mit Hilfe der Sensoren 7 berechnet. Trifft der Roboter 1 auf ein Hindernis in Form einer Wand 13, welches der Steuerrechner 8 mit Hilfe des Näherungssensors 9 erkennt, dreht er um 90°, legt eine weitere Strecke d0 zurück und dreht nochmals um 90° (siehe 2). Anschließend wird ein weiteres Umgebungsbild am Punkt S5 aufgenommen.The following describes the navigation method used by the robot 1 with the help of the aforementioned sensors 7 . 9 and 10 and one from the control computer 8th performed methods for ego-motion estimation in a closed space 13 emotional. From the 2 and 4 is recognizable that a meandering orbit 14 is predetermined. On this track 14 are at predetermined track points S i , ie, taken after a driving distance of b (for example, 20 cm), environmental images. The driving distance b is from the control computer 8th by known Odometrieverfahren using the sensors 7 calculated. Meets the robot 1 on an obstacle in the form of a wall 13 , which is the control computer 8th with the help of the proximity sensor 9 detects, it rotates by 90 °, puts another distance d 0 back and turns again by 90 ° (see 2 ). Subsequently, another environmental image is taken at point S 5 .

Der Steuerrechner 8 vergleicht nun das Umgebungsbild am Punkt S5 mit den Umgebungsbildern an den Punkten S3 und S4 mittels eines oder mehrerer der vorbeschriebenen Verfahren der Ego-Motion Estimation oder speziell des lokalen visuellen Homings und ermittelt die Home-Vektoren S5-54 bzw. S5-S3. Dabei kommt bei einigen Verfahren des lokalen visuellen Homings der oben beschriebene Bildkompass zum Einsatz, um beide Bilder zuvor in dieselbe Orientierung zu bringen.The control computer 8th now compares the environmental image at the point S 5 with the environmental images at the points S 3 and S 4 by means of one or more of the above-described methods of ego-motion estimation or specifically the local visual homing and determines the home vectors S 5 -5 4 S 5 -S 3 . In some methods of local visual homing, the image compass described above is used to bring both images into the same orientation beforehand.

Aus den beiden Winkeln β1 und β2, die aufgrund der Home-Vektoren bekannt sind, und der bekannten Fahrdistanz b berechnet der Steuerrechner 8 dann durch Triangulation die Distanz d0, den Abstand zur Vorgängerbahn S1-S4. Da die Ermittlung in Abhängigkeit von der Kameraauflösung, der Rechnerleistung und anderer Einflussfaktoren mit Ungenauigkeiten behaftet sein kann, kann es sinnvoll sein, weitere benachbarte Homevektoren (S5-S2 und S5-S1) heranzuziehen. Nach dem Zurücklegen von weiteren Distanzen b und der Aufnahme von Umgebungsbildern werden durch das vorgenannte Verfahren erneut die Abstände zur Vorgängerbahn S1-S4 berechnet. Durch Regelung des Abstandes d0 auf einen vorgegebenen Wert, im einfachsten Fall ist d0 = b, wird eine Fahrtrichtung eingehalten, die parallel und im vorgegebenen Abstand zur Vorgängerbahn ist. Der Abstand d0 sollte vorzugsweise etwa der Distanz b entsprechen, da bei zu steilen oder zu flachen Winkeln die Triangulation zu ungenau ist. Außerdem können zum Eliminieren von "Ausreißern" Plausibilitätsbetrachtungen und andere geeignete statistische Verfahren herangezogen werden. Für die Triangulation muss die Orientierung des Roboters in Bezug auf die Vorgängerbahn bekannt sein. Dazu wird der oben beschriebene Bildkompass verwendet. Der Bildkompass ermittelt die relative Orientierung des Roboters zur Vorgängerbahn anhand eines aktuell aufgenommenen Bildes (z.B. S5) und eines Bildes auf der Vorgängerbahn (z.B. S1-S4), dessen Orientierung bekannt ist.From the two angles β 1 and β 2 , which are known due to the home vectors, and the known driving distance b calculates the control computer 8th then by triangulation the distance d 0 , the distance to the predecessor train S 1 -S 4 . Since the determination can be subject to inaccuracies depending on the camera resolution, the computer performance and other influencing factors, it can be useful to use further adjacent home vectors (S 5 -S 2 and S 5 -S 1 ). After covering further distances b and the recording of environmental images, the distances to the preceding train S 1 -S 4 are again calculated by the aforementioned method. By controlling the distance d 0 to a predetermined value, in the simplest case d 0 = b, a direction of travel is maintained, which is parallel and at the predetermined distance from the preceding track. The distance d 0 should preferably correspond approximately to the distance b, since at too steep or too shallow angles the triangulation is too inaccurate. In addition, plausibility considerations and other appropriate statistical techniques can be used to eliminate "outliers". For the triangulation, the orientation of the robot with respect to the previous train must be known. The picture compass described above is used for this purpose. The image compass determines the relative orientation of the robot to the predecessor trajectory based on a currently recorded image (eg S5) and an image on the previous trajectory (eg S1-S4) whose orientation is known.

Claims (9)

Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1), welches mit einer Antriebseinheit (4, 5), einer Steuereinheit (8) zum Steuern der Fahrtrichtung und einer ersten Sensorvorrichtung (10) zur optischen Erfassung eines Umgebungsbildes ausgestattet ist, wobei die Navigation derart erfolgt, dass sich das Bodenbearbeitungsgerät (1) auf einer vorgegebenen Bahn (14) innerhalb eines Raums bewegt, wobei die Steuereinrichtung die Fahrtrichtung vom jeweiligen Standort des Bodenbearbeitungsgerätes bis zum nächsten Punkt auf der vorgegebenen Bahn mit Hilfe eines Verfahrens der Ego-Motion Estimation ermittelt, und wobei die vorgegebene Bahn nicht zu einem von der ersten Sensorvorrichtung (10) optisch erfassten Ausgangspunkt führt, gekennzeichnet durch folgende Verfahrensschritte: • Erfassen von Umgebungsbildern auf bekannten Bahnpunkten (Si) durch die erste Sensoreinrichtung (10); • Ermitteln der Vektoren vom aktuellen Bahnpunkt zu mindestens zwei vorhergehenden Bahnpunkten durch Vergleich des Umgebungsbildes des aktuellen Bahnpunktes mit den Umgebungsbildern der mindestens zwei vorhergehenden Bahnpunkte durch die Steuereinrichtung (8); • Ermitteln der weiteren Fahrtrichtung durch Auswertung der Vektoren durch die Steuereinrichtung (8) in der Art, dass die vorgegebene Bahn (14) mäanderförmig oder annähernd spiralförmig ausgebildet ist und dass die Steuereinrichtung die weitere Fahrtrichtung durch Regelung des Abstands zur Vorgängerbahn (S1-S4) ermittelt.Method for navigating a self-propelled soil cultivation device ( 1 ), which with a drive unit ( 4 . 5 ), a control unit ( 8th ) for controlling the direction of travel and a first sensor device ( 10 ) is equipped for the optical detection of an environmental image, wherein the navigation is such that the tillage device ( 1 ) on a given path ( 14 ) within a space, wherein the control device determines the direction of travel from the respective location of the harrow to the next point on the predetermined path by means of a method of ego-motion estimation, and wherein the predetermined path does not correspond to one of the first sensor device ( 10 ) carries optically detected starting point, characterized by the following method steps: • detection of environmental images on known track points (S i ) by the first sensor device ( 10 ); Determining the vectors from the current path point to at least two preceding path points by comparing the environmental image of the current path point with the environmental images of the at least two preceding path points by the control device (FIG. 8th ); Determining the further direction of travel by evaluation of the vectors by the control device ( 8th ) in the way that the given path ( 14 ) is formed meander-shaped or approximately spiral-shaped and that the control device determines the further direction of travel by regulating the distance to the predecessor web (S 1 -S 4 ). Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1) nach Anspruch 1, dadurch gekennzeichnet, dass die Sensorvorrichtung (10) als Umgebungsbild ein 360°-Panoramabild erfasst.Method for navigating a self-propelled soil cultivation device ( 1 ) according to claim 1, characterized in that the sensor device ( 10 ) captures a 360 ° panoramic image as the environmental image. Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Steuereinrichtung (8) die Bahnpunkte, an denen Umgebungsbilder erfasst werden, mit Hilfe einer zweiten Sensoreinrichtung (7) zur Erfassung der Fahrdistanz ermittelt.Method for navigating a self-drive the soil tillage implement ( 1 ) according to claim 1 or 2, characterized in that the control device ( 8th ) the track points at which environmental images are detected by means of a second sensor device ( 7 ) for detecting the driving distance. Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1) nach Anspruch 3, dadurch gekennzeichnet, dass die Fahrdistanzen (b) zwischen benachbarten Bahnpunkten gleich sind.Method for navigating a self-propelled soil cultivation device ( 1 ) according to claim 3, characterized in that the driving distances (b) between adjacent track points are the same. Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinrichtung die weitere Fahrtrichtung durch Triangulation der Vektoren ermittelt.Method for navigating a self-propelled soil cultivation device ( 1 ) according to one of the preceding claims, characterized in that the control device determines the further direction of travel by triangulation of the vectors. Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinrichtung (8) mittels einer dritten Sensoreinrichtung (9) beim Auftreffen des Bodenbearbeitungsgerätes (1) auf ein Hindernis oder eine Begrenzung (13) der zu bearbeitenden Fläche die Fahrtrichtung ändert.Method for navigating a self-propelled soil cultivation device ( 1 ) according to one of the preceding claims, characterized in that the control device ( 8th ) by means of a third sensor device ( 9 ) upon impact of the soil tillage implement ( 1 ) on an obstacle or a boundary ( 13 ) of the surface to be machined changes the direction of travel. Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Vergleich der Umgebungsbilder dadurch erfolgt, dass Merkmale in den Bildern extrahiert werden und deren Verschiebung zwischen den Bildern bestimmt wird.Method for navigating a self-propelled soil cultivation device ( 1 ) according to one of the preceding claims, characterized in that the comparison of the surrounding images is effected by extracting features in the images and determining their displacement between the images. Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Vergleich der Umgebungsbilder dadurch erfolgt, dass Bilder entsprechend angenommener Bewegungen zwischen Aufnahmeorten verzerrt und miteinander verglichen werden.Method for navigating a self-propelled soil cultivation device ( 1 ) according to any one of the preceding claims, characterized in that the comparison of the surrounding images takes place in that images are distorted according to assumed movements between recording locations and compared with each other. Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Vergleich der Umgebungsbilder dadurch erfolgt, dass Abstandsmaße zwischen den Bildern minimiert werden.Method for navigating a self-propelled soil cultivation device ( 1 ) according to one of the preceding claims, characterized in that the comparison of the surrounding images is carried out by minimizing distance measures between the images.
DE102007016802A 2007-04-05 2007-04-05 Self-propelled tilling device e.g. robot, navigating method, involves determining driving direction by evaluating determined vectors and by controlling distance to preceding tracks, and forming meander/spiral shaped preset track Expired - Fee Related DE102007016802B3 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102007016802A DE102007016802B3 (en) 2007-04-05 2007-04-05 Self-propelled tilling device e.g. robot, navigating method, involves determining driving direction by evaluating determined vectors and by controlling distance to preceding tracks, and forming meander/spiral shaped preset track

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007016802A DE102007016802B3 (en) 2007-04-05 2007-04-05 Self-propelled tilling device e.g. robot, navigating method, involves determining driving direction by evaluating determined vectors and by controlling distance to preceding tracks, and forming meander/spiral shaped preset track

Publications (1)

Publication Number Publication Date
DE102007016802B3 true DE102007016802B3 (en) 2008-05-15

Family

ID=39277945

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007016802A Expired - Fee Related DE102007016802B3 (en) 2007-04-05 2007-04-05 Self-propelled tilling device e.g. robot, navigating method, involves determining driving direction by evaluating determined vectors and by controlling distance to preceding tracks, and forming meander/spiral shaped preset track

Country Status (1)

Country Link
DE (1) DE102007016802B3 (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ITPD20080261A1 (en) * 2008-09-12 2010-03-13 Provincia Lombardo Veneta I Stituto Di Cura S C MAN INTERFACE SYSTEM - MACHINE FOR REHABILITATION PURPOSE AND REHABILITATION METHOD
DE102009003061A1 (en) * 2009-05-13 2010-11-18 Robert Bosch Gmbh Method and device for web control, in particular of mobile vehicles
DE102012212204A1 (en) * 2012-07-12 2014-01-16 Siemens Aktiengesellschaft Method for determination of parameter of mobile technical system, involves matching parameters model with parameters actually present in technical system
DE102012112401B3 (en) * 2012-12-17 2014-03-27 Miele & Cie. Kg Self-propelled robot and method for determining a rotational position of at least one drive wheel of a self-propelled robot
DE102012221572A1 (en) * 2012-11-26 2014-05-28 Robert Bosch Gmbh Autonomous locomotion device
EP2741161A2 (en) 2012-12-10 2014-06-11 Miele & Cie. KG Autonomous apparatus for processing a surface and method for detecting the position of the autonomous apparatus
DE102012112036A1 (en) 2012-12-10 2014-06-12 Miele & Cie. Kg Method for navigation of self-propelled soil cultivation device, involves digging space region from starting point to end point on meandering path, where starting point is selected
DE102012112741A1 (en) 2012-12-20 2014-06-26 Miele & Cie. Kg Method for determining inclination of automotive robot, involves determining inclination of robot relative to reference position based on comparison of position and orientation of characteristic features in two images
DE102012112740A1 (en) 2012-12-20 2014-06-26 Miele & Cie. Kg Self-propelled robot e.g. self-propelled soil tilling machine, has camera capturing images of environment of robot, and visually readable inclination sensors arranged in field of vision of camera
DE102013100192A1 (en) 2013-01-10 2014-07-10 Miele & Cie. Kg Self-propelled robot and method for distance determination in a self-propelled robot
DE102013201769A1 (en) * 2013-02-04 2014-08-07 Deutsches Zentrum für Luft- und Raumfahrt e.V. Surveying arrangement and method of surveying
DE102013104547A1 (en) 2013-05-03 2014-11-06 Miele & Cie. Kg Self-propelled tillage implement and optical system for a self-propelled tillage implement
DE102014110201B3 (en) * 2014-07-21 2015-08-13 Miele & Cie. Kg Self-propelled robot and obstacle detection method for a self-propelled robot
DE102014012811A1 (en) 2014-03-27 2015-10-01 Miele & Cie. Kg Floor cleaning apparatus and method and system for determining a floor plan by a self-propelled floor cleaning device
DE102015104250A1 (en) 2015-03-20 2016-09-22 Miele & Cie. Kg Floor care appliance and method of maintaining an at least partially carpeted floor with a self-propelled floor care appliance
DE102015104244A1 (en) 2015-03-20 2016-09-22 Miele & Cie. Kg Floor care appliance and method of maintaining a floor with a self-propelled floor care appliance
DE102015104251A1 (en) 2015-03-20 2016-09-22 Miele & Cie. Kg Floor care appliance and method of maintaining a hard floor with a self-propelled floor care appliance
DE102015006014A1 (en) 2015-05-13 2016-11-17 Universität Bielefeld Soil cultivation device and method for its navigation and swarm of tillage equipment and methods for their joint navigation
EP3156872A1 (en) * 2015-10-13 2017-04-19 Looq Systems Inc Vacuum cleaning robot with visual navigation and navigation method thereof
CN109843752A (en) * 2016-09-15 2019-06-04 亚马逊科技有限公司 Integrated form detection of obstacles and payload centering sensing system
US10321625B2 (en) 2015-12-30 2019-06-18 Honda Research Institute Europe Gmbh Autonomous working machine such as autonomous lawn mower
US10860029B2 (en) 2016-02-15 2020-12-08 RobArt GmbH Method for controlling an autonomous mobile robot
US11175670B2 (en) 2015-11-17 2021-11-16 RobArt GmbH Robot-assisted processing of a surface using a robot
US11188086B2 (en) 2015-09-04 2021-11-30 RobArtGmbH Identification and localization of a base station of an autonomous mobile robot
US11550054B2 (en) 2015-06-18 2023-01-10 RobArtGmbH Optical triangulation sensor for distance measurement
US11709489B2 (en) 2017-03-02 2023-07-25 RobArt GmbH Method for controlling an autonomous, mobile robot
US11768494B2 (en) 2015-11-11 2023-09-26 RobArt GmbH Subdivision of maps for robot navigation
US11789447B2 (en) 2015-12-11 2023-10-17 RobArt GmbH Remote control of an autonomous mobile robot

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19614916A1 (en) * 1996-04-16 1997-11-06 Detlef Raupach Floor cleaning robot vehicle for use in rooms
DE29824544U1 (en) * 1997-09-19 2001-08-09 Electrolux Ab Electronic limitation system
DE10164280A1 (en) * 2001-04-18 2002-10-31 Samsung Kwangju Electronics Co Mobile communications distance controllable cleaning robot having cleaning robot moving freely digital communication words controlled from centre/communications relay set using mobile communications telephone

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19614916A1 (en) * 1996-04-16 1997-11-06 Detlef Raupach Floor cleaning robot vehicle for use in rooms
DE29824544U1 (en) * 1997-09-19 2001-08-09 Electrolux Ab Electronic limitation system
DE10164280A1 (en) * 2001-04-18 2002-10-31 Samsung Kwangju Electronics Co Mobile communications distance controllable cleaning robot having cleaning robot moving freely digital communication words controlled from centre/communications relay set using mobile communications telephone

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
Franz M. O., Schölkopf B., Mallot H.A., Bülthoff H.H. (1998) Where did I take that snapshot? Scene-based homing by image matching. Biological Cybernetics 79: 191-202 *
Koyasu,H., Miura,J., Shirai,Y.: Mobile robot na- vigation in dynamic environments using omnidirec- tional stereo, in Robitics and Automation, 2003, Proceedings, IEEE International Conference on Volume1, 14-19 Sept. 2003 Page(s): 893-898 vol.1
Koyasu,H., Miura,J., Shirai,Y.: Mobile robot navigation in dynamic environments using omnidirectional stereo, in Robitics and Automation, 2003, Proceedings, IEEE International Conference on Volume1, 14-19 Sept. 2003 Page(s): 893-898 vol.1 *
Möller R., Vardy A. (2006) Local Visual Homing by Matched-Filter Descent in Image Distances. Bio- logical Cybernetics. 95: 413-430
Möller R., Vardy A. (2006) Local Visual Homing by Matched-Filter Descent in Image Distances. Biological Cybernetics. 95: 413-430 *
Vardy A., Möller R. (2005) Biologically plausible visul homing methods based on optical flow tech- niques. Connection Science 17: 47-89
Vardy A., Möller R. (2005) Biologically plausible visul homing methods based on optical flow techniques. Connection Science 17: 47-89 *
Zeil J., Hoffmann M.I.. Chal J. S (2003) Catchment areas of panoramic images in outdoor scenes. Journal of the Optical Society A 20: 450-469 *

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ITPD20080261A1 (en) * 2008-09-12 2010-03-13 Provincia Lombardo Veneta I Stituto Di Cura S C MAN INTERFACE SYSTEM - MACHINE FOR REHABILITATION PURPOSE AND REHABILITATION METHOD
DE102009003061A1 (en) * 2009-05-13 2010-11-18 Robert Bosch Gmbh Method and device for web control, in particular of mobile vehicles
DE102012212204B4 (en) * 2012-07-12 2016-02-11 Siemens Aktiengesellschaft Parameter determination, calibration
DE102012212204A1 (en) * 2012-07-12 2014-01-16 Siemens Aktiengesellschaft Method for determination of parameter of mobile technical system, involves matching parameters model with parameters actually present in technical system
DE102012221572A1 (en) * 2012-11-26 2014-05-28 Robert Bosch Gmbh Autonomous locomotion device
EP2741161A2 (en) 2012-12-10 2014-06-11 Miele & Cie. KG Autonomous apparatus for processing a surface and method for detecting the position of the autonomous apparatus
DE102012112037A1 (en) 2012-12-10 2014-06-12 Miele & Cie. Kg Self-propelled soil tillage implement and method for determining position in a self-propelled tillage implement
DE102012112036A1 (en) 2012-12-10 2014-06-12 Miele & Cie. Kg Method for navigation of self-propelled soil cultivation device, involves digging space region from starting point to end point on meandering path, where starting point is selected
EP2741161A3 (en) * 2012-12-10 2017-07-12 Miele & Cie. KG Autonomous apparatus for processing a surface and method for detecting the position of the autonomous apparatus
DE102012112036B4 (en) 2012-12-10 2023-06-07 Miele & Cie. Kg Self-propelled tillage implement and method for navigating a self-propelled tillage implement
DE102012112401B3 (en) * 2012-12-17 2014-03-27 Miele & Cie. Kg Self-propelled robot and method for determining a rotational position of at least one drive wheel of a self-propelled robot
EP2743789A1 (en) 2012-12-17 2014-06-18 Miele & Cie. KG Self-propelled robot and method for determining a rotation position of at least one drive wheel
DE102012112740A1 (en) 2012-12-20 2014-06-26 Miele & Cie. Kg Self-propelled robot e.g. self-propelled soil tilling machine, has camera capturing images of environment of robot, and visually readable inclination sensors arranged in field of vision of camera
DE102012112740B4 (en) 2012-12-20 2024-02-29 Miele & Cie. Kg Self-driving robot and method for determining an inclination of a self-driving robot
DE102012112741A1 (en) 2012-12-20 2014-06-26 Miele & Cie. Kg Method for determining inclination of automotive robot, involves determining inclination of robot relative to reference position based on comparison of position and orientation of characteristic features in two images
DE102012112741B4 (en) 2012-12-20 2022-10-27 Miele & Cie. Kg Self-propelled robot and method for determining an inclination of a self-propelled robot
EP2755101A2 (en) 2013-01-10 2014-07-16 Miele & Cie. KG Self-propelled robot and method for distance determination in a self-propelled robot
DE102013100192A1 (en) 2013-01-10 2014-07-10 Miele & Cie. Kg Self-propelled robot and method for distance determination in a self-propelled robot
EP2755101A3 (en) * 2013-01-10 2017-11-29 Miele & Cie. KG Self-propelled robot and method for distance determination in a self-propelled robot
DE102013201769A1 (en) * 2013-02-04 2014-08-07 Deutsches Zentrum für Luft- und Raumfahrt e.V. Surveying arrangement and method of surveying
DE102013104547A1 (en) 2013-05-03 2014-11-06 Miele & Cie. Kg Self-propelled tillage implement and optical system for a self-propelled tillage implement
DE102014012811A1 (en) 2014-03-27 2015-10-01 Miele & Cie. Kg Floor cleaning apparatus and method and system for determining a floor plan by a self-propelled floor cleaning device
DE102014110201B3 (en) * 2014-07-21 2015-08-13 Miele & Cie. Kg Self-propelled robot and obstacle detection method for a self-propelled robot
DE102015104251A1 (en) 2015-03-20 2016-09-22 Miele & Cie. Kg Floor care appliance and method of maintaining a hard floor with a self-propelled floor care appliance
DE102015104251B4 (en) 2015-03-20 2022-05-19 Miele & Cie. Kg Floor maintenance device and method of maintenance of a hard floor with a self-propelled floor maintenance device
DE102015104250A1 (en) 2015-03-20 2016-09-22 Miele & Cie. Kg Floor care appliance and method of maintaining an at least partially carpeted floor with a self-propelled floor care appliance
DE102015104244A1 (en) 2015-03-20 2016-09-22 Miele & Cie. Kg Floor care appliance and method of maintaining a floor with a self-propelled floor care appliance
US10345821B2 (en) 2015-05-13 2019-07-09 Universitaet Bielefeld Floor-treatment apparatus and navigation system therefor
DE102015006014A1 (en) 2015-05-13 2016-11-17 Universität Bielefeld Soil cultivation device and method for its navigation and swarm of tillage equipment and methods for their joint navigation
WO2016180514A1 (en) 2015-05-13 2016-11-17 Universität Bielefeld Floor treatment device and method for the navigation thereof, and group of floor treatment devices and method for the joint navigation of said floor treatment devices
US11550054B2 (en) 2015-06-18 2023-01-10 RobArtGmbH Optical triangulation sensor for distance measurement
US11188086B2 (en) 2015-09-04 2021-11-30 RobArtGmbH Identification and localization of a base station of an autonomous mobile robot
EP3156872A1 (en) * 2015-10-13 2017-04-19 Looq Systems Inc Vacuum cleaning robot with visual navigation and navigation method thereof
US11768494B2 (en) 2015-11-11 2023-09-26 RobArt GmbH Subdivision of maps for robot navigation
US11175670B2 (en) 2015-11-17 2021-11-16 RobArt GmbH Robot-assisted processing of a surface using a robot
US11789447B2 (en) 2015-12-11 2023-10-17 RobArt GmbH Remote control of an autonomous mobile robot
US10321625B2 (en) 2015-12-30 2019-06-18 Honda Research Institute Europe Gmbh Autonomous working machine such as autonomous lawn mower
US11709497B2 (en) 2016-02-15 2023-07-25 RobArt GmbH Method for controlling an autonomous mobile robot
US10860029B2 (en) 2016-02-15 2020-12-08 RobArt GmbH Method for controlling an autonomous mobile robot
CN109843752A (en) * 2016-09-15 2019-06-04 亚马逊科技有限公司 Integrated form detection of obstacles and payload centering sensing system
CN109843752B (en) * 2016-09-15 2021-01-15 亚马逊科技有限公司 Robot driving unit and system thereof
US11709489B2 (en) 2017-03-02 2023-07-25 RobArt GmbH Method for controlling an autonomous, mobile robot

Similar Documents

Publication Publication Date Title
DE102007016802B3 (en) Self-propelled tilling device e.g. robot, navigating method, involves determining driving direction by evaluating determined vectors and by controlling distance to preceding tracks, and forming meander/spiral shaped preset track
EP2977844B1 (en) Method for cleaning or processing a room using an automatically moved device
DE102012112036B4 (en) Self-propelled tillage implement and method for navigating a self-propelled tillage implement
EP3295267B1 (en) Floor treatment device and method for the navigation thereof, and group of floor treatment devices and method for the joint navigation of said floor treatment devices
EP3659001B1 (en) Magnetometer for robot navigation
EP3443301B1 (en) Method and system for determining a global position of a first landmark
DE102015203016B4 (en) Method and device for optical self-localization of a motor vehicle in an environment
DE10145150B4 (en) Method for setting a course of a mobile robot
DE60220435T2 (en) AUTONOMOUS MACHINE
EP3491417B1 (en) Method and system for detecting landmarks in a traffic environment of a mobile unit
EP1664674B1 (en) Method and system for the determination of the actual position of a hand-held positioning apparatus
EP2755101B1 (en) Self-propelled robot and method for distance determination in a self-propelled robot
DE102013207899A1 (en) Automated guided vehicle, system with a computer and a driverless transport vehicle, method for planning a virtual lane and method for operating a driverless transport vehicle
EP3355147A1 (en) Method for operating an automatically moving vehicle
EP2191340A2 (en) Arrangement for detecting an environment
DE102017210070A1 (en) Method for creating a digital map for an automated vehicle
DE102013202075A1 (en) Movement strategy development and/or navigation device for use in autonomous lawn mower, has computing unit comprising signature generation function for creating signature of substrate due to detection of information by sensor unit
DE102019218192A1 (en) Method of working crops in a field
DE102018113015A1 (en) Autonomous, mobile work machine
DE102018221864A1 (en) Method and system for determining a trajectory of a vehicle
DE102007015552B3 (en) Self-propelled automotive robot for e.g. treatment of floor space, has lenses and mirrors spaced apart from each other in horizontal direction to guide environment image to image halves of camera module
DE102014110201B3 (en) Self-propelled robot and obstacle detection method for a self-propelled robot
EP2741161B1 (en) Autonomous apparatus for processing a surface and method for detecting the position of the autonomous apparatus
DE102022202548B3 (en) Method for training a computer program product
EP4148386A1 (en) Determination of an absolute initial position of a vehicle

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001020000

Ipc: G05D0001430000