DE102014110201B3 - Self-propelled robot and obstacle detection method for a self-propelled robot - Google Patents
Self-propelled robot and obstacle detection method for a self-propelled robot Download PDFInfo
- Publication number
- DE102014110201B3 DE102014110201B3 DE102014110201.0A DE102014110201A DE102014110201B3 DE 102014110201 B3 DE102014110201 B3 DE 102014110201B3 DE 102014110201 A DE102014110201 A DE 102014110201A DE 102014110201 B3 DE102014110201 B3 DE 102014110201B3
- Authority
- DE
- Germany
- Prior art keywords
- robot
- error
- camera
- self
- obstacle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 9
- 238000000034 method Methods 0.000 claims abstract description 35
- 239000011159 matrix material Substances 0.000 claims abstract description 25
- 239000002689 soil Substances 0.000 claims abstract description 5
- 238000009826 distribution Methods 0.000 claims description 19
- 230000033001 locomotion Effects 0.000 claims description 11
- 238000005259 measurement Methods 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 5
- 238000003971 tillage Methods 0.000 description 5
- 238000004140 cleaning Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 230000012447 hatching Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000009331 sowing Methods 0.000 description 1
- 230000003319 supportive effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
- G06V20/36—Indoor scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
Die Erfindung betrifft einen selbstfahrenden Roboter, insbesondere ein selbstfahrendes Bodenbearbeitungsgerät, der bzw. das eine Kamera zur Aufnahme von Bildern einer Umgebung des Roboters und eine Steuereinrichtung zur Auswertung der Bilder der Kamera aufweist. Die Erfindung betrifft weiter ein Verfahren zur Hinderniserkennung bei einem derartigen selbstfahrenden Roboter mit den folgenden Schritten: a) Aufnehmen eines Referenzbildes der Umgebung des Roboters durch die Kamera (8); b) Bewegen des Roboters um eine Fahrstrecke; c) Aufnehmen eines aktuellen Bildes der Umgebung des Roboters durch die Kamera (8); d) Berechnen einer Mehrzahl von Vorschaubildern anhand des Referenzbildes, anhand der Fahrstrecke sowie jeweils einem angenommenen Objektabstand; e) Vergleichen des aktuellen Bildes mit jedem der Vorschaubilder und ermitteln jeweils einer Fehlermatrix mit Fehlerwerten; f) Identifizieren von Bereichen der Fehlermatrix, in denen Werte der Fehlermatrix ein lokales Minimum aufweisen, als ein Hindernis (10.1, 10.2).The invention relates to a self-propelled robot, in particular a self-propelled soil cultivation device, which has a camera for recording images of an environment of the robot and a control device for evaluating the images of the camera. The invention further relates to a method for obstacle detection in such a self-propelled robot comprising the following steps: a) taking a reference image of the surroundings of the robot through the camera (8); b) moving the robot around a driving distance; c) taking a current image of the environment of the robot through the camera (8); d) calculating a plurality of preview images on the basis of the reference image, on the basis of the route as well as in each case on an assumed object distance; e) comparing the current image with each of the preview images and each determining an error matrix with error values; f) identifying regions of the error matrix in which values of the error matrix have a local minimum as an obstacle (10.1, 10.2).
Description
Die Erfindung betrifft einen selbstfahrenden Roboter, insbesondere ein selbstfahrendes Bodenbearbeitungsgerät, der bzw. das eine Kamera zur Aufnahme von Bildern einer Umgebung des Roboters und eine Steuereinrichtung zur Auswertung der Bilder der Kamera aufweist. Die Erfindung betrifft weiterhin ein Verfahren zur Hinderniserkennung bei einem derartigen selbstfahrenden Roboter.The invention relates to a self-propelled robot, in particular a self-propelled soil cultivation device, which has a camera for recording images of an environment of the robot and a control device for evaluating the images of the camera. The invention further relates to a method for obstacle detection in such a self-propelled robot.
Selbstfahrende Roboter dienen der automatisierten Verrichtung von nicht ortsgebundenen Tätigkeiten. In Form von selbstfahrenden Bodenbearbeitungsgeräten dienen solche Roboter der automatisierten Bearbeitung, beispielsweise Reinigung, von Flächen, ohne dass sie von einem Benutzer geschoben oder geführt werden müssen. Zu solchen selbstfahrenden Bodenbearbeitungsgeräten zählen für den Innenbereich beispielsweise selbstfahrende Staubsauger, auch Saugroboter genannt. Weiterhin werden für den Innenbereich selbstfahrende Reinigungsgeräte zum Wischen von Bodenbelägen eingesetzt. Für den Außenbereich sind als selbstfahrende Bodenbearbeitungsgeräte Mähroboter zum Rasen mähen bekannt und, für eine landwirtschaftliche Nutzung, selbstständig arbeitende Landwirtschaftsmaschinen, beispielsweise zum Pflügen, Säen oder Ernten von Feldern.Self-propelled robots are used for the automated performance of non-stationary activities. In the form of self-propelled tillage machines such robots are used for automated processing, such as cleaning, of surfaces without having to be pushed or guided by a user. Self-propelled vacuum cleaners, also referred to as vacuum robots, are used for such self-propelled soil cultivation devices for indoor use. Furthermore, for the interior self-propelled cleaning equipment used for wiping of floor coverings. For outdoor use are known as self-propelled tillage mowing robots for lawn mowing and, for agricultural use, independently operating agricultural machinery, for example, for plowing, sowing or harvesting fields.
Zur Erkennung von Hindernissen und zur Vermeidung von Zusammenstößen mit Hindernissen und/oder zur Unterstützung der Navigation weisen selbstfahrende Roboter häufig Abstandssensoren auf, die einen Abstand zu einem Gegenstand bestimmen, der sich in der Umgebung des Roboters befindet. Derartige Abstandssensoren bestehen häufig aus einer kombinierten Sende- und Empfangseinheit, oder es werden getrennte Einheiten benutzt. Für die Messung werden Signale erzeugt, die an Gegenständen, beispielsweise den genannten Hindernissen, reflektiert werden. Dabei sind verschiedene Funktionsprinzipien mit unterschiedlichen Signalarten bekannt. Bei Infrarotsensoren trifft ein reflektierter Strahl – abhängig vom Hindernisabstand – auf eine bestimmte Position eines Empfängers, der ortsaufgelöste Messungen zulässt (Position Sensitive Device, PSD). Aus der Messposition kann über Triangulationsmethoden auf den Abstand zum Gegenstand geschlossen werden.To detect obstacles and to avoid collisions with obstacles and / or to support the navigation, self-propelled robots often have distance sensors that determine a distance to an object that is located in the vicinity of the robot. Such distance sensors often consist of a combined transmitting and receiving unit, or separate units are used. For the measurement signals are generated, which are reflected on objects, for example, the aforementioned obstacles. Different functional principles with different signal types are known. In infrared sensors, a reflected beam - depending on the obstacle distance - hits a specific position of a receiver that allows spatially resolved measurements (position sensitive device, PSD). The distance to the object can be deduced from the measuring position by triangulation methods.
Neben Triangulationsmethoden werden zur Bestimmung eines Abstands zu einem Gegenstand auch Laufzeitmessungen verwendet. Bei einer optischen Abstandsmessung ist es beispielsweise bekannt, Laserpulse auszusenden, wobei aus der Laufzeit bis zum Eintreffen eines reflektierten Signals die Entfernung zum reflektierenden Gegenstand berechnet wird (Light Detection and Ranging, LIDAR). Alternativ kann auch eine Phasenverschiebung eines reflektierten Laserstrahls für die Messung des Abstands herangezogen werden. Neben optischen sind auch akustische Laufzeitmessungen bekannt, bei denen bevorzugt Ultraschallsensoren verwendet werden. In addition to triangulation methods, transit time measurements are also used to determine a distance to an object. In the case of an optical distance measurement, it is known, for example, to emit laser pulses, the distance to the reflecting object being calculated from the transit time until the arrival of a reflected signal (Light Detection and Ranging, LIDAR). Alternatively, a phase shift of a reflected laser beam can be used for the measurement of the distance. In addition to optical and acoustic runtime measurements are known in which preferably ultrasonic sensors are used.
Häufig weisen selbstfahrende Roboter eine Kamera zur Aufnahme von Bildern einer Umgebung des Roboters auf. Beispielsweise ist aus der Druckschrift
Bei Verwendung einer Kamera zur Aufnahme von Umgebungsbildern, die zur Positionsbestimmung und zu Navigationszwecken ausgewertet werden, ist es darüber hinaus bekannt, die Kamerabilder zusätzlich im Hinblick auf ein Erkennen möglicher Hindernisse auszuwerten. Aus dem Dokument
Es ist daher eine Aufgabe der vorliegenden Erfindung, ein Verfahren zur Hinderniserkennung bei einem selbstfahrenden Roboter, der eine Kamera zur Aufnahme von Bildern einer Umgebung aufweist, zu schaffen, mit dem Hindernisse in den Umgebungsbildern auf schnelle und möglichst wenig rechenintensive Art und Weise erfasst werden können. Es ist eine weitere Aufgabe, einen selbstfahrenden Roboter zur Durchführung eines derartigen Verfahrens bereitzustellen.It is therefore an object of the present invention to provide a method for obstacle detection in a self-propelled robot having a camera for taking pictures of an environment, can be detected with the obstacles in the surrounding images in a fast and less compute-intensive manner , It is another object to provide a self-propelled robot for performing such a method.
Diese Aufgabe wird durch ein Verfahren bzw. einen selbstfahrenden Roboter mit den Merkmalen des jeweiligen unabhängigen Anspruchs gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen des Verfahrens bzw. des selbstfahrenden Roboters sind in den jeweiligen abhängigen Ansprüchen angegeben.This object is achieved by a method or a self-propelled robot having the features of the respective independent claim. Advantageous embodiments and further developments of Method or the self-propelled robot are specified in the respective dependent claims.
Ein erfindungsgemäßes Verfahren zur Hinderniserkennung bei einem selbstfahrenden Roboter, der eine Kamera zur Aufnahme von Bildern einer Umgebung des Roboters und eine Steuereinrichtung zur Auswertung der Bilder der Kamera aufweist, weist die folgenden Schritte auf: Es wird ein Referenzbild der Umgebung des Roboters durch die Kamera aufgenommen und der Roboter um eine Fahrstrecke bewegt. Danach wird ein aktuelles Bild der Umgebung des Roboters durch die Kamera aufgenommen. Es wird eine Mehrzahl von Vorschaubildern anhand des Referenzbildes, anhand der Fahrstrecke sowie jeweils eines angenommenen Objektabstands berechnet. Das aktuelle Bild wird mit jedem der Vorschaubilder verglichen und als Ergebnis des Vergleichs wird jeweils eine Fehlermatrix mit Fehlerwerten berechnet. Anschließend werden Bereiche der Fehlermatrizen, in denen Werte der Fehlermatrizen ein Minimum aufweisen, als ein Hindernis identifiziert. A method according to the invention for detecting obstacles in a self-propelled robot, which has a camera for capturing images of an environment of the robot and a control device for evaluating the images of the camera, comprises the following steps: A reference image of the environment of the robot is taken by the camera and the robot moves around a driving distance. Thereafter, a current image of the environment of the robot is taken by the camera. A multiplicity of preview images is calculated on the basis of the reference image, on the basis of the route as well as in each case on an assumed object distance. The current image is compared with each of the preview images and, as a result of the comparison, an error matrix with error values is calculated in each case. Subsequently, regions of the error matrices in which values of the error matrices are minimum are identified as an obstacle.
Bei der Berechnung der Vorschaubilder aus dem Referenzbild wird die seit Aufnahme des Referenzbildes zurückgelegte Fahrstrecke berücksichtigt. Nach dem Zurücklegen der Fahrstrecke kann der Roboter eine andere Position und/oder Ausrichtung haben. Beides fließt in die Berechnung der Vorschaubilder ein. When calculating the preview images from the reference image, the distance traveled since the reference image was taken is taken into account. After covering the route, the robot may have a different position and / or orientation. Both contribute to the calculation of the preview images.
Die Objektabstände gelten jeweils für ein gesamtes Vorschaubild, sind jedoch für die verschiedenen Vorschaubilder unterschiedlich. Es wird so eine Abfolge an Vorschaubildern generiert, bei denen jeweils unterschiedliche Objektabstände angenommen sind. Befindet sich in dem angenommenen Objektabstand tatsächlich ein Objekt, z.B. ein Hindernis, wird sich das Vorschaubild nicht oder nur wenig vom später aufgenommenen, aktuellen Bild unterscheiden. Entsprechend wird sich ein kleiner Fehlerwert für einen bestimmten Bildbereich in derjenigen Fehlermatrix einstellen, bei der der angenommene Objektabstand am bestem dem tatsächlichen Objektabstand eines in diesem Bildbereich abgebildeten Objekts entspricht. Umgekehrt kann aus einem Minimum der Fehlerwerte in einem bestimmten Bildbereich in einer der Fehlermatrizen darauf geschlossen werden, dass in dem angenommenen Objektabstand sich in diesem Bildbereich ein Objekt befindet, das dann als Hindernis identifiziert werden kann. The object distances apply to an entire preview image, but are different for the different preview images. A sequence of preview images is thus generated in which different object distances are assumed in each case. If, in the assumed object distance, there is actually an object, e.g. an obstacle, the preview image will not differ or only slightly from the later recorded, current image. Correspondingly, a small error value for a certain image area in the error matrix is set, in which the assumed object distance best corresponds to the actual object distance of an object imaged in this image area. Conversely, from a minimum of the error values in a certain image area in one of the error matrices, it can be concluded that in the assumed object distance there is an object in this image area which can then be identified as an obstacle.
Im Rahmen der Anmeldung ist als Minimum der Fehlerwerte einer der Fehlermatrizen zu verstehen, dass der Fehlerwert in diesem Bildbereich bei dieser Fehlermatrix kleiner ist als bei den anderen Fehlermatrizen, die anhand eines Vorschaubilds mit einem anderen angenommenen Objektabstand bestimmt wurden. Sortiert nach dem angenommenen Objektabstand bilden die Fehlermatrizen einen Matrizenstapel, der Fehlerwerte dreidimensional repräsentiert. Es wird innerhalb des Stapels für einen Bildbereich das Minimum somit entlang der Objektabstandsachse gesucht.In the context of the application, as a minimum of the error values of one of the error matrices, it is to be understood that the error value in this image area is smaller for this error matrix than for the other error matrices determined on the basis of a preview image with another assumed object distance. Sorted according to the assumed object distance, the error matrices form a matrix stack which represents error values three-dimensionally. Within the stack for an image area, the minimum is thus searched along the object distance axis.
Ein Hindernis wird so erkannt, ohne dass eine Merkmalsauswertung (z.B. eine Kanten- oder Eckenidentifizierung) am aktuellen Bild durchgeführt werden muss. Das Verfahren kann dadurch effizient implementiert werden und liefert durch seine holistische, nicht merkmalsbasierte Auswertung auch bei einer geringen Auflösung der zugrundeliegenden Umgebungsbilder gute Ergebnisse.An obstacle is thus detected without having to perform feature evaluation (e.g., edge or corner identification) on the current image. The method can thus be implemented efficiently and provides good results through its holistic, non-feature-based evaluation even with a low resolution of the underlying environment images.
In einer Ausgestaltung des Verfahrens wird ein Abstand des Hindernisses gleich dem Objektabstand desjenigen Vorschaubildes angenommen, bei dem die dem Objektabstand zugeordnete Fehlermatrix verglichen mit den Fehlermatrizen bei anderen Objektabständen die kleinsten Fehlerwerte aufweist. In einer alternativen vorteilhaften Ausgestaltung ergibt sich der Abstand des Hindernisses aus dem Minimalwert einer Fehlerkurve, wobei die Fehlerkurve näherungsweise an die Fehlerwerte von zumindest zwei der Fehlermatrizen angepasst ist und genäherte Fehlerwerte abhängig vom Abstand angibt. Bevorzugt ist dabei die Fehlerkurve ein Polynom und besonders bevorzugt eine Parabel. Auf diese Weise tragen die Ergebnisse mehrerer, beispielsweise benachbarter Fehlermatrizen zum Ergebnis der Abstandsbestimmung bei, wodurch deren Genauigkeit steigt.In one embodiment of the method, a distance of the obstacle is assumed to be equal to the object distance of that preview image in which the error matrix associated with the object distance has the smallest error values at other object distances compared to the error matrices. In an alternative advantageous embodiment, the distance of the obstacle results from the minimum value of an error curve, wherein the error curve is approximately adapted to the error values of at least two of the error matrices and indicates approximated error values depending on the distance. In this case, the error curve is preferably a polynomial and particularly preferably a parabola. In this way, the results of several, for example, adjacent error matrices contribute to the result of the distance determination, thereby increasing their accuracy.
In einer weiteren vorteilhaften Ausgestaltung des Verfahrens werden die Schritte des Bewegens des Roboters und des Aufnehmens und Vergleichens der Bilder mehrfach durchgeführt, wobei jeweils eine Wahrscheinlichkeitsverteilung für das Vorliegen eines Hindernisses in der Bewegungsebene des Roboters aus der jeweiligen Fehlermatrix berechnet wird. Anschließend werden die Wahrscheinlichkeitsverteilungen zu einer Gesamtwahrscheinlichkeitsverteilung aufaddiert, anhand derer Hindernisse identifiziert werden. Auf diese Weise werden die Ergebnisse mehrerer Zyklen der Bildvorausberechnung und des Bildvergleichs zusammengeführt, wodurch die Genauigkeit der Hinderniserkennung sukzessive gesteigert wird. Die Gesamtwahrscheinlichkeitsverteilung kann dabei nach dem Aufaddieren normiert werden. Um diesen zusätzlichen Rechenschritt zu sparen, ist es jedoch auch möglich, mit einer Gesamtwahrscheinlichkeitsverteilung zu arbeiten, die rein rechnerisch in Summe einen Wert größer 1 annimmt. Auch eine solche Verteilung wird im Rahmen der Anmeldung als Wahrscheinlichkeitsverteilung bezeichnet.In a further advantageous embodiment of the method, the steps of moving the robot and recording and comparing the images are performed several times, wherein in each case a probability distribution for the presence of an obstacle in the movement plane of the robot is calculated from the respective error matrix. Subsequently, the probability distributions are added up to a total probability distribution, by means of which obstacles are identified. In this way, the results of several cycles of image pre-calculation and image comparison are merged, whereby the accuracy of the obstacle detection is successively increased. The total probability distribution can be normalized after the addition. However, in order to save this additional computation step, it is also possible to work with a total probability distribution which in purely mathematical terms assumes a value greater than 1 in total. Also, such a distribution is referred to in the context of the application as a probability distribution.
In einer bevorzugten Ausgestaltung dieses Verfahrens ist ein Schwellenwert vorgegeben, wobei in den Bereichen der Bewegungsebene, in denen ein Wahrscheinlichkeitswert der Gesamtwahrscheinlichkeitsverteilung den Schwellenwert überschreitet, das Hindernis identifiziert wird.In a preferred embodiment of this method, a threshold value is predetermined, wherein in the areas of the movement plane in which a Probability value of the total probability distribution exceeds the threshold, the obstacle is identified.
Bei einem erfindungsgemäßen selbstfahrenden Roboter der eingangs genannten Art ist dessen Steuereinrichtung dazu eingerichtet, ein derartiges Verfahren durchzuführen. Es ergeben sich die im Zusammenhang mit dem Verfahren genannten Vorteile. Insbesondere bei einem nicht kabelgebundenen Roboter kann das Verfahren vorteilhaft eingesetzt werden, da es mit geringem Rechen- und somit Energieaufwand durchgeführt werden kann. In einer vorteilhaften Ausgestaltung des Roboters weist die Kamera ein weites Blickfeld auf und ist insbesondere eine Panorama-Kamera. Weiter bevorzugt ist der Roboter als selbstfahrendes Bodenbearbeitungsgerät und insbesondere als Saugroboter ausgebildet.In a self-propelled robot according to the invention of the type mentioned above whose control device is adapted to perform such a method. This results in the advantages mentioned in connection with the method. In particular, in a non-wired robot, the method can be advantageously used, since it can be performed with low computational and thus energy costs. In an advantageous embodiment of the robot, the camera has a wide field of view and is in particular a panoramic camera. More preferably, the robot is designed as a self-propelled soil cultivation device and in particular as a vacuum robot.
Die Erfindung wird nachfolgend anhand von Ausführungsbeispielen mithilfe von Figuren näher erläutert. Die Figuren zeigen:The invention will be explained in more detail by means of embodiments with reference to figures. The figures show:
In der
Weiterhin ist ein Saugbereich
Der Saugroboter
Im Betrieb des Saugroboters
Im Blickfeld der Kamera
Ein erfindungsgemäßes Verfahren zum Erkennen von Hindernissen und zum Bestimmen der Position der Hindernisse wird nachfolgend anhand der
In
Weiter ist in der
Sowohl an der Referenzposition
Bei dem erfindungsgemäßen Verfahren werden ausgehend von den Referenzbildern und den Fahrinformationen verschiedene Vorschaubilder berechnet, wobei jeweils unterschiedliche Objektabstände für die in den Referenzbildern abgebildeten Objekte zugrunde gelegt werden. Bei jedem der Vorschaubilder wird ein einheitlicher, für das gesamte Bild geltender Objektabstand angenommen. Ausgehend von dieser Information kann für jeden Bildpunkt ein Verschiebungsvektor berechnet werden, welcher zur Berechnung des jeweiligen Vorschaubildes genutzt wird. Es wird dann eine Mehrzahl von Vorschaubildern für verschiedene Objektabstände berechnet, beispielsweise Objektabstände von 0,3m (Metern), 0,6m, 1m, 2m, 5m und unendlich. Die Anzahl der berechneten Vorschaubilder und die gewählten Objektabstände können je nach Auflösung der zugrunde liegenden Bilder, der gewünschter Genauigkeit und der zur Berechnung zur Verfügung stehenden Rechenleistung ausgewählt werden.In the method according to the invention, different preview images are calculated on the basis of the reference images and the driving information, with different object distances being used as the basis for the objects imaged in the reference images. Each of the thumbnails will assume a consistent object distance for the entire image. Based on this information, a displacement vector can be calculated for each pixel, which is used to calculate the respective preview image. It then calculates a plurality of thumbnails for different object distances, for example object distances of 0.3m (meters), 0.6m, 1m, 2m, 5m and infinity. The number of calculated preview images and the selected object distances can be selected according to the resolution of the underlying images, the desired accuracy, and the computational power available for calculation.
In einem nächsten Schritt werden die Vorschaubilder jeweils mit dem tatsächlichen Bild an der aktuellen Position
In den
Für jedes der berechneten Vorschaubilder werden in einem nächsten Schritt die Fehlermatrizen auf Minima untersucht. Ein Minimum, das in den
Es wird angemerkt, dass bei dem Verfahren bis zu diesem Zeitpunkt nur ein ganzheitlicher (holistischer) Bildvergleich erfolgt ist. Die Fehlermatrizen bilden einen Matrizenstapel, der Fehlerwerte dreidimensional repräsentiert. Mögliche Hindernisobjekte können aus den Minima des Fehlermatrixstapels erkannt werden, ohne dass eine rechenaufwendige Merkmalsanalyse (zur Identifizierung von Kanten, Ecken, usw.) der Umgebungsbilder selbst durchgeführt wird.It is noted that in the process up to this time only a holistic image comparison has taken place. The error matrices form a matrix stack that represents error values three-dimensionally. Possible obstacle objects can be detected from the minima of the error matrix stack without performing a computationally expensive feature analysis (to identify edges, corners, etc.) of the environment images themselves.
Bei dem schematischen Beispiel, das der
Um aus der Lage des Minimums im Fehlermatrizenstapels auf das Vorliegen eines Hindernisses zu schließen und dessen Position zu bestimmen, wird bei dem anmeldungsgemäßen Verfahren eine Hinderniskarte der Umgebung angelegt. Durch Bildrauschen der Umgebungsbilder, durch Ungenauigkeiten bei der (odometrischen) Bestimmung der Fahrinformation und auch durch eine Varianz bei der Interpolation des Abstands des lokalen Minimums in der Fehlermatrix ist die Position eines möglichen Hindernisses, die sich aus der Lage des Minimums in dem Fehlermatrixstapels ergibt, mit einer abschätzbaren Ungenauigkeit belegt. Das in
Die
In gleicher Weise werden für die zuvor eingenommenen Positionen
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014110201.0A DE102014110201B3 (en) | 2014-07-21 | 2014-07-21 | Self-propelled robot and obstacle detection method for a self-propelled robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014110201.0A DE102014110201B3 (en) | 2014-07-21 | 2014-07-21 | Self-propelled robot and obstacle detection method for a self-propelled robot |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102014110201B3 true DE102014110201B3 (en) | 2015-08-13 |
Family
ID=53677079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102014110201.0A Active DE102014110201B3 (en) | 2014-07-21 | 2014-07-21 | Self-propelled robot and obstacle detection method for a self-propelled robot |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102014110201B3 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106426211A (en) * | 2016-11-11 | 2017-02-22 | 四川省科拓梦无人机科技有限公司 | Control system of sweeping robot |
DE102017113605A1 (en) * | 2017-06-20 | 2018-12-20 | Vorwerk & Co. Interholding Gmbh | Autonomous cleaning system and cleaning process |
CN113655793A (en) * | 2021-08-12 | 2021-11-16 | 上海三一重机股份有限公司 | Obstacle avoidance control method and device based on fusion strategy and engineering machinery |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10326943A1 (en) * | 2002-11-21 | 2004-06-17 | Samsung Electronics Co., Ltd., Suwon | Autonomous vehicle and associated method and device for motion determination, motion control and object detection |
US20070090973A1 (en) * | 2002-12-17 | 2007-04-26 | Evolution Robotics, Inc. | Systems and methods for using multiple hypotheses in a visual simultaneous localization and mapping system |
DE102007016802B3 (en) * | 2007-04-05 | 2008-05-15 | Miele & Cie. Kg | Self-propelled tilling device e.g. robot, navigating method, involves determining driving direction by evaluating determined vectors and by controlling distance to preceding tracks, and forming meander/spiral shaped preset track |
-
2014
- 2014-07-21 DE DE102014110201.0A patent/DE102014110201B3/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10326943A1 (en) * | 2002-11-21 | 2004-06-17 | Samsung Electronics Co., Ltd., Suwon | Autonomous vehicle and associated method and device for motion determination, motion control and object detection |
US20070090973A1 (en) * | 2002-12-17 | 2007-04-26 | Evolution Robotics, Inc. | Systems and methods for using multiple hypotheses in a visual simultaneous localization and mapping system |
DE102007016802B3 (en) * | 2007-04-05 | 2008-05-15 | Miele & Cie. Kg | Self-propelled tilling device e.g. robot, navigating method, involves determining driving direction by evaluating determined vectors and by controlling distance to preceding tracks, and forming meander/spiral shaped preset track |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106426211A (en) * | 2016-11-11 | 2017-02-22 | 四川省科拓梦无人机科技有限公司 | Control system of sweeping robot |
DE102017113605A1 (en) * | 2017-06-20 | 2018-12-20 | Vorwerk & Co. Interholding Gmbh | Autonomous cleaning system and cleaning process |
CN113655793A (en) * | 2021-08-12 | 2021-11-16 | 上海三一重机股份有限公司 | Obstacle avoidance control method and device based on fusion strategy and engineering machinery |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102007016802B3 (en) | Self-propelled tilling device e.g. robot, navigating method, involves determining driving direction by evaluating determined vectors and by controlling distance to preceding tracks, and forming meander/spiral shaped preset track | |
EP2755101B1 (en) | Self-propelled robot and method for distance determination in a self-propelled robot | |
DE102011000009A1 (en) | Method of simultaneous determination and map formation | |
DE102019115874A1 (en) | SYSTEMS AND METHODS FOR IMPROVED DISTANCE ESTIMATION BY A MONOCAMERA USING RADAR AND MOTION DATA | |
EP3408719B1 (en) | Method for creating an environment map for an automatically moveable processing device | |
EP2479584B1 (en) | Method for determining the position of a self-propelled device | |
EP2764812B1 (en) | Cleaning robot | |
DE102019122760A1 (en) | SELF-DRIVING MOBILE ROBOTS USING HUMAN-ROBOT INTERACTIONS | |
DE102015006014A1 (en) | Soil cultivation device and method for its navigation and swarm of tillage equipment and methods for their joint navigation | |
DE102012112036B4 (en) | Self-propelled tillage implement and method for navigating a self-propelled tillage implement | |
DE102013101543A1 (en) | CONTROL PROCEDURE FOR CLEANING ROBOT | |
DE102016121320A1 (en) | Method for operating a self-propelled robot | |
DE102012102915A1 (en) | Method and device for optically determining a position and / or orientation of an object in space | |
DE102017112794A1 (en) | Method for operating a self-propelled soil tillage implement | |
DE102018133441A1 (en) | Method and system for determining landmarks in the surroundings of a vehicle | |
DE102014110201B3 (en) | Self-propelled robot and obstacle detection method for a self-propelled robot | |
EP3559773A1 (en) | Method for the navigation and self-location of an autonomously moving processing device | |
DE102019218192A1 (en) | Method of working crops in a field | |
DE102018113015A1 (en) | Autonomous, mobile work machine | |
DE102020103575B4 (en) | Feature point detection device and method for detecting feature points in image data | |
EP2741161B1 (en) | Autonomous apparatus for processing a surface and method for detecting the position of the autonomous apparatus | |
DE102018132676A1 (en) | Method for locating a vehicle in an environment | |
DE112022002520T5 (en) | Procedure for automatic calibration of cameras and creation of maps | |
DE102022206060A1 (en) | DEFENSE MULTIMODAL FUSION MODELS AGAINST SINGLE-SOURCE ATTACKERS | |
DE112021001445T5 (en) | Detection device, tracking device, detection program and tracking program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R083 | Amendment of/additions to inventor(s) | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G05D0001020000 Ipc: G05D0001430000 |