DE102020104050A1 - Method for controlling an agricultural machine - Google Patents
Method for controlling an agricultural machine Download PDFInfo
- Publication number
- DE102020104050A1 DE102020104050A1 DE102020104050.4A DE102020104050A DE102020104050A1 DE 102020104050 A1 DE102020104050 A1 DE 102020104050A1 DE 102020104050 A DE102020104050 A DE 102020104050A DE 102020104050 A1 DE102020104050 A1 DE 102020104050A1
- Authority
- DE
- Germany
- Prior art keywords
- gripper
- database
- control system
- several
- descriptors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000003287 optical effect Effects 0.000 claims abstract description 11
- 238000012876 topography Methods 0.000 claims description 22
- 239000012773 agricultural material Substances 0.000 claims description 4
- 241000283690 Bos taurus Species 0.000 description 8
- 238000001454 recorded image Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 3
- OTMSDBZUPAUEDD-UHFFFAOYSA-N Ethane Chemical compound CC OTMSDBZUPAUEDD-UHFFFAOYSA-N 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241000282320 Panthera leo Species 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004753 textile Substances 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66C—CRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
- B66C17/00—Overhead travelling cranes comprising one or more substantially horizontal girders the ends of which are directly supported by wheels or rollers running on tracks carried by spaced supports
- B66C17/04—Overhead travelling cranes comprising one or more substantially horizontal girders the ends of which are directly supported by wheels or rollers running on tracks carried by spaced supports with lifting beams, e.g. slewable beams, carrying load-engaging elements, e.g. magnets, hooks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66C—CRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
- B66C1/00—Load-engaging elements or devices attached to lifting or lowering gear of cranes or adapted for connection therewith for transmitting lifting forces to articles or groups of articles
- B66C1/68—Load-engaging elements or devices attached to lifting or lowering gear of cranes or adapted for connection therewith for transmitting lifting forces to articles or groups of articles mounted on, or guided by, jibs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66C—CRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
- B66C13/00—Other constructional features or details
- B66C13/18—Control systems or devices
- B66C13/46—Position indicators for suspended loads or for crane elements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66C—CRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
- B66C13/00—Other constructional features or details
- B66C13/18—Control systems or devices
- B66C13/48—Automatic control of crane drives for producing a single or repeated working cycle; Programme control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66C—CRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
- B66C3/00—Load-engaging elements or devices attached to lifting or lowering gear of cranes or adapted for connection therewith and intended primarily for transmitting lifting forces to loose materials; Grabs
- B66C3/04—Tine grabs
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Image Processing (AREA)
Abstract
Die Erfindung geht aus von einem Verfahren zum Steuern einer landwirtschaftlichen Maschine (2), die einen Greifer (4) zum Greifen von landwirtschaftlichem Gut (6) aufweist, bei dem ein optischer Sensor (22, 24) eine Umgebung des Greifers (4) aufnimmt und ein Steuersystem den Greifer (4) in seiner Position anhand von Daten des Sensors (22, 24) steuert
Um ein sicheres autonomes Arbeiten der Maschine zu ermöglichen, wird vorgeschlagen, dass das Steuersystem anhand von Daten des Sensors (22, 24) einen Gegenstand erkennt, indem es charakteristische Bildmerkmale des Gegenstands mit charakteristischen Bildmerkmalen einer Gegenstandsdatenbank vergleicht.
The invention is based on a method for controlling an agricultural machine (2) which has a gripper (4) for gripping agricultural goods (6), in which an optical sensor (22, 24) picks up the surroundings of the gripper (4) and a control system controls the position of the gripper (4) on the basis of data from the sensor (22, 24)
In order to enable the machine to work safely and autonomously, it is proposed that the control system recognize an object on the basis of data from the sensor (22, 24) by comparing characteristic image features of the object with characteristic image features of an object database.
Description
Die Erfindung betrifft ein Verfahren zum Steuern einer landwirtschaftlichen Maschine, die einen Greifer zum Greifen von landwirtschaftlichem Gut aufweist, bei dem ein optischer Sensor eine Umgebung des Greifers aufnimmt und ein Steuersystem den Greifer in seiner Position anhand von Daten des Sensors steuert.The invention relates to a method for controlling an agricultural machine which has a gripper for gripping agricultural material, in which an optical sensor picks up the surroundings of the gripper and a control system controls the position of the gripper on the basis of data from the sensor.
Die Automatisierung in der Landwirtschaft zielt darauf ab, einzelne Aufgaben der landwirtschaftlichen Prozesskette von Maschinen durchführen zu lassen. Dafür benötigt man Messsysteme zum Überwachen der Umgebung und zur Erkennung und Lokalisierung von Objekten. Üblich sind Laserscanner, die den Abstand zu Objekten in einer Scanebene mittels Time-of-Flight-Verfahren ermitteln. Durch Veränderung der Scannerposition kann damit ebenfalls eine 3D Information erhalten werden.Automation in agriculture aims to allow machines to perform individual tasks in the agricultural process chain. This requires measuring systems to monitor the environment and to detect and localize objects. Laser scanners that determine the distance to objects in a scan plane using a time-of-flight method are common. By changing the scanner position, 3D information can also be obtained.
Es ist eine Aufgabe der vorliegenden Erfindung, ein Verfahren zum Steuern einer landwirtschaftlichen Maschine anzugeben, mit dem die Maschine besonders sicher geführt werden kann.It is an object of the present invention to specify a method for controlling an agricultural machine with which the machine can be guided particularly safely.
Diese Aufgabe wird durch ein Verfahren der eingangs genannten Art gelöst, bei dem das Steuersystem erfindungsgemäß anhand von Daten des Sensors einen Gegenstand erkennt, indem es charakteristische Bildmerkmale des Gegenstands mit charakteristischen Bildmerkmalen einer Gegenstandsdatenbank vergleicht.This object is achieved by a method of the type mentioned at the outset, in which the control system according to the invention recognizes an object on the basis of data from the sensor by comparing characteristic image features of the object with characteristic image features of an object database.
Die Erfindung geht von der Überlegung aus, dass das Abscannen von Objekten mittels Laser einer hohen Genauigkeit bedarf, um ein Objekt mit hoher Wahrscheinlichkeit zu erkennen. Zudem dauert das Abscannen verhältnismäßig lange und kann daher bei schnellen Prozessen zu einem Sicherheitsproblem werden.The invention is based on the consideration that the scanning of objects by means of a laser requires a high degree of accuracy in order to detect an object with a high degree of probability. In addition, the scanning takes a relatively long time and can therefore become a security problem with fast processes.
Durch die Erfindung kann das Steuersystem eine zügige Orientierung im Raum erhalten anhand von bekannten Bildpunkten, die durch die charakteristischen Bildmerkmale wiedererkannt werden. Sind unter den Bildpunkten solche auf fest stationären Gegenständen, wie beispielsweise Gebäudeelementen, kann zudem eine Lageänderung von nichtstationären Gegenständen schnell erkannt werden und der Greifer kann so gesteuert werden, dass er die Gegenstände nicht berührt oder beeinflusst.The invention enables the control system to quickly orientate itself in space on the basis of known image points which are recognized by the characteristic image features. If the pixels are on stationary objects, such as building elements, a change in the position of non-stationary objects can also be recognized quickly and the gripper can be controlled in such a way that it does not touch or influence the objects.
Die charakteristischen Bildmerkmale einer Gegenstandsdatenbank sind zweckmäßigerweise so geordnet, dass sich ein Satz von charakteristischen Bildmerkmalen auf einen Punkt im aufgenommen Raum bezieht und diesen beschreibt. Ein solcher Satz von charakteristischen Bildmerkmalen wird im Folgenden vereinfacht als charakteristische Bildmerkmale beschrieben, sodass anhand von charakteristischen Bildmerkmalen im Bild ein vorbekannter Punkt im Raum im Bild und damit insbesondere auch ein Gegenstand als solcher identifiziert werden kann.The characteristic image features of an object database are expediently arranged in such a way that a set of characteristic image features relates to a point in the recorded space and describes this. Such a set of characteristic image features is described in simplified form below as characteristic image features, so that a previously known point in space in the image and thus in particular an object as such can be identified on the basis of characteristic image features in the image.
Einer Erkennung eines Gegenstands als solchem ist es gleichwertig, wenn nur ein Punkt im Raum, also ein Punkt auf einem Gegenstand, erkannt wird und diesem eine Gegenstandseigenschaft zugeordnet ist. Es reicht zur Gegenstandserkennung also nicht nur aus, einen Bildpunkt wiederzuerkennen und einem Datenbankpunkt zuzuordnen. Es muss vielmehr dem Datenbankpunkt eine Gegenstandseigenschaft zugeordnet sein, sodass der Bildpunkt einer Gegenstandseigenschaft zugeordnet werden kann.It is equivalent to recognizing an object as such if only one point in space, i.e. a point on an object, is recognized and an object property is assigned to it. For object recognition, it is therefore not sufficient just to recognize an image point and assign it to a database point. Rather, an object property must be assigned to the database point so that the image point can be assigned to an object property.
Eine Gegenstandseigenschaft kann eine Bezeichnung des Gegenstands sein, beispielsweise „Heuballen“, „Schubkarre“, „Dachbalken“ o.ä. Die Gegenstandseigenschaft bezeichnet hier den Gegenstand an sich, sodass der Gegenstand als solcher erkannt werden kann. In einem anderen Beispiel wird eine Kante eines Heuballens erkannt und dieser Kante ist die Eigenschaft „Heuballen“ zugeordnet. Das Identifizieren der Kante ist somit ein Erkennen des Heuballens als solcher.An object property can be a designation of the object, for example “hay bales”, “wheelbarrow”, “roof beams” or the like. The object property here refers to the object itself, so that the object can be recognized as such. In another example, an edge of a hay bale is recognized and the property “hay bale” is assigned to this edge. Identifying the edge is thus recognizing the hay bale as such.
Eine Gegenstandseigenschaft kann aber auch eine andere Eigenschaft sein, wie beispielsweise Koordinaten des Punkts oder Gegenstands, auf dem der Punkt liegt. Beispielsweise beziehen sich charakteristische Bildmerkmale auf eine Ecke eines Balkens eines Gebäudes, deren Koordinaten bekannt sind. Auch hierdurch soll der Gegenstand im Sinne der Erfindung als erkannt gelten, da auch Koordinaten den Gegenstand konkret und unzweifelhaft angeben, da nur dieser Gegenstand bei diesen Koordinaten liegt.An object property can also be another property, such as coordinates of the point or object on which the point lies. For example, characteristic image features relate to a corner of a beam of a building, the coordinates of which are known. In this way, too, the object is to be regarded as recognized within the meaning of the invention, since coordinates also specify the object specifically and unequivocally, since only this object lies at these coordinates.
Die Steuerung des Greifers geschieht zweckmäßigerweise mittelbar anhand von Daten des Sensors. Die Sensordaten können zu Zwischenergebnissen verarbeitet werden, bevor diese - ggf. auch nur mittelbar - zur Steuerung des Greifers verwendet werden.The gripper is expediently controlled indirectly using data from the sensor. The sensor data can be processed into intermediate results before these - possibly even indirectly - are used to control the gripper.
In einer vorteilhaften Ausführungsform der Erfindung werden als charakteristische Bildmerkmale Schlüsselpunkte im Bild des Gegenstands ermittelt, sowie zu jedem Schlüsselpunkt zumindest ein mehrdimensionaler Gegenstandsdeskriptor. Schlüsselpunkte werden im Folgenden vereinfacht auch nur als Punkte bezeichnet.In an advantageous embodiment of the invention, key points in the image of the object are determined as characteristic image features, as well as at least one multidimensional object descriptor for each key point. In the following, key points are simply referred to as points.
Die Schlüsselpunkte können automatisiert und damit sehr schnell im Bild der Umgebung ermittelt werden, sodass schon nach sehr kurzer Zeit die Schlüsselpunkte als Vergleichsmerkmale zur Verfügung stehen. Die Gegenstandsdatenbank umfasst wiederum Schlüsselpunkte und/oder die zu jedem Schlüsselpunkt ermittelten mehrdimensionalen Datenbankdeskriptoren, sodass Schlüsselpunkte mit Schlüsselpunkten beziehungsweise Gegenstandsdeskriptoren mit Datenbankdeskriptoren verglichen werden können. Bei Vorliegen eines Vergleichsergebnisses oberhalb eines vorbestimmten Vergleichsgrenzwerts gilt der aufgenommene Gegenstand als klassifiziert und kann somit als eine Gegenstandsklasse identifiziert werden, zu denen die Schlüsselpunkte bzw. mehrdimensionalen Datenbankdeskriptoren zugeordnet sind.The key points can be automated and thus determined very quickly in the image of the environment, so that the key points are available as comparison features after a very short time. The object database in turn comprises key points and / or those for each Key point determined multidimensional database descriptors so that key points can be compared with key points or object descriptors with database descriptors. If there is a comparison result above a predetermined comparison limit value, the recorded object is considered classified and can thus be identified as an object class to which the key points or multi-dimensional database descriptors are assigned.
Um einen Vergleich durchführen zu können, müssen die Schlüsselpunkte beziehungsweise Deskriptoren mit Schlüsselpunkten bzw. Deskriptoren der Gegenstandsdatenbank verglichen werden. Die Gegenstandsdatenbank enthält daher zweckmäßigerweise eine Vielzahl von Beschreibungen von verschiedenen Gegenständen, zweckmäßigerweise eine Klasseneinteilung dieser Beschreibungen in verschiedene Klassen. Jede Beschreibung und/oder Klasse, im Folgenden vereinfacht als Gegenstandsklasse bezeichnet, enthält eine Vielzahl von charakteristischen Bildmerkmalen, die von einem oder mehreren gleichen oder ähnlichen Gegenständen gewonnen sein können, beispielsweise gleichen Gattern, die nebeneinander angeordnet sind, oder mehreren gleichartigen Heuballen. Klassen von Gegenständen, wie Heuballen, und einzelne Gegenstände, wie ein Heuballen, werden im Folgenden nicht streng voneinander unterschieden.In order to be able to carry out a comparison, the key points or descriptors must be compared with key points or descriptors of the object database. The object database therefore expediently contains a large number of descriptions of different objects, expediently a classification of these descriptions into different classes. Each description and / or class, hereinafter referred to simply as an object class, contains a large number of characteristic image features that can be obtained from one or more identical or similar objects, for example identical gates arranged next to one another or several similar hay bales. Classes of objects, such as hay bales, and individual objects, such as a hay bale, are not strictly distinguished from one another in the following.
Die charakteristischen Bildmerkmale sind Schlüsselpunkte und/oder mehrdimensionale Gegenstandsdeskriptoren zu Schlüsselpunkten von Bildern von einem Gegenstand. Zur Unterscheidung der Begriffe werden im Folgenden die in der Datenbank hinterlegten Gegenstandsdeskriptoren als Datenbankdeskriptoren bezeichnet.The characteristic image features are key points and / or multidimensional object descriptors for key points of images of an object. To distinguish the terms, the object descriptors stored in the database are referred to below as database descriptors.
Schlüsselpunkte werden mit einem Merkmalsdetektor aus einem oder mehreren Bildern ermittelt. Ein Merkmalsdetektor ist in der Lage, Punkte in einem Bild zu finden, die das Bild charakterisieren. Ein guter Merkmalsdetektor ist auch bei einer Skalierung, Rotation, bei einer geometrischen Transformation und Beleuchtungsveränderung des aufgenommenen Gegenstands in der Lage, die gleichen Schlüsselpunkte in dem erneut aufgenommenen Bild dieses so veränderten Gegenstands zu finden.Key points are determined from one or more images with a feature detector. A feature detector is able to find points in an image that characterize the image. A good feature detector is also able to find the same key points in the re-recorded image of this changed object in the case of a scaling, rotation, a geometric transformation and a change in the illumination of the recorded object.
Es sind eine Reihe von geeigneten Merkmalsdetektoren bekannt, wie beispielsweise der SIFT-Merkmalsdetektor (Scale-Invariant Feature Transform), der SURF-Merkmalsdetektor (Speeded Up Robust Features), der ORB-Merkmalsdetektor (Oriented Fast and Rotated Brief), sowie weitere Verfahren. Das SIFT-Verfahren und der SIFT-Merkmalsdetektor sind beispielsweise beschrieben in
Vor der Ermittlung der Schlüsselpunkte kann das Referenzbild, aus dem die Schlüsselpunkte gewonnen werden sollen, mit einem Gauß-Filter geglättet werden, um es von Bildrauschen zu bereinigen. Nach dem Ermitteln der Schlüsselpunkte können diese in einem weiteren Verfahrensschritt auf ihre Robustheit untersucht werden, wobei letztendlich zweckmäßigerweise nur solche Schlüsselpunkte ausgewählt werden, die vorgegebenen Stabilitätsansprüchen genügen. Robust sind beispielsweise solche Schlüsselpunkte, die unempfindlich gegen perspektivische Verzerrung und/oder Rotation sind. Dafür geeignet sind beispielsweise Schlüsselpunkte, deren Bildeigenschaften von ihrem Hintergrund abweichen. Eine Rotationsstabilität kann erreicht werden, wenn einem Schlüsselpunkt eine oder mehrere Orientierung/en zugewiesen wird, basierend auf den Orientierungen der umliegenden Bildgradienten. Zukünftige Berechnungen beziehungsweise Vergleiche können nun auf der Grundlage von Bilddaten durchgeführt werden, die relativ zu den zugewiesenen Orientierungen, und insbesondere auch Skalierungen und Positionierungen, transformiert wurden, um Invarianz für eben diese Transformationen zu gewährleisten.Before the key points are determined, the reference image from which the key points are to be obtained can be smoothed with a Gaussian filter in order to remove image noise. After the key points have been determined, they can be examined for their robustness in a further method step, with ultimately only those key points being selected that meet the given stability requirements. Key points that are insensitive to perspective distortion and / or rotation are, for example, robust. Key points, for example, whose image properties differ from their background are suitable for this. Rotational stability can be achieved when a key point is assigned one or more orientations based on the orientations of the surrounding image gradients. Future calculations or comparisons can now be carried out on the basis of image data that have been transformed relative to the assigned orientations, and in particular also scaling and positioning, in order to ensure invariance for precisely these transformations.
Aus den so gefundenen Schlüsselpunkten können nun die Referenzdeskriptoren ermittelt werden. Hierzu werden die den Schlüsselpunkt umgebenden Bildgradienten ermittelt, die in einem mehrdimensionalen Merkmalsvektor zusammengefasst werden können. Auch dieser Merkmalsvektor ist zweckmäßigerweise robust gegen Änderungen in der Beleuchtung, der Verzerrung, der Rotation und dergleichen. Ein Deskriptor enthält neben seinen Bildmerkmalen am Schlüsselpunkt zweckmäßigerweise auch die Koordinaten seines Schlüsselpunkts, sodass der Schlüsselpunkt im Deskriptor enthalten ist.The reference descriptors can now be determined from the key points found in this way. For this purpose, the image gradients surrounding the key point are determined, which can be combined in a multi-dimensional feature vector. This feature vector is also expediently robust against changes in the lighting, the distortion, the rotation and the like. In addition to its image features, a descriptor expediently contains the key point also the coordinates of its key point so that the key point is included in the descriptor.
Ein nachfolgender Vergleich der Deskriptoren, also der Fahrzeugdeskriptoren mit den Datenbankdeskriptoren, erfolgt mit einem geeigneten Algorithmus, beispielsweise dem Random Sample Consensus-Algorithmus (RANSAC) oder dem FLANN-Matcher. Allgemein gesprochen kann zum Vergleich von Deskriptoren die Distanzfunktion verwendet werden, die die Vektordistanz, also den Richtungsunterschied zweier Vektoren, bestimmt. Dies kann jedoch bei Bildern, in denen sich gewisse Objekte wiederholen, zu mehrdeutigen Ergebnissen führen. In der Praxis kann deshalb ein Distanzquotient verwendet werden, wobei der beste Match, also der kleinste Abstand, durch den zweitbesten Match geteilt wird. Sehr ähnlichen Ergebnissen kann nun eine kleinere Wahrscheinlichkeit zugeordnet werden, dass der gefundene Match korrekt ist. Beim SIFT-Verfahren können k-d Trees oder andere Suchbäume verwendet werden. Für den Brief-Merkmalsdetektor aus dem ORB-Verfahren kann die Hamming-Distanz der Bit Strings der Deskriptoren verwendet werden. Um die Suche der nächsten Nachbarn zu optimieren, kann auch Locality Sensitive Haching verwendet werden, sodass ähnliche Bit Strings so gehacht werden, dass sie mit großer Wahrscheinlichkeit in denselben Baskets landen.A subsequent comparison of the descriptors, that is to say the vehicle descriptors with the database descriptors, is carried out using a suitable algorithm, for example the random sample consensus algorithm (RANSAC) or the FLANN matcher. Generally speaking, the distance function can be used to compare descriptors, which determines the vector distance, that is, the difference in direction between two vectors. However, this can lead to ambiguous results for images in which certain objects are repeated. In practice, a distance quotient can therefore be used, with the best match, i.e. the smallest distance, being divided by the second best match. Very similar results can now be assigned a lower probability that the match found is correct. With the SIFT method, k-d trees or other search trees can be used. The Hamming distance of the bit strings of the descriptors can be used for the letter feature detector from the ORB method. In order to optimize the search for the closest neighbors, Locality Sensitive Haching can also be used, so that similar bit strings are hacked in such a way that they are very likely to end up in the same baskets.
Beispielhaft wird im Folgenden der SIFT-Merkmalsdetektor ausführlicher beschrieben. Von dem der Analyse zu unterziehenden Bild werden unterschiedlich stark verschwommene Kopien des Bilds erstellt, indem ein Gauß-Filter mehrfach mit zunehmender Stärke auf das Bild angewendet wird oder der gleichbleibende Gauß-Filter immer wieder auf das letzte gefilterte Bild angewendet wird. In der Verschwimmungsskala nebeneinander liegende Bilder werden nun voneinander subtrahiert, was als Difference of Gaussian (DoG) bezeichnet wird. Die unterschiedlich stark verschwommenen Kopien des Bilds und die DoG-Bilder bilden zusammen eine Oktave. Da der Gauß-Filter kontrastreiche Regionen im Bild stark verändert, führt eine Subtraktion der Bilder dazu, dass solche Stellen, an denen sich die Bilder stark verändert haben, also kontrastreiche Regionen, wie Kanten und Ecken, gefunden werden. Die Schlüsselpunkte können nun, wie in der oben angegebenen Veröffentlichung von Lowe aus dem Jahr 2004 vorgeschlagen, gefunden werden. Hierbei werden Schlüsselpunkte, die in einer Fläche liegen und deren Gradienten insofern klein sind, ausgeschieden. Liegt der Schlüsselpunkt auf einer Kante, so ist der Gradient senkrecht zur Kante groß und der Gradient parallel zur Kante klein. Auch solche Schlüsselpunkte werden entfernt. Ein auf einer Ecke liegender Schlüsselpunkt beinhaltet zwei orthogonale und große Gradienten. Solche Schlüsselpunkte sind besonders robust und sollten beibehalten werden.The SIFT feature detector is described in more detail below by way of example. From the image to be subjected to the analysis, copies of the image that are blurred to different degrees are created by applying a Gaussian filter repeatedly with increasing strength to the image or by repeatedly applying the constant Gaussian filter to the last filtered image. Images lying next to one another in the blurring scale are now subtracted from one another, which is referred to as the Difference of Gaussian (DoG). The differently blurred copies of the image and the DoG images together form an octave. Since the Gaussian filter changes high-contrast regions in the image significantly, subtracting the images leads to the fact that locations where the images have changed significantly, i.e. high-contrast regions such as edges and corners, are found. The key points can now be found as suggested in the 2004 Lowe paper noted above. Here, key points that lie in an area and whose gradients are small, are eliminated. If the key point is on an edge, the gradient perpendicular to the edge is large and the gradient parallel to the edge is small. Such key points are also removed. A key point lying on a corner contains two orthogonal and large gradients. Such key points are particularly robust and should be retained.
Da hierbei nur scharfe Konturen im Ausgangsbild gefunden werden, nicht jedoch ebenfalls signifikante weichere Konturen, wird nun - oder bereits vor der Berechnung der Schlüsselpunkte - eine nächsthöhere Oktave gebildet, indem beispielsweise von dem verschwommensten Bild nur jeder zweite Pixel verwendet wird oder das Ausgangsbild verpixelt wird. In einer nächsthöheren Oktave bzw. Bildoktave weist das der Erstellung der Deskriptoren zugrunde liegende Bild also eine niedrigere Auflösung auf als das Bild der niedrigeren Oktave. Die niedrigere Auflösung kann geschaffen werden, indem z. B. je eine Gruppe von Pixeln, insbesondere 2 Pixel oder n×n Pixel, beispielsweise 2×2 Pixel, zu einem Pixel zusammengefasst werden, z. B. durch Addition, Mittelwertbildung oder Herausnehmen von nur einem Pixel aus der Gruppe. In dieser zweiten Oktave werden nun wiederum die Schlüsselpunkte bestimmt. Die Schlüsselpunkte umfassen neben ihren x- und y-Koordinaten auch einen Skalenfaktor, also die Angabe der Oktave, aus der sie stammen. Auf diese Weise wird dem Bild des Zielobjekts eine Vielzahl von Schlüsselpunkten zugewiesen. Die den Schlüsselpunkten zugeordneten bzw. die Schlüsselpunkte enthaltenden Deskriptoren enthalten also zweckmäßigerweise auch die Angabe der Oktave, also den Skalenfaktor.Since only sharp contours are found in the initial image, but not also significantly softer contours, a next higher octave is formed now - or before the calculation of the key points - by using, for example, only every second pixel of the most blurred image or by pixelating the initial image . In a next higher octave or image octave, the image on which the creation of the descriptors is based therefore has a lower resolution than the image of the lower octave. The lower resolution can be created by e.g. B. in each case a group of pixels, in particular 2 pixels or n × n pixels, for example 2 × 2 pixels, can be combined into one pixel, e.g. B. by addition, averaging or removing just one pixel from the group. The key points are again determined in this second octave. In addition to their x and y coordinates, the key points also include a scale factor, i.e. the specification of the octave from which they originate. In this way, a large number of key points are assigned to the image of the target object. The descriptors assigned to the key points or containing the key points therefore expediently also contain the specification of the octave, that is to say the scale factor.
In der Gegenstandsdatenbank kann, jeweils zugeordnet in die verschiedenen Gegenstandsklassen, vorhanden sein: Gegenstandsbilder, Schlüsselpunkte und/oder die zu den Schlüsselpunkten zugehörigen Deskriptoren. Soll nun ein Gegenstand klassifiziert werden, so werden die Gegenstandsdeskriptoren aus dem aufgenommenen Bild des Gegenstands ermittelt. Diese können mit den Datenbankdeskriptoren verglichen werden, die zweckmäßigerweise mit dergleichen Methode aus früheren Bildern desselben oder des gleichen Gegenstands ermittelt wurden.In the object database, each assigned to the various object classes, there can be present: object images, key points and / or the descriptors associated with the key points. If an object is to be classified, the object descriptors are determined from the recorded image of the object. These can be compared with the database descriptors, which were expediently determined using the same method from previous images of the same or the same object.
Da aus einem Bild eine Vielzahl von Gegenstandsdeskriptoren extrahiert wird, werden diese - einzeln betrachtet - üblicherweise auch in einer Vielzahl von Klassen zu guten Vergleichsergebnissen führen. Hierbei ist jedoch nicht die Ähnlichkeit eines einzigen Gegenstandsdeskriptors mit einem einzigen Datenbankdeskriptor entscheidend, sondern die Ähnlichkeit aller oder vieler Gegenstandsdeskriptoren mit einer Vielzahl von Datenbankdeskriptoren einer Klasse. Das Vergleichsergebnis kann insofern aus der Summe der Ähnlichkeiten der Gegenstandsdeskriptoren mit Datenbankdeskriptoren einer Gegenstandsklasse beschrieben werden. Überschreitet dieses Vergleichsergebnis einen vorbestimmten Grenzwert, ist die Klassifizierung erfolgreich und der Gegenstand wird entsprechend klassifiziert. Enthält die Gegenstandsklasse nur einen einzigen Gegenstand, führt die Klassifizierung zu einer Identifizierung des Gegenstands. Ansonsten beschränkt sich die Identifizierung des Gegenstands auf die Identifizierung eines Gegenstandstyps, beispielsweise eines Heuballens, eines Traktors von mehreren oder einem Stück Vieh aus mehreren. Insofern werden die aus dem Bild des Gegenstands ermittelten Gegenstandsdeskriptoren in einer vorteilhaften Ausführungsform der Erfindung mit Datenbankdeskriptoren mehrerer in der Gegenstandsdatenbank hinterlegten Gegenstandsklassen verglichen. Die passende Gegenstandsklasse wird erkannt und der Gegenstand kann dieser Klasse zugeordnet werden.Since a large number of object descriptors are extracted from an image, these - considered individually - will usually lead to good comparison results in a large number of classes. Here, however, it is not the similarity of a single item descriptor to a single database descriptor that is decisive, but rather the similarity of all or many item descriptors to a large number of database descriptors of a class. In this respect, the comparison result can be described from the sum of the similarities of the object descriptors with database descriptors of an object class. If this comparison result exceeds a predetermined limit value, the classification is successful and the object is classified accordingly. If the item class contains only one item, the classification leads to an identification of the item. Otherwise it is limited the identification of the object on the identification of an object type, for example a hay bale, a tractor from several or a head of cattle from several. To this extent, the object descriptors determined from the image of the object are compared in an advantageous embodiment of the invention with database descriptors of several object classes stored in the object database. The appropriate object class is recognized and the object can be assigned to this class.
Eine Gegenstandsklasse enthält zweckmäßigerweise ausschließlich ortsfeste Gegenstände, auch stationäre Gegenstände genannt, die im üblichen Jahresverlauf ihre Position nicht verändern. Das können Gebäudeelemente sein oder fest am oder im Gebäude verbaute Gegenstände. Werden mehrere solche ortsfesten Gegenstände erkannt, so kann sich das Steuersystem in einer weiteren vorteilhaften Ausgestaltung der Erfindung anhand der erkannten Gegenstände in einem festgelegten Raum orientieren. Beispielsweise kann aus der Lage der ortsfesten Gegenstände im Bild eine Orientierung der Sichtrichtung und/oder die Ortslage der das Bild aufnehmenden Kamera ermittelt werden, also ihre relative Position im Raum zu den Gegenständen. Auch die Ortslage eines im Bild erkennbaren Greifers im Raum kann anhand seiner Bildlage ermittelt werden.An object class expediently contains only stationary objects, also called stationary objects, which do not change their position in the usual course of the year. These can be building elements or objects permanently installed on or in the building. If several such stationary objects are recognized, the control system can, in a further advantageous embodiment of the invention, orientate itself in a defined space on the basis of the recognized objects. For example, an orientation of the viewing direction and / or the location of the camera recording the image can be determined from the position of the stationary objects in the image, that is to say their relative position in space to the objects. The spatial position of a gripper recognizable in the image can also be determined on the basis of its image position.
Vorteilhafterweise ermittelt das Steuersystem eine Position des erkannten Gegenstands im Raum und steuert eine Bewegung des Greifers in Abhängigkeit von der Position. Der Greifer kann beispielsweise um den Gegenstand herumgeführt werden, sodass der Gegenstand vom Greifer nicht berührt wird. Oder der Greifer wird so weit von einem als Tier, beispielsweise eine Kuh, klassifizierten Gegenstand entfernt gehalten, dass die Kuh nicht gestört wird.The control system advantageously determines a position of the recognized object in space and controls a movement of the gripper as a function of the position. The gripper can be guided around the object, for example, so that the object is not touched by the gripper. Or the gripper is held so far away from an object classified as an animal, for example a cow, that the cow is not disturbed.
Besonders vorteilhaft ist die Maschine ein an einer Schiene laufender und autonom arbeitender Kran. Der Kran kann sicher gesteuert werden und insbesondere ein Greifer des Krans kann sicher geführt werden.The machine is particularly advantageous as a crane that runs on a rail and works autonomously. The crane can be safely controlled and, in particular, a gripper of the crane can be safely guided.
Wenn der optische Sensor am Kran befestigt ist, kann er besonders einfach im Raum, beispielsweise einer Scheune, herumgeführt werden. Ist beispielsweise ein wichtiger Bereich des Raums abgeschattet, also für die Kamera momentan nicht sichtbar, so kann der Greifer mit der Kamera so geführt werden, dass die Kamera auch in diesen Bereich hinein Bilder aufnehmen kann, sodass auch dort liegende Gegenstände erkennbar werden.If the optical sensor is attached to the crane, it can be moved around the room, for example a barn, particularly easily. For example, if an important area of the room is shaded, i.e. not currently visible to the camera, the gripper with the camera can be guided so that the camera can also take pictures into this area so that objects lying there can also be recognized.
Außerdem kann der Greifer in unterschiedlichen Abständen zum Gegenstand gehalten werden, beispielsweise während einer regulären Arbeitsbewegung des Greifers. Mehrere aus verschiedenen Abständen aufgenommene Bilder eines Gegenstands können zur Bildung von Bildoktaven oder Merkmalsoktaven verwendet werden, sodass der Gegenstand besonders sicher klassifizierbar beziehungsweise erkennbar wird.In addition, the gripper can be held at different distances from the object, for example during a regular working movement of the gripper. Several images of an object recorded from different distances can be used to form image octaves or feature octaves, so that the object can be classified or recognized particularly reliably.
Insbesondere hierfür ist es vorteilhaft, wenn in der Gegenstandsdatenbank zu einer Gegenstandsklasse zu mehreren Bildoktaven Datenbankdeskriptoren gespeichert sind, die verschiedenen Bildauflösungen von Gegenständen dieser Gegenstandsklasse zugeordnet sind.For this purpose, in particular, it is advantageous if database descriptors are stored in the object database for an object class for several image octaves, which are assigned to different image resolutions of objects of this object class.
Zur Orientierung im Raum ist es hilfreich, wenn die Gegenstandsdatenbank Bildmerkmale von Gegenständen enthält, die zu einem früheren Zeitpunkt am gleichen Ort aufgenommen wurden, zweckmäßigerweise ortsfeste Gegenstände. Der Ort kann ein Raum eines landwirtschaftlichen Gebäudes sein.For orientation in space, it is helpful if the object database contains image features of objects that were recorded at an earlier point in time at the same location, expediently stationary objects. The place can be a room of a farm building.
Einer zuverlässigen Objekterkennung ist es außerdem förderlich, wenn die Gegenstandsdatenbank in mehreren Gegenstandsklassen jeweils mehrere Bilder eines Gegenstands aus verschiedenen Perspektiven enthält.It is also beneficial for reliable object recognition if the object database contains several images of an object from different perspectives in several object classes.
Insbesondere bei stark wechselnden Beleuchtungsverhältnissen, beispielsweise wenn Sonnenstrahlen durch schmale Schlitze zwischen Scheunenbrettern fallen, können Sonnenreflexe in der Kamera zu störenden Gegenstandsdeskriptoren scheinbarer Gegenstandsdetails führen. Um dies zu vermeiden, ist es vorteilhaft, wenn die Gegenstandsdeskriptoren aus mehreren überlagerten Bildern des Gegenstands erzeugt werden. Beispielsweise können Pixel jeweils über mehrere Bilder gemittelt werden. Durch die Überlagerung können Reflexe in ihrem Kontrast soweit reduziert werden, dass sie nicht oder nur unwesentlich zu störenden Gegenstandsdeskriptoren im Bild führen. Zweckmäßigerweise werden auch die Datenbankdeskriptoren aus Bildern ermittelt, die aus mehreren überlagerten Bildern des Gegenstands erzeugt wurden.Particularly in the case of strongly changing lighting conditions, for example when sun rays fall through narrow slits between barn boards, sun reflections in the camera can lead to disruptive object descriptors of apparent object details. To avoid this, it is advantageous if the object descriptors are generated from several superimposed images of the object. For example, pixels can be averaged over several images. The superposition allows the contrast of reflections to be reduced to such an extent that they do not, or only insignificantly, lead to disruptive object descriptors in the image. The database descriptors are also expediently determined from images that were generated from several superimposed images of the object.
Ein sicheres Greifen eines Gegenstands ist in der Regel nur möglich, wenn der Greifer den Gegenstand an der richtigen Stelle - oder in einem sicheren Greifbereich - greift. Ein sicheres Greifen kann erreicht werden, wenn in der Gegenstandsdatenbank zu einer Gegenstandsklasse beziehungsweise zu einem Gegenstand zumindest ein Greifpunkt zum Anordnen des Greifers zugeordnet ist. Gleichwertig ist ein Greifbereich, wobei dieser alle Punkte des Bereichs beinhaltet. Zweckmäßigerweise gibt der Greifpunkt einen vorbestimmten Punkt auf einem der Gegenstandsklasse zugeordneten Gegenstand an.A secure gripping of an object is generally only possible if the gripper grips the object in the right place - or in a safe gripping area. Secure gripping can be achieved if at least one gripping point for arranging the gripper is assigned to an object class or to an object in the object database. A gripping area is equivalent, and this includes all points of the area. The gripping point expediently indicates a predetermined point on an object assigned to the object class.
Der Greifpunkt kann in der Gegenstandsdatenbank in seiner Lage relativ zu der Lage mehrerer Schlüsselpunkte angegeben sein. Aus der Lage mehrerer Schlüsselpunkte kann im Bild des Gegenstands die Lage des Greifpunkts im aufgenommenen Gegenstand ermittelt werden.The gripping point can be specified in the object database in its position relative to the position of several key points. From the situation several key points, the position of the gripping point in the picked-up object can be determined in the image of the object.
Neben dem Greifbereich ist auch die Greifrichtung von Bedeutung, also die Anordnung des Greifers relativ zum Gegenstand beim Greifen. Analog zum Greifpunkt beziehungsweise Greifbereich kann in der Gegenstandsdatenbank zu einer Gegenstandsklasse beziehungsweise zu einem Gegenstand zumindest eine Greifrichtung angegeben sein.In addition to the gripping area, the gripping direction is also important, i.e. the position of the gripper relative to the object when gripping. Analogously to the gripping point or gripping area, at least one gripping direction can be specified in the object database for an object class or for an object.
Je nach Gegenstand können verschiedene Greifer oder Greiferklassen notwendig oder zumindest sinnvoll sein, um den Gegenstand sicher zu greifen. Ein Heuballen wird zweckmäßigerweise mit einem anderen Greifer gegriffen als Hackschnitzel oder ein Futtersack. Es ist daher vorteilhaft, wenn in der Gegenstandsdatenbank zu verschiedenen Gegenständen verschiedene Greiferklassen zugeordnet sind und in Abhängigkeit der den Gegenstandsdeskriptoren zugeordneten Datenbankdeskriptoren eine von mehreren Greiferklassen ausgesucht wird. Die landwirtschaftliche Maschine kann nun - zweckmäßigerweise autonom - den Greifer wechseln und den Gegenstand mit dem geeigneten Greifer sicher greifen.Depending on the object, different grippers or gripper classes may be necessary or at least useful in order to grasp the object securely. A hay bale is expediently gripped with a different gripper than wood chips or a feed sack. It is therefore advantageous if different gripper classes are assigned to different objects in the object database and one of several gripper classes is selected as a function of the database descriptors assigned to the object descriptors. The agricultural machine can now - expediently autonomously - change the gripper and grasp the object securely with the suitable gripper.
Das Verfahren ist vorteilhaft anwendbar, wenn das Steuersystem unter Verwendung der Bildmerkmale einen Heuballen erkennt, beispielsweise einen Rundballen.The method can advantageously be used when the control system recognizes a hay bale, for example a round bale, using the image features.
Die Gegenstanderkennung kann verbessert werden, wenn das Steuersystem zur Erkennung des Gegenstands eine ermittelte Gegenstandstopografie mit heranzieht. Aus der Topografie, die einen nach oben weisenden Anteil der Gegenstandsoberfläche mit beinhaltet, kann auf den Gegenstand an sich geschlossen werden, zumindest jedoch kann sie als zusätzliches Merkmal zur Gegenstanderkennung verwendet werden.The object recognition can be improved if the control system also uses a determined object topography for recognizing the object. From the topography, which also includes an upwardly pointing portion of the object surface, conclusions can be drawn about the object itself, but at least it can be used as an additional feature for object recognition.
Die Geländetopografie kann mittels Laserscanning ermittelt werden. Deutlich schneller ist das Verfahren der Fotogrammetrie unter Verwendung mehrerer Kameras, die den Gegenstand aus mehreren Richtungen aufnehmen.The topography of the terrain can be determined by means of laser scanning. The photogrammetry method using several cameras that record the object from several directions is significantly faster.
Der Zuverlässigkeit der Gegenstandserkennung ist es auch förderlich, wenn das Steuersystem zur Erkennung des Gegenstands eine ermittelte Farbe/Farbkombination des Gegenstands mit heranzieht.The reliability of the object recognition is also beneficial if the control system also uses a determined color / color combination of the object to recognize the object.
Die Erfindung ist außerdem gerichtet auf eine landwirtschaftliche Maschine mit einem Greifer zum Greifen von landwirtschaftlichem Gut, zweckmäßigerweise einem Antriebssystem zum mehrdimensionalen Bewegen des Greifers, einem optischen Sensor und einem Steuersystem, das dazu vorbereitet ist, anhand von Daten des Sensors insbesondere die Position des Greifers relativ zu einem vorbestimmten Punkt zu erkennen und auf jeden Fall den Greifer in seiner Position zu steuern.The invention is also directed to an agricultural machine with a gripper for gripping agricultural material, expediently a drive system for multi-dimensional movement of the gripper, an optical sensor and a control system which is prepared to use data from the sensor to determine, in particular, the position of the gripper relative to recognize to a predetermined point and in any case to control the gripper in its position.
Um ein sicheres Greifen des Gegenstands zu erreichen, wird vorgeschlagen, dass das Steuersystem erfindungsgemäß dazu vorbereitet ist, anhand von Daten des Sensors einen Gegenstand als solchen zu erkennen, indem es charakteristische Bildmerkmale des Gegenstands mit charakteristischen Bildmerkmalen einer Gegenstandsdatenbank vergleicht.In order to achieve a secure gripping of the object, it is proposed that the control system is prepared according to the invention to recognize an object as such on the basis of data from the sensor by comparing characteristic image features of the object with characteristic image features of an object database.
Die bisher gegebene Beschreibung vorteilhafter Ausgestaltungen der Erfindung enthält zahlreiche Merkmale, die in einigen abhängigen Ansprüchen zu mehreren zusammengefasst wiedergegeben sind. Diese Merkmale können jedoch zweckmäßigerweise auch einzeln betrachtet und zu sinnvollen weiteren Kombinationen zusammenfasst werden, insbesondere bei Rückbezügen von Ansprüchen, sodass ein einzelnes Merkmal eines abhängigen Anspruchs mit einem einzelnen, mehreren oder allen Merkmalen eines anderen abhängigen Anspruchs kombinierbar ist. Außerdem sind diese Merkmale jeweils einzeln und in beliebiger geeigneter Kombination sowohl mit dem erfindungsgemäßen Verfahren als auch mit der erfindungsgemäßen Vorrichtung gemäß den unabhängigen Ansprüchen kombinierbar. So sind Verfahrensmerkmale auch als Eigenschaft der entsprechenden Vorrichtungseinheit gegenständlich formuliert zu sehen und funktionale Vorrichtungsmerkmale auch als entsprechende Verfahrensmerkmale.The description of advantageous embodiments of the invention given so far contains numerous features which are summarized in several dependent claims. These features can, however, expediently also be considered individually and combined into meaningful further combinations, in particular when claims are referenced, so that an individual feature of a dependent claim can be combined with an individual, several or all features of another dependent claim. In addition, these features can each be combined individually and in any suitable combination both with the method according to the invention and with the device according to the invention according to the independent claims. Process features are thus also to be seen objectively formulated as a property of the corresponding device unit, and functional device features are also to be seen as corresponding process features.
Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung, sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusammenhang mit der folgenden Beschreibung eines Ausführungsbeispiels, das im Zusammenhang mit der Zeichnung näher erläutert wird. Das Ausführungsbeispiel dient der Erläuterung der Erfindung und beschränkt die Erfindung nicht auf die darin angegebene Kombination von Merkmalen, auch nicht in Bezug auf funktionale Merkmale. Außerdem können dazu geeignete Merkmale des Ausführungsbeispiels auch explizit isoliert betrachtet und mit einem beliebigen der Ansprüche kombiniert werden.The properties, features and advantages of this invention described above, as well as the manner in which they are achieved, will become clearer and more clearly understood in connection with the following description of an exemplary embodiment which is explained in more detail in connection with the drawing. The exemplary embodiment serves to explain the invention and does not limit the invention to the combination of features specified therein, not even with regard to functional features. In addition, features of the exemplary embodiment suitable for this purpose can also be explicitly viewed in isolation and combined with any of the claims.
Es zeigt:
-
1 einen Heukran mit einem Greifer zum Greifen von Heu in einem Kuhstall während des Fütterns von Kühen.
-
1 a hay crane with a grapple for gripping hay in a cowshed while feeding cows.
In
Der Heukran
Der Heukran
Vorteilhafte Arbeitsverfahren der landwirtschaftlichen Maschine
Da in den Bildern Gegenstände abgebildet sind, sind diese Bildmerkmale charakteristische Bildmerkmale von in den Bildern abgebildeten Gegenständen. Diese charakteristischen Bildmerkmale der Gegenstände - beziehungsweise deren Gegenstandsdeskriptoren - werden mit charakteristischen Bildmerkmalen einer Gegenstandsdatenbank verglichen - beziehungsweise mit den Gegenstandsdeskriptoren der Bildmerkmale der Gegenstandsdatenbank.Since objects are depicted in the images, these image features are characteristic image features of objects depicted in the images. These characteristic image features of the objects - or their object descriptors - are compared with characteristic image features of an object database - or with the object descriptors of the image features of the object database.
Um die Daten in der Gegenstandsdatenbank zu erzeugen, wird ein Arbeitsbereich des Heukrans
Gegenständen oder Punkten können insofern Koordinaten zugeordnet werden, beispielsweise relativ zu einem gemeinsamen Bezugspunkt, wie einer Ecke eines Raums oder eines Gebäudes, und/oder andere Gegenstandsmerkmale. Sind Koordinaten zugeordnet, so kann sich der Heukran
Um ein sicheres Erkennen von Punkten/Gegenständen zu gewährleisten, ist es vorteilhaft, wenn die Punkte/Gegenstände aus mehreren Richtungen aufgenommen werden, sodass die Gegenstandsdatenbank jeweils mehrere Bilder eines Punkts/Gegenstands aus verschiedenen Perspektiven enthält. Dies gilt insbesondere für die Bestückung der Datenbank mit Daten, damit ein Gegenstand später stets wiedergefunden wird auch wenn er von unterschiedlichen Richtungen aufgenommen wird.In order to ensure reliable detection of points / objects, it is advantageous if the points / objects are recorded from several directions so that the object database contains several images of a point / object from different perspectives. This applies in particular to the filling of the database with data so that an object can always be found again later, even if it is picked up from different directions.
Die Aufnahme aus verschiedenen Richtungen wird für verschiedene Gegenstände/Punkte durchgeführt. Da die Gegenstände/Punkte zweckmäßigerweise verschiedenen Gegenstandsklassen zugeordnet sind, wie „Heuballen“, „Futtergitterteile“, „Gebäudebalken“ usw., liegen charakteristische Bildmerkmale eines jeden solchen Punkts/Gegenstands in mehreren Gegenstandsklassen aus verschiedenen Perspektiven in der Datenbank vor.The recording from different directions is carried out for different objects / points. Since the objects / points are expediently different object classes are assigned, such as "hay bales", "feed fence parts", "building beams" etc., there are characteristic image features of each such point / object in several object classes from different perspectives in the database.
Gegenstände beziehungsweise Punkte davon können aus verschiedenen Entfernungen recht unterschiedlich aussehen. Hierbei ist zu bemerken, dass ein Punkt zweckmäßigerweise aus mehreren Bildpixeln besteht, die in ihrer Gemeinsamkeit die charakteristischen Bildmerkmale bilden. Je weiter der Sensor
Es sind daher zweckmäßigerweise in der Gegenstandsdatenbank zu einem Punkt/Gegenstand beziehungsweise einer Gegenstandsklasse zu mehreren Bildoktaven Datenbankdeskriptoren gespeichert, die verschiedenen Bildauflösungen von Gegenständen dieser Gegenstandsklasse zugeordnet sind.It is therefore expediently stored in the object database for a point / object or an object class for several image octaves database descriptors which are assigned to different image resolutions of objects of this object class.
Die Daten der Datenbank können in regelmäßigen oder unregelmäßigen Abständen vor oder während einer vom Heukran
Ist ein Arbeitsbefehl vorhanden, der sich auf einen erkannten Gegenstand bezieht, so kann der Arbeitsbefehl ausgeführt werden. Liegt beispielsweise der Arbeitsbefehl vor, einen Greifer
Sind erkannten charakteristischen Bildmerkmalen Koordinaten zugeordnet, so kann sich der Heukran
Zur Steuerung der Bewegung des Greifers
Die Topografie
Im Raum hängt beispielsweise ein Futtersack
Um beispielsweise eine Heuballen
Ebenfalls möglich ist es, mehreren Gegenständen verschiedener Klassen, also Heuballen und Säcken beispielweise, verschiedene Greiferklassen, also Greiferarten zuzuordnen. So können verschiedene Gegenstände mit stets dem jeweils richtigen Greifer
BezugszeichenlisteList of reference symbols
- 22
- Landwirtschaftliche Maschine / HeukranAgricultural machine / hay crane
- 44th
- GreiferGrapple
- 66th
- Landwirtschaftliches Gut / HeuballenAgricultural goods / hay bales
- 88th
- Gebäudebuilding
- 1010
- Katzecat
- 1212th
- Schienerail
- 1414th
- Armpoor
- 1616
- Zentrumcenter
- 1818th
- SteuereinheitControl unit
- 2020th
- RecheneinheitArithmetic unit
- 2222nd
- Optischer SensorOptical sensor
- 2424
- Optischer SensorOptical sensor
- 2626th
- TopografiesensorTopography sensor
- 2828
- GeländetopografieTerrain topography
- 3030th
- Heuhay
- 3232
- Kuhcow
- 3434
- HeuballenHay bales
- 3636
- FuttersackFeed bag
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte Nicht-PatentliteraturNon-patent literature cited
- Lowe, David G.: Object recognition from localscale-invariant features; Computer vision, 1999; The proceedings of the seventh IEEE international conference on Bd. 2 Ieee, 1999, S. 1150-1157 [0017]Lowe, David G .: Object recognition from localscale-invariant features; Computer vision, 1999; The proceedings of the seventh IEEE international conference on Vol. 2 Ieee, 1999, pp. 1150-1157 [0017]
- Lowe, David G.: Distinctive image features from scale-invariant keypoints; International journal of computer vision 60 (2004), Nr. 2, S. 91-110 [0017]Lowe, David G .: Distinctive image features from scale-invariant keypoints; International journal of computer vision 60 (2004), No. 2, pp. 91-110 [0017]
- Bay, Herbert; Tuytelaars, Tinne; Van Gool, Luc: Surf: Speeded up robust features; Computer Vision-ECCV 2006. Springer, 2006, S. 404-417 [0017]Bay, Herbert; Tuytelaars, Tinne; Van Gool, Luc: Surf: Speeded up robust features; Computer Vision-ECCV 2006. Springer, 2006, pp. 404-417 [0017]
- Rublee, Ethan; Rabaud, Vincent; Konolige, Kurt; Bradski, Gary: ORB: an efficient alternative to SIFT or SURF. In: Computer Vision (ICCV), 2011 IEEE International Conference on IEEE, 2011, S. 2564-2571 [0017]Rublee, ethane; Rabaud, Vincent; Konolige, Kurt; Bradski, Gary: ORB: an efficient alternative to SIFT or SURF. In: Computer Vision (ICCV), 2011 IEEE International Conference on IEEE, 2011, pp. 2564-2571 [0017]
Claims (20)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020104050.4A DE102020104050A1 (en) | 2020-02-17 | 2020-02-17 | Method for controlling an agricultural machine |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020104050.4A DE102020104050A1 (en) | 2020-02-17 | 2020-02-17 | Method for controlling an agricultural machine |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020104050A1 true DE102020104050A1 (en) | 2021-08-19 |
Family
ID=77060960
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020104050.4A Pending DE102020104050A1 (en) | 2020-02-17 | 2020-02-17 | Method for controlling an agricultural machine |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102020104050A1 (en) |
-
2020
- 2020-02-17 DE DE102020104050.4A patent/DE102020104050A1/en active Pending
Non-Patent Citations (4)
Title |
---|
Bay, Herbert; Tuytelaars, Tinne; Van Gool, Luc: Surf: Speeded up robust features; Computer Vision-ECCV 2006. Springer, 2006, S. 404-417 |
Lowe, David G.: Distinctive image features from scale-invariant keypoints; International journal of computer vision 60 (2004), Nr. 2, S. 91-110 |
Lowe, David G.: Object recognition from localscale-invariant features; Computer vision, 1999; The proceedings of the seventh IEEE international conference on Bd. 2 Ieee, 1999, S. 1150-1157 |
Rublee, Ethan; Rabaud, Vincent; Konolige, Kurt; Bradski, Gary: ORB: an efficient alternative to SIFT or SURF. In: Computer Vision (ICCV), 2011 IEEE International Conference on IEEE, 2011, S. 2564-2571 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112019000125B4 (en) | SYSTEMS, DEVICES AND METHODS FOR AUTOMATED PACKAGING REGISTRATION | |
DE102013109220B4 (en) | Robotic device and method for removing bulk goods from a warehouse | |
DE112011103794B4 (en) | Pick-up device for workpieces | |
EP2930264A1 (en) | Method for detecting an item of laundry | |
DE102016120775A1 (en) | System and method for detecting lines in an image with a vision system | |
DE102014016072A1 (en) | Apparatus and method for picking up an arbitrarily stacked object by means of a robot | |
DE102015205225A1 (en) | Method and device for detecting a target object in the blind spot of a vehicle | |
DE102018111370B4 (en) | Workpiece holder system | |
DE102018212531A1 (en) | Article transfer device | |
EP3214590A1 (en) | Method for creating a description of an item of luggage and luggage description system | |
DE112018007727B4 (en) | robotic system | |
DE102019124810A1 (en) | Image processing device and image processing method | |
WO2018073163A1 (en) | Yield prediction for a cornfield | |
DE102018006764B4 (en) | PROCEDURE AND SYSTEM (S) FOR THE MANAGEMENT OF CARGO VEHICLES | |
DE102013210771A1 (en) | DETECTION OF A COMPLEX OBJECT USING A CASCADE OF CLASSIFICATION EQUIPMENT | |
DE102020104050A1 (en) | Method for controlling an agricultural machine | |
DE202017007640U1 (en) | Device for detecting the lameness of a cow | |
DE102020213566A1 (en) | Method and computer system for object recognition or object registration based on an image classification | |
DE102020209080A1 (en) | IMAGE PROCESSING SYSTEM | |
WO2008014961A2 (en) | Method for determining the position of objects in three-dimensional space | |
WO2003025843A2 (en) | Model-based object classification and target recognition | |
DE102021114265A1 (en) | Robotic device set up to determine a target object position of a predetermined target object and method | |
DE102018126310B3 (en) | Method for creating an object model for gripping an object, computer-readable storage medium and robotic system | |
DE102009009569B4 (en) | Method for determining a partial surface of a component | |
EP3284010B1 (en) | Method for classifying a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R081 | Change of applicant/patentee |
Owner name: LASCO HEUTECHNIK GMBH, AT Free format text: FORMER OWNER: SCHLATTE, FRANZ, ST. ANDRAE, AT |