DE102022207830A1 - Weed detection with polar masks - Google Patents

Weed detection with polar masks Download PDF

Info

Publication number
DE102022207830A1
DE102022207830A1 DE102022207830.6A DE102022207830A DE102022207830A1 DE 102022207830 A1 DE102022207830 A1 DE 102022207830A1 DE 102022207830 A DE102022207830 A DE 102022207830A DE 102022207830 A1 DE102022207830 A1 DE 102022207830A1
Authority
DE
Germany
Prior art keywords
detector unit
weeds
weed
polar
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022207830.6A
Other languages
German (de)
Inventor
Johanna Link-Dolezal
Kai Liu
Udo Schulz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022207830.6A priority Critical patent/DE102022207830A1/en
Publication of DE102022207830A1 publication Critical patent/DE102022207830A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M21/00Apparatus for the destruction of unwanted vegetation, e.g. weeds

Abstract

Eine Detektoreinheit (14) zur Detektion von Unkraut (4) in Bilddaten (8) aufweist einen Eingang (22) für die Bilddaten (8), einen Ausgang (20), einen Rahmendetektor (24), der dazu eingerichtet ist, in den Bilddaten (8) ein jeweiliges Unkraut (4) zu erkennen und einen jeweiligen Auswahlrahmen (26) bereitzustellen, der das jeweilige Unkraut (4) umrahmt, und einen Polardetektor (28), der dazu eingerichtet ist, in den Bilddaten (8) ein jeweiliges Unkraut (4) zu erkennen und eine jeweilige Polarmaske (30) bereitzustellen, die einer Kontur des jeweiligen Unkrauts (4) folgt.Eine Einrichtung (2) zum Besprühen von Unkraut (4), aufweist eine Kamera (6), die dazu eingerichtet ist Bilddaten (8) von einer potentiell Unkraut (4) umfassenden oder enthaltenden Fläche (10) zu erzeugen, die Detektoreinheit (14) und ein mit der Kamera (6) ortskorreliertes Sprühmodul (16), das dazu eingerichtet ist, das Unkraut (4) auf Basis der von der Detektoreinheit (14) bereitgestellten Größen mit einem Sprühmittel (18) zu besprühen.A detector unit (14) for detecting weeds (4) in image data (8) has an input (22) for the image data (8), an output (20), a frame detector (24) which is set up for this purpose in the image data (8) to recognize a respective weed (4) and to provide a respective selection frame (26) which frames the respective weed (4), and a polar detector (28) which is set up to detect a respective weed in the image data (8). (4) and to provide a respective polar mask (30) which follows a contour of the respective weed (4). A device (2) for spraying weeds (4) has a camera (6) which is set up to provide image data (8) from an area (10) that potentially includes or contains weeds (4), the detector unit (14) and a spray module (16) that is spatially correlated with the camera (6) and is set up to detect the weeds (4). Based on the variables provided by the detector unit (14) with a spray agent (18).

Description

Stand der TechnikState of the art

Aus der DE 10 2017 124 934 A1 ist ein System zur halbautomatischen und/oder automatischen Unkrautentfernung bekannt, mit wenigstens einem System zur automatischen Erkennung von Unkraut, das wenigstens einen optischen Sensor und eine zentrale Servereinheit aufweist, mit wenigstens einem Kommunikationsnetzwerk, mit wenigstens einer Steuerungs- und/oder Regelungseinrichtung und mit wenigstens einer Unkrautentfernungseinrichtung, wobei der optische Sensor, die Servereinheit und die Steuerungs- und/oder Regelungseinrichtung mittels des Kommunikationsnetzwerks in Datenverbindung stehen, wobei mittels des optischen Sensors Bilddaten wenigstens eines Unkrauts erzeugbar und über das Kommunikationsnetzwerk an die Servereinheit übertragbar sind, welche die übertragenen Bilddaten dahingehend auswertet, dass das Unkraut bestimmbar ist, und wobei mittels der Servereinheit im Falle einer eindeutigen Bestimmung des Unkrauts Unkrautbestätigungsdaten über das Kommunikationsnetzwerk an die Steuerungs- und/oder Regelungseinrichtung übertragbar sind, welche in Antwort auf diese Unkrautbestätigungsdaten die Unkrautentfernungseinrichtung steuert und/oder regelt, so dass das durch den optischen Sensor erfasste Unkraut entfernbar ist.From the DE 10 2017 124 934 A1 a system for semi-automatic and/or automatic weed removal is known, with at least one system for the automatic detection of weeds, which has at least one optical sensor and a central server unit, with at least one communication network, with at least one control and/or regulating device and with at least a weed removal device, wherein the optical sensor, the server unit and the control and/or regulation device are in data connection by means of the communication network, wherein image data of at least one weed can be generated by means of the optical sensor and can be transmitted to the server unit via the communication network, which corresponds to the transmitted image data evaluates that the weed can be determined, and wherein by means of the server unit, in the event of a clear determination of the weed, weed confirmation data can be transmitted via the communication network to the control and / or regulation device, which controls and / or regulates the weed removal device in response to this weed confirmation data, so that the weeds detected by the optical sensor can be removed.

Offenbarung der ErfindungDisclosure of the invention

Gegenstand der Erfindung ist eine Detektoreinheit gemäß Patentanspruch 1. Bevorzugte oder vorteilhafte Ausführungsformen der Erfindung sowie anderer Erfindungskategorien ergeben sich aus den weiteren Ansprüchen, der nachfolgenden Beschreibung sowie den beigefügten Figuren.The subject of the invention is a detector unit according to claim 1. Preferred or advantageous embodiments of the invention and other categories of invention result from the further claims, the following description and the attached figures.

Die Detektoreinheit dient bzw. ist eingerichtet zur Detektion von Unkraut in Bilddaten. Die Detektoreinheit weist einen Eingang für die Bilddaten sowie einen Ausgang auf.The detector unit serves or is set up to detect weeds in image data. The detector unit has an input for the image data and an output.

Die Bilddaten sind bestimmungsgemäß eine Abbildung einer Fläche, z.B. eines Feldes aus der Vogelperspektive. Das Feld dient zum Anbau von Nutzpflanzen (auch Kulturpflanzen). Auf dem Feld sind also Nutzpflanzen vorhanden, die - nach deren Austrieb - insbesondere in den Bilddaten abgebildet sind. Potentiell ist auch Unkraut auf dem Feld vorhanden; dieses wird dann ebenfalls in den Bilddaten abgebildet. Innerhalb der Bilddaten, also insbesondere eines einzelnen Bildes, können hierbei ein oder mehrere gleiche oder verschiedene Unkräuter vorhanden sein. Die Erfindung geht also mindestens davon aus, dass in Bilddaten, bzw. einem Einzelbild, potentiell eine oder mehrere Nutzpflanzen und/oder ein oder mehrere Unkräuter abgebildet sind.The image data is intended to be an image of an area, e.g. a field from a bird's eye view. The field is used to grow crops (including cultivated plants). There are crops in the field that - after they have sprouted - are shown in particular in the image data. Weeds are also potentially present in the field; this is then also reflected in the image data. One or more identical or different weeds can be present within the image data, in particular a single image. The invention therefore assumes at least that one or more crops and/or one or more weeds are potentially depicted in image data or a single image.

Die Detektoreinheit aufweist einen Rahmendetektor. Dieser ist dazu eingerichtet, in den Bilddaten ein jeweiliges Unkraut zu erkennen. Jedem der einzelnen erkannten Unkräuter ordnet der Rahmendetektor einen Auswahlrahmen zu und stellt diesen zur weiteren Verwendung (innerhalb der Detektoreinheit oder außerhalb, dann am Ausgang) bereit. Die Bereitstellung am Ausgang erfolgt also optional. Eine Bereitstellung am Ausgang erfolgt also jeweils fallabhängig, wenn die entsprechende Ausgangsgröße außerhalb der Detektoreinheit zur Weiterverarbeitung gewünscht ist. Ansonsten dient die Bereitstellung insbesondere der Weiterverarbeitung innerhalb der Detektoreinheit.The detector unit has a frame detector. This is set up to recognize a respective weed in the image data. The frame detector assigns a selection frame to each of the individual weeds detected and makes this available for further use (within the detector unit or outside, then at the exit). Provision at the output is therefore optional. Provision at the output therefore takes place depending on the case if the corresponding output variable is desired outside the detector unit for further processing. Otherwise, the provision serves in particular for further processing within the detector unit.

Der Auswahlrahmen ist ein solcher, welcher (in den Bilddaten) das Unkraut bzw. dessen Abbild passgenau (im Rahmen der Fähigkeiten des Detektors) umrahmt. Insbesondere sind die Bilddaten / das Bild rechteckig, der Auswahlrahmen folgt dann insbesondere den vier Seiten des Bildes jeweils parallel und stellt daher ebenfalls ein Rechteck dar.The selection frame is one that (in the image data) frames the weed or its image precisely (within the capabilities of the detector). In particular, the image data/image is rectangular, the selection frame then follows the four sides of the image in parallel and therefore also represents a rectangle.

Die Detektoreinheit aufweist einen Polardetektor. Dieser ist dazu eingerichtet, in den Bilddaten das jeweilige Unkraut ebenfalls (wie der Rahmendetektor) zu erkennen und eine jeweilige Polarmaske (wie beim Rahmendetektor) bereitzustellen. Die Polarmaske ist jedoch eine solche, die einer Kontur des Unkrauts, also dessen Umrissform, insbesondere den Umrisslinien der einzelnen Blätter in den Bilddaten / im Bild, folgt. Auch dies gilt im Rahmen der Genauigkeit / Fähigkeit des Detektors. Die Polarmaske ist eine lückenlose Aneinanderreihung von Geraden. Die Ecken der Maske (gemeinsames Ende je zweier Geraden) liegen auf Strahlen, die vollumfänglich von einem Mittelpunkt ausgehen und zwischen sich jeweils gleiche Winkel einschließen (z.B. 10 Strahlen zu je 36°).The detector unit has a polar detector. This is set up to recognize the respective weeds in the image data (like the frame detector) and to provide a respective polar mask (like the frame detector). However, the polar mask is one that follows a contour of the weed, i.e. its outline shape, in particular the outline lines of the individual leaves in the image data/image. Again, this is within the accuracy/capability of the detector. The polar mask is a continuous series of straight lines. The corners of the mask (common end of two straight lines) lie on rays that emanate from a center point and enclose equal angles between them (e.g. 10 rays of 36° each).

Strenggenommen könnte der „Rahmendetektor“ auch als Sonderfall eines „Polardetektors“ verstanden werden, wenn letzterer mit vier Polar-Punkten arbeiten würde. Andersherum stellt also ein besonderer „Polardetektor“ auch einen „Rahmendetektor“ dar. Ein „Auswahlrahmen“ (Bounding Box) kann also ein Sonderfall einer „Polarmaske“ mit 4 Punkten sein. Zur klaren Trennung des „Auswahlrahmens“ von der „Polarmaske“ wurden vorliegend jedoch die unterschiedlichen Begriffe „Rahmendetektor“ und „Polardetektor" gewählt.Strictly speaking, the “frame detector” could also be understood as a special case of a “polar detector” if the latter worked with four polar points. Conversely, a special “polar detector” also represents a “frame detector”. A “selection frame” (bounding box) can therefore be a special case of a “polar mask” with 4 points. However, in order to clearly separate the “selection frame” from the “polar mask”, the different terms “frame detector” and “polar detector” were chosen here.

Die obigen Aussagen (Erstellung von Auswahlrahmen / Polarmaske) gelten jeweils für den Fall, dass in den Bilddaten tatsächlich Unkraut abgebildet ist, welches durch die Detektoren auch tatsächlich erkannt werden kann.The above statements (creation of selection frames / polar masks) apply in the event that weeds are actually depicted in the image data, which can actually be detected by the detectors.

Die beiden Detektoren arbeiten dabei insbesondere bereits hinsichtlich der Detektion des Unkrauts unabhängig voneinander, ohne gegenseitig Erkennungsinformation des anderen zu nutzen. Insbesondere arbeiten daher beide parallel.The two detectors already work in particular with regard to the detection of Weeds independently of each other, without using each other's recognition information. In particular, both work in parallel.

Die „Bereitstellung“ von Auswahlrahmen / Polarmaske meint dabei Bereitstellung von Daten / Werten, die diese Größen repräsentieren, z.B. Koordinaten, Größe usw.The “provision” of selection frames/polar masks means the provision of data/values that represent these variables, e.g. coordinates, size, etc.

Die Erfindung bietet den Vorteil, dass einerseits die in einem Bild bzw. Bilddaten erkannten Unkräuter jeweils durch einen Auswahlrahmen umrahmt bzw. begrenzt sind. Zum anderen wird mithilfe des Polardetektors eine jeweilige Polarmaske generiert, welche der Umrissform und somit den Blattkonturen des Unkrauts folgt. Die Blattkonturen können somit erkannt werden. Mithilfe der Detektoreinheit bzw. der insbesondere am Ausgang bereitgestellten Größen Auswahlrahmen und Polarmaske sind vielfältige Möglichkeiten zur Weiterbearbeitung im Rahmen einer Unkraut Lokalisierung und Bekämpfung gegeben. Insbesondere die Ansteuerung eines flexiblen Sprühmoduls einer Einrichtung zum Besprühen von Unkraut, welches zielgenau und individuell einzelne Unkräuter besprühen kann.The invention offers the advantage that, on the one hand, the weeds identified in an image or image data are each framed or limited by a selection frame. On the other hand, a polar mask is generated using the polar detector, which follows the outline shape and thus the leaf contours of the weed. The leaf contours can thus be recognized. With the help of the detector unit or the size selection frame and polar mask provided in particular at the output, a wide range of options are available for further processing in the context of weed localization and control. In particular, the control of a flexible spray module of a device for spraying weeds, which can spray individual weeds precisely and individually.

Die Detektion von Unkraut erfolgt also dadurch, dass (eine erfolgreiche Erkennung eines tatsächlich vorhandenen bzw. abgebildeten Unkrauts vorausgesetzt) derjenige Bildausschnitt der Bilddaten, in welchen das Unkraut abgebildet ist, durch ein Auswahlrahmen begrenzt ist und zum anderen am Ort des Unkrauts die Polarmaske der Kontur des Unkrauts folgt und somit das Unkraut ebenfalls dort lokalisiert ist.The detection of weeds is therefore carried out in that (assuming successful detection of a weed that is actually present or imaged) that image section of the image data in which the weed is imaged is limited by a selection frame and, on the other hand, the polar mask of the contour at the location of the weed of the weeds follows and therefore the weeds are also located there.

Polarmaske und Auswahlrahmen zeigen damit jedenfalls einen Ort des betreffenden Unkrauts in den Bilddaten, im Bild an. Die Erfindung geht davon aus, dass der Ort des Bildes auf dem Feld durch die Kenntnis der Anbauposition, Ausrichtung und Kenndaten der jeweiligen Kamera und der Kinematik des Sprayers (Sprühmodul / Einrichtung zum Besprühen von Unkraut) bekannt ist und damit auch der Ort des Unkrauts auf dem Feld. So kann anschließend eine ortsgenaue Besprühung des Unkrauts stattfinden.In any case, the polar mask and selection frame show a location of the weed in question in the image data, in the image. The invention assumes that the location of the image in the field is known through knowledge of the cultivation position, orientation and characteristics of the respective camera and the kinematics of the sprayer (spray module/device for spraying weeds) and thus also the location of the weeds the field. This means that the weeds can then be sprayed at a precise location.

Die Erfindung geht davon aus, dass sich die Polarmaske insbesondere innerhalb des Auswahlrahmens befindet oder zumindest eine Schnittmenge zwischen Auswahlrahmen und Polarmaske besteht.The invention assumes that the polar mask is located in particular within the selection frame or at least there is an intersection between the selection frame and the polar mask.

In einer bevorzugten Ausführungsform aufweist die Detektoreinheit einen Klassifikator. Dieser ist dazu eingerichtet, anhand des Auswahlrahmens und der Polarmaske eine erste Klasse für das jeweilige Unkraut, insbesondere am Ausgang, bereitzustellen (siehe oben, ggf. zur internen Verwendung usw., dies gilt auch im Folgenden). Die erste Klasse ist eine solche, welche das Unkraut klassifiziert. Eine entsprechende Klassifikation gibt zum Beispiel an, mit welcher Wahrscheinlichkeit sich im Auswahlrahmen bzw. der Polarmaske tatsächlich ein zu klassifizierendes / zu detektierendes Unkraut befindet, z.B. als Zahlenwert zwischen Null und Eins.In a preferred embodiment, the detector unit has a classifier. This is set up to provide a first class for the respective weed, especially at the exit, based on the selection frame and the polar mask (see above, if necessary for internal use, etc., this also applies below). The first class is one that classifies the weeds. A corresponding classification indicates, for example, the probability that there is actually a weed to be classified/detected in the selection frame or the polar mask, e.g. as a numerical value between zero and one.

In einer bevorzugten Ausführungsform aufweist die Detektoreinheit ein Convolutional Neural Network (Faltungsnetz, CNN). Dieses ist dazu eingerichtet, anhand der durch den Auswahlrahmen und/oder die Polarmaske bestimmten Auswahlbilddaten einen Merkmalsvektor (zumindest einen Teil dessen, siehe unten) für das Unkraut zu erzeugen bzw. auszugeben und, insbesondere am Ausgang, bereitzustellen. Die Auswahlbilddaten sind also derjenige Abschnitt bzw. Teilmenge der Bilddaten, welche innerhalb des Auswahlrahmens und/oder der Polarmaske liegen bzw. durch diese umgrenzt sind, sollten also die Abbildung des Unkrauts darstellen oder enthalten.In a preferred embodiment, the detector unit has a convolutional neural network (CNN). This is set up to generate or output a feature vector (at least part of it, see below) for the weeds based on the selection image data determined by the selection frame and/or the polar mask and, in particular, to provide it at the output. The selection image data is therefore that section or subset of the image data that lies within the selection frame and/or the polar mask or is delimited by them, and should therefore represent or contain the image of the weed.

Die Detektoreinheit aufweist außerdem ein Klassenmodul, insbesondere ein Fully Connected Neural Network (FCNN, alle Schichten sind vollständig verbunden / fully connected layers) und/oder SVM (Support Vector Machine) und/oder ein Random-Forest-Modul. Dadurch, dass hier ein Merkmalsvektor (Feature Map) kreiert wird, ist die Auswahl insofern frei. Dieses ist dazu eingerichtet, anhand des Merkmalsvektors eine das Unkraut klassifizierende zweite Klasse zu erzeugen bzw. auszugeben und, insbesondere am Ausgang der Detektoreinheit, bereitzustellen. Für die zweite Klasse gelten sinngemäß die Erläuterungen oben zur ersten Klasse. Die erste und/oder zweite Klasse aufweist beispielsweise auch die Bezeichnung des detektierten Unkrauts, falls die Detektoreinheit dazu eingerichtet ist, verschiedene Unkräuter zu erkennen und zu unterscheiden. Die zweite Klasse dient zur Erhöhung der Erkennungswahrscheinlichkeit der Detektoreinheit, da sie insbesondere eine Möglichkeit zur Gegenprüfung mit der ersten Klasse liefert.The detector unit also has a class module, in particular a fully connected neural network (FCNN, all layers are fully connected / fully connected layers) and / or SVM (Support Vector Machine) and / or a random forest module. Because a feature vector (feature map) is created here, the choice is free. This is set up to generate or output a second class classifying the weeds based on the feature vector and to provide it, in particular at the output of the detector unit. The explanations above for the first class apply to the second class. The first and/or second class also has, for example, the name of the detected weed if the detector unit is set up to detect and differentiate between different weeds. The second class serves to increase the detection probability of the detector unit, as it particularly provides an opportunity for cross-checking with the first class.

Im Gegensatz zur ersten Klasse erfolgt hier die Klassenbestimmung insbesondere ausschließlich anhand eines Teils der Bilddaten, nämlich der Auswahlbilddaten, ohne explizite Nutzung des Auswahlrahmens bzw. der Polarmaske. Der Auswahlrahmen (Bounding Box) bestimmt also letztlich das Auswahlbild. Insofern kann hier eine unabhängige Überprüfung des Unkrauts bzw. von dessen Klassifikation ermöglicht werden.In contrast to the first class, the class determination here takes place in particular exclusively on the basis of part of the image data, namely the selection image data, without explicit use of the selection frame or the polar mask. The selection frame (bounding box) ultimately determines the selection image. In this respect, an independent review of the weed or its classification can be made possible.

In einer bevorzugten Variante dieser Ausführungsform aufweist der Merkmalsvektor zusätzlich den Auswahlrahmen und/oder die Polarmaske. Der gesamte Merkmalsvektor wird dann aus den Ausgaben des CNN und Auswahlrahmen und/oder die Polarmaske, z.B. indirekt die Bedeckungsrate gebildet. Das Klassenmodul, z.B. FCNN arbeitet somit nicht nur auf Basis der anhand von reinen Bilddaten bestimmten Komponenten im Merkmalsvektor (Ausgabe des CNN), sondern auch auf Basis von Auswahlrahmen / Polarmaske. Dies steigert die Fähigkeiten des Klassenmoduls / FCNN zur Ermittlung der zweiten Klasse.In a preferred variant of this embodiment, the feature vector additionally has the selection frame and/or the polar mask. The entire feature vector is then generated from the outputs of the CNN and selection frames and/or the polar mask, e.g. indirectly the coverage rate det. The class module, e.g. FCNN, works not only on the basis of the components in the feature vector (output of the CNN) determined based on pure image data, but also on the basis of selection frames / polar masks. This increases the capabilities of the class module / FCNN to determine the second class.

In einer bevorzugten Ausführungsform aufweist die Detektoreinheit ein Plausibilitätsmodul. Dieses ist dazu eingerichtet, eine das Unkraut klassifizierende dritte Klasse zu ermitteln und, insbesondere am Ausgang, bereitzustellen. Dies geschieht jedoch nur in dem Fall, dass anhand einer Überprüfung durch das Plausibilitätsmodul die erste und zweite Klasse plausibel zueinander sind. Ansonsten gibt das Plausibilitätsmodul beispielsweise eine Fehlermeldung bzw. eine Meldung aus, dass keine eindeutige Klassifizierung des Unkrauts möglich war und eine Ausgabe einer dritten Klasse erfolgt nicht. „Plausibel“ meint z.B. Übereinstimmung von Unkrauttyp und Wahrscheinlichkeit innerhalb bestimmter Toleranzgrenzen. Insbesondere wird nur die dritte Klasse am Ausgang der Detektoreinheit ausgegeben, ohne jedoch erste und zweite Klasse auszugeben. Denn diese sind dann implizit in der dritten Klasse enthalten bzw. in und zu dieser verarbeitet. Zusätzliche andere Ausgaben / Größen (Auswahlrahmen, Polarmaske, ...) am Ausgang sind möglich. Anhand der dritten Klasse ist eine besonders sichere Klassifizierung des Unkrauts möglich.In a preferred embodiment, the detector unit has a plausibility module. This is designed to determine and provide a third class classifying the weed, especially at the exit. However, this only happens if the first and second classes are plausible to each other based on a check by the plausibility module. Otherwise, the plausibility module outputs, for example, an error message or a message that a clear classification of the weed was not possible and a third class is not output. “Plausible” means, for example, agreement between weed type and probability within certain tolerance limits. In particular, only the third class is output at the output of the detector unit, but without outputting the first and second classes. Because these are then implicitly contained in the third class or processed into and into it. Additional other outputs/sizes (selection frame, polar mask, ...) at the output are possible. A particularly reliable classification of weeds is possible using the third class.

In einer bevorzugten Ausführungsform aufweist die Detektoreinheit ein Mittelpunktsmodul. Dieses ist dazu eingerichtet, einen Mittelpunkt der Polarmaske zu ermitteln und, insbesondere am Ausgang, bereitzustellen. Die Erfindung geht dabei davon aus, dass der Mittelpunkt der Polarmaske der Mittelpunkt der Blattkontur des Unkrauts ist. Die Erfindung geht insofern davon aus, dass zum einen das Unkraut hinsichtlich seiner Kontur vollständig und richtig erkannt wurde und sich eine Sprossachse und in Verlängerung ein Wurzelansatz im entsprechenden Mittelpunkt befindet. Durch Bereitstellung des Ortes des Mittelpunkts ist zum Beispiel ein gezieltes Besprühen von Unkraut an der Stelle des Wurzelansatzes möglich. „Der Mittelpunkt“ sind insbesondere Bildkoordinaten in den Bilddaten bzw. im entsprechenden Bild.In a preferred embodiment, the detector unit has a center point module. This is set up to determine a center point of the polar mask and to provide it, especially at the output. The invention assumes that the center of the polar mask is the center of the leaf contour of the weed. The invention is based on the assumption that, on the one hand, the weed has been completely and correctly recognized in terms of its contour and that a shoot axis and, as an extension, a root base are located in the corresponding center. By providing the location of the center point, it is possible, for example, to specifically spray weeds at the location of the root base. “The center point” are in particular image coordinates in the image data or in the corresponding image.

In einer bevorzugten Ausführungsform aufweist die Detektoreinheit ein Blattflächenmodul. Dieses ist dazu eingerichtet, anhand der Polarmaske eine Blattfläche des Unkrauts als von der Polarmaske umgrenzte Fläche zu ermitteln und, insbesondere am Ausgang, bereitzustellen. Die ermittelte Blattfläche des Unkrauts kann hierbei insbesondere auch als Schnittmenge mit einem virtuellen Sprühkegel ermittelt werde. Ausgegeben bzw. bereitgestellt wird dann diejenige Blattfläche des Unkrauts, welche innerhalb eines Sprühkegel liegen würde bzw. wird. Mit einer derartigen Größe lässt sich zum Beispiel die Menge eines Sprühmittels steuern, welches dem Unkraut zugeführt werden soll.In a preferred embodiment, the detector unit has a leaf surface module. This is set up to use the polar mask to determine a leaf area of the weed as an area delimited by the polar mask and to provide it, especially at the exit. The determined leaf area of the weed can also be determined in particular as an intersection with a virtual spray cone. The leaf area of the weed that would or will lie within a spray cone is then issued or provided. With such a size, for example, the amount of spray that should be applied to the weeds can be controlled.

In einer bevorzugten Ausführungsform aufweist die Detektoreinheit ein Bedeckungsratenmodul. Dieses ist dazu eingerichtet, anhand, insbesondere in Form, des Verhältnisses der Flächen von Auswahlrahmen und Polarmaske eine Bedeckungsrate des Unkrauts zu ermitteln. Auch diese Bedeckungsrate wird, insbesondere am Ausgang, bereitgestellt. Alternativ oder zusätzlich wird sie dem Klassifikator und/oder dem CNN und/oder dem Klassenmodul / FCNN bereitgestellt. Die Bedeckungsrate ist also insbesondere das Verhältnis der Fläche der Polarmaske zur Fläche des Auswahlrahmens und insofern der Blattfläche des Unkrauts zu dessen rechteckiger Umrissfläche in Form des Auswahlrahmens. Eine derartige Größe ist insbesondere für die Klassifikatoren sinnvoll, da sich Unkräuter insbesondere durch ihre durchschnittliche Blattbreite unterscheiden, welche über die Bedeckungsrate gut abgebildet ist.In a preferred embodiment, the detector unit has a coverage rate module. This is set up to determine a coverage rate of the weeds based on, in particular in terms of shape, the ratio of the areas of the selection frame and the polar mask. This coverage rate is also provided, especially at the exit. Alternatively or additionally, it is provided to the classifier and/or the CNN and/or the class module/FCNN. The coverage rate is therefore in particular the ratio of the area of the polar mask to the area of the selection frame and therefore the leaf area of the weed to its rectangular outline area in the form of the selection frame. Such a size is particularly useful for the classifiers, since weeds differ in particular by their average leaf width, which is well represented by the coverage rate.

In einer bevorzugten Ausführungsform aufweist die Detektoreinheit ein Überdeckungsratenmodul. Dieses ist dazu eingerichtet, wenigstens innerhalb der Polarmaske und/oder des Auswahlrahmens eine Nutzpflanze bzw. deren Abbild zu erkennen bzw. deren Flächenanteile im Auswahlrahmen / in der Polarmaske. Sodann wird eine Überdeckungsrate des Unkrauts durch eine Nutzpflanze ermittelt und, insbesondere am Ausgang, bereitgestellt. Hierdurch ist eine Information erhältlich, welche aussagt, wie hoch - in Blickrichtung der Kamera, welche die Bilddaten aufnimmt - der (Flächen-)Anteil des Unkrauts ist, welcher von einer Nutzpflanze über- bzw. verdeckt ist. Diese Information kann insbesondere dazu genutzt werden, Nutzpflanzen nicht oder nicht unnötig mit Sprühmitteln zu besprühen oder eine Besprühung derart einzurichten, dass möglichst die Nutzpflanze umgangen bzw. das Unkraut dennoch erreicht werden kann.In a preferred embodiment, the detector unit has a coverage rate module. This is set up to recognize a crop or its image or its surface area in the selection frame/polar mask at least within the polar mask and/or the selection frame. A coverage rate of the weed by a crop is then determined and provided, especially at the exit. This provides information that states how high - in the viewing direction of the camera that records the image data - the (area) proportion of weeds that is covered or covered by a crop is. This information can be used in particular not to spray crops with sprays or not to spray them unnecessarily, or to set up spraying in such a way that the crop can be avoided or the weeds can still be reached.

Ein weiterer Gegenstand der Erfindung ist eine Einrichtung nach Anspruch 10 zum Besprühen von Unkraut. Die Einrichtung aufweist eine Kamera. Diese ist dazu eingerichtet, die oben genannten Bilddaten von einer zu besprühenden Fläche des Feldes (z.B. Feld aus der Vogelperspektive) zu erzeugen, die potentiell Unkraut aufweist. Die Einrichtung aufweist weiterhin die erfindungsgemäße Detektoreinheit. Die Einrichtung aufweist weiterhin ein Sprühmodul, welches mit der Kamera ortskorreliert ist und welches dazu eingerichtet ist, das Unkraut auf Basis der von der Detektoreinheit bereitgestellten Größen mit einem Sprühmittel zu besprühen. „Ortskorreliert“ bedeutet, dass die Sprüheinrichtung in der Lage ist, einen bestimmten Ort in den Bilddaten auf der Fläche zu lokalisieren und gezielt zu besprühen. Die „Größen“ sind mindestens eine der oben genannten, jeweils von der Detektoreinheit bereitgestellten Größen, also - je nach Bereitstellung am Ausgang - Auswahlrahmen, Polarmaske, erste bis dritte Klasse, Mittelpunkt, ... Mithilfe der Einrichtung ist ein besonders zielgenaues und selektives Besprühen von Unkraut auf der Fläche möglich.Another subject of the invention is a device according to claim 10 for spraying weeds. The device has a camera. This is set up to generate the above-mentioned image data from an area of the field to be sprayed (e.g. field from a bird's eye view) that potentially has weeds. The device also has the detector unit according to the invention. The device also has a spray module, which is spatially correlated with the camera and which is set up to spray the weeds with a spray agent based on the sizes provided by the detector unit. “Spatially correlated” means that the spraying device is able to localize a specific location in the image data on the area and spray specifically. The “sizes” are at least one of the above-mentioned sizes provided by the detector unit, i.e. - depending on what is provided at the output - selection frame, polar mask, first to third class, center point, ... The device enables particularly targeted and selective spraying of weeds on the area possible.

Die Einrichtung und zumindest ein Teil deren möglicher Ausführungsformen sowie die jeweiligen Vorteile wurden sinngemäß bereits im Zusammenhang mit der erfindungsgemäßen Detektoreinheit erläutert.The device and at least some of its possible embodiments as well as the respective advantages have already been explained in connection with the detector unit according to the invention.

Ein weiterer Aspekt der Erfindung ist ein Verfahren nach Anspruch 11 zur Detektion von Unkraut in den oben genannten Bilddaten mit Hilfe der erfindungsgemäßen Detektoreinheit oder Einrichtung. Bei dem Verfahren erkennt (falls Unkraut vorhanden und Detektion erfolgreich möglich) der Rahmendetektor in den Bilddaten ein jeweiliges Unkraut und stellt einen jeweiligen Auswahlrahmen bereit, der das jeweilige Unkraut umrahmt. Der Polardetektor erkennt (siehe oben) in den Bilddaten ein jeweiliges Unkraut und stellt eine jeweilige Polarmaske bereit, die einer Kontur des jeweiligen Unkrauts folgt.A further aspect of the invention is a method according to claim 11 for detecting weeds in the above-mentioned image data using the detector unit or device according to the invention. In the method (if weeds are present and detection is successful) the frame detector recognizes a respective weed in the image data and provides a respective selection frame that frames the respective weed. The polar detector recognizes (see above) a respective weed in the image data and provides a respective polar mask that follows a contour of the respective weed.

Die Erfindung beruht auf folgenden Erkenntnissen, Beobachtungen bzw. Überlegungen und weist noch die nachfolgenden bevorzugten Ausführungsformen auf. Diese Ausführungsformen werden dabei teils vereinfachend auch „die Erfindung“ genannt. Die Ausführungsformen können hierbei auch Teile oder Kombinationen der oben genannten Ausführungsformen enthalten oder diesen entsprechen und/oder gegebenenfalls auch bisher nicht erwähnte Ausführungsformen einschließen.The invention is based on the following findings, observations and considerations and also has the following preferred embodiments. To simplify matters, these embodiments are also called “the invention”. The embodiments can also contain parts or combinations of the above-mentioned embodiments or correspond to them and/or possibly also include previously unmentioned embodiments.

Die Erfindung beruht auf folgenden Beobachtungen aus der Praxis:

  • Als Reihenkultur werden Feldfrüchte bezeichnet, deren Abstände in der Säreihe 40 bis 70 cm betragen. Als Beispiele sind Zuckerrüben und Mais zu nennen. Da bspw. die Einzelkorn - Sämaschinen mittels GNSS (Global Navigation Satellite System) basierter Feldkarten und Lenksysteme arbeiten, ergeben sich in der Regel Abstände der Nutzpflanzen in der Reihe mit nahezu äquidistanten Abständen.
The invention is based on the following observations from practice:
  • Row crops are crops whose distances in the sowing row are 40 to 70 cm. Examples include sugar beet and corn. Since, for example, the single grain seed drills work using GNSS (Global Navigation Satellite System) based field maps and steering systems, the spacing of the crops in the row is usually almost equidistant.

Denkbar ist es, Feldspritzen mit Unkrauterkennung auszurüsten, so dass mittels Kameras und Algorithmen der Bildverarbeitung ein selektives Sprühen mittels Einzeldüsensteuerung oder segmentweiser Steuerung und damit Einsparungen von Pflanzenschutzmitteln und eine Verringerung der Umweltbelastung ermöglicht wird. Um in den gleichen Fahrgassen wie die Sämaschinen zu fahren und die Ausbringung von Pflanzenschutzmitteln u.a. zu dokumentieren sollten diese ebenfalls GNSS basierte Feldkarten und Lenksysteme aufweisen. Denkbar ist es weiterhin, aus verschiedenen mitgeführten Pflanzenschutzmitteln bspw. an den jeweiligen Düsen auszuwählen und zu mischen und/oder mit Wasser zu verdünnen.It is conceivable to equip field sprayers with weed detection so that cameras and image processing algorithms can be used to enable selective spraying using individual nozzle control or segment-by-segment control, thereby saving on pesticides and reducing environmental pollution. In order to drive in the same lanes as the seed drills and to document the application of crop protection products, among other things, they should also have GNSS-based field maps and steering systems. It is also conceivable to select and mix and/or dilute with water from various plant protection products carried, for example at the respective nozzles.

Feldspritzen sind z.B. bekannt aus „Wikipedia: Pflanzenschutzgerät“, Interneteintrag, https:// de. wikipedia. org/ wiki/ Pflanzenschutzgerät, Abruf am 24.05.2022.Field sprayers are known, for example, from “Wikipedia: Plant protection device”, Internet entry, https://de. wikipedia. org/ wiki/ Plant protection device, accessed on May 24, 2022.

Die Erfindung beruht weiterhin aus folgenden Überlegungen zur Mustererkennung:

  • Ein Mustererkennungsprozess lässt sich in mehrere Teilschritte zerlegen, bei denen am Anfang die Erfassung und am Ende eine ermittelte Klasseneinteilung steht. Bei der Erfassung werden Daten oder Signale mittels Sensoren aufgenommen und digitalisiert. Aus den meist analogen Signalen werden Muster gewonnen, die sich mathematisch in Vektoren, sogenannten Merkmalsvektoren, und Matrizen darstellen lassen. Zur Datenreduktion und zur Verbesserung der Qualität findet eine Vorverarbeitung statt. Durch Extraktion von Merkmalen werden die Muster bei Merkmalsgewinnung anschließend in einen Merkmalsraum transformiert. Die Dimension des Merkmalsraums, in dem die Muster nun als Punkte repräsentiert sind, wird bei der Merkmalsreduktion auf die wesentlichen Merkmale beschränkt. Der abschließende Kernschritt ist die Klassifikation durch einen Klassifikator, der die Merkmale verschiedenen Klassen zuordnet. Das Klassifikationsverfahren kann auf einem Lernvorgang mit Hilfe einer Stichprobe / Trainingsdaten basieren. Dazu existieren verschiedene Klassifikationsverfahren, z.B. bekannt aus „Wikipedia: Klassifikationsverfahren“, Interneteintrag, https:// de. wikipedia. org/ wiki/ Klassifikationsverfahren, Abruf am 24.05.2022.
The invention is further based on the following considerations for pattern recognition:
  • A pattern recognition process can be broken down into several sub-steps, at the beginning there is the recording and at the end there is a determined classification. During capture, data or signals are recorded and digitized using sensors. Patterns are obtained from the mostly analog signals, which can be represented mathematically in vectors, so-called feature vectors, and matrices. Pre-processing takes place to reduce data and improve quality. By extracting features, the patterns are then transformed into a feature space during feature extraction. The dimension of the feature space, in which the patterns are now represented as points, is limited to the essential features during feature reduction. The final core step is classification by a classifier, which assigns the features to different classes. The classification process can be based on a learning process using a sample/training data. There are various classification methods for this purpose, for example known from “Wikipedia: Classification Methods”, Internet entry, https://de. wikipedia. org/ wiki/ Classification procedure, accessed on May 24, 2022.

Die Erfindung beruht auf folgenden Überlegungen zum maschinellen Lernen:

  • Maschinelles Lernen ist ein Oberbegriff für die „künstliche“ Generierung von Wissen aus Erfahrung und z.B. bekannt aus „Wikipedia: Maschinelles Lernen“, Interneteintrag, https:// de. wikipedia. org/ wiki/ Maschinelles_ Lernen, Abruf am 24.05.2022: Ein künstliches System lernt aus Beispielen und kann diese nach Beendigung der Lernphase verallgemeinern. Dazu bauen Algorithmen beim maschinellen Lernen ein statistisches Modell auf, das auf Trainingsdaten beruht. Das heißt, es werden nicht einfach die Beispiele auswendig gelernt, sondern Muster und Gesetzmäßigkeiten in den Lerndaten erkannt. So kann das System auch unbekannte Daten beurteilen (Lerntransfer) ... Aus dem weiten Spektrum möglicher Anwendungen seien hier genannt: automatisierte Diagnoseverfahren, ..., Sprach- und Texterkennung sowie autonome Systeme. Allerdings werden, wie bei statistischen Verfahren üblich, nur Korrelationen keine Kausalitäten identifiziert, was auch zu falschen Schlüssen führen kann. Ebenso müssen die Trainingsdaten sehr sorgfältig ausgewählt werden, damit sie ohne Bias sind und das komplette Szenario abdecken.
The invention is based on the following machine learning considerations:
  • Machine learning is a generic term for the “artificial” generation of knowledge from experience and is known, for example, from “Wikipedia: Machine Learning”, Internet entry, https://de. wikipedia. org/ wiki/ Machine learning, accessed on May 24, 2022: An artificial system learns from examples and can generalize them after the learning phase has ended. To do this, machine learning algorithms build a statistical model that is based on training data. This means that the examples are not simply memorized, but patterns and regularities are recognized in the learning data. This means the system can also assess unknown data (learning transfer)... From the white The spectrum of possible applications should be mentioned here: automated diagnostic procedures, ..., speech and text recognition as well as autonomous systems. However, as is usual with statistical methods, only correlations and no causalities are identified, which can also lead to incorrect conclusions. Likewise, the training data must be selected very carefully so that it is without bias and covers the complete scenario.

Die Erfindung beruht auf folgenden Überlegungen zu künstlichen neuronalen Netzen. Diese sind bekannt z.B. aus „Wikipedia: Künstliches neuronales Netz“, Interneteintrag, https:// de. wikipedia. org/ wiki/ Künstliches_ neuronales_ Netz, Abruf am 24.05.2022. Es hat sich gezeigt, dass durch Lernen auch Erkennungen komplexer Muster möglich sind auch ohne, dass vorher eine Regelabstraktion erfolgt.The invention is based on the following considerations regarding artificial neural networks. These are known, for example, from “Wikipedia: Artificial neural network”, Internet entry, https:// de. wikipedia. org/ wiki/ Artificial_ neural_ network, accessed on May 24, 2022. It has been shown that learning makes it possible to recognize complex patterns, even without first abstracting the rules.

Die Erfindung beruht auf folgenden Überlegungen zu Kameras und Objekterkennung:

  • Die Erkennung von Objekten mittels eines Kamerasystems gewinnt in vielen Bereichen zunehmend an Bedeutung. Z.B. ist es bekannt aus „ATZ/MTZ Fachbuch Handbuch Fahrerassistenzsysteme Springer Vieweg 2015“:
    1. S. 387 Abschnitt 21.5.1 Objektdetektion:
      • "Erscheinungsbasierte Verfahren erfassen ... die Charakteristik eines Objekttyps ... auf Basis eines Trainingsdatensatzes. Dieser Datensatz beinhaltet unterschiedliche Ausprägungen eines einzelnen Objekttyps und drückt die unterschiedlichen Ausprägungen eines einzelnen Objektes aus. Offline in der Entwicklungs- und Applikationsphase werden in einem Trainingsschritt aus den Trainingsbildern charakteristische Merkmale erzeugt. Eine Sammlung von solchen Merkmalen wird dann zusammengefasst zu einer Gesamtbeschreibung des Objekttyps. Um einen Merkmalsvektor eindeutig einem Objekttyp zuordnen zu können, muss ... ein Klassifikator trainiert ... werden."
    2. S. 388 Abschnitt 21.5.1 Verifikation:
      • "Aufgabe der Verifikation ist es, die fehlerhaften und ungenauen Objekthypothesen aus dem ersten Schritt (Objektdetektion) zu plausibilisieren und durch zeitliche Integration ... zu verbessern.
The invention is based on the following considerations regarding cameras and object recognition:
  • The detection of objects using a camera system is becoming increasingly important in many areas. For example, it is known from “ATZ/MTZ technical book manual driver assistance systems Springer Vieweg 2015”:
    1. P. 387 Section 21.5.1 Object detection:
      • "Appearance-based methods record ... the characteristics of an object type ... on the basis of a training data set. This data set contains different characteristics of a single object type and expresses the different characteristics of a single object. Offline in the development and application phase, the "Characteristic features are generated from training images. A collection of such features is then combined to form an overall description of the object type. In order to be able to clearly assign a feature vector to an object type, a classifier must be trained."
    2. P. 388 Section 21.5.1 Verification:
      • "The task of verification is to make the incorrect and inaccurate object hypotheses from the first step (object detection) plausible and to improve them through temporal integration.

Für die Erkennung eines gewünschten Objekttyps ... werden für diesen Typ eine Vielzahl an Bild-Beispielen benötigt, die unterschiedlichste Ausprägungen des Objektes bei idealerweise allen vorkommenden Umweltbedingungen darstellen. Damit über das maschinelle Lernen die charakteristischen bildbasierten Eigenschaften des gewünschten Objektes ermittelt werden können, wird ebenso eine Vielzahl an Gegenbeispielen benötigt.In order to recognize a desired object type... a large number of image examples are required for this type, which represent a wide variety of characteristics of the object in ideally all existing environmental conditions. In order for the characteristic image-based properties of the desired object to be determined using machine learning, a large number of counterexamples are also required.

Für die Objekterkennung werden diese das Objekt beschreibende (Merkmals-) Zahlen des Klassifikators über viele verschachtelte und automatisch generierte Gewichte in eine Zahl umgerechnet, die die Wahrscheinlichkeit für das zu klassifizierende Objekt im aktuellen Suchfenster angibt. Beim bisherigen Vorgehen (auch bei trainierten neuronalen Netzen, DNNs) werden alle Objektbeispiele (Labels) eintrainiert. Daraus resultiert dann eine starre Struktur der Vorverarbeitung/Objektdetektion auf Basis von festen Filtermasken und Gewichten."For object recognition, the classifier's (feature) numbers describing the object are converted using many nested and automatically generated weights into a number that indicates the probability of the object to be classified in the current search window. In the previous approach (including with trained neural networks, DNNs), all object examples (labels) are trained. This then results in a rigid structure of preprocessing/object detection based on fixed filter masks and weights."

Die Erfindung beruht auf folgenden Überlegungen zu Berufkräutern (Conyza), siehe z.B. „Wikipedia: Berufkräuter“, Interneteintrag, https:// de. wikipedia. org/ wiki/ Berufkräuter, Abruf am 24.05.2022.The invention is based on the following considerations about professional herbs (Conyza), see e.g. “Wikipedia: Professional herbs”, Internet entry, https://de. wikipedia. org/ wiki/ Berufskräuter, accessed on May 24, 2022.

Die Berufkräuter (Conyza) sind eine Pflanzengattung innerhalb der Familie der Korbblütler (Asteraceae). Deutscher Trivialname ist ebenso wie die nahe verwandte Gattung Erigeron „Berufkräuter“. In systematischer Hinsicht ist Conyza oft auch in die Gattung Erigeron eingegliedert worden; zur Unterscheidung der deutschen Namen wird Conyza auch Katzenschweif genannt; für Erigeron ist auch der Name „Feinstrahl“ verwendbar. Die Gattung Conyza ist mit 25 bis 155 Arten in den gemäßigten und wärmeren Gebieten, vor allem der Neuen Welt, verbreitet.The professional herbs (Conyza) are a genus of plants within the Asteraceae family. Like the closely related genus Erigeron, the German common name is “professional herbs”. From a systematic point of view, Conyza has often been included in the genus Erigeron; To distinguish the German names, Conyza is also called Katzenpfad; The name “fine jet” can also be used for Erigeron. The genus Conyza has 25 to 155 species in temperate and warmer areas, especially the New World.

Es gibt viele Arten der Gattung Conyza, die sich bezüglich ihrer sichtbaren Merkmale als auch bezüglich ihres Auftretens in bestimmten Umgebungen (Klima, Boden, Nutzpflanzkultur, Datum usw.) deutlich unterscheiden.There are many species of the genus Conyza, which differ significantly in their visible characteristics as well as in their appearance in certain environments (climate, soil, crop culture, date, etc.).

Die für den Menschen sichtbaren Merkmale können beispielhaft sein:

  • - Blattform / Umriss, Blattoberflächen / Textur, Farbe, Blattanzahl, Blattrippen, Blattoberseite versus Blattunterseite, Blattspreite, Blattscheide, Blattbehaarung, Blattansatz, Blattstellung (hängend, ...) ...
  • - Stengel- bzw. Halmform, Stengel- bzw. Halmquerschnitt, Knoten, ...
  • - Blüten, Blütenstand, Textur, Farbe, ...
  • - Früchte, Samen, Textur, Farbe, ...
The characteristics visible to humans can be examples:
  • - Leaf shape / outline, leaf surfaces / texture, color, number of leaves, leaf veins, top of leaf versus underside of leaf, leaf blade, leaf sheath, leaf hair, leaf base, leaf position (hanging, ...) ...
  • - Stem or stalk shape, stem or stalk cross section, nodes, ...
  • - flowers, inflorescence, texture, color, ...
  • - Fruits, seeds, texture, color, ...

Darüber hinaus gibt es sichtbare Korrelationen des Auftretens der Art und des Aussehens von Unkräutern mit der Umgebung, d.h. bspw.:

  • - Klima, Wetter, Datum / Jahreszeit
  • - Nutzpflanzkultur (Nutzpflanze und Unkraut treten i.d.R. gemeinsam auf/ gehören zusammen)
  • - Boden, Nährstoffe
In addition, there are visible correlations between the occurrence of the type and appearance of weeds and the environment, for example:
  • - Climate, weather, date/season
  • - Crop culture (crop and weeds usually occur together/belong together)
  • - soil, nutrients

Darüber hinaus gibt es geometrische, strukturelle und morphologische Korrelationen der Merkmale und Muster von Pflanzen selbst, die wir als Menschen kaum oder oft nur unbewusst wahrnehmen.In addition, there are geometric, structural and morphological correlations in the characteristics and patterns of plants themselves that we as humans hardly or often only notice unconsciously.

Die Erfindung beruht auf folgenden Überlegungen zu Polarmasken:

  • Die im Rahmen der Erfindung genannte „Polarmaske“ ist insbesondere eine solche „PolarMask“, wie sie in folgender Veröffentlichung erläutert ist: „PolarMask: Single Shot Instance Segmentation with Polar Representation“, Enze Xie, Peize Sun, Xiaoge Song, Wenhai Wang, Ding Liang, Chunhua Shen, Ping Luo, The University of Hong Kong, Sensetime Group Ltd, Xi'an Jiaotong University, Nanjing University, The University of Adelaide, E-mail: xieenze@hku.hk, Download von „https://arxiv.org/pdf/1909.13226.pdf“ am 24.05.2022.
The invention is based on the following considerations regarding polar masks:
  • The “polar mask” mentioned in the context of the invention is in particular such a “PolarMask” as explained in the following publication: “PolarMask: Single Shot Instance Segmentation with Polar Representation”, Enze Xie, Peize Sun, Xiaoge Song, Wenhai Wang, Ding Liang, Chunhua Shen, Ping Luo, The University of Hong Kong, Sensetime Group Ltd, Xi'an Jiaotong University, Nanjing University, The University of Adelaide, E-mail: xieenze@hku.hk, Download from “https://arxiv .org/pdf/1909.13226.pdf” on May 24, 2022.

Die vorliegende „PolarMask“ ist also eine Single-Shot-Ankerbox-freie Instanzsegmentierungsmethode. Anders als frühere Arbeiten, die die Maskenvorhersage typischerweise als binäre Klassifizierung in einem räumlichen Layout lösen, schlägt PolarMask vor, eine Maske durch ihre Kontur darzustellen und die Kontur durch ein Zentrum zu modellieren und Strahlen, die von der Mitte zur Kontur in Polarkoordinaten emittiert werden (Instanzsegmentierung als Instanzzentrumsklassifikation und dichte Distanzregression in einer Polarkoordinate).So the present “PolarMask” is a single-shot anchor box-free instance segmentation method. Unlike previous works that typically solve mask prediction as a binary classification in a spatial layout, PolarMask proposes to represent a mask by its contour and model the contour by a center and rays emitted from the center to the contour in polar coordinates ( Instance segmentation as instance center classification and dense distance regression in a polar coordinate).

PolarMask ist fast so einfach und strukturiert wie einstufige Objektdetektoren konzipiert, was zu einem vernachlässigbaren Rechenaufwand führt. Eine einstufige Detektionsstrategie bedeutet, dass die zu analysierenden Bilder nur einmal gelesen werden müssen.PolarMask is designed to be almost as simple and structured as single-stage object detectors, resulting in negligible computational overhead. A single-stage detection strategy means that the images to be analyzed only need to be read once.

Das Modell nimmt ein Eingabebild und sagt die Distanz von einer abgetasteten positiven Position voraus (Kandidaten vom Instanzzentrum) an die Instanzkontur in jedem Winkel an und gibt nach dem Zusammenbau die endgültige Maske aus. Die gesamte Pipeline von PolarMask ist fast so einfach und strukturiert wie FCOS (Fully Convolutional One-Stage-Detector). Es führt zu einem vernachlässigbaren Rechenaufwand. Darüber hinaus kann PolarMask als Verallgemeinerung von FCOS angesehen werden. Mit anderen Worten, FCOS, ist ein Sonderfall von PolarMask, da Bounding Boxes (Auswahlrahmen) als einfachste Maske mit nur 4 Richtungen angesehen werden können. Daher wird vorgeschlagen, PolarMask über FCOS zu verwenden. Um die Vorteile der Polardarstellung zu maximieren, werden Polarmitte und Polar IoU (Intersection over Union) Verlust vorgeschlagen, um qualitativ hochwertige Center-Beispiele abzutasten bzw. für die dichte Distanzregression zu optimieren.The model takes an input image and predicts the distance from a sampled positive position (candidate from the instance center) to the instance contour at any angle and outputs the final mask after assembly. PolarMask's entire pipeline is almost as simple and structured as FCOS (Fully Convolutional One-Stage-Detector). It results in negligible computational effort. In addition, PolarMask can be viewed as a generalization of FCOS. In other words, FCOS is a special case of PolarMask because bounding boxes can be viewed as the simplest mask with only 4 directions. Therefore, it is suggested to use PolarMask over FCOS. To maximize the benefits of polar representation, polar center and polar IoU (Intersection over Union) loss are proposed to sample high-quality center samples and optimize for dense distance regression, respectively.

Die Erfindung beruht auf folgender Problemstellung:

  • Die aus einer Vogelperspektive erkennbare Kontur von Pflanzenteilen insbesondere von Blättern und mittels der umgebenden viereckigen Bounding Box (Auswahlrahmen) bestimmbaren Bedeckungsrate ist ein geeignetes Kriterium zur Bestimmung von Pflanzenarten und deren Zuständen (Wachstumsstatus, SOH (State of Health = Gesundheitszustand), ...), die in der Praxis derart nicht bestimmt werden.
The invention is based on the following problem:
  • The contour of plant parts, especially leaves, that can be seen from a bird's eye view and the coverage rate that can be determined using the surrounding square bounding box (selection frame) is a suitable criterion for determining plant species and their states (growth status, SOH (State of Health), ...) , which are not determined in this way in practice.

Zudem werden Verfahren zur Instanzsegmentierung zweistufig ausgeführt, d.h. seriell, was Rechnerressourcen und insbesondere Laufzeit kostet die aber bei einer Online Ausführung wie der Überfahrt eines Sprayers mit Kameras zur Pflanzenerkennung über einen Pflanzenbestand zum selektiven Besprühen von bspw. Unkraut sehr kurz sein muss.In addition, methods for instance segmentation are carried out in two stages, i.e. serially, which costs computer resources and in particular running time, but in an online execution such as the passage of a sprayer with cameras for plant recognition over a plant population for selective spraying of weeds, for example.

Eine Aufgabe der Erfindung ist insbesondere eine verbesserte Detektion von Pflanzen insbesondere Unkräutern, als auch eine Bestimmung weiterer Pflanzenmerkmale und daraus abgeleiteter Pflanzenzustände für angepasste entsprechende Pflanzenschutzmaßnahmen bspw. des Sprayers.An object of the invention is in particular an improved detection of plants, in particular weeds, as well as a determination of further plant characteristics and plant states derived therefrom for adapted corresponding plant protection measures, for example of the sprayer.

Ein Aspekt der Erfindung ist insbesondere:

  • - Erkennung der Blattkonturen, der umgebenden Bounding Box (Auswahlrahmen: Bildposition, Höhe, Breite) und Bedeckungsrate (Verhältnis Konturfläche (Fläche, die von der Polarmaske eingeschlossen ist) zu Bounding Box Fläche) mittels PolarMask (erste Klasse)
  • - Mit dem zugehörigen Unkrautbild werden Merkmals- Vektoren / - Karte (Feature Map) in einem CNN trainiert.
  • - Mit der Feature Map und den Daten aus der PolarMask (Polarmaske) und dem Auswahlrahmen, die ebenfalls in die Feature Map gehen, wird ein Klassifikator (Klassenmodul), z.B. FCNN (Fully Connected Neuronal Network) zur Unkrauterkennung trainiert.
  • - Das erkannte Unkraut (Art und Wahrscheinlichkeit, zweite Klasse), zugehörige Bedeckungsrate und Bounding Box (erste Klasse) werden miteinander plausibilisiert, d.h. ein bestimmtes Unkraut hat normalerweise eine in einem bestimmten Bereich sich befindende Bedeckungsrate und Bounding Box (Vergleiche über applizierbare Wertebereiche, PolarMask steckt implizit in der Bedeckungsrate),
  • - sind die Informationen plausibel zueinander so wird das Unkraut behandelt, ansonsten nicht.
  • - Für das (gleichzeitige) Training von CNN und FCOS wird nicht ein ausgeschnittenes Unkraut mit Kontur und Bounding Box verwendet (erste Klasse), sondern mittels separatem (Offline) Tool gelabelte Bilder einer Nutzpflanzung mit Unkräutern verwendet. Nur für die zur Laufzeit ausgeführte Perception mit den trainierten CNN und FCOS existiert die dargestellte Kopplung.
One aspect of the invention is in particular:
  • - Detection of the leaf contours, the surrounding bounding box (selection frame: image position, height, width) and coverage rate (ratio of contour area (area enclosed by the polar mask) to bounding box area) using PolarMask (first class)
  • - Feature vectors/maps are trained in a CNN using the associated weed image.
  • - With the feature map and the data from the PolarMask and the selection frame, which also go into the feature map, a classifier (class module), e.g. FCNN (Fully Connected Neural Network) is trained for weed detection.
  • - The identified weed (type and probability, second class), associated coverage rate and bounding box (first class) are checked for plausibility with each other, i.e. a specific weed usually has a coverage rate and bounding box (comparisons across applicable value ranges, PolarMask) located in a specific area is implicit in the coverage rate),
  • - If the information is plausible, the weeds will be treated, otherwise not.
  • - For the (simultaneous) training of CNN and FCOS, not a cut out weed with a contour and bounding box is used (first class), but rather labeled images of a crop with weeds using a separate (offline) tool. The coupling shown only exists for the perception executed at runtime with the trained CNN and FCOS.

Der Vorteil liegt in einem Unkrauterkennungsverfahren, was positiv und negativ falsche Unkrauterkennungen weiter reduziert und die Unkrauterkennungswahrscheinlichkeit erhöht.The advantage lies in a weed detection process, which further reduces positive and negative false weed detections and increases the probability of weed detection.

Erfindungsgemäß werden die ermittelten Pflanzendaten aus PolarMask wie Massenzentrum (Pflanzenmitte / Stil, Mittelpunkt) und Blattfläche (aus BoundingBox und Bedeckungsrate) zusätzlich genutzt um eine Sprayausrichtung (Aktivierung bestimmter Spritz- Ventile / Düsen als auch Spraykonditionierung bswp. Tröpfchengrößen) durchzuführen. Die Verdeckung und der Grad der Verdeckung (Überdeckungsrate) von erkannten Unkräutern durch erkannte Nutzpflanzen lässt sich ebenfalls erkennen um davon abhängig das Spray (Besprühen des Unkrauts) auszurichten und zu konditionieren.According to the invention, the determined plant data from PolarMask such as center of mass (plant center/style, center point) and leaf area (from BoundingBox and coverage rate) are additionally used to carry out spray alignment (activation of certain spray valves/nozzles as well as spray conditioning, e.g. droplet sizes). The concealment and the degree of concealment (coverage rate) of recognized weeds by recognized crop plants can also be recognized in order to align and condition the spray (spraying of the weeds) depending on this.

Ein bevorzugter Aspekt der Erfindung ist:

  • PolarMask wird als Instanzsegmentierung für Einzelunkräuter und Bounding Boxes für Einzelunkräuter (im Bild unten rote Rechtecke) als Instanzsegmentierungsmethode verwendet.
A preferred aspect of the invention is:
  • PolarMask is used as the instance segmentation for individual weeds and Bounding Boxes for individual weeds (red rectangles in the image below) as the instance segmentation method.

Die Verfahren und Informationen werden zur erfindungsgemäßen Ableitung weiterer Kenngößen und erfindungsgemäßen Nutzung genutzt. Da bei einer Anwendung der Landwirt weiß, in welche Art von Nutzpflanzung er mit seinem Sprayer fährt, kann der Klassifikator entsprechend trainiert sein, d.h. bzgl. PolarMask wird die Anzahl Punkte / Strahlen der Polarmask dem zu erkennenden Pflanzentyp bzw. den zu erwartenden Blattformen bereits im Training der Modelle / Neuronalen Netze gewählt. Bei Anwendung für verschiedene Nutzpflanzungen, kann die komplexeste Kontur Auswahlbestimmend sein.The methods and information are used to derive further parameters according to the invention and use them according to the invention. Since during an application the farmer knows what type of crop he is driving his sprayer into, the classifier can be trained accordingly, i.e. with regard to PolarMask, the number of points / rays of the Polarmask is already assigned to the type of plant to be recognized or the leaf shapes to be expected Training of models / neural networks selected. When used for different crops, the most complex contour can determine the selection.

Die Erfindung beruht auf folgenden Überlegungen zu Pflanzenmitte / Stil bzw. Halm / Sprossachse / Wurzelansatz:

  • Der Kamerafokus ist beim Sprayer senkrecht von oben auf die Pflanzen gerichtet, d.h. die Sprossachsen der Pflanzen (die Wurzel und Blatt verbindet) ist kaum sichtbar. Der mittels PolarMask bestimmte Ursprungspunkt der Polarkoordinate kann als Mittelpunkt des Objekts angesehen werden (Massenzentrum). Dadurch kann die Lage der Sprossachse und in Verlängerung der Wurzelansatz geschätzt werden. Somit können insbesondere bei Pflanzenschutzmitteln, die über die Blätter wirken oder an die Wurzel gelangen sollen, ein Pflanzen bzw. Blattzentriertes gezieltes Sprühen erfolgen bspw. bei großen Nutzpflanzen
The invention is based on the following considerations regarding the center of the plant/style or stalk/shoot axis/root base:
  • The sprayer's camera focus is directed vertically from above onto the plants, meaning that the shoot axes of the plants (which connect the root and leaf) are barely visible. The origin point of the polar coordinate determined using PolarMask can be viewed as the center of the object (center of mass). This allows the position of the shoot axis and, as an extension, the root base to be estimated. This means that planting or leaf-centered targeted spraying can be carried out, for example in the case of large crops, particularly in the case of plant protection products that work via the leaves or are intended to reach the roots

Die Erfindung beruht auf folgenden Überlegungen zu Blattkontur / Blattflächen:

  • Mittels der über PolarMask bestimmten Kontur kann eine Blätterfläche (Fläche vieler Blätter) eines Unkrauts bzw. die in einem Spraykegel einer Düse sich befindlichen Blätterflächen vieler Unkräuter berechnet werden (Blätterfläche über Bodenfläche der Spraykegelfläche). Somit können insbesondere bei Pflanzenschutzmitteln, die über die Blätter wirken sollen, eine notwendige Pflanzenschutzmenge bestimmt werden (Applikation über Kennlinien / Kennfelder).
The invention is based on the following considerations regarding leaf contours/leaf surfaces:
  • Using the contour determined via PolarMask, a leaf area (area of many leaves) of a weed or the leaf areas of many weeds located in a spray cone of a nozzle can be calculated (leaf area over the bottom area of the spray cone area). This means that the necessary amount of plant protection can be determined, particularly for plant protection products that are intended to act on the leaves (application via characteristic curves/characteristic fields).

Die Erfindung beruht auf folgenden Überlegungen zu Bounding Box Bedeckungsrate / Füllrate:

  • Bestimmte Unkräuter haben in bestimmten Nutzpflanzungen grundsätzlich schmalere (alternativ breitere) Blätter als die Nutzpflanzen. Mittels Verhältnisbildung der Fläche der Kontur von Polarmask zur Fläche der umgebenden Bounding Box einer Pflanze kann die Unkauterkennung verbessert werden, da Unkräuter betragsmäßig kleinere (größere) Verhältnisse haben als Nutzpflanzen. Weiterführend kann die Bedeckungsrate und Bounding Box (implizit damit dann auch die Konturfläche) zusätzlich in den Eingang des Klassifikators zur Unkrauterkennung geben werden.
The invention is based on the following considerations regarding bounding box coverage rate/filling rate:
  • In certain crops, certain weeds generally have narrower (alternatively wider) leaves than the crop plants. By calculating the ratio of the area of the polar mask contour to the area of the surrounding bounding box of a plant, weed detection can be improved, since weeds have smaller (larger) ratios than crops. Furthermore, the coverage rate and bounding box (implicitly also the contour area) can also be entered into the input of the classifier for weed detection.

Beispielhaft sei eine Überdeckung von Pflanzen (Blättern) betrachtet, wobei trotz Verdeckung die Bounding Box und PolarMask/ Kontur der verdeckten Pflanze recht gut mit dem PolarMask Verfahren erkannt bzw. prognostiziert wird. Wohl ist eine Überdeckung von Pflanzen zu sehen, wobei trotz Verdeckung die Bounding Box und PolarMask mit Kontur der verdeckten Pflanze recht gut erkannt bzw. aus erlernten Merkmalen prognostiziert wird. Soll bspw. ein durch eine Nutzpflanze verdecktes Unkraut besprüht werden, kann in Abhängigkeit von dem Grad der Verdeckung (wieviel Unkrautblattfläche von der Gesamtunkrautblattfläche) bzw. die in einem Spraykegel einer Düse sich prinzipiell gesamt ergebende Verdeckung von Unkräutern durch Nutzpflanzen eine Tropfengröße des Sprays gewählt werden (Druck - und/oder Düsenwahl). So kann bei größerer Verdeckung das Spray hin zu feineren Tropfen verändert werden (bspw. durch höheren Spritzdruck oder Umschaltung auf anderen Düsenkopf), damit das Sprayaerosol unter das Blätterdach der Nutzpflanzen zum Unkraut gelangt. Insbesondere wenn Nutzpflanzen und Unkräuter aus der gleicher Familie sind, leiden die Nutzpflanzen auch beim unbeabsichtigten Besprühen von Unkräutern, was durch das Verfahren verringert wirdAs an example, consider a covering of plants (leaves), whereby, despite the covering, the bounding box and PolarMask/contour of the hidden plant are recognized or predicted quite well with the PolarMask method. A cover of plants can be seen, although despite the cover, the bounding box and PolarMask with the contour of the covered plant are recognized quite well or predicted from learned characteristics. If, for example, a weed hidden by a crop is to be sprayed, a drop size of the spray can be selected depending on the degree of concealment (how much weed leaf area out of the total weed leaf area) or the overall concealment of weeds by crops in a spray cone of a nozzle (Pressure and/or nozzle selection). In the case of greater coverage, the spray can be changed to produce finer drops (e.g. by higher spray pressure or switching to a different nozzle head). the spray aerosol gets under the canopy of the crops to the weeds. Especially when crops and weeds are from the same family, the crops also suffer from accidental spraying of weeds, which is reduced by the process

Die Anzahl der Stufen des Neuronalen Netzes ist nicht Gegenstand der vorliegenden Erfindung.The number of stages of the neural network is not the subject of the present invention.

Weitere Merkmale, Wirkungen und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung eines bevorzugten Ausführungsbeispiels der Erfindung sowie der beigefügten Figuren. Dabei zeigen, jeweils in einer schematischen Prinzipskizze:

  • 1 eine Einrichtung zum Besprühen von Unkraut mit einer Detektoreinheit gemäß der Erfindung in einem Blockdiagramm.
Further features, effects and advantages of the invention result from the following description of a preferred exemplary embodiment of the invention and the attached figures. Show, each in a schematic principle sketch:
  • 1 a device for spraying weeds with a detector unit according to the invention in a block diagram.

1 zeigt eine Einrichtung 2 zum Besprühen von Unkraut 4. Die Einrichtung 2 aufweist eine Kamera 6, die im Beispiel in Fahrtrichtung vorne an einer nicht dargestellten Feldspritze angeordnet ist. Die Kamera 6 ist auf eine Fläche 10, hier den Boden, gerichtet, um Bilddaten 8 von der potentiell das Unkraut 4 umfassenden bzw. enthaltenden Fläche 10, hier einem Pflanzenfeld für Nutzpflanzen 12, zu erzeugen. In einem beispielhaft dargestellten, von der Kamera 6 aufgenommenen Bild in Form der Bilddaten 8 sind daher etliche Nutzpflanzen 12 sowie mehrere Unkräuter 4 abgebildet. 1 shows a device 2 for spraying weeds 4. The device 2 has a camera 6, which in the example is arranged in the direction of travel at the front of a field sprayer, not shown. The camera 6 is aimed at a surface 10, here the ground, in order to generate image data 8 from the surface 10 that potentially includes or contains the weeds 4, here a plant field for crops 12. In an exemplary image recorded by the camera 6 in the form of the image data 8, a number of useful plants 12 and several weeds 4 are therefore shown.

Die Einrichtung 2 aufweist weiterhin eine Detektoreinheit 14 sowie ein Sprühmodul 16. Das Sprühmodul 16 ist hier ein Sprüharm mit Sprühdüsen zur Ausgabe eines Sprühmittels 18 (in der Figur durch einen Pfeil symbolisiert), um die Unkräuter 4 mit dem Sprühmittel 18 zu besprühen. Das Sprühmodul 16 ist mit der Kamera 6 ortskorreliert, das heißt: es weist einen bekannte Relativlage zur Kamera 6 auf. Vorliegend ist dies dadurch bewerkstelligt, dass das Sprühmodul 16 entgegen der Fahrtrichtung ebenfalls an der Feldspritze befestigt ist. Durch Überfahren der Fläche 10 mit der Feldspritze werden also Kamera 6 und Sprühmodul 16 synchron bewegt. Das Sprühmodul 16 ist dazu eingerichtet, das Unkraut 4 auf Basis der von der Detektoreinheit 14 an einem Ausgang 20 bereitgestellten bzw. ausgegebenen Größen mit dem Sprühmittel 18 zu besprühen.The device 2 also has a detector unit 14 and a spray module 16. The spray module 16 here is a spray arm with spray nozzles for issuing a spray agent 18 (symbolized by an arrow in the figure) in order to spray the weeds 4 with the spray agent 18. The spray module 16 is spatially correlated with the camera 6, that is, it has a known relative position to the camera 6. In the present case, this is accomplished in that the spray module 16 is also attached to the field sprayer against the direction of travel. By driving over the area 10 with the field sprayer, camera 6 and spray module 16 are moved synchronously. The spray module 16 is set up to spray the weeds 4 with the spray agent 18 based on the sizes provided or output by the detector unit 14 at an output 20.

Die Detektoreinheit 14 dient zur Detektion und Lokalisierung des Unkrauts 4 in den Bilddaten 8. Die Detektoreinheit 14 weist einen Eingang 22 für die Bilddaten 8 auf. Die Detektoreinheit 14 aufweist einen Rahmendetektor 24. Dieser ist dazu eingerichtet, in den Bilddaten 8 ein jeweiliges Unkraut 4, d.h. einzelne Unkrautpflanzen, zu erkennen und ein für jedes erkannte Unkraut 4 einen Auswahlrahmen 26 am Ausgang 20 bereitzustellen. Jeder der Auswahlrahmen 26 umrahmt das jeweiliges Unkraut 4 bzw. dessen Abbild (im Rahmen der Detektionsgenauigkeit) passgenau. Der Auswahlrahmen ist hier jeweils ein parallel zu den Rändern der Bilddaten 8 verlaufendes Rechteck. Optional erfolgt die Bereitstellung am Ausgang 20 (dies gilt auch für alle nachfolgenden entsprechend bereitgestellten Größen).The detector unit 14 is used to detect and localize the weeds 4 in the image data 8. The detector unit 14 has an input 22 for the image data 8. The detector unit 14 has a frame detector 24. This is set up to detect a respective weed 4, i.e. individual weed plants, in the image data 8 and to provide a selection frame 26 at the output 20 for each identified weed 4. Each of the selection frames 26 accurately frames the respective weed 4 or its image (within the scope of detection accuracy). The selection frame here is a rectangle that runs parallel to the edges of the image data 8. Optionally, provision is made at output 20 (this also applies to all subsequent sizes provided accordingly).

Die Detektoreinheit 14 aufweist weiterhin einen Polardetektor 28. Dieser ist dazu eingerichtet, in den Bilddaten 8 ebenfalls das Unkraut 4 zu erkennen und für jedes der erkannten Unkräuter 4 eine Polarmaske 30 bereitzustellen. Die Polarmaske 30 folgt einer Kontur des Unkrauts 4 und besteht aus aneinandergereihten Geraden. Für eines der detektierten Unkräuter 4 in 1 ist dieses exemplarisch als Bildausschnitt der Bilddaten 8 vergrößert dargestellt. Zu erkennen ist, wie dem erkannten Unkraut 4 sowohl ein Auswahlrahmen 26 als auch eine Polarmaske 30 - insofern passgenau - umbeschrieben wird.The detector unit 14 also has a polar detector 28. This is set up to also detect the weeds 4 in the image data 8 and to provide a polar mask 30 for each of the detected weeds 4. The polar mask 30 follows a contour of the weed 4 and consists of straight lines strung together. For one of the detected weeds 4 in 1 This is shown enlarged as an example as an image section of the image data 8. It can be seen how both a selection frame 26 and a polar mask 30 - in this respect a precise fit - are described to the recognized weed 4.

Die Detektoreinheit 14 aufweist auch einen Klassifikator 32. Dieser ordnet in fachüblicher Weise dem detektierten Unkraut 4 eine erste Klasse 34 zu und stellt diese bereit. Im Beispiel ist die erste Klasse 34 eine Unkrautbezeichnung (Unkraut 4) und eine Zahl zwischen Null und Eins, die aussagt, mit welcher Wahrscheinlichkeit (0=0%, 1=100%) es sich bei dem detektierten Element im Auswahlrahmen 26 tatsächlich um ein Unkraut 4 handelt. Im Beispiel beträgt der Wert der Klasse 34 für das vergrößert dargestellte Unkraut 4 „0,98“.The detector unit 14 also has a classifier 32. This assigns a first class 34 to the detected weed 4 in a conventional manner and provides this. In the example, the first class 34 is a weed name (weed 4) and a number between zero and one that indicates the probability (0=0%, 1=100%) that the detected element in the selection frame 26 is actually a weed Weed 4 is about. In the example, the value of class 34 for the weed shown enlarged is 4 “0.98”.

Die Detektoreinheit 14 aufweist außerdem ein Convolutional Neural Network (CNN) 40. Dieses geht für jedes der detektierten Unkräuter 4 von einem Teil der Bilddaten 8 aus, welche durch den Auswahlrahmen 26 und/oder die Polarmaske 30 begrenzt sind und somit Auswahlbilddaten 42 darstellen. Das CNN 40 ist dazu eingerichtet, anhand der Auswahlbilddaten 42 einen Teil eines Merkmalsvektors 44 für den betrachteten Bildinhalt der Auswahlbilddaten 42 (potentielles Unkraut 4) zu erzeugen und zur weiteren Verwendung bereitzustellen.The detector unit 14 also has a convolutional neural network (CNN) 40. This is based on a part of the image data 8 for each of the detected weeds 4, which is limited by the selection frame 26 and/or the polar mask 30 and thus represents selection image data 42. The CNN 40 is set up to use the selection image data 42 to generate part of a feature vector 44 for the viewed image content of the selection image data 42 (potential weed 4) and to make it available for further use.

Die Detektoreinheit 14 aufweist auch ein Klassenmodul 46, hier ein Fully Connected Neural Network (FCNN). Dieses ist wiederum dazu eingerichtet, anhand des Merkmalsvektors 44 eine das (potentielle) Unkraut 4 klassifizierende zweite Klasse 48 zu ermitteln und zur weiteren Verwendung bereitzustellen.The detector unit 14 also has a class module 46, here a fully connected neural network (FCNN). This in turn is set up to use the feature vector 44 to determine a second class 48 that classifies the (potential) weed 4 and to make it available for further use.

Zusätzlich zu den Ausgaben des CNN 40 aufweist der Merkmalsvektor 44 im Beispiel noch den Auswahlrahmen 26 sowie die Polarmaske 30 (deren Koordinatendaten / Größe / Verlauf usw.), sodass auch diese Daten im Klassenmodul 46 / FCNN mit ausgewertet werden.In addition to the outputs of the CNN 40, the feature vector 44 in the example also has the selection frame 26 and the polar mask 30 (its coordinate data / size / course, etc.), so that these data are also evaluated in the class module 46 / FCNN.

Die Detektoreinheit 14 aufweist außerdem ein Plausibilitätsmodul 50. Dieses ist dazu eingerichtet, die erste Klasse 34 und die zweite Klasse 48 auf deren Plausibilität zueinander zu prüfen. Im Falle einer solchen positiv festgestellten Plausibilität ermittelt das Plausibilitätsmodul 50 eine dritte oder auch abschließende Klasse 52 und stellt diese (am Ausgang 20) bereit.The detector unit 14 also has a plausibility module 50. This is set up to check the plausibility of the first class 34 and the second class 48 with respect to one another. In the case of such a positively determined plausibility, the plausibility module 50 determines a third or final class 52 and provides this (at the output 20).

Die Detektoreinheit 14 aufweist auch ein Mittelpunktsmodul 54. Dieses ist dazu eingerichtet, einen Mittelpunkt 56 (Koordinaten im Bild bzw. den Bilddaten 8, In der Figur als Punkt symbolisiert) der Polarmaske 30 zu ermitteln und zur weiteren Verwendung bereitzustellen.The detector unit 14 also has a center point module 54. This is set up to determine a center point 56 (coordinates in the image or the image data 8, symbolized as a point in the figure) of the polar mask 30 and to make it available for further use.

Die Detektoreinheit 14 aufweist weiterhin ein Blattflächenmodul 58. Dieses ist dazu eingerichtet, anhand der Polarmaske 30 die Blattfläche 60 (Flächeninhalt, in der Figur schraffiert angedeutet) des Unkrauts 4 als von der Polarmaske 30 umschlossene Fläche zu ermitteln und zur weiteren Verwendung bereitzustellen.The detector unit 14 also has a leaf area module 58. This is set up to use the polar mask 30 to determine the leaf area 60 (area, indicated by hatching in the figure) of the weed 4 as an area enclosed by the polar mask 30 and to make it available for further use.

Die Detektoreinheit 14 aufweist auch ein Bedeckungsratenmodul 62. Dieses ist dazu eingerichtet, das Verhältnis der Flächen des Auswahlrahmens 26 und der Polarmaske 30 (Flächen schraffiert angedeutet) als eine Bedeckungsrate 64 des Unkrauts 4 zu ermitteln und zur weiteren Verwendung bereitzustellen. The detector unit 14 also has a coverage rate module 62. This is set up to determine the ratio of the areas of the selection frame 26 and the polar mask 30 (areas indicated by hatching) as a coverage rate 64 of the weed 4 and to make it available for further use.

Insbesondere wird die Bedeckungsrate 64 jeweils mit der Feature Map dem Klassenmodul 46 / FCNN bereitgestellt.In particular, the coverage rate 64 is provided to the class module 46 / FCNN with the feature map.

Schließlich aufweist die Detektoreinheit 14 noch ein Überdeckungsratenmodul 66. Dieses ist dazu eingerichtet, eine Nutzpflanze in den Bilddaten 8, vor allem innerhalb des Auswahlrahmens 26 / der Polarmaske 30 zu detektieren und eine Überdeckungsrate des Unkrauts 4 durch die Nutzpflanze 12 zu ermitteln und bereitzustellen. Die Überdeckungsrate 68 besagt damit, wie viel Anteil der Fläche des Unkrauts 4 im Auswahlrahmen 26 / der Polarmaske 30 durch die Nutzpflanze 12 überdeckt ist.Finally, the detector unit 14 also has a coverage rate module 66. This is set up to detect a crop in the image data 8, especially within the selection frame 26 / the polar mask 30, and to determine and provide a coverage rate of the weed 4 by the crop 12. The coverage rate 68 thus indicates how much of the area of the weed 4 in the selection frame 26 / the polar mask 30 is covered by the crop 12.

Die am Ausgang 20 optional bereitgestellten Größen sind also mindestens eine von: Auswahlrahmen 26, Polarmaske 30, erste Klasse 34, zweite Klasse 48, dritte Klasse 52, Mittelpunkt 56, Blattfläche 60, Bedeckungsrate 64, Überdeckungsrate 68. Je nach Fähigkeiten des Sprühmodul 16, d.h. je nachdem, welche der Größen dieses verarbeiten kann und soll, werden die Größen am Ausgang 20 bereitgestellt oder ggf. auch nicht. Aufgrund der Ermittlung und Verarbeitung der entsprechenden Größen im Sprühmodul 16 bzw. der Einrichtung 2 ist es daher möglich, dass das Sprühmodul 16 das Unkraut 4 zielgenau mit der genau dosierten Menge Sprühmittel 18 am richtigen Zielort besprüht, und die Nutzpflanzen 12 möglichst von einer entsprechenden Besprühung ausspart.The sizes optionally provided at the output 20 are at least one of: selection frame 26, polar mask 30, first class 34, second class 48, third class 52, center point 56, leaf area 60, coverage rate 64, coverage rate 68. Depending on the capabilities of the spray module 16, i.e. depending on which of the variables it can and should process, the variables are provided at the output 20 or possibly not. Due to the determination and processing of the corresponding variables in the spray module 16 or the device 2, it is therefore possible for the spray module 16 to spray the weeds 4 precisely with the precisely metered amount of spray agent 18 at the correct target location, and for the crops 12 to benefit from a corresponding spraying if possible left out.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102017124934 A1 [0001]DE 102017124934 A1 [0001]

Claims (14)

Detektoreinheit (14) zur Detektion von Unkraut (4) in Bilddaten (8), mit - einem Eingang (22) für die Bilddaten (8), - einem Rahmendetektor (24), der dazu eingerichtet ist, in den Bilddaten (8) ein jeweiliges Unkraut (4) zu erkennen und einen jeweiligen Auswahlrahmen (26) bereitzustellen, der das jeweilige Unkraut (4) umrahmt, und - einem Polardetektor (28), der dazu eingerichtet ist, in den Bilddaten (8) ein jeweiliges Unkraut (4) zu erkennen und eine jeweilige Polarmaske (30) bereitzustellen, die einer Kontur des jeweiligen Unkrauts (4) folgt.Detector unit (14) for detecting weeds (4) in image data (8), with - an input (22) for the image data (8), - a frame detector (24), which is set up to recognize a respective weed (4) in the image data (8) and to provide a respective selection frame (26) which frames the respective weed (4), and - a polar detector (28), which is set up to recognize a respective weed (4) in the image data (8) and to provide a respective polar mask (30) which follows a contour of the respective weed (4). Detektoreinheit (14) nach Anspruch 1, dadurch gekennzeichnet, dass die Detektoreinheit (14) einen Klassifikator (32) aufweist, der dazu eingerichtet ist, anhand des Auswahlrahmens (26) und der Polarmaske (30) eine das Unkraut (4) klassifizierende erste Klasse (34) bereitzustellen.Detector unit (14). Claim 1 , characterized in that the detector unit (14) has a classifier (32) which is set up to provide a first class (34) classifying the weeds (4) based on the selection frame (26) and the polar mask (30). Detektoreinheit (14) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Detektoreinheit (14) - ein Convolutional Neural Network (40) aufweist, das dazu eingerichtet ist, anhand von durch den Auswahlrahmen (26) und/oder die Polarmaske (30) bestimmten Auswahlbilddaten (42) zumindest einen Teil eines Merkmalsvektors (44) für das Unkraut (4) zu erzeugen und bereitzustellen, - ein Klassenmodul (46) aufweist, das dazu eingerichtet ist, anhand des Merkmalsvektors (44) eine das Unkraut (4) klassifizierende zweite Klasse (48) zu erzeugen und bereitzustellen.Detector unit (14) according to one of the preceding claims, characterized in that the detector unit (14) - has a convolutional neural network (40) which is set up to, based on the selection frame (26) and / or the polar mask (30) to generate and provide certain selection image data (42) at least part of a feature vector (44) for the weed (4), - has a class module (46) which is set up to classify the weed (4) based on the feature vector (44). to create and provide second class (48). Detektoreinheit (14) nach Anspruch 3, dadurch gekennzeichnet, dass der Merkmalsvektor (44) zusätzlich den Auswahlrahmen (26) und/oder die Polarmaske (30) umfasst oder beinhaltet.Detector unit (14). Claim 3 , characterized in that the feature vector (44) additionally includes or includes the selection frame (26) and / or the polar mask (30). Detektoreinheit (14) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Detektoreinheit (14) ein Plausibilitätsmodul (50) aufweist, das dazu eingerichtet ist, eine das Unkraut (4) klassifizierende dritte Klasse (52) zu ermitteln und bereitzustellen, wenn die erste (34) und zweite Klasse (48) plausibel zueinander sind.Detector unit (14) according to one of the preceding claims, characterized in that the detector unit (14) has a plausibility module (50) which is set up to determine and provide a third class (52) classifying the weeds (4) if the first (34) and second class (48) are plausible to each other. Detektoreinheit (14) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Detektoreinheit (14) ein Mittelpunktsmodul (54) aufweist, das dazu eingerichtet ist, einen Mittelpunkt (56) der Polarmaske (30) zu ermitteln und bereitzustellen.Detector unit (14) according to one of the preceding claims, characterized in that the detector unit (14) has a center point module (54) which is designed to determine and provide a center point (56) of the polar mask (30). Detektoreinheit (14) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Detektoreinheit (14) ein Blattflächenmodul (58) aufweist, das dazu eingerichtet ist, anhand der Polarmaske (30) eine Blattfläche (60) des Unkrauts (4) als von der Polarmaske (30) umgrenzte Fläche zu ermitteln und bereitzustellenDetector unit (14) according to one of the preceding claims, characterized in that the detector unit (14) has a leaf surface module (58) which is set up to use the polar mask (30) to identify a leaf surface (60) of the weed (4) as being from the Polar mask (30) to determine and provide the delimited area Detektoreinheit (14) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Detektoreinheit (14) ein Bedeckungsratenmodul (62) aufweist, das dazu eingerichtet ist, anhand des Verhältnisses der Flächen von Auswahlrahmen (26) und Polarmaske (30) eine Bedeckungsrate (64) des Unkrauts (4) zu ermitteln und bereitzustellen.Detector unit (14) according to one of the preceding claims, characterized in that the detector unit (14) has a coverage rate module (62) which is set up to determine a coverage rate (64) based on the ratio of the areas of the selection frame (26) and the polar mask (30). ) of the weeds (4) to be determined and provided. Detektoreinheit (14) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Detektoreinheit (14) ein Überdeckungsratenmodul (66) aufweist, das dazu eingerichtet ist, wenigstens innerhalb der Polarmaske (30) und/oder des Auswahlrahmens (26) eine Nutzpflanze (12) zu erkennen und eine Überdeckungsrate (68) des Unkrauts (4) durch die Nutzpflanze (12) zu ermitteln und bereitzustellen.Detector unit (14) according to one of the preceding claims, characterized in that the detector unit (14) has a coverage rate module (66) which is designed to detect a crop (12) at least within the polar mask (30) and/or the selection frame (26). ) and to determine and provide a coverage rate (68) of the weeds (4) by the crop (12). Detektoreinheit (14) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Detektoreinheit (14) einen Ausgang (20) zum Bereitstellen mindestens einer Größe, welche ausgewählt ist aus der Gruppe bestehend aus: Auswahlrahmen 26, Polarmaske 30, erste Klasse 34, zweite Klasse 48, dritte Klasse 52, Mittelpunkt 56, Blattfläche 60, Bedeckungsrate 64, Überdeckungsrate 68.Detector unit (14) according to one of the preceding claims, characterized in that the detector unit (14) has an output (20) for providing at least one variable which is selected from the group consisting of: selection frame 26, polar mask 30, first class 34, second Class 48, third class 52, center 56, leaf area 60, coverage rate 64, coverage rate 68. Einrichtung (2) zum Besprühen von Unkraut (4), - mit einer Kamera (6), die dazu eingerichtet ist Bilddaten (8) von einer potentiell Unkraut (4) umfassenden oder enthaltenden Fläche (10) zu erzeugen, - mit der Detektoreinheit (14) nach einem der vorhergehenden Ansprüche, - mit einem mit der Kamera (6) ortskorrelierten Sprühmodul (16), das dazu eingerichtet ist, das Unkraut (4) auf Basis der von der Detektoreinheit (14) bereitgestellten Größen mit einem Sprühmittel (18) zu besprühen.Device (2) for spraying weeds (4), - with a camera (6) which is set up to generate image data (8) from an area (10) that potentially includes or contains weeds (4), - with the detector unit (14) according to one of the preceding claims, - with a spray module (16), which is spatially correlated with the camera (6), and which is set up to spray the weeds (4) with a spray agent (18) based on the sizes provided by the detector unit (14). Verfahren zur Detektion von Unkraut (4) in Bilddaten (8), insbesondere mittels einer Detektoreinheit (14) nach einem der Ansprüche 1 bis 10 oder einer Einrichtung nach Anspruch 11, gekennzeichnet durch die Schritte: - Erkennen eines jeweiligen Unkrauts (4) in den Bilddaten (8) und Bereitstellen eines jeweiligen Auswahlrahmens (26), der das jeweilige Unkraut (4) umrahmt, mittels eines/des Rahmendetektors (24) und - Erkennen eines jeweiligen Unkrauts (4) in den Bilddaten (8) und Bereitstelleneine einer jeweiligen Polarmaske (30), die einer Kontur des jeweiligen Unkrauts (4) folgt, mittels eines/des Polardetektors (28).Method for detecting weeds (4) in image data (8), in particular by means of a detector unit (14) according to one of Claims 1 until 10 or an institution Claim 11 , characterized by the steps: - recognizing a respective weed (4) in the image data (8) and providing a respective selection frame (26), which frames the respective weed (4), by means of a frame detector (24) and - detecting a respective weeds (4) in the image data (8) and providing a respective polar mask (30) that corresponds to a contour of the respective one Weeds (4) follows, using a polar detector (28). Computerprogramm, das dazu eingerichtet ist, die Schritte eines Verfahrens nach Anspruch 12 durchzuführen und/oder zu steuern, wenn das Computerprogramm auf einem Computer ausgeführt wird.Computer program that is set up to follow the steps of a procedure Claim 12 to perform and/or control when the computer program is executed on a computer. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 13 gespeichert ist.Machine-readable storage medium on which the computer program can be written Claim 13 is stored.
DE102022207830.6A 2022-07-29 2022-07-29 Weed detection with polar masks Pending DE102022207830A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022207830.6A DE102022207830A1 (en) 2022-07-29 2022-07-29 Weed detection with polar masks

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022207830.6A DE102022207830A1 (en) 2022-07-29 2022-07-29 Weed detection with polar masks

Publications (1)

Publication Number Publication Date
DE102022207830A1 true DE102022207830A1 (en) 2024-02-01

Family

ID=89508277

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022207830.6A Pending DE102022207830A1 (en) 2022-07-29 2022-07-29 Weed detection with polar masks

Country Status (1)

Country Link
DE (1) DE102022207830A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180330166A1 (en) 2017-05-09 2018-11-15 Blue River Technology Inc. Automated plant detection using image data
DE102017124934A1 (en) 2017-10-25 2019-04-25 M-Farms Gmbh System for semi-automatic and / or automatic weed removal

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180330166A1 (en) 2017-05-09 2018-11-15 Blue River Technology Inc. Automated plant detection using image data
DE102017124934A1 (en) 2017-10-25 2019-04-25 M-Farms Gmbh System for semi-automatic and / or automatic weed removal

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HU, Kun, et al.: Deep learning techniques for in-crop weed identification: A Review. arXiv preprint arXiv:2103.14872, 2021.
MAKSYMENKO, S.: Object localization/segmentation with polar coordinates, 2021. URL: https://towardsdatascience.com/object-localization-segmentation-with-polar-coordinates-62be64da0097 [abgerufen am 17.05.2023]

Similar Documents

Publication Publication Date Title
EP3782467B1 (en) Method for identifying weeds within a defined row of plants of an agricultural area
EP3466239B1 (en) Method for operating a self-propelled agricultural working machine
WO2020078692A1 (en) Method for applying a spray to a field
DE102018216476A1 (en) Process for remediating developmentally delayed plants
DE102018120756A1 (en) Mobile analysis and processing device, method and carrier system
DE4329343A1 (en) Image-analytical method, suitable for use in the field, for the automatic detection and combatting of types of weed
WO2021105019A1 (en) Method for generating a plurality of annotated images
DE102020126602A1 (en) MICROSCOPY SYSTEM AND METHODS FOR IMAGE SEGMENTATION
DE102022207830A1 (en) Weed detection with polar masks
Weis An image analysis and classification system for automatic weed species identification in different crops for precision weed management
EP3841444B1 (en) Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor
DE102018222623A1 (en) Process for automatic irrigation of plants
EP4064819B1 (en) Method for treating plants in a field, for generating training data and for training a neural network
EP4064815A1 (en) Method for processing plants in a field
EP3840559A1 (en) Mobile analysis and processing device
DE102019209526A1 (en) Monitoring a cultivation area
DE102019201977A1 (en) Method for determining a condition of a crop planting and agricultural vehicle
DE102019202068A1 (en) Method for operating an automated vehicle
EP4064818A1 (en) Method for treating plants in a field
DE102022206224A1 (en) Method for automatically labeling input images, training images, method for training or retraining a weed analyzer, analysis device, computer program and machine-readable storage medium
DE102022115549A1 (en) Method for the optimized configuration of a camera system for row detection in a field
EP4245135A1 (en) Conducting and documenting an application of plant protection agents
EP4064817A1 (en) Method for estimating a course of plant rows
EP4246268A1 (en) Method for safely determining a flight path of an unmanned aerial vehicle and unmanned aerial vehicle
DE102021207984A1 (en) Weed detection device, weed detection method, computer program and storage medium

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A01M0021000000

Ipc: G06V0020600000

R163 Identified publications notified