DE102022206224A1 - Method for automatically labeling input images, training images, method for training or retraining a weed analyzer, analysis device, computer program and machine-readable storage medium - Google Patents

Method for automatically labeling input images, training images, method for training or retraining a weed analyzer, analysis device, computer program and machine-readable storage medium Download PDF

Info

Publication number
DE102022206224A1
DE102022206224A1 DE102022206224.8A DE102022206224A DE102022206224A1 DE 102022206224 A1 DE102022206224 A1 DE 102022206224A1 DE 102022206224 A DE102022206224 A DE 102022206224A DE 102022206224 A1 DE102022206224 A1 DE 102022206224A1
Authority
DE
Germany
Prior art keywords
weed
images
labeled
input
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022206224.8A
Other languages
German (de)
Inventor
Johanna Link-Dolezal
Kai Liu
Udo Schulz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022206224.8A priority Critical patent/DE102022206224A1/en
Publication of DE102022206224A1 publication Critical patent/DE102022206224A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Abstract

Für das selektive Sprühen des Pflanzenschutzmittels muss das Unkraut in Echtzeit erkannt werden, während ein entsprechendes landwirtschaftliches Fahrzeug über das Feld fährt. Es ist bekannt, dass eine derartige Unkrauterkennung mittels Kameras und Algorithmen der Bildverarbeitung ermöglicht werden kann.Es wird ein Verfahren zum automatischen Labeln von Eingangsbildern 1 mit einem Unkrauttyp eines Unkrauts und zur Erzeugung von gelabelten Ausgangsbildern 2 vorgeschlagen, mit einem Unkrautbestimmer 3, wobei der Unkrautbestimmer 3 auf einem neuronalen Netz basiert und wobei der Unkrautbestimmer 3 in den Eingangsbildern 1 den Unkrauttyp des Unkrauts bestimmt, wobei die Eingangsbilder 1 zumindest mit dem Unkrauttyp gelabelt werden und die gelabelten Ausgangsbilder 2 als Label L1, L2 eine Lokalisierung des Unkrauts und den Unkrauttyp umfassen.For the selective spraying of the crop protection product, the weeds must be detected in real time while an appropriate agricultural vehicle drives over the field. It is known that such weed detection can be made possible using cameras and image processing algorithms. A method for automatically labeling input images 1 with a weed type of a weed and for generating labeled output images 2 is proposed, with a weed determiner 3, the weed determiner 3 is based on a neural network and wherein the weed determiner 3 determines the weed type of the weed in the input images 1, the input images 1 being labeled at least with the weed type and the labeled output images 2 including a localization of the weed and the weed type as labels L1, L2.

Description

Stand der TechnikState of the art

Die Erfindung betrifft ein Verfahren zum automatischen Labeln von Eingangsbildern mit einem Unkrauttyp eines Unkrauts und zur Erzeugung von gelabelten Ausgangsbildern. Ferner betrifft die Erfindung Trainingsbilder, welche durch das Verfahren gelabelt sind, ein Verfahren zum Trainieren oder Nachtrainieren eines Unkrautanalysators auf Basis der Trainingsbilder, eine Analysevorrichtung mit dem Unkrautanalysator, ein jeweiliges Computerprogramm sowie ein maschinenlesbares Speichermedium mit dem Computerprogramm.The invention relates to a method for automatically labeling input images with a weed type of weed and for generating labeled output images. The invention further relates to training images which are labeled by the method, a method for training or retraining a weed analyzer based on the training images, an analysis device with the weed analyzer, a respective computer program and a machine-readable storage medium with the computer program.

Als Reihenkultur werden Feldfrüchte bezeichnet, deren Abstände in der Säreihe 40 bis 70 cm betragen. Als Beispiele sind Zuckerrüben und Mais zu nennen. Neueste Entwicklungen ermöglichen ein selektives Sprühen von Pflanzenschutzmitteln auf Unkraut in der Reihenkultur und damit Einsparungen von Pflanzenschutzmitteln sowie einer daraus resultierenden Verringerung der Umweltbelastung. Für das selektive Sprühen des Pflanzenschutzmittels muss das Unkraut in Echtzeit erkannt werden, während ein entsprechendes landwirtschaftliches Fahrzeug über das Feld fährt. Es ist bekannt, dass eine derartige Unkrauterkennung mittels Kameras und Algorithmen der Bildverarbeitung ermöglicht werden kann.Row crops are crops whose distances in the sowing row are 40 to 70 cm. Examples include sugar beet and corn. The latest developments enable selective spraying of crop protection products on weeds in row crops, thus saving crop protection products and resulting in a reduction in environmental pollution. For the selective spraying of the crop protection product, the weeds must be detected in real time while an appropriate agricultural vehicle drives over the field. It is known that such weed detection can be made possible using cameras and image processing algorithms.

Beispielsweise offenbart die Druckschrift EP 38155 2 9 A1 , die den nächstkommenden Stand der Technik bildet, ein Computersystem umfassend eine Bildempfangslogik, die dazu konfiguriert ist, Bilddaten zu empfangen, die ein Bild eines Felds angeben, eine Bodenidentifikationslogik, die dazu konfiguriert ist, einen ersten Bildabschnitt des Bilds zu identifizieren, das den Boden auf dem Feld darstellt, eine Bildsegmentierungslogik, die dazu konfiguriert ist, einen verbleibenden Bildabschnitt zu identifizieren den ersten Bildteil aus dem Bild weglässt, und Erntegut-Klassifizierungslogik, die dazu konfiguriert ist, einen Erntegut-Klassifikator auf den verbleibenden Bildteil anzuwenden und einen zweiten Bildteil des Bildes zu identifizieren, der Standorte von Erntepflanzen auf dem Feld darstellt. Das Computersystem umfasst auch eine Unkrautidentifikationslogik, die dazu konfiguriert ist, Orte von Unkrautpflanzen auf dem Feld basierend auf der Identifizierung des ersten und zweiten Bildabschnitts zu identifizieren, und eine Steuersignalerzeugungslogik, die konfiguriert ist, um ein Maschinensteuersignal basierend auf den identifizierten Orten der Unkrautpflanzen zu erzeugen.For example, the publication discloses EP 38155 2 9 A1 , which represents the closest prior art, a computer system comprising image receiving logic configured to receive image data indicating an image of a field, ground identification logic configured to identify a first image portion of the image representing the ground in the field, image segmentation logic configured to identify a remaining image portion that omits the first image portion from the image, and crop classification logic configured to apply a crop classifier to the remaining image portion and a second image portion of the Identify image depicting locations of crop plants in the field. The computer system also includes weed identification logic configured to identify locations of weed plants in the field based on the identification of the first and second image portions, and control signal generation logic configured to generate a machine control signal based on the identified locations of the weed plants .

Offenbarung der ErfindungDisclosure of the invention

Die Erfindung betrifft ein Verfahren zum automatischen Labeln von Eingangsteilbildern mit den Merkmalen des Anspruchs 1, Trainingsbilder mit den Merkmalen des Anspruchs 10, ein Verfahren zum Trainieren oder Nachtrainieren eines Unkrautanalysators mit den Merkmalen des Anspruchs 11, eine Analysevorrichtung mit den Merkmalen des Anspruchs 12, ein Computerprogramm mit den Merkmalen des Anspruchs 13, sowie ein maschinenlesbares Speichermedium mit den Merkmalen des Anspruchs 14. Bevorzugte oder vorteilhafte Ausführungsformen der Erfindung ergeben sich aus den Unteransprüchen, der nachfolgenden Beschreibung sowie den beigefügten Figuren.The invention relates to a method for automatically labeling input partial images with the features of claim 1, training images with the features of claim 10, a method for training or retraining a weed analyzer with the features of claim 11, an analysis device with the features of claim 12 Computer program with the features of claim 13, and a machine-readable storage medium with the features of claim 14. Preferred or advantageous embodiments of the invention result from the subclaims, the following description and the attached figures.

Die Erfindung betrifft ein Verfahren zum automatischen Labeln von Eingangsteilbildern. Die Eingangsteilbilder sind vorzugsweise als Farbbilder ausgebildet, alternativ und/oder ergänzend umfassen diese Schwarz-weiß-Bilder, Graustufenbilder oder IR-Bilder. Insbesondere sind die Eingangsteilbilder als Ausschnitte von Eingangsbildern ausgebildet.The invention relates to a method for automatically labeling input partial images. The input partial images are preferably designed as color images; alternatively and/or additionally, these include black-and-white images, grayscale images or IR images. In particular, the input partial images are designed as sections of input images.

Das Labeln bezeichnet insbesondere ein Annotieren von Zusatzinformationen in dem Eingangsteilbild. Die Eingangsteilbilder werden mit einem Label in Bezug auf einen Unkrauttyp eines Unkrauts versehen, welches in dem Eingangsteilbild enthalten ist, um auf diese Weise gelabelte Ausgangsteilbilder zu erzeugen, wobei die Ausgangsteilbilder das jeweilige Label aufweisen. Insbesondere ist das jeweilige Label dem jeweiligen Eingangsteilbild selektiv und/oder individuell zugeordnet. Das Ausgangsteilbild und das Eingangsteilbild weisen die gleichen und/oder unveränderte Bildinhalte auf.Labeling refers in particular to annotating additional information in the input partial image. The input sub-images are labeled with respect to a weed type of a weed contained in the input sub-image to thereby generate labeled output sub-images, the output sub-images having the respective label. In particular, the respective label is selectively and/or individually assigned to the respective input partial image. The output field and the input field have the same and/or unchanged image content.

Unter einem Unkrauttyp oder einem spezifischen Unkrauttyp wird insbesondere eine Unkrautart und/oder eine Unkrautgattung verstanden. Der Unkrauttyp bezieht sich insbesondere auf eine Art des Unkrauts oder eine Unterart des jeweiligen Unkrauts. Insbesondere unterscheiden sich die verschiedenen Unkrauttypen hinsichtlich des Aussehens auf dem Eingangsteilbild, z.B. hinsichtlich der Blattform, der Blütenform, Umriss, Blattoberflächen / Textur, Farbe, Blattanzahl, Blattrippen, Blattoberseite versus Blattunterseite, Blattspreite, Blattscheide, Blattbehaarung, Blattansatz, Blattstellung (hängend,...), Stengel- bzw. Halmform, Stengel- bzw. Halmquerschnitt, Knoten,... , Blüten, Blütenstand, Textur, Farbe,..., Früchte, Samen, Textur, Farbe, ... etc. Optional ergänzend können sich die Unkrauttypen hinsichtlich eines Wachstumszustandes, wie zum Beispiel Jungpflanze, blühende Pflanze etc., unterscheiden. Es ist insbesondere vorgesehen, dass der Unkrauttyp so genau bestimmt wird, dass selektiv und/oder individuell ein Pflanzenschutzmittel in Bezug auf diesen Unkrauttyp ausgewählt werden kann.A weed type or a specific weed type is understood to mean, in particular, a weed species and/or a weed genus. The weed type refers in particular to a type of weed or a subspecies of the respective weed. In particular, the different weed types differ in terms of their appearance on the input image, e.g. in terms of leaf shape, flower shape, outline, leaf surfaces/texture, color, number of leaves, leaf veins, leaf top versus leaf underside, leaf blade, leaf sheath, leaf hairiness, leaf base, leaf position (hanging,. ..), stem or culm shape, stem or culm cross section, nodes,..., flowers, inflorescence, texture, color,..., fruits, seeds, texture, color, ... etc. Can optionally be added The weed types differ in terms of a growth state, such as young plants, flowering plants, etc. In particular, it is intended that the weed type is determined so precisely that plants can be planted selectively and/or individually protective agents can be selected in relation to this type of weed.

Das Verfahren benutzt einen Unkrautbestimmer, wobei der Unkrautbestimmer auf einem neuronalen Netz basiert. Beispielsweise wird das Eingangsteilbild einer Eingangsschicht des neuronalen Netzes bereitgestellt. Das neuronale Netz ist insbesondere als ein CNN (Convolutional Neuronal Network) bzw. als ein gefaltetes neuronales Netzwerk ausgebildet. Der Unkrautbestimmer bestimmt in den Eingangsteilbildern den Unkrauttyp von dem Unkraut.The method uses a weed determiner, the weed determiner being based on a neural network. For example, the input partial image is provided to an input layer of the neural network. The neural network is designed in particular as a CNN (Convolutional Neural Network) or as a folded neural network. The weed determiner determines the weed type of the weed in the input sub-images.

Die Eingangsteilbilder werden zumindest mit dem Unkrauttyp gelabelt, wobei die gelabelten Ausgangsteilbilder als Label eine Lokalisierung des Unkrauts und den Unkrauttyp des Unkrauts umfassen. Damit stellen die gelabelten Ausgangsteilbilder alle Daten bereit, welche benötigt werden, um ortsselektiv und zugleich unkrautselektiv das Sprühen von Pflanzenschutzmitteln anzusteuern. Die Label „Lokalisierung/Position“ und „Unkrauttyp“ können auch als ein gemeinsames Label oder als ein Labelsatz ausgebildet sein.The input sub-images are labeled at least with the weed type, with the labeled output sub-images comprising as a label a localization of the weed and the weed type of the weed. The labeled output subimages thus provide all the data that is needed to control the spraying of crop protection products in a location-selective and weed-selective manner. The labels “location/position” and “weed type” can also be designed as a common label or as a set of labels.

Das Label zur Lokalisierung des Unkrauts enthält insbesondere Informationen zur Position des Unkrauts und/oder des Eingangsteilbilds und/oder Ausgangsteilbilds in einem Ursprungsbild aus dem das Eingangsteilbild insbesondere als Ausschnitt entnommen ist. Dabei kann das Label zur Lokalisierung des Unkrauts in dem Ausgangsteilbild einen Schwerpunkt des Unkrauts, eine Bounding-Box um das Unkraut oder eine andere Bildpositionsinformation umfassen. Optional ergänzend kann das Label zur Lokalisierung eine datentechnische Verknüpfung, wie z.B. einen Link zu dem Ursprungsbild umfassen. Damit ist es möglich, dass gelabelte Ausgangsteilbild mit dem Ursprungsbild datentechnisch zu verknüpfen und das Label der Lokalisierung und zu dem Unkrauttyp auf das Ursprungsbild zu übertragen, so dass dieses als gelabeltes Ursprungsbild vorliegt. In dem Ursprungsbild können auf diese Weise auch eine Mehrzahl von Labeln oder Labelsätze annotiert werden, so dass z.B. mehrere Unkräuter mit der Lokalisierung und dem Unkrauttyp gelabelt sind.The label for locating the weed contains in particular information about the position of the weed and/or the input partial image and/or output partial image in an original image from which the input partial image is taken, in particular as a section. The label for locating the weed in the initial partial image can include a center of gravity of the weed, a bounding box around the weed or other image position information. Optionally, the label for localization can include a data link, such as a link to the original image. This makes it possible to link the labeled initial partial image with the original image in terms of data technology and to transfer the label of the localization and the weed type to the original image so that it is present as a labeled original image. In this way, a plurality of labels or sets of labels can be annotated in the original image, so that, for example, several weeds are labeled with the location and weed type.

Es ist dabei eine Überlegung der Erfindung, dass in Zukunft nicht nur ortsselektiv das Pflanzenschutzmittel auf dem Feld ausgebracht werden soll, um mit einem minimalen Aufwand an Pflanzenschutzmittel einen maximalen Schutz der Nutzpflanzen zu erreichen. Vielmehr sollen die entsprechenden landwirtschaftlichen Geräte eine Mehrzahl von Pflanzenschutzmitteln und entsprechende Sprühvorrichtungen aufweisen, so dass das Pflanzenschutzmittel nicht nur ortsselektiv, sondern in der Art des Pflanzenschutzmittels und/oder in der Menge des Pflanzenschutzmittels auf den jeweiligen Unkrauttyp angepasst werden kann und somit unkrauttypselektiv ausgebracht werden kann. So mag ein Unkrauttyp A ein anderes Pflanzenschutzmittel benötigen als ein Unkrauttyp B. Durch das Verfahren zum automatischen Labeln von Eingangsteilbildern werden - wie nachfolgend nach dargelegt wird -Trainingsbilder erzeugt, welche zum Trainieren oder Nachtrainieren von einem Unkrautanalysator zur Lokalisierung des Unkrauts und zur Klassifizierung des Unkrauts in Bezug auf einen Unkrauttyp in einem genutzt werden können. Das Verfahren dient somit zur technischen Vorbereitung des Einsatzes des Unkrautanalysators in der Landwirtschaft.It is an idea of the invention that in the future the crop protection agent should not only be applied to the field in a location-selective manner in order to achieve maximum protection of the crops with a minimal amount of crop protection agent. Rather, the corresponding agricultural equipment should have a plurality of plant protection products and corresponding spray devices, so that the plant protection product can be adapted to the respective weed type not only in a location-selective manner, but also in the type of plant protection product and/or in the amount of the plant protection product and can therefore be applied in a weed-type-selective manner . For example, a weed type A may require a different plant protection product than a weed type B. The method for automatically labeling input partial images generates training images - as will be explained below - which are used for training or retraining by a weed analyzer to localize the weeds and classify the weeds in relation to a weed type can be used in one. The process is therefore used for technical preparation for the use of the weed analyzer in agriculture.

Bei einer bevorzugten Ausgestaltung der Erfindung sind die Eingangsteilbilder zumindest zum Teil als ungelabelte Teilbilder ausgebildet. Insbesondere sind diese in Bezug auf eine Lokalisierung des Unkrauts und/oder des Unkrauttyps ungelabelt. Der Unkrautbestimmer ist ausgebildet, ergänzend zu dem Unkrauttyp die Lokalisierung des Unkrauts in dem Eingangsteilbild zu bestimmen. Das Eingangsteilbild wird somit mit dem Unkrauttyp und der Lokalisierung des Unkrauts gelabelt, um die gelabelten Ausgangsteilbilder zu erzeugen.In a preferred embodiment of the invention, the input partial images are at least partially designed as unlabeled partial images. In particular, these are unlabeled with regard to localization of the weed and/or weed type. The weed determiner is designed to determine the localization of the weed in the input partial image in addition to the weed type. The input subimage is thus labeled with the weed type and the location of the weed to generate the labeled output subimages.

Bei einer bevorzugten Weiterbildung der Erfindung werden die gelabelten Ausgangsteilbilder in einer Unkrautdatenbank abgelegt und/oder gesammelt. Für den Fall, dass die Eingangsteilbilder aus der Unkrautdatenbank entnommen sind, ist es bevorzugt, dass nur die Label auf die ohnehin vorhandenen Eingangsteilbilder übertragen werden und/oder vorhandene Label aktualisiert werden, um die gelabelten Ausgangsteilbilder in der Unkrautdatenbank zu erzeugen und/oder zu sammeln. Insbesondere weist die Unkrautdatenbank nur Teilbilder auf. Besonders bevorzugt ist in jedem Teilbild nur ein Unkraut mit dem Unkrauttyp gelabelt.In a preferred development of the invention, the labeled initial partial images are stored and/or collected in a weed database. In the event that the input sub-images are taken from the weed database, it is preferred that only the labels are transferred to the already existing input sub-images and/or existing labels are updated in order to generate and/or collect the labeled output sub-images in the weed database . In particular, the weed database only has partial images. It is particularly preferred that only one weed is labeled with the weed type in each partial image.

Die Unkrautdatenbank umfasst damit Trainingsbilder zum Trainieren und/oder Nachtrainieren des Unkrautanalysators.The weed database therefore includes training images for training and/or retraining the weed analyzer.

Bei einer bevorzugten Alternative oder Weiterbildung der Erfindung sind die Eingangsteilbilder zum Teil als vorgelabelte Teilbilder aus einer oder der Unkrautdatenbank ausgebildet. In den vorgelabelten Eingangsteilbildern ist die Lokalisierung eines erkannten, jedoch unspezifischen Unkrauts gelabelt. Somit ist es möglich mit dem Verfahren auf vorgelabelte Eingangsteilbilder zurückzugreifen, welche bereits bei dem Verfahren zum ortsselektiven Sprühen von Pflanzenschutzmitteln, jedoch ohne das unkrauttypspezifische Sprühen bereits eingesetzt wurden oder daraus erstellt wurden. Damit ist es nicht notwendig, eine Vielzahl von neuen ungelabelten Eingangsteilbildern zu beschaffen. Vielmehr können zum einen bereits vorhandene Eingangsteilbilder verwendet werden und zum anderen die bereits erfolgte Lokalisierung des erkannten, unspezifischen Unkrauts und damit das Vorlabeln der Eingangsteilbilder vorteilhaft ausgenutzt werden, da der Unkrautbestimmer sich fokussiert auf Positionen der Lokalisierung des bereits erkannten, unspezifischen Unkrauts konzentrieren kann. Der Unkrautbestimmer bestimmt den Unkrauttyp als Konkretisierung des unspezifischen Unkrauts auf Basis und/oder unter Verwendung der Lokalisierung des erkannten, unspezifischen Unkrauts. Die Ausgangsteilbilder weisen als Label die Lokalisierung des Unkrauts, insbesondere die Lokalisierung des Unkrauts der vorgelabelten Eingangsteilbilder, und den spezifischen Unkrauttyp auf.In a preferred alternative or development of the invention, the input partial images are partly designed as pre-labeled partial images from one or the weed database. The localization of a recognized but non-specific weed is labeled in the pre-labeled input sub-images. It is therefore possible with the method to use pre-labeled input partial images which have already been used or were created from the method for the location-selective spraying of plant protection products, but without the weed-type-specific spraying. This means that it is not necessary to procure a large number of new, unlabeled input subimages. Rather, on the one hand, existing input parts can be used images are used and, on the other hand, the localization of the recognized, non-specific weeds and thus the pre-labeling of the input partial images can be used advantageously, since the weed determiner can concentrate on positions of localization of the already recognized, non-specific weeds. The weed determiner determines the weed type as a specification of the non-specific weed based on and/or using the localization of the identified non-specific weed. The output sub-images have the localization of the weed as a label, in particular the localization of the weeds of the pre-labeled input sub-images, and the specific weed type.

Bei einer bevorzugten Weiterbildung der Erfindung wird der Unkrautbestimmer mit einer Teilmenge an Expertenbildern, umfassend Expertenteilbildern, trainiert, wobei die Expertenbilder durch Experten optional in Bezug auf den Unkrauttyp und optional auf die Lokalisierung des Unkrauts gelabelt sind. Auf diese Weise wird erreicht, dass der Unkrautbestimmer ein Grundtraining erhält, wobei für das Grundtraining die manuell gelabelten Expertenbilder verwendet werden. Somit ist es möglich, mit der Teilmenge an Expertenbildern zunächst den Unkrautbestimmer zu trainieren, nachfolgend aus den Eingangsteilbilder die gelabelten Ausgangsteilbilder zu erzeugen und nachfolgend auf Basis der gelabelten Ausgangsteilbilder, insbesondere aus der Unkrautdatenbank, den Unkrautanalysator zu trainieren und/oder nachzutrainieren.In a preferred development of the invention, the weed determiner is trained with a subset of expert images, comprising expert sub-images, the expert images being labeled by experts optionally with respect to the weed type and optionally with respect to the localization of the weed. In this way it is ensured that the weed detector receives basic training, with the manually labeled expert images being used for the basic training. It is therefore possible to first train the weed determiner with the subset of expert images, then to generate the labeled output sub-images from the input sub-images and then to train and/or retrain the weed analyzer on the basis of the labeled output sub-images, in particular from the weed database.

Die Expertenteilbilder können beschränkt auf das Label des Unkrauttyps und insbesondere ohne das Label für die Lokalisierung/Position des Unkrauts ausgebildet sein. In diesem Fall werden diese nur als Muster für den Unkrautbestimmer verwendet. Für den Fall, dass diese auch das Label zur Lokalisierung/Position des Unkrauts aufweisen, können diese mit den Expertenbildern, aus denen die Expertenteilbilder stammen, zusammengeführt werden, so dass gelabelte Expertenbilder vorliegen, die als Trainingsbilder für den Unkrautanalysator genutzt werden können.The expert partial images can be limited to the label of the weed type and in particular without the label for the localization/position of the weed. In this case these are only used as a sample for the weed determiner. In the event that these also have the label for the localization/position of the weed, they can be merged with the expert images from which the expert partial images come, so that labeled expert images are available that can be used as training images for the weed analyzer.

In der Architektur des neuronalen Netzwerks, wobei dieses als gefaltetes neuronales Netzwerk, insbesondere Convolutional Neural Network CNN, im Speziellen voll gefaltetes CNN/fully convolutional CNN ausgebildet ist oder dieses umfasst, hat es sich als besonders vorteilhat herausgestellt, dass das gefaltete neuronale Netzwerk mindestens eine Pooling-Schicht aufweist, wobei die mindestens eine Pooling-Schicht als eine Generalized Mean-Pooling-Schicht ausgebildet ist. Bevorzugt weist das gefaltete neuronale Netzwerk eine Mehrzahl an Pooling-Schichten auf, wobei einige, eine Mehrzahl oder alle der Pooling-Schichten als Generalized Mean Pooling-Schicht ausgebildet sind. Die Generalized-Mean Pooling-Schicht weist trainierbare Gewichte in den Feature-Maps auf, wobei die trainierbaren Gewichte durch Backpropagation trainiert werden.In the architecture of the neural network, which is designed as or includes a folded neural network, in particular a convolutional neural network CNN, in particular a fully convolutional CNN/fully convolutional CNN, it has proven to be particularly advantageous that the folded neural network has at least one Pooling layer, wherein the at least one pooling layer is designed as a generalized mean pooling layer. The folded neural network preferably has a plurality of pooling layers, with some, a majority or all of the pooling layers being designed as a generalized mean pooling layer. The generalized mean pooling layer has trainable weights in the feature maps, where the trainable weights are trained using backpropagation.

Beispielsweise werden als CNN AlexNet, VGG, oder ResNet verwendet, wobei deren vollverknüpfte Schicht verworfen wird. Bei dem Eingangsteilbild ist die Ausgabe ein 3D-Tensor X mit den Dimensionen W × H × K, wobei K die Anzahl der Merkmalskarten/feature maps in der letzten Schicht ist. Xk sei die Menge der W xH-Aktivierungen für die Merkmalskarte/feature map k ∈ {1 ... K}. Die Netzwerkausgabe besteht aus K solcher Aktivierungssätze oder 2D-Merkmalskarten/feature maps. Vorzugsweise ist die allerletzte Schicht als eine Rectified Lineare Einheit (ReLU) ausgebildet, so dass X nicht-negativ ist. Die Generalized Mean Pooling-Schicht übernimmt X als Eingabe und erzeugt einen Vektor f als Ausgabe des Pooling-Prozesses.For example, AlexNet, VGG, or ResNet are used as CNN, with their fully connected layer being discarded. Given the input subimage, the output is a 3D tensor X with dimensions W × H × K, where K is the number of feature maps in the last layer. Let Xk be the set of W xH activations for the feature map k ∈ {1 ... K}. The network output consists of K such activation sets or 2D feature maps. Preferably, the very last layer is designed as a Rectified Linear Unit (ReLU), so that X is non-negative. The Generalized Mean Pooling layer takes X as input and produces a vector f as the output of the pooling process.

Dieser Vektor f ist im Falle des konventionellen Global-Max-Pooling/MAC-Vektor gegeben durch f ( m ) = [ f 1 ( m ) f k ( m ) f K ( m ) ] T ,  f k ( m ) = max x X x ,

Figure DE102022206224A1_0001
In the case of the conventional global max pooling/MAC vector, this vector f is given by f ( m ) = [ f 1 ( m ) f k ( m ) f K ( m ) ] T , f k ( m ) = Max x X x ,
Figure DE102022206224A1_0001

Während dieser für eine Mittelwert-Pooling (SPoC-Vector) gegeben ist, durch f ( a ) = [ f 1 ( a ) f k ( a ) f K ( a ) ] T ,  f k ( a ) = 1 | X k | x X k x .

Figure DE102022206224A1_0002
While this is given for a mean value pooling (SPoC vector), by f ( a ) = [ f 1 ( a ) f k ( a ) f K ( a ) ] T , f k ( a ) = 1 | X k | x X k x .
Figure DE102022206224A1_0002

Stattdessen wird ein Generalized Mean Pooling (GeM)vorgeschlagen, gegeben durch f ( g ) = [ f 1 ( g ) f k ( g ) f K ( g ) ] T ,  f k ( g ) = ( 1 | X k | x X k x p k ) 1 p k .

Figure DE102022206224A1_0003
Instead, a Generalized Mean Pooling (GeM) is proposed, given by f ( G ) = [ f 1 ( G ) f k ( G ) f K ( G ) ] T , f k ( G ) = ( 1 | X k | x X k x p k ) 1 p k .
Figure DE102022206224A1_0003

Die Pooling-Methoden (1) und (2) sind Spezialfälle des GeM-Pooling gemäß (3), d. h. Global-Max-Pooling, wenn pk gegen unendlich geht 1 und Mittelwert-Pooling für pk = 1. Der Merkmalsvektor besteht schließlich aus einem einzigen Wert pro Merkmalskarte, d.h. der generalisierten mittleren Aktivierung, und seine Dimensionalität ist gleich K. Der Pooling-Parameter pk kann manuell eingestellt oder erlernt werden da diese Operation differenzierbar ist. Bevorzugt wird der Pooling-Parameter pk durch Backpropagation erlernt. Durch die Generalized Mean Pooling-Schicht ist der Unkrautbestimmer besonders leistungsfähig. Für weitere Details wird auf die Veröffentlichung Fine-tuning CNN Image Retrieval with No Human Annotation von Filip Radenovic, Giorgos, Tolias Ondrej Chum verwiesen, welche unter https://arxiv.org/pdf/1711.02512v2.pdf abrufbar ist und deren Offenbarung vollständig via Referenzierung übernommen wird.The pooling methods (1) and (2) are special cases of GeM pooling according to (3), i.e. global max pooling when pk approaches infinity 1 and mean pooling for pk = 1. The feature vector ultimately consists of a single value per feature map, i.e. the generalized mean activation, and its dimensionality is equal to K. The pooling parameter pk can be set manually or learned since this operation is differentiable. The pooling parameter pk is preferably learned through backpropagation. The generalized mean pooling layer makes the weed analyzer particularly powerful. For further details, please refer to the publication Fine-tuning CNN Image Retrieval with No Human Annotation by Filip Radenovic, Giorgos, Tolias Ondrej Chum, which is available at https://arxiv.org/pdf/1711.02512v2.pdf and the disclosure of which is taken over entirely via referencing.

In der Architektur des neuronalen Netzwerks, wobei dieses als gefaltetes neuronales Netzwerk, insbesondere convolutional neural network CNN, im Speziellen voll gefaltetes CNN/fully convolutional CNN ausgebildet ist oder dieses umfasst, ist es weiterhin bevorzugt, dass die Merkmale xi nach einer Normalisierung des Zentrums und des jeweiligen Merkmals mathematisch auf einer Hypersphäre verteilt werden, wobei das Zentrum die Position in der Hypersphäre des gelernten Merkmals beschreibt. Es ist vorgesehen, dass dem Merkmal xi nach der Transformation in der Hypersphäre ein geodätischer Abstand zwischen der Probe/dem Merkmal xi und dem Zentren als Additive Angular Margin Loss eingefügt wird, um eine Randstrafe zu erzeugen. Nach der Rücktransformation wird das Merkmal xi rückskaliert und zur Vorbereitung einer Verlustfunktion durch einen Softmax-Algorithmus, insbesondere einen Winkel-Softmax-Verlust weiterverarbeitet. Durch die Umsetzung der Additive Angular Margin Loss liegen die Merkmale xi näher an dem zugeordneten Zentrum und zugleich weiter von dem nächsten Zentrum entfernt. Details zu der Umsetzung des Additive Angular Margin Loss ergeben sich aus der Veröffentlichung: ArcFace: Additive Angular Margin Loss for Deep Face Recognition von Jiankang Deng, Jia Guo, Niannan Xue, abrufbar unter https://arxiv.org/pdf/1801.07698.pdf. Details zu dem Winkel-Softmax-Verlust ergeben sich aus der Veröffentlichung: SphereFace: Deep Hypersphere Embedding for Face Recognition von Weiyang Liu, Yandong Wen, Zhiding Yu, Ming Li, Bhiksha Raj, Le Song, abrufbar unter https://arxiv.org/pdf/1704.08063.pdf.In the architecture of the neural network, which is designed as or includes a folded neural network, in particular a convolutional neural network CNN, in particular a fully convolutional CNN/fully convolutional CNN, it is further preferred that the features x i after normalization of the center and the respective feature are mathematically distributed on a hypersphere, with the center describing the position in the hypersphere of the learned feature. It is envisaged that after the transformation in the hypersphere, a geodesic distance between the sample/feature xi and the center is added to the feature x i as an Additive Angular Margin Loss to generate a margin penalty. After the inverse transformation, the feature xi is rescaled and further processed to prepare a loss function by a softmax algorithm, in particular an angle softmax loss. By implementing the Additive Angular Margin Loss, the features x i are closer to the assigned center and at the same time further away from the next center. Details on the implementation of the Additive Angular Margin Loss can be found in the publication: ArcFace: Additive Angular Margin Loss for Deep Face Recognition by Jiankang Deng, Jia Guo, Niannan Xue, available at https://arxiv.org/pdf/1801.07698.pdf . Details about the angular softmax loss can be found in the publication: SphereFace: Deep Hypersphere Embedding for Face Recognition by Weiyang Liu, Yandong Wen, Zhiding Yu, Ming Li, Bhiksha Raj, Le Song, available at https://arxiv.org /pdf/1704.08063.pdf.

Bei einer möglichen Weiterbildung der Erfindung sind der Unkrautbestimmer und/oder die Unkrautdatenbank mit einer Bilderdatenbank mit einer Mehrzahl von Eingangsbildern als Ursprungsbilder verbunden. Die Eingangsteilbilder bilden einen Ausschnitt der Eingangsbilder. Es ist vorgesehen, dass die gelabelten Ausgangsteilbilder, welche auf den Eingangsteilbildern beruhen, mit den zugehörigen Eingangsbildern datentechnisch verbunden werden. Durch die datentechnische Verbindung wird erreicht, dass gelabelte Ausgangsbilder erzeugt werden, wobei die gelabelten Ausgangsbilder als Label die Lokalisierung des Unkrauts und den spezifischen Unkrauttyp aufweisen.In a possible development of the invention, the weed determiner and/or the weed database are connected to an image database with a plurality of input images as original images. The input partial images form a section of the input images. It is envisaged that the labeled output sub-images, which are based on the input sub-images, are data-technically connected to the associated input images. The data connection ensures that labeled source images are generated, with the labeled source images having the location of the weed and the specific weed type as a label.

Die datentechnische Verbindung kann durch das Label zur Lokalisierung umgesetzt werden, da dieses - wie oben erläutert - z.B. eine Position des Ausgangsteilbildes in dem Eingangsbild sein. Optional ergänzend kann das Label einen Pfad zu dem Eingangsbild aufweisen.The data connection can be implemented by the label for localization, since this - as explained above - can be, for example, a position of the output partial image in the input image. Optionally, the label can also have a path to the input image.

Anders ausgedrückt wird zunächst ein Ausschnitt von einem Eingangsbild erzeugt, wobei der Ausschnitt eines der Eingangsteilbilder darstellt. Nachfolgend wird dieses Eingangsteilbild mit dem zuvor beschriebenen Verfahren gelabelt, um das gelabelte Ausgangsteilbild zu erzeugen. Nachfolgend wird über die datentechnische Verbindung des ursprünglichen Eingangsbilds mit dem Label des gelabelten Ausgangsteilbilds versehen, um auf diese Weise das gelabelte Ausgangsbild zu erzeugen.In other words, a section of an input image is first generated, the section representing one of the input partial images. This input partial image is subsequently labeled using the previously described method in order to generate the labeled output partial image. Subsequently, the label of the labeled output partial image is provided via the data connection of the original input image in order to generate the labeled output image in this way.

Ein weiterer Gegenstand der Erfindung bildet eine Mehrzahl von Trainingsbildern, wobei die Trainingsbilder als die gelabelten Ausgangsteilbilder und/oder die gelabelten Ausgangsbilder ausgebildet sind, welche durch das Verfahren nach einem der vorhergehenden Ansprüche erzeugt sind. Optional ergänzend umfassen die Trainingsbilder auch die gelabelten Expertenbilder oder die Expertenteilbilder mit dem Label des Unkrauttyps.A further subject of the invention forms a plurality of training images, the training images being designed as the labeled initial partial images and/or the labeled initial images, which are generated by the method according to one of the preceding claims. Optionally, the training images also include the labeled expert images or the expert partial images with the label of the weed type.

Ein weiterer Gegenstand der Erfindung betrifft ein Verfahren zum Trainieren oder Nachtrainieren eines Unkrautanalysators, welcher auf einem neuronalen Netzwerk basiert, welcher zur Lokalisierung von Unkraut und/oder zur Klassifizierung von dem lokalisierten Unkraut in Bezug auf einen Unkrauttyp in einem Arbeitsbild ausgebildet ist, wobei der Unkrautanalysator auf Basis der Trainingsbilder trainiert und/oder nachtrainiert wird.A further subject of the invention relates to a method for training or retraining a weed analyzer, which is based on a neural network, which is designed to localize weeds and/or to classify the localized weeds in relation to a weed type in a working image, wherein the weed analyzer is trained and/or retrained based on the training images.

Ein weiterer Gegenstand der Erfindung wird durch eine Analysevorrichtung zur Analyse eines Arbeitsbilds gebildet. In dem Arbeitsbild können Nutzpflanzen und Unkraut dargestellt sein. Die Vorrichtung weist den Unkrautanalysator oder den Unkrautbestimmer auf, welcher als ein neuronales Netzwerk, insbesondere als ein CNN ausgebildet ist oder dieses umfasst. Der Unkrautanalysator und/oder der Unkrautbestimmer ist nach einem der vorhergehenden Verfahren trainiert. Die Analysevorrichtung ist zur Montage auf einem landwirtschaftlichen Fahrzeug oder Gerät ausgebildet, wobei die Analysevorrichtung eine Ausgangsschnittstelle zur Ausgabe von Daten zu der Lokalisierung des Unkrauts und des Unkrauttyps aufweist. Das landwirtschaftliche Fahrzeug oder Gerät ist ausgebildet, ein ortsselektives und unkrauttypspezifisches Sprühen von Pflanzenschutzmitteln auf Basis der Daten umzusetzen. Hierfür weist dieses z.B. eine Pflanzenschutzmittelverteileinrichtung, welche in Abhängigkeit der Lokalisierung des Unkrauts und des Unkrauttyps Planzenschutzmittel aus einer Mehrzahl von Pflanzenschutzmitteln unkrauttypselektiv oder -abhängig auswählt oder mischt und ortsselektiv, in Abhängigkeit der Lokalisierung des Unkrauts ausbringt. Auf diese Weise kann Pflanzenschutzmittel eingespart werden, da dieses nur ortsselektiv und unkrauttypselektiv auf das Unkraut gesprüht wird.Another subject of the invention is an analysis device for analyzing a working image. Crops and weeds can be shown in the working image. The device has the weed analyzer or the weed determiner, which is designed as or includes a neural network, in particular as a CNN. The weed analyzer and/or the weed determiner is trained according to one of the preceding methods. The analysis device is designed to be mounted on an agricultural vehicle or device, the analysis device having an output interface for outputting data on the location of the weed and the weed type. The agricultural vehicle or device is designed to implement site-selective and weed-type-specific spraying of plant protection products based on the data. For this purpose, for example, it has a plant protection product distribution device which, depending on the location of the weed and the type of weed, selects or mixes plant protection products from a plurality of plant protection products in a weed-type-selective or weed-dependent manner and applies them locally, depending on the location of the weed. In this way, plant protection products can be saved because they are only sprayed onto the weeds in a location-selective and weed-type-selective manner.

Ein optionaler Gegenstand wird durch das landwirtschaftliche Fahrzeug oder Gerät mit der Analysevorrichtung gebildet. Insbesondere weist das landwirtschaftliche Fahrzeug oder Gerät Feldspritzen als Teil der Pflanzenschutzmittelverteileinrichtung auf, wobei es möglich ist, aus verschiedenen mitgeführten Pflanzenschutzmittel bspw. an den jeweiligen Düsen auszuwählen und zu mischen und/oder mit Wasser zu verdünnen, um dieses unkrauttypspezifisch auszubringen.An optional item is formed by the agricultural vehicle or device with the analysis device. In particular, the agricultural vehicle or device has field sprayers as part of the crop protection agent distribution device, whereby it is possible to select from various crop protection agents carried, for example at the respective nozzles, and to mix them and/or dilute them with water in order to apply them in a weed-specific manner.

Einen weiteren Gegenstand der Erfindung bildet ein Computerprogramm, wobei das Computerprogramm ausgebildet und/oder eingerichtet ist, bei seiner Ausführung das erfindungsgemäße Verfahren und/oder die Schritte des Verfahrens auszuführen, anzuwenden und/oder zu implementieren.A further subject of the invention is a computer program, wherein the computer program is designed and/or set up to carry out, apply and/or implement the method according to the invention and/or the steps of the method when it is executed.

Einen weiteren Gegenstand der Erfindung bildet ein maschinenlesbares Speichermedium, wobei auf dem Speichermedium das Computerprogramm gespeichert ist.A further subject of the invention is a machine-readable storage medium, the computer program being stored on the storage medium.

Weitere Vorteile, Wirkungen und/oder Ausgestaltungen ergeben sich aus den beigefügten Figuren und deren Beschreibung. Dabei zeigen:

  • 1 ein Blockdiagramm zur Illustration eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens;
  • 2 ein Blockdiagramm einer Analysevorrichtung mit einem Unkrautanalysator ausgebildet als ein gefaltetes neuronales Netzwerk, welches mit Trainingsbildern aus dem Verfahren gemäß 1 trainiert ist;
  • 3 eine schematische Darstellung des gefalteten neuronalen Netzwerks des Unkrautbestimmers;
  • 4 eine schematische Darstellung von einem Teil des gefalteten neuronalen Netzwerks des Unkrautbestimmers.
Further advantages, effects and/or refinements result from the attached figures and their description. Show:
  • 1 a block diagram to illustrate an exemplary embodiment of the method according to the invention;
  • 2 a block diagram of an analysis device with a weed analyzer designed as a folded neural network, which uses training images from the method according to 1 is trained;
  • 3 a schematic representation of the convolutional neural network of the weed determiner;
  • 4 a schematic representation of part of the convolutional neural network of the weed determiner.

Die 1 zeigt in einem schematischen Blockdiagramm ein Verfahren zum automatischen Labeln von Eingangsteilbildern 1. Die Eingangsteilbilder 1 werden mit einem Label L1 zur Lokalisierung von einem Unkraut und einem Label L2 für einen Unkrauttyp des Unkrauts versehen und bilden gelabelte Ausgangsteilbilder 2. Der Unkrauttyp beschreibt die Unkrautart und/oder die Unkrautgattung, also den konkreten Namen des Unkrauts. In dem gelabelten Ausgangsteilbild 2 sind mit den Labeln L1 und L2 die Lokalisierung des Unkrauts und der Unkrauttyp bekannt. Die Label L1 und L2 können auch als ein gemeinsames Label oder ein Labelsatz ausgebildet sein. Das Label L1 beschreibt die Lokalisierung und das Label L2 die Objekt-Klasse (bspw. Unkraut oder Nutzpflanze). D.h. es gibt ein Labelsatz mit mehreren Parametern: die Position der Bounding Box im Bild (x,y), die Breite (w) und Höhe (h) der Bounding Box als Label L1 und die Klasse des Objektes (cls), die den Unkrauttyp beschreibt, als Label L2. Das Label L1 kann auch die Position des Eingangsteilbilds und/oder des Ausgangsteilbilds in dem Eingangsbild sowie einen Pfad oder einen Link zu dem Eingangsbild umfassen.The 1 shows in a schematic block diagram a method for automatically labeling input sub-images 1. The input sub-images 1 are provided with a label L1 for locating a weed and a label L2 for a weed type of the weed and form labeled output sub-images 2. The weed type describes the type of weed and/or or the weed genus, i.e. the specific name of the weed. In the labeled initial partial image 2, the location of the weed and the weed type are known with the labels L1 and L2. The labels L1 and L2 can also be designed as a common label or a set of labels. The L1 label describes the location and the L2 label describes the object class (e.g. weed or crop). Ie there is a label set with several parameters: the position of the bounding box in the image (x,y), the width (w) and height (h) of the bounding box as label L1 and the class of the object (cls), which is the weed type describes, as label L2. The label L1 may also include the position of the input field and/or the output field in the input image as well as a path or a link to the input image.

Das Verfahren verwendet einen Unkrautbestimmer 3, wobei der Unkrautbestimmer 3 als ein gefaltetes neuronales Netzwerk (CNN) ausgebildet ist oder dieses umfasst. Die Eingangsteilbilder 1 werden einer Eingangsschicht des Unkrautbestimmers 3 bereitgestellt.The method uses a weed determiner 3, wherein the weed determiner 3 is designed as or includes a folded neural network (CNN). The input partial images 1 are provided to an input layer of the weed determiner 3.

Die Eingangsteilbilder 1 sind zumindest zum Teil als ungelabelte Teilbilder 4 ausgebildet, welche zumindest keine Label L1, L2 hinsichtlich der Lokalisierung und des Unkrauttyps tragen. Alternativ hierzu können die Eingangsbilder 1 als vorgelabelte Bilder 5 ausgebildet sein, wobei zumindest das Label L1 zur Lokalisierung von einem Unkraut in dem Teilbild 5 vorgesehen ist.The input partial images 1 are at least partially designed as unlabeled partial images 4, which at least do not carry any labels L1, L2 with regard to the localization and the weed type. Alternatively, the input images 1 can be designed as pre-labeled images 5, with at least the label L1 being provided for locating a weed in the partial image 5.

Für den Fall, dass die Eingangsteilbilder 1 als ungelabelte Teilbilder 5 ausgebildet sind, ist der Unkrautbestimmer 3 ausgebildet, sowohl die Lokalisierung des Unkrauts zu bestimmen als auch den Unkrauttyp zu bestimmen und die Label L1 und L2 zu annotieren. Für den Fall, dass die Eingangsteilbilder 1 als vorgelabelte Teilbilder 5 ausgebildet sind, kann das Label L1 der Lokalisierung des Unkrauts eine Eingangsinformation für den Unkrautbestimmer 3 bilden, wobei der Unkrautbestimmer 3 nur den Unkrauttyp für das Label L2 bestimmt.In the event that the input partial images 1 are designed as unlabeled partial images 5, the weed determiner 3 is designed to determine both the localization of the weed and to determine the weed type and to annotate the labels L1 and L2. In the event that the input partial images 1 are designed as pre-labeled partial images 5, the label L1 of the localization of the weed can form input information for the weed determiner 3, whereby the weed determiner 3 only determines the weed type for the label L2.

In beiden Fällen weist das Ausgangsteilbild 2 das Label L1 und das Label L2 auf. Es kann auch vorgesehen sein, dass ein erster Unkrautbestimmer 3 für ungelabelte Teilbilder 4 und ein zweiter Unkrautbestimmer 3 für die vorgelabelten Teilbilder 5 ausgebildet ist. Die Eingangsteilbilder 1 können zum einen zum Beispiel als Ausschnitte von einer Sammlung von Eingangsbildern 17 oder von einer Kamera stammen.In both cases, the output subimage 2 has the label L1 and the label L2. It can also be provided that a first weed determiner 3 is designed for unlabeled partial images 4 and a second weed determiner 3 for the pre-labeled partial images 5. The input partial images 1 can come, for example, as excerpts from a collection of input images 17 or from a camera.

Alternativ hierzu stammen diese aus einer Unkrautdatenbank 6, wobei die Unkrautdatenbank 6 eine Vielzahl von Eingangsteilbildern 1 bzw. Teilbilder 5 umfasst. Dabei können die Eingangsteilbilder 1 sowohl als ungelabelte Teilbilder 4 als auch als vorgelabelte Teilbilder 5 ausgebildet sind. Der Unkrautbestimmer 3 kann zum einen eingesetzt werden, um ein Eingangsteilbild 1 zu verarbeiten und das Ausgangsteilbild 2 direkt auszugeben. Es kann jedoch auch vorgesehen sein, dass der Unkrautbestimmer 3 sich ein Eingangsteilbild 1 aus der Unkrautdatenbank 6 nimmt, welches als ein ungelabeltes Teilbild 4 oder als ein vorgelabeltes Teilbild 5 ausgebildet ist, die Label ergänzt, so dass das gelabelte Ausgangsteilbild 2 gebildet wird und das gelabelte Ausgangsteilbild 2 wieder in die Unkrautdatenbank 6 eingepflegt wird. Mit dieser Vorgehensweise ist es möglich, eine bereits bestehende Unkrautdatenbank 6 hinsichtlich des Labels L1 des Unkrauttyps zu ergänzen.Alternatively, these come from a weed database 6, the weed database 6 comprising a large number of input partial images 1 or partial images 5. The input partial images 1 can be designed both as unlabeled partial images 4 and as pre-labeled partial images 5. On the one hand, the weed determiner 3 can be used to process an input partial image 1 and to output the output partial image 2 directly. However, it can also be provided that the weed determiner 3 takes an input partial image 1 from the weed database 6, which is designed as an unlabeled partial image 4 or as a pre-labeled partial image 5, which supplements the label, so that the labeled output Partial image 2 is formed and the labeled initial partial image 2 is entered back into the weed database 6. With this procedure it is possible to supplement an already existing weed database 6 with regard to the label L1 of the weed type.

Der Unkrautbestimmer 3 wird insbesondere durch Expertenbilder 7 umfassend Expertenteilbilder trainiert, welche manuell gelabelt worden sind, insbesondere in Bezug auf die Lokalisierung des Unkrauts und des Unkrauttyps.The weed determiner 3 is trained in particular by expert images 7 comprising expert sub-images, which have been manually labeled, in particular with regard to the localization of the weed and the weed type.

Bei dem gezeigten Aufbau ist es nicht nur möglich, dass die Unkrautdatenbank 6 weiter gefüllt und verbessert wird. Es ist auch möglich, dass Eingangsbilder 17 aus einer weiteren Bilddatenbank oder Bildsammlung mit bereits vorgelabelten Eingangsteilbildern 5 über den Unkrautbestimmer 3 nachbearbeitet werden und in gelabelte Ausgangsbilder 18 überführt werden. Hierzu existiert eine datentechnische Verbindung zwischen Eingangsbild 17, dem vorgelabelten Eingangsteilbild 5 und dem gelabelten Ausgangsteilbild 2.With the structure shown, it is not only possible for the weed database 6 to be further filled and improved. It is also possible for input images 17 from another image database or image collection with already pre-labeled input partial images 5 to be post-processed via the weed determiner 3 and converted into labeled output images 18. For this purpose, there is a data connection between input image 17, the pre-labeled input partial image 5 and the labeled output partial image 2.

Dabei ist es in einer Variante möglich, dass das Eingangsbild 17 mit dem vorgelabelten Eingangsteilbild 5 durch den Unkrautbestimmer 3 nachgelabelt wird, indem zunächst das gelabelte Ausgangsteilbild 2 erzeugt wird und die Label L1 und L2 dem Eingangsbild 17 zugeordnet werden, um das gelabelte Ausgangsbild 18 zu erzeugen. Eingangsbild 17 und das Ausgangsbild 18 haben den gleichen Bildinhalt und unterscheiden sich nur durch die Label L1 und L2.In one variant, it is possible for the input image 17 to be re-labeled with the pre-labeled input partial image 5 by the weed determiner 3 by first generating the labeled output partial image 2 and assigning the labels L1 and L2 to the input image 17 in order to create the labeled output image 18 generate. Input image 17 and output image 18 have the same image content and only differ in the labels L1 and L2.

In einer anderen Variante wird ein vorgelabeltes Eingangsteilbild 5 in der Unkrautdatenbank 6 nachgelabelt, um das gelabelte Ausgangsteilbild 2 zu erzeugen. Durch eine datentechnische Verbindung zu dem ursprünglichen Eingangsbild 17 werden die Label L1 und L2 in dem ursprünglichen Eingangsbild 17 annotiert, um das gelabelte Ausgangsbild 18 zu erzeugen.In another variant, a pre-labeled input partial image 5 is re-labeled in the weed database 6 in order to generate the labeled output partial image 2. Through a data connection to the original input image 17, the labels L1 and L2 are annotated in the original input image 17 in order to generate the labeled output image 18.

Die 2 zeigt in einem schematischen Blockdiagramm eine Analysevorrichtung 8, wobei die Analysevorrichtung 8 zur Montage auf einem landwirtschaftlichen Fahrzeug oder Gerät ausgebildet ist. Die Analysevorrichtung 8 ist über eine Eingangsschnittstelle 9 mit einer Kamera 10 verbindbar, welche online und/oder in Echtzeit Arbeitsbilder als Eingangsbilder 1 aufnimmt und bereitstellt. Die Analysevorrichtung 8 weist einen Unkrautanalysator 11 auf, welcher als ein neuronales Netzwerk, insbesondere ein CNN ausgebildet ist oder dieses umfasst.The 2 shows an analysis device 8 in a schematic block diagram, the analysis device 8 being designed for mounting on an agricultural vehicle or device. The analysis device 8 can be connected via an input interface 9 to a camera 10, which records and provides working images as input images 1 online and/or in real time. The analysis device 8 has a weed analyzer 11, which is designed as or includes a neural network, in particular a CNN.

Der Unkrautanalysator 11 lokalisiert etwaiges Unkraut in dem Eingangsbild 1 und bestimmt den Unkrauttyp des lokalisierten Unkrauts. Die Analysevorrichtung 8 weist eine Ausgangsschnittstelle 12 zur Ausgabe von Daten zu der Lokalisierung des Unkrauts und des Unkrauttyps in dem Eingangsbild 1 auf. Die Daten werden an eine Pflanzenschutzmittelverteileinrichtung 13 weitergeleitet, wobei die Pflanzenschutzmittelverteileinrichtung 13 Pflanzenschutzmittel zum einen ortsselektiv und zum anderen unkrauttypselektiv ausgeben kann.The weed analyzer 11 locates any weeds in the input image 1 and determines the weed type of the located weeds. The analysis device 8 has an output interface 12 for outputting data on the localization of the weed and the weed type in the input image 1. The data is forwarded to a plant protection product distribution device 13, whereby the plant protection product distribution device 13 can issue plant protection products on the one hand in a location-selective manner and on the other hand in a weed-type-selective manner.

So kann die Pflanzenschutzmittelverteileinrichtung 13 durch eine oder mehrere Sprühdüsen zum einen das Pflanzenschutzmittel gezielt auf das lokalisierte Unkraut richten (ortsselektiv) und zum anderen selektiv ein Pflanzenschutzmittel auswählen oder mischen, welches für den Unkrauttyp geeignet ist (unkrauttypselektiv). Insbesondere verfügt die Pflanzenschutzmittelverteileinrichtung 13 über mehr als zwei, vorzugsweise mehr als vier unterschiedliche Pflanzenschutzmittel.The plant protection agent distribution device 13 can, on the one hand, use one or more spray nozzles to direct the plant protection agent specifically to the localized weeds (location-selective) and, on the other hand, to selectively select or mix a plant protection agent that is suitable for the weed type (weed-type-selective). In particular, the plant protection agent distribution device 13 has more than two, preferably more than four, different plant protection agents.

Es ist vorgesehen, dass der Unkrautanalysator 11 durch Ausgangsteilbilder 2 des Unkrautbestimmers 3 und/oder durch die über den Unkrautbestimmer 3 gelabelten Ausgangsbilder 18 trainiert ist. Dabei können die Ausgangsteilbilder 2 unmittelbar von dem Unkrautbestimmer 3 übernommen werden oder über die Unkrautdatenbank 6 bereitgestellt werden. Die über den Unkrautbestimmer 3 gelabelten Ausgangsbilder 18 können aus der Bilderdatenbank oder der Bildersammlung entnommen werden. Alternativ zu dem Unkrautanalysator 11 kann auch der Unkrautbestimmer 3 in der Analysevorrichtung 8 verwendet werden.It is envisaged that the weed analyzer 11 is trained by output partial images 2 of the weed determiner 3 and/or by the output images 18 labeled via the weed determiner 3. The initial partial images 2 can be taken over directly by the weed determiner 3 or made available via the weed database 6. The initial images 18 labeled via the weed determiner 3 can be taken from the image database or the image collection. As an alternative to the weed analyzer 11, the weed determiner 3 can also be used in the analysis device 8.

Die 3 zeigt in einem schematischen Diagramm ein gefaltetes neuronales Netzwerk (CNN) 14 als Ausführungsbeispiel für den Unkrautbestimmer 3. Grob beschrieben wird das Eingangsteilbild 1 einer Eingangsschicht des Netzwerkes 14 übergeben. Das Netzwerk 14 weist eine Mehrzahl von Faltungsschichten 15 auf, wobei sich mindestens eine Pooling-Schicht, insbesondere als Ausgangsschicht, anschließt. Die Pooling-Schicht ist als eine eine generalized mean-Pooling-Schicht 16 ausgebildet, wie diese zuvor bereits beschrieben wurde. Die Generalized-Mean Pooling-Schicht 16 weist trainierbare Gewichte in den Feature-Maps auf, wobei die trainierbaren Gewichte durch Backpropagation trainiert werden. Durch das Training der Generalized-Mean Pooling-Schicht 16 kann der Unkrautbestimmer 3 besonders gut angepasst werden.The 3 shows a schematic diagram of a folded neural network (CNN) 14 as an exemplary embodiment of the weed determiner 3. Roughly described, the input partial image 1 is transferred to an input layer of the network 14. The network 14 has a plurality of convolution layers 15, followed by at least one pooling layer, in particular as an output layer. The pooling layer is designed as a generalized mean pooling layer 16, as already described previously. The generalized mean pooling layer 16 has trainable weights in the feature maps, the trainable weights being trained by backpropagation. By training the generalized mean pooling layer 16, the weed determiner 3 can be adapted particularly well.

In der 4 ist der Abschnitt des gefalteten neuronalen Netzwerks 14 des Unkrautbestimmers 3 nach der eine Generalized Mean-Pooling-Schicht 16 dargestellt. Auf der Grundlage des Merkmals xi und der Normalisierung des Gewichts W erhält man den cosθj (logit) für jede Klasse als WT jxi. Nachfolgend wird der arccos(cosθyi) berechnet und man erhält den Winkel zwischen dem Merkmal xi und der Grundwahrheitsgewicht Wyi. Wj bildet eine Art Zentrum für jede Klasse. Nachfolgend wird ein Winkelabschlag oder eine Randstrafe m dem Winkel θyi hinzugefügt. Danach wird cos(θyi + m) berechnet und es werden alle Logits mit der Merkmalsskala s multipliziert. Die Logits durchlaufen dann eine Softmax Funktion und tragen zum Kreuzentropieverlust bei. Durch die Ergänzung der Randstrafe m können Klassen durch den Unkrautbestimmer 3 besonders gut abgegrenzt werden.In the 4 is the section of the folded neural network 14 of the weed determiner 3 after which a generalized mean pooling layer 16 is shown. Based on the feature xi and normalizing the weight W, the cosθj (logit) for each class is obtained as W T j x i . The arccos(cosθ yi ) is then calculated and the angle between the feature xi and the is obtained Ground truth weight W yi . W j forms a kind of center for each class. Subsequently, an angle penalty or edge penalty m is added to the angle θ yi . Then cos(θ yi + m) is calculated and all logits are multiplied by the feature scale s. The logits then go through a softmax function and contribute to the cross-entropy loss. By adding the marginal penalty m, classes can be particularly well delimited by the weed determiner 3.

Besondere Vorteile ergeben sich insbesondere durch eine Aufwandsreduktion bzw. eine Reduktion der notwendigen Expertise zum Labeling von Bildern von Nutzpflanzungen mit und ohne verschiedenste Unkrautarten / Unkrautgattungen. Es wird ein Verfahren zum automatischen Labeln von Bildern bzgl. konkreter Unkrautarten bzw. Unkrautgattungen vorgestellt. Schlüsselkomponente ist ein sogenannter „Weed Hunter“, der Unkrautbestimmer 3, - ein CNN mit trainierbarer Generalized Mean Pooling-Schicht 16, welche mit Winkel-Softmax-Verlust und Additive Angular Margin Loss anhand einer begrenzten Anzahl an von Experten gelabelter Bilder (Expertenbildern 7) bzgl. einer (oder auch mehrerer) bestimmten Unkrautart(en) bzw. Unkrautgattung(en) (z.B. „Conyza Sample Image) trainiert werden. Der trainierte „Weed Hunter“ kann eine vorhandene Bilddatenbank als Unkrautdatenbank 6 mit Teilbildern von Nutzpflanzungen mit und ohne verschiedenste Unkrautarten / Unkrautgattungen nachträglich bzgl. konkreter Unkrautarten / Unkrautgattungen automatisch neu labeln und die Bilddatenbank nachträglich diesbezüglich strukturiert werden oder aktuelle Teilbilder labeln, die dann in der Bilddatenbank gespeichert werden können.Particular advantages arise in particular from a reduction in effort or a reduction in the expertise required for labeling images of crops with and without a wide variety of weed species/weed genera. A method for automatically labeling images with regard to specific weed species or weed genera is presented. The key component is a so-called “weed hunter”, the weed determiner 3, - a CNN with a trainable generalized mean pooling layer 16, which with angular softmax loss and additive angular margin loss based on a limited number of images labeled by experts (expert images 7) with regard to one (or several) specific weed species or weed genus (e.g. “Conyza Sample Image”). The trained “Weed Hunter” can automatically re-label an existing image database as a weed database 6 with partial images of crop plantings with and without a wide variety of weed species / weed genera with regard to specific weed species / weed genera and subsequently structure the image database in this regard or label current partial images, which are then stored in the Image database can be saved.

Die somit über eine Ähnlichkeitssuche gefunden Bilder (Gruppen) sind die Basis für das Training bzw. Nachtraining des Objektdetektors bzw. Klassifikators zur Unkrauterkennung (Unkrautanalysators) auf dem Sprayer. Der Vorteil ist eine deutliche Aufwandreduzierung des Labelings von Bilddaten von Nutzpflanzungen mit und ohne verschiedenste Unkrautarten / Unkrautgattungen durch notwendige Pflanzen / Unkraut Experten. Der „Weed Hunter“ beinhaltet im Wesentlichen ein CNN mit trainierbarer GeM (Generalized Mean) Pooling Schicht (16). Die Ähnlichkeitssuche (und quasi am Ende die gefunden Merkmale / Abstände = „Training“) erfolgt mit Winkel- Softmax-Verlust für CNNs (bspw. A-Softmax-Verlust) und Additive Angular Margin Loss anhand einer begrenzten Anzahl an von Experten gelabelte Bilder (Expertenbilder 7) bzgl. einer (oder auch mehrerer) bestimmten Unkrautart(en) bzw. Unkrautgattung(en) („Conyza Sample Image). Nun lässt sich das Verfahren des „trainierten Weed Hunter“ auf zwei verschiedene Weisen getrennt oder parallel anwenden.The images (groups) found via a similarity search are the basis for training or retraining the object detector or classifier for weed detection (weed analyzer) on the sprayer. The advantage is a significant reduction in the effort involved in labeling image data of crops with and without a wide variety of weed species/weed genera by the necessary plant/weed experts. The “Weed Hunter” essentially contains a CNN with a trainable GeM (Generalized Mean) pooling layer (16). The similarity search (and at the end the features/distances found = “training”) is carried out with angular softmax loss for CNNs (e.g. A-softmax loss) and additive angular margin loss using a limited number of images labeled by experts ( Expert images 7) regarding one (or several) specific weed species or weed genus (“Conyza Sample Image). Now the “trained weed hunter” process can be used in two different ways, separately or in parallel.

Variante 1:Version 1:

Ausschnitte von aktuell aufgenommenen und übertragenen Eingangsbilder 17 z.B. von den Kameras des Sprayers als ungelabelte Eingangsteilbilder 5 werden mit dem „Weed Hunter“ auf Ähnlichkeit geprüft (Image Retrieval) und bei Ähnlichkeit entsprechend der erkannten Unkrautart(en) bzw. Unkrautgattung(en) gelabelt und in der Unkrautdatenbank 6 abgelegt. D.h. die Unkrautdatenbank 6 wird mit bzgl. einer (oder auch mehrerer) bestimmten Unkrautart(en) bzw. Unkrautgattung(en) gelabelten Bildern gefüllt.Excerpts from currently recorded and transmitted input images 17, for example from the sprayer's cameras as unlabeled input partial images 5, are checked for similarity using the "Weed Hunter" (image retrieval) and, if similar, are labeled according to the recognized weed species or weed genus(s). stored in the weed database 6. This means that the weed database 6 is filled with images labeled with respect to one (or several) specific weed species or weed genus(s).

Variante 2:Variant 2:

In der Unkrautdatenbank existieren Teilbilder mit und ohne Unkraut, die aber nicht genauer bzgl. konkreter Unkrautart(en) oder Unkrautgattung(en) als Unkrauttyp gelabelt sind. Das entspricht aktuell dem Vorgehen, wobei alle Pflanzen die nicht der bestimmten Nutzpflanze entsprechen, erst einmal ganz allgemein und unspezifisch als Unkraut gelabelt werden. Werden nun nachträglich eine begrenzte Anzahl an Teilbildern aus oder außerhalb der Unkrautdatenbank von Experten bzgl. einer (oder auch mehrerer) bestimmten Unkrautart(en) bzw. Unkrautgattung(en) („Conyza Sample Image“) als Unkrauttyp L2 gelabelt und der „Weed Hunter“ mit diesen Expertenbilder 7 trainiert, so können mit dem trainierten „Weed Hunter“ alle Unkrautbilder in der Datenbank auf Ähnlichkeit untersucht werden und nachträglich konkret bzgl. einer (oder auch mehrerer) bestimmten Unkrautart(en) bzw. Unkrautgattung(en) als Unkrauttyp neu gelabelt werden.In the weed database there are partial images with and without weeds, but they are not labeled as a weed type with more specificity regarding specific weed species or weed genus. This corresponds to the current procedure, whereby all plants that do not correspond to the specific crop are initially labeled as weeds in a very general and non-specific manner. A limited number of partial images from or outside the weed database are now subsequently labeled by experts regarding one (or several) specific weed species or weed genus (“Conyza Sample Image”) as weed type L2 and the “Weed Hunter “ trained with these expert images 7, the trained “Weed Hunter” can be used to examine all weed images in the database for similarity and subsequently re-identify one (or more) specific weed species or weed genus as a weed type be labeled.

Mit den durch die Experten und den „Weed Hunter“ gelabelten Teilbilder können Objektdetektoren bzw. Klassifikatoren als Unkrautanalysator 11 zur spezifischen Unkrauterkennung und Lokalisierung trainiert bzw. spezifischer nachtrainiert werden. Dadurch kann der Aufwand bzgl. Labeling von Bilddaten als auch Zeit und Kosten für Pflanzen - Experten gespart werden. Pflanzenschutzmittel können selektiver ausgewählt werden und dadurch Umwelt und Natur schonen. Da das Training der Objektdetektoren bzw. Klassifikatoren zur Erkennung von Unkräutern offline erfolgt sind der „Weed Hunter“ und die Unkrautdatenbank vorzugsweise im Back End eines Service Providers (Cloud, Server, PC) des erfindungsgemäßen Verfahrens implementiert. Die aktuellen Bilder von Nutzpflanzungen mit / ohne Unkräuter können drahtlos dorthin übertragen werden oder aber auf dem Sprayer gesammelt / gespeichert und mittels Datenträger ausgelesen und zum Service Provider transportiert werden. Besonders hervorzuheben ist mit dem Vorliegen von neuen Unkrautart- bzw. Unkrautgattung - Teilbildern können alte / vormalige Unkrautart- bzw. Unkrautgattung- Teilbilder neu gelabelt werden. Bzw. bei Verfügbarkeit von Experten bzw. neuem Wissen für bestimmte Unkrautarten bzw. Unkrautgattungen kann nachträglich das Labeling verbessert werden (ReRanking). Das Verfahren kann auch auf Pflanzenkrankheiten angewendet bzw. erweitert werden.With the partial images labeled by the experts and the “Weed Hunter”, object detectors or classifiers can be trained or more specifically retrained as weed analyzers 11 for specific weed detection and localization. This saves the effort involved in labeling image data as well as time and costs for plant experts. Plant protection products can be selected more selectively and thereby protect the environment and nature. Since the training of the object detectors or classifiers to detect weeds is carried out offline, the “weed hunter” and the weed database are preferably implemented in the back end of a service provider (cloud, server, PC) of the method according to the invention. The current images of crops with/without weeds can be transmitted wirelessly or collected/stored on the sprayer and read out using a data storage medium and transported to the service provider. Particularly noteworthy is that when new weed species or weed genus partial images are available, old/former weed species or weed genus partial images can be relabeled. Or when available With the help of experts or new knowledge for certain weed species or weed genera, labeling can be subsequently improved (reranking). The process can also be applied or extended to plant diseases.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • EP 3815529 A1 [0003]EP 3815529 A1 [0003]

Claims (14)

Verfahren zum automatischen Labeln von Eingangsteilbildern (1) mit einem Unkrauttyp eines Unkrauts und zur Erzeugung von gelabelten Ausgangsteilbildern (2), mit einem Unkrautbestimmer (3), wobei der Unkrautbestimmer (3) auf einem neuronalen Netz basiert und wobei der Unkrautbestimmer (3) in den Eingangsteilbildern (1) den Unkrauttyp des Unkrauts bestimmt, wobei die Eingangsteilbilder (1) zumindest mit dem Unkrauttyp gelabelt werden und die gelabelten Ausgangsteilbilder (2) als Label (L1, L2) eine Lokalisierung des Unkrauts und den Unkrauttyp umfassen.Method for automatically labeling input sub-images (1) with a weed type of a weed and for generating labeled output sub-images (2), with a weed determiner (3), the weed determiner (3) being based on a neural network and the weed determiner (3) determining the weed type of the weed in the input sub-images (1), wherein the input partial images (1) are labeled at least with the weed type and the labeled output partial images (2) include a localization of the weed and the weed type as a label (L1, L2). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Eingangsteilbilder (1) zumindest zum Teil als ungelabelte Teilbilder (4) ausgebildet sind, wobei der Unkrautbestimmer (3) ausgebildet ist, ergänzend zu dem Unkrauttyp die Lokalisierung des Unkrauts zu bestimmen und wobei die Eingangsteilbilder (1) ergänzend zu dem Unkrauttyp mit der Lokalisierung des Unkrauts gelabelt werden, um die gelabelten Ausgangsteilbilder (2) zu erzeugen.Procedure according to Claim 1 , characterized in that the input partial images (1) are at least partially designed as unlabeled partial images (4), the weed determiner (3) being designed to determine the localization of the weed in addition to the weed type and the input partial images (1) in addition to the weed type can be labeled with the localization of the weed in order to generate the labeled initial partial images (2). Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die gelabelten Ausgangsteilbilder (2) in einer Unkrautdatenbank (6) abgelegt und/oder gesammelt werden und/oder dass die ungelabelten Eingangsteilbilder (4) aus einer oder der Unkrautdatenbank (6) entnommen werden.Procedure according to Claim 1 or 2 , characterized in that the labeled output partial images (2) are stored and/or collected in a weed database (6) and/or that the unlabeled input partial images (4) are taken from one or the weed database (6). Verfahren nach einem der vorhergehenden, dadurch gekennzeichnet, dass die Eingangsteilbilder (1) zumindest zum Teil als vorgelabelte Teilbilder (5) aus einer oder der Unkrautdatenbank (6) ausgebildet sind, wobei in den vorgelabelten Eingangsteilbildern (5) die Lokalisierung des Unkrauts gelabelt ist, wobei der Unkrautbestimmer (3) den Unkrauttyp bestimmt und wobei die gelabelten Ausgangsteilbilder (2) als Label (L1, L2) die Lokalisierung des Unkrauts und den Unkrauttyp aufweisen.Method according to one of the preceding, characterized in that the input partial images (1) are at least partially designed as pre-labeled partial images (5) from one or the weed database (6), the localization of the weeds being labeled in the pre-labeled input partial images (5), wherein the weed determiner (3) determines the weed type and the labeled initial partial images (2) have the location of the weed and the weed type as a label (L1, L2). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Unkrautbestimmer (3) mit Expertenteilbildern (7) trainiert wird, wobei die Expertenteilbilder (7) durch Experten in Bezug auf den Unkrauttyp und optional ergänzend in Bezug auf die Lokalisierung des Unkrauts gelabelt sind.Method according to one of the preceding claims, characterized in that the weed determiner (3) is trained with expert partial images (7), the expert partial images (7) being labeled by experts with regard to the weed type and optionally additionally with regard to the localization of the weed. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das neuronale Netzwerk als ein gefaltetes neuronales Netzwerk (CNN) ausgebildet ist.Method according to one of the preceding claims, characterized in that the neural network is designed as a convolutional neural network (CNN). Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass gefaltete neuronale Netzwerk mindestens eine Generalized Mean Pooling-Schicht (16) aufweist.Procedure according to Claim 6 , characterized in that the convolutional neural network has at least one generalized mean pooling layer (16). Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass das gefaltete neuronale Netzwerk nach der Ausgabeschicht und/oder der letzten Generalized Mean Pooling-Schicht (16) eine Additive Angular Margin Loss sowie einen Softmax-Algorithmus umsetzt.Procedure according to Claim 6 or 7 , characterized in that the folded neural network implements an additive angular margin loss and a softmax algorithm after the output layer and/or the last generalized mean pooling layer (16). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Unkrautbestimmer (3) und/oder die Unkrautdatenbank (6) mit einer Bilderdatenbank mit Eingangsbildern verbunden ist, wobei die Eingangsteilbilder einen Ausschnitt der Eingangsbilder bilden, wobei der Unkrautbestimmer (3) und/oder die Unkrautdatenbank (6) ausgebildet ist, die gelabelten Ausgangsteilbilder (2) mit den Eingangsteilbildern datentechnisch zu verbinden, um gelabelte Ausgangsbilder zu erzeugen, wobei die gelabelten Ausgangsbilder als Label (L1, L2) die Lokalisierung des Unkrauts und den Unkrauttyp aufweisen.Method according to one of the preceding claims, characterized in that the weed determiner (3) and/or the weed database (6) is connected to an image database with input images, the input partial images forming a section of the input images, the weed determiner (3) and/or the weed database (6) is designed to connect the labeled output sub-images (2) with the input sub-images in order to generate labeled output images, the labeled output images having the location of the weed and the weed type as a label (L1, L2). Trainingsbilder, wobei die Trainingsbilder durch das Verfahren nach einem der vorhergehenden Ansprüche gelabelt sind, wobei die Trainingsbilder als die gelabelten Ausgangsteilbilder (2) ausgebildet oder die gelabelten Ausgangsbilder (2) sind.Training images, wherein the training images are labeled by the method according to one of the preceding claims, wherein the training images are designed as the labeled initial partial images (2) or are the labeled initial images (2). Verfahren zum Trainieren oder Nachtrainieren eines Unkrautanalysators (11) zur Lokalisierung von Unkraut und zur Klassifizierung von Unkraut in Bezug auf einen Unkrauttyp in einem Arbeitsbild, wobei der Unkrautanalysator (11) auf einem neuronalen Netz basiert, dadurch gekennzeichnet, dass der Unkrautanalysator (11) auf Basis der Trainingsbilder nach Anspruch 10 trainiert oder nachtrainiert wird.Method for training or retraining a weed analyzer (11) for locating weeds and classifying weeds in relation to a weed type in a working image, the weed analyzer (11) being based on a neural network, characterized in that the weed analyzer (11). Based on the training images Claim 10 is trained or retrained. Analysevorrichtung (8) zur Montage auf einem landwirtschaftlichen Fahrzeug oder Gerät mit einem Unkrautanalysator (11), wobei der Unkrautanalysator (11) mit dem Verfahren nach Anspruch 11 trainiert oder nachtrainiert ist, oder als der Unkrautbestimmer (3) ausgebildet ist, der nach dem Verfahren nach einem der Ansprüche 1 bis 9 trainiert ist, wobei die Analysevorrichtung (8) zur Lokalisierung des Unkrauts und zur Klassifizierung des Unkrauts in Bezug auf einen Unkrauttyp in einem Arbeitsbild ausgebildet ist, wobei die Analysevorrichtung (8) eine Ausgangsschnittstelle (12) zur Ausgabe von Daten zu der Lokalisierung und des Unkrauttyps des Unkrauts aufweist.Analysis device (8) for mounting on an agricultural vehicle or device with a weed analyzer (11), the weed analyzer (11) using the method according to Claim 11 is trained or retrained, or is trained as the weed determiner (3) who uses the method according to one of the Claims 1 until 9 is trained, wherein the analysis device (8) is designed to localize the weed and to classify the weed in relation to a weed type in a working image, wherein the analysis device (8) has an output interface (12) for outputting data on the localization and the weed type of the weeds. Computerprogramm, wobei das Computerprogramm ausgebildet und/oder eingerichtet ist, bei seiner Ausführung das Verfahren nach einem der Ansprüche 1 bis 9 oder nach Anspruch 10 auszuführen, anzuwenden und/oder zu implementieren.Computer program, wherein the computer program is designed and / or set up to execute the method according to one of the Claims 1 until 9 or after Claim 10 to carry out, apply and/or implement. Maschinenlesbares Speichermedium, wobei auf dem Speichermedium das Computerprogramm nach Anspruch 13 gespeichert ist.Machine-readable storage medium, with the computer program on the storage medium Claim 13 is stored.
DE102022206224.8A 2022-06-22 2022-06-22 Method for automatically labeling input images, training images, method for training or retraining a weed analyzer, analysis device, computer program and machine-readable storage medium Pending DE102022206224A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022206224.8A DE102022206224A1 (en) 2022-06-22 2022-06-22 Method for automatically labeling input images, training images, method for training or retraining a weed analyzer, analysis device, computer program and machine-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022206224.8A DE102022206224A1 (en) 2022-06-22 2022-06-22 Method for automatically labeling input images, training images, method for training or retraining a weed analyzer, analysis device, computer program and machine-readable storage medium

Publications (1)

Publication Number Publication Date
DE102022206224A1 true DE102022206224A1 (en) 2023-12-28

Family

ID=89075756

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022206224.8A Pending DE102022206224A1 (en) 2022-06-22 2022-06-22 Method for automatically labeling input images, training images, method for training or retraining a weed analyzer, analysis device, computer program and machine-readable storage medium

Country Status (1)

Country Link
DE (1) DE102022206224A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3815529A1 (en) 2019-10-31 2021-05-05 Deere & Company Agricultural plant detection and control system
DE102019218189A1 (en) 2019-11-25 2021-05-27 Robert Bosch Gmbh Method for generating a large number of annotated images
DE102019218187A1 (en) 2019-11-25 2021-05-27 Robert Bosch Gmbh Method for processing plants in a field, method for generating training data and method for training a neural network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3815529A1 (en) 2019-10-31 2021-05-05 Deere & Company Agricultural plant detection and control system
DE102019218189A1 (en) 2019-11-25 2021-05-27 Robert Bosch Gmbh Method for generating a large number of annotated images
DE102019218187A1 (en) 2019-11-25 2021-05-27 Robert Bosch Gmbh Method for processing plants in a field, method for generating training data and method for training a neural network

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A Novel and Automated Approach to Classify Radiation Induced Lung Tissue Damage on CT Scans, Adam Szmul et al. Cancers 2022, 14(5), 1341; https://doi.org/10.3390/cancers14051341
Annotate data for less with Amazon SageMaker Ground Truth and automated data labeling by Krzysztof Chalupka, Fedor Zhdanov, and Tristan McKinney | on 06 FEB 2019 | in Amazon SageMaker Ground Truth, Artificial Intelligence https://aws.amazon.com/de/blogs/machine-learning/annotate-data-for-less-with-amazon-sagemaker-ground-truth-and-automated-data-labeling/
Automate weed detection in farm crops using Amazon Rekognition Custom Labelsby Raju Penmatcha | on 28 MAY 2021 | in Amazon Rekognition, Artificial Intelligence https://aws.amazon.com/blogs/machine-learning/automate-weed-detection-in-farm-crops-using-amazon-rekognition-custom-labels/
Multi-Spectral Image Synthesis for Crop/Weed Segmentation in PrecisionFarming, Mulham Fawakherji et al., Article in Robotics and Autonomous Systems · August 2021, DOI: 10.1016/j.robot.2021.103861

Similar Documents

Publication Publication Date Title
DE112017002799B4 (en) METHOD AND SYSTEM FOR GENERATION OF MULTIMODAL DIGITAL IMAGES
EP3782467B1 (en) Method for identifying weeds within a defined row of plants of an agricultural area
DE102018200724A1 (en) Method and device for improving the robustness against "Adversarial Examples"
DE102017116017A1 (en) An automotive sensor device having a plurality of sensor units and a plurality of neural networks for generating a combined representation of an environment
Sørensen et al. Thistle detection using convolutional neural networks
DE102018128531A1 (en) System and method for analyzing a three-dimensional environment represented by a point cloud through deep learning
DE102019127282A1 (en) System and method for analyzing a three-dimensional environment through deep learning
WO2019001649A1 (en) Knowledge transfer between different deep learning architectures
DE112019007762T5 (en) Method for training a generative adversarial network, modified image generation module and system for detecting features in an image
DE102019209644A1 (en) Method for training a neural network
WO2018073163A1 (en) Yield prediction for a cornfield
DE202022101590U1 (en) A system for classifying remotely sensed imagery using fused convolution features with machine learning
DE102017219282A1 (en) Method and device for automatically generating an artificial neural network
DE102018120756A1 (en) Mobile analysis and processing device, method and carrier system
DE112020003446T5 (en) Validating a performance of a neural network trained with labeled training data
DE4329343A1 (en) Image-analytical method, suitable for use in the field, for the automatic detection and combatting of types of weed
DE102019218189A1 (en) Method for generating a large number of annotated images
DE102022206224A1 (en) Method for automatically labeling input images, training images, method for training or retraining a weed analyzer, analysis device, computer program and machine-readable storage medium
EP4064819B1 (en) Method for treating plants in a field, for generating training data and for training a neural network
DE202021106121U1 (en) Biomimetically designed smart drone for weed removal on agricultural crops using artificial intelligence and deep learning
DE102021204040A1 (en) Method, device and computer program for creating training data in the vehicle
EP3841444B1 (en) Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor
DE102019130091A1 (en) Process for the automatic creation of documentation
EP3840559A1 (en) Mobile analysis and processing device
WO2020187394A1 (en) Method for training an autoencoder and for classifying data, and autoencoder and computer program for this purpose

Legal Events

Date Code Title Description
R163 Identified publications notified