DE102022206224A1 - Method for automatically labeling input images, training images, method for training or retraining a weed analyzer, analysis device, computer program and machine-readable storage medium - Google Patents
Method for automatically labeling input images, training images, method for training or retraining a weed analyzer, analysis device, computer program and machine-readable storage medium Download PDFInfo
- Publication number
- DE102022206224A1 DE102022206224A1 DE102022206224.8A DE102022206224A DE102022206224A1 DE 102022206224 A1 DE102022206224 A1 DE 102022206224A1 DE 102022206224 A DE102022206224 A DE 102022206224A DE 102022206224 A1 DE102022206224 A1 DE 102022206224A1
- Authority
- DE
- Germany
- Prior art keywords
- weed
- images
- labeled
- input
- type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 241000196324 Embryophyta Species 0.000 title claims abstract description 301
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000002372 labelling Methods 0.000 title claims abstract description 15
- 238000012549 training Methods 0.000 title claims description 29
- 238000004458 analytical method Methods 0.000 title claims description 17
- 238000004590 computer program Methods 0.000 title claims description 10
- 238000003860 storage Methods 0.000 title claims description 7
- 230000004807 localization Effects 0.000 claims abstract description 28
- 238000013528 artificial neural network Methods 0.000 claims abstract description 22
- 238000011176 pooling Methods 0.000 claims description 29
- 238000013527 convolutional neural network Methods 0.000 claims description 24
- 239000000654 additive Substances 0.000 claims description 7
- 230000000996 additive effect Effects 0.000 claims description 7
- 238000005507 spraying Methods 0.000 abstract description 7
- 238000001514 detection method Methods 0.000 abstract description 4
- 238000012545 processing Methods 0.000 abstract description 2
- 239000004476 plant protection product Substances 0.000 description 15
- 239000011814 protection agent Substances 0.000 description 9
- 238000011161 development Methods 0.000 description 5
- 230000018109 developmental process Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 239000000047 product Substances 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 241000132542 Conyza Species 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 238000001994 activation Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 239000007921 spray Substances 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 241000219310 Beta vulgaris subsp. vulgaris Species 0.000 description 1
- 206010020112 Hirsutism Diseases 0.000 description 1
- 241000218922 Magnoliophyta Species 0.000 description 1
- 235000021536 Sugar beet Nutrition 0.000 description 1
- 240000008042 Zea mays Species 0.000 description 1
- 235000005824 Zea mays ssp. parviglumis Nutrition 0.000 description 1
- 235000002017 Zea mays subsp mays Nutrition 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 235000005822 corn Nutrition 0.000 description 1
- 244000038559 crop plants Species 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003912 environmental pollution Methods 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000003223 protective agent Substances 0.000 description 1
- 238000009331 sowing Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/68—Food, e.g. fruit or vegetables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Abstract
Für das selektive Sprühen des Pflanzenschutzmittels muss das Unkraut in Echtzeit erkannt werden, während ein entsprechendes landwirtschaftliches Fahrzeug über das Feld fährt. Es ist bekannt, dass eine derartige Unkrauterkennung mittels Kameras und Algorithmen der Bildverarbeitung ermöglicht werden kann.Es wird ein Verfahren zum automatischen Labeln von Eingangsbildern 1 mit einem Unkrauttyp eines Unkrauts und zur Erzeugung von gelabelten Ausgangsbildern 2 vorgeschlagen, mit einem Unkrautbestimmer 3, wobei der Unkrautbestimmer 3 auf einem neuronalen Netz basiert und wobei der Unkrautbestimmer 3 in den Eingangsbildern 1 den Unkrauttyp des Unkrauts bestimmt, wobei die Eingangsbilder 1 zumindest mit dem Unkrauttyp gelabelt werden und die gelabelten Ausgangsbilder 2 als Label L1, L2 eine Lokalisierung des Unkrauts und den Unkrauttyp umfassen.For the selective spraying of the crop protection product, the weeds must be detected in real time while an appropriate agricultural vehicle drives over the field. It is known that such weed detection can be made possible using cameras and image processing algorithms. A method for automatically labeling input images 1 with a weed type of a weed and for generating labeled output images 2 is proposed, with a weed determiner 3, the weed determiner 3 is based on a neural network and wherein the weed determiner 3 determines the weed type of the weed in the input images 1, the input images 1 being labeled at least with the weed type and the labeled output images 2 including a localization of the weed and the weed type as labels L1, L2.
Description
Stand der TechnikState of the art
Die Erfindung betrifft ein Verfahren zum automatischen Labeln von Eingangsbildern mit einem Unkrauttyp eines Unkrauts und zur Erzeugung von gelabelten Ausgangsbildern. Ferner betrifft die Erfindung Trainingsbilder, welche durch das Verfahren gelabelt sind, ein Verfahren zum Trainieren oder Nachtrainieren eines Unkrautanalysators auf Basis der Trainingsbilder, eine Analysevorrichtung mit dem Unkrautanalysator, ein jeweiliges Computerprogramm sowie ein maschinenlesbares Speichermedium mit dem Computerprogramm.The invention relates to a method for automatically labeling input images with a weed type of weed and for generating labeled output images. The invention further relates to training images which are labeled by the method, a method for training or retraining a weed analyzer based on the training images, an analysis device with the weed analyzer, a respective computer program and a machine-readable storage medium with the computer program.
Als Reihenkultur werden Feldfrüchte bezeichnet, deren Abstände in der Säreihe 40 bis 70 cm betragen. Als Beispiele sind Zuckerrüben und Mais zu nennen. Neueste Entwicklungen ermöglichen ein selektives Sprühen von Pflanzenschutzmitteln auf Unkraut in der Reihenkultur und damit Einsparungen von Pflanzenschutzmitteln sowie einer daraus resultierenden Verringerung der Umweltbelastung. Für das selektive Sprühen des Pflanzenschutzmittels muss das Unkraut in Echtzeit erkannt werden, während ein entsprechendes landwirtschaftliches Fahrzeug über das Feld fährt. Es ist bekannt, dass eine derartige Unkrauterkennung mittels Kameras und Algorithmen der Bildverarbeitung ermöglicht werden kann.Row crops are crops whose distances in the sowing row are 40 to 70 cm. Examples include sugar beet and corn. The latest developments enable selective spraying of crop protection products on weeds in row crops, thus saving crop protection products and resulting in a reduction in environmental pollution. For the selective spraying of the crop protection product, the weeds must be detected in real time while an appropriate agricultural vehicle drives over the field. It is known that such weed detection can be made possible using cameras and image processing algorithms.
Beispielsweise offenbart die Druckschrift
Offenbarung der ErfindungDisclosure of the invention
Die Erfindung betrifft ein Verfahren zum automatischen Labeln von Eingangsteilbildern mit den Merkmalen des Anspruchs 1, Trainingsbilder mit den Merkmalen des Anspruchs 10, ein Verfahren zum Trainieren oder Nachtrainieren eines Unkrautanalysators mit den Merkmalen des Anspruchs 11, eine Analysevorrichtung mit den Merkmalen des Anspruchs 12, ein Computerprogramm mit den Merkmalen des Anspruchs 13, sowie ein maschinenlesbares Speichermedium mit den Merkmalen des Anspruchs 14. Bevorzugte oder vorteilhafte Ausführungsformen der Erfindung ergeben sich aus den Unteransprüchen, der nachfolgenden Beschreibung sowie den beigefügten Figuren.The invention relates to a method for automatically labeling input partial images with the features of claim 1, training images with the features of
Die Erfindung betrifft ein Verfahren zum automatischen Labeln von Eingangsteilbildern. Die Eingangsteilbilder sind vorzugsweise als Farbbilder ausgebildet, alternativ und/oder ergänzend umfassen diese Schwarz-weiß-Bilder, Graustufenbilder oder IR-Bilder. Insbesondere sind die Eingangsteilbilder als Ausschnitte von Eingangsbildern ausgebildet.The invention relates to a method for automatically labeling input partial images. The input partial images are preferably designed as color images; alternatively and/or additionally, these include black-and-white images, grayscale images or IR images. In particular, the input partial images are designed as sections of input images.
Das Labeln bezeichnet insbesondere ein Annotieren von Zusatzinformationen in dem Eingangsteilbild. Die Eingangsteilbilder werden mit einem Label in Bezug auf einen Unkrauttyp eines Unkrauts versehen, welches in dem Eingangsteilbild enthalten ist, um auf diese Weise gelabelte Ausgangsteilbilder zu erzeugen, wobei die Ausgangsteilbilder das jeweilige Label aufweisen. Insbesondere ist das jeweilige Label dem jeweiligen Eingangsteilbild selektiv und/oder individuell zugeordnet. Das Ausgangsteilbild und das Eingangsteilbild weisen die gleichen und/oder unveränderte Bildinhalte auf.Labeling refers in particular to annotating additional information in the input partial image. The input sub-images are labeled with respect to a weed type of a weed contained in the input sub-image to thereby generate labeled output sub-images, the output sub-images having the respective label. In particular, the respective label is selectively and/or individually assigned to the respective input partial image. The output field and the input field have the same and/or unchanged image content.
Unter einem Unkrauttyp oder einem spezifischen Unkrauttyp wird insbesondere eine Unkrautart und/oder eine Unkrautgattung verstanden. Der Unkrauttyp bezieht sich insbesondere auf eine Art des Unkrauts oder eine Unterart des jeweiligen Unkrauts. Insbesondere unterscheiden sich die verschiedenen Unkrauttypen hinsichtlich des Aussehens auf dem Eingangsteilbild, z.B. hinsichtlich der Blattform, der Blütenform, Umriss, Blattoberflächen / Textur, Farbe, Blattanzahl, Blattrippen, Blattoberseite versus Blattunterseite, Blattspreite, Blattscheide, Blattbehaarung, Blattansatz, Blattstellung (hängend,...), Stengel- bzw. Halmform, Stengel- bzw. Halmquerschnitt, Knoten,... , Blüten, Blütenstand, Textur, Farbe,..., Früchte, Samen, Textur, Farbe, ... etc. Optional ergänzend können sich die Unkrauttypen hinsichtlich eines Wachstumszustandes, wie zum Beispiel Jungpflanze, blühende Pflanze etc., unterscheiden. Es ist insbesondere vorgesehen, dass der Unkrauttyp so genau bestimmt wird, dass selektiv und/oder individuell ein Pflanzenschutzmittel in Bezug auf diesen Unkrauttyp ausgewählt werden kann.A weed type or a specific weed type is understood to mean, in particular, a weed species and/or a weed genus. The weed type refers in particular to a type of weed or a subspecies of the respective weed. In particular, the different weed types differ in terms of their appearance on the input image, e.g. in terms of leaf shape, flower shape, outline, leaf surfaces/texture, color, number of leaves, leaf veins, leaf top versus leaf underside, leaf blade, leaf sheath, leaf hairiness, leaf base, leaf position (hanging,. ..), stem or culm shape, stem or culm cross section, nodes,..., flowers, inflorescence, texture, color,..., fruits, seeds, texture, color, ... etc. Can optionally be added The weed types differ in terms of a growth state, such as young plants, flowering plants, etc. In particular, it is intended that the weed type is determined so precisely that plants can be planted selectively and/or individually protective agents can be selected in relation to this type of weed.
Das Verfahren benutzt einen Unkrautbestimmer, wobei der Unkrautbestimmer auf einem neuronalen Netz basiert. Beispielsweise wird das Eingangsteilbild einer Eingangsschicht des neuronalen Netzes bereitgestellt. Das neuronale Netz ist insbesondere als ein CNN (Convolutional Neuronal Network) bzw. als ein gefaltetes neuronales Netzwerk ausgebildet. Der Unkrautbestimmer bestimmt in den Eingangsteilbildern den Unkrauttyp von dem Unkraut.The method uses a weed determiner, the weed determiner being based on a neural network. For example, the input partial image is provided to an input layer of the neural network. The neural network is designed in particular as a CNN (Convolutional Neural Network) or as a folded neural network. The weed determiner determines the weed type of the weed in the input sub-images.
Die Eingangsteilbilder werden zumindest mit dem Unkrauttyp gelabelt, wobei die gelabelten Ausgangsteilbilder als Label eine Lokalisierung des Unkrauts und den Unkrauttyp des Unkrauts umfassen. Damit stellen die gelabelten Ausgangsteilbilder alle Daten bereit, welche benötigt werden, um ortsselektiv und zugleich unkrautselektiv das Sprühen von Pflanzenschutzmitteln anzusteuern. Die Label „Lokalisierung/Position“ und „Unkrauttyp“ können auch als ein gemeinsames Label oder als ein Labelsatz ausgebildet sein.The input sub-images are labeled at least with the weed type, with the labeled output sub-images comprising as a label a localization of the weed and the weed type of the weed. The labeled output subimages thus provide all the data that is needed to control the spraying of crop protection products in a location-selective and weed-selective manner. The labels “location/position” and “weed type” can also be designed as a common label or as a set of labels.
Das Label zur Lokalisierung des Unkrauts enthält insbesondere Informationen zur Position des Unkrauts und/oder des Eingangsteilbilds und/oder Ausgangsteilbilds in einem Ursprungsbild aus dem das Eingangsteilbild insbesondere als Ausschnitt entnommen ist. Dabei kann das Label zur Lokalisierung des Unkrauts in dem Ausgangsteilbild einen Schwerpunkt des Unkrauts, eine Bounding-Box um das Unkraut oder eine andere Bildpositionsinformation umfassen. Optional ergänzend kann das Label zur Lokalisierung eine datentechnische Verknüpfung, wie z.B. einen Link zu dem Ursprungsbild umfassen. Damit ist es möglich, dass gelabelte Ausgangsteilbild mit dem Ursprungsbild datentechnisch zu verknüpfen und das Label der Lokalisierung und zu dem Unkrauttyp auf das Ursprungsbild zu übertragen, so dass dieses als gelabeltes Ursprungsbild vorliegt. In dem Ursprungsbild können auf diese Weise auch eine Mehrzahl von Labeln oder Labelsätze annotiert werden, so dass z.B. mehrere Unkräuter mit der Lokalisierung und dem Unkrauttyp gelabelt sind.The label for locating the weed contains in particular information about the position of the weed and/or the input partial image and/or output partial image in an original image from which the input partial image is taken, in particular as a section. The label for locating the weed in the initial partial image can include a center of gravity of the weed, a bounding box around the weed or other image position information. Optionally, the label for localization can include a data link, such as a link to the original image. This makes it possible to link the labeled initial partial image with the original image in terms of data technology and to transfer the label of the localization and the weed type to the original image so that it is present as a labeled original image. In this way, a plurality of labels or sets of labels can be annotated in the original image, so that, for example, several weeds are labeled with the location and weed type.
Es ist dabei eine Überlegung der Erfindung, dass in Zukunft nicht nur ortsselektiv das Pflanzenschutzmittel auf dem Feld ausgebracht werden soll, um mit einem minimalen Aufwand an Pflanzenschutzmittel einen maximalen Schutz der Nutzpflanzen zu erreichen. Vielmehr sollen die entsprechenden landwirtschaftlichen Geräte eine Mehrzahl von Pflanzenschutzmitteln und entsprechende Sprühvorrichtungen aufweisen, so dass das Pflanzenschutzmittel nicht nur ortsselektiv, sondern in der Art des Pflanzenschutzmittels und/oder in der Menge des Pflanzenschutzmittels auf den jeweiligen Unkrauttyp angepasst werden kann und somit unkrauttypselektiv ausgebracht werden kann. So mag ein Unkrauttyp A ein anderes Pflanzenschutzmittel benötigen als ein Unkrauttyp B. Durch das Verfahren zum automatischen Labeln von Eingangsteilbildern werden - wie nachfolgend nach dargelegt wird -Trainingsbilder erzeugt, welche zum Trainieren oder Nachtrainieren von einem Unkrautanalysator zur Lokalisierung des Unkrauts und zur Klassifizierung des Unkrauts in Bezug auf einen Unkrauttyp in einem genutzt werden können. Das Verfahren dient somit zur technischen Vorbereitung des Einsatzes des Unkrautanalysators in der Landwirtschaft.It is an idea of the invention that in the future the crop protection agent should not only be applied to the field in a location-selective manner in order to achieve maximum protection of the crops with a minimal amount of crop protection agent. Rather, the corresponding agricultural equipment should have a plurality of plant protection products and corresponding spray devices, so that the plant protection product can be adapted to the respective weed type not only in a location-selective manner, but also in the type of plant protection product and/or in the amount of the plant protection product and can therefore be applied in a weed-type-selective manner . For example, a weed type A may require a different plant protection product than a weed type B. The method for automatically labeling input partial images generates training images - as will be explained below - which are used for training or retraining by a weed analyzer to localize the weeds and classify the weeds in relation to a weed type can be used in one. The process is therefore used for technical preparation for the use of the weed analyzer in agriculture.
Bei einer bevorzugten Ausgestaltung der Erfindung sind die Eingangsteilbilder zumindest zum Teil als ungelabelte Teilbilder ausgebildet. Insbesondere sind diese in Bezug auf eine Lokalisierung des Unkrauts und/oder des Unkrauttyps ungelabelt. Der Unkrautbestimmer ist ausgebildet, ergänzend zu dem Unkrauttyp die Lokalisierung des Unkrauts in dem Eingangsteilbild zu bestimmen. Das Eingangsteilbild wird somit mit dem Unkrauttyp und der Lokalisierung des Unkrauts gelabelt, um die gelabelten Ausgangsteilbilder zu erzeugen.In a preferred embodiment of the invention, the input partial images are at least partially designed as unlabeled partial images. In particular, these are unlabeled with regard to localization of the weed and/or weed type. The weed determiner is designed to determine the localization of the weed in the input partial image in addition to the weed type. The input subimage is thus labeled with the weed type and the location of the weed to generate the labeled output subimages.
Bei einer bevorzugten Weiterbildung der Erfindung werden die gelabelten Ausgangsteilbilder in einer Unkrautdatenbank abgelegt und/oder gesammelt. Für den Fall, dass die Eingangsteilbilder aus der Unkrautdatenbank entnommen sind, ist es bevorzugt, dass nur die Label auf die ohnehin vorhandenen Eingangsteilbilder übertragen werden und/oder vorhandene Label aktualisiert werden, um die gelabelten Ausgangsteilbilder in der Unkrautdatenbank zu erzeugen und/oder zu sammeln. Insbesondere weist die Unkrautdatenbank nur Teilbilder auf. Besonders bevorzugt ist in jedem Teilbild nur ein Unkraut mit dem Unkrauttyp gelabelt.In a preferred development of the invention, the labeled initial partial images are stored and/or collected in a weed database. In the event that the input sub-images are taken from the weed database, it is preferred that only the labels are transferred to the already existing input sub-images and/or existing labels are updated in order to generate and/or collect the labeled output sub-images in the weed database . In particular, the weed database only has partial images. It is particularly preferred that only one weed is labeled with the weed type in each partial image.
Die Unkrautdatenbank umfasst damit Trainingsbilder zum Trainieren und/oder Nachtrainieren des Unkrautanalysators.The weed database therefore includes training images for training and/or retraining the weed analyzer.
Bei einer bevorzugten Alternative oder Weiterbildung der Erfindung sind die Eingangsteilbilder zum Teil als vorgelabelte Teilbilder aus einer oder der Unkrautdatenbank ausgebildet. In den vorgelabelten Eingangsteilbildern ist die Lokalisierung eines erkannten, jedoch unspezifischen Unkrauts gelabelt. Somit ist es möglich mit dem Verfahren auf vorgelabelte Eingangsteilbilder zurückzugreifen, welche bereits bei dem Verfahren zum ortsselektiven Sprühen von Pflanzenschutzmitteln, jedoch ohne das unkrauttypspezifische Sprühen bereits eingesetzt wurden oder daraus erstellt wurden. Damit ist es nicht notwendig, eine Vielzahl von neuen ungelabelten Eingangsteilbildern zu beschaffen. Vielmehr können zum einen bereits vorhandene Eingangsteilbilder verwendet werden und zum anderen die bereits erfolgte Lokalisierung des erkannten, unspezifischen Unkrauts und damit das Vorlabeln der Eingangsteilbilder vorteilhaft ausgenutzt werden, da der Unkrautbestimmer sich fokussiert auf Positionen der Lokalisierung des bereits erkannten, unspezifischen Unkrauts konzentrieren kann. Der Unkrautbestimmer bestimmt den Unkrauttyp als Konkretisierung des unspezifischen Unkrauts auf Basis und/oder unter Verwendung der Lokalisierung des erkannten, unspezifischen Unkrauts. Die Ausgangsteilbilder weisen als Label die Lokalisierung des Unkrauts, insbesondere die Lokalisierung des Unkrauts der vorgelabelten Eingangsteilbilder, und den spezifischen Unkrauttyp auf.In a preferred alternative or development of the invention, the input partial images are partly designed as pre-labeled partial images from one or the weed database. The localization of a recognized but non-specific weed is labeled in the pre-labeled input sub-images. It is therefore possible with the method to use pre-labeled input partial images which have already been used or were created from the method for the location-selective spraying of plant protection products, but without the weed-type-specific spraying. This means that it is not necessary to procure a large number of new, unlabeled input subimages. Rather, on the one hand, existing input parts can be used images are used and, on the other hand, the localization of the recognized, non-specific weeds and thus the pre-labeling of the input partial images can be used advantageously, since the weed determiner can concentrate on positions of localization of the already recognized, non-specific weeds. The weed determiner determines the weed type as a specification of the non-specific weed based on and/or using the localization of the identified non-specific weed. The output sub-images have the localization of the weed as a label, in particular the localization of the weeds of the pre-labeled input sub-images, and the specific weed type.
Bei einer bevorzugten Weiterbildung der Erfindung wird der Unkrautbestimmer mit einer Teilmenge an Expertenbildern, umfassend Expertenteilbildern, trainiert, wobei die Expertenbilder durch Experten optional in Bezug auf den Unkrauttyp und optional auf die Lokalisierung des Unkrauts gelabelt sind. Auf diese Weise wird erreicht, dass der Unkrautbestimmer ein Grundtraining erhält, wobei für das Grundtraining die manuell gelabelten Expertenbilder verwendet werden. Somit ist es möglich, mit der Teilmenge an Expertenbildern zunächst den Unkrautbestimmer zu trainieren, nachfolgend aus den Eingangsteilbilder die gelabelten Ausgangsteilbilder zu erzeugen und nachfolgend auf Basis der gelabelten Ausgangsteilbilder, insbesondere aus der Unkrautdatenbank, den Unkrautanalysator zu trainieren und/oder nachzutrainieren.In a preferred development of the invention, the weed determiner is trained with a subset of expert images, comprising expert sub-images, the expert images being labeled by experts optionally with respect to the weed type and optionally with respect to the localization of the weed. In this way it is ensured that the weed detector receives basic training, with the manually labeled expert images being used for the basic training. It is therefore possible to first train the weed determiner with the subset of expert images, then to generate the labeled output sub-images from the input sub-images and then to train and/or retrain the weed analyzer on the basis of the labeled output sub-images, in particular from the weed database.
Die Expertenteilbilder können beschränkt auf das Label des Unkrauttyps und insbesondere ohne das Label für die Lokalisierung/Position des Unkrauts ausgebildet sein. In diesem Fall werden diese nur als Muster für den Unkrautbestimmer verwendet. Für den Fall, dass diese auch das Label zur Lokalisierung/Position des Unkrauts aufweisen, können diese mit den Expertenbildern, aus denen die Expertenteilbilder stammen, zusammengeführt werden, so dass gelabelte Expertenbilder vorliegen, die als Trainingsbilder für den Unkrautanalysator genutzt werden können.The expert partial images can be limited to the label of the weed type and in particular without the label for the localization/position of the weed. In this case these are only used as a sample for the weed determiner. In the event that these also have the label for the localization/position of the weed, they can be merged with the expert images from which the expert partial images come, so that labeled expert images are available that can be used as training images for the weed analyzer.
In der Architektur des neuronalen Netzwerks, wobei dieses als gefaltetes neuronales Netzwerk, insbesondere Convolutional Neural Network CNN, im Speziellen voll gefaltetes CNN/fully convolutional CNN ausgebildet ist oder dieses umfasst, hat es sich als besonders vorteilhat herausgestellt, dass das gefaltete neuronale Netzwerk mindestens eine Pooling-Schicht aufweist, wobei die mindestens eine Pooling-Schicht als eine Generalized Mean-Pooling-Schicht ausgebildet ist. Bevorzugt weist das gefaltete neuronale Netzwerk eine Mehrzahl an Pooling-Schichten auf, wobei einige, eine Mehrzahl oder alle der Pooling-Schichten als Generalized Mean Pooling-Schicht ausgebildet sind. Die Generalized-Mean Pooling-Schicht weist trainierbare Gewichte in den Feature-Maps auf, wobei die trainierbaren Gewichte durch Backpropagation trainiert werden.In the architecture of the neural network, which is designed as or includes a folded neural network, in particular a convolutional neural network CNN, in particular a fully convolutional CNN/fully convolutional CNN, it has proven to be particularly advantageous that the folded neural network has at least one Pooling layer, wherein the at least one pooling layer is designed as a generalized mean pooling layer. The folded neural network preferably has a plurality of pooling layers, with some, a majority or all of the pooling layers being designed as a generalized mean pooling layer. The generalized mean pooling layer has trainable weights in the feature maps, where the trainable weights are trained using backpropagation.
Beispielsweise werden als CNN AlexNet, VGG, oder ResNet verwendet, wobei deren vollverknüpfte Schicht verworfen wird. Bei dem Eingangsteilbild ist die Ausgabe ein 3D-Tensor X mit den Dimensionen W × H × K, wobei K die Anzahl der Merkmalskarten/feature maps in der letzten Schicht ist. Xk sei die Menge der W xH-Aktivierungen für die Merkmalskarte/feature map k ∈ {1 ... K}. Die Netzwerkausgabe besteht aus K solcher Aktivierungssätze oder 2D-Merkmalskarten/feature maps. Vorzugsweise ist die allerletzte Schicht als eine Rectified Lineare Einheit (ReLU) ausgebildet, so dass X nicht-negativ ist. Die Generalized Mean Pooling-Schicht übernimmt X als Eingabe und erzeugt einen Vektor f als Ausgabe des Pooling-Prozesses.For example, AlexNet, VGG, or ResNet are used as CNN, with their fully connected layer being discarded. Given the input subimage, the output is a 3D tensor X with dimensions W × H × K, where K is the number of feature maps in the last layer. Let Xk be the set of W xH activations for the feature map k ∈ {1 ... K}. The network output consists of K such activation sets or 2D feature maps. Preferably, the very last layer is designed as a Rectified Linear Unit (ReLU), so that X is non-negative. The Generalized Mean Pooling layer takes X as input and produces a vector f as the output of the pooling process.
Dieser Vektor f ist im Falle des konventionellen Global-Max-Pooling/MAC-Vektor gegeben durch
Während dieser für eine Mittelwert-Pooling (SPoC-Vector) gegeben ist, durch
Stattdessen wird ein Generalized Mean Pooling (GeM)vorgeschlagen, gegeben durch
Die Pooling-Methoden (1) und (2) sind Spezialfälle des GeM-Pooling gemäß (3), d. h. Global-Max-Pooling, wenn pk gegen unendlich geht 1 und Mittelwert-Pooling für pk = 1. Der Merkmalsvektor besteht schließlich aus einem einzigen Wert pro Merkmalskarte, d.h. der generalisierten mittleren Aktivierung, und seine Dimensionalität ist gleich K. Der Pooling-Parameter pk kann manuell eingestellt oder erlernt werden da diese Operation differenzierbar ist. Bevorzugt wird der Pooling-Parameter pk durch Backpropagation erlernt. Durch die Generalized Mean Pooling-Schicht ist der Unkrautbestimmer besonders leistungsfähig. Für weitere Details wird auf die Veröffentlichung Fine-tuning CNN Image Retrieval with No Human Annotation von Filip Radenovic, Giorgos, Tolias Ondrej Chum verwiesen, welche unter https://arxiv.org/pdf/1711.02512v2.pdf abrufbar ist und deren Offenbarung vollständig via Referenzierung übernommen wird.The pooling methods (1) and (2) are special cases of GeM pooling according to (3), i.e. global max pooling when pk approaches infinity 1 and mean pooling for pk = 1. The feature vector ultimately consists of a single value per feature map, i.e. the generalized mean activation, and its dimensionality is equal to K. The pooling parameter pk can be set manually or learned since this operation is differentiable. The pooling parameter pk is preferably learned through backpropagation. The generalized mean pooling layer makes the weed analyzer particularly powerful. For further details, please refer to the publication Fine-tuning CNN Image Retrieval with No Human Annotation by Filip Radenovic, Giorgos, Tolias Ondrej Chum, which is available at https://arxiv.org/pdf/1711.02512v2.pdf and the disclosure of which is taken over entirely via referencing.
In der Architektur des neuronalen Netzwerks, wobei dieses als gefaltetes neuronales Netzwerk, insbesondere convolutional neural network CNN, im Speziellen voll gefaltetes CNN/fully convolutional CNN ausgebildet ist oder dieses umfasst, ist es weiterhin bevorzugt, dass die Merkmale xi nach einer Normalisierung des Zentrums und des jeweiligen Merkmals mathematisch auf einer Hypersphäre verteilt werden, wobei das Zentrum die Position in der Hypersphäre des gelernten Merkmals beschreibt. Es ist vorgesehen, dass dem Merkmal xi nach der Transformation in der Hypersphäre ein geodätischer Abstand zwischen der Probe/dem Merkmal xi und dem Zentren als Additive Angular Margin Loss eingefügt wird, um eine Randstrafe zu erzeugen. Nach der Rücktransformation wird das Merkmal xi rückskaliert und zur Vorbereitung einer Verlustfunktion durch einen Softmax-Algorithmus, insbesondere einen Winkel-Softmax-Verlust weiterverarbeitet. Durch die Umsetzung der Additive Angular Margin Loss liegen die Merkmale xi näher an dem zugeordneten Zentrum und zugleich weiter von dem nächsten Zentrum entfernt. Details zu der Umsetzung des Additive Angular Margin Loss ergeben sich aus der Veröffentlichung: ArcFace: Additive Angular Margin Loss for Deep Face Recognition von Jiankang Deng, Jia Guo, Niannan Xue, abrufbar unter https://arxiv.org/pdf/1801.07698.pdf. Details zu dem Winkel-Softmax-Verlust ergeben sich aus der Veröffentlichung: SphereFace: Deep Hypersphere Embedding for Face Recognition von Weiyang Liu, Yandong Wen, Zhiding Yu, Ming Li, Bhiksha Raj, Le Song, abrufbar unter https://arxiv.org/pdf/1704.08063.pdf.In the architecture of the neural network, which is designed as or includes a folded neural network, in particular a convolutional neural network CNN, in particular a fully convolutional CNN/fully convolutional CNN, it is further preferred that the features x i after normalization of the center and the respective feature are mathematically distributed on a hypersphere, with the center describing the position in the hypersphere of the learned feature. It is envisaged that after the transformation in the hypersphere, a geodesic distance between the sample/feature xi and the center is added to the feature x i as an Additive Angular Margin Loss to generate a margin penalty. After the inverse transformation, the feature xi is rescaled and further processed to prepare a loss function by a softmax algorithm, in particular an angle softmax loss. By implementing the Additive Angular Margin Loss, the features x i are closer to the assigned center and at the same time further away from the next center. Details on the implementation of the Additive Angular Margin Loss can be found in the publication: ArcFace: Additive Angular Margin Loss for Deep Face Recognition by Jiankang Deng, Jia Guo, Niannan Xue, available at https://arxiv.org/pdf/1801.07698.pdf . Details about the angular softmax loss can be found in the publication: SphereFace: Deep Hypersphere Embedding for Face Recognition by Weiyang Liu, Yandong Wen, Zhiding Yu, Ming Li, Bhiksha Raj, Le Song, available at https://arxiv.org /pdf/1704.08063.pdf.
Bei einer möglichen Weiterbildung der Erfindung sind der Unkrautbestimmer und/oder die Unkrautdatenbank mit einer Bilderdatenbank mit einer Mehrzahl von Eingangsbildern als Ursprungsbilder verbunden. Die Eingangsteilbilder bilden einen Ausschnitt der Eingangsbilder. Es ist vorgesehen, dass die gelabelten Ausgangsteilbilder, welche auf den Eingangsteilbildern beruhen, mit den zugehörigen Eingangsbildern datentechnisch verbunden werden. Durch die datentechnische Verbindung wird erreicht, dass gelabelte Ausgangsbilder erzeugt werden, wobei die gelabelten Ausgangsbilder als Label die Lokalisierung des Unkrauts und den spezifischen Unkrauttyp aufweisen.In a possible development of the invention, the weed determiner and/or the weed database are connected to an image database with a plurality of input images as original images. The input partial images form a section of the input images. It is envisaged that the labeled output sub-images, which are based on the input sub-images, are data-technically connected to the associated input images. The data connection ensures that labeled source images are generated, with the labeled source images having the location of the weed and the specific weed type as a label.
Die datentechnische Verbindung kann durch das Label zur Lokalisierung umgesetzt werden, da dieses - wie oben erläutert - z.B. eine Position des Ausgangsteilbildes in dem Eingangsbild sein. Optional ergänzend kann das Label einen Pfad zu dem Eingangsbild aufweisen.The data connection can be implemented by the label for localization, since this - as explained above - can be, for example, a position of the output partial image in the input image. Optionally, the label can also have a path to the input image.
Anders ausgedrückt wird zunächst ein Ausschnitt von einem Eingangsbild erzeugt, wobei der Ausschnitt eines der Eingangsteilbilder darstellt. Nachfolgend wird dieses Eingangsteilbild mit dem zuvor beschriebenen Verfahren gelabelt, um das gelabelte Ausgangsteilbild zu erzeugen. Nachfolgend wird über die datentechnische Verbindung des ursprünglichen Eingangsbilds mit dem Label des gelabelten Ausgangsteilbilds versehen, um auf diese Weise das gelabelte Ausgangsbild zu erzeugen.In other words, a section of an input image is first generated, the section representing one of the input partial images. This input partial image is subsequently labeled using the previously described method in order to generate the labeled output partial image. Subsequently, the label of the labeled output partial image is provided via the data connection of the original input image in order to generate the labeled output image in this way.
Ein weiterer Gegenstand der Erfindung bildet eine Mehrzahl von Trainingsbildern, wobei die Trainingsbilder als die gelabelten Ausgangsteilbilder und/oder die gelabelten Ausgangsbilder ausgebildet sind, welche durch das Verfahren nach einem der vorhergehenden Ansprüche erzeugt sind. Optional ergänzend umfassen die Trainingsbilder auch die gelabelten Expertenbilder oder die Expertenteilbilder mit dem Label des Unkrauttyps.A further subject of the invention forms a plurality of training images, the training images being designed as the labeled initial partial images and/or the labeled initial images, which are generated by the method according to one of the preceding claims. Optionally, the training images also include the labeled expert images or the expert partial images with the label of the weed type.
Ein weiterer Gegenstand der Erfindung betrifft ein Verfahren zum Trainieren oder Nachtrainieren eines Unkrautanalysators, welcher auf einem neuronalen Netzwerk basiert, welcher zur Lokalisierung von Unkraut und/oder zur Klassifizierung von dem lokalisierten Unkraut in Bezug auf einen Unkrauttyp in einem Arbeitsbild ausgebildet ist, wobei der Unkrautanalysator auf Basis der Trainingsbilder trainiert und/oder nachtrainiert wird.A further subject of the invention relates to a method for training or retraining a weed analyzer, which is based on a neural network, which is designed to localize weeds and/or to classify the localized weeds in relation to a weed type in a working image, wherein the weed analyzer is trained and/or retrained based on the training images.
Ein weiterer Gegenstand der Erfindung wird durch eine Analysevorrichtung zur Analyse eines Arbeitsbilds gebildet. In dem Arbeitsbild können Nutzpflanzen und Unkraut dargestellt sein. Die Vorrichtung weist den Unkrautanalysator oder den Unkrautbestimmer auf, welcher als ein neuronales Netzwerk, insbesondere als ein CNN ausgebildet ist oder dieses umfasst. Der Unkrautanalysator und/oder der Unkrautbestimmer ist nach einem der vorhergehenden Verfahren trainiert. Die Analysevorrichtung ist zur Montage auf einem landwirtschaftlichen Fahrzeug oder Gerät ausgebildet, wobei die Analysevorrichtung eine Ausgangsschnittstelle zur Ausgabe von Daten zu der Lokalisierung des Unkrauts und des Unkrauttyps aufweist. Das landwirtschaftliche Fahrzeug oder Gerät ist ausgebildet, ein ortsselektives und unkrauttypspezifisches Sprühen von Pflanzenschutzmitteln auf Basis der Daten umzusetzen. Hierfür weist dieses z.B. eine Pflanzenschutzmittelverteileinrichtung, welche in Abhängigkeit der Lokalisierung des Unkrauts und des Unkrauttyps Planzenschutzmittel aus einer Mehrzahl von Pflanzenschutzmitteln unkrauttypselektiv oder -abhängig auswählt oder mischt und ortsselektiv, in Abhängigkeit der Lokalisierung des Unkrauts ausbringt. Auf diese Weise kann Pflanzenschutzmittel eingespart werden, da dieses nur ortsselektiv und unkrauttypselektiv auf das Unkraut gesprüht wird.Another subject of the invention is an analysis device for analyzing a working image. Crops and weeds can be shown in the working image. The device has the weed analyzer or the weed determiner, which is designed as or includes a neural network, in particular as a CNN. The weed analyzer and/or the weed determiner is trained according to one of the preceding methods. The analysis device is designed to be mounted on an agricultural vehicle or device, the analysis device having an output interface for outputting data on the location of the weed and the weed type. The agricultural vehicle or device is designed to implement site-selective and weed-type-specific spraying of plant protection products based on the data. For this purpose, for example, it has a plant protection product distribution device which, depending on the location of the weed and the type of weed, selects or mixes plant protection products from a plurality of plant protection products in a weed-type-selective or weed-dependent manner and applies them locally, depending on the location of the weed. In this way, plant protection products can be saved because they are only sprayed onto the weeds in a location-selective and weed-type-selective manner.
Ein optionaler Gegenstand wird durch das landwirtschaftliche Fahrzeug oder Gerät mit der Analysevorrichtung gebildet. Insbesondere weist das landwirtschaftliche Fahrzeug oder Gerät Feldspritzen als Teil der Pflanzenschutzmittelverteileinrichtung auf, wobei es möglich ist, aus verschiedenen mitgeführten Pflanzenschutzmittel bspw. an den jeweiligen Düsen auszuwählen und zu mischen und/oder mit Wasser zu verdünnen, um dieses unkrauttypspezifisch auszubringen.An optional item is formed by the agricultural vehicle or device with the analysis device. In particular, the agricultural vehicle or device has field sprayers as part of the crop protection agent distribution device, whereby it is possible to select from various crop protection agents carried, for example at the respective nozzles, and to mix them and/or dilute them with water in order to apply them in a weed-specific manner.
Einen weiteren Gegenstand der Erfindung bildet ein Computerprogramm, wobei das Computerprogramm ausgebildet und/oder eingerichtet ist, bei seiner Ausführung das erfindungsgemäße Verfahren und/oder die Schritte des Verfahrens auszuführen, anzuwenden und/oder zu implementieren.A further subject of the invention is a computer program, wherein the computer program is designed and/or set up to carry out, apply and/or implement the method according to the invention and/or the steps of the method when it is executed.
Einen weiteren Gegenstand der Erfindung bildet ein maschinenlesbares Speichermedium, wobei auf dem Speichermedium das Computerprogramm gespeichert ist.A further subject of the invention is a machine-readable storage medium, the computer program being stored on the storage medium.
Weitere Vorteile, Wirkungen und/oder Ausgestaltungen ergeben sich aus den beigefügten Figuren und deren Beschreibung. Dabei zeigen:
-
1 ein Blockdiagramm zur Illustration eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens; -
2 ein Blockdiagramm einer Analysevorrichtung mit einem Unkrautanalysator ausgebildet als ein gefaltetes neuronales Netzwerk, welches mit Trainingsbildern aus dem Verfahren gemäß1 trainiert ist; -
3 eine schematische Darstellung des gefalteten neuronalen Netzwerks des Unkrautbestimmers; -
4 eine schematische Darstellung von einem Teil des gefalteten neuronalen Netzwerks des Unkrautbestimmers.
-
1 a block diagram to illustrate an exemplary embodiment of the method according to the invention; -
2 a block diagram of an analysis device with a weed analyzer designed as a folded neural network, which uses training images from the method according to1 is trained; -
3 a schematic representation of the convolutional neural network of the weed determiner; -
4 a schematic representation of part of the convolutional neural network of the weed determiner.
Die
Das Verfahren verwendet einen Unkrautbestimmer 3, wobei der Unkrautbestimmer 3 als ein gefaltetes neuronales Netzwerk (CNN) ausgebildet ist oder dieses umfasst. Die Eingangsteilbilder 1 werden einer Eingangsschicht des Unkrautbestimmers 3 bereitgestellt.The method uses a
Die Eingangsteilbilder 1 sind zumindest zum Teil als ungelabelte Teilbilder 4 ausgebildet, welche zumindest keine Label L1, L2 hinsichtlich der Lokalisierung und des Unkrauttyps tragen. Alternativ hierzu können die Eingangsbilder 1 als vorgelabelte Bilder 5 ausgebildet sein, wobei zumindest das Label L1 zur Lokalisierung von einem Unkraut in dem Teilbild 5 vorgesehen ist.The input partial images 1 are at least partially designed as unlabeled
Für den Fall, dass die Eingangsteilbilder 1 als ungelabelte Teilbilder 5 ausgebildet sind, ist der Unkrautbestimmer 3 ausgebildet, sowohl die Lokalisierung des Unkrauts zu bestimmen als auch den Unkrauttyp zu bestimmen und die Label L1 und L2 zu annotieren. Für den Fall, dass die Eingangsteilbilder 1 als vorgelabelte Teilbilder 5 ausgebildet sind, kann das Label L1 der Lokalisierung des Unkrauts eine Eingangsinformation für den Unkrautbestimmer 3 bilden, wobei der Unkrautbestimmer 3 nur den Unkrauttyp für das Label L2 bestimmt.In the event that the input partial images 1 are designed as unlabeled partial images 5, the
In beiden Fällen weist das Ausgangsteilbild 2 das Label L1 und das Label L2 auf. Es kann auch vorgesehen sein, dass ein erster Unkrautbestimmer 3 für ungelabelte Teilbilder 4 und ein zweiter Unkrautbestimmer 3 für die vorgelabelten Teilbilder 5 ausgebildet ist. Die Eingangsteilbilder 1 können zum einen zum Beispiel als Ausschnitte von einer Sammlung von Eingangsbildern 17 oder von einer Kamera stammen.In both cases, the
Alternativ hierzu stammen diese aus einer Unkrautdatenbank 6, wobei die Unkrautdatenbank 6 eine Vielzahl von Eingangsteilbildern 1 bzw. Teilbilder 5 umfasst. Dabei können die Eingangsteilbilder 1 sowohl als ungelabelte Teilbilder 4 als auch als vorgelabelte Teilbilder 5 ausgebildet sind. Der Unkrautbestimmer 3 kann zum einen eingesetzt werden, um ein Eingangsteilbild 1 zu verarbeiten und das Ausgangsteilbild 2 direkt auszugeben. Es kann jedoch auch vorgesehen sein, dass der Unkrautbestimmer 3 sich ein Eingangsteilbild 1 aus der Unkrautdatenbank 6 nimmt, welches als ein ungelabeltes Teilbild 4 oder als ein vorgelabeltes Teilbild 5 ausgebildet ist, die Label ergänzt, so dass das gelabelte Ausgangsteilbild 2 gebildet wird und das gelabelte Ausgangsteilbild 2 wieder in die Unkrautdatenbank 6 eingepflegt wird. Mit dieser Vorgehensweise ist es möglich, eine bereits bestehende Unkrautdatenbank 6 hinsichtlich des Labels L1 des Unkrauttyps zu ergänzen.Alternatively, these come from a
Der Unkrautbestimmer 3 wird insbesondere durch Expertenbilder 7 umfassend Expertenteilbilder trainiert, welche manuell gelabelt worden sind, insbesondere in Bezug auf die Lokalisierung des Unkrauts und des Unkrauttyps.The
Bei dem gezeigten Aufbau ist es nicht nur möglich, dass die Unkrautdatenbank 6 weiter gefüllt und verbessert wird. Es ist auch möglich, dass Eingangsbilder 17 aus einer weiteren Bilddatenbank oder Bildsammlung mit bereits vorgelabelten Eingangsteilbildern 5 über den Unkrautbestimmer 3 nachbearbeitet werden und in gelabelte Ausgangsbilder 18 überführt werden. Hierzu existiert eine datentechnische Verbindung zwischen Eingangsbild 17, dem vorgelabelten Eingangsteilbild 5 und dem gelabelten Ausgangsteilbild 2.With the structure shown, it is not only possible for the
Dabei ist es in einer Variante möglich, dass das Eingangsbild 17 mit dem vorgelabelten Eingangsteilbild 5 durch den Unkrautbestimmer 3 nachgelabelt wird, indem zunächst das gelabelte Ausgangsteilbild 2 erzeugt wird und die Label L1 und L2 dem Eingangsbild 17 zugeordnet werden, um das gelabelte Ausgangsbild 18 zu erzeugen. Eingangsbild 17 und das Ausgangsbild 18 haben den gleichen Bildinhalt und unterscheiden sich nur durch die Label L1 und L2.In one variant, it is possible for the
In einer anderen Variante wird ein vorgelabeltes Eingangsteilbild 5 in der Unkrautdatenbank 6 nachgelabelt, um das gelabelte Ausgangsteilbild 2 zu erzeugen. Durch eine datentechnische Verbindung zu dem ursprünglichen Eingangsbild 17 werden die Label L1 und L2 in dem ursprünglichen Eingangsbild 17 annotiert, um das gelabelte Ausgangsbild 18 zu erzeugen.In another variant, a pre-labeled input partial image 5 is re-labeled in the
Die
Der Unkrautanalysator 11 lokalisiert etwaiges Unkraut in dem Eingangsbild 1 und bestimmt den Unkrauttyp des lokalisierten Unkrauts. Die Analysevorrichtung 8 weist eine Ausgangsschnittstelle 12 zur Ausgabe von Daten zu der Lokalisierung des Unkrauts und des Unkrauttyps in dem Eingangsbild 1 auf. Die Daten werden an eine Pflanzenschutzmittelverteileinrichtung 13 weitergeleitet, wobei die Pflanzenschutzmittelverteileinrichtung 13 Pflanzenschutzmittel zum einen ortsselektiv und zum anderen unkrauttypselektiv ausgeben kann.The
So kann die Pflanzenschutzmittelverteileinrichtung 13 durch eine oder mehrere Sprühdüsen zum einen das Pflanzenschutzmittel gezielt auf das lokalisierte Unkraut richten (ortsselektiv) und zum anderen selektiv ein Pflanzenschutzmittel auswählen oder mischen, welches für den Unkrauttyp geeignet ist (unkrauttypselektiv). Insbesondere verfügt die Pflanzenschutzmittelverteileinrichtung 13 über mehr als zwei, vorzugsweise mehr als vier unterschiedliche Pflanzenschutzmittel.The plant protection
Es ist vorgesehen, dass der Unkrautanalysator 11 durch Ausgangsteilbilder 2 des Unkrautbestimmers 3 und/oder durch die über den Unkrautbestimmer 3 gelabelten Ausgangsbilder 18 trainiert ist. Dabei können die Ausgangsteilbilder 2 unmittelbar von dem Unkrautbestimmer 3 übernommen werden oder über die Unkrautdatenbank 6 bereitgestellt werden. Die über den Unkrautbestimmer 3 gelabelten Ausgangsbilder 18 können aus der Bilderdatenbank oder der Bildersammlung entnommen werden. Alternativ zu dem Unkrautanalysator 11 kann auch der Unkrautbestimmer 3 in der Analysevorrichtung 8 verwendet werden.It is envisaged that the
Die
In der
Besondere Vorteile ergeben sich insbesondere durch eine Aufwandsreduktion bzw. eine Reduktion der notwendigen Expertise zum Labeling von Bildern von Nutzpflanzungen mit und ohne verschiedenste Unkrautarten / Unkrautgattungen. Es wird ein Verfahren zum automatischen Labeln von Bildern bzgl. konkreter Unkrautarten bzw. Unkrautgattungen vorgestellt. Schlüsselkomponente ist ein sogenannter „Weed Hunter“, der Unkrautbestimmer 3, - ein CNN mit trainierbarer Generalized Mean Pooling-Schicht 16, welche mit Winkel-Softmax-Verlust und Additive Angular Margin Loss anhand einer begrenzten Anzahl an von Experten gelabelter Bilder (Expertenbildern 7) bzgl. einer (oder auch mehrerer) bestimmten Unkrautart(en) bzw. Unkrautgattung(en) (z.B. „Conyza Sample Image) trainiert werden. Der trainierte „Weed Hunter“ kann eine vorhandene Bilddatenbank als Unkrautdatenbank 6 mit Teilbildern von Nutzpflanzungen mit und ohne verschiedenste Unkrautarten / Unkrautgattungen nachträglich bzgl. konkreter Unkrautarten / Unkrautgattungen automatisch neu labeln und die Bilddatenbank nachträglich diesbezüglich strukturiert werden oder aktuelle Teilbilder labeln, die dann in der Bilddatenbank gespeichert werden können.Particular advantages arise in particular from a reduction in effort or a reduction in the expertise required for labeling images of crops with and without a wide variety of weed species/weed genera. A method for automatically labeling images with regard to specific weed species or weed genera is presented. The key component is a so-called “weed hunter”, the
Die somit über eine Ähnlichkeitssuche gefunden Bilder (Gruppen) sind die Basis für das Training bzw. Nachtraining des Objektdetektors bzw. Klassifikators zur Unkrauterkennung (Unkrautanalysators) auf dem Sprayer. Der Vorteil ist eine deutliche Aufwandreduzierung des Labelings von Bilddaten von Nutzpflanzungen mit und ohne verschiedenste Unkrautarten / Unkrautgattungen durch notwendige Pflanzen / Unkraut Experten. Der „Weed Hunter“ beinhaltet im Wesentlichen ein CNN mit trainierbarer GeM (Generalized Mean) Pooling Schicht (16). Die Ähnlichkeitssuche (und quasi am Ende die gefunden Merkmale / Abstände = „Training“) erfolgt mit Winkel- Softmax-Verlust für CNNs (bspw. A-Softmax-Verlust) und Additive Angular Margin Loss anhand einer begrenzten Anzahl an von Experten gelabelte Bilder (Expertenbilder 7) bzgl. einer (oder auch mehrerer) bestimmten Unkrautart(en) bzw. Unkrautgattung(en) („Conyza Sample Image). Nun lässt sich das Verfahren des „trainierten Weed Hunter“ auf zwei verschiedene Weisen getrennt oder parallel anwenden.The images (groups) found via a similarity search are the basis for training or retraining the object detector or classifier for weed detection (weed analyzer) on the sprayer. The advantage is a significant reduction in the effort involved in labeling image data of crops with and without a wide variety of weed species/weed genera by the necessary plant/weed experts. The “Weed Hunter” essentially contains a CNN with a trainable GeM (Generalized Mean) pooling layer (16). The similarity search (and at the end the features/distances found = “training”) is carried out with angular softmax loss for CNNs (e.g. A-softmax loss) and additive angular margin loss using a limited number of images labeled by experts ( Expert images 7) regarding one (or several) specific weed species or weed genus (“Conyza Sample Image). Now the “trained weed hunter” process can be used in two different ways, separately or in parallel.
Variante 1:Version 1:
Ausschnitte von aktuell aufgenommenen und übertragenen Eingangsbilder 17 z.B. von den Kameras des Sprayers als ungelabelte Eingangsteilbilder 5 werden mit dem „Weed Hunter“ auf Ähnlichkeit geprüft (Image Retrieval) und bei Ähnlichkeit entsprechend der erkannten Unkrautart(en) bzw. Unkrautgattung(en) gelabelt und in der Unkrautdatenbank 6 abgelegt. D.h. die Unkrautdatenbank 6 wird mit bzgl. einer (oder auch mehrerer) bestimmten Unkrautart(en) bzw. Unkrautgattung(en) gelabelten Bildern gefüllt.Excerpts from currently recorded and transmitted
Variante 2:Variant 2:
In der Unkrautdatenbank existieren Teilbilder mit und ohne Unkraut, die aber nicht genauer bzgl. konkreter Unkrautart(en) oder Unkrautgattung(en) als Unkrauttyp gelabelt sind. Das entspricht aktuell dem Vorgehen, wobei alle Pflanzen die nicht der bestimmten Nutzpflanze entsprechen, erst einmal ganz allgemein und unspezifisch als Unkraut gelabelt werden. Werden nun nachträglich eine begrenzte Anzahl an Teilbildern aus oder außerhalb der Unkrautdatenbank von Experten bzgl. einer (oder auch mehrerer) bestimmten Unkrautart(en) bzw. Unkrautgattung(en) („Conyza Sample Image“) als Unkrauttyp L2 gelabelt und der „Weed Hunter“ mit diesen Expertenbilder 7 trainiert, so können mit dem trainierten „Weed Hunter“ alle Unkrautbilder in der Datenbank auf Ähnlichkeit untersucht werden und nachträglich konkret bzgl. einer (oder auch mehrerer) bestimmten Unkrautart(en) bzw. Unkrautgattung(en) als Unkrauttyp neu gelabelt werden.In the weed database there are partial images with and without weeds, but they are not labeled as a weed type with more specificity regarding specific weed species or weed genus. This corresponds to the current procedure, whereby all plants that do not correspond to the specific crop are initially labeled as weeds in a very general and non-specific manner. A limited number of partial images from or outside the weed database are now subsequently labeled by experts regarding one (or several) specific weed species or weed genus (“Conyza Sample Image”) as weed type L2 and the “Weed Hunter “ trained with these expert images 7, the trained “Weed Hunter” can be used to examine all weed images in the database for similarity and subsequently re-identify one (or more) specific weed species or weed genus as a weed type be labeled.
Mit den durch die Experten und den „Weed Hunter“ gelabelten Teilbilder können Objektdetektoren bzw. Klassifikatoren als Unkrautanalysator 11 zur spezifischen Unkrauterkennung und Lokalisierung trainiert bzw. spezifischer nachtrainiert werden. Dadurch kann der Aufwand bzgl. Labeling von Bilddaten als auch Zeit und Kosten für Pflanzen - Experten gespart werden. Pflanzenschutzmittel können selektiver ausgewählt werden und dadurch Umwelt und Natur schonen. Da das Training der Objektdetektoren bzw. Klassifikatoren zur Erkennung von Unkräutern offline erfolgt sind der „Weed Hunter“ und die Unkrautdatenbank vorzugsweise im Back End eines Service Providers (Cloud, Server, PC) des erfindungsgemäßen Verfahrens implementiert. Die aktuellen Bilder von Nutzpflanzungen mit / ohne Unkräuter können drahtlos dorthin übertragen werden oder aber auf dem Sprayer gesammelt / gespeichert und mittels Datenträger ausgelesen und zum Service Provider transportiert werden. Besonders hervorzuheben ist mit dem Vorliegen von neuen Unkrautart- bzw. Unkrautgattung - Teilbildern können alte / vormalige Unkrautart- bzw. Unkrautgattung- Teilbilder neu gelabelt werden. Bzw. bei Verfügbarkeit von Experten bzw. neuem Wissen für bestimmte Unkrautarten bzw. Unkrautgattungen kann nachträglich das Labeling verbessert werden (ReRanking). Das Verfahren kann auch auf Pflanzenkrankheiten angewendet bzw. erweitert werden.With the partial images labeled by the experts and the “Weed Hunter”, object detectors or classifiers can be trained or more specifically retrained as
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- EP 3815529 A1 [0003]EP 3815529 A1 [0003]
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022206224.8A DE102022206224A1 (en) | 2022-06-22 | 2022-06-22 | Method for automatically labeling input images, training images, method for training or retraining a weed analyzer, analysis device, computer program and machine-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022206224.8A DE102022206224A1 (en) | 2022-06-22 | 2022-06-22 | Method for automatically labeling input images, training images, method for training or retraining a weed analyzer, analysis device, computer program and machine-readable storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022206224A1 true DE102022206224A1 (en) | 2023-12-28 |
Family
ID=89075756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022206224.8A Pending DE102022206224A1 (en) | 2022-06-22 | 2022-06-22 | Method for automatically labeling input images, training images, method for training or retraining a weed analyzer, analysis device, computer program and machine-readable storage medium |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102022206224A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3815529A1 (en) | 2019-10-31 | 2021-05-05 | Deere & Company | Agricultural plant detection and control system |
DE102019218189A1 (en) | 2019-11-25 | 2021-05-27 | Robert Bosch Gmbh | Method for generating a large number of annotated images |
DE102019218187A1 (en) | 2019-11-25 | 2021-05-27 | Robert Bosch Gmbh | Method for processing plants in a field, method for generating training data and method for training a neural network |
-
2022
- 2022-06-22 DE DE102022206224.8A patent/DE102022206224A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3815529A1 (en) | 2019-10-31 | 2021-05-05 | Deere & Company | Agricultural plant detection and control system |
DE102019218189A1 (en) | 2019-11-25 | 2021-05-27 | Robert Bosch Gmbh | Method for generating a large number of annotated images |
DE102019218187A1 (en) | 2019-11-25 | 2021-05-27 | Robert Bosch Gmbh | Method for processing plants in a field, method for generating training data and method for training a neural network |
Non-Patent Citations (4)
Title |
---|
A Novel and Automated Approach to Classify Radiation Induced Lung Tissue Damage on CT Scans, Adam Szmul et al. Cancers 2022, 14(5), 1341; https://doi.org/10.3390/cancers14051341 |
Annotate data for less with Amazon SageMaker Ground Truth and automated data labeling by Krzysztof Chalupka, Fedor Zhdanov, and Tristan McKinney | on 06 FEB 2019 | in Amazon SageMaker Ground Truth, Artificial Intelligence https://aws.amazon.com/de/blogs/machine-learning/annotate-data-for-less-with-amazon-sagemaker-ground-truth-and-automated-data-labeling/ |
Automate weed detection in farm crops using Amazon Rekognition Custom Labelsby Raju Penmatcha | on 28 MAY 2021 | in Amazon Rekognition, Artificial Intelligence https://aws.amazon.com/blogs/machine-learning/automate-weed-detection-in-farm-crops-using-amazon-rekognition-custom-labels/ |
Multi-Spectral Image Synthesis for Crop/Weed Segmentation in PrecisionFarming, Mulham Fawakherji et al., Article in Robotics and Autonomous Systems · August 2021, DOI: 10.1016/j.robot.2021.103861 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112017002799B4 (en) | METHOD AND SYSTEM FOR GENERATION OF MULTIMODAL DIGITAL IMAGES | |
EP3782467B1 (en) | Method for identifying weeds within a defined row of plants of an agricultural area | |
DE102018200724A1 (en) | Method and device for improving the robustness against "Adversarial Examples" | |
DE102017116017A1 (en) | An automotive sensor device having a plurality of sensor units and a plurality of neural networks for generating a combined representation of an environment | |
Sørensen et al. | Thistle detection using convolutional neural networks | |
DE102018128531A1 (en) | System and method for analyzing a three-dimensional environment represented by a point cloud through deep learning | |
DE102019127282A1 (en) | System and method for analyzing a three-dimensional environment through deep learning | |
WO2019001649A1 (en) | Knowledge transfer between different deep learning architectures | |
DE112019007762T5 (en) | Method for training a generative adversarial network, modified image generation module and system for detecting features in an image | |
DE102019209644A1 (en) | Method for training a neural network | |
WO2018073163A1 (en) | Yield prediction for a cornfield | |
DE202022101590U1 (en) | A system for classifying remotely sensed imagery using fused convolution features with machine learning | |
DE102017219282A1 (en) | Method and device for automatically generating an artificial neural network | |
DE102018120756A1 (en) | Mobile analysis and processing device, method and carrier system | |
DE112020003446T5 (en) | Validating a performance of a neural network trained with labeled training data | |
DE4329343A1 (en) | Image-analytical method, suitable for use in the field, for the automatic detection and combatting of types of weed | |
DE102019218189A1 (en) | Method for generating a large number of annotated images | |
DE102022206224A1 (en) | Method for automatically labeling input images, training images, method for training or retraining a weed analyzer, analysis device, computer program and machine-readable storage medium | |
EP4064819B1 (en) | Method for treating plants in a field, for generating training data and for training a neural network | |
DE202021106121U1 (en) | Biomimetically designed smart drone for weed removal on agricultural crops using artificial intelligence and deep learning | |
DE102021204040A1 (en) | Method, device and computer program for creating training data in the vehicle | |
EP3841444B1 (en) | Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor | |
DE102019130091A1 (en) | Process for the automatic creation of documentation | |
EP3840559A1 (en) | Mobile analysis and processing device | |
WO2020187394A1 (en) | Method for training an autoencoder and for classifying data, and autoencoder and computer program for this purpose |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |