EP4088223A1 - Method for generating a plurality of annotated images - Google Patents

Method for generating a plurality of annotated images

Info

Publication number
EP4088223A1
EP4088223A1 EP20811285.4A EP20811285A EP4088223A1 EP 4088223 A1 EP4088223 A1 EP 4088223A1 EP 20811285 A EP20811285 A EP 20811285A EP 4088223 A1 EP4088223 A1 EP 4088223A1
Authority
EP
European Patent Office
Prior art keywords
images
information
pixel
field
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP20811285.4A
Other languages
German (de)
French (fr)
Inventor
Markus Hoeferlin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP4088223A1 publication Critical patent/EP4088223A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/38Outdoor scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables

Definitions

  • the present invention relates to a method for generating a plurality of annotated images, and in particular a method for generating a plurality of pixel-by-pixel annotated images of a field on which plants are growing.
  • class is to be understood in the following as a class of a classification and not as a class in the sense of biosystematics.
  • supervised learning methods are predominantly used, such as in "Plant classifications system for crop / weed discrimination without segmentation”; Applications of Computer Vision (WACV), 2014 IEEE Winter Conference, 2014, 1142-1149; "Support Vector Machines for crop / weeds Identification in maize fields”; Expert Systems with Applications, 2012, 39, 11149-11155; and "Evaluation of Features for Leaf Classification in Challenging Conditions”; Applications of Computer Vision (WACV), 2015 IEEE Winter Conference, 2015, 797-804; disclosed.
  • annotation information For the monitored training of the classifier, large amounts of learning or training data are required in the form of images that are annotated or classified with annotation information.
  • This annotation information can have different information.
  • the annotation information preferably includes a classification that shows the pixels in the images that a plant to be classified, ie useful plant or weed, shows correct class too.
  • the annotation information can also have further information, such as row information.
  • the annotation information is also referred to as the ground truth.
  • FIG. 5 shows a tool 50 for annotating images at the pixel level with the annotation information, the annotation information in particular specifying classification information of a plant.
  • the annotation information can be, for example, species, genus or simply a distinction between useful plants and weeds.
  • Each captured image must be annotated separately with annotation information, which is shown by a controller 52.
  • the plants shown are annotated with annotation information that distinguishes between two classes, useful plant (“bed”) 54 and weeds (“other”) 56.
  • semi-automatic annotation support such as following the annotations over several images or frames of a video to be annotated, semi-automatic segmentation of the plants, etc., the effort is very high due to the large number of images to be annotated.
  • the effort for annotating images also increases sharply in crops with smaller plant spacing due to obscurations.
  • 1A shows a picture of the field on which arugula grows, in the visible area
  • 1B shows an image in the infrared range of a field on which arugula is growing
  • 3 shows a stitched picture composed of a plurality of pictures
  • 4A shows a tool for annotating the deleted image
  • a field can be understood to be a delimited area of land for the cultivation of useful plants or a part of such a field.
  • a useful plant is understood to be an agriculturally used plant which itself or its fruit is used, e.g. as food, feed or as an energy plant.
  • the seeds and consequently the plants are primarily arranged in rows, it being possible for objects to be present between the rows and between the individual plants within a row. However, the objects are undesirable because they reduce the yield of the plants or represent a disruptive influence during cultivation and / or harvesting.
  • An object can be understood to mean any plant that is different from the useful plant, or any object. Objects can in particular be weeds, woods and stones.
  • FIG. 1A shows a picture of a field on which arugula is grown in rows, in the visible area.
  • the leaves of each Some of the rocket plants overlap strongly.
  • FIG. 1B the plants can be very robustly segmented from the subsurface by an additionally recorded image of the field in the infrared range and by using various segmentation methods (eg NDVI index, ExG index, ExG - ExR index, etc.)
  • segmentation methods eg NDVI index, ExG index, ExG - ExR index, etc.
  • a pixel can be annotated with further information.
  • annotation information the information with which a pixel is annotated.
  • the method 100 according to the invention is intended to reduce this effort when annotating the multiplicity of images with the annotation information pixel by pixel.
  • the individual steps of the method are shown in the flow chart in FIG. 2 and are described in detail.
  • the multiplicity of images of a surface of the field is acquired by an image acquisition means.
  • the image capturing means is a camera, such as a CCD camera, a CMOS camera, etc., which captures an image in the visible range (see e.g. Fig. 1A) and provides it as RGB values or as values in another color space.
  • the image acquisition means can, however, also be a camera which acquires an image in the infrared range (see e.g. Fig. 1B). An image in the infrared range is particularly suitable for capturing plants, as the reflection of the plants is significantly increased in this frequency range.
  • the image acquisition means can also be, for example, a mono, RGB, multispectral, hyperspectral camera.
  • other data can be acquired using sensors such as 3D sensors, etc. It is possible for several image acquisition means to be present on the vehicle and for several images to be acquired essentially synchronously by the different image acquisition means and data from different sensors.
  • the field on which the plants and objects are present is detected by the image capturing means during a drive over with a vehicle on which the image capturing means is attached.
  • the image acquisition means can be attached to a vehicle specially provided for this purpose. However, the image acquisition means can also be attached to an agricultural vehicle, such as a tractor, a trailer, etc., or an aircraft, such as a drone, for example.
  • the image capturing means is attached to the vehicle in such a way that an image sensor of the image capturing means is in the Is substantially parallel to a surface of the field.
  • the image sensor of the image acquisition means can, however, also be inclined to the surface of the field.
  • the vehicle to which the image capturing means is attached drives or flies the field and the image capturing means captures the images at a predetermined time interval.
  • the images are preferably captured in such a way that they overlap. For this reason, the image capturing means captures several images per second during the passage, as a result of which the images strongly overlap at a low passage speed. In this way, images of a single plant are recorded from several perspectives, so that consequently a large number of images with different views of the same plant are available as learning data. In this way, a recognition accuracy of the classifier is improved.
  • the multitude of images can also be recorded as video.
  • the vehicle can also drive off / fly off the field autonomously or remotely.
  • the images are then stored in a memory and are then available for further processing.
  • the images can be transferred to a separate computing unit that is not attached to the vehicle.
  • the images can also be further processed in a computing unit that is mounted on the vehicle.
  • the large number of images should preferably show all growth phases of the useful plant and, if possible, all occurring weeds with all possible biological growth morphologies, since different circumstances such as water, heat, soil, nutrients, wind, etc., the growth and / or the appearance of the useful plants and the Can affect weeds.
  • step S104 is carried out essentially synchronously with step S102.
  • position information is acquired using position detection means.
  • the position detection means detects the position information using high-precision GPS, but can alternatively also detect it using, for example, odometry, visual odometry, and other tracking methods.
  • the position information is given as world coordinates, but can also be given as field coordinates, longitude + latitude, etc., for example.
  • the position information is then correlated with the image recorded in step S102, so that the position in the field at which the image is recorded can be precisely determined.
  • the position information obtained is assigned to a point in the center of the image.
  • the position information can also be assigned to another point in the image, e.g. a corner point.
  • distances between the mounting position of the image capturing means and the mounting position of the position capturing means on the vehicle must be taken into account when correlating the position information with the captured image.
  • the spatial extent of the image on the field in an X and a Y direction can then be determined using an image angle of the image capturing means and the distance of the image capturing means to the floor surface. If the image sensor of the image acquisition means is inclined to the surface of the field, this inclination must also be taken into account when calculating the spatial extent of the image on the field.
  • position information and consequently a position on the field can also be assigned to each of the pixels of the image.
  • This procedure can also be applied to images that are acquired by another image acquisition means and to data that are acquired by different sensors.
  • step S106 the images that are captured during the same passage and for which the position information was obtained in S104 are combined to form a stitched image using the position information in order to display a coordinate system that is more global than the pixel coordinate system on the image level Has resolution to create.
  • a position in the field that is recorded due to the movement of the vehicle and the rapid repetition rate when recording the images in different images from different perspectives has the same position information in all images.
  • a stitched image as obtained after performing step S106 is shown in FIG. 3.
  • the stitched picture in Fig. 3 was under Using high-precision GPS put together from several hundred images.
  • step S108 the stitched image previously generated in S106 is annotated pixel by pixel with the annotation information, the amount of pixels to be annotated due to the overlap of the images and the representation as a stitched image compared to the case in which all images are to be annotated individually pixel by pixel, is significantly reduced.
  • 4A shows a tool with which the panoramic image is annotated.
  • the useful plants are identified by a marking 42.
  • the pixels belonging to the useful plant around those with marking 42 can be automatically recognized and annotated by the tool and classification information can be added for the individual pixels.
  • the panoramic image can be annotated with row information, i.e. information about the course of a row of plants 44.
  • the annotation information of the pixels of a row of plants 44 thus has the row information in addition to the classification information.
  • the annotation information is again transferred to the individual images using the position information, which were captured in step S102 and from which the stitched image was combined in step S106.
  • the annotation information can also be transferred to images that are only partially shown in the stitched image, since the pixels of the images only partially shown in the stitched image also have the position information.
  • the amount of annotated image material can be increased compared to the representation as a stitched image.
  • the described transmission of the annotated annotation information is not limited to the plurality of images captured by the same image capturing means during the same passage, but can be to the various other images to be annotated and Data collected on the same field can be applied.
  • the prerequisite for this, however, is that these images and data contain the position information and that the images show the same plants during the same cultivation period.
  • the annotation information can also be transferred to the multitude of images showing the same plants (or the same annotation object) at a different point in time with varying perspectives, plant growth stages, lighting conditions, weather conditions,
  • the annotation information can also be transferred to a large number of images that are recorded by another image recording device during the same passage.
  • the annotation information can, however, also be transferred to a large number of images that are recorded by the other image recording means during a passage at a different point in time.
  • the prerequisite for transmitting the annotation information is again that the data to which the annotation information is to be transmitted has the position information.
  • This procedure can also be applied to other data collected by sensors. As a result, the effort for generating a multiplicity of pixel-wise annotated images of a different type and of further data is also reduced.
  • Another advantage of transmitting the annotation information using the position information is that the resolution and the angle of view of the other image capture means do not have to be taken into account.
  • the present invention uses one or more information sources for annotating images with annotation information pixel by pixel in order to have to annotate each plant only once manually in a larger context.
  • the images of the same plant or a part of it, which are not shown in the larger context can then be automatically annotated at the pixel level.
  • a large number of images that have annotation information at the pixel level can be obtained with very little effort.
  • This large number of images, which have the annotation information at the pixel level can then be used for a classifier, such as. For example, to train a neural network, etc., which is to be used for the classification of plants.
  • the method according to the invention is not limited to images of a field on which plants are growing.
  • the method can be used for various applications in which a large number of images that overlap one another are to be annotated with information on a pixel-by-pixel basis.

Abstract

A method (100) for generating a plurality of pixel-by-pixel annotated images of a field in which plants grow, has the following steps: capturing (S102) the plurality of images of the field using an image capture means, the images overlapping one another; substantially simultaneously requesting (S104) positional information about the position at which each of the images was captured in the field; arranging (S106) the plurality of images in a more global context as a stitched image, using the positional information; annotating (S108) pixels of the stitched image with annotation information containing at least classification information that indicates a class of the plant; and transferring (S110) the annotation information to the pixels of the plurality of images, using the positional information.

Description

Verfahren zum Generieren einer Vielzahl von annotierten Bildern Method for generating a large number of annotated images
Beschreibung description
Technisches Gebiet Technical area
Die vorliegende Erfindung betrifft ein Verfahren zum Generieren einer Vielzahl von annotierten Bildern, und insbesondere ein Verfahren zum Generieren einer Vielzahl von pixelweise annotierten Bildern von einem Feld, auf dem Pflanzen wachsen. The present invention relates to a method for generating a plurality of annotated images, and in particular a method for generating a plurality of pixel-by-pixel annotated images of a field on which plants are growing.
Hintergrund background
Für die Automatisierung verschiedener in der Landwirtschaft und Saatzucht anfallender Arbeiten, wie z.B. das Regulieren von Beikräutern, das Zählen und Vermessen von Pflanzen zur Phänotypisierung, die selektive Ernte, die selektive Applikation von Herbiziden, Fungiziden, Pestiziden und Insektiziden uvm., ist die Klassifizierung von Pflanzen auf einem Feld unabdingbar. Eine falsche Bestimmung der Klasse, zu der eine einzelne Pflanze gehört, würde z.B. zum Jäten einer Nutzpflanze oder zur Zählung, Vermessung und/oder Behandlung von einem Beikraut führen. Es ist anzumerken, dass „Klasse“ im Folgenden als eine Klasse einer Klassifikation und nicht als Klasse im Sinne der Biosystematik zu verstehen ist. The classification of Plants are essential in a field. An incorrect determination of the class to which an individual plant belongs would lead, for example, to the weeding of a useful plant or the counting, measurement and / or treatment of a weed. It should be noted that “class” is to be understood in the following as a class of a classification and not as a class in the sense of biosystematics.
Für das Training eines Klassifizierers zur Pflanzenklassifizierung werden überwiegend überwachte Lernverfahren (supervised learning) eingesetzt, wie z.B. in „Plant classificationsystem for crop/ weed discrimination without Segmentation“; Applications of Computer Vision (WACV), 2014 IEEE Winter Conference, 2014, 1142-1149; “Support Vector Machines for crop/ weeds Identification in maize fields“; Expert Systems with Applications, 2012, 39, 11149-11155; und “Evaluation of Features for Leaf Classification in Challenging Conditions“; Applications of Computer Vision (WACV), 2015 IEEE Winter Conference, 2015, 797-804; offenbart. For the training of a classifier for plant classification, supervised learning methods are predominantly used, such as in "Plant classifications system for crop / weed discrimination without segmentation"; Applications of Computer Vision (WACV), 2014 IEEE Winter Conference, 2014, 1142-1149; "Support Vector Machines for crop / weeds Identification in maize fields"; Expert Systems with Applications, 2012, 39, 11149-11155; and "Evaluation of Features for Leaf Classification in Challenging Conditions"; Applications of Computer Vision (WACV), 2015 IEEE Winter Conference, 2015, 797-804; disclosed.
Für das überwachte Training des Klassifizierers werden große Mengen an Lern- bzw. Trainingsdaten in Form von Bildern benötigt, die mit einer Annotationsinformation annotiert bzw. klassifiziert sind. Diese Annotationsinformation kann dabei unterschiedliche Informationen aufweisen. Bevorzugt umfasst die Annotationsinformation eine Klassifikation, die den Pixeln, die eine zu klassifizierende Pflanze, d.h. Nutzpflanze oder Beikraut, zeigt, in den Bildern die korrekte Klasse zu. Die Annotationsinformation kann zudem eine weitere Information, wie z.B. eine Reiheninformation, aufweisen. Die Annotationsinformation wird dabei auch als Ground Truth bezeichnet. For the monitored training of the classifier, large amounts of learning or training data are required in the form of images that are annotated or classified with annotation information. This annotation information can have different information. The annotation information preferably includes a classification that shows the pixels in the images that a plant to be classified, ie useful plant or weed, shows correct class too. The annotation information can also have further information, such as row information. The annotation information is also referred to as the ground truth.
Alle heutigen Methoden zur Gewinnung von Ground Truth sind dabei sehr zeitaufwändig. Zum einen muss eine Vielzahl von Bildern einzeln (semi-)manuell annotiert werden. Zum anderen wird die Annotationsinformation auf Pixelebene benötigt, was z.B. für eine semantische Segmentierung unter Verwendung von neuronalen Netzen erforderlich ist. Es stehen Tools bzw. Programme zum Annotieren von Bildern mit einer Annotationsinformation zur Verfügung, lösen das Problem, dass viele Pixel in einer großen Anzahl von Bildern zeitintensiv annotiert werden müssen, jedoch nicht. All of today's methods for obtaining ground truth are very time-consuming. On the one hand, a large number of images have to be annotated individually (semi-) manually. On the other hand, the annotation information is required at the pixel level, which is required e.g. for semantic segmentation using neural networks. Tools or programs are available for annotating images with annotation information, but they do not solve the problem that many pixels in a large number of images have to be annotated in a time-consuming manner.
Fig. 5 zeigt ein Tool 50 zum Annotieren von Bildern auf Pixelebene mit der Annotationsinformation, wobei die Annotationsinformation insbesondere eine Klassifikationsinformation einer Pflanze angibt. Die Annotationsinformation kann dabei z.B. Art, Gattung oder einfach nur eine Unterscheidung zwischen Nutzpflanze und Beikraut sein. Jedes erfasste Bild muss dabei gesondert mit einer Annotationsinformation annotiert werden, was durch einen Regler 52 gezeigt ist. In dem in Fig. 1 dargestellten Bildausschnitt sind die gezeigten Pflanzen mit einer Annotationsinformation annotiert, die zwischen zwei Klassen, Nutzpflanze („Beet“) 54 und Beikraut („Other“) 56, unterscheidet. Trotz semi-automatischer Annotationsunterstützung, wie z.B. das Verfolgen der Annotationen über mehrere Bilder bzw. Frames eines zu annotierenden Videos, semi-automatischer Segmentierung der Pflanzen, etc., ist der Aufwand aufgrund der zu annotierenden Vielzahl von Bildern sehr hoch. Der Aufwand für zu annotierende Bilder steigt zudem in Kulturen mit geringeren Pflanzenabständen aufgrund von Verdeckungen stark an. 5 shows a tool 50 for annotating images at the pixel level with the annotation information, the annotation information in particular specifying classification information of a plant. The annotation information can be, for example, species, genus or simply a distinction between useful plants and weeds. Each captured image must be annotated separately with annotation information, which is shown by a controller 52. In the image section shown in FIG. 1, the plants shown are annotated with annotation information that distinguishes between two classes, useful plant (“bed”) 54 and weeds (“other”) 56. Despite semi-automatic annotation support, such as following the annotations over several images or frames of a video to be annotated, semi-automatic segmentation of the plants, etc., the effort is very high due to the large number of images to be annotated. The effort for annotating images also increases sharply in crops with smaller plant spacing due to obscurations.
In „Multimodal Image Stitching Algorithm for Weed Control Applications in Organinc Farming“ von T. Holtdorf et.al., SAI Computing Conference 2016, 13. - 15. Juli 2016, London, wird vorgeschlagen, mehrere Bilder zu einem Panoramabild zusammenzufügen und nur das Panoramabild zu annotieren. Die Bilder werden dabei anhand von Schlüsselpunkten zusammengefügt, die durch einen Algorithmus bestimmt werden. Folglich kann mit dem beschriebenen ein annotiertes Panoramabild gewonnen werden. In “Multimodal Image Stitching Algorithm for Weed Control Applications in Organinc Farming” by T. Holtdorf et.al., SAI Computing Conference 2016, July 13-15, 2016, London, it is proposed to merge several images into a panorama image and only that Annotate panoramic image. The images are put together using key points that are determined by an algorithm. As a result, an annotated panoramic image can be obtained with the one described.
Es ist daher Aufgabe der vorliegenden Erfindung, ein Verfahren bereitzustellen, das den Aufwand beim Generieren einer Vielzahl von pixelweise annotierten Bildern reduziert. Kurzbeschreibung der Figuren It is therefore the object of the present invention to provide a method which reduces the effort involved in generating a large number of images annotated pixel by pixel. Brief description of the figures
Die vorliegende Erfindung wird durch die folgende Beschreibung unter Bezugnahme auf die beigefügten Figuren verdeutlicht. Es zeigen: The present invention will be clarified by the following description with reference to the accompanying figures. Show it:
Fig. 1A ein Bild von dem Feld, auf dem Rucola wächst, im sichtbaren Bereich; 1A shows a picture of the field on which arugula grows, in the visible area;
Fig. 1B ein Bild von einem Feld, auf dem Rucola wächst, im Infrarot- Bereich; 1B shows an image in the infrared range of a field on which arugula is growing;
Fig. 2 ein Ablaufdiagramm des erfindungsgemäßen Verfahrens; 2 shows a flow chart of the method according to the invention;
Fig. 3 ein gestitchtes Bild, das aus einer Vielzahl von Bildern zusammengesetzt ist; 3 shows a stitched picture composed of a plurality of pictures;
Fig. 4A ein Tool zum Annotieren des gestrichten Bildes; 4A shows a tool for annotating the deleted image;
Fig. 4B ein Bild, das mit eine Reiheninformation annotiert ist; und 4B shows an image annotated with row information; and
Fig. 5 ein Tool zum Annotieren von Pflanzendaten gemäß dem Stand der Technik; 5 shows a tool for annotating plant data according to the prior art;
Detaillierte Beschreibung der Erfindung Detailed description of the invention
In der Landwirtschaft werden Samen auf einem Feld ausgesät, aus denen Nutzpflanzen wachsen. Unter einem Feld kann eine abgegrenzte Bodenfläche für den Anbau von Nutzpflanzen oder auch ein Teil eines solchen Feldes verstanden werden. Unter einer Nutzpflanze wird eine landwirtschaftlich genutzte Pflanze verstanden, die selbst oder deren Frucht genutzt wird, z.B. als Nahrungsmittel, Futtermittel oder als Energiepflanze. Die Samen und folglich die Pflanzen werden vornehmlich in Reihen angeordnet, wobei zwischen den Reihen sowie zwischen den einzelnen Pflanzen innerhalb einer Reihe Objekte vorhanden sein können. Die Objekte sind jedoch unerwünscht, da sie den Ertrag der Pflanzen mindern oder einen störenden Einfluss während der Bewirtschaftung und/oder der Ernte darstellen. Unter einem Objekt kann jegliche Pflanze, die eine andere als die Nutzpflanze ist, oder jeglicher Gegenstand verstanden werden. Objekte können insbesondere Beikräuter, Hölzer und Steine sein. In agriculture, seeds are sown in a field from which crops grow. A field can be understood to be a delimited area of land for the cultivation of useful plants or a part of such a field. A useful plant is understood to be an agriculturally used plant which itself or its fruit is used, e.g. as food, feed or as an energy plant. The seeds and consequently the plants are primarily arranged in rows, it being possible for objects to be present between the rows and between the individual plants within a row. However, the objects are undesirable because they reduce the yield of the plants or represent a disruptive influence during cultivation and / or harvesting. An object can be understood to mean any plant that is different from the useful plant, or any object. Objects can in particular be weeds, woods and stones.
Fig. 1A zeigt ein Bild von einem Feld, auf dem Rucola in Reihen angebaut ist, im sichtbaren Bereich. In dem Bild ist deutlich erkennbar, dass sich die Blätter der einzelnen Rucolapflanzen teils stark überlappen. Die Pflanzen können, wie in Fig. 1B gezeigt, durch ein zusätzlich erfasstes Bild des Feldes im Infrarot- Bereich und durch Anwendung verschiedener Segmentierungsverfahren (z.B. NDVI-Index, ExG-lndex, ExG - ExR-lndex usw.) vom Untergrund sehr robust segmentiert werden, aber es ist trotzdem weiterhin erforderlich, dass Bereiche zwischen den einzelnen Pflanzen aufwändig manuell mit einer Information annotiert werden müssen, die angibt, ob ein Pixel eine Nutpflanze, ein Objekt oder den Boden zeigt.1A shows a picture of a field on which arugula is grown in rows, in the visible area. In the picture it can be clearly seen that the leaves of each Some of the rocket plants overlap strongly. As shown in FIG. 1B, the plants can be very robustly segmented from the subsurface by an additionally recorded image of the field in the infrared range and by using various segmentation methods (eg NDVI index, ExG index, ExG - ExR index, etc.) However, it is still necessary that areas between the individual plants have to be annotated manually in a laborious manner with information that indicates whether a pixel shows a groove plant, an object or the soil.
Diese Information wird nachfolgend als Klassifikationsinformation bezeichnet. Darüber hinaus kann ein Pixel mit weiteren Informationen annotiert werden. Nachfolgend werden die Informationen, mit denen ein Pixel annotiert wird, als Annotationsinformation bezeichnet. This information is referred to below as classification information. In addition, a pixel can be annotated with further information. In the following, the information with which a pixel is annotated is referred to as annotation information.
Das erfindungsgemäße Verfahren 100 soll diesen Aufwand beim pixelweisen Annotieren der Vielzahl von Bildern mit der Annotationsinformation reduzieren. Die einzelnen Schritte des Verfahrens sind im Ablaufdiagramm in Fig. 2 gezeigt und werden im Detail beschrieben. The method 100 according to the invention is intended to reduce this effort when annotating the multiplicity of images with the annotation information pixel by pixel. The individual steps of the method are shown in the flow chart in FIG. 2 and are described in detail.
In einem ersten Verfahrensschritt S102 wird die Vielzahl von Bildern von einer Oberfläche des Feldes durch ein Bilderfassungsmittel erfasst. Das Bildererfassungsmittel ist eine Kamera, wie z.B. eine CCD-Kamera, eine CMOS-Kamera usw., die ein Bild im sichtbaren Bereich erfasst (siehe z.B. Fig. 1A) und als RGB-Werte oder als Werte in einem anderen Farbraum bereitstellt. Das Bilderfassungsmittel kann aber auch eine Kamera sein, die ein Bild im Infrarot- Bereich erfasst (siehe z.B. Fig. 1B). Für das Erfassen von Pflanzen ist ein Bild im Infrarot- Bereich besonders geeignet, da eine Reflexion der Pflanzen in diesem Frequenzbereich deutlich erhöht ist. Das Bilderfassungsmittel kann aber auch z.B. eine Mono-, RGB-, Multisprektral-, Hyperspektral- Kamera sein. Außerdem können weitere Daten unter Verwendung von Sensoren, wie z.B. 3D-Sensoren usw., erfasst werden. Es ist möglich, dass mehrere Bilderfassungsmittel an dem Fahrzeug vorhanden sind, und dass mehrere Bilder von den unterschiedlichen Bilderfassungsmitteln sowie Daten von unterschiedlichen Sensoren im Wesentlichen synchron erfasst werden. In a first method step S102, the multiplicity of images of a surface of the field is acquired by an image acquisition means. The image capturing means is a camera, such as a CCD camera, a CMOS camera, etc., which captures an image in the visible range (see e.g. Fig. 1A) and provides it as RGB values or as values in another color space. The image acquisition means can, however, also be a camera which acquires an image in the infrared range (see e.g. Fig. 1B). An image in the infrared range is particularly suitable for capturing plants, as the reflection of the plants is significantly increased in this frequency range. The image acquisition means can also be, for example, a mono, RGB, multispectral, hyperspectral camera. In addition, other data can be acquired using sensors such as 3D sensors, etc. It is possible for several image acquisition means to be present on the vehicle and for several images to be acquired essentially synchronously by the different image acquisition means and data from different sensors.
Das Feld, auf dem die Pflanzen und Objekte vorhanden sind, wird durch das Bilderfassungsmittel während einer Überfahrt mit einem Fahrzeug, an dem das Bilderfassungsmittel angebracht ist, erfasst. Das Bilderfassungsmittel kann dabei an einem eigens dafür vorgesehenen Fahrzeug angebracht sein. Das Bilderfassungsmittel kann aber auch an einem landwirtschaftlichen Fahrzeug, wie z.B. einem Traktor, einem Anhänger usw., oder einem Luftfahrzeug, wie z.B. einer Drohne, angebracht sein. Das Bilderfassungsmittel ist dabei so am Fahrzeug angebracht sein, dass ein Bildsensor des Bilderfassungsmittels im Wesentlichen parallel zu einer Oberfläche des Feldes ist. Der Bildsensor des Bilderfassungsmittels kann aber auch zur Oberfläche des Feldes geneigt sein. The field on which the plants and objects are present is detected by the image capturing means during a drive over with a vehicle on which the image capturing means is attached. The image acquisition means can be attached to a vehicle specially provided for this purpose. However, the image acquisition means can also be attached to an agricultural vehicle, such as a tractor, a trailer, etc., or an aircraft, such as a drone, for example. The image capturing means is attached to the vehicle in such a way that an image sensor of the image capturing means is in the Is substantially parallel to a surface of the field. The image sensor of the image acquisition means can, however, also be inclined to the surface of the field.
Das Fahrzeug, an dem das Bilderfassungsmittel angebracht ist, fährt bzw. fliegt das Feld ab und das Bilderfassungsmittel erfasst die Bilder in einem vorgegebenen zeitlichen Intervall. Bevorzugt werden die Bilder so erfasst, dass sie sich überlappen. Aus diesem Grund erfasst das Bilderfassungsmittel während der Überfahrt mehrere Bilder pro Sekunde, wodurch sich die Bilder bei einer geringen Überfahrgeschwindigkeit stark überlappen. Auf diese Weise werden Bilder von einer einzelnen Pflanze aus mehreren Perspektiven erfasst, so dass folglich eine große Anzahl von Bildern mit unterschiedlichen Ansichten derselben Pflanze als Lerndaten zur Verfügung steht. Auf diese Weise wird eine Erkennungsgenauigkeit des Klassifizierers verbessert. Die Vielzahl von Bildern kann auch als Video aufgenommen werden. Das Fahrzeug kann das Feld auch autonom oder ferngesteuert abfahren/ abfliegen. The vehicle to which the image capturing means is attached drives or flies the field and the image capturing means captures the images at a predetermined time interval. The images are preferably captured in such a way that they overlap. For this reason, the image capturing means captures several images per second during the passage, as a result of which the images strongly overlap at a low passage speed. In this way, images of a single plant are recorded from several perspectives, so that consequently a large number of images with different views of the same plant are available as learning data. In this way, a recognition accuracy of the classifier is improved. The multitude of images can also be recorded as video. The vehicle can also drive off / fly off the field autonomously or remotely.
Die Bilder werden anschließend in einem Speicher gespeichert und stehen anschließend zur Weiterverarbeitung zur Verfügung. Die Bilder können dabei zum Zweck einer Verarbeitung auf eine gesonderte Recheneinheit übertragen werden, die nicht auf dem Fahrzeug angebracht ist. Die Bilder können aber auch in einer Recheneinheit weiterverarbeitet werden, die auf dem Fahrzeug angebracht ist. The images are then stored in a memory and are then available for further processing. For the purpose of processing, the images can be transferred to a separate computing unit that is not attached to the vehicle. However, the images can also be further processed in a computing unit that is mounted on the vehicle.
Bevorzugt sollte die Vielzahl von Bildern alle Wachstumsphasen der Nutzpflanze und möglichst alle vorkommenden Beikräuter mit allen möglichen biologischen Wachstumsmorphologien aufweisen, da unterschiedliche Umstände wie Wasser, Wärme, Boden, Nährstoffe, Wind, etc., das Wachstum und/oder das Erscheinungsbild der Nutzpflanzen und der Beikräuter beeinflussen können. Durch die Verwendung dieser unterschiedlichen Lerndaten kann die Ergebnisgenauigkeit eines Klassifizierers zur Pflanzenerkennung weiter erhöht werden. The large number of images should preferably show all growth phases of the useful plant and, if possible, all occurring weeds with all possible biological growth morphologies, since different circumstances such as water, heat, soil, nutrients, wind, etc., the growth and / or the appearance of the useful plants and the Can affect weeds. By using these different learning data, the accuracy of the results of a classifier for plant recognition can be increased further.
Zu diesem Zweck kann bzw. sollte eine Überfahrt und eine Erfassung einer zusätzlichen Vielzahl von Bildern von dem gleichen Feld, auf dem die gleichen Pflanzen wachsen, zu verschiedenen Zeitpunkten wiederholt werden, um die oben erwähnten Wachstumszustände der einzelnen Nutzpflanzen und Beikräuter zu erfassen. Auf diese Weise steht eine größere Anzahl von Lerndaten für die unterschiedlichen Stadien der Pflanzen zur Verfügung, so dass eine Erkennungsgenauigkeit des Klassifizierers verbessert werden kann. Der nachfolgenden Schritt S104 wird im Wesentlichen synchron zu Schritt S102 ausgeführt. In Schritt S104 wird eine Positionsinformation unter Verwendung eines Positionserfassungsmittels erlangt. Das Positionserfassungsmittel erfasst die Positionsinformation unter Verwendung von hochgenauem GPS, kann diese aber alternativ auch durch z.B. Odometrie, visuelle Odometrie, sowie weitere Trackingmethoden erfassen. Die Positionsinformation wird dabei als Weltkoordinaten angegeben, kann aber auch z.B. auch als Feldkoordinaten, Longitude + Latitude, etc. angegeben werden. Die Positionsinformation wird anschließend mit dem in Schritt S102 aufgenommen Bild korreliert, so dass die Position auf dem Feld, an der das Bild aufgenommen wird, exakt bestimmbar ist. For this purpose, a crossing and acquisition of an additional multiplicity of images of the same field on which the same plants are growing can or should be repeated at different times in order to record the above-mentioned growth states of the individual useful plants and weeds. In this way, a larger number of learning data is available for the different stages of the plants, so that a recognition accuracy of the classifier can be improved. The subsequent step S104 is carried out essentially synchronously with step S102. In step S104, position information is acquired using position detection means. The position detection means detects the position information using high-precision GPS, but can alternatively also detect it using, for example, odometry, visual odometry, and other tracking methods. The position information is given as world coordinates, but can also be given as field coordinates, longitude + latitude, etc., for example. The position information is then correlated with the image recorded in step S102, so that the position in the field at which the image is recorded can be precisely determined.
Dazu wird einem Punkt im Zentrum des Bildes die erlangte Positionsinformation zugewiesen. Es kann aber auch einem anderen Punkt im Bild, z.B. einem Eckpunkt, die Positionsinformation zugewiesen werden. Es ist anzumerken, dass Abstände zwischen der Anbringungsposition des Bilderfassungsmittels und der Anbringungsposition des Positionserfassungsmittels am Fahrzeug bei der Korrelation der Positionsinformation mit dem erfassten Bild zu berücksichtigen sind. Die räumliche Ausdehnung des Bildes auf dem Feld in einer X- und einer Y-Richtung kann anschließend unter Verwendung eines Bildwinkels des Bilderfassungsmittels und des Abstandes des Bilderfassungsmittels zur Bodenfläche bestimmt werden. Falls der Bildsensor des Bilderfassungsmittels zur Oberfläche des Feldes geneigt ist, ist diese Neigung bei der Berechnung der räumlichen Ausdehnung des Bildes auf dem Feld ebenfalls zu berücksichtigen. Auf diese Weise ist es möglich, den Ausschnitt des Feldes zu bestimmen, der durch das Bild gezeigt ist. Unter Berücksichtigung der Auflösung des Bildes kann auch den Pixeln des Bildes jeweils eine Positionsinformation und folglich eine Position auf dem Feld zugewiesen werden. Diese Prozedur kann auch auf Bilder, die von einem anderen Bilderfassungsmittel erfasst werden, und auf Daten, die von unterschiedlichen Sensoren ermittelt werden, angewandt werden. For this purpose, the position information obtained is assigned to a point in the center of the image. The position information can also be assigned to another point in the image, e.g. a corner point. It should be noted that distances between the mounting position of the image capturing means and the mounting position of the position capturing means on the vehicle must be taken into account when correlating the position information with the captured image. The spatial extent of the image on the field in an X and a Y direction can then be determined using an image angle of the image capturing means and the distance of the image capturing means to the floor surface. If the image sensor of the image acquisition means is inclined to the surface of the field, this inclination must also be taken into account when calculating the spatial extent of the image on the field. In this way it is possible to determine the section of the field shown by the picture. Taking into account the resolution of the image, position information and consequently a position on the field can also be assigned to each of the pixels of the image. This procedure can also be applied to images that are acquired by another image acquisition means and to data that are acquired by different sensors.
Im nachfolgenden Schritt S106 werden die Bilder, die während derselben Überfahrt erfasst werden und für die die Positionsinformation in S104 erlangt wurde, unter Verwendung der Positionsinformation zu einem gestitchten Bild zusammengefügt, um eine Darstellung in einem Koordinatensystem, das verglichen mit dem Pixelkoordinatensystem auf Bildebene eine globalere Auflösung aufweist, zu erstellen. Eine Position auf dem Feld, die aufgrund der Fortbewegung des Fahrzeuges und der schnellen Wiederholungsrate beim Erfassen der Bilder in verschiedenen Bildern aus unterschiedlichen Perspektiven erfasst wird, weist dabei in allen Bildern dieselbe Positionsinformation auf. Ein gestitchtes Bild, wie es nach Durchführen von Schritt S106 erhalten wird, ist in Fig. 3 gezeigt. Das gestitchte Bild in Fig. 3 wurde unter Verwendung von hochgenauem GPS aus mehreren hundert Bildern zusammengefügt. In the following step S106, the images that are captured during the same passage and for which the position information was obtained in S104 are combined to form a stitched image using the position information in order to display a coordinate system that is more global than the pixel coordinate system on the image level Has resolution to create. A position in the field that is recorded due to the movement of the vehicle and the rapid repetition rate when recording the images in different images from different perspectives has the same position information in all images. A stitched image as obtained after performing step S106 is shown in FIG. 3. The stitched picture in Fig. 3 was under Using high-precision GPS put together from several hundred images.
Aufgrund der Überlappung zwischen den Bildern wird im gestitchten Bild nur ein Teilausschnitt der einzelnen Bilder gezeigt. Die theoretische Lage der nur zum Teil gezeigten Bilder im gestitchten Bild ist jedoch aufgrund der vorhandenen Positionsinformation exakt bestimmbar. Due to the overlap between the images, only a part of the individual images is shown in the stitched image. The theoretical position of the pictures only partially shown in the stitched picture can, however, be determined exactly on the basis of the available position information.
Im Schritt S108 wird das zuvor in S106 erzeugte gestitchte Bild pixelweise mit der Annotationsinformation annotiert, wobei die Menge der zu annotierenden Pixel aufgrund der Überlappung der Bilder sowie der Darstellung als gestitchtes Bild verglichen mit dem Fall, in dem alle Bilder einzeln pixelweise zu annotieren sind, deutlich reduziert ist. Fig. 4A zeigt ein Tool, mit dem das Panoramabild annotiert wird. Die Nutzpflanzen sind dabei durch eine Markierung 42 gekennzeichnet. Die zu der Nutzpflanze gehörenden Pixel um die mit Markierung 42 herum, können durch das Tool automatisch erkannt und annotiert werden und es kann eine Klassifikationsinformation für die einzelnen Pixel hinzugefügt werden. Das Panoramabild kann zusätzlich zur Klassifikationsinformation, wie rechts in Fig. 4B gezeigt, mit einer Reiheninformation, d.h. einer Information über einen Verlauf einer Pflanzenreihe 44, annotiert werden. Die Annotationsinformation der Pixel einer Pflanzenreihe 44 weisen somit zusätzlich zur Klassifikationsinformation die Reiheninformation auf. In step S108, the stitched image previously generated in S106 is annotated pixel by pixel with the annotation information, the amount of pixels to be annotated due to the overlap of the images and the representation as a stitched image compared to the case in which all images are to be annotated individually pixel by pixel, is significantly reduced. 4A shows a tool with which the panoramic image is annotated. The useful plants are identified by a marking 42. The pixels belonging to the useful plant around those with marking 42 can be automatically recognized and annotated by the tool and classification information can be added for the individual pixels. In addition to the classification information, as shown on the right in Fig. 4B, the panoramic image can be annotated with row information, i.e. information about the course of a row of plants 44. The annotation information of the pixels of a row of plants 44 thus has the row information in addition to the classification information.
Im nachfolgenden Schritt S110 wird die Annotationsinformation unter Verwendung der Positionsinformation wieder auf die einzelnen Bilder übertragen, die in Schritt S102 erfasst wurden und aus denen in Schritt S106 das gestitchte Bild zusammengefügt wurde. Auf diese Weise können aus dem einzelnen „globalen“ gestitchten Bild, das mit der Annotationsinformation annotiert wurde, eine Vielzahl von pixelweise annotierten Bildern erhalten werden, die die Annotationsinformation ebenfalls aufweist. Es ist anzumerken, dass ein Übertragen der Annotationsinformation auf Bilder, die nur zum Teil im gestitchten Bild gezeigt werden, ebenfalls durchführbar ist, da die Pixel der im gestitchten Bild nur zum Teil dargestellten Bilder ebenfalls die Positionsinformation aufweisen. Demzufolge kann die Menge von annotierten Bildmaterial verglichen mit der Darstellung als gestitchtes Bild vergrößert werden. In the following step S110, the annotation information is again transferred to the individual images using the position information, which were captured in step S102 and from which the stitched image was combined in step S106. In this way, from the individual “global” stitched image that was annotated with the annotation information, a multiplicity of pixel-by-pixel annotated images can be obtained that also have the annotation information. It should be noted that the annotation information can also be transferred to images that are only partially shown in the stitched image, since the pixels of the images only partially shown in the stitched image also have the position information. As a result, the amount of annotated image material can be increased compared to the representation as a stitched image.
Anschließend können wiederum verschiedene Segmentierungsverfahren auf die einzelne Bilder angewandt werden, um der Detailstufe der Annotationsinformation zusätzlich zu erhöhen. Various segmentation methods can then be applied to the individual images in order to additionally increase the level of detail of the annotation information.
Die beschriebene Übertragung der annotierten Annotationsinformation ist dabei nicht auf die während derselben Überfahrt von demselben Bilderfassungsmittel erfasste Vielzahl von Bildern begrenzt, sondern kann auf die verschiedenen anderen zu annotierenden Bilder und Daten, die auf demselben Feld erfasst werden, angewandt werden. Voraussetzung dafür ist jedoch, dass diese Bilder und Daten die Positionsinformation aufweisen und dass die Bilder die gleichen Pflanzen während des gleichen Anbauzeitraums zeigen. The described transmission of the annotated annotation information is not limited to the plurality of images captured by the same image capturing means during the same passage, but can be to the various other images to be annotated and Data collected on the same field can be applied. The prerequisite for this, however, is that these images and data contain the position information and that the images show the same plants during the same cultivation period.
Zum einen kann die Annotationsinformation unter Verwendung der Positionsinformation auch auf die Vielzahl von Bildern übertragen werden, die dieselben Pflanzen (bzw. denselben Annotationsgegenstand) zu einem unterschiedlichen Zeitpunkt bei variierenden Perspektiven, Pflanzenwachstumsstadien, Beleuchtungsbedingungen, Wetterbedingungen,On the one hand, using the position information, the annotation information can also be transferred to the multitude of images showing the same plants (or the same annotation object) at a different point in time with varying perspectives, plant growth stages, lighting conditions, weather conditions,
Windbedingungen, Pflanzenzuständen (krank, gesund, etc.), Trockenheitsbedingungen, usw. zeigt. Demzufolge kann ein erneutes Erstellen eines Panoramabildes und ein erneutes zeitaufwändiges Annotieren vermieden werden. Demzufolge wird auch der Aufwand zum Generieren einer Vielzahl von pixelweise annotierten Bildern, die zu einem anderen Zeitpunkt aufgenommen wird, verringert. Shows wind conditions, plant conditions (sick, healthy, etc.), drought conditions, etc. As a result, a new creation of a panorama image and a new time-consuming annotation can be avoided. As a result, the outlay for generating a large number of images annotated pixel by pixel, which are recorded at a different point in time, is also reduced.
Zum anderen kann die Annotationsinformation unter Verwendung der Positionsinformation auch auf eine Vielzahl von Bildern, die von einem anderen Bildaufnahmemittel während der selben Überfahrt erfasst wird, übertragen werden. Die Annotationsinformation kann aber auch auf eine Vielzahl von Bildern, die von dem anderen Bildaufnahmemittel während einer Überfahrt zu einem anderen Zeitpunkt erfasst wird, übertragen werden. Voraussetzung zum Übertragen der Annotationsinformation ist wiederum, dass die Daten, auf die die Annotationsinformation übertragen werden soll, die Positionsinformation aufweisen. Diese Prozedur kann auch auf andere Daten, die von Sensoren erfasst werden, angewandt werden. Demzufolge wird auch der Aufwand zum Generieren einer Vielzahl von pixelweise annotierten Bildern eines anderen Typs und von weiteren Daten ebenfalls verringert. Ein weiterer Vorteil beim Übertragen der Annotationsinformation unter Verwendung der Positionsinformation ist zudem, dass die Auflösung und der Bildwinkel des anderen Bilderfassungsmittels nicht zu berücksichtigen ist. On the other hand, using the position information, the annotation information can also be transferred to a large number of images that are recorded by another image recording device during the same passage. The annotation information can, however, also be transferred to a large number of images that are recorded by the other image recording means during a passage at a different point in time. The prerequisite for transmitting the annotation information is again that the data to which the annotation information is to be transmitted has the position information. This procedure can also be applied to other data collected by sensors. As a result, the effort for generating a multiplicity of pixel-wise annotated images of a different type and of further data is also reduced. Another advantage of transmitting the annotation information using the position information is that the resolution and the angle of view of the other image capture means do not have to be taken into account.
Abschließend bleibt anzumerken, dass die vorliegende Erfindung eine oder mehrere Informationsquellen zum pixelweisen Annotieren von Bildern mit einer Annotationsinformation verwendet, um jede Pflanze in einem größeren Kontext nur ein einziges Mal manuell annotieren zu müssen. Durch die Verwendung der zusätzlichen Positionsinformation können anschließend die Bilder derselben Pflanze oder ein Teil davon, die nicht im größeren Kontext gezeigt sind, auf Pixelebene automatisch annotiert werden. Mit Hilfe des erfindungsgemäßen Verfahrens kann eine Vielzahl von Bildern, die eine Annotationsinformation auf Pixelebene aufweist, mit sehr geringem Aufwand gewonnen werden. Diese die Annotationsinformation auf Pixelebene aufweisende Vielzahl von Bildern kann anschließend dafür verwendet werden, einen Klassifizierer, wie. z.B. ein neuronales Netz etc., der für die Klassifizierung von Pflanzen verwendet werden soll, zu trainieren. Auf diese Weise wird das Regulieren von Beikräutern, das Zählen und Vermessen von Pflanzen zur Phänotypisierung, die selektive Ernte, die selektive Applikation von Herbiziden, Fungiziden, Pestiziden und Insektiziden uvm. verbessert, da eine größere Menge an Bilder und/oder Daten für das Training des Klassifizierers zur Verfügung steht. Finally, it should be noted that the present invention uses one or more information sources for annotating images with annotation information pixel by pixel in order to have to annotate each plant only once manually in a larger context. By using the additional position information, the images of the same plant or a part of it, which are not shown in the larger context, can then be automatically annotated at the pixel level. With the aid of the method according to the invention, a large number of images that have annotation information at the pixel level can be obtained with very little effort. This large number of images, which have the annotation information at the pixel level, can then be used for a classifier, such as. For example, to train a neural network, etc., which is to be used for the classification of plants. In this way, the regulation of weeds, the counting and measuring of plants for phenotyping, the selective harvest, the selective application of herbicides, fungicides, pesticides and insecticides and much more. improved because a larger amount of images and / or data is available for training the classifier.
Es ist ferner anzumerken, dass das erfindungsgemäße Verfahren nicht auf Bilder von einem Feld, auf dem Pflanzen wachsen, begrenzt ist. Das Verfahren kann für verschiedene Anwendungsfälle eingesetzt werden, in denen eine Vielzahl von Bildern, die einander überlappen, mit einer Information pixelweise annotiert werden soll. It should also be noted that the method according to the invention is not limited to images of a field on which plants are growing. The method can be used for various applications in which a large number of images that overlap one another are to be annotated with information on a pixel-by-pixel basis.

Claims

Ansprüche Expectations
1. Verfahren (100) zum Generieren einer Vielzahl von pixelweise annotierten Bildern von einem Feld, auf dem Pflanzen wachsen, wobei das Verfahren die folgenden Schritte aufweist: 1. A method (100) for generating a plurality of pixel-by-pixel annotated images of a field on which plants are growing, the method comprising the following steps:
Erfassen (S102) der Vielzahl von Bildern von dem Feld mittels eines Bilderfassungsmittels, wobei sich die Bilder jeweils überlappen; im Wesentlichen synchron zu einem Capturing (S102) the plurality of images of the field by means of image capturing means, the images each overlapping; essentially in sync with one
Erlangen (S104) einer Positionsinformation über die Position, an der die Bilder jeweils auf dem Feld erfasst werden; Obtaining (S104) positional information on the position at which the images are each captured on the field;
Anordnen (S106) der Vielzahl von Bildern in einem globaleren Kontext unter Verwendung der Positionsinformation als gestitchtes Bild; Arranging (S106) the plurality of images in a more global context using the position information as a stitched image;
Annotieren (S108) von Pixeln des gestitchten Bildes mit einer Annotationsinformation, die mindestens eine Klassifikationsinformation, die eine Klasse der Pflanze angibt, aufweist; undAnnotating (S108) pixels of the stitched image with annotation information including at least one classification information indicating a class of the plant; and
Übertragen (S110) der Annotationsinformation auf die Pixel der Vielzahl von Bildern unter Verwendung der Positionsinformation, um eine Vielzahl von pixelweise annotierten Bildern von einem Feld zu generieren. Transferring (S110) the annotation information to the pixels of the plurality of images using the position information in order to generate a plurality of images annotated pixel by pixel from a field.
2. Verfahren (100) gemäß Anspruch 1, wobei die Annotationsinformation unter Verwendung der Positionsinformation auf die Pixel einer zu einem anderen Zeitpunkt erfassten Vielzahl von Bildern von dem Feld unter Verwendung der Positionsinformation übertragbar ist. 2. The method (100) according to claim 1, wherein the annotation information can be transmitted using the position information to the pixels of a plurality of images of the field acquired at another point in time using the position information.
3. Verfahren gemäß Anspruch 1 oder 2, wobei während des Schritts zum Erfassen (S102) eine weitere Vielzahl von Bildern mittels eines Bilderfassungsmittels eines anderen Typs und/oder weitere Daten mittels eines Sensors erfasst werden, und die Annotationsinformation auf die Pixel der durch das Bilderfassungsmittel eines anderen Typs erfassten Vielzahl von Bildern und/oder die durch den Sensor erfassten Daten unter Verwendung der Positionsinformation übertragbar ist. 3. The method according to claim 1 or 2, wherein during the step of capturing (S102) a further plurality of images are captured by means of an image capturing means of a different type and / or further data by means of a sensor, and the annotation information on the pixels of the image capturing means of another type captured plurality of images and / or the data captured by the sensor can be transmitted using the position information.
4. Verfahren gemäß einem der vorhergehenden Ansprüche, wobei die Annotationsinformation zusätzlich eine Reiheninformation aufweist. 4. The method according to any one of the preceding claims, wherein the annotation information additionally has row information.
5. Verfahren gemäß einem der vorhergehenden Ansprüche, wobei die Vielzahl von Bildern als Video erfasst wird. 5. The method according to any one of the preceding claims, wherein the plurality of images is captured as video.
6. Verfahren gemäß einem der vorhergehenden Ansprühe, wobei die Vielzahl von pixelweise annotierten Bildern zum Trainieren eines Klassifikators verwendet wird. 6. The method according to any one of the preceding claims, wherein the plurality of pixel-wise annotated images is used to train a classifier.
7. Computerprogramm, das so ausgebildet ist, das Verfahren gemäß einem der vorhergehenden Ansprüche auszuführen. 7. Computer program which is designed to carry out the method according to one of the preceding claims.
8. Maschinenlesbares Speichermedium, auf dem das Computerprogramm gemäß Anspruch 7 gespeichert ist. 8. Machine-readable storage medium on which the computer program according to claim 7 is stored.
9. Recheneinheit zum Generieren einer Vielzahl von pixelweise annotierten Bildern von einem Feld, auf dem Pflanzen wachsen, wobei die Recheneinheit ausgebildet ist, die folgenden Schritte durchzuführen: 9. Computing unit for generating a plurality of pixel-by-pixel annotated images of a field on which plants grow, the computing unit being designed to carry out the following steps:
Empfangen von der Vielzahl von mittels eines Bilderfassungsmittels erfassten Bildern von dem Feld, wobei sich die Bilder jeweils überlappen; im Wesentlichen synchron zu einemReceiving the plurality of images of the field captured by image capture means, the images each overlapping; essentially in sync with one
Empfangen von einer erlangten Positionsinformation über die Position, an der die Bilder jeweils auf dem Feld erfasst worden sind; Receiving position information obtained about the position at which the images have been captured in each case on the field;
Anordnen der Vielzahl von Bildern in einem globaleren Kontext unter Verwendung der Positionsinformation als gestitchtes Bild; Arranging the plurality of images in a more global context using the position information as the stitched image;
Annotieren von Pixeln des gestitchten Bildes mit einer Annotationsinformation, die mindestens eine Klassifikationsinformation, die eine Klasse der Pflanze angibt, aufweist; undAnnotating pixels of the stitched image with annotation information which has at least one classification information indicating a class of the plant; and
Übertragen der Annotationsinformation auf die Pixel der Vielzahl von Bildern unter Verwendung der Positionsinformation, um eine Vielzahl von pixelweise annotierten Bildern von einem Feld zu generieren. Transferring the annotation information to the pixels of the plurality of images using the position information in order to generate a plurality of pixel-by-pixel annotated images of a field.
10. Landwirtschaftliche Arbeitsmaschine mit einer Recheneinheit nach Anspruch 9. 10. Agricultural working machine with a computing unit according to claim 9.
EP20811285.4A 2019-11-25 2020-11-20 Method for generating a plurality of annotated images Pending EP4088223A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019218189.9A DE102019218189A1 (en) 2019-11-25 2019-11-25 Method for generating a large number of annotated images
PCT/EP2020/082855 WO2021105019A1 (en) 2019-11-25 2020-11-20 Method for generating a plurality of annotated images

Publications (1)

Publication Number Publication Date
EP4088223A1 true EP4088223A1 (en) 2022-11-16

Family

ID=73543257

Family Applications (1)

Application Number Title Priority Date Filing Date
EP20811285.4A Pending EP4088223A1 (en) 2019-11-25 2020-11-20 Method for generating a plurality of annotated images

Country Status (3)

Country Link
EP (1) EP4088223A1 (en)
DE (1) DE102019218189A1 (en)
WO (1) WO2021105019A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113538313B (en) * 2021-07-22 2022-03-25 深圳大学 Polyp segmentation method and device, computer equipment and storage medium
DE102021207983A1 (en) 2021-07-23 2023-01-26 Robert Bosch Gesellschaft mit beschränkter Haftung Weed detection device, weed detection method, computer program and storage medium
DE102022206224A1 (en) 2022-06-22 2023-12-28 Robert Bosch Gesellschaft mit beschränkter Haftung Method for automatically labeling input images, training images, method for training or retraining a weed analyzer, analysis device, computer program and machine-readable storage medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009023896B4 (en) * 2009-06-04 2015-06-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for detecting a plant

Also Published As

Publication number Publication date
WO2021105019A1 (en) 2021-06-03
DE102019218189A1 (en) 2021-05-27

Similar Documents

Publication Publication Date Title
EP3700320B1 (en) Creation of digital processing cards
EP3782467B1 (en) Method for identifying weeds within a defined row of plants of an agricultural area
WO2021105019A1 (en) Method for generating a plurality of annotated images
DE102018217742A1 (en) Process for applying a spray to a field
DE102015221085A1 (en) Method and information system for recognizing at least one plant planted in a field
DE102018120756A1 (en) Mobile analysis and processing device, method and carrier system
DE102017217258A1 (en) Method for classifying plants
DE102019218192A1 (en) Method of working crops in a field
DE102015221092A1 (en) Method and information system for detecting at least one plant parameter data set of a plant growing on a field
WO2022128189A1 (en) Method for applying a spray onto agricultural land
EP4064819B1 (en) Method for treating plants in a field, for generating training data and for training a neural network
WO2021105017A1 (en) Method for processing plants in a field
EP3841444B1 (en) Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor
DE102019209526A1 (en) Monitoring a cultivation area
Pflanz et al. Automatisierte Unkrauterkennung auf dem Acker–Möglichkeiten und Grenzen
WO2020229575A1 (en) Method for determining a digital model of a region of a forest
WO2021105006A1 (en) Method for estimating a course of plant rows
WO2021105014A1 (en) Method for treating plants in a field
US11393193B1 (en) Zone management generation from point samples
DE102016203850B4 (en) Method for classifying plants
Pflanz et al. Automated weed detection in the field-possibilities and limits.
DE102020215877A1 (en) Method of classifying plants for agricultural purposes
DE102020215878A1 (en) Method of applying a spray to an agricultural area
EP4245135A1 (en) Conducting and documenting an application of plant protection agents
DE102019201984A1 (en) Control unit for use in agriculture

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20220929

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)