DE102019212226A1 - Verfahren zum Generieren von Bilddatensätzen - Google Patents

Verfahren zum Generieren von Bilddatensätzen Download PDF

Info

Publication number
DE102019212226A1
DE102019212226A1 DE102019212226.4A DE102019212226A DE102019212226A1 DE 102019212226 A1 DE102019212226 A1 DE 102019212226A1 DE 102019212226 A DE102019212226 A DE 102019212226A DE 102019212226 A1 DE102019212226 A1 DE 102019212226A1
Authority
DE
Germany
Prior art keywords
data sets
classifier
image data
soil
procedure according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019212226.4A
Other languages
English (en)
Inventor
Peter Seitz
Erik Hass
Hans-Arndt Freudigmann
Tillmann Falck
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102019212226.4A priority Critical patent/DE102019212226A1/de
Publication of DE102019212226A1 publication Critical patent/DE102019212226A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Verfahren zum Generieren von Bilddatensätzen, die zum Einstellen eines Klassifikators dienen, der wiederum zur Bildauswertung eingerichtet ist, wobei bei der Bildauswertung eine Reihe von unterschiedlichen Objekten verschiedenen Kategorien zugeordnet werden sollen, wozu der Klassifikator eingesetzt wird, wobei die Bilddatensätze, die die unterschiedlichen Objekte enthalten, durch Modellierung generiert werden, wobei bei der Generierung der Datensätze Umgebungsbedingungen berücksichtigt werden.

Description

  • Die Erfindung betrifft ein Verfahren zum Generieren von Bilddatensätzen, die zum Einstellen eines Klassifikators dienen, der wiederum zur Bildauswertung eingerichtet ist, und eine Anordnung zum Durchführen des Verfahrens. Die Erfindung betrifft weiterhin ein Computerprogramm und ein maschinenlesbares Speichermedium.
  • Stand der Technik
  • Unter einer Bildauswertung, die auch als Bilddatenauswertung bezeichnet wird, ist die Aufbereitung, Verarbeitung, insbesondere Echtzeitverarbeitung, sowie die automatische und interaktive Informationsgewinnung aus Bildern und Videos zu verstehen. Das hierin vorgestellte Verfahren kann grundsätzlich bei der Auswertung von Bilddaten in verschiedenen Bereichen zur Anwendung kommen.
  • Ein möglicher Anwendungsfall des beschriebenen Verfahrens findet sich im Bereich der Landwirtschaft. In der Landwirtschaft werden unterschiedliche Mittel, wie bspw. Herbizide, eingesetzt, um die Ernteerträge zu sichern und ggf. diese sogar zu steigern. Ein flächendeckender Einsatz dieser Mittel erscheint dabei aufgrund der damit verbundenen Kosten und Beeinträchtigung des behandelten Bodens sowie der Kulturpflanze als nicht erwünscht. Es wird daher angestrebt, die Mittel nur auf die Stellen aufzubringen, wo sie benötigt werden. Herbizide sollen bspw. nur gesprüht werden, um gezielt verschiedene Unkrautarten zu behandeln. Unkrautfreie Bereiche sollen nicht besprüht werden. Es ist daher erforderlich, vor der Behandlung die Unkrautarten mit einer geeigneten Einrichtung zu erkennen.
  • Hierzu ist es bekannt, aus einer Vielzahl von Umgebungsinformationen, wie bspw. einer Wettervorhersage, einer abgeleiteten Einstrahlung aus einem Oberflächenmodell, einer Beobachtungsgeometrie usw., Bilddaten zu simulieren, in denen Pflanzen auf einem Bodensubstrat in der Geometrie abgebildet sind, wie diese später mit einem realen Aufnahmegerät erfasst werden.
  • Auf Basis einer Vielzahl solcher Bilddaten, bei denen bestimmte Parameter variiert werden, kann ein Klassifikator vollständig oder teilweise trainiert werden, so dass eine Unterscheidung zwischen Nutzpflanze und Unkraut in diesem Rahmen bestmöglich vorgenommen werden kann. Ein Klassifikator ist eine Einheit, die Objekte klassifiziert, d. h. in Kategorien einordnet. Dieser Klassifikator ist auf die Umgebungsinformationen angepasst und kann zur Klassifikation unter diesen Bedingungen eingesetzt werden. Bei einem geplanten Einsatz auf dem Feld wird ein solcher Klassifikator vorab erstellt und für diesen Einsatz verwendet.
  • Zur Unkrauterkennung sind basierend auf Bilddaten Verfahren bekannt, die mittels Klassifikatoren zunächst Pflanze und Boden sowie Nutzpflanze und Unkraut voneinander unterscheiden. Um dies zu ermöglichen, sind zunächst reale Aufnahmen anzufertigen und mit Anmerkungen zu versehen. Dies ist jedoch mit einem erheblichen Aufwand verbunden. In vielen Fällen werden die Daten in Zwischenschritten durch eine weitere Darstellung verarbeitet, bevor am Ende eine Klassifikation auf Pflanzenbasis erfolgt. Mögliche Zwischenschritte sind die Segmentierung in Boden bzw. Pflanze, bspw. als Binärbild, eine manuelle Segmentierung, die Nutzung automatisch erstellter Funktionen oder nach einer Vorschrift berechnete Vegetationsindizes, wie bspw. NDVI (Normalized Difference Vegetation Index).
  • Es ist ein Verfahren bekannt, bei dem synthetische Bilddaten von Pflanzen im sichtbaren Bereich erzeugt werden, um die wenigen verfügbaren realen Aufnahmen zu ergänzen. Weiterhin ist ein Verfahren bekannt, bei dem synthetische Daten von Straßenszenen zu einer Verbesserung der Qualität führen. Bei diesen beiden Verfahren wird jedoch ein einzelner Klassifikator trainiert, der alle potentiellen Situationen abdecken soll.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund werden ein Verfahren mit den Merkmalen des Anspruchs 1 und eine Anordnung gemäß Anspruchs 9 vorgestellt. Es werden weiterhin ein Computerprogramm nach Anspruch 10 sowie ein maschinenlesbares Speichermedium gemäß Anspruch 11 vorgestellt. Ausführungsformen ergeben sich aus den abhängigen Ansprüchen und aus der Beschreibung.
  • Das beschriebene Verfahren dient zum Generieren von Bilddatensätzen, die zum Einstellen eines Klassifikators dienen, der zur Bildauswertung eingerichtet ist, wobei bei der Bildauswertung eine Reihe von unterschiedlichen Objekten unterschiedlichen Kategorien zugeordnet werden sollen. Für diese Zuordnung wird der Klassifikator eingesetzt, der somit vorab eingestellt bzw. trainiert werden muss. Zum Einstellen des Klassifikators werden diesem Bilddatensätze zur Verfügung gestellt, die mit dem hierin beschriebenen Verfahren generiert werden. Dabei werden die Bilddatensätze, die die unterschiedlichen Objekte enthalten, durch Modellierung und damit künstlich erzeugt. Diese künstlich erzeugten bzw. simulierten Bilddatensätze enthalten typischerweise mehrere Objekte, sowohl aus der gleichen Klasse als auch aus verschiedenen Klassen. Es werden bspw. auch Überdeckungen dargestellt. Bei der Erstellung der Bilddatensätze werden Umgebungsbedingungen, die in Abhängigkeit von der konkreten Anwendung, d. h. in Abhängigkeit von den Objekten bzw. der Art von Objekten, ausgewählt sein können, berücksichtigt. Umgebundbedingungen können bspw. Wetterbedingungen, z. B. hat es geregnet oder nicht, Tageszeit, Jahreszeit usw. sein.
  • Das Verfahren kann auch den Schritt umfassen, dass mit den generierten Bilddatensätzen ein Klassifikator eingestellt wird.
  • Zur Erzeugung der Bilddatensätze können Simulationswerkzeuge eingesetzt werden. Die Bilddatensätze können wiederum zwei- oder dreidimensionale Repräsentierungen der Objekte sein.
  • Das vorgestellte Verfahren ermöglicht es in Ausgestaltung, die Klassifikationsaufgabe zur Pflanzenerkennung auf Bilddaten besser zu lösen, indem Informationen über lokale Gegebenheiten genutzt werden. Diese werden zur Simulation von Bilddaten verwendet, mit denen ein Training des Klassifikators möglich ist. Bei einem Einsatz auf dem Feld kann ein auf diesen Einsatz hin optimierter Klassifikator erstellt und eingesetzt werden. Die simulierten Bilddaten können auf unterschiedlichen Wegen erzeugt werden und verschiedene Teilaspekte der Klassifizierung adressieren. Je nach Aspekt können die Bilddaten bspw. realistisch gerenderte Bilder, Umrisse der segmentierten Objekte mit Klassenzugehörigkeit oder Feature-Vektoren sein. Diese Feature-Vektoren repräsentieren einen aus den Ursprungsdaten abgeleiteten Wert, der nach einer Vorschrift bestimmt wird. Auf Bildpixelebene kann bspw. ein Feature durch eine Unschärfe-Operation bestimmt werden. Dazu wird für jeden Pixel z. B. die 5x5-Umgebung an Pixeln genommen und diese Werte gemittelt als Feature für den Pixel genommen. Ein Feature kann auch die Differenz zwischen dem Pixel darüber und dem darunter darstellen, was eine einfache Kantendetektion darstellt. Eine geordnete Reihe solcher Werte, die aus verschiedenen Vorschriften berechnet wurde, ergibt dann einen Feature-Vektor. Anstatt diese für jeden Bildpunkt zu berechnen, kann dies auch nur einmal für das gesamte oder für bestimmte Regionen, z. B. anhand einer vorangegangenen Segmentierung, d. h. hier grob pro Pflanze, erfolgen. Ein Feature-Vektor kann bspw. RGB-Werte (RGB: Rot, Grün und Blau) und ein oder mehrere Vegetationsindizes umfassen.
  • Bei der synthetischen Generierung bzw. Erzeugung von Bilddatensätzen ist die Klassenzugehörigkeit für jeden Pixel bekannt, d. h. es stehen vollständig annotierte Daten zur Verfügung, mit denen ein Training erfolgen kann. Der bei realen Bilddaten notwendige große Aufwand zur Anmerkung der Daten entfällt, ebenso wie mögliche Fehler, die bei der manuellen Anmerkung von Bilddaten entstehen. Die Erzeugung dieser synthetischen Daten ist zudem nicht an Jahreszeiten oder spezielle Vorbehandlungen des Bodens bzw. der Pflanzen gebunden und kann mit bekannten Methoden, bspw. mit Rendering Engines, bei hoher Geschwindigkeit erfolgen. Des Weiteren ist es hier einfach möglich, in der Realität sehr selten auftretende Situationen gezielt zu erzeugen. Dazu gehören bspw. die Anwesenheit von Fremdkörpern, wie bspw. Plastiktüten, Steine, tote Tiere, oder bestimmte Beobachtungsgeometrien, Schatten, abends bzw. morgens, direkte Sonneneinstrahlung. Aber auch räumliche Beziehungen zwischen den Pflanzen können systematisch erzeugt werden. Besondere Schwierigkeiten bereiten bei der klassischen Methode auf Basis einer manuellen Anmerkung Überlappungen zwischen Pflanzen in den Bilddaten. Diese Schwierigkeiten treten hier ebenfalls nicht auf, da die einzelnen Pflanzen im Modell jeweils als Objekte beschrieben und identifizierbar sind.
  • Zusätzlich können auf Basis der Trainingsergebnisse gewonnene Erkenntnisse genutzt werden, um Empfehlungen für die Anwendung zu geben. Dies kann z. B. ein Zeitpunkt sein, an dem die Klassifikation die besten Ergebnisse liefern wird. In der Praxis wird dies mit anderen Anforderungen überlagert, z. B. einem Ausbringen von Herbiziden zur Unkrautbekämpfung in Abhängigkeit von Pflanzenwachstum und ggf. Wetter, um einen idealen Zeitpunkt zur Anwendung auf dem Feld vorzuschlagen. Eine weitere Erkenntnis kann die Beobachtungsgeometrie sein, die im Rahmen der vom Gerät gegebenen Möglichkeiten angepasst wird.
  • Die vorgestellte Anordnung ist dazu eingerichtet das hierin beschriebene Verfahrens durchzuführen und ist bspw. in einer Hardware und/oder Software implementiert.
  • Weitere Vorteile und Ausgestaltungen der Erfindungen ergeben sich aus der Beschreibung und den beigefügten Zeichnungen.
  • Es versteht sich, dass die voranstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
  • Figurenliste
    • 1 zeigt in einem Diagramm Eingangsgrößen in einer Ausführung des beschriebenen Verfahrens.
    • 2 zeigt in einem weiteren Diagramm einen vereinfachten Ablauf des vorgestellten Verfahrens.
    • 3 zeigt in einem Flussdiagramm eine Ausführung des beschriebenen Verfahrens.
    • 4 zeigt in schematischer Darstellung eine Ausführung einer Anordnung zum Durchführen des Verfahrens.
  • Ausführungsformen der Erfindung
  • Die Erfindung ist anhand von Ausführungsformen in den Zeichnungen schematisch dargestellt und wird nachfolgend unter Bezugnahme auf die Zeichnungen ausführlich beschrieben.
  • 1 zeigt in einem Diagramm Eingangsgrößen eines möglichen Ablauf des beschriebenen Verfahrens. Eingangsgrößen sind eine Referenzmessung 10 an einer Bodenprobe und Satellitendaten 12 aus denen sich Reflektivitätsspektren 14 des Bodens ergeben. Eingangsgrößen sind weiterhin der Ort 20, das Datum und ggf. die Uhrzeit 22, Wetterbedingungen 24, wie bspw. der Bewölkungsgrad und eine ggf. vorliegende künstliche Beleuchtung 26, woraus sich die Beleuchtung 28 ergibt. Eingangsgrößen sind weiterhin Pflanzenspezies 30, Pflanzzeitpunkt 32 und Wetterbedingungen bei Ausfahrt 34, woraus sich Refelktivitätsspektren 36 der Pflanzen ergeben. Weiterhin sind Eingangsgrößen Temperatur 40, Bodenfeuchtigkeit 42 von Boden und Luft, was Wetterbedingungen 44 ergibt. Diese Wetterbedingungen 44 zusammen mit Spezie 50, Pflanzzeitpunkt 52 und Bodeninformationen 54 ergeben ein dreidimensionales Bild 56 der Pflanze. Dieses 3D-Modell 56 mit Pflanzabstände Nutzpflanze 60, Flächenverteilung Unkrautarten 62, Höhenmodell Feld und Umgebung 64 und Unkrautarten 66 ergeben ein dreidimensionales Bild 70 von Boden und Pflanzen. Weitere Eingangsgrößen sind Kameraeinstellungen 80, Aufnahmegeometrie 82, Kameraschwingungen bzw. -rotationen 84 und Objekteinstellungen 86, woraus sich Aufnahmeparameter 88 ergeben.
  • Unter Berücksichtigung dieser Eingangsgrößen werden modellierte Bilddatensätze 90, in diesem Fall die synthetisch erzeugten Bilddaten von Pflanzen und Boden, erzeugt.
  • In 2 ist ein möglicher Ablauf des Verfahrens in vereinfachter Form dargestellt. Auf Grundlage einer Parametereingabe 100 und einer Parametervariation 102 werden Bilder erzeugt 104, mit denen wiederum ein Klassifikator trainiert wird 106, der wiederum typischerweise lokal angewendet wird 108.
  • Somit können auf Basis von verschiedenen Eingangsgrößen lokal angepasste Bilddatensätze erzeugt werden, die Pflanzen und Boden umfassen. Mögliche Eingangsgrößen sind in 1 dargestellt.
  • Bei diesen können variiert werden:
    • - Pflanzabstand Kulturpflanze,
    • - Wachstumsstadium Kulturpflanze,
    • - Wachstumsstadium je Unkrautart,
    • - Körnung, Textur, Feuchte des Bodens,
    • - zusätzliches nicht photosynthetisch aktives Material, wie bspw. Plastik, Steine, Stroh, Tiere,
    • - Verteilung von Unkrautarten, in der Nähe zu Kulturpflanzen, räumliche Dichte,
    • - Lichtbedingungen, d. h. natürliche Beleuchtung durch Sonne, Mond bzw. künstliche Beleuchtung mit Position, Ausrichtung, Spektralbereichen, Abstrahlwinkel, Intensität,
    • - Beobachtungsgeometrie,
    • - Kameraeinstellungen, Kamerhardware (Bildsensor, Optik, Filter),
    • - externe Einflüsse auf Objekte, wie bspw. beschädigte Blätter, niedergetretene bzw. umgeknickte Pflanzen, Krankheitssymptome an Pflanzen,
    • - Kameraschwenkungen bzw. Rotationen,
    um eine Vielzahl von Bildern zu erzeugen.
  • Die Generierung der Bilddatensätze kann über die Erstellung einer Szene und mit Hilfe eines Rendering-Programms zur Erzeugung einer photorealistischen Aufnahme erfolgen.
  • Ein Rendering-Programm dient dazu, die Oberflächenstruktur von Objekten aus einem abstrakten und komprimierten Dateiformat in ein visuell interpretierbares Format zu überführen. Dies erfolgt unter Berücksichtigung von Beleuchtungsquellen, physikalischen Eigenschaften und Farbgebung. Es gibt dabei unterschiedliche Varianten. Bei einer langsamen, korrekten Variante werden ausgehend von den Lichtquellen in der Szene Lichtstrahlen berechnet, wie diese durch die Objekte in der Szene beeinflusst werden und schließlich auf den Bildsensor auftreffen. Bei einer sogenannten Game-Engine startet die Berechnung vom Sensor aus. Für jeden Pixel wird durch Strahlverfolgung berechnet, welche Objekte damit sichtbar sind. Aus den Objekteigenschaften und der Beleuchtung in der Szene wird dessen Farbe berechnet.
  • Zur Erstellung der dreidimensionalen Szene werden die Pflanzen z. B. mit prozeduralen Methoden erzeugt, um in einer vorgegebenen Bandbreite Variationen zu erhalten. Über die Verwendung von funktional-strukturellen Pflanzenmodellen (FSPM: functional-structural plant models) kann sowohl die Pflanzenstruktur, d. h. Typen von Pflanzenorganen und deren Topologie, Geometrie, z. B. Blattstellung und Formen, Wachstumsdynamik, als auch der funktionale Teil des Pflanzenwachstums, Photosynthese, Kohlenstoffbindung, abgebildet werden. Für die Erzeugung der photorealistischen Aufnahme können Effekte berücksichtigt werden, die sich bei einer realen Aufnahme durch die eingesetzten Geräte ergeben, z. B.:
    • - Rauschen des Sensors,
    • - begrenzter Dynamikbereich,
    • - Quanteneffizienz des Sensors,
    • - Verzerrungen des Objektivs,
    • - chromatische Aberrationen.
  • Neben einer photorealistischen Darstellung ist auch eine segmentierte Darstellung in zwei Dimensionen denkbar. Diese kann ebenso auf die mit prozeduralen Methoden erzeugten Pflanzen oder aber auf eine Sammlung von vorab aus realen Daten erstellten Segmentierungsdaten, d. h. Binärbilder von Pflanzengeometrien, zurückgreifen. Die Daten sind sozusagen digitale Scherenschnitte der Pflanzen, nämlich welchen Umriss die Pflanze aus der gegebenen Richtung in der Projektion des Bildes hat. Denkbar sind auch abstraktere Bilddaten, wie sie als Zwischenschritt zwischen Segmentierung und Klassifikation, z. B. in Form von Feature-Vektoren, auftreten können.
  • Auf Basis dieser künstlich erzeugten Daten kann ein Klassifikator vollständig trainiert werden oder ein bereits vorhandener ganz oder in Teilaspekten angepasst werden, um die lokale Situation besser abzubilden. Ein Teil der künstlich erzeugten Daten kann zur Überprüfung des neu erstellen Klassifikators zurückgehalten werden.
  • Das Ergebnis zur Überprüfung kann auch ein Ausbringzeitpunkt oder eine Beobachtungsgeometrie bzw. Kameraeinstellungen sein. Diese kann dem Landwirt dann übermittelt werden (Ausbringzeitpunkt) oder automatisch auf dem Gerät eingestellt werden (Kameraeinstellungen).
  • Beispiele hierfür sind:
    • - Kontrast zwischen Boden und Pflanze ist bei trockenem Boden besser, nach Regen ist der Boden feucht, Wettervorhersage: Sonnenschein, aufgrund Modellierung. Bodenfeuchte Vorhersage, wann Kontrast Schwellenwert zur sicheren Erkennung überschreitet.
    • - Auf Basis der gemittelten Differenzen im Spektrum vor Pflanzen und Boden in den Beobachtungsspektralbereichen können die Intensitäten der Beleuchtung angepasst werden.
  • Als eine Form der Erweiterung können Fernerkundungsdaten, wie bspw. Satellitenbildaufnahmen, Luft- und UAV-Aufnahmen, genutzt werden, um lokale Situationen, bspw. auf einem zu befahrenden Feld, zeitnah mit Hilfe von abgeleiteten Informationen zu beschreiben. Dazu zählen bspw.:
    • - Bodentyp,
    • - Bodenfeuchte,
    • - Hangneigung- und ausrichtung,
    • - Gesundheitszustand der photosynthetisch aktiven Vegetation,
    • - Bedeckungsgrad.
  • Die Verwendung dieser Daten ermöglicht es, einen lokal adaptiven Klassifikator auch auf temporale Umgebungsbedingungen anzupassen, ohne vor Ort Messungen durchzuführen. Weiterhin ist es als Ergänzung möglich, spezifische Klassifikatoren auch auf lokale Heterogenitäten, Expositionen eines Felds, Höhenunterschiede, Unterschiede im Bedeckungsgrad anzupassen. In Verbindung mit der Verwendung von Spektralbibliotheken, Spektroradiometermessungen von Boden- und Pflanzenproben, können potenzielle Charakteristiken der über Fernerkundungsdaten klassifizierten Szene mit noch realitätsnäheren Informationen simuliert werden, z. B. geographische Lage bekannt, daraus folgt Bodentyp als sandiges Substrat klassifiziert, daraus folgt Abruf potentieller Spektraler Signaturen aus Spektralbibliothek.
  • Ein möglicher Ablauf ist in 3 beschrieben:
    • In einem ersten Schritt 150 plant ein Landwirt mehrere Stunden bzw. Tage vor der Anwendung eine Anwendung auf einem Feld. Die Anwendung umfasst die Detektion von unterschiedlichen Unkrautarten auf einem Feld und die darauf folgende selektive Behandlung, räumlich und evtl. unkrautspezifisch.
    • In einem zweiten Schritt 152 werden diese Informationen des potenziellen Anwendungszeitraums an den Anbieter gesendet. Darin enthalten sind Informationen über den Zeitpunkt der Anwendung, Ort der Anwendung und die Art, wie z. B. Kulturpflanze, Aussaattermin, evtl. weitere Vorinformationen, z. B. Anbauhistorie, Kulturen, Düngemittelanwendungen, Ertrag pro ha, aus vorherigen Jahren.
    • In einem dritten Schritt 154 kann auf Basis der übermittelten Daten der Anbieter weitere Daten damit verknüpfen, z. B. aus Ort und Zeit können lokale Wetterbedingungen ermittelt werden, die bspw. Luftfeuchtigkeit, Temperatur oder Bodenfeuchte umfassen.
    • In einem vierten Schritt 156 werden die übermittelten und damit verknüpften Daten genutzt, um einen Parameterraum für die Simulation festzulegen, d. h. alle Parameter, die in die Simulation eingehen, werden in einem Intervall variiert, das sich aus den übermittelten bzw. verknüpften Daten ergibt.
    • In einem fünften Schritt 158 generiert der Anbieter aus den so festgelegten Parameterintervallen Daten bzw. Bilddatensätze durch Simulationen. Dies kann bspw. durch Pflanzenmodelle, Bodenmodelle und Raytracing erfolgen.
    • In einem sechsten Schritt 160 wird nun mit einem Großteil dieser zahlreichen Bilder ein Klassifikator trainiert. Dazu kann ein vortrainiertes neuronales Netz verwendet werden.
    • In einem siebten Schritt 162 wird der so trainierte Klassifikator dem Landwirt für seine Anwendung zur Verfügung gestellt und von diesem auf sein Gerät geladen, welches diesen zur Erkennung nutzt.
  • Zum dritten Schritt 154 ist beachten :
    • Die Bodenfeuchtigkeit an der Oberfläche kann aus den Wetterdaten der letzten Tage oder aus verfügbaren Erdbeobachtungsdaten Reflektivität oder
    • Radarsignalen geschätzt werden. Diese kann als Parameter in der Simulation zusammen mit der Bodenart und Bodeneigenschaften organischer C-Anteil,
    • Korngrößenverteilung genutzt werden, um die spektrale Reflektivität des Bodens zu simulieren. Für die Simulation der Bodenreflektivität können bspw. invertierte Strahlungstransfermodelle verwendet werden.
  • Aus der Information, welche Kulturpflanze angebaut wird und wie die Anbauhistorie verlief, kann eine Liste der relevanten Unkrautarten erstellt werden. Diese Liste wird ebenfalls in der Simulation verwendet, um insbesondere diese Unkrautarten zu simulieren. Liegen aus den Vorjahren Daten über Unkrautarten und Verteilungen vor, bspw. aus Aufnahmen, wie sie für dieses Verfahren auf dem Feld erzeugt werden, so können diese ebenfalls mit einfließen.
  • Zum fünften Schritt 158 ist zu beachten:
    • Durch ein Modell werden dreidimensionale Beschreibungen von Kulturpflanzen und Unkrautarten erstellt, die von einem Raytracing-Programm verarbeitet werden können.
  • Bodenprofil, Sonnenstand, Bewölkung und Beobachtungsgeometrie werden durch ein Modell dem Raytracing-Programm übergeben. Aus den dreidimensionalen Modellen werden photorealistische Bilder generiert, die der Situation der Anwendung entsprechen.
  • Neben den normalerweise genutzten Kanälen für Rot, Grün und Blau kann hier auch der für Pflanzen relevante Spektralbereich im nahen Infarot genutzt werden.
  • Auf das Bild können zusätzliche Effekte wie Verzerrungen, Randabschattungen, Rauschen usw. angewandt werden, wie sie von der Hardware erzeugt werden, die in der späteren Anwendung genutzt wird.
  • In Ergänzung zu jedem photorealistischen Bild wird auch ein geometrisch identisches Bild erzeugt, das Kulturplanze und Unkrautarten jeweils in einer unterschiedlichen Farbe als Licht emittierend modelliert. Die Farbe codiert für jedes Bildpixel die Klassenzugehörigkeit, wie bspw. Boden, Kulturpflanze, Unkraut oder gar Unkrautart. Diese Bilder können im Training als Referenz eingesetzt werden und ersetzen den klassischen Pfad der Annotierung.
  • Zum sechsten Schritt 160 ist zu beachten:
    • Als Ziel für das Design des neuronalen Netzes kann die Minimierung der Fehlererkennung der Unkrautarten auf der vorab erstellten Liste angegeben werden. Diese können jeweils mit einem Gewicht versehen werden. Der verbleibende Teil der Bilder wird dazu verwendet, die Fehlererkennung zu bestimmen. Erreicht die Fehlererkennung einen vorab festgelegten Wert, so wird das Training beendet. Alternativ kann als Abbruchbedingung für das Training auch eine festgelegte Anzahl an Rechenoperationen oder ein Zeitlimit verwendet werden.
  • 4 zeigt in stark vereinfachter Form eine Anordnung zum Durchführen des Verfahrens, die insgesamt mit Bezugsziffer 200 bezeichnet ist. Diese umfasst eine Recheneinheit 202 zum Erstellen von Bilddatensätzen 204 mittels Modellierung, wobei Umgebungsbedingungen 208 berücksichtigt werden. Die durch Modellierung erstellten Bilddatensätze 204 enthalten unterschiedliche Objekte 210 und werden einem Klassifikator 212, der z. B. ein neuronales Netz 206 verwendet, zur Verfügung gestellt, so dass dieser eingestellt bzw. trainiert werden kann.

Claims (11)

  1. Verfahren zum Generieren von Bilddatensätzen (90, 204), die zum Einstellen eines Klassifikators (212) dienen, der wiederum zur Bildauswertung eingerichtet ist, wobei bei der Bildauswertung eine Reihe von unterschiedlichen Objekten (210) verschiedenen Kategorien zugeordnet werden sollen, wozu der Klassifikator (212) eingesetzt wird, wobei die Bilddatensätze (90, 204), die die unterschiedlichen Objekte (210) enthalten, durch Modellierung generiert werden, wobei bei der Generierung der Datensätze (90, 204) Umgebungsbedingungen (208) berücksichtigt werden.
  2. Verfahren nach Anspruch 1, bei dem die Umgebungsbedingungen (208) ausgewählt werden aus einer Menge von Umgebungsbedingungen (208), wobei bei der Auswahl die Art der Objekte (210) berücksichtigt wird.
  3. Verfahren nach Anspruch 1 oder 2, das im Bereich der Landwirtschaft eingesetzt wird, wobei eine Klassifizierung einer Bodenfläche vorgenommen wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem dem Klassifikator (212) Datensätze, die Modelle von Pflanzenarten, wie bspw. Unkrautarten, darstellen, zur Verfügung gestellt werden.
  5. Verfahren nach einem der Ansprüche 1 bis 4, bei dem der Klassifikator mit den generierten Bilddatensätzen (90, 204) eingestellt wird.
  6. Verfahren nach Anspruch 5, bei dem zum Einstellen des Klassifikators (212) ein neuronales Netz (206) verwendet wird.
  7. Verfahren nach Anspruch 5 oder 6, bei dem das Einstellen beendet wird, wenn eine Fehlererkennung einen vorab festgelegten Wert erreicht.
  8. Verfahren nach Anspruch 5 oder 6, bei dem das Einstellen beendet wird, wenn eine festgelegte Anzahl an Rechenoperationen oder ein Zeitlimit erreicht wird.
  9. Anordnung zum Generieren von Bilddatensätzen (90, 204) zum Einstellen eines Klassifikators (212) zur Bildauswertung, die zum Durchführen eines Verfahrens nach einem der Ansprüche 1 bis 8 eingerichtet ist.
  10. Computerprogramm mit Programmcodemitteln, das dazu eingerichtet ist, ein Verfahren nach einem der Ansprüche 1 bis 8 auszuführen, wenn das Computerprogramm auf einer Recheneinheit (202), insbesondere einer Recheneinheit (202) in einer Anordnung (200) gemäß Anspruch 8, ausgeführt wird.
  11. Maschinenlesbares Speichermedium mit einem darauf gespeicherten Computerprogramm nach Anspruch 10.
DE102019212226.4A 2019-08-15 2019-08-15 Verfahren zum Generieren von Bilddatensätzen Pending DE102019212226A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019212226.4A DE102019212226A1 (de) 2019-08-15 2019-08-15 Verfahren zum Generieren von Bilddatensätzen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019212226.4A DE102019212226A1 (de) 2019-08-15 2019-08-15 Verfahren zum Generieren von Bilddatensätzen

Publications (1)

Publication Number Publication Date
DE102019212226A1 true DE102019212226A1 (de) 2021-02-18

Family

ID=74239734

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019212226.4A Pending DE102019212226A1 (de) 2019-08-15 2019-08-15 Verfahren zum Generieren von Bilddatensätzen

Country Status (1)

Country Link
DE (1) DE102019212226A1 (de)

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DI CICCO, Maurilio, [et al.] Automatic model based dataset generation for fast and accurate crop and weeds detection. In: 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, 2017. S. 5188-5195 *

Similar Documents

Publication Publication Date Title
Khan et al. Estimation of vegetation indices for high-throughput phenotyping of wheat using aerial imaging
EP3700320B1 (de) Erstellung digitaler bearbeitungskarten
Hodgson et al. Drones count wildlife more accurately and precisely than humans
Córcoles et al. Estimation of leaf area index in onion (Allium cepa L.) using an unmanned aerial vehicle
BR112021009659A2 (pt) mapeamento de anomalias de campo com o uso de imagens digitais e modelos de aprendizado de máquina.
Baofeng et al. Digital surface model applied to unmanned aerial vehicle based photogrammetry to assess potential biotic or abiotic effects on grapevine canopies
EP3701449A1 (de) Ertragsabschätzung beim anbau von kulturpflanzen
DE102019211642A1 (de) Verfahren zum Identifizieren von Beikräutern innerhalb einer definierten Pflanzenreihe einer landwirtschaftlichen Fläche
Awasthi Press †œA†for Artificial Intelligence in Agriculture: A Review
CN112711900A (zh) 一种农作物数字孪生建模方法
EP3673425A1 (de) Ertragsabschätzung beim anbau von kulturpflanzen
EP4088223A1 (de) Verfahren zum generieren einer vielzahl von annotierten bildern
WO2021198731A1 (en) An artificial-intelligence-based method of agricultural and horticultural plants' physical characteristics and health diagnosing and development assessment.
DE102019212226A1 (de) Verfahren zum Generieren von Bilddatensätzen
DE10358938A1 (de) Verfahren und Vorrichtung zur mindestens teilweise automatisierten Auswertung von Fernerkundungsdaten
DE202022102591U1 (de) System zur Überwachung des Gesundheitszustands von Pflanzen in der Präzisionslandwirtschaft mittels Bildverarbeitung und Faltungsneuronalem Netz
Fuentes-Peñailillo et al. Digital count of sunflower plants at emergence from very low altitude using UAV images
CN113361377A (zh) 一种植物生长管控模型构建方法、电子设备、存储介质
Bonaria Grapevine yield estimation using image analysis for the variety Arinto
DE102011110674B4 (de) Vorrichtung zur Bestimmung eines Wachstums einer Pflanze oder eines Bestandes durch eine Höhenbestimmung
Goh et al. Integration precision and unmanned aerial vehicles technology in oil palm management system development
Reddy et al. An optimal superpixel segmentation based transfer learning using AlexNet–SVM model for weed detection
Budiman et al. The estimation of nutrient content using multispectral image analysis in palm oil (Elaeis guineensis Jacq)
DE102017218118A1 (de) Verfahren zum Erhalten einer Pflanzeninformation
Krogh Mortensen et al. The oil radish growth dataset for semantic segmentation and yield estimation

Legal Events

Date Code Title Description
R163 Identified publications notified