DE102018120756A1 - Mobile analysis and processing device, method and carrier system - Google Patents

Mobile analysis and processing device, method and carrier system Download PDF

Info

Publication number
DE102018120756A1
DE102018120756A1 DE102018120756.5A DE102018120756A DE102018120756A1 DE 102018120756 A1 DE102018120756 A1 DE 102018120756A1 DE 102018120756 A DE102018120756 A DE 102018120756A DE 102018120756 A1 DE102018120756 A1 DE 102018120756A1
Authority
DE
Germany
Prior art keywords
pixel
data
unit
carrier
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018120756.5A
Other languages
German (de)
Inventor
Stephan Hußmann
Florian Johannes Knoll
Vitali Czymmek
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naiture & Co KG GmbH
Original Assignee
Naiture & Co KG GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naiture & Co KG GmbH filed Critical Naiture & Co KG GmbH
Priority to DE102018120756.5A priority Critical patent/DE102018120756A1/en
Priority to HUE19765969A priority patent/HUE061887T2/en
Priority to CA3111249A priority patent/CA3111249A1/en
Priority to LTEPPCT/EP2019/072521T priority patent/LT3841444T/en
Priority to AU2019324525A priority patent/AU2019324525A1/en
Priority to KR1020217008621A priority patent/KR20210047918A/en
Priority to RS20230316A priority patent/RS64154B1/en
Priority to SI201930520T priority patent/SI3841444T1/en
Priority to ES19765969T priority patent/ES2942444T3/en
Priority to CN201980055947.3A priority patent/CN112955841A/en
Priority to HRP20230366TT priority patent/HRP20230366T1/en
Priority to DK19765969.1T priority patent/DK3841444T3/en
Priority to FIEP19765969.1T priority patent/FI3841444T3/en
Priority to US17/268,529 priority patent/US20220117146A1/en
Priority to PCT/EP2019/072521 priority patent/WO2020039045A1/en
Priority to PL19765969.1T priority patent/PL3841444T3/en
Priority to PT197659691T priority patent/PT3841444T/en
Priority to EP19765969.1A priority patent/EP3841444B1/en
Publication of DE102018120756A1 publication Critical patent/DE102018120756A1/en
Priority to IL281046A priority patent/IL281046A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M7/00Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass
    • A01M7/0089Regulating or controlling systems
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M9/00Special adaptations or arrangements of powder-spraying apparatus for purposes covered by this subclass
    • A01M9/0092Regulating or controlling systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B79/00Methods for working soil
    • A01B79/005Precision agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Wood Science & Technology (AREA)
  • Insects & Arthropods (AREA)
  • Environmental Sciences (AREA)
  • Zoology (AREA)
  • Pest Control & Pesticides (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Remote Sensing (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft eine Mobile Analyse- und Bearbeitungsvorrichtung (14) für die Landwirtschaft zur Bearbeitung des Bodens und/oder zur Manipulation von Flora und Fauna, mit einer visuellen Detektionseinheit (62), welche umfasst:eine Kamera (64), mit der Bilder erfasst werden, eine Segmentierungs- und Datenreduzierungseinrichtung (66), mit der unter anderem jeweils ein von der Kamera (64) erfasstes Bild aus mehreren Pixeln in einem RGB-(Red, Green, Blue)-Farbmodell erzeugt wird und von Pixelfeldern aus den Pixeln des Zwischenbildes erzeugt wird. Zudem ist ein Klassifikator (68) vorgesehen, der auf Basis des von der Segmentierungs- und Datenreduzierungseinrichtung (66) erzeugten Zwischenbildes die Klassifikation mehrerer aus Pixeln bestehender Pixelfelder übernimmt, wobei nur Pixelfelder klassifiziert werden, welche zumindest ein Pixel aufweisen, das dem binären Wert „1“ zugeordnet ist.The invention relates to a mobile analysis and processing device (14) for agriculture for cultivating the soil and / or for manipulating flora and fauna, comprising a visual detection unit (62) which comprises: a camera (64) with which images are captured a segmentation and data reduction device (66), with which, inter alia, an image recorded by the camera (64) is generated from a plurality of pixels in an RGB (Red, Green, Blue) color model and from pixel fields from the pixels of the Intermediate image is generated. In addition, a classifier (68) is provided which, on the basis of the intermediate image generated by the segmentation and data reduction device (66), takes over the classification of several pixel fields consisting of pixels, only pixel fields which have at least one pixel that corresponds to the binary value “being classified” being classified. 1 ”is assigned.

Description

Die Erfindung betrifft eine mobile Analyse- und Bearbeitungsvorrichtung für die Landwirtschaft zur Bearbeitung des Bodens und/oder zur Manipulation von Flora und Fauna nach Anspruch 1, ein Verfahren nach Anspruch 8 und ein Trägersystem nach Anspruch 17.The invention relates to a mobile analysis and processing device for agriculture for cultivating the soil and / or for manipulating flora and fauna according to claim 1, a method according to claim 8 and a carrier system according to claim 17.

Die Unkrautregulierung in der Landwirtschaft ist eine sehr arbeitsintensive Aufgabe, besonders im biologischen Anbau, die den Einsatz von Chemikalien verbietet oder einschränkt. Je nach angebauter Kultur ist die Unkrautregulierung in unmittelbarer Nähe der Nutzpflanze notwendig. Diese Regulierung findet im Allgemeinen im frühen Wachstumszustand statt. Sowohl Nutzpflanze auf der einen Seite als auch Unkraut bzw. Beikraut auf der anderen Seite sind da noch sehr klein und nahe beieinander. Um eine Beschädigung der Nutzpflanze zu vermeiden, ist es zielführend selektive Methoden anzuwenden. Dies erfolgt im biologischen Anbau, zum Beispiel für Möhren, durch eine arbeitsintensive, körperschädigende manuelle Arbeit mit sogenannten „Jäte-Fliegern“. Saison-Arbeitskräfte liegen auf dem Bauch auf einer Pritsche und entfernen die Unkräuter.Weed control in agriculture is a very labor-intensive task, especially in organic farming, which prohibits or restricts the use of chemicals. Depending on the cultivated crop, weed control is necessary in the immediate vicinity of the crop. This regulation generally takes place in the early stage of growth. Both the useful plant on one side and the weeds or weeds on the other are still very small and close together. To avoid damaging the crop, selective methods should be used. This takes place in organic cultivation, for example for carrots, through labor-intensive, body-damaging manual work with so-called "weeding planes". Seasonal workers lie on their bumps on a platform and remove the weeds.

Für Sonderkulturen mit größeren Pflanzenabständen, wie zum Beispiel Zuckerrüben, oder Salat, sind Traktoranbaugeräte bekannt, welche in der Lage sind, einzelne Nutzpflanzen zu erkennen und entsprechende Werkzeuge so anzusteuern, dass die Fläche der Nutzpflanze unbearbeitet bleibt. Für diese Aufgabe ist keine Selektivität notwendig. D.h., dass diese Systeme nicht die zu überarbeitenden Flächen überprüfen, sondern vielmehr das Werkzeug „auf Blind“ anhand der bekannten Nutzpflanzenposition steuern. Allgemein definiert der Abstand zur Nutzpflanze die Genauigkeitsanforderungen.For special crops with larger plant spacings, such as sugar beets or lettuce, tractor attachments are known which are able to recognize individual crops and to control appropriate tools so that the area of the crop remains unprocessed. Selectivity is not required for this task. This means that these systems do not check the areas to be reworked, but rather control the tool "on blind" based on the known crop position. In general, the distance to the crop defines the accuracy requirements.

Aus der DE 40 39 797 A1 ist eine Vorrichtung zur Unkrautbekämpfung bekannt, wobei ein Aktor zur Vernichtung des Beikrauts permanent läuft und erst, wenn durch einen Sensor eine Kulturpflanze erkannt wird, dieser kurzzeitig unterbrochen wird.From the DE 40 39 797 A1 A device for weed control is known, an actuator for destroying the weeds running continuously and only being interrupted briefly when a sensor detects a crop.

Aus der DE 10 2015 209 879 A1 ist eine Vorrichtung zur Beschädigung von Beikraut bekannt, welches ein Bearbeitungswerkzeug aufweist. Dieses Bearbeitungswerkzeug dient dazu, das Beikraut zu beschädigen. Zudem ist eine Klassifizierungseinheit vorgesehen, welche die Positionsdaten des Beikrauts entweder aufweist oder das Beikraut erkennt und die Positionsdaten ermittelt. Eine Lokalisierungseinheit ermittelt eine Relativposition zwischen dem Bearbeitungswerkzeug und dem Beikraut. Eine Manipulatoreinheit in Form eines Wagens positioniert das Bearbeitungswerkzeug in Abhängigkeit der ermittelten Relativpositionen entsprechend.From the DE 10 2015 209 879 A1 a device for damaging weeds is known, which has a processing tool. This editing tool is used to damage the weeds. In addition, a classification unit is provided, which either has the position data of the weed or recognizes the weed and determines the position data. A localization unit determines a relative position between the processing tool and the weed. A manipulator unit in the form of a carriage positions the machining tool accordingly in accordance with the determined relative positions.

Ein entsprechendes Gerät mit einer Druckfördereinheit und einer Flüssigkeitsabgabeeinheit ist aus der DE 10 2015 209 891 A1 bekannt. Bei dieser Ausführungsform wird das Beikraut durch Aufsprühen von Flüssigkeit unter Druck vernichtet.A corresponding device with a pressure delivery unit and a liquid delivery unit is from the DE 10 2015 209 891 A1 known. In this embodiment, the weeds are destroyed by spraying liquid under pressure.

Mit Agrarrobotern und Erntemaschinen, die automatisiert und mit Telematik Einrichtung versehen die Landwirtschaft technisch unterstützen, werden derzeit neue Wege beschritten. Vielfach können technische Prinzipien und Erkenntnisse aus der Raumfahrt, der Fernerkundung und der Robotik für die Fragestellungen in der Landwirtschaft übernommen werden, jedoch sind diese an die Aufgabenstellungen in der Landwirtschaft gezielt anzupassen und erfordern neue Vorrichtungen und Verfahren.Agricultural robots and harvesting machines that provide automated, technical equipment to support agriculture are currently treading new ground. In many cases, technical principles and knowledge from space travel, remote sensing and robotics can be adopted for agricultural issues, but these must be adapted to agricultural tasks and require new devices and processes.

Ein Problem bei der automatisierten Behandlung der Felder ist auch das Ermitteln der Daten, wo sich das Beikraut befindet und was demgegenüber als Nutzpflanze zu behandeln ist.A problem with the automated treatment of the fields is also the determination of the data, where the weed is and what, on the other hand, is to be treated as a useful plant.

Aus der DE 10 2005 050 302 A1 ist ein Verfahren zum berührungslosen Ermitteln des aktuellen Ernährungszustandes eines Pflanzenbestandes und zum Verarbeiten dieser Information unter Berücksichtigung weiterer Parameter wie Fruchtart und/oder Sorte und/oder Entwicklungsstadium und/oder Ertragsziel in eine Düngeempfehlung bekannt, bei dem von einem Teil des Pflanzenbestandes mindestens ein digitales Bild mittels eines Bildaufnahmesystems in mindestens zwei spektralen Kanälen aufgenommen, aus dem Bild der aktuelle Ernährungszustand durch eine Bildanalyse ermittelt und aus letzterer die Düngeempfehlung abgeleitet wird. Dieser bekannte Stand der Technik hat den Nachteil, dass die Datenverarbeitung relativ lange dauert und für ein in situ System nicht geeignet ist.From the DE 10 2005 050 302 A1 is a method for contactless determination of the current nutritional status of a plant stand and for processing this information taking into account further parameters such as fruit type and / or variety and / or development stage and / or yield target in a fertilization recommendation, in which at least one digital picture of part of the plant stand recorded in at least two spectral channels by means of an image recording system, the current nutritional status is determined from the image by means of an image analysis and the fertilizer recommendation is derived from the latter. This known prior art has the disadvantage that the data processing takes a relatively long time and is not suitable for an in situ system.

In der DE 10 2006 009 753 B3 ist weiterhin ein Verfahren zum berührungslosen Bestimmen der Biomasse und morphologischen Parameter von Pflanzenbeständen beschrieben, bei dem auf die Pflanzen des Bestandes mit einer von auf einem mobilen Träger befestigten Ultraschallquelle emittierten Schallfeld während der Überfahrt eingewirkt, die von den Pflanzen und den Boden reflektierten Schallechos durch einen am Träger fixierten Empfänger erfasst und von diesem nach Wandlung in digitale Signale an eine Auswerte- und Signalverarbeitungseinheit weitergegeben werden, die die Signale aktuell auswertet, auf einem Datenträger speichert und auf einem Monitor anzeigt, wobei optional in einer elektronisch gesteuerten Ausbringeinheit die Signale zu Steuerbefehlen zum Ausbringen von Produktmitteln verarbeitet werden. Dieser Stand der Technik ermöglicht es zwar, morphologische Parameter wie die Anzahl der Blattetagen, die Blattstellung und die vertikale Verteilung der Biomasse direkt zu bestimmen, jedoch ist eine Bestimmung des Beikrauts damit nicht möglich.In the DE 10 2006 009 753 B3 Furthermore, a method for the contactless determination of the biomass and morphological parameters of plant stands is described, in which the plants of the stand acted upon during the crossing with a sound field emitted by an ultrasound source attached to a mobile carrier, the sound echoes reflected by the plants and the soil by a Receiver attached to the carrier is detected and, after conversion into digital signals, is passed on to an evaluation and signal processing unit which currently evaluates the signals, stores them on a data carrier and displays them on a monitor, optionally with the signals for control commands in an electronically controlled application unit Application of product funds are processed. Although this prior art makes it possible to directly determine morphological parameters such as the number of leaf days, the leaf position and the vertical distribution of the biomass, however, it is not possible to determine the weed.

Der Erfindung liegt die Aufgabe zugrunde, eine mobile Analyse- und Bearbeitungsvorrichtung für die Landwirtschaft zur Bearbeitung des Bodens und/oder zur Manipulation von Flora und Fauna sowie ein Verfahren, welche eine in Echtzeit geregelte, qualifizierte Beseitigung der detektierten Flora und/oder Fauna sowie auch eine parallele Analyse von Flora und Fauna ermöglicht. Echtzeit bedeutet in diesem Zusammenhang, dass eine in situ Analyse und Bearbeitung ermöglicht wird.The invention is based on the object of a mobile analysis and processing device for agriculture for cultivating the soil and / or for manipulating flora and fauna, and a method which is a real-time controlled, qualified removal of the detected flora and / or fauna and also enables a parallel analysis of flora and fauna. In this context, real-time means that in-situ analysis and processing is possible.

Diese Aufgabe wird für die mobile Analyse- und Bearbeitungsvorrichtung durch die Merkmale des Anspruches 1, für das Verfahren durch die Merkmale des Anspruches 8 und für das Trägersystem durch die Merkmale des Anspruches 17 gelöst.This object is achieved for the mobile analysis and processing device by the features of claim 1, for the method by the features of claim 8 and for the carrier system by the features of claim 17.

Die Unteransprüche bilden vorteilhafte Weiterbildungen der Erfindung.The subclaims form advantageous developments of the invention.

Der Erfindung liegt die Erkenntnis zugrunde, dass durch eine Ausbildung einer mobilen Analyse- und Bearbeitungsvorrichtung mit einer visuellen Detektionseinheit, welche eine Reduktion der auszuwertenden Daten auf die notwendigen Bereiche ermöglicht, die Analyse- und Bewertungszeit sich erheblich verkürzen lässt und sich dadurch eine Analyse und Bearbeitung, beispielsweise von landwirtschaftlichen Flächen, in nur einem Arbeitsgang erledigen lässt.The invention is based on the finding that by designing a mobile analysis and processing device with a visual detection unit, which enables the data to be evaluated to be reduced to the necessary areas, the analysis and evaluation time can be shortened considerably, and analysis and processing are thereby possible , for example of agricultural land, can be done in just one operation.

Die Erfindung betrifft daher eine mobile Analyse- und Bearbeitungsvorrichtung für die Landwirtschaft zur Bearbeitung des Bodens und/oder zur Manipulation von Flora und Fauna. Diese mobile Vorrichtung ist mit einer visuellen Detektionseinheit versehen, welche eine Kamera umfasst, mit der Bilder erfasst werden. Zudem ist eine Segmentierungs- und Datenreduzierungseinrichtung vorgesehen mit der jeweils ein von der Kamera erfasstes Bild aus mehreren Pixeln in einem RGB-(Red, Green, Blue)-Farbmodell erzeugt wird. Anschließend wird jedes Pixel basierend auf dem RGB-Farbmodell in ein HSV (hue, saturation, value)-Farbmodell überführt. Jedes Pixel basierend auf dem HSV-Farbmodell wird dann im Hinblick auf die Farbsättigung (saturation) anhand eines Schwellenwertes bewertet, wobei, wenn der Wert der Farbsättigung einen Schwellenwert übersteigt, das Pixel dem binären Wert „1“ zugeordnet wird, und, wenn der Wert der Farbsättigung einen Schwellenwert unterschreitet, das Pixel dem binären Wert „O“ zugeordnet wird. Parallel wird jedes Pixel basierend auf dem HSV-Farbmodell im Hinblick auf den Farbwinkel (hue) anhand eines vorbestimmten Bereiches bewertet, wobei, wenn der Farbwinkel in dem vorbestimmten Bereich liegt, das Pixel dem binären Wert „1“ zugeordnet wird, und, wenn der Farbwinkel außerhalb des Bereichs liegt, das Pixel dem binären Wert „O“ zugeordnet wird. Aus den binären Informationen des Farbwinkels und der Farbsättigung entsteht dann ein erstes Zwischenbild, welches erheblich weniger Daten als das von der Kamera erzeugte Bild enthält. Anschließend werden Pixelfelder aus dem Zwischenbild erzeugt. Weiterhin ist ein Klassifikator vorgesehen, der auf Basis des von der Segmentierungs- und Datenreduzierungseinrichtung erzeugten Zwischenbildes die Klassifikation mehrerer aus Pixeln bestehender Pixelfelder übernimmt, wobei nur Pixelfelder klassifiziert werden, welche zumindest ein Pixel aufweisen, das dem binären Wert „1“ zugeordnet ist. Auf diese Weise erfolgt eine nicht unerhebliche Datenreduktion und somit Beschleunigung der Analyse vor Ort. Zudem ergeben sich weitere Möglichkeiten der Optimierung, wie sich aus dem Folgenden ergibt.The invention therefore relates to a mobile analysis and processing device for agriculture for cultivating the soil and / or for manipulating flora and fauna. This mobile device is provided with a visual detection unit which comprises a camera with which images are captured. In addition, a segmentation and data reduction device is provided with which an image recorded by the camera is generated from a plurality of pixels in an RGB (Red, Green, Blue) color model. Then each pixel is based on the RGB color model HSV (hue, saturation, value) color model transferred. Each pixel based on the HSV color model is then rated for color saturation based on a threshold, and if the value of color saturation exceeds a threshold, the pixel is assigned the binary value " 1 "Is assigned, and if the value of the color saturation falls below a threshold value, the pixel corresponds to the binary value" O "Is assigned. In parallel, each pixel is evaluated based on the HSV color model with regard to the color angle (hue) using a predetermined range, the pixel having the binary value “if the color angle is in the predetermined range“ 1 "And if the color angle is outside the range, the pixel is assigned the binary value" O "Is assigned. From the binary information of the color angle and the color saturation, a first intermediate image is created which contains considerably less data than the image generated by the camera. Then pixel fields are generated from the intermediate image. Furthermore, a classifier is provided which, on the basis of the intermediate image generated by the segmentation and data reduction device, takes over the classification of several pixel fields consisting of pixels, wherein only pixel fields are classified which have at least one pixel that corresponds to the binary value “ 1 " assigned. This results in a not inconsiderable data reduction and thus acceleration of the analysis on site. There are also other optimization options, as can be seen from the following.

Als günstig hat sich erwiesen, wenn die Segmentierungs- und Datenreduzierungseinrichtung ein Pixelfeld durch eine Quadratzahl von Pixeln bildet, insbesondere dabei 100, 81, 77, 36, 25, 16, 9 oder 4 Pixel aufweist. Vorzugsweise ist dabei das Pixelfeld quadratisch gebildet.It has proven to be advantageous if the segmentation and data reduction device forms a pixel field by a square number of pixels, in particular in this case has 100, 81, 77, 36, 25, 16, 9 or 4 pixels. The pixel field is preferably formed square.

Gemäß einer Ausführungsform der Erfindung umfasst die mobile Vorrichtung zumindest eine Werkzeugeinheit mit zumindest einem motorisch angetriebenen Werkzeug, einen Aktor zum Verfahren zumindest des Werkzeugs der Werkzeugeinheit, einen Motor zum Antreiben der Werkzeugeinheit und/oder des Aktors, eine Datenbank, eine erste Kommunikationseinheit mit Schnittstelle und ein erster Rechner zum Steuern des Motors, der visuellen Detektionseinheit, der Werkzeugeinheit und/oder des Aktors aufgrund generierter Steuerbefehle. Dabei werden die über die visuelle Detektionseinheit erfassten Daten mit den in der Datenbank hinterlegten Daten fortlaufend abgeglichen, um entsprechende Steuersignale für den Motor, die visuelle Detektionseinheit, die Werkzeugeinheit, den Aktor und/oder einen zugeordneten Träger zu generieren. Hierdurch wird eine Mobilität und Flexibilität geschaffen, gemäß der die Vorrichtung eine Einheit bildet, mit der sämtliche Daten in Echtzeit abgearbeitet, Steuersignale für die Werkzeugeinheit generiert und umgehend die Werkzeugeinheit gemäß den Steuersignalen arbeiten kann. Hierdurch ergeben sich Möglichkeiten der Kombination beispielsweise mit verschiedenen Trägern, welche die Vorrichtung bedarfsweise über das Feld bewegen.According to one embodiment of the invention, the mobile device comprises at least one tool unit with at least one motor-driven tool, an actuator for moving at least the tool of the tool unit, a motor for driving the tool unit and / or the actuator, a database, a first communication unit with interface and a first computer for controlling the motor, the visual detection unit, the tool unit and / or the actuator on the basis of generated control commands. The data recorded via the visual detection unit is continuously compared with the data stored in the database in order to generate corresponding control signals for the motor, the visual detection unit, the tool unit, the actuator and / or an assigned carrier. This creates mobility and flexibility, according to which the device forms a unit with which all data are processed in real time, control signals are generated for the tool unit and the tool unit can immediately work in accordance with the control signals. This results in possibilities of combining, for example, with different carriers, which move the device over the field if necessary.

Echtzeit bedeutet in diesem Zusammenhang die Möglichkeit, Analyse- und Bearbeitungsvorgänge in einem Arbeitsgang in situ vornehmen zu können.In this context, real-time means the possibility of being able to carry out analysis and processing operations in situ in one work step.

Um die Vorrichtung bedarfsweise mit einem Träger verbinden zu können, welcher die Vorrichtung bewegt, sind entsprechende Mittel zum Verbinden mit dem Träger vorgesehen.In order to be able to connect the device to a carrier that moves the device as required, appropriate means are provided for connecting to the carrier.

Die Werkzeugeinheit weist vorzugsweise mindestens eine Vorschubeinheit und eine Rotationseinheit auf, welche mit dem Motor zusammenwirkt. Der Einsatzbereich des Werkzeugs wird hierdurch auf einfache Weise erweitert, ohne dass die Vorrichtung bewegt werden muss. The tool unit preferably has at least one feed unit and one rotation unit which interacts with the motor. The range of use of the tool is thereby expanded in a simple manner without the device having to be moved.

Vorzugsweise ist die Rotationseinheit an einem distalen Ende mit zumindest dem einen Werkzeug versehen, insbesondere mit einer Fräse oder mit einer Messereinheit. Mit Rotation beispielsweise der Messereinheit können zum Beispiel kleine Kerbtiere oder Beikraut selektiv zerstört werden.The rotation unit is preferably provided at one distal end with at least one tool, in particular with a milling cutter or with a knife unit. By rotating the knife unit, for example, small insects or weeds can be selectively destroyed.

Die oben erwähnte Aufgabe wird auch durch ein Verfahren zum Betreiben der Analyse- und Bearbeitungsvorrichtung gemäß der eben genannten Art gelöst, wobei das Verfahren folgende Schritte aufweist:

  • - zeitlich kontinuierliche Aufnahme von datentechnisch definierter Voxel und/oder Pixel und/oder Bildern durch die visuelle Detektionseinheit;
  • - Übermittlung der Aufnahmedaten an die Datenbank;
  • - Speicherung der Aufnahmedaten in der Datenbank;
  • - qualitativer Datenabgleich der Aufnahmedaten mit den in der Datenbank hinterlegten Daten, vorzugsweise mit Durchführung einer Segmentierung, einer Datenreduktion, einer und/oder Verifikation der Daten durch den Rechner;
  • - Bewertung der abgeglichenen Daten mit bestehenden definierten Daten und Datensätzen in der Datenbank durch einen Klassifikator in Verbindung mit dem Rechner;
  • - Verarbeitung und Umsetzung der Bewertung durch den Rechner in regelungs- und/oder steuerungstechnische Daten für den Motor, den Aktor, die Werkzeugeinheit und/oder einen zugeordneten Träger.
The above-mentioned object is also achieved by a method for operating the analysis and processing device according to the type just mentioned, the method comprising the following steps:
  • - Continuous recording of voxels and / or pixels and / or images defined in terms of data technology by the visual detection unit;
  • - transmission of the recording data to the database;
  • - Storage of the recording data in the database;
  • - Qualitative data comparison of the recording data with the data stored in the database, preferably by performing a segmentation, data reduction, and / or verification of the data by the computer;
  • - Evaluation of the matched data with existing defined data and data records in the database using a classifier in connection with the computer;
  • - Processing and implementation of the evaluation by the computer in regulation and / or control engineering data for the motor, the actuator, the tool unit and / or an assigned carrier.

Vorzugsweise erfolgt nach Vorliegen der regelungs- und/oder steuerungstechnischen Daten ein Anfahren des Motors, des Aktors, der Werkzeugeinheit und/oder des zugeordneten Trägers zur Bearbeitung des Bodens und zur Manipulation von Flora und Fauna.After the regulatory and / or control-related data are available, the motor, the actuator, the tool unit and / or the associated carrier are preferably started up for working the soil and for manipulating flora and fauna.

Um die Analyse der Aufnahmedaten zu beschleunigen, werden beim Datenabgleich die Aufnahmedaten an die Segmentierungs- und Datenreduzierungseinrichtung übermittelt, welche Zwischenbilder erzeugt. Die Zwischenbilder weisen deutlich reduzierte Daten auf.In order to accelerate the analysis of the recording data, the recording data are transmitted to the segmentation and data reduction device which generates intermediate images during the data comparison. The intermediate images have significantly reduced data.

Insbesondere nach dem Erzeugen der Zwischenbilder werden diese an den Klassifikator übermittelt, welcher die erzeugten Zwischenbilder anhand bestehender definierter Bilder und Datensätze in der Datenbank im Zusammenwirken mit dem Rechner bewertet.In particular after the intermediate images have been generated, they are transmitted to the classifier, which evaluates the generated intermediate images on the basis of existing defined images and data records in the database in cooperation with the computer.

Gemäß einer Ausführungsform der Erfindung werden in der Segmentierungs- und Datenreduzierungseinrichtung zur Erzeugung der Zwischenbilder nacheinander folgende Schritte durchgeführt:

  • - Jedes übermittelte Bild aus mehreren Pixeln wird in das RGB-(Red, Green, Blue)-Farbmodell überführt;
  • - jedes Pixel des übermittelten Bildes basierend auf dem RGB-Farbmodell wird in ein HSV (hue, saturation, value)-Farbmodell transferiert;
  • - jedes Pixel basierend auf dem HSV-Farbmodell wird im Hinblick auf die Farbsättigung (saturation) anhand eines Schwellenwerteses bewertet, wobei, wenn der Wert der Farbsättigung einen Schwellenwert übersteigt, das Pixel dem binären Wert „1" zugeordnet wird, und, wenn der Wert der Farbsättigung einen Schwellenwert unterschreitet, das Pixel dem binären Wert „O“ zugeordnet wird;
  • - vorzugsweise parallel mit dem eben genannten Schritt wird jedes Pixel basierend auf dem HSV-Farbmodell im Hinblick auf den Farbwinkel (hue) anhand eines vorbestimmten Bereiches bewertet, wobei, wenn der Farbwinkel in dem vorbestimmten Bereich liegt, das Pixel dem binären Wert „1“ zugeordnet wird, und, wenn der Farbwinkel außerhalb des Bereichs liegt, das Pixel dem binären Wert „O“ zugeordnet wird;
  • - aus den binären Informationen des Farbwinkels und der Farbsättigung entsteht das erste Zwischenbild, welches erheblich weniger Daten als das von der Kamera erzeugte Bild enthält.
According to one embodiment of the invention, the following steps are carried out in succession in the segmentation and data reduction device for generating the intermediate images:
  • - Each transmitted image from several pixels is converted into the RGB (Red, Green, Blue) color model;
  • - Each pixel of the transmitted image based on the RGB color model is transferred to an HSV (hue, saturation, value) color model;
  • - Each pixel based on the HSV color model is evaluated with regard to the color saturation using a threshold value, wherein if the value of the color saturation exceeds a threshold value, the pixel corresponds to the binary value “ 1 "is assigned, and if the value of the color saturation falls below a threshold value, the pixel corresponds to the binary value" O “Is assigned;
  • - preferably in parallel with the step just mentioned, each pixel is evaluated based on the HSV color model with regard to the color angle (hue) using a predetermined range, the pixel having the binary value “if the color angle is in the predetermined range“ 1 "And if the color angle is outside the range, the pixel is assigned the binary value" O “Is assigned;
  • - From the binary information of the color angle and the color saturation, the first intermediate image is created, which contains considerably less data than the image generated by the camera.

Vorzugsweise werden in der Segmentierungs- und Datenreduzierungseinrichtung Pixelfelder aus den Pixeln des Zwischenbildes erzeugt, um die Analyse weiter zu beschleunigen und zu optimieren.Preferably, pixel fields are generated from the pixels of the intermediate image in the segmentation and data reduction device in order to further accelerate and optimize the analysis.

Um später die durch die Bewertung ermittelten Ergebnisse aus den Bildern in regelungs- und/oder steuerungstechnische Daten für den Akteur und/oder den Träger umsetzen zu können, versieht die Segmentierungs- und Datenreduktionseinrichtung die Pixel mit Lagekoordinaten.The segmentation and data reduction device provides the pixels with position coordinates so that the results from the images determined by the evaluation can subsequently be converted into regulation and / or control engineering data for the actor and / or the wearer.

Gemäß einer Ausführungsform der Erfindung nimmt der Klassifikator mit Hilfe eines künstlichen neuronalen Netzes die Klassifikation vor. Vorzugsweise ist dabei das künstliche neuronale Netz durch ein Convolutional Neural Network (CNN) gebildet.According to one embodiment of the invention, the classifier carries out the classification using an artificial neural network. The artificial neural network is preferably connected by a convolutional neural network ( CNN ) educated.

Die Erfindung betrifft auch ein Trägersystem mit einem Träger und einer mobilen Vorrichtung zur Bearbeitung des Bodens und/oder zur Manipulation der Flora und Fauna nach oben genannter Art, insbesondere zur Durchführung des eben genannten Verfahrens. Der Träger ist mit einem Antrieb zum Bewegen des Trägersystems, mit einer Steuereinrichtung, mit einer Energiequelle, welche mit dem Antrieb zusammenwirkt und die notwendige Spannung für den Betrieb zur Verfügung stellt, mit einer Aufnahme zum Aufnehmen und Verbinden mit der mobilen Vorrichtung, mit einer Kommunikationseinheit, mit einer ersten mit der Kommunikationseinheit zusammenwirkenden Kommunikationsschnittstelle zum Datenaustausch mit der mobilen Vorrichtung, welche eine zugeordnete Schnittstelle aufweist, sowie mit einer zweiten mit der Kommunikationseinheit zusammenwirkende Kommunikationsschnittstelle versehen. Über die zweite Kommunikationsschnittstelle werden zumindest Steuerungsdaten empfangen und mittels der Kommunikationseinheit an die Steuerungseinrichtung zum vorbestimmten Bewegen des Trägers weitergegeben. Hierdurch wird eine Flexibilität des Trägersystems geschaffen, das einen breiten Einsatzbereich ermöglicht, aber auch unterschiedlichen Bedürfnissen in der Landwirtschaft gerecht wird, indem bedarfsgerecht mobile Vorrichtungen mit einem einheitlichen Träger verbunden werden können. The invention also relates to a carrier system with a carrier and a mobile device for working the soil and / or for manipulating the flora and fauna in the manner mentioned above, in particular for carrying out the method just mentioned. The carrier is provided with a drive for moving the carrier system, with a control device, with an energy source which interacts with the drive and provides the necessary voltage for operation, with a receptacle for receiving and connecting to the mobile device, with a communication unit , with a first communication interface interacting with the communication unit for data exchange with the mobile device, which has an assigned interface, and with a second communication interface interacting with the communication unit. At least control data are received via the second communication interface and passed on to the control device for predetermined movement of the carrier by means of the communication unit. This creates a flexibility of the carrier system, which enables a wide range of applications, but also meets different needs in agriculture, in that mobile devices can be connected to a uniform carrier as required.

Vorzugsweise kann der Träger als unbemanntes Luftfahrzeug (Flugdrohne), unbemanntes Landfahrzeug, unbemanntes Wasserfahrzeug, oder unbemanntes Unterwasserfahrzeug, beispielsweise für Aquakulturen, ausgebildet sein. Je nach Einsatzbereich wird der eine oder andere Träger genommen.The carrier can preferably be designed as an unmanned aerial vehicle (drone), unmanned land vehicle, unmanned watercraft, or unmanned underwater vehicle, for example for aquaculture. Depending on the area of application, one or the other carrier is used.

Gemäß einer Ausführungsform der Erfindung ist die zweite Kommunikationsschnittstelle eine Antenne, welche zum Datenaustausch mit einem zentralen, vorzugsweise ortsfesten, von dem Träger separaten Rechner ausgebildet ist. Hierdurch wird ermöglicht, dass Geräte, beispielsweise für die Telemetrie und oder die Auswertung der ermittelten Daten, unabhängig vom Träger bearbeitet und ausgewertet werden können. Der Träger kann dadurch leicht gewichtiger ausgebildet werden.According to one embodiment of the invention, the second communication interface is an antenna which is designed for data exchange with a central, preferably fixed, computer separate from the carrier. This enables devices, for example for telemetry and or the evaluation of the data determined, to be processed and evaluated independently of the carrier. The carrier can thus be made slightly more weighty.

Um aber auch einen Datenaustausch mit der mobilen Vorrichtung zu ermöglichen, ist die zweite Kommunikationsschnittstelle hierfür ausgebildet.However, in order to enable data exchange with the mobile device, the second communication interface is designed for this.

Der Träger benötigt beispielsweise zum Betrieb des Antriebs eine Spannungsquelle. Um eine solche Spannungsquelle nur einmal vorzusehen und somit Gewicht im Trägersystem einzusparen, weisen der Träger und die mobile Vorrichtung jeweils einen Spannungsanschluss auf, über den auch die mobile Vorrichtung mit Spannung versorgbar ist. Es ist somit nur eine Energiequelle für den Träger und die mobile Vorrichtung vorgesehen.For example, the carrier requires a voltage source to operate the drive. In order to provide such a voltage source only once and thus save weight in the carrier system, the carrier and the mobile device each have a voltage connection via which the mobile device can also be supplied with voltage. Thus, only one energy source is provided for the carrier and the mobile device.

Um die Austauschbarkeit des Trägers mit verschiedenen mobilen Vorrichtungen zu gewährleisten, weisen der Träger und die mobile Vorrichtung Mittel zum bedarfsweisen Verbinden miteinander auf.In order to ensure the interchangeability of the carrier with different mobile devices, the carrier and the mobile device have means for connecting to one another as required.

Gemäß einer Ausführungsform der Erfindung weist der Träger eine GPS-Einheit zur fortlaufenden Erfassung der Positionskoordinaten des Trägers auf. Auf diese Weise können die Positionskoordinaten den über den Sensor ermittelten Daten zugeordnet werden. Eine Auswertung wird hierdurch vereinfacht.According to one embodiment of the invention, the carrier has a GPS unit for continuously recording the position coordinates of the carrier. In this way, the position coordinates can be assigned to the data determined by the sensor. This simplifies evaluation.

Weitere Vorteile, Merkmale und Anwendungsmöglichkeiten der vorliegenden Erfindung ergeben sich aus der nachfolgenden Beschreibung in Verbindung mit den in den Zeichnungen dargestellten Ausführungsbeispielen.Further advantages, features and possible uses of the present invention result from the following description in connection with the exemplary embodiments shown in the drawings.

In der Beschreibung, in den Ansprüchen und in der Zeichnung werden die in der unten aufgeführten Liste der Bezugszeichen verwendeten Begriffe und zugeordneten Bezugszeichen verwendet. In der Zeichnung bedeutet:

  • 1 eine schematische Darstellung eines Tragsystems mit räumlich getrennten Gehäusen einer mobilen Vorrichtung gemäß einer ersten Ausführungsform der Erfindung;
  • 2 eine schematische Darstellung eines Tragsystems mit räumlich getrennten Gehäusen einer mobilen Vorrichtung, die über eine Steckverbindung miteinander verbunden sind, gemäß einer zweiten Ausführungsform der Erfindung;
  • 3 eine Seitenansicht auf das Tragsystem gemäß der ersten Ausführungsform der Erfindung mit Anbindung der mobilen Vorrichtung an eine Flugdrohne;
  • 4 ein Flussdiagramm, welches die Schritte eines Verfahrens mit dem Tragsystem veranschaulicht;
  • 5 ein Flussdiagramm, welches die Schritte des Verfahrens zur Ermittlung der notwendigen Maßnahmen darstellt;
  • 6 ein durch die visuelle Detektionseinheit aufgenommenes Bild;
  • 7 ein schematischer Aufbau eines Convolution Neuronalen Netzwerkes ausgehend von dem Bild von 6;
  • 8 ein Flussdiagramm, welches ein Verfahren der Segmentierungs- und Datenreduktionseinheit zeigt;
  • 9 ein aus der Segmentierungs- und Datenreduktionseinheit erstelltes Zwischenbild;
  • 10 einen Teilausschnitt des Zwischenbildes mit drei unterschiedlichen Fällen für den Klassifikator;
  • 11 zwei prinzipielle Darstellungen von weiteren Pixelfeldern für die Bewertung durch den Klassifikator;
  • 12 zwei prinzipielle Darstellungen von weiteren Pixelfeldern für die Bewertung durch den Klassifikator;
  • 13 ein durch den Klassifikator erstelltes und bewertetes Bild, und
  • 14 die prinzipielle Darstellungen der Arbeitsweise des Klassifikators
In the description, in the claims and in the drawing, the terms and associated reference symbols used in the list of reference symbols given below are used. In the drawing means:
  • 1 a schematic representation of a support system with spatially separate housings of a mobile device according to a first embodiment of the invention;
  • 2 a schematic representation of a support system with spatially separate housings of a mobile device, which are connected to one another via a plug connection, according to a second embodiment of the invention;
  • 3 a side view of the support system according to the first embodiment of the invention with connection of the mobile device to a drone;
  • 4 a flowchart illustrating the steps of a method with the support system;
  • 5 a flow diagram illustrating the steps of the method for determining the necessary measures;
  • 6 an image captured by the visual detection unit;
  • 7 a schematic structure of a convolutional neural network based on the image of 6 ;
  • 8th a flowchart showing a method of the segmentation and data reduction unit;
  • 9 an intermediate image created from the segmentation and data reduction unit;
  • 10 a partial section of the intermediate image with three different cases for the classifier;
  • 11 two basic representations of further pixel fields for the evaluation by the classifier;
  • 12 two basic representations of further pixel fields for the evaluation by the classifier;
  • 13 an image created and rated by the classifier, and
  • 14 the basic representations of how the classifier works

In 1 ist schematisch ein Trägersystem 10 dargestellt, welches aus einem Träger in Form einer Flugdrohne 12 und einer mobilen Vorrichtung 14 zur Bearbeitung des Bodens und zur Manipulation der Flora und Fauna in der Landwirtschaft besteht. Die Flugdrohne 12 umfasst einen Antrieb 16, der vier Elektromotoren 18 und über diese angetriebene Propeller 20 umfasst, siehe 3. Zudem ist die Flugdrohne 12 mit 4 Füßen 22 unterhalb der Elektromotoren 18 versehen.In 1 is a schematic of a carrier system 10 shown, which consists of a carrier in the form of a drone 12 and a mobile device 14 for cultivating the soil and manipulating flora and fauna in agriculture. The drone 12 includes a drive 16 , the four electric motors 18 and about this powered propeller 20 includes, see 3 , In addition, the flight drone 12 With 4 feet 22 below the electric motors 18 Mistake.

Gemäß der ersten Ausführungsform der Erfindung umfasst die Flugdrohne 12 eine Energiequelle in Form von Batterien 24, welche die Energieversorgung für den Antrieb 16 als auch für die weiteren Aggregate der Flugdrohne 12 sowie die mobile Vorrichtung 14 liefert. Hierfür ist eine Spannungsschnittstelle 26a an der Flugdrohne 12 und eine zu dieser Spannungsschnittstelle 26a korrespondierende Spannungsschnittstelle 26b an der mobilen Vorrichtung 14 vorgesehen, welche über eine lösbare Steckverbindung 28 miteinander verbunden sind. Zudem ist eine Kommunikationseinheit 30 mit einer Antenne 32 und eine GPS Einheit 34 vorgesehen, welche fortlaufend den Standort der Flugdrohne 12 ermittelt, diese Standortdaten der Flugdrohne 12 an die mobile Vorrichtung 14 für die Zuordnung zu den von der mobilen Vorrichtung 14 erfassten Daten sowie an eine entfernt gelegene zentrale Recheneinheit übermittelt, die hier nicht näher dargestellt ist. Mithilfe der GPS Einheit 34, der Kommunikationseinheit 30 und der mobilen Vorrichtung 14 kann Telemetrie durchgeführt werden. Zudem ist eine Steuereinrichtung 12b vorgesehen, welche den Antrieb 16 steuert.According to the first embodiment of the invention, the flight drone comprises 12 an energy source in the form of batteries 24 which is the energy supply for the drive 16 as well as for the other units of the drone 12 as well as the mobile device 14 supplies. There is a voltage interface for this 26a on the drone 12 and one to this voltage interface 26a corresponding voltage interface 26b on the mobile device 14 provided which via a detachable connector 28 are interconnected. There is also a communication unit 30 with an antenna 32 and a GPS unit 34 provided which continuously the location of the drone 12 determined this location data of the flight drone 12 to the mobile device 14 for mapping to those from the mobile device 14 recorded data and transmitted to a remote central processing unit, which is not shown here. With the help of GPS unit 34 , the communication unit 30 and the mobile device 14 can be done telemetry. There is also a control device 12b provided which the drive 16 controls.

Die Kommunikationseinheit 30 der Flugdrohne 12 umfasst neben der Antenne 32 eine weitere Schnittstelle 36a, welche einer zugeordneten Schnittstelle 36b der mobilen Vorrichtung 14 zugeordnet ist und über eine lösbare Steckverbindung 38 zum Datenaustausch hierüber miteinander verbunden sind.The communication unit 30 the drone 12 includes next to the antenna 32 another interface 36a which an assigned interface 36b the mobile device 14 is assigned and via a detachable connector 38 are connected to each other for data exchange.

Die mobile Vorrichtung 14 besteht aus zwei Einheiten 14a, 14b, nämlich einer ersten Einheit 14a mit einem ersten Gehäuse 40 und einer zweiten Einheit 14b mit einem zweiten Gehäuse 42. Das erste Gehäuse 40 und das zweite Gehäuse 42 sind lösbar über eine Steckverbindung 44 miteinander zu einer die mobile Vorrichtung 14 bildenden Einheit verbunden. Es gibt einen Satz unterschiedliche erste Einheiten 14a auf der einen Seite und einen Satz unterschiedlicher zweite Einheiten 14b auf der anderen Seite, welche durch einfaches miteinander verbinden individuell konfiguriert und an die Bedürfnisse angepasst werden können.The mobile device 14 consists of two units 14a . 14b , namely a first unit 14a with a first housing 40 and a second unit 14b with a second housing 42 , The first housing 40 and the second housing 42 are detachable via a plug connection 44 with each other to a the mobile device 14 forming unit connected. There is a set of different first units 14a on one side and a set of different second units 14b on the other hand, which can be individually configured and adapted to needs by simply connecting them together.

In dem ersten Gehäuse 40 ist ein erster Rechner 46, ein Aktor in Form eines beweglichen, motorisch angetriebenen Arms 48, ein mit dem Arm 48 zusammenwirkender Motor 50, ein an dem Arm 48 angeordnete Werkzeugeinheit 52, welche eine Vorschubeinheit 54 und eine Rotationseinheit 56 aufweist. An dem distalen Ende der Rotationseinheit 56 ist eine Fräse 58 als Werkzeug vorgesehen. Der Motor 50 treibt sowohl den Arm 48 als auch die Vorschubeinheit 54, die Rotationseinheit 56 und damit auch die Fräse 58 an. Der Arm 48 kann mehrteilig ausgebildet sein und über verschiedene Gelenke verfügen, welche im Einzelnen nicht dargestellt sind, da derartige motorisch betriebene Kinematiken bekannt sind. Über den Arm 48 wird die Werkzeugeinheit 52 relativ zur Flugdrohne 12 zu ihrem Einsatzbereich bewegt, so dass die Werkzeugeinheit 52 mit der Vorschubeinheit 54 und der Rotationseinheit 56 die Fräse 58 zur Bearbeitung der Pflanzen, beispielsweise Entfernen von Beikraut, und/oder zum Bearbeiten des Bodens einsetzen kann.In the first case 40 is a first computer 46 , an actuator in the form of a movable, motor-driven arm 48 , one with the arm 48 interacting motor 50 , one on the arm 48 arranged tool unit 52 which is a feed unit 54 and a rotating unit 56 having. At the distal end of the rotation unit 56 is a milling machine 58 provided as a tool. The motor 50 drives both the arm 48 as well as the feed unit 54 , the rotation unit 56 and with it the milling machine 58 on. The arm 48 can be formed in several parts and have different joints, which are not shown in detail, since such motor-operated kinematics are known. Over the arm 48 becomes the tool unit 52 relative to the drone 12 moved to their area of application so that the tool unit 52 with the feed unit 54 and the rotation unit 56 the milling machine 58 can be used for cultivating the plants, for example removing weeds, and / or cultivating the soil.

Weiterhin ist in der ersten Einheit 14a eine Kommunikationseinheit 60 und eine visuelle Detektionseinheit 62 vorgesehen. Die visuelle Detektionseinheit 62 umfasst eine Kamera 64, mit der Bilder erfasst werden, eine Segmentierungs- und Datenreduktionseinrichtung 66, einen Klassifikator 68, der auf Basis eines von der Segmentierung- und Datenreduzierungseinrichtung 66 erzeugten Zwischenbildes oder Zwischendaten die Klassifikation mehrerer aus Pixeln bestehender Pixelfelder übernimmt, wie weiter unten noch näher beschrieben wird. Die visuelle Detektionseinheit 62 ist mit der Kommunikationseinheit 60 verbunden.Furthermore is in the first unit 14a a communication unit 60 and a visual detection unit 62 intended. The visual detection unit 62 includes a camera 64 , with which images are captured, a segmentation and data reduction device 66 , a classifier 68 , which is based on one of the segmentation and data reduction device 66 generated intermediate image or intermediate data takes over the classification of several pixel fields consisting of pixels, as will be described in more detail below. The visual detection unit 62 is with the communication unit 60 connected.

Die erste Einheit 14a weist eine Schnittstelle 70a auf, welche einer Schnittstelle 70b der zweiten Einheit 14b zugeordnet ist. Über eine Kommunikationsverbindung 72 ist die Kommunikationseinheit 60 über die Schnittstelle 70a mit der Schnittstelle 70b und darüber mit einer Kommunikationseinheit 74 in der zweiten Einheit 14b verbunden. Die Kommunikationseinheit 74 der zweiten Einheit 14b ist über die Schnittstelle 36b über die Steckverbindung 38 mit der Schnittstelle 36a und der Kommunikationseinheit 30 der Flugdrohne 12 verbunden.The first unit 14a has an interface 70a on what an interface 70b the second unit 14b assigned. Via a communication link 72 is the communication unit 60 over the interface 70a with the interface 70b and above with a communication unit 74 in the second unit 14b connected. The communication unit 74 the second unit 14b is over the interface 36b via the plug connection 38 with the interface 36a and the communication unit 30 the drone 12 connected.

In der zweiten Einheit 14b sind zudem ein zweiter Rechner 76 und eine Datenbank 78 vorgesehen. In the second unit 14b are also a second computer 76 and a database 78 intended.

In der 2 ist eine weitere Ausführungsform des Trägersystems 10 dargestellt, wobei die Flugdrohne 12 identisch mit der ersten Ausführungsform ausgebildet ist. Lediglich die mobile Vorrichtung 14 unterscheidet sich durch eine Steckverbindung 80 zwischen der ersten Einheit 14a und der zweiten Einheit 14b, welche zudem auch die Kommunikationseinheit 60 der ersten Einheit 14a mit der Kommunikationseinheit 74 lösbar verbindet. Durch einfaches Zusammenstecken können unterschiedliche erste Einheiten 14a mit unterschiedlichen zweiten Einheiten 14b kombiniert und zu einer mobilen Einheit 14 zusammengefügt werden.In the 2 is another embodiment of the carrier system 10 shown with the drone 12 is identical to the first embodiment. Only the mobile device 14 differs by a plug connection 80 between the first unit 14a and the second unit 14b , which is also the communication unit 60 the first unit 14a with the communication unit 74 releasably connects. By simply plugging together different first units 14a with different second units 14b combined and into a mobile unit 14 be put together.

In 3 ist die Flugdrohne 12 in Seitenansicht dargestellt, wobei dadurch lediglich zwei von vier Elektromotoren 18 mit zugeordneten Propellern 20 sichtbar sind. Unterhalb der Elektromotoren 18 sind jeweils die Füße 22 angeordnet. Zwischen den Füßen 22 sind zwei Greifarme 82a, 82b vorgesehen, welche die mobile Vorrichtung 14 bedarfsweise ergreifen und anheben und wieder absetzen und ablegen. Die mobile Vorrichtung 14 besteht aus den beiden Einheiten 14a und 14b, welche über die Steckverbindung 80 miteinander lösbar verbunden sind. In der ersten Einheit 14a ist die Kamera 64 als Teil der visuellen Detektionseinheit 62 sowie die Fräse 58 an dem distalen Ende der Rotationseinheit 56 erkennbar.In 3 is the flight drone 12 shown in side view, whereby only two of four electric motors 18 with assigned propellers 20 are visible. Below the electric motors 18 are the feet 22 arranged. Between your feet 22 are two gripper arms 82a . 82b provided which the mobile device 14 If necessary, grab and lift and put down and put down again. The mobile device 14 consists of the two units 14a and 14b which via the connector 80 are releasably connected to each other. In the first session 14a is the camera 64 as part of the visual detection unit 62 as well as the milling machine 58 at the distal end of the rotation unit 56 recognizable.

Die mobile Vorrichtung 14 kann auch mit mehreren unterschiedlichen Werkzeugeinheiten 52 ausgerüstet sein, welche mit einem gemeinsamen Arm 48 und beispielsweise einen Werkzeugrevolver versehen ist, der die benötigte Werkzeugeinheit 52 in die Aktivierungsposition bringt. Denkbar ist aber auch, dass die unterschiedlichen Werkzeugeinheiten jeweils einen eigenen Aktor aufweisen.The mobile device 14 can also be used with several different tool units 52 be equipped with a common arm 48 and, for example, a tool turret is provided which has the required tool unit 52 in the activation position. However, it is also conceivable that the different tool units each have their own actuator.

In 4 sind in einem Flussdiagramm die Schritte aufgezeigt, welche nacheinander durchlaufen werden, um mit dem Trägersystem 10 eine Bearbeitung des Bodens und die Manipulation von Flora und Fauna in der Landwirtschaft durchzuführen.In 4 are shown in a flowchart the steps which are carried out successively in order to use the carrier system 10 cultivating the soil and manipulating flora and fauna in agriculture.

In einem ersten Schritt 84 werden zunächst mit dem Trägersystem 10 die notwendigen Maßnahmen auf der zugeordneten landwirtschaftlichen Fläche ermittelt. Beispielsweise wird hierfür das Trägersystem 10 zu einer zu bearbeitenden landwirtschaftlichen Fläche, beispielsweise zu einem landwirtschaftlichen Feld, gebracht oder direkt von einem zentralen Ort aus dorthin geflogen. Die Flugdrohne 12 mit der mobilen Vorrichtung 14 startet und fliegt das landwirtschaftliche Feld ab. Über eine ortsfeste zentrale Recheneinheit erhält das Trägersystem 10 die notwendigen Daten über das zu begutachtende landwirtschaftliche Feld. Die zentrale Recheneinheit kann hierbei auch ein Smartphone sein. Über die visuelle Detektionseinheit 62 mit der Kamera 64 der mobilen Vorrichtung 14 wird das landwirtschaftliche Feld in Bildern erfasst. Die Bilder werden ausgewertet und mit einem Abgleich in der Datenbank 78 die notwendigen Maßnahmen für dieses landwirtschaftliche Feld schlussendlich ermittelt.In a first step 84 are first with the carrier system 10 the necessary measures are determined on the assigned agricultural area. For example, the carrier system for this 10 brought to an agricultural area to be worked on, for example to an agricultural field, or flown there directly from a central location. The drone 12 with the mobile device 14 starts and flies off the agricultural field. The carrier system is received via a fixed central processing unit 10 the necessary data about the agricultural field to be assessed. The central processing unit can also be a smartphone. Via the visual detection unit 62 with the camera 64 the mobile device 14 the agricultural field is captured in pictures. The images are evaluated and compared in the database 78 the necessary measures for this agricultural field are finally determined.

In einem nächsten Schritt 86 wird auf Grundlage der ermittelten Maßnahmen für das landwirtschaftliche Feld oder für Teilbereiche des landwirtschaftlichen Feldes aus einem Satz erster Einheiten 14a und einem Satz unterschiedlicher zweiter Einheiten 14b die für die notwendige Maßnahme geeignete mobile Einheit 14 zusammengestellt und die beiden Einheiten 14a, 14b miteinander verbunden.In a next step 86 is based on the determined measures for the agricultural field or for parts of the agricultural field from a set of first units 14a and a set of different second units 14b the mobile unit suitable for the necessary measure 14 put together and the two units 14a . 14b connected with each other.

In einem nächsten Schritt 88 wird die mobile Vorrichtung 14 mit der Flugdrohne 12 über den Greifarm 82a und den Greifarm 82b jeweils seitlich ergriffen und durch diesen in Richtung Flugdrohne 12 nach oben in eine Aufnahme 12a der Flugdrohne 12 verfahren. Dabei werden die Spannungsschnittstellen 26a, 26b über die Steckverbindung 28 und die Schnittstellen 36a, 36b über die Steckverbindung 38 miteinander verbunden. Hierdurch wird die mobile Vorrichtung 14 mit Spannung aus der Batterie 24 der Flugdrohne 12 versorgt und ein Datenaustausch über die Antenne 32 der Kommunikationseinheit 30 der Flugdrohne 12 mit den Kommunikationseinheiten 60 und 74 der mobilen Vorrichtung 14 auf der einen Seite und einer zentralen Recheneinheit auf der anderen Seite ermöglicht. Wie oben ausgeführt, kann die zentrale Recheneinheit, welche vom Trägersystem 10 unabhängig ist, auch ein Smartphone sein.In a next step 88 becomes the mobile device 14 with the drone 12 over the gripper arm 82a and the gripper arm 82b gripped laterally and through this towards the drone 12 up into a shot 12a the drone 12 method. The voltage interfaces 26a . 26b via the plug connection 28 and the interfaces 36a . 36b via the plug connection 38 connected with each other. This will make the mobile device 14 with voltage from the battery 24 the drone 12 supplied and a data exchange via the antenna 32 the communication unit 30 the drone 12 with the communication units 60 and 74 the mobile device 14 on the one hand and a central processing unit on the other. As stated above, the central processing unit, which is from the carrier system 10 is independent, also be a smartphone.

In einem nächsten Schritt 90 werden die ermittelten Maßnahmen mit dem Trägersystem 10 auf dem landwirtschaftlichen Feld durchgeführt. Beispielsweise fliegt die Flugdrohne 12 zu dem zu bearbeitenden Bereich des landwirtschaftlichen Feldes. Der Arm 48 mit der Werkzeugeinheit 52 fährt zu dem zu entfernenden Beikraut. Die Vorschubeinheit 54 verfährt die Fräse 58 so zu dem Beikraut, dass dieses mit Aktivieren der Rotationseinheit 56 weggefräst wird.In a next step 90 the measures determined with the carrier system 10 performed on the agricultural field. For example, the drone flies 12 to the area of the agricultural field to be worked. The arm 48 with the tool unit 52 drives to the weed to be removed. The feed unit 54 the milling machine moves 58 so to the weed that this with activation of the rotation unit 56 is milled away.

In einem fünften Schritt 92 fliegt dann die Flugdrohne 12 zurück, und tauscht die mobile Vorrichtung 14 gegen eine andere mobile Vorrichtung 14 aus, welche für eine andere Maßnahme optimiert ist, beispielsweise mit einer Ausbringvorrichtung für Schädlingsbekämpfungsmittel oder Dünger.In a fifth step 92 then flies the flight drone 12 back, and swaps the mobile device 14 against another mobile device 14 which is optimized for another measure, for example with a spreading device for pesticides or fertilizers.

Alternativ können die Schritte 86 und 88 auch entfallen, wenn die Flugdrohne 12 bereits fertig für die durchzuführende Maßnahme gerüstet ist.Alternatively, the steps 86 and 88 also omitted when the flight drone 12 is already ready for the measure to be carried out.

Anhand der 5 wird nunmehr das Ermitteln der notwendigen Maßnahmen durch das Trägersystem 10, insbesondere durch die mobile Vorrichtung 14 im Einzelnen dargelegt. Based on 5 is now the determination of the necessary measures by the carrier system 10 , especially through the mobile device 14 spelled out in detail.

In einem ersten Schritt 94 erfolgt die kontinuierliche Aufnahme von Daten technisch definierter Voxel und/oder Pixel und/oder Bilder durch die visuelle Detektionseinheit 62 der mobilen Vorrichtung 14. Die Voxel, Pixel und Bilder bilden Aufnahmedaten, welche fortlaufend an die Datenbank 78 übermittelt werden - zweiter Schritt 96.In a first step 94 the visual detection unit continuously records data of technically defined voxels and / or pixels and / or images 62 the mobile device 14 , The voxels, pixels and images form recording data, which are continuously sent to the database 78 transmitted - second step 96 ,

In einem dritten Schritt 98 erfolgt die erfolgt die Speicherung der Aufnahmedaten.In a third step 98 the recording data is saved.

In einem vierten Schritt 100 erfolgt ein qualitativer Datenabgleich der Aufnahmedaten mit den in der Datenbank 78 hinterlegten Daten. Hierbei erfolgt die Durchführung einer Segmentierung und Datenreduktion der Aufnahmedaten durch die Segmentierung- und Datenreduktioneinrichtung 66. Insbesondere kann auch eine Verifikation der Aufnahmedaten durch den zweiten Rechner 76 erfolgen.In a fourth step 100 there is a qualitative data comparison of the recording data with that in the database 78 stored data. The segmentation and data reduction device carries out a segmentation and data reduction of the recording data 66 , In particular, verification of the recording data by the second computer can also be carried out 76 respectively.

In einem fünften Schritt 102 erfolgt die Bewertung durch den Klassifikator 68 in Verbindung mit dem zweiten Rechner 76 durch Unterstützung von Künstlicher Intelligenz, wie weiter unten noch ausführlich dargelegt wird.In a fifth step 102 the evaluation is carried out by the classifier 68 in connection with the second computer 76 by supporting artificial intelligence, as will be explained in detail below.

In einem sechsten Schritt 104 erfolgt schließlich die Verarbeitung und Umsetzung der Bewertung durch den ersten Rechner 46 in regelungs- und steuerungstechnische Daten für den Motor 50, den Arm 48, die Werkzeugeinheit 52 und die Flugdrohne 12.In a sixth step 104 Finally, the processing and implementation of the evaluation is carried out by the first computer 46 in open-loop and open-loop control data for the engine 50 , the arm 48 , the tool unit 52 and the flight drone 12 ,

In einem siebten Schritt 106 erfolgt schließlich das Anfahren des Motors 50, des Arms 48 und der Werkzeugeinheit 52 zur Bearbeitung des Bodens oder zur Manipulation von Flora und Fauna.In a seventh step 106 the engine is finally started 50 , of the arm 48 and the tool unit 52 for working the soil or manipulating flora and fauna.

Sofern in dieser Anmeldung von Künstlicher Intelligenz gesprochen wird, handelt es sich unter anderem um die Verwendung eines klassischen Convolutional Neural Networks - CNN - aus einem oder mehreren Convolutional Layer, gefolgt von einem Pooling Layer. Diese Folge aus Convolutional Layer und Pooling Layer kann sich prinzipiell beliebig oft wiederholen. In der Regel liegt die Eingabe als zwei- oder dreidimensionale Matrix, z. B. die Pixel eines Graustufen- oder Farbbildes, vor. Dementsprechend sind die Neuronen im Convolutional Layer angeordnet.Insofar as this application speaks of artificial intelligence, it involves, among other things, the use of a classic convolutional neural network - CNN - consisting of one or more convolutional layers, followed by a pooling layer. In principle, this sequence of convolutional layer and pooling layer can be repeated as often as required. As a rule, the input is a two- or three-dimensional matrix, e.g. B. the pixels of a grayscale or color image. Accordingly, the neurons are arranged in the convolutional layer.

Die Aktivität jedes Neurons wird über eine diskrete Faltung (convolutional) berechnet. Intuitiv wird dabei schrittweise eine vergleichsweise kleine Faltungsmatrix (Filterkernel) über die Eingabe bewegt. Die Eingabe eines Neurons im Convolutional Layer berechnet sich als inneres Produkt des Filterkernels mit dem aktuell unterliegenden Bildausschnitt. Dementsprechend reagieren benachbarte Neuronen im Convolutional Layer auf sich überlappende Bereiche.The activity of each neuron is calculated using a discrete convolutional convolution. Intuitively, a comparatively small convolution matrix (filter kernel) is gradually moved over the input. The input of a neuron in the convolutional layer is calculated as the inner product of the filter kernel with the current image section. Accordingly, neighboring neurons in the convolutional layer react to overlapping areas.

Ein Neuron in diesem Layer reagiert nur auf Reize in einer lokalen Umgebung des vorherigen Layers. Dies folgt dem biologischen Vorbild des rezeptiven Feldes. Zudem sind die Gewichte für alle Neuronen eines Convolutional Layers identisch (geteilte Gewichte, englisch: shared weights). Dies führt dazu, dass beispielsweise jedes Neuron im ersten Convolutional Layer codiert, zu welcher Intensität eine Kante in einem bestimmten lokalen Bereich der Eingabe vorliegt. Die Kantenerkennung als erster Schritt der Bilderkennung besitzt hohe biologische Plausibilität. Aus den shared weights folgt unmittelbar, dass Translationsinvarianz eine inhärente Eigenschaft von CNNs ist.A neuron in this layer only responds to stimuli in a local environment of the previous layer. This follows the biological model of the receptive field. In addition, the weights are identical for all neurons of a convolutional layer (shared weights). The result of this is that, for example, each neuron in the first convolutional layer encodes the intensity at which an edge is present in a specific local area of the input. Edge detection as the first step in image recognition has high biological plausibility. It immediately follows from the shared weights that translation invariance is an inherent property of CNNs.

Der mittels diskreter Faltung ermittelte Input eines jeden Neurons wird nun von einer Aktivierungsfunktion, bei CNNs üblicherweise Rectified Linear Unit, kurz ReLu (f(x) = max(0, x), in den Output verwandelt, der die relative Feuerfrequenz eines echten Neurons modellieren soll. Da Backpropagation die Berechnung der Gradienten verlangt, wird in der Praxis eine differenzierbare Approximation von ReLu benutzt: f(x) = In(1 +ex). Analog zum visuellen Cortex steigt in tiefer gelegenen Convolutional Layers sowohl die Größe der rezeptiven Felder als auch die Komplexität der erkannten Features.The input of each neuron, determined by means of discrete convolution, is now converted into the output by an activation function, usually CNLs Rectified Linear Unit, or ReLu (f (x) = max (0, x)), which models the relative fire frequency of a real neuron Since back propagation requires the computation of the gradients, a differentiable approximation of ReLu is used in practice: f (x) = In (1 + e x ). Analogously to the visual cortex, the size of the receptive fields increases in lower convolutional layers as well as the complexity of the identified features.

Im folgenden Schritt, dem Pooling, werden überflüssige Informationen verworfen. Zur Objekterkennung in Bildern etwa, ist die exakte Position einer Kante im Bild von vernachlässigbarem Interesse - die ungefähre Lokalisierung eines Features ist hinreichend. Es gibt verschiedene Arten des Poolings. Mit Abstand am stärksten verbreitet ist das Max-Pooling, wobei aus jedem 2 × 2 Quadrat aus Neuronen des Convolutional Layers nur die Aktivität des aktivsten (daher „Max“) Neurons für die weiteren Berechnungsschritte beibehalten wird; die Aktivität der übrigen Neuronen wird verworfen. Trotz der Datenreduktion (im Beispiel 75 %) verringert sich in der Regel die Performance des Netzwerks nicht durch das Pooling.In the next step, pooling, superfluous information is discarded. For example, for object recognition in images, the exact position of an edge in the image is of negligible interest - the approximate localization of a feature is sufficient. There are different types of pooling. Max pooling is by far the most widespread, whereby from every 2 × 2 square of convolutional layer neurons only the activity of the most active (hence “ Max “) Neurons are retained for the further calculation steps; the activity of the other neurons is discarded. Despite the data reduction (in the example 75%), the performance of the network is not usually reduced by pooling.

Der Einsatz des Convolutional Neural Networks und der Segmentierung- und Datenreduzierungseinrichtung 66 wird im Folgenden anhand der Bilder 6 bis 14 näher erläutert.The use of the convolutional neural network and the segmentation and data reduction device 66 is based on the pictures below 6 to 14 explained in more detail.

Für die Klassifikation durch den Klassifikator 68 aller Objekte in einem Bild existieren verschiedene Ansätze. Viele Ansätze beginnen damit die einzelnen Objekte erst im Bild zu finden und anschließend zu klassifizieren. Dies ist jedoch nicht immer möglich. Als Beispiel soll hier die Klassifikation von Pflanzen 108 eines Feldes herangezogen werden. Ein Beispielbild 108 zeigt 6.For classification by the classifier 68 Different approaches exist for all objects in a picture. Many approaches begin with finding the individual objects in the image and then classifying them. However, this is not always the case possible. As an example, here is the classification of plants 108 of a field. An example picture 108 shows 6 ,

In 6 sind verschiedene Pflanzen 108 abgebildet und sollen durch den Klassifikator 68 alle klassifiziert werden und dies in Echtzeit. Die Echtzeit soll in diesem Fall hier der Kameratakt von 10 Bilder pro Sekunde sein. Da wie hier im Beispiel nicht einfach unterschieden werden kann, wo genau eine Pflanze 110 endet, muss eine andere Herangehensweise verwendet werden, da die Rechenzeit nicht ausreicht, erst die Pflanzen 110 an sich zu unterscheiden und anschließend noch zu klassifizieren.In 6 are different plants 108 mapped and are intended to be represented by the classifier 68 all are classified and in real time. In this case, the camera act of 10 Frames per second. Because, as in this example, it is not easy to distinguish where exactly a plant is 110 ends, a different approach must be used, since the computing time is not sufficient, only the plants 110 to distinguish themselves and then classify them.

Das Bild 108 von 6 besteht aus Pixeln und jeder Pixel kann logischerweise nur genau eine Klasse beinhalten. Daher wäre ein trivialer Ansatz das gesamte Bild 108 pixelweise zu klassifizieren. Das soll heißen jeder Pixel wird nacheinander einer Klasse zugeordnet.The picture 108 of 6 consists of pixels and each pixel can logically only contain exactly one class. Therefore, the whole picture would be a trivial approach 108 to be classified pixel by pixel. This means that every pixel is assigned to a class one after the other.

Da jedoch ein einzelner Pixel nicht die nötige Information enthält, um eine Aussage über die Klassenzugehörigkeit zu treffen, muss eine umliegende Fläche zur Klassifikation herangezogen werden. Diese Fläche kann dann mit einen Convolution Neuronalen Netzwerk (CNN), wie es oben beschrieben wurde, klassifiziert werden. Das Netzwerk kann dabei einen Folge wie 7 aufweisen.However, since a single pixel does not contain the necessary information to make a statement about the class membership, a surrounding area must be used for the classification. This area can then be connected to a convolutional neural network ( CNN ) as described above. The network can have a consequence like 7 exhibit.

Das Eingangsbild 110 ist hier das Bild von 6. Auf dieses Eingangsbild 110 werden nun die Elemente des CNN angewendet. In diesem Beispiel wären das die Convolution 112 mit den Featuren, ein anschließendes Pooling 114, eine weitere Convolution mit weiteren Featuren, ein erneutes Pooling und eine Zusammenfassung in der Dense Schicht 116. Der Ausgang des Netzwerkes gibt dann die Klassenzugehörigkeit des mittleren Pixels des Eingangsbildes 110 aus, beziehungsweise eines Pixels des Bildes 110 von 6.The entrance picture 110 here is the picture of 6 , On this entrance picture 110 the elements of the CNN applied. In this example it would be convolution 112 with the features, then pooling 114 , another convolution with further features, a new pooling and a summary in the Dense layer 116 , The output of the network then gives the class of the middle pixel of the input image 110 or a pixel of the image 110 of 6 ,

Anschließend wird ein neuer Bildausschnitt, in der Regel ein Bildausschnitt das um einen Pixel verschoben ist, gewählt und wieder mittels CNN klassifiziert. Dieses Vorgehen hat zur Folge, dass die Berechnungen, die das Convolution Neuronale Netzwerk benötigt, für die Anzahl der zur klassifizierenden Pixeln wiederholt werden muss. Dies ist zeitaufwändig. Das Bild 110 von 6 hat eine Auflösung von 2000 x 1000 Pixeln. Das CNN müsste also zwei Millionen Mal berechnet werden. Das Ausgangsproblem ist jedoch nur die Klassifikation der Pflanzen 108 an sich. Im Durchschnitt enthält ein solches Bild etwa 5% Pflanzenpixel, das entsprechen etwa nur 100.000 Pixel.Then a new image section, generally an image section that is shifted by one pixel, is selected and again by means of CNN classified. The result of this procedure is that the calculations that the convolution neural network needs must be repeated for the number of pixels to be classified. This is time consuming. The picture 110 of 6 has a resolution of 2000 x 1000 pixels. The CNN would have to be calculated two million times. The initial problem, however, is only the classification of the plants 108 per se. On average, such an image contains about 5% plant pixels, which corresponds to about 100,000 pixels.

Mittels einfacher Segmentierung und Datenreduktion durch die Segmentierungs- und Datenreduktionseinheit 66 kann herausgefunden werden, ob es sich bei einem Pixel um die Darstellung eines Teils einer Pflanze 108 oder um Hintergrund 118 handelt. Diese Segmentierung ist von der Berechnung nicht so komplex wie ein CNN und daher schneller. Die Segmentierung und Datenreduktion durch die Segmentierung- und Datenreduktioneinheit 66 erfolgt dabei analog der 8. In 8 sind die einzelnen Schritte dargestellt.By means of simple segmentation and data reduction by the segmentation and data reduction unit 66 can be found out whether a pixel represents part of a plant 108 or around background 118 is. This segmentation is not as complex as a calculation CNN and therefore faster. The segmentation and data reduction by the segmentation and data reduction unit 66 is carried out analogously to 8th , In 8th the individual steps are shown.

In einem ersten Schritt 120 wird jedes an die Datenbank 78 übermittelte Bild aus mehreren Pixeln in das RGB-(Red, Green, Blue)-Farbmodell überführt.In a first step 120 each is going to the database 78 transferred image from several pixels into the RGB (Red, Green, Blue) color model.

In einem nächsten Schritt 122 wird jedes Pixel des übermittelten Bildes basierend auf dem RGB-Farbmodell in ein HSV (hue, saturation, value)-Farbmodell transferiert.In a next step 122 each pixel of the transmitted image based on the RGB color model HSV (hue, saturation, value) color model transferred.

In einem nächsten Schritt 124 wird dieses HSV-Farbmodell bewertet.In a next step 124 this HSV color model is evaluated.

Jedes Pixel basierend auf dem HSV-Farbmodell wird im Hinblick auf die Farbsättigung (saturation) anhand eines Schwellenwertes bewertet, wobei wenn der Wert der Farbsättigung einen Schwellenwert übersteigt, dass Pixel dem binären Wert 1 zugeordnet wird, und wenn der Wert der Farbsättigung einen Schwellenwert unterschreitet, das Pixel dem binären Wert 0 zugeordnet wird.Each pixel based on the HSV color model is rated for color saturation based on a threshold, and if the value of color saturation exceeds a threshold, that pixel is the binary value 1 is assigned, and if the value of the color saturation falls below a threshold, the pixel the binary value 0 is assigned.

Parallel hierzu wird jedes Pixel basierend auf dem HSV-Farbmodell im Hinblick auf den Farbwinkel (hue) anhand eines vorbestimmten Bereiches bewertet, wobei wenn der Farbwinkel in dem vorbestimmten Bereich liegt, das Pixel dem binären Wert 1 zugeordnet wird, und wenn der Farbwinkel außerhalb des Bereichs liegt, das Pixel dem binären Wert 0 zugeordnet wird.In parallel, each pixel is evaluated based on the HSV color model with regard to the color angle (hue) based on a predetermined range, and if the color angle is in the predetermined range, the pixel is the binary value 1 is assigned, and if the color angle is out of range, the pixel will be the binary value 0 is assigned.

In einem nächsten Schritt 126 wird aus den binären Informationen des Farbwinkels und der Farbsättigung ein Zwischenbild erzeugt, welches erheblich weniger Daten als das von der Kamera erzeugte Bild 108 enthält.In a next step 126 an intermediate image is generated from the binary information of the color angle and the color saturation, which has considerably less data than the image generated by the camera 108 contains.

Aus der Segmentierung aus 8 ergibt sich die im Folgenden angegebene Formel, die auf jeden Pixel angewendet werden muss. Das segmentierte Bild S(x,y) wird über die Aufteilung des RGB Bildes ψ(x,y) in seine drei Bestandteile Rot, Grün und Blau aufgeteilt. Ein Pixel des segmentierten Bildes wird dann auf 1 gesetzt wenn der minimale Wert von Rot, Grün oder Blau eines Pixels durch den Grünen Pixel geteilt kleiner oder gleich ist wie ein Schwellenwert (THs). Wobei der Schwellenwert in den 8 Bit Raum des Bildes über die Skalierung mittels 255 erfolgt. Sollte der Schwellenwert nicht erreicht werden, wird wie in Gleichung 1 der Pixel des segmentierten Bildes auf 0 gesetzt.

Figure DE102018120756A1_0001
From the segmentation 8th the following formula results, which must be applied to each pixel. The segmented image S (x, y) is about the division of the RGB image ψ (x, y) divided into its three components red, green and blue. A pixel of the segmented image is then set to 1 if the minimum value of red, green or blue of a pixel divided by the green pixel is less than or equal to a threshold value (THs). The threshold in the 8th Bit space of the image is done via scaling using 255. If the threshold is not reached, as in Equation 1 of the pixels of the segmented image 0 set.
Figure DE102018120756A1_0001

Damit ergibt sich die erste Optimierung: Bevor das gesamte Bild 108 in zwei Millionen Bilder zerlegt wird, wird die Segmentierung, gemäß 8, angewendet. Das heißt das gesamte Bild 108 wird durchlaufen und mittels der oben angegebenen Formel entschieden, ob es sich um ein Pflanzenpixel handelt oder nicht. Zum einen wird das Bild 108 segmentiert, das heißt der Hintergrund 118 wird auf Schwarz (0) gesetzt, wie dies in 9 dargestellt ist. Zum anderen wird, sofern es sich um ein Pflanzenpixel handelt, dessen Koordinaten in eine Liste geschrieben. Anschließend werden nur noch die Koordinaten in das CNN gegeben, die auch in dieser Liste stehen. Die unnötigen Pixel der Erde, also des Hintergrundes 118, entfallen. Damit wird das CNN in etwa 20-mal weniger aufgerufen.This results in the first optimization: Before the entire picture 108 is broken down into two million images, the segmentation, according to 8th , applied. That means the whole picture 108 is run through and it is decided using the formula given above whether it is a plant pixel or not. Firstly, the picture 108 segmented, that is the background 118 will be on black ( 0 ) set like this in 9 is shown. On the other hand, if it is a plant pixel, its coordinates are written in a list. Then only the coordinates in the CNN given that are also in this list. The unnecessary pixels of the earth, i.e. the background 118 , omitted. So that will be CNN in approximately 20 - called less times.

Durch die Segmentierung wird der Hintergrund 118 auf den Wert 0 gesetzt. Auch die Bildelemente die das CNN betrachtet, besitzen nun segmentierte Bilder. Normalerweise würde auf eine Convolution-Schicht die Feature-Berechnung auf jeden Pixel des Bildelementes angewendet werden. Damit ergeben sich jedoch drei Fälle 128, 130, 132 für die Berechnung die in 10 dargestellt sind, jeweils für einen Feature 134 der Größe 5x5.By segmenting the background 118 on the value 0 set. Even the picture elements that CNN viewed, now have segmented images. The feature calculation would normally be applied to every pixel of the picture element on a convolution layer. However, there are three cases 128 . 130 . 132 for the calculation the in 10 are shown, each for a feature 134 size 5x5.

Der Rote Fall 128 zeigt eine Feature-Berechnung, in dem das Feature komplett auf dem Hintergrund 118 liegt. Hier wird jedes Element mit 0 multipliziert, das hat zur Folge, dass die gesamte Berechnung 0 ergibt, beziehungsweise den Biaswert. Das Ergebnis dieser Berechnung ist daher schon vor der Rechnung bekannt. Selbst wenn der Hintergrund 118 nicht Null wäre, also Erde aufweisen würde, würde diese Berechnung keine Information über die Pflanze 110 beinhalten, daher kann das Ergebnis einfach eine konstanter fiktiver Wert sein.The red case 128 shows a feature calculation in which the feature is completely on the background 118 lies. Here each element is multiplied by 0, which means that the entire calculation 0 results, or the bias value. The result of this calculation is therefore known before the calculation. Even if the background 118 would not be zero, i.e. would have soil, this calculation would not contain any information about the plant 110 include, so the result can simply be a constant fictitious value.

Im Gelben Fall 130 liegt der mittlere Feature-Wert nicht auf einer Pflanze 110. Das heißt, dass ein Teil ebenfalls eine Multiplikation mit Null ist. Dieser Fall verzehrt die Pflanze 110 im Randbereich und macht diese Größe in der Feature-Map.In the yellow case 130 the average feature value is not on a plant 110 , This means that a part is also a multiplication by zero. This case consumes the plant 110 in the border area and makes this size in the feature map.

Im Blauen Fall 132 liegt mindestens der mittlere Pixel des Features auf einer Pflanze.In the blue case 132 at least the middle pixel of the feature lies on a plant.

Nach Betrachtung dieser drei Fälle 128, 130, 132 müssen nur der Gelbe und Blaue Fall 130 und 132 berechnet werden. Also die Fälle 130, 132 in denen das Feature mindestens einen Eingangswert ungleich Null hat. Von allen anderen Feature-Berechnungen sind Ergebnisse vor der Berechnung bekannt, sie sind Null beziehungsweise weisen lediglich den Bias Wert auf. Die Koordinaten in denen der Blaue Fall 132 auftritt, sind bekannt. Das sind die Koordinaten die bei der Segmentierung gespeichert werden. Der Gelbe Fall 130 benötigt wiederum eine Berechnung, ob diese eingetreten ist. After considering these three cases 128 . 130 . 132 just have the yellow and blue case 130 and 132 be calculated. So the cases 130 . 132 in which the feature has at least one non-zero input value. Results from all other feature calculations are known before the calculation, they are zero or only have the bias value. The coordinates in which the blue case 132 occurs are known. These are the coordinates that are saved during segmentation. The yellow case 130 again requires a calculation as to whether this has occurred.

Dies verlangt eine Überprüfung jedes in der Segmentierung gefundenen Pflanzenpixels. Da diese Kontrolle ein zu großer Aufwand ist und der Gelbe Fall 130 nur im Randbereich einer Pflanze 110 auftritt, soll dieser Fall ignoriert werden.This requires a check of each plant pixel found in the segmentation. Because this control is too much effort and the yellow case 130 only in the edge area of a plant 110 this case should be ignored.

Daher kann die Berechnung dahingehend optimiert werden, dass die Feature-Berechnung und alle anderen Elemente des CNNs nur auf die gefundenen Pflanzenpixel angewendet werden sollen.Therefore, the calculation can be optimized so that the feature calculation and all other elements of the CNN should only be applied to the plant pixels found.

In 11 ist schematisch dargestellt, wie sich zwei benachbarte Pflanzenpixel 136, 138 unterscheiden. Links ein Pflanzenpixel 136 und rechts der Nachbar-Pflanzenpixel 138. Der Blaue/Purpur Bereich 140, 142 könnten verschiedene Pflanzen sein, die klassifiziert werden müssen. Der Rote/Purpur Bereich 144, 142 stellt das Bildelement da, das das CNN betrachtet, um den orangenen Pixel 146 zu klassifizieren.In 11 is shown schematically how two neighboring plant pixels 136 . 138 differ. A plant pixel on the left 136 and to the right of the neighboring plant pixel 138 , The blue / purple area 140 . 142 could be different plants that need to be classified. The red / purple area 144 . 142 represents the picture element that the CNN viewed to the orange pixel 146 to classify.

Bei genauer Betrachtung kann festgestellt werden, dass der betrachtete Bereich (Rot/Purpur) 144, 142 sich stark überlappt. Das bedeutet wiederum dass in beiden Bildelementen 136, 138 größtenteils dieselben Werte stehen. Wenn nun das CNN das Feature in der Convolution-Schicht berechnet, würde auch aus der Feature-Berechnung dieselben Werte errechnet werden.On closer inspection, it can be seen that the area under consideration (red / purple) 144 . 142 overlaps strongly. This in turn means that in both picture elements 136 . 138 mostly the same values. If so CNN If the feature was calculated in the convolution layer, the same values would also be calculated from the feature calculation.

In 12 ist schematisch ein Feature 148 mit der Größe von 5 x 5 Pixel in Grün skizziert. Dieses Feature 148 steht an denselben Koordinaten innerhalb des gesamten Bildes, jedoch ist es verschoben innerhalb des vom CNN zu betrachtenden Bildelementes (Rot/Purpur) 144, 142. Da die Örtlichkeit jedoch im gesamten Bild dieselbe ist würde die Berechnung für den mittleren schwarzen Kasten 150 denselben Wert sowohl im linken Bild 136 als auch im rechten Bild 138 ergeben. Diese Erkenntnis lässt sich auf alle Elemente eines CNN anwenden. Dadurch kann, sofern der Randbereich ignoriert wird, die einzelne Feature-Berechnung zuerst auf das gesamte Bild angewendet werden. Theoretisch spielt die Zerlegung des Eingangsbildes 108 erst mit dem Dense-Layer 116 eine entscheidende Rolle. Das Dense-Layer 116 kann jedoch genauso wie eine Convolution 112 berechnet werden. Die Featuregröße ergibt sich dabei aus dem Zusammenspiel von Eingangsbildgröße und den vorhandenen Pooling Layern im Netzwerk. Damit lässt sich die Klassifikation weiter optimieren, es werden nun die CNN Elemente lediglich auf die gefundenen Pflanzenpixel angewendet. Die Feature-Map, die aus der letzten Convolution errechnet wird, stellt das Klassifikationsergebnis dar, wie dies in 13 dargestellt ist. Hier sind in Grün alle Karottenpflanzen 152 und in Rot das gesamte Unkraut 154 Pixelweise klassifiziert. In 12 is schematically a feature 148 sketched in green with the size of 5 x 5 pixels. This feature 148 stands at the same coordinates within the whole picture, but it is shifted within the from CNN image element to be considered (red / purple) 144 . 142 , However, since the location is the same in the whole picture, the calculation for the middle black box would be 150 same value in both the left picture 136 as well in the right picture 138 result. This knowledge can be applied to all elements of one CNN apply. As a result, if the border area is ignored, the individual feature calculation can first be applied to the entire image. Theoretically, the decomposition of the input image plays 108 only with the dense layer 116 a crucial role. The dense layer 116 can be just like a convolution 112 be calculated. The feature size results from the interaction of the input image size and the existing pooling layers in the network. This allows the classification to be further optimized; CNN Elements only on the found plant pixels applied. The feature map, which is calculated from the last convolution, shows the classification result, as shown in 13 is shown. Here are all carrot plants in green 152 and all the weeds in red 154 Classified pixel by pixel.

Durch diese Optimierungen erfolgen jedoch auch Veränderungen am Ergebnis der Klassifikation. Den größten Einfluss haben hierbei die Pooling Schichten. Bei jedem Pooling wird Information aus dem Netzwerk entfernt. Durch das nicht mehr vorhandene einzelne Betrachten der Bildelemente verliert das Pooling jedoch einen örtlichen Bezug. Die 14 veranschaulicht das Problem.However, these optimizations also result in changes to the result of the classification. The pooling layers have the greatest influence here. With each pooling, information is removed from the network. However, due to the fact that the picture elements no longer exist individually, pooling loses a local reference. The 14 illustrates the problem.

In der 14 ist jeweils ein Bildelement 156 als roter Rahmen 158 dargestellt. Vor der Optimierung, würde jedes Bildelement einzeln durch das CNN laufen um seinen mittleren Pixel zu klassifizieren. Das rechte Bildelement 160 ist um ein Pixel weiter nach rechts verschoben. Die vier Farben: Purpur, Blau, Gelb und Grün zeigen die einzelnen Anwendungen des Poolings an. Wie zu sehen ist, können sie verschiedene Ergebnisse ergeben, da das Pooling immer am Rand beginnt und um ein Pooling Element (hier zwei Felder) weiter wandert. Dadurch ergeben sich aus zwei benachbarten Bildelementen 156, 160 zwei verschiedene Pooling Elemente. Das hat zur Folge, wenn dies in der Optimierung berücksichtigt werden soll, würden sich mit jedem Pooling zwei neue Zweige für die weitere Berechnung ergeben. Da das Pooling einmal auf das gesamte Bild angewendet werden müsste mit Startpunkt oben links und ein weiteres Pooling mit den Startpunkt oben links plus ein Pixel. In der weiteren Berechnung müssten dann beide Pooling Ergebnisse separat weiterverarbeitet werden. Bei einem weiteren zweiten Pooling würden sich wieder zwei neue Pfade ergeben, so dass vier separate Ergebnisse berechnet werden müssten. Das Ergebnis setzt sich anschließend aus den vier Ergebnissen Pixelweise rotierend durch die Ergebnisse zusammen. Wird nur ein Pfad nach dem Pooling betrachtet, wäre das Ausgangsbild nach zweimaligem Pooling kleiner. Die Länge und Breite des Ausgangsbildes wäre dann jeweils nur ¼ so groß wie das Eingangsbild. Bei der Betrachtung aller Pfade würde etwa die Eingangsbildgröße herauskommen.In the 14 is a picture element 156 as a red frame 158 shown. Before the optimization, each picture element would be separated by the CNN run to classify its middle pixel. The right picture element 160 is shifted one pixel to the right. The four colors: purple, blue, yellow and green indicate the individual applications of pooling. As can be seen, they can produce different results, since pooling always starts at the edge and continues around a pooling element (here two fields). This results in two neighboring picture elements 156 . 160 two different pooling elements. As a result, if this is to be taken into account in the optimization, two new branches would result for the further calculation with each pooling. Since pooling would have to be applied to the entire image once with the starting point at the top left and another pooling with the starting point at the top left plus one pixel. In the further calculation, both pooling results would then have to be processed separately. A further second pooling would result in two new paths, so that four separate results would have to be calculated. The result is then composed of the four results rotating pixel by pixel through the results. If only one path is considered after pooling, the initial image would be smaller after pooling twice. The length and width of the output image would then only be ¼ as large as the input image. When considering all paths, the input image size would come out.

Ein weiterer Unterschied stellen die fehlenden Randbereiche der Pflanzen dar. Da die Features nicht auf alle Elemente angewendet werden indem sie irgendeine Überlappung mit der Pflanze besitzen, existieren hier Berechnungsunterschiede. Auch dies kann das Klassifikationsergebnis verändern zu der herkömmlichen Berechnung.Another difference is the missing border areas of the plants. Since the features are not applied to all elements by having any overlap with the plant, there are calculation differences here. This can also change the classification result compared to the conventional calculation.

Die fehlende Berechnung der Feature-Werte außerhalb der Pflanze können dahingehend andere Werte hervorrufen, da das Ergebnis mit Null ausgewiesen wird, was allerdings in Wirklichkeit der Biaswert ist.The lack of calculation of the feature values outside the plant can lead to other values, since the result is shown with zero, which is actually the bias value.

Zwar beeinflussen diese drei Faktoren die Ergebnisse, jedoch zeigt sich dass das CNN sehr robust ist und damit die Ergebnisse immer noch einen sehr hohen Genauigkeitswert erfüllen.Although these three factors influence the results, it shows that that CNN is very robust and therefore the results still meet a very high accuracy value.

Der nächste Schritt wäre, das Netzwerk direkt mit diesen Modifikationen zu trainieren, damit das Netzwerk sich noch besser auf seine neue Berechnung einstellen kann und somit etwaige Fehler direkt in der Berechnung kompensiert.The next step would be to train the network directly with these modifications so that the network can adjust itself even better to its new calculation and thus compensate for any errors in the calculation directly.

Die Segmentierung- und Datenreduktionseinrichtung versieht die Pixel betreffend das Unkraut 154 mit Lagekoordinaten.The segmentation and data reduction device provides the weed pixels 154 with position coordinates.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

1010
Trägersystemcarrier system
1212
Flugdrohnedrone
12a12a
Aufnahme, Aufnahmeraum der Flugdrohne 12 Recording, recording room of the flight drone 12
12b12b
Steuereinrichtung der FlugdrohneControl device of the flight drone
1414
mobile Vorrichtungmobile device
14a14a
erste Einheitfirst unit
14b14b
zweite Einheitsecond unit
14c14c
Aufnahme für Greifarm an der mobilen Vorrichtung 14 Holder for gripper arm on the mobile device 14
1616
Antriebdrive
1818
Elektromotorelectric motor
2020
Propellerpropeller
2222
Füßefeet
2424
Batteriebattery
26a26a
Spannungsschnittstelle an der Flugdrohne 12 Voltage interface on the drone 12
26b26b
Spannungsschnittstelle an der mobilen Vorrichtung 14 Voltage interface on the mobile device 14
2828
Steckverbindungconnector
3030
Kommunikationseinheitcommunication unit
3232
Antenneantenna
3434
GPS EinheitGPS unit
36a36a
Schnittstelle an der Flugdrohne 12 Interface on the flight drone 12
36b36b
Schnittstelle an der mobilen Vorrichtung 14 Interface on the mobile device 14
3838
Steckverbindungconnector
4040
erstes Gehäuse der ersten Einheit 14a first housing of the first unit 14a
42 42
zweites Gehäuse der zweiten Einheit 14b second housing of the second unit 14b
4444
Steckverbindungconnector
4646
erster Rechnerfirst computer
4848
Arm als AktorArm as an actuator
5050
Motorengine
5252
Werkzeugeinheittool unit
5454
Vorschubeinheitfeed unit
5656
Rotationseinheitrotation unit
5858
Fräsemilling machine
6060
erste Kommunikationseinheit der ersten Einheit 14a first communication unit of the first unit 14a
6262
visuelle Detektionseinheitvisual detection unit
6464
Kameracamera
6666
Segmentierung- und DatenreduktioneinrichtungSegmentation and data reduction facility
6868
Klassifikatorclassifier
70a70a
Schnittstelle der ersten Einheit 14a Interface of the first unit 14a
70b70b
Schnittstelle der zweiten Einheit 14b Interface of the second unit 14b
7272
Kommunikationsverbindungcommunication link
7474
zweite Kommunikationseinheit der zweiten Einheit 14b second communication unit of the second unit 14b
7676
zweiter Rechnersecond computer
7878
DatenbankDatabase
8080
Steckverbindungconnector
82a82a
Greifarm, linksGripper arm, left
82b82b
Greifarm, rechtsGripper arm, right
8484
erster Schritt: Ermitteln der notwendigen Maßnahmenfirst step: identify the necessary measures
8686
zweiter Schritt: Aussuchen der mobilen Vorrichtung 14 aus der zur Verfügung stehenden mobilen Vorrichtungen 14 second step: selecting the mobile device 14 from the available mobile devices 14
8888
dritter Schritt: Verbinden der Vorrichtung mit der Flugdrohne 12 third step: connecting the device to the flight drone 12
9090
vierter Schritt: Durchführen der ermittelten Maßnahmenfourth step: implementation of the identified measures
9292
fünfter Schritt: austauschen der mobilen Vorrichtung 14 gegen eine andere mobile Vorrichtung 14 und Durchführung einer weiteren Maßnahmefifth step: replace the mobile device 14 against another mobile device 14 and take another action
9494
erster Schritt: kontinuierliche Aufnahmefirst step: continuous recording
9696
zweiter Schritt: Übermittlung der Datensecond step: transmission of the data
9898
dritter Schritt: Speicherung der Datenthird step: storage of the data
100100
vierter Schritt: Datenabgleichfourth step: data comparison
102102
fünfter Schritt: Bewertung durch den Klassifikator 68 fifth step: evaluation by the classifier 68
104104
sechster Schritt: Umsetzung in Regelung-und steuerungstechnische Datensixth step: implementation in regulation and control engineering data
106106
siebter Schritt: Anfahren der Aggregateseventh step: starting the units
108108
Beispielsbild, EingangsbildExample picture, input picture
110110
Pflanzeplant
112112
Convolutionconvolution
114114
Poolingpooling
116116
Zusammenfassung in einer Dense-SchichtSummary in a dense layer
118118
Hintergrundbackground
120120
erster Schritt: Überführen in ein RGB-Farbmodellfirst step: convert to an RGB color model
122122
zweiter Schritt: Transferieren in ein HSV-Farbmodellsecond step: transfer to an HSV color model
124124
dritter Schritt: Bewertung des HSV-Bildesthird step: evaluation of the HSV image
126126
vierter Schritt: Erzeugen eines Zwischenbildesfourth step: generation of an intermediate image
128128
erster Fall, rotfirst case, red
130130
zweiter Fall, gelbsecond case, yellow
132132
dritter Fall, blauthird case, blue
134134
Featurefeature
136136
Pflanzenpixel, linksPlant pixels, left
138138
Pflanzenpixel, rechtsPlant pixel, right
140140
blauer Bereichblue area
142142
purpurner Bereichpurple area
144144
roter Bereichred area
146146
oranger Bereichorange area
148148
Feature, grünFeature, green
150150
mittlerer schwarzer Kastenmedium black box
152152
Karottenpflanzecarrot plant
154154
Unkraut, BeikrautWeeds, weeds
156156
Bildelement, linksImage element, left
158158
roter Rahmenred frame
160160
Bildelement, rechtsImage element, right

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • DE 4039797 A1 [0004]DE 4039797 A1 [0004]
  • DE 102015209879 A1 [0005]DE 102015209879 A1 [0005]
  • DE 102015209891 A1 [0006]DE 102015209891 A1 [0006]
  • DE 102005050302 A1 [0009]DE 102005050302 A1 [0009]
  • DE 102006009753 B3 [0010]DE 102006009753 B3 [0010]

Claims (23)

Mobile Analyse- und Bearbeitungsvorrichtung (14) für die Landwirtschaft zur Bearbeitung des Bodens und/oder zur Manipulation von Flora und Fauna, mit einer visuellen Detektionseinheit (62), welche umfasst: eine Kamera (64), mit der Bilder erfasst werden, eine Segmentierungs- und Datenreduzierungseinrichtung (66), a. mit der jeweils ein von der Kamera (64) erfasstes Bild aus mehreren Pixeln in einem RGB-(Red, Green, Blue)-Farbmodell erzeugt wird; b. jedes Pixel basierend auf dem RGB-Farbmodell in ein HSV (hue, saturation, value)-Farbmodell überführt wird; c. jedes Pixel basierend auf dem HSV-Farbmodell im Hinblick auf die Farbsättigung (saturation) anhand eines Schwellenwertes bewertet wird, wobei, wenn der Wert der Farbsättigung einen Schwellenwert übersteigt, das Pixel dem binären Wert „1“ zugeordnet wird, und, wenn der Wert der Farbsättigung einen Schwellenwert unterschreitet, das Pixel dem binären Wert „0“ zugeordnet wird; d. parallel jedes Pixel basierend auf dem HSV-Farbmodell im Hinblick auf den Farbwinkel (hue) anhand eines vorbestimmten Bereiches bewertet wird, wobei, wenn der Farbwinkel in dem vorbestimmten Bereich liegt, das Pixel dem binären Wert „1“ zugeordnet wird, und, wenn der Farbwinkel außerhalb des Bereichs liegt, das Pixel dem binären Wert „0“ zugeordnet wird; e. aus den binären Informationen des Farbwinkels und der Farbsättigung der einzelnen Pixel ein erstes Zwischenbild entsteht, welches erheblich weniger Daten als das von der Kamera erzeugte Bild enthält; f. Erzeugen von Pixelfeldern aus den Pixeln des Zwischenbildes; einen Klassifikator (68), der auf Basis des von der Segmentierungs- und Datenreduzierungseinrichtung (66) erzeugten Zwischenbildes die Klassifikation mehrerer aus Pixeln bestehender Pixelfelder übernimmt, wobei nur Pixelfelder klassifiziert werden, welche zumindest ein Pixel aufweisen, das dem binären Wert „1“ zugeordnet ist.Mobile analysis and processing device (14) for agriculture for cultivating the soil and / or for manipulating flora and fauna, with a visual detection unit (62), which comprises: a camera (64) with which images are captured, a segmentation and data reduction device (66), a. with which an image recorded by the camera (64) is generated from a plurality of pixels in an RGB (Red, Green, Blue) color model; b. each pixel is converted to an HSV (hue, saturation, value) color model based on the RGB color model; c. each pixel is rated based on the HSV color model for saturation based on a threshold, where if the value of color saturation exceeds a threshold, the pixel is assigned the binary value "1" and if the value of Color saturation falls below a threshold value, which is assigned to the binary value "0"; d. each pixel is evaluated in parallel based on the HSV color model with regard to the color angle (hue) using a predetermined range, the pixel being assigned the binary value “1” if the color angle is in the predetermined range, and if the Color angle is outside the range, the pixel is assigned the binary value "0"; e. from the binary information of the color angle and the color saturation of the individual pixels, a first intermediate image is created which contains considerably less data than the image generated by the camera; f. Generating pixel fields from the pixels of the intermediate image; a classifier (68) which, on the basis of the intermediate image generated by the segmentation and data reduction device (66), takes over the classification of a plurality of pixel fields consisting of pixels, only pixel fields which have at least one pixel assigned to the binary value “1” being classified is. Analyse- und Bearbeitungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Segmentierungs- und Datenreduzierungseinrichtung (66) ein Pixelfeld durch eine Quadratzahl von Pixeln bildet, insbesondere dabei 100, 81, 77, 36, 25, 16, 9 oder 4 Pixel aufweist.Analysis and processing device after Claim 1 , characterized in that the segmentation and data reduction device (66) forms a pixel field by a square number of pixels, in particular has 100, 81, 77, 36, 25, 16, 9 or 4 pixels. Analyse- und Bearbeitungsvorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Pixelfeld quadratisch ist.Analysis and processing device after Claim 1 or 2 , characterized in that the pixel field is square. Analyse- und Bearbeitungsvorrichtung nach einem der vorangehenden Ansprüche, gekennzeichnet durch eine Werkzeugeinheit (52) mit zumindest einem motorisch angetriebenen Werkzeug (58), einen Aktor (48) zum Verfahren zumindest des Werkzeugs (58) der Werkzeugeinheit (52), einen Motor (50) zum Antreiben der Werkzeugeinheit (52) und/oder des Aktors (48), eine Datenbank (78), eine erste Kommunikationseinheit (60, 74) mit Schnittstelle (70a, 70b; 36a, 36b) und einen ersten Rechner (46, 76) zum Steuern des Motors (50), der visuellen Detektionseinheit (62), der Werkzeugeinheit (52) und/oder des Aktors (48) aufgrund generierter Steuerbefehle, wobei die über die visuelle Detektionseinheit (62) erfassten Daten mit den in der Datenbank (78) hinterlegten Daten fortlaufend abgeglichen werden, um entsprechende Steuersignale für den Motor (50), die visuelle Detektionseinheit (62), die Werkzeugeinheit (52) den Aktor (48) und/oder einen zugeordneten Träger (12) zu generieren.Analysis and processing device according to one of the preceding claims, characterized by a tool unit (52) with at least one motor-driven tool (58), an actuator (48) for moving at least the tool (58) of the tool unit (52), a motor (50 ) for driving the tool unit (52) and / or the actuator (48), a database (78), a first communication unit (60, 74) with interface (70a, 70b; 36a, 36b) and a first computer (46, 76 ) for controlling the motor (50), the visual detection unit (62), the tool unit (52) and / or the actuator (48) on the basis of generated control commands, the data recorded via the visual detection unit (62) with the data in the database ( 78) stored data are continuously compared in order to generate corresponding control signals for the motor (50), the visual detection unit (62), the tool unit (52), the actuator (48) and / or an assigned carrier (12). Analyse- und Bearbeitungsvorrichtung nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass Mittel (12a, 38, 72, 82a, 82b) zum bedarfsweise Verbinden mit einem Träger (12) vorgesehen sind, welcher die Vorrichtung (14) bewegt.Analysis and processing device according to one of the preceding claims, characterized in that means (12a, 38, 72, 82a, 82b) are provided for connecting, if required, to a carrier (12) which moves the device (14). Analyse- und Bearbeitungsvorrichtung nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Werkzeugeinheit (52) mindestens eine Vorschubeinheit (54) und eine Rotationseinheit (56) aufweist, welche mit dem Motor (50) zusammenwirkt.Analysis and processing device according to one of the preceding claims, characterized in that the tool unit (52) has at least one feed unit (54) and one rotation unit (56) which interacts with the motor (50). Analyse- und Bearbeitungsvorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die Rotationseinheit (56) an einem distalen Ende zumindest das Werkzeug (58) aufweist, insbesondere eine Fräse oder eine Messereinheit.Analysis and processing device after Claim 6 , characterized in that the rotation unit (56) has at least the tool (58) at a distal end, in particular a milling cutter or a knife unit. Verfahren zum Betreiben der Analyse- und Bearbeitungsvorrichtung nach einem der vorangehenden Ansprüche, gekennzeichnet durch folgende Schritte: a. zeitlich kontinuierliche Aufnahme von datentechnisch definierter Voxel und/oder Pixel und/oder Bildern durch die visuelle Detektionseinheit (62); b. Übermittlung der Aufnahmedaten an die Datenbank (78); c. Speicherung der (Aufnahmedaten in der Datenbank (78); d. qualitativer Datenabgleich der Aufnahmedaten mit den in der Datenbank (78) hinterlegten Aufnahmedaten, vorzugsweise mit Durchführung einer Segmentierung, einer Datenreduktion, einer und/oder Verifikation der Aufnahmedaten Bilder durch den Rechner (46, 76); e. Bewertung der abgeglichenen Aufnahmedaten mit bestehenden definierten Aufnahmedaten und Datensätzen in der Datenbank (78) durch einen Klassifikator (68) in Verbindung mit dem Rechner (46, 76); f. Verarbeitung und Umsetzung der Bewertung durch den Rechner (46, 76) in regelungs- und/oder steuerungstechnische Daten für den Motor (50), den Aktor (48), die Werkzeugeinheit (52) und/oder einem zugeordneten Träger (12).Method for operating the analysis and processing device according to one of the preceding claims, characterized by the following steps: a. continuous recording of data-technically defined voxels and / or pixels and / or images by the visual detection unit (62); b. Transmission of the recording data to the database (78); c. Storage of the (recording data in the database (78); d. Qualitative data comparison of the recording data with the recording data stored in the database (78), preferably by performing a segmentation, data reduction, and / or verification of the recording data images by the computer (46 , 76); e. Evaluation of the matched recording data with existing defined recording data and data records in the database (78) by a classifier (68) in connection with the computer (46, 76); f. Processing and implementation of the evaluation by the computer ( 46, 76) in regulation and / or Control data for the motor (50), the actuator (48), the tool unit (52) and / or an associated carrier (12). Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass nach Vorliegen der regelungs- und/oder steuerungstechnischen Daten ein Anfahren des Motors (50), des Aktors (48), der Werkzeugeinheit (52) und/oder des zugeordneten Trägers (12) zur Bearbeitung des Bodens und/oder der Manipulation von Flora und Fauna erfolgt.Procedure according to Claim 8 , characterized in that after the regulation and / or control-related data are available, the motor (50), the actuator (48), the tool unit (52) and / or the associated carrier (12) are started up for working the soil and / or manipulation of flora and fauna occurs. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass beim Datenabgleich die Aufnahmedaten an die Segmentierungs- und Datenreduzierungseinrichtung (66) übermittelt werden, welche Zwischenbilder erzeugt.Procedure according to Claim 8 or 9 , characterized in that during the data comparison, the recording data are transmitted to the segmentation and data reduction device (66) which generates intermediate images. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass nach dem Erzeugen der Zwischenbilder diese an den Klassifikator (68) übermittelt werden, welcher die erzeugten Zwischenbilder anhand bestehender definierter Bilder und Datensätze in der Datenbank (78) im Zusammenwirken mit dem Rechner (46, 76) bewertet.Procedure according to Claim 10 , characterized in that after the intermediate images have been generated, they are transmitted to the classifier (68), which evaluates the generated intermediate images on the basis of existing defined images and data records in the database (78) in cooperation with the computer (46, 76). Verfahren nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass in der Segmentierungs- und Datenreduzierungseinrichtung (66) zur Erzeugung der Zwischenbilder nacheinander folgende Schritte durchgeführt werden: a. Jedes übermittelte Bild aus mehreren Pixeln wird in das RGB-(Red, Green, Blue)-Farbmodell überführt; b. jedes Pixel des übermittelten Bildes basierend auf dem RGB-Farbmodell wird in ein HSV (hue, saturation, value)-Farbmodell transferiert; c. jedes Pixel basierend auf dem HSV-Farbmodell wird im Hinblick auf die Farbsättigung (saturation) anhand eines Schwellenwertes bewertet, wobei, wenn der Wert der Farbsättigung einen Schwellenwert übersteigt, das Pixel dem binären Wert „1“ zugeordnet wird, und, wenn der Wert der Farbsättigung einen Schwellenwert unterschreitet, das Pixel dem binären Wert „0“ zugeordnet wird; d. vorzugsweise parallel mit dem eben genannten Schritt wird jedes Pixel basierend auf dem HSV-Farbmodell im Hinblick auf den Farbwinkel (hue) anhand eines vorbestimmten Bereiches bewertet, wobei, wenn der Farbwinkel in dem vorbestimmten Bereich liegt, das Pixel dem binären Wert „1“ zugeordnet wird, und, wenn der Farbwinkel außerhalb des Bereichs liegt. das Pixel dem binären Wert „0“ zugeordnet wird; e. aus den binären Informationen des Farbwinkels und der Farbsättigung entsteht das erste Zwischenbild, welches erheblich weniger Daten als das von der Kamera (64) erzeugte Bild enthält.Procedure according to Claim 10 or 11 , characterized in that the following steps are carried out in succession in the segmentation and data reduction device (66) for generating the intermediate images: a. Each transmitted image from several pixels is converted into the RGB (Red, Green, Blue) color model; b. each pixel of the transmitted image based on the RGB color model is transferred to an HSV (hue, saturation, value) color model; c. each pixel based on the HSV color model is rated for saturation based on a threshold, where if the value of color saturation exceeds a threshold, the pixel is assigned the binary value "1" and if the value of Color saturation falls below a threshold value, which is assigned to the binary value “0”; d. preferably in parallel with the step just mentioned, each pixel is evaluated based on the HSV color model with regard to the color angle (hue) using a predetermined range, the pixel being assigned the binary value “1” if the color angle is in the predetermined range and if the color angle is out of range. the pixel is assigned the binary value "0"; e. From the binary information of the color angle and the color saturation, the first intermediate image is created, which contains considerably less data than the image generated by the camera (64). Verfahren nach einem der Ansprüche 8 bis 12, dadurch gekennzeichnet, dass in der Segmentierungs- und Datenreduzierungseinrichtung (66) Pixelfelder aus den Pixeln des Zwischenbildes erzeugt werden.Procedure according to one of the Claims 8 to 12 , characterized in that in the segmentation and data reduction device (66), pixel fields are generated from the pixels of the intermediate image. Verfahren nach einem der Ansprüche 8 bis 13, dadurch gekennzeichnet, dass die Segmentierungs- und Datenreduktionseinrichtung (66) die Pixel mit Lagekoordinaten versieht.Procedure according to one of the Claims 8 to 13 , characterized in that the segmentation and data reduction device (66) provides the pixels with position coordinates. Verfahren nach einem der Ansprüche 8 bis 14, dadurch gekennzeichnet, dass der Klassifikator (68) mit Hilfe eines künstlichen neuronalen Netzes die Klassifikation vornimmt.Procedure according to one of the Claims 8 to 14 , characterized in that the classifier (68) uses an artificial neural network to carry out the classification. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass das künstliche neuronale Netz durch ein Convolutional Neural Network (CNN) gebildet ist.Procedure according to Claim 15 , characterized in that the artificial neural network is formed by a convolutional neural network (CNN). Trägersystem (10) mit einem Träger (12) und einer mobilen Vorrichtung (14) zur Bearbeitung des Bodens und/oder zur Manipulation der Flora und Fauna nach einem der Ansprüche 1 bis 7, insbesondere zur Durchführung des Verfahrens nach einem der Ansprüche 8 bis 16, wobei der Träger (12) einen Antrieb (16) zum Bewegen des Trägersystems (10), eine Steuereinrichtung (12b), eine Energiequelle (24), welche mit dem Antrieb (16) zusammenwirkt und die notwendige Spannung für den Betrieb zur Verfügung stellt, eine Aufnahme (12a) zum Aufnehmen und Verbinden mit der mobilen Vorrichtung (14), eine Kommunikationseinheit (30), eine erste mit der Kommunikationseinheit (30) zusammenwirkende Kommunikationsschnittstelle (36a) zum Datenaustausch mit der mobilen Vorrichtung (14), welche eine zugeordnete Schnittstelle (36b) aufweist, sowie eine zweite mit der Kommunikationseinheit (30) zusammenwirkende Kommunikationsschnittstelle (32) aufweist, welche zumindest Steuerungsdaten empfängt und an die Steuerungseinrichtung (12b) zum vorbestimmten Bewegen des Trägers (12) weitergibt.Carrier system (10) with a carrier (12) and a mobile device (14) for working the soil and / or for manipulating the flora and fauna according to one of the Claims 1 to 7 , in particular to carry out the method according to one of the Claims 8 to 16 , wherein the carrier (12) a drive (16) for moving the carrier system (10), a control device (12b), an energy source (24) which interacts with the drive (16) and provides the necessary voltage for operation , a receptacle (12a) for receiving and connecting to the mobile device (14), a communication unit (30), a first communication interface (36a) interacting with the communication unit (30) for data exchange with the mobile device (14), which has an associated Interface (36b), and has a second communication interface (32) interacting with the communication unit (30), which receives at least control data and forwards it to the control device (12b) for predetermined movement of the carrier (12). Trägersystem nach Anspruch 17, dadurch gekennzeichnet, dass der Träger (12) als unbemanntes Luftfahrzeug (Flugdrohne), unbemanntes Landfahrzeug, unbemanntes Wasserfahrzeug, oder unbemanntes Unterwasserfahrzeug ausgebildet ist.Carrier system after Claim 17 , characterized in that the carrier (12) is designed as an unmanned aerial vehicle (drone), unmanned land vehicle, unmanned watercraft, or unmanned underwater vehicle. Trägersystem nach Anspruch 17 oder 18, dadurch gekennzeichnet, dass die zweite Kommunikationsschnittstelle eine Antenne (32) zum Datenaustausch mit einem zentralen, vorzugsweise ortsfesten, von dem Träger (12) separaten Rechner ist.Carrier system after Claim 17 or 18 , characterized in that the second communication interface is an antenna (32) for data exchange with a central, preferably fixed, computer separate from the carrier (12). Trägersystem nach Anspruch 19, dadurch gekennzeichnet, dass die zweite Kommunikationsschnittstelle (32) auch für einen Datenaustausch mit der mobilen Vorrichtung (14) und dem zentralen Rechner ausgebildet ist.Carrier system after Claim 19 , characterized in that the second communication interface (32) is also designed for data exchange with the mobile device (14) and the central computer. Trägersystem nach einem der Ansprüche 17 bis 20, dadurch gekennzeichnet, dass der Träger (12) und die mobile Vorrichtung (14) einen Spannungsanschluss (26a, 26b) aufweisen, über den die mobile Vorrichtung (14) mit Spannung versorgbar ist. Carrier system according to one of the Claims 17 to 20 , characterized in that the carrier (12) and the mobile device (14) have a voltage connection (26a, 26b) via which the mobile device (14) can be supplied with voltage. Trägersystem nach einem der Ansprüche 17 bis 21, dadurch gekennzeichnet, dass der Träger (12) und die mobile Vorrichtung (14) Mittel (12a, 82a, 82b) zum bedarfsweise Verbinden miteinander aufweisen.Carrier system according to one of the Claims 17 to 21 , characterized in that the carrier (12) and the mobile device (14) have means (12a, 82a, 82b) for connecting to one another as required. Trägersystem nach einem der Ansprüche 17 bis 22, dadurch gekennzeichnet, dass der Träger (12) eine GPS-Einheit (34) zur Erfassung der Positionskoordinaten des Trägers (12) aufweist.Carrier system according to one of the Claims 17 to 22 , characterized in that the carrier (12) has a GPS unit (34) for detecting the position coordinates of the carrier (12).
DE102018120756.5A 2018-08-24 2018-08-24 Mobile analysis and processing device, method and carrier system Pending DE102018120756A1 (en)

Priority Applications (19)

Application Number Priority Date Filing Date Title
DE102018120756.5A DE102018120756A1 (en) 2018-08-24 2018-08-24 Mobile analysis and processing device, method and carrier system
CN201980055947.3A CN112955841A (en) 2018-08-24 2019-08-22 Transport carrier system with transport carrier and moving device for soil treatment and/or animal and plant group analysis operations and method thereof
HRP20230366TT HRP20230366T1 (en) 2018-08-24 2019-08-22 Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor
LTEPPCT/EP2019/072521T LT3841444T (en) 2018-08-24 2019-08-22 Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor
AU2019324525A AU2019324525A1 (en) 2018-08-24 2019-08-22 Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor
KR1020217008621A KR20210047918A (en) 2018-08-24 2019-08-22 Carrier system and method comprising a carrier and a mobile device for cultivation of soil and/or control of animals and plants
RS20230316A RS64154B1 (en) 2018-08-24 2019-08-22 Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor
SI201930520T SI3841444T1 (en) 2018-08-24 2019-08-22 Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor
ES19765969T ES2942444T3 (en) 2018-08-24 2019-08-22 Carrier system with a carrier and a mobile device for processing soil and/or for handling flora and fauna and method for this
HUE19765969A HUE061887T2 (en) 2018-08-24 2019-08-22 Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor
CA3111249A CA3111249A1 (en) 2018-08-24 2019-08-22 Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor
DK19765969.1T DK3841444T3 (en) 2018-08-24 2019-08-22 Carrier system with a carrier and a mobile device for working the soil and/or for manipulating the flora and fauna and method therefor
FIEP19765969.1T FI3841444T3 (en) 2018-08-24 2019-08-22 Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor
US17/268,529 US20220117146A1 (en) 2018-08-24 2019-08-22 Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor
PCT/EP2019/072521 WO2020039045A1 (en) 2018-08-24 2019-08-22 Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor
PL19765969.1T PL3841444T3 (en) 2018-08-24 2019-08-22 Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor
PT197659691T PT3841444T (en) 2018-08-24 2019-08-22 Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor
EP19765969.1A EP3841444B1 (en) 2018-08-24 2019-08-22 Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor
IL281046A IL281046A (en) 2018-08-24 2021-02-23 Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018120756.5A DE102018120756A1 (en) 2018-08-24 2018-08-24 Mobile analysis and processing device, method and carrier system

Publications (1)

Publication Number Publication Date
DE102018120756A1 true DE102018120756A1 (en) 2020-02-27

Family

ID=69412541

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018120756.5A Pending DE102018120756A1 (en) 2018-08-24 2018-08-24 Mobile analysis and processing device, method and carrier system

Country Status (1)

Country Link
DE (1) DE102018120756A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020002718A1 (en) 2020-05-06 2021-11-11 Wolfram Strothmann Device and method for selective, mechanical weed regulation with resettable evasive movement of tool actuator units
DE102020002720A1 (en) 2020-05-06 2021-11-11 Wolfram Strothmann Cylinder drive for executing highly dynamic linear strokes
DE102020002721A1 (en) 2020-05-06 2021-11-11 Wolfram Strothmann Multi-row machine and method for the mechanical regulation of weeds and pests.
DE102020002719A1 (en) 2020-05-06 2021-11-11 Wolfram Strothmann Device and method for controllable, dynamic mechanical processing of objects with passively driven tools

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160307448A1 (en) * 2013-03-24 2016-10-20 Bee Robotics Corporation Hybrid airship-drone farm robot system for crop dusting, planting, fertilizing and other field jobs

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160307448A1 (en) * 2013-03-24 2016-10-20 Bee Robotics Corporation Hybrid airship-drone farm robot system for crop dusting, planting, fertilizing and other field jobs

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
BoniRob – mit Bolzen gegen Unkräuter. Artikel aus "topagrarONLINE" vom 29.3.2018, am 3.7.2019 recherchiert unter dem URL https://www.topagrar.com/acker/news/bonirob-mit-bolzen-gegen-unkraeuter-9844736.html . *
KNOLL, F. J. [et al.]: CPU architecture for a fast and energy-saving calculation of convolution neural networks. Proc. SPIE 10335, Digital Optical Technologies 2017, 103351M (26 June 2017); doi: 10.1117/12.2270282 . *
KNOLL, F. J. [et al.]: Vegetation index determination method based on color room processing for weed control applications in organic farming. IEEE International Instrumentation and Measurement Technology Conference Proceedings, 2016, 6 Seiten; doi: 10.1109/I2MTC.2016.7520508 . *
RUEDA-AYALA, V. [et al.]: Mechanical Weed Control. Chapter 17 in "Precision Crop Protection – the Challenge and Use of Heterogeneity, E.-C. Oerke [et al.] (eds.), Springer, 2010, S. 279-294; doi: 10.1007/978-90-481-9277-9_17 . *
So vernichtet Roboter Bonirob Unkraut. Artikel aus „Ingenieur.de" vom 16.11.2015, am 3.7.2019 recherchiert unter dem URL https://www.ingenieur.de/technik/fachbereiche/landtechnik/so-vernichtet-roboter-bonirob-unkraut/ . *
VAN DER WEIDE, R. Y. [et al.]: Innovation in mechanical weed control in crop rows. Weed Research, Vol. 48, 2008, S. 215-224. *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020002718A1 (en) 2020-05-06 2021-11-11 Wolfram Strothmann Device and method for selective, mechanical weed regulation with resettable evasive movement of tool actuator units
WO2021223903A1 (en) 2020-05-06 2021-11-11 Strothmann Wolfram Device and method for selectively, mechanically controlling weeds by means of a restorable evasive movement of tool actuator units
DE102020002720A1 (en) 2020-05-06 2021-11-11 Wolfram Strothmann Cylinder drive for executing highly dynamic linear strokes
DE102020002721A1 (en) 2020-05-06 2021-11-11 Wolfram Strothmann Multi-row machine and method for the mechanical regulation of weeds and pests.
DE102020002719A1 (en) 2020-05-06 2021-11-11 Wolfram Strothmann Device and method for controllable, dynamic mechanical processing of objects with passively driven tools
WO2021223902A1 (en) 2020-05-06 2021-11-11 Strothmann Wolfram Multirow machine and method for mechanically regulating weeds and pests

Similar Documents

Publication Publication Date Title
DE102018120756A1 (en) Mobile analysis and processing device, method and carrier system
DE102016212623A1 (en) UAV-based sensing for workflows in a workspace
EP3434092A1 (en) Automatically movable external work device
EP3782467A1 (en) Method for identifying weeds within a defined row of plants of an agricultural area
DE102019203247A1 (en) Vision-based steering assistance system for land vehicles
WO2021105019A1 (en) Method for generating a plurality of annotated images
DE102019218192A1 (en) Method of working crops in a field
EP3841444B1 (en) Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor
EP3575912A1 (en) Robotic mower
WO2020039046A1 (en) Mobile analysis and processing device
EP4064819B1 (en) Method for treating plants in a field, for generating training data and for training a neural network
DE102018120755A1 (en) Carrier system with a carrier and a mobile device for working the soil and / or for manipulating the flora and fauna and method therefor
WO2021105017A1 (en) Method for processing plants in a field
EP4064818B1 (en) Method for treating plants in a field
DE102022206224A1 (en) Method for automatically labeling input images, training images, method for training or retraining a weed analyzer, analysis device, computer program and machine-readable storage medium
DE102022207830A1 (en) Weed detection with polar masks
EP4245135A1 (en) Conducting and documenting an application of plant protection agents
DE102022115549A1 (en) Method for the optimized configuration of a camera system for row detection in a field
DE102020215877A1 (en) Method of classifying plants for agricultural purposes
DE202022101733U1 (en) A crop counting system based on artificial intelligence and machine learning
DE102022212171A1 (en) Method for classifying plants in and/or between rows of plants in an agricultural area
DE102022212162A1 (en) Method for determining a plant index of plants in a row of plants in an agricultural area

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: PUSCHMANN BORCHERT BARDEHLE PATENTANWAELTE PAR, DE

Representative=s name: PUSCHMANN BORCHERT KAISER KLETTNER PATENTANWAE, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000