DE102018120756A1 - Mobile analysis and processing device, method and carrier system - Google Patents
Mobile analysis and processing device, method and carrier system Download PDFInfo
- Publication number
- DE102018120756A1 DE102018120756A1 DE102018120756.5A DE102018120756A DE102018120756A1 DE 102018120756 A1 DE102018120756 A1 DE 102018120756A1 DE 102018120756 A DE102018120756 A DE 102018120756A DE 102018120756 A1 DE102018120756 A1 DE 102018120756A1
- Authority
- DE
- Germany
- Prior art keywords
- pixel
- data
- unit
- carrier
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01M—CATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
- A01M7/00—Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass
- A01M7/0089—Regulating or controlling systems
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01M—CATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
- A01M9/00—Special adaptations or arrangements of powder-spraying apparatus for purposes covered by this subclass
- A01M9/0092—Regulating or controlling systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01B—SOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
- A01B79/00—Methods for working soil
- A01B79/005—Precision agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Wood Science & Technology (AREA)
- Insects & Arthropods (AREA)
- Environmental Sciences (AREA)
- Zoology (AREA)
- Pest Control & Pesticides (AREA)
- Biodiversity & Conservation Biology (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Remote Sensing (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Die Erfindung betrifft eine Mobile Analyse- und Bearbeitungsvorrichtung (14) für die Landwirtschaft zur Bearbeitung des Bodens und/oder zur Manipulation von Flora und Fauna, mit einer visuellen Detektionseinheit (62), welche umfasst:eine Kamera (64), mit der Bilder erfasst werden, eine Segmentierungs- und Datenreduzierungseinrichtung (66), mit der unter anderem jeweils ein von der Kamera (64) erfasstes Bild aus mehreren Pixeln in einem RGB-(Red, Green, Blue)-Farbmodell erzeugt wird und von Pixelfeldern aus den Pixeln des Zwischenbildes erzeugt wird. Zudem ist ein Klassifikator (68) vorgesehen, der auf Basis des von der Segmentierungs- und Datenreduzierungseinrichtung (66) erzeugten Zwischenbildes die Klassifikation mehrerer aus Pixeln bestehender Pixelfelder übernimmt, wobei nur Pixelfelder klassifiziert werden, welche zumindest ein Pixel aufweisen, das dem binären Wert „1“ zugeordnet ist.The invention relates to a mobile analysis and processing device (14) for agriculture for cultivating the soil and / or for manipulating flora and fauna, comprising a visual detection unit (62) which comprises: a camera (64) with which images are captured a segmentation and data reduction device (66), with which, inter alia, an image recorded by the camera (64) is generated from a plurality of pixels in an RGB (Red, Green, Blue) color model and from pixel fields from the pixels of the Intermediate image is generated. In addition, a classifier (68) is provided which, on the basis of the intermediate image generated by the segmentation and data reduction device (66), takes over the classification of several pixel fields consisting of pixels, only pixel fields which have at least one pixel that corresponds to the binary value “being classified” being classified. 1 ”is assigned.
Description
Die Erfindung betrifft eine mobile Analyse- und Bearbeitungsvorrichtung für die Landwirtschaft zur Bearbeitung des Bodens und/oder zur Manipulation von Flora und Fauna nach Anspruch 1, ein Verfahren nach Anspruch 8 und ein Trägersystem nach Anspruch 17.The invention relates to a mobile analysis and processing device for agriculture for cultivating the soil and / or for manipulating flora and fauna according to
Die Unkrautregulierung in der Landwirtschaft ist eine sehr arbeitsintensive Aufgabe, besonders im biologischen Anbau, die den Einsatz von Chemikalien verbietet oder einschränkt. Je nach angebauter Kultur ist die Unkrautregulierung in unmittelbarer Nähe der Nutzpflanze notwendig. Diese Regulierung findet im Allgemeinen im frühen Wachstumszustand statt. Sowohl Nutzpflanze auf der einen Seite als auch Unkraut bzw. Beikraut auf der anderen Seite sind da noch sehr klein und nahe beieinander. Um eine Beschädigung der Nutzpflanze zu vermeiden, ist es zielführend selektive Methoden anzuwenden. Dies erfolgt im biologischen Anbau, zum Beispiel für Möhren, durch eine arbeitsintensive, körperschädigende manuelle Arbeit mit sogenannten „Jäte-Fliegern“. Saison-Arbeitskräfte liegen auf dem Bauch auf einer Pritsche und entfernen die Unkräuter.Weed control in agriculture is a very labor-intensive task, especially in organic farming, which prohibits or restricts the use of chemicals. Depending on the cultivated crop, weed control is necessary in the immediate vicinity of the crop. This regulation generally takes place in the early stage of growth. Both the useful plant on one side and the weeds or weeds on the other are still very small and close together. To avoid damaging the crop, selective methods should be used. This takes place in organic cultivation, for example for carrots, through labor-intensive, body-damaging manual work with so-called "weeding planes". Seasonal workers lie on their bumps on a platform and remove the weeds.
Für Sonderkulturen mit größeren Pflanzenabständen, wie zum Beispiel Zuckerrüben, oder Salat, sind Traktoranbaugeräte bekannt, welche in der Lage sind, einzelne Nutzpflanzen zu erkennen und entsprechende Werkzeuge so anzusteuern, dass die Fläche der Nutzpflanze unbearbeitet bleibt. Für diese Aufgabe ist keine Selektivität notwendig. D.h., dass diese Systeme nicht die zu überarbeitenden Flächen überprüfen, sondern vielmehr das Werkzeug „auf Blind“ anhand der bekannten Nutzpflanzenposition steuern. Allgemein definiert der Abstand zur Nutzpflanze die Genauigkeitsanforderungen.For special crops with larger plant spacings, such as sugar beets or lettuce, tractor attachments are known which are able to recognize individual crops and to control appropriate tools so that the area of the crop remains unprocessed. Selectivity is not required for this task. This means that these systems do not check the areas to be reworked, but rather control the tool "on blind" based on the known crop position. In general, the distance to the crop defines the accuracy requirements.
Aus der
Aus der
Ein entsprechendes Gerät mit einer Druckfördereinheit und einer Flüssigkeitsabgabeeinheit ist aus der
Mit Agrarrobotern und Erntemaschinen, die automatisiert und mit Telematik Einrichtung versehen die Landwirtschaft technisch unterstützen, werden derzeit neue Wege beschritten. Vielfach können technische Prinzipien und Erkenntnisse aus der Raumfahrt, der Fernerkundung und der Robotik für die Fragestellungen in der Landwirtschaft übernommen werden, jedoch sind diese an die Aufgabenstellungen in der Landwirtschaft gezielt anzupassen und erfordern neue Vorrichtungen und Verfahren.Agricultural robots and harvesting machines that provide automated, technical equipment to support agriculture are currently treading new ground. In many cases, technical principles and knowledge from space travel, remote sensing and robotics can be adopted for agricultural issues, but these must be adapted to agricultural tasks and require new devices and processes.
Ein Problem bei der automatisierten Behandlung der Felder ist auch das Ermitteln der Daten, wo sich das Beikraut befindet und was demgegenüber als Nutzpflanze zu behandeln ist.A problem with the automated treatment of the fields is also the determination of the data, where the weed is and what, on the other hand, is to be treated as a useful plant.
Aus der
In der
Der Erfindung liegt die Aufgabe zugrunde, eine mobile Analyse- und Bearbeitungsvorrichtung für die Landwirtschaft zur Bearbeitung des Bodens und/oder zur Manipulation von Flora und Fauna sowie ein Verfahren, welche eine in Echtzeit geregelte, qualifizierte Beseitigung der detektierten Flora und/oder Fauna sowie auch eine parallele Analyse von Flora und Fauna ermöglicht. Echtzeit bedeutet in diesem Zusammenhang, dass eine in situ Analyse und Bearbeitung ermöglicht wird.The invention is based on the object of a mobile analysis and processing device for agriculture for cultivating the soil and / or for manipulating flora and fauna, and a method which is a real-time controlled, qualified removal of the detected flora and / or fauna and also enables a parallel analysis of flora and fauna. In this context, real-time means that in-situ analysis and processing is possible.
Diese Aufgabe wird für die mobile Analyse- und Bearbeitungsvorrichtung durch die Merkmale des Anspruches 1, für das Verfahren durch die Merkmale des Anspruches 8 und für das Trägersystem durch die Merkmale des Anspruches 17 gelöst.This object is achieved for the mobile analysis and processing device by the features of
Die Unteransprüche bilden vorteilhafte Weiterbildungen der Erfindung.The subclaims form advantageous developments of the invention.
Der Erfindung liegt die Erkenntnis zugrunde, dass durch eine Ausbildung einer mobilen Analyse- und Bearbeitungsvorrichtung mit einer visuellen Detektionseinheit, welche eine Reduktion der auszuwertenden Daten auf die notwendigen Bereiche ermöglicht, die Analyse- und Bewertungszeit sich erheblich verkürzen lässt und sich dadurch eine Analyse und Bearbeitung, beispielsweise von landwirtschaftlichen Flächen, in nur einem Arbeitsgang erledigen lässt.The invention is based on the finding that by designing a mobile analysis and processing device with a visual detection unit, which enables the data to be evaluated to be reduced to the necessary areas, the analysis and evaluation time can be shortened considerably, and analysis and processing are thereby possible , for example of agricultural land, can be done in just one operation.
Die Erfindung betrifft daher eine mobile Analyse- und Bearbeitungsvorrichtung für die Landwirtschaft zur Bearbeitung des Bodens und/oder zur Manipulation von Flora und Fauna. Diese mobile Vorrichtung ist mit einer visuellen Detektionseinheit versehen, welche eine Kamera umfasst, mit der Bilder erfasst werden. Zudem ist eine Segmentierungs- und Datenreduzierungseinrichtung vorgesehen mit der jeweils ein von der Kamera erfasstes Bild aus mehreren Pixeln in einem RGB-(Red, Green, Blue)-Farbmodell erzeugt wird. Anschließend wird jedes Pixel basierend auf dem RGB-Farbmodell in ein
Als günstig hat sich erwiesen, wenn die Segmentierungs- und Datenreduzierungseinrichtung ein Pixelfeld durch eine Quadratzahl von Pixeln bildet, insbesondere dabei 100, 81, 77, 36, 25, 16, 9 oder 4 Pixel aufweist. Vorzugsweise ist dabei das Pixelfeld quadratisch gebildet.It has proven to be advantageous if the segmentation and data reduction device forms a pixel field by a square number of pixels, in particular in this case has 100, 81, 77, 36, 25, 16, 9 or 4 pixels. The pixel field is preferably formed square.
Gemäß einer Ausführungsform der Erfindung umfasst die mobile Vorrichtung zumindest eine Werkzeugeinheit mit zumindest einem motorisch angetriebenen Werkzeug, einen Aktor zum Verfahren zumindest des Werkzeugs der Werkzeugeinheit, einen Motor zum Antreiben der Werkzeugeinheit und/oder des Aktors, eine Datenbank, eine erste Kommunikationseinheit mit Schnittstelle und ein erster Rechner zum Steuern des Motors, der visuellen Detektionseinheit, der Werkzeugeinheit und/oder des Aktors aufgrund generierter Steuerbefehle. Dabei werden die über die visuelle Detektionseinheit erfassten Daten mit den in der Datenbank hinterlegten Daten fortlaufend abgeglichen, um entsprechende Steuersignale für den Motor, die visuelle Detektionseinheit, die Werkzeugeinheit, den Aktor und/oder einen zugeordneten Träger zu generieren. Hierdurch wird eine Mobilität und Flexibilität geschaffen, gemäß der die Vorrichtung eine Einheit bildet, mit der sämtliche Daten in Echtzeit abgearbeitet, Steuersignale für die Werkzeugeinheit generiert und umgehend die Werkzeugeinheit gemäß den Steuersignalen arbeiten kann. Hierdurch ergeben sich Möglichkeiten der Kombination beispielsweise mit verschiedenen Trägern, welche die Vorrichtung bedarfsweise über das Feld bewegen.According to one embodiment of the invention, the mobile device comprises at least one tool unit with at least one motor-driven tool, an actuator for moving at least the tool of the tool unit, a motor for driving the tool unit and / or the actuator, a database, a first communication unit with interface and a first computer for controlling the motor, the visual detection unit, the tool unit and / or the actuator on the basis of generated control commands. The data recorded via the visual detection unit is continuously compared with the data stored in the database in order to generate corresponding control signals for the motor, the visual detection unit, the tool unit, the actuator and / or an assigned carrier. This creates mobility and flexibility, according to which the device forms a unit with which all data are processed in real time, control signals are generated for the tool unit and the tool unit can immediately work in accordance with the control signals. This results in possibilities of combining, for example, with different carriers, which move the device over the field if necessary.
Echtzeit bedeutet in diesem Zusammenhang die Möglichkeit, Analyse- und Bearbeitungsvorgänge in einem Arbeitsgang in situ vornehmen zu können.In this context, real-time means the possibility of being able to carry out analysis and processing operations in situ in one work step.
Um die Vorrichtung bedarfsweise mit einem Träger verbinden zu können, welcher die Vorrichtung bewegt, sind entsprechende Mittel zum Verbinden mit dem Träger vorgesehen.In order to be able to connect the device to a carrier that moves the device as required, appropriate means are provided for connecting to the carrier.
Die Werkzeugeinheit weist vorzugsweise mindestens eine Vorschubeinheit und eine Rotationseinheit auf, welche mit dem Motor zusammenwirkt. Der Einsatzbereich des Werkzeugs wird hierdurch auf einfache Weise erweitert, ohne dass die Vorrichtung bewegt werden muss. The tool unit preferably has at least one feed unit and one rotation unit which interacts with the motor. The range of use of the tool is thereby expanded in a simple manner without the device having to be moved.
Vorzugsweise ist die Rotationseinheit an einem distalen Ende mit zumindest dem einen Werkzeug versehen, insbesondere mit einer Fräse oder mit einer Messereinheit. Mit Rotation beispielsweise der Messereinheit können zum Beispiel kleine Kerbtiere oder Beikraut selektiv zerstört werden.The rotation unit is preferably provided at one distal end with at least one tool, in particular with a milling cutter or with a knife unit. By rotating the knife unit, for example, small insects or weeds can be selectively destroyed.
Die oben erwähnte Aufgabe wird auch durch ein Verfahren zum Betreiben der Analyse- und Bearbeitungsvorrichtung gemäß der eben genannten Art gelöst, wobei das Verfahren folgende Schritte aufweist:
- - zeitlich kontinuierliche Aufnahme von datentechnisch definierter Voxel und/oder Pixel und/oder Bildern durch die visuelle Detektionseinheit;
- - Übermittlung der Aufnahmedaten an die Datenbank;
- - Speicherung der Aufnahmedaten in der Datenbank;
- - qualitativer Datenabgleich der Aufnahmedaten mit den in der Datenbank hinterlegten Daten, vorzugsweise mit Durchführung einer Segmentierung, einer Datenreduktion, einer und/oder Verifikation der Daten durch den Rechner;
- - Bewertung der abgeglichenen Daten mit bestehenden definierten Daten und Datensätzen in der Datenbank durch einen Klassifikator in Verbindung mit dem Rechner;
- - Verarbeitung und Umsetzung der Bewertung durch den Rechner in regelungs- und/oder steuerungstechnische Daten für den Motor, den Aktor, die Werkzeugeinheit und/oder einen zugeordneten Träger.
- - Continuous recording of voxels and / or pixels and / or images defined in terms of data technology by the visual detection unit;
- - transmission of the recording data to the database;
- - Storage of the recording data in the database;
- - Qualitative data comparison of the recording data with the data stored in the database, preferably by performing a segmentation, data reduction, and / or verification of the data by the computer;
- - Evaluation of the matched data with existing defined data and data records in the database using a classifier in connection with the computer;
- - Processing and implementation of the evaluation by the computer in regulation and / or control engineering data for the motor, the actuator, the tool unit and / or an assigned carrier.
Vorzugsweise erfolgt nach Vorliegen der regelungs- und/oder steuerungstechnischen Daten ein Anfahren des Motors, des Aktors, der Werkzeugeinheit und/oder des zugeordneten Trägers zur Bearbeitung des Bodens und zur Manipulation von Flora und Fauna.After the regulatory and / or control-related data are available, the motor, the actuator, the tool unit and / or the associated carrier are preferably started up for working the soil and for manipulating flora and fauna.
Um die Analyse der Aufnahmedaten zu beschleunigen, werden beim Datenabgleich die Aufnahmedaten an die Segmentierungs- und Datenreduzierungseinrichtung übermittelt, welche Zwischenbilder erzeugt. Die Zwischenbilder weisen deutlich reduzierte Daten auf.In order to accelerate the analysis of the recording data, the recording data are transmitted to the segmentation and data reduction device which generates intermediate images during the data comparison. The intermediate images have significantly reduced data.
Insbesondere nach dem Erzeugen der Zwischenbilder werden diese an den Klassifikator übermittelt, welcher die erzeugten Zwischenbilder anhand bestehender definierter Bilder und Datensätze in der Datenbank im Zusammenwirken mit dem Rechner bewertet.In particular after the intermediate images have been generated, they are transmitted to the classifier, which evaluates the generated intermediate images on the basis of existing defined images and data records in the database in cooperation with the computer.
Gemäß einer Ausführungsform der Erfindung werden in der Segmentierungs- und Datenreduzierungseinrichtung zur Erzeugung der Zwischenbilder nacheinander folgende Schritte durchgeführt:
- - Jedes übermittelte Bild aus mehreren Pixeln wird in das RGB-(Red, Green, Blue)-Farbmodell überführt;
- - jedes Pixel des übermittelten Bildes basierend auf dem RGB-Farbmodell wird in ein HSV (hue, saturation, value)-Farbmodell transferiert;
- - jedes Pixel basierend auf dem HSV-Farbmodell wird im Hinblick auf die Farbsättigung (saturation) anhand eines Schwellenwerteses bewertet, wobei, wenn der Wert der Farbsättigung einen Schwellenwert übersteigt, das Pixel dem binären Wert „
1 " zugeordnet wird, und, wenn der Wert der Farbsättigung einen Schwellenwert unterschreitet, das Pixel dem binären Wert „O “ zugeordnet wird; - - vorzugsweise parallel mit dem eben genannten Schritt wird jedes Pixel basierend auf dem HSV-Farbmodell im Hinblick auf den Farbwinkel (hue) anhand eines vorbestimmten Bereiches bewertet, wobei, wenn der Farbwinkel in dem vorbestimmten Bereich liegt, das Pixel dem binären Wert „
1 “ zugeordnet wird, und, wenn der Farbwinkel außerhalb des Bereichs liegt, das Pixel dem binären Wert „O “ zugeordnet wird; - - aus den binären Informationen des Farbwinkels und der Farbsättigung entsteht das erste Zwischenbild, welches erheblich weniger Daten als das von der Kamera erzeugte Bild enthält.
- - Each transmitted image from several pixels is converted into the RGB (Red, Green, Blue) color model;
- - Each pixel of the transmitted image based on the RGB color model is transferred to an HSV (hue, saturation, value) color model;
- - Each pixel based on the HSV color model is evaluated with regard to the color saturation using a threshold value, wherein if the value of the color saturation exceeds a threshold value, the pixel corresponds to the binary value “
1 "is assigned, and if the value of the color saturation falls below a threshold value, the pixel corresponds to the binary value"O “Is assigned; - - preferably in parallel with the step just mentioned, each pixel is evaluated based on the HSV color model with regard to the color angle (hue) using a predetermined range, the pixel having the binary value “if the color angle is in the predetermined range“
1 "And if the color angle is outside the range, the pixel is assigned the binary value"O “Is assigned; - - From the binary information of the color angle and the color saturation, the first intermediate image is created, which contains considerably less data than the image generated by the camera.
Vorzugsweise werden in der Segmentierungs- und Datenreduzierungseinrichtung Pixelfelder aus den Pixeln des Zwischenbildes erzeugt, um die Analyse weiter zu beschleunigen und zu optimieren.Preferably, pixel fields are generated from the pixels of the intermediate image in the segmentation and data reduction device in order to further accelerate and optimize the analysis.
Um später die durch die Bewertung ermittelten Ergebnisse aus den Bildern in regelungs- und/oder steuerungstechnische Daten für den Akteur und/oder den Träger umsetzen zu können, versieht die Segmentierungs- und Datenreduktionseinrichtung die Pixel mit Lagekoordinaten.The segmentation and data reduction device provides the pixels with position coordinates so that the results from the images determined by the evaluation can subsequently be converted into regulation and / or control engineering data for the actor and / or the wearer.
Gemäß einer Ausführungsform der Erfindung nimmt der Klassifikator mit Hilfe eines künstlichen neuronalen Netzes die Klassifikation vor. Vorzugsweise ist dabei das künstliche neuronale Netz durch ein Convolutional Neural Network (
Die Erfindung betrifft auch ein Trägersystem mit einem Träger und einer mobilen Vorrichtung zur Bearbeitung des Bodens und/oder zur Manipulation der Flora und Fauna nach oben genannter Art, insbesondere zur Durchführung des eben genannten Verfahrens. Der Träger ist mit einem Antrieb zum Bewegen des Trägersystems, mit einer Steuereinrichtung, mit einer Energiequelle, welche mit dem Antrieb zusammenwirkt und die notwendige Spannung für den Betrieb zur Verfügung stellt, mit einer Aufnahme zum Aufnehmen und Verbinden mit der mobilen Vorrichtung, mit einer Kommunikationseinheit, mit einer ersten mit der Kommunikationseinheit zusammenwirkenden Kommunikationsschnittstelle zum Datenaustausch mit der mobilen Vorrichtung, welche eine zugeordnete Schnittstelle aufweist, sowie mit einer zweiten mit der Kommunikationseinheit zusammenwirkende Kommunikationsschnittstelle versehen. Über die zweite Kommunikationsschnittstelle werden zumindest Steuerungsdaten empfangen und mittels der Kommunikationseinheit an die Steuerungseinrichtung zum vorbestimmten Bewegen des Trägers weitergegeben. Hierdurch wird eine Flexibilität des Trägersystems geschaffen, das einen breiten Einsatzbereich ermöglicht, aber auch unterschiedlichen Bedürfnissen in der Landwirtschaft gerecht wird, indem bedarfsgerecht mobile Vorrichtungen mit einem einheitlichen Träger verbunden werden können. The invention also relates to a carrier system with a carrier and a mobile device for working the soil and / or for manipulating the flora and fauna in the manner mentioned above, in particular for carrying out the method just mentioned. The carrier is provided with a drive for moving the carrier system, with a control device, with an energy source which interacts with the drive and provides the necessary voltage for operation, with a receptacle for receiving and connecting to the mobile device, with a communication unit , with a first communication interface interacting with the communication unit for data exchange with the mobile device, which has an assigned interface, and with a second communication interface interacting with the communication unit. At least control data are received via the second communication interface and passed on to the control device for predetermined movement of the carrier by means of the communication unit. This creates a flexibility of the carrier system, which enables a wide range of applications, but also meets different needs in agriculture, in that mobile devices can be connected to a uniform carrier as required.
Vorzugsweise kann der Träger als unbemanntes Luftfahrzeug (Flugdrohne), unbemanntes Landfahrzeug, unbemanntes Wasserfahrzeug, oder unbemanntes Unterwasserfahrzeug, beispielsweise für Aquakulturen, ausgebildet sein. Je nach Einsatzbereich wird der eine oder andere Träger genommen.The carrier can preferably be designed as an unmanned aerial vehicle (drone), unmanned land vehicle, unmanned watercraft, or unmanned underwater vehicle, for example for aquaculture. Depending on the area of application, one or the other carrier is used.
Gemäß einer Ausführungsform der Erfindung ist die zweite Kommunikationsschnittstelle eine Antenne, welche zum Datenaustausch mit einem zentralen, vorzugsweise ortsfesten, von dem Träger separaten Rechner ausgebildet ist. Hierdurch wird ermöglicht, dass Geräte, beispielsweise für die Telemetrie und oder die Auswertung der ermittelten Daten, unabhängig vom Träger bearbeitet und ausgewertet werden können. Der Träger kann dadurch leicht gewichtiger ausgebildet werden.According to one embodiment of the invention, the second communication interface is an antenna which is designed for data exchange with a central, preferably fixed, computer separate from the carrier. This enables devices, for example for telemetry and or the evaluation of the data determined, to be processed and evaluated independently of the carrier. The carrier can thus be made slightly more weighty.
Um aber auch einen Datenaustausch mit der mobilen Vorrichtung zu ermöglichen, ist die zweite Kommunikationsschnittstelle hierfür ausgebildet.However, in order to enable data exchange with the mobile device, the second communication interface is designed for this.
Der Träger benötigt beispielsweise zum Betrieb des Antriebs eine Spannungsquelle. Um eine solche Spannungsquelle nur einmal vorzusehen und somit Gewicht im Trägersystem einzusparen, weisen der Träger und die mobile Vorrichtung jeweils einen Spannungsanschluss auf, über den auch die mobile Vorrichtung mit Spannung versorgbar ist. Es ist somit nur eine Energiequelle für den Träger und die mobile Vorrichtung vorgesehen.For example, the carrier requires a voltage source to operate the drive. In order to provide such a voltage source only once and thus save weight in the carrier system, the carrier and the mobile device each have a voltage connection via which the mobile device can also be supplied with voltage. Thus, only one energy source is provided for the carrier and the mobile device.
Um die Austauschbarkeit des Trägers mit verschiedenen mobilen Vorrichtungen zu gewährleisten, weisen der Träger und die mobile Vorrichtung Mittel zum bedarfsweisen Verbinden miteinander auf.In order to ensure the interchangeability of the carrier with different mobile devices, the carrier and the mobile device have means for connecting to one another as required.
Gemäß einer Ausführungsform der Erfindung weist der Träger eine GPS-Einheit zur fortlaufenden Erfassung der Positionskoordinaten des Trägers auf. Auf diese Weise können die Positionskoordinaten den über den Sensor ermittelten Daten zugeordnet werden. Eine Auswertung wird hierdurch vereinfacht.According to one embodiment of the invention, the carrier has a GPS unit for continuously recording the position coordinates of the carrier. In this way, the position coordinates can be assigned to the data determined by the sensor. This simplifies evaluation.
Weitere Vorteile, Merkmale und Anwendungsmöglichkeiten der vorliegenden Erfindung ergeben sich aus der nachfolgenden Beschreibung in Verbindung mit den in den Zeichnungen dargestellten Ausführungsbeispielen.Further advantages, features and possible uses of the present invention result from the following description in connection with the exemplary embodiments shown in the drawings.
In der Beschreibung, in den Ansprüchen und in der Zeichnung werden die in der unten aufgeführten Liste der Bezugszeichen verwendeten Begriffe und zugeordneten Bezugszeichen verwendet. In der Zeichnung bedeutet:
-
1 eine schematische Darstellung eines Tragsystems mit räumlich getrennten Gehäusen einer mobilen Vorrichtung gemäß einer ersten Ausführungsform der Erfindung; -
2 eine schematische Darstellung eines Tragsystems mit räumlich getrennten Gehäusen einer mobilen Vorrichtung, die über eine Steckverbindung miteinander verbunden sind, gemäß einer zweiten Ausführungsform der Erfindung; -
3 eine Seitenansicht auf das Tragsystem gemäß der ersten Ausführungsform der Erfindung mit Anbindung der mobilen Vorrichtung an eine Flugdrohne; -
4 ein Flussdiagramm, welches die Schritte eines Verfahrens mit dem Tragsystem veranschaulicht; -
5 ein Flussdiagramm, welches die Schritte des Verfahrens zur Ermittlung der notwendigen Maßnahmen darstellt; -
6 ein durch die visuelle Detektionseinheit aufgenommenes Bild; -
7 ein schematischer Aufbau eines Convolution Neuronalen Netzwerkes ausgehend von dem Bild von6 ; -
8 ein Flussdiagramm, welches ein Verfahren der Segmentierungs- und Datenreduktionseinheit zeigt; -
9 ein aus der Segmentierungs- und Datenreduktionseinheit erstelltes Zwischenbild; -
10 einen Teilausschnitt des Zwischenbildes mit drei unterschiedlichen Fällen für den Klassifikator; -
11 zwei prinzipielle Darstellungen von weiteren Pixelfeldern für die Bewertung durch den Klassifikator; -
12 zwei prinzipielle Darstellungen von weiteren Pixelfeldern für die Bewertung durch den Klassifikator; -
13 ein durch den Klassifikator erstelltes und bewertetes Bild, und -
14 die prinzipielle Darstellungen der Arbeitsweise des Klassifikators
-
1 a schematic representation of a support system with spatially separate housings of a mobile device according to a first embodiment of the invention; -
2 a schematic representation of a support system with spatially separate housings of a mobile device, which are connected to one another via a plug connection, according to a second embodiment of the invention; -
3 a side view of the support system according to the first embodiment of the invention with connection of the mobile device to a drone; -
4 a flowchart illustrating the steps of a method with the support system; -
5 a flow diagram illustrating the steps of the method for determining the necessary measures; -
6 an image captured by the visual detection unit; -
7 a schematic structure of a convolutional neural network based on the image of6 ; -
8th a flowchart showing a method of the segmentation and data reduction unit; -
9 an intermediate image created from the segmentation and data reduction unit; -
10 a partial section of the intermediate image with three different cases for the classifier; -
11 two basic representations of further pixel fields for the evaluation by the classifier; -
12 two basic representations of further pixel fields for the evaluation by the classifier; -
13 an image created and rated by the classifier, and -
14 the basic representations of how the classifier works
In
Gemäß der ersten Ausführungsform der Erfindung umfasst die Flugdrohne
Die Kommunikationseinheit
Die mobile Vorrichtung
In dem ersten Gehäuse
Weiterhin ist in der ersten Einheit
Die erste Einheit
In der zweiten Einheit
In der
In
Die mobile Vorrichtung
In
In einem ersten Schritt
In einem nächsten Schritt
In einem nächsten Schritt
In einem nächsten Schritt
In einem fünften Schritt
Alternativ können die Schritte
Anhand der
In einem ersten Schritt
In einem dritten Schritt
In einem vierten Schritt
In einem fünften Schritt
In einem sechsten Schritt
In einem siebten Schritt
Sofern in dieser Anmeldung von Künstlicher Intelligenz gesprochen wird, handelt es sich unter anderem um die Verwendung eines klassischen Convolutional Neural Networks - CNN - aus einem oder mehreren Convolutional Layer, gefolgt von einem Pooling Layer. Diese Folge aus Convolutional Layer und Pooling Layer kann sich prinzipiell beliebig oft wiederholen. In der Regel liegt die Eingabe als zwei- oder dreidimensionale Matrix, z. B. die Pixel eines Graustufen- oder Farbbildes, vor. Dementsprechend sind die Neuronen im Convolutional Layer angeordnet.Insofar as this application speaks of artificial intelligence, it involves, among other things, the use of a classic convolutional neural network - CNN - consisting of one or more convolutional layers, followed by a pooling layer. In principle, this sequence of convolutional layer and pooling layer can be repeated as often as required. As a rule, the input is a two- or three-dimensional matrix, e.g. B. the pixels of a grayscale or color image. Accordingly, the neurons are arranged in the convolutional layer.
Die Aktivität jedes Neurons wird über eine diskrete Faltung (convolutional) berechnet. Intuitiv wird dabei schrittweise eine vergleichsweise kleine Faltungsmatrix (Filterkernel) über die Eingabe bewegt. Die Eingabe eines Neurons im Convolutional Layer berechnet sich als inneres Produkt des Filterkernels mit dem aktuell unterliegenden Bildausschnitt. Dementsprechend reagieren benachbarte Neuronen im Convolutional Layer auf sich überlappende Bereiche.The activity of each neuron is calculated using a discrete convolutional convolution. Intuitively, a comparatively small convolution matrix (filter kernel) is gradually moved over the input. The input of a neuron in the convolutional layer is calculated as the inner product of the filter kernel with the current image section. Accordingly, neighboring neurons in the convolutional layer react to overlapping areas.
Ein Neuron in diesem Layer reagiert nur auf Reize in einer lokalen Umgebung des vorherigen Layers. Dies folgt dem biologischen Vorbild des rezeptiven Feldes. Zudem sind die Gewichte für alle Neuronen eines Convolutional Layers identisch (geteilte Gewichte, englisch: shared weights). Dies führt dazu, dass beispielsweise jedes Neuron im ersten Convolutional Layer codiert, zu welcher Intensität eine Kante in einem bestimmten lokalen Bereich der Eingabe vorliegt. Die Kantenerkennung als erster Schritt der Bilderkennung besitzt hohe biologische Plausibilität. Aus den shared weights folgt unmittelbar, dass Translationsinvarianz eine inhärente Eigenschaft von CNNs ist.A neuron in this layer only responds to stimuli in a local environment of the previous layer. This follows the biological model of the receptive field. In addition, the weights are identical for all neurons of a convolutional layer (shared weights). The result of this is that, for example, each neuron in the first convolutional layer encodes the intensity at which an edge is present in a specific local area of the input. Edge detection as the first step in image recognition has high biological plausibility. It immediately follows from the shared weights that translation invariance is an inherent property of CNNs.
Der mittels diskreter Faltung ermittelte Input eines jeden Neurons wird nun von einer Aktivierungsfunktion, bei CNNs üblicherweise Rectified Linear Unit, kurz ReLu (f(x) = max(0, x), in den Output verwandelt, der die relative Feuerfrequenz eines echten Neurons modellieren soll. Da Backpropagation die Berechnung der Gradienten verlangt, wird in der Praxis eine differenzierbare Approximation von ReLu benutzt: f(x) = In(1 +ex). Analog zum visuellen Cortex steigt in tiefer gelegenen Convolutional Layers sowohl die Größe der rezeptiven Felder als auch die Komplexität der erkannten Features.The input of each neuron, determined by means of discrete convolution, is now converted into the output by an activation function, usually CNLs Rectified Linear Unit, or ReLu (f (x) = max (0, x)), which models the relative fire frequency of a real neuron Since back propagation requires the computation of the gradients, a differentiable approximation of ReLu is used in practice: f (x) = In (1 + e x ). Analogously to the visual cortex, the size of the receptive fields increases in lower convolutional layers as well as the complexity of the identified features.
Im folgenden Schritt, dem Pooling, werden überflüssige Informationen verworfen. Zur Objekterkennung in Bildern etwa, ist die exakte Position einer Kante im Bild von vernachlässigbarem Interesse - die ungefähre Lokalisierung eines Features ist hinreichend. Es gibt verschiedene Arten des Poolings. Mit Abstand am stärksten verbreitet ist das Max-Pooling, wobei aus jedem 2 × 2 Quadrat aus Neuronen des Convolutional Layers nur die Aktivität des aktivsten (daher „
Der Einsatz des Convolutional Neural Networks und der Segmentierung- und Datenreduzierungseinrichtung
Für die Klassifikation durch den Klassifikator
In
Das Bild
Da jedoch ein einzelner Pixel nicht die nötige Information enthält, um eine Aussage über die Klassenzugehörigkeit zu treffen, muss eine umliegende Fläche zur Klassifikation herangezogen werden. Diese Fläche kann dann mit einen Convolution Neuronalen Netzwerk (
Das Eingangsbild
Anschließend wird ein neuer Bildausschnitt, in der Regel ein Bildausschnitt das um einen Pixel verschoben ist, gewählt und wieder mittels
Mittels einfacher Segmentierung und Datenreduktion durch die Segmentierungs- und Datenreduktionseinheit
In einem ersten Schritt
In einem nächsten Schritt
In einem nächsten Schritt
Jedes Pixel basierend auf dem HSV-Farbmodell wird im Hinblick auf die Farbsättigung (saturation) anhand eines Schwellenwertes bewertet, wobei wenn der Wert der Farbsättigung einen Schwellenwert übersteigt, dass Pixel dem binären Wert
Parallel hierzu wird jedes Pixel basierend auf dem HSV-Farbmodell im Hinblick auf den Farbwinkel (hue) anhand eines vorbestimmten Bereiches bewertet, wobei wenn der Farbwinkel in dem vorbestimmten Bereich liegt, das Pixel dem binären Wert
In einem nächsten Schritt
Aus der Segmentierung aus
Damit ergibt sich die erste Optimierung: Bevor das gesamte Bild
Durch die Segmentierung wird der Hintergrund
Der Rote Fall
Im Gelben Fall
Im Blauen Fall
Nach Betrachtung dieser drei Fälle
Dies verlangt eine Überprüfung jedes in der Segmentierung gefundenen Pflanzenpixels. Da diese Kontrolle ein zu großer Aufwand ist und der Gelbe Fall
Daher kann die Berechnung dahingehend optimiert werden, dass die Feature-Berechnung und alle anderen Elemente des CNNs nur auf die gefundenen Pflanzenpixel angewendet werden sollen.Therefore, the calculation can be optimized so that the feature calculation and all other elements of the CNN should only be applied to the plant pixels found.
In
Bei genauer Betrachtung kann festgestellt werden, dass der betrachtete Bereich (Rot/Purpur)
In
Durch diese Optimierungen erfolgen jedoch auch Veränderungen am Ergebnis der Klassifikation. Den größten Einfluss haben hierbei die Pooling Schichten. Bei jedem Pooling wird Information aus dem Netzwerk entfernt. Durch das nicht mehr vorhandene einzelne Betrachten der Bildelemente verliert das Pooling jedoch einen örtlichen Bezug. Die
In der
Ein weiterer Unterschied stellen die fehlenden Randbereiche der Pflanzen dar. Da die Features nicht auf alle Elemente angewendet werden indem sie irgendeine Überlappung mit der Pflanze besitzen, existieren hier Berechnungsunterschiede. Auch dies kann das Klassifikationsergebnis verändern zu der herkömmlichen Berechnung.Another difference is the missing border areas of the plants. Since the features are not applied to all elements by having any overlap with the plant, there are calculation differences here. This can also change the classification result compared to the conventional calculation.
Die fehlende Berechnung der Feature-Werte außerhalb der Pflanze können dahingehend andere Werte hervorrufen, da das Ergebnis mit Null ausgewiesen wird, was allerdings in Wirklichkeit der Biaswert ist.The lack of calculation of the feature values outside the plant can lead to other values, since the result is shown with zero, which is actually the bias value.
Zwar beeinflussen diese drei Faktoren die Ergebnisse, jedoch zeigt sich dass das
Der nächste Schritt wäre, das Netzwerk direkt mit diesen Modifikationen zu trainieren, damit das Netzwerk sich noch besser auf seine neue Berechnung einstellen kann und somit etwaige Fehler direkt in der Berechnung kompensiert.The next step would be to train the network directly with these modifications so that the network can adjust itself even better to its new calculation and thus compensate for any errors in the calculation directly.
Die Segmentierung- und Datenreduktionseinrichtung versieht die Pixel betreffend das Unkraut
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 1010
- Trägersystemcarrier system
- 1212
- Flugdrohnedrone
- 12a12a
-
Aufnahme, Aufnahmeraum der Flugdrohne
12 Recording, recording room of theflight drone 12 - 12b12b
- Steuereinrichtung der FlugdrohneControl device of the flight drone
- 1414
- mobile Vorrichtungmobile device
- 14a14a
- erste Einheitfirst unit
- 14b14b
- zweite Einheitsecond unit
- 14c14c
-
Aufnahme für Greifarm an der mobilen Vorrichtung
14 Holder for gripper arm on themobile device 14 - 1616
- Antriebdrive
- 1818
- Elektromotorelectric motor
- 2020
- Propellerpropeller
- 2222
- Füßefeet
- 2424
- Batteriebattery
- 26a26a
-
Spannungsschnittstelle an der Flugdrohne
12 Voltage interface on thedrone 12 - 26b26b
-
Spannungsschnittstelle an der mobilen Vorrichtung
14 Voltage interface on themobile device 14 - 2828
- Steckverbindungconnector
- 3030
- Kommunikationseinheitcommunication unit
- 3232
- Antenneantenna
- 3434
- GPS EinheitGPS unit
- 36a36a
-
Schnittstelle an der Flugdrohne
12 Interface on theflight drone 12 - 36b36b
-
Schnittstelle an der mobilen Vorrichtung
14 Interface on themobile device 14 - 3838
- Steckverbindungconnector
- 4040
-
erstes Gehäuse der ersten Einheit
14a first housing of thefirst unit 14a - 42 42
-
zweites Gehäuse der zweiten Einheit
14b second housing of thesecond unit 14b - 4444
- Steckverbindungconnector
- 4646
- erster Rechnerfirst computer
- 4848
- Arm als AktorArm as an actuator
- 5050
- Motorengine
- 5252
- Werkzeugeinheittool unit
- 5454
- Vorschubeinheitfeed unit
- 5656
- Rotationseinheitrotation unit
- 5858
- Fräsemilling machine
- 6060
-
erste Kommunikationseinheit der ersten Einheit
14a first communication unit of thefirst unit 14a - 6262
- visuelle Detektionseinheitvisual detection unit
- 6464
- Kameracamera
- 6666
- Segmentierung- und DatenreduktioneinrichtungSegmentation and data reduction facility
- 6868
- Klassifikatorclassifier
- 70a70a
-
Schnittstelle der ersten Einheit
14a Interface of thefirst unit 14a - 70b70b
-
Schnittstelle der zweiten Einheit
14b Interface of thesecond unit 14b - 7272
- Kommunikationsverbindungcommunication link
- 7474
-
zweite Kommunikationseinheit der zweiten Einheit
14b second communication unit of thesecond unit 14b - 7676
- zweiter Rechnersecond computer
- 7878
- DatenbankDatabase
- 8080
- Steckverbindungconnector
- 82a82a
- Greifarm, linksGripper arm, left
- 82b82b
- Greifarm, rechtsGripper arm, right
- 8484
- erster Schritt: Ermitteln der notwendigen Maßnahmenfirst step: identify the necessary measures
- 8686
-
zweiter Schritt: Aussuchen der mobilen Vorrichtung
14 aus der zur Verfügung stehenden mobilen Vorrichtungen14 second step: selecting themobile device 14 from the availablemobile devices 14 - 8888
-
dritter Schritt: Verbinden der Vorrichtung mit der Flugdrohne
12 third step: connecting the device to theflight drone 12 - 9090
- vierter Schritt: Durchführen der ermittelten Maßnahmenfourth step: implementation of the identified measures
- 9292
-
fünfter Schritt: austauschen der mobilen Vorrichtung
14 gegen eine andere mobile Vorrichtung14 und Durchführung einer weiteren Maßnahmefifth step: replace themobile device 14 against anothermobile device 14 and take another action - 9494
- erster Schritt: kontinuierliche Aufnahmefirst step: continuous recording
- 9696
- zweiter Schritt: Übermittlung der Datensecond step: transmission of the data
- 9898
- dritter Schritt: Speicherung der Datenthird step: storage of the data
- 100100
- vierter Schritt: Datenabgleichfourth step: data comparison
- 102102
-
fünfter Schritt: Bewertung durch den Klassifikator
68 fifth step: evaluation by theclassifier 68 - 104104
- sechster Schritt: Umsetzung in Regelung-und steuerungstechnische Datensixth step: implementation in regulation and control engineering data
- 106106
- siebter Schritt: Anfahren der Aggregateseventh step: starting the units
- 108108
- Beispielsbild, EingangsbildExample picture, input picture
- 110110
- Pflanzeplant
- 112112
- Convolutionconvolution
- 114114
- Poolingpooling
- 116116
- Zusammenfassung in einer Dense-SchichtSummary in a dense layer
- 118118
- Hintergrundbackground
- 120120
- erster Schritt: Überführen in ein RGB-Farbmodellfirst step: convert to an RGB color model
- 122122
- zweiter Schritt: Transferieren in ein HSV-Farbmodellsecond step: transfer to an HSV color model
- 124124
- dritter Schritt: Bewertung des HSV-Bildesthird step: evaluation of the HSV image
- 126126
- vierter Schritt: Erzeugen eines Zwischenbildesfourth step: generation of an intermediate image
- 128128
- erster Fall, rotfirst case, red
- 130130
- zweiter Fall, gelbsecond case, yellow
- 132132
- dritter Fall, blauthird case, blue
- 134134
- Featurefeature
- 136136
- Pflanzenpixel, linksPlant pixels, left
- 138138
- Pflanzenpixel, rechtsPlant pixel, right
- 140140
- blauer Bereichblue area
- 142142
- purpurner Bereichpurple area
- 144144
- roter Bereichred area
- 146146
- oranger Bereichorange area
- 148148
- Feature, grünFeature, green
- 150150
- mittlerer schwarzer Kastenmedium black box
- 152152
- Karottenpflanzecarrot plant
- 154154
- Unkraut, BeikrautWeeds, weeds
- 156156
- Bildelement, linksImage element, left
- 158158
- roter Rahmenred frame
- 160160
- Bildelement, rechtsImage element, right
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- DE 4039797 A1 [0004]DE 4039797 A1 [0004]
- DE 102015209879 A1 [0005]DE 102015209879 A1 [0005]
- DE 102015209891 A1 [0006]DE 102015209891 A1 [0006]
- DE 102005050302 A1 [0009]DE 102005050302 A1 [0009]
- DE 102006009753 B3 [0010]DE 102006009753 B3 [0010]
Claims (23)
Priority Applications (19)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018120756.5A DE102018120756A1 (en) | 2018-08-24 | 2018-08-24 | Mobile analysis and processing device, method and carrier system |
CN201980055947.3A CN112955841A (en) | 2018-08-24 | 2019-08-22 | Transport carrier system with transport carrier and moving device for soil treatment and/or animal and plant group analysis operations and method thereof |
HRP20230366TT HRP20230366T1 (en) | 2018-08-24 | 2019-08-22 | Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor |
LTEPPCT/EP2019/072521T LT3841444T (en) | 2018-08-24 | 2019-08-22 | Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor |
AU2019324525A AU2019324525A1 (en) | 2018-08-24 | 2019-08-22 | Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor |
KR1020217008621A KR20210047918A (en) | 2018-08-24 | 2019-08-22 | Carrier system and method comprising a carrier and a mobile device for cultivation of soil and/or control of animals and plants |
RS20230316A RS64154B1 (en) | 2018-08-24 | 2019-08-22 | Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor |
SI201930520T SI3841444T1 (en) | 2018-08-24 | 2019-08-22 | Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor |
ES19765969T ES2942444T3 (en) | 2018-08-24 | 2019-08-22 | Carrier system with a carrier and a mobile device for processing soil and/or for handling flora and fauna and method for this |
HUE19765969A HUE061887T2 (en) | 2018-08-24 | 2019-08-22 | Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor |
CA3111249A CA3111249A1 (en) | 2018-08-24 | 2019-08-22 | Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor |
DK19765969.1T DK3841444T3 (en) | 2018-08-24 | 2019-08-22 | Carrier system with a carrier and a mobile device for working the soil and/or for manipulating the flora and fauna and method therefor |
FIEP19765969.1T FI3841444T3 (en) | 2018-08-24 | 2019-08-22 | Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor |
US17/268,529 US20220117146A1 (en) | 2018-08-24 | 2019-08-22 | Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor |
PCT/EP2019/072521 WO2020039045A1 (en) | 2018-08-24 | 2019-08-22 | Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor |
PL19765969.1T PL3841444T3 (en) | 2018-08-24 | 2019-08-22 | Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor |
PT197659691T PT3841444T (en) | 2018-08-24 | 2019-08-22 | Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor |
EP19765969.1A EP3841444B1 (en) | 2018-08-24 | 2019-08-22 | Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor |
IL281046A IL281046A (en) | 2018-08-24 | 2021-02-23 | Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018120756.5A DE102018120756A1 (en) | 2018-08-24 | 2018-08-24 | Mobile analysis and processing device, method and carrier system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018120756A1 true DE102018120756A1 (en) | 2020-02-27 |
Family
ID=69412541
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018120756.5A Pending DE102018120756A1 (en) | 2018-08-24 | 2018-08-24 | Mobile analysis and processing device, method and carrier system |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102018120756A1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020002718A1 (en) | 2020-05-06 | 2021-11-11 | Wolfram Strothmann | Device and method for selective, mechanical weed regulation with resettable evasive movement of tool actuator units |
DE102020002720A1 (en) | 2020-05-06 | 2021-11-11 | Wolfram Strothmann | Cylinder drive for executing highly dynamic linear strokes |
DE102020002721A1 (en) | 2020-05-06 | 2021-11-11 | Wolfram Strothmann | Multi-row machine and method for the mechanical regulation of weeds and pests. |
DE102020002719A1 (en) | 2020-05-06 | 2021-11-11 | Wolfram Strothmann | Device and method for controllable, dynamic mechanical processing of objects with passively driven tools |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160307448A1 (en) * | 2013-03-24 | 2016-10-20 | Bee Robotics Corporation | Hybrid airship-drone farm robot system for crop dusting, planting, fertilizing and other field jobs |
-
2018
- 2018-08-24 DE DE102018120756.5A patent/DE102018120756A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160307448A1 (en) * | 2013-03-24 | 2016-10-20 | Bee Robotics Corporation | Hybrid airship-drone farm robot system for crop dusting, planting, fertilizing and other field jobs |
Non-Patent Citations (6)
Title |
---|
BoniRob – mit Bolzen gegen Unkräuter. Artikel aus "topagrarONLINE" vom 29.3.2018, am 3.7.2019 recherchiert unter dem URL https://www.topagrar.com/acker/news/bonirob-mit-bolzen-gegen-unkraeuter-9844736.html . * |
KNOLL, F. J. [et al.]: CPU architecture for a fast and energy-saving calculation of convolution neural networks. Proc. SPIE 10335, Digital Optical Technologies 2017, 103351M (26 June 2017); doi: 10.1117/12.2270282 . * |
KNOLL, F. J. [et al.]: Vegetation index determination method based on color room processing for weed control applications in organic farming. IEEE International Instrumentation and Measurement Technology Conference Proceedings, 2016, 6 Seiten; doi: 10.1109/I2MTC.2016.7520508 . * |
RUEDA-AYALA, V. [et al.]: Mechanical Weed Control. Chapter 17 in "Precision Crop Protection – the Challenge and Use of Heterogeneity, E.-C. Oerke [et al.] (eds.), Springer, 2010, S. 279-294; doi: 10.1007/978-90-481-9277-9_17 . * |
So vernichtet Roboter Bonirob Unkraut. Artikel aus „Ingenieur.de" vom 16.11.2015, am 3.7.2019 recherchiert unter dem URL https://www.ingenieur.de/technik/fachbereiche/landtechnik/so-vernichtet-roboter-bonirob-unkraut/ . * |
VAN DER WEIDE, R. Y. [et al.]: Innovation in mechanical weed control in crop rows. Weed Research, Vol. 48, 2008, S. 215-224. * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020002718A1 (en) | 2020-05-06 | 2021-11-11 | Wolfram Strothmann | Device and method for selective, mechanical weed regulation with resettable evasive movement of tool actuator units |
WO2021223903A1 (en) | 2020-05-06 | 2021-11-11 | Strothmann Wolfram | Device and method for selectively, mechanically controlling weeds by means of a restorable evasive movement of tool actuator units |
DE102020002720A1 (en) | 2020-05-06 | 2021-11-11 | Wolfram Strothmann | Cylinder drive for executing highly dynamic linear strokes |
DE102020002721A1 (en) | 2020-05-06 | 2021-11-11 | Wolfram Strothmann | Multi-row machine and method for the mechanical regulation of weeds and pests. |
DE102020002719A1 (en) | 2020-05-06 | 2021-11-11 | Wolfram Strothmann | Device and method for controllable, dynamic mechanical processing of objects with passively driven tools |
WO2021223902A1 (en) | 2020-05-06 | 2021-11-11 | Strothmann Wolfram | Multirow machine and method for mechanically regulating weeds and pests |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018120756A1 (en) | Mobile analysis and processing device, method and carrier system | |
DE102016212623A1 (en) | UAV-based sensing for workflows in a workspace | |
EP3434092A1 (en) | Automatically movable external work device | |
EP3782467A1 (en) | Method for identifying weeds within a defined row of plants of an agricultural area | |
DE102019203247A1 (en) | Vision-based steering assistance system for land vehicles | |
WO2021105019A1 (en) | Method for generating a plurality of annotated images | |
DE102019218192A1 (en) | Method of working crops in a field | |
EP3841444B1 (en) | Carrier system comprising a carrier and a mobile device for tilling the soil and/or for manipulating flora and fauna, and method therefor | |
EP3575912A1 (en) | Robotic mower | |
WO2020039046A1 (en) | Mobile analysis and processing device | |
EP4064819B1 (en) | Method for treating plants in a field, for generating training data and for training a neural network | |
DE102018120755A1 (en) | Carrier system with a carrier and a mobile device for working the soil and / or for manipulating the flora and fauna and method therefor | |
WO2021105017A1 (en) | Method for processing plants in a field | |
EP4064818B1 (en) | Method for treating plants in a field | |
DE102022206224A1 (en) | Method for automatically labeling input images, training images, method for training or retraining a weed analyzer, analysis device, computer program and machine-readable storage medium | |
DE102022207830A1 (en) | Weed detection with polar masks | |
EP4245135A1 (en) | Conducting and documenting an application of plant protection agents | |
DE102022115549A1 (en) | Method for the optimized configuration of a camera system for row detection in a field | |
DE102020215877A1 (en) | Method of classifying plants for agricultural purposes | |
DE202022101733U1 (en) | A crop counting system based on artificial intelligence and machine learning | |
DE102022212171A1 (en) | Method for classifying plants in and/or between rows of plants in an agricultural area | |
DE102022212162A1 (en) | Method for determining a plant index of plants in a row of plants in an agricultural area |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R082 | Change of representative |
Representative=s name: PUSCHMANN BORCHERT BARDEHLE PATENTANWAELTE PAR, DE Representative=s name: PUSCHMANN BORCHERT KAISER KLETTNER PATENTANWAE, DE |
|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |