WO2019063255A1 - Method for recognizing a leaf edge, method for the targeted treatment of plants by means of a leaf treatment agent, and use of an event-based image sensor for the recognition of a leaf edge - Google Patents

Method for recognizing a leaf edge, method for the targeted treatment of plants by means of a leaf treatment agent, and use of an event-based image sensor for the recognition of a leaf edge Download PDF

Info

Publication number
WO2019063255A1
WO2019063255A1 PCT/EP2018/073932 EP2018073932W WO2019063255A1 WO 2019063255 A1 WO2019063255 A1 WO 2019063255A1 EP 2018073932 W EP2018073932 W EP 2018073932W WO 2019063255 A1 WO2019063255 A1 WO 2019063255A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
event
plant
polarity
image
Prior art date
Application number
PCT/EP2018/073932
Other languages
German (de)
French (fr)
Inventor
Gregor Blott
Damian Koesters
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to BR112020002571-2A priority Critical patent/BR112020002571A2/en
Priority to EP18765629.3A priority patent/EP3688660A1/en
Publication of WO2019063255A1 publication Critical patent/WO2019063255A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB

Definitions

  • Method for detecting a sheet edge Method for targeted treatment of plants with a foliar treatment agent and use of an event-based image sensor for detecting a sheet edge
  • the present invention relates to a method for detecting a sheet edge, a method for the targeted treatment of plants with a
  • Sheet handling means a use of an event-based image sensor for detecting a sheet edge, a computer program, a machine-readable storage medium and an electronic control unit.
  • the dynamic range is in a single image with direct
  • NDVI Normalized Difference Vegetation Index
  • the NDVI is calculated as the difference in near infrared reflectance and red visible range divided by the sum of these reflectance values.
  • the NDVI is the most commonly used vegetation index and has historically been defined for remote sensing tasks.
  • DVS Dynamic Vision Sensor
  • the Dynamic Vision sensor does not take like classic image sensors
  • CMOS technology images at equidistant time intervals, but measures intensity differences, so-called events, at individual pixel locations and only instantaneously sends them with microsecond accuracy and millisecond latency. If the intensity of a pixel does not change or only slightly changes, no event will be triggered and no data will be sent for that pixel.
  • Change sensor detects an event, for example, a change by a certain percentage or by a certain amount. Other definitions of change are possible.
  • the change sensor is configured to determine intensity changes in a pixel from a time tnl to a time tn2 as intensity data.
  • tn2 - tnl dt2, where dt2 ⁇ 10 "is 4 seconds
  • the time interval dt2 results from the time points of an intensity change detected by the change sensor
  • the times tnl and tn2 and the time interval dt2 are preferably variable and / or not necessarily constant for different intensity changes
  • the time interval dt2 is variable and results from the detected intensity changes in a cell and / or from the transmission rate of the change sensor. Disclosure of the invention
  • the sheet edge detection method comprises, as a first step, acquiring events of an image of a plant or vegetation
  • Such an image of a vegetated soil usually has mainly two types of areas. On the one hand, this is an area in which the color green predominates, which comes from the chlorophyll of the plants.
  • this is an area where a brownish color from the ground predominates.
  • a plant is to be understood as meaning a plant with leaves whose leaves contain chlorophyll.
  • Vegetation has a very low visible level
  • the reflection coefficient of dry soil changes less strongly from the red to the NI R range.
  • the corresponding value of the reflection coefficient is about 25% in the red region and about 30 to 35% in the NI R region.
  • the reflection coefficient of the vegetation is significantly higher than the reflection coefficient of the dry soil.
  • the reflection coefficient of the dry soil is usually larger than that
  • Reflection coefficient of vegetation however, the reflection coefficient of the vegetation in the direction of the NI R range is greater than the reflection coefficient of the dry soil.
  • the method uses a bottom resolution between 0.5 and 1 mm per pixel for the determination of a sheet edge.
  • This ground resolution is that it allows the so-called leaf edge curve to be detected by conventional means.
  • this type of detection is very fast and allows a high dynamic range. This ensures a reliable analysis of the sheet edge curve in real time.
  • a bandpass filter of a first frequency range is arranged in front of a first pixel of the image sensor and a bandpass filter of a second frequency range is arranged in front of a second pixel adjacent to the first pixel.
  • the first frequency range is equal to the second frequency range. This allows the use of a filter that uses machine learning for false positive removal.
  • the first frequency range is preferably the near infrared and the second frequency range is a red spectral range.
  • Spectral range a sheet edge can be reliably detected.
  • the method it is determined that a leaf margin has been detected if the first pixel at a first time tl at least one event of a first Polarity and the second pixel detected at a time t2 at least one event of a second polarity, wherein the first and second polarity are opposite, and that the at least one event of a first polarity of the first pixel and the at least one event of a second polarity of the second pixel the same Place of plant-covered soil corresponds.
  • the term "the same place is to be understood as meaning the plant-covered ground", in particular adjacent pixels of a single image, or alternatively pixels with a spacing of up to three pixels can be understood Plant-covered soil both in the first and in the second
  • Frequency range has an equally intense lighting.
  • the method it is determined that a leaf margin has been detected if the detected events were detected at only the first or the second pixel.
  • This can be achieved in particular by suitable selection of threshold values of the object contrast.
  • the thresholds for on and off events can be set separately.
  • Thresholds may also be used for the different channels, i. the R channel and the NI R channel are set separately. This case occurs, among other things, if the ground is dark or light.
  • the threshold values it can be achieved for any brightness conditions that either the above-mentioned first case, according to which adjacent pixels have an opposite polarity, or the above-mentioned second case, after which only one is present at adjacent pixels
  • the same information can also be deduced from the brightness histogram of the frame.
  • the method of scene reconstruction is suitable, which is e.g. among others in the scientific publication entitled “Real-Time 3D Reconstruction and 6-DoF Tracking with an Event Camera” by Hanme Kim, Stefan
  • the brightness histogram is in at least one of the two
  • Bimodal color channels in the case of the average ground brightness even in both, thereby allowing automatic definition of the contrast threshold in the event generation, e.g. by Otsu method.
  • intensity changes at the individual pixel positions represent events.
  • a detected event is sent immediately to a computing unit with microsecond accuracy and millisecond latency. If only the two adjacent pixels are considered in the time period, the event-based image sensor provides a time-dependent function for each pixel, which indicates for each time point whether an event was detected or not. If an event has been detected, the function additionally gives the
  • time window When events are considered to be simultaneous depends on a time window.
  • the size of the time window depends on ground resolution and speed. If e.g. If two pixels represent one millimeter and the speed is 1 meter per second, then events with a time difference of approximately half a millisecond are to be regarded as simultaneous. As described elsewhere, one then detects a leaf margin with opposite polarity of the events.
  • the method described can be used to extract leaf margin information and to determine the associated plant species in real time.
  • the method generates a low data rate through the use of event-based image sensors, which has an advantageous effect on subsequent data processing and enables efficient local calculations on the camera and field spray modules. Particularly advantageous is the high robustness of the
  • the duration between the two times t1 and t2 for a given direction of travel depends on a first direction, which extends from a center point of the first pixel to a center point of the second pixel, and a second direction, which corresponds to a tangential direction of the page edge.
  • the events are detected with an event-based image sensor.
  • the event-based image sensor is preferably a DVS sensor. Since the detected events usually require much less memory than the
  • the amount of data delivered by a DVS camera is much less than that of a regular image sensor. Furthermore, the processing speed of a DVS sensor is much faster than with ordinary cameras. Since a DVS sensor looks at individual pixels independently, a much higher dynamic range up to 130 d B is possible. This high dynamic range prevents overexposed image areas, which in turn allows a more reliable image analysis and thus a more accurate detection of the sheet edge.
  • the bottom resolution is between 0.1 and 1 mm per pixel.
  • finer structures can advantageously be resolved in the recorded images. This helps to differentiate between different plant species more reliably.
  • a color filter array (C FA) of band pass filters in the NI R and R spectral range is arranged in front of the image sensor.
  • the R-spectral range stands for the red spectral range.
  • the two different bandpass filters can advantageously be arranged in a checkerboard pattern. This advantageously achieves that next to each pixel with NI R bandpass filter is a pixel with bandpass filter in the red spectral range. This in turn has the advantage that a sheet edge detection can be performed for each pixel. According to another embodiment, the two are different
  • the color filter array is NDVI optimized.
  • An NDVI-optimized color filter array is understood to mean that the color filter array optimally distinguishes between the NI R and the red spectral region so that the NDVI index has high expressivity. This is especially the case when the NI R band pass filter of the color filter array is centered around 850 nm and the R band pass filter of the color filter array is centered around 660 nm.
  • the respective bandpass filters preferably have a width of 20 nm.
  • Such a color filter array is an optimal distinction between
  • a bandpass filter of a third frequency range is arranged in front of a third pixel of the image sensor.
  • the color filter array has a third bandpass filter, which is preferably in the green color range.
  • the accuracy of the detection of the sheet edge can be further increased.
  • other indexes such as e.g. Excessive Green, to be used.
  • the color filter array is optimized for other filters, for example for the Excessive Green Index.
  • the soil which is overgrown with plants, has equally intense illumination both in the first and in the second frequency range. If this is not the case, alternatively the intensity in the first frequency range and in the second frequency range is determined. This can also be done pixel by pixel. Preferably, a new image is calculated in which the intensity in the first and second frequency ranges is the same or identical. This can also be done pixel by pixel.
  • a passing object is measured several times. A passing object is an object that passes through a detection area of the event-based image sensor. Since the vehicle speed and direction of travel and the orientation and position of the event-based image sensor relative to the vehicle are known, an object detected by the image sensor can be tracked.
  • a plant height of a plant is determined from at least one image of the soil covered with plants.
  • an image is understood as an image taken with an event-based image sensor.
  • the stature height is determined from a variety of images of the vegetated soil with soil. The prerequisite for this is that an interpretable flow field can be determined from the at least one image.
  • SfM Structure from motion
  • the determination of the stature height has the advantage that subsequent spraying operations can be dosed more accurately and thus can be flexibly adapted to the particular circumstances.
  • the method comprises a machine-based learning algorithm for recognizing a classification of the plant.
  • the method comprises a machine-based learning algorithm for recognizing a classification of the plant.
  • Foliar treatment agent recognizes a sheet edge in a first step of the method according to the method set out above.
  • a leaf shape of the plant is detected based on the recognized leaf margin of the plant.
  • a leaf margin is detected for each pixel pair in which only one pixel predominantly detects events. Accordingly, any location of the sheet edge can be recognized for the entire still image. If each location of the leaf margin is known, a leaf shape can be determined or recognized. For a moving image, a leaf shape can be determined for each time you see the leaf.
  • a classification of the plant is determined on the basis of the specific leaf shape of the plant. This has the advantage that the thus classified plant can be specifically treated with a suitable agent for this plant.
  • Classification of the plant appropriate means treated. This advantageously ensures that certain plants are selective or targeted can be treated. For example, it is possible for weeds to be specifically treated with a weed control or herbicide. Alternatively or additionally, other recognized plants may be treated by other means.
  • Such agent is especially a pesticide, a pesticide, an insecticide, a fungicide, a herbicide, a biocide, a bactericide
  • Virucide an acaricide, an avicide, a molluscicide, a nematicide, an ovicide or a rodenticide.
  • the targeted treatment of the plant with a suitable agent for this plant has the advantage that no resources are wasted, in particular no plants are damaged because no plant is treated with an inappropriate agent.
  • the method for the targeted treatment of plants enables a rapid differentiation between the different plant species and, based on this, a targeted treatment of the respective plant species with the appropriate agent.
  • the invention relates to a use of an event-based image sensor for detecting a sheet edge using images recorded by an event-based image sensor. This use has already been disclosed in the sheet edge detection method described above.
  • the computer program is set up to perform each step of the method, especially when running on an electronic controller or computing device. This refers to both the method for the detection of a leaf margin and the method for the targeted treatment of plants with a foliar treatment agent. This allows the implementation of the method in a conventional control unit, without constructive
  • the computer program is stored on a machine-readable storage medium.
  • the electronic control unit is obtained, which is set up to recognize a leaf margin or to treat a plant specifically.
  • FIG. 1 shows a flowchart of a method for sheet edge detection according to an exemplary embodiment of the invention.
  • FIG. 1 shows a flow chart of a method 100 for sheet edge detection.
  • a first step 110 of the method 100 events of an image of a vegetated soil at a ground speed relative to the ground are detected using an event-based image sensor.
  • the ground resolution used here is 0.5 mm per pixel and in front of the image sensor, an NDVI-optimized color filter array (CFA) of bandpass filters in the NI R and R spectral range is arranged.
  • the NI R band pass filter is centered around 850 nm and the R band pass filter centered at 660 nm.
  • a sheet edge was detected if the detected events of two adjacent pixels were detected predominantly only at one of the two adjacent pixels.
  • Step 120 is performed for all adjacent pixels of the captured events of the image. This also means that the method 100 repeatedly measures a passing object. Thus, one obtains the leaf margin for all recorded images of the plant, from which one can determine a leaf shape of the plant. In step 130 of the method 100, a plant height of a plant is determined from all images showing the same plant of the overgrown soil.
  • a machine-based learning algorithm is used to classify the plant based on the images of the leaf margin taken by the plant.
  • the classified plant is specifically treated with a leaf treatment agent corresponding to the classification of the plant.

Abstract

The invention relates to a method (100) for recognizing a leaf edge, comprising the following steps: sensing (110) events of an image of a ground covered with plants at a travel speed relative to the ground, a ground resolution of the image being between 0.5 and 1 mm per pixel, a bandpass filter of a first frequency range being arranged before a first pixel of the image and a bandpass filter of a second frequency range being arranged before a second pixel of the image; and determining (120) that a leaf edge has been recognized if the first pixel senses at least one event of a first polarity at a first time point t1 and the second pixel senses at least one event of a second polarity at a second time point t2, the first polarity and the second polarity being opposite, and the at least one event of a first polarity of the first pixel and the at least one event of a second polarity of the second pixel corresponding to the same location of the ground covered with plants, or if the detected events were detected either only at the first pixel or only at the second pixel. The invention further relates to a use of an event-based image sensor for the recognition of a leaf edge, a computer program, a machine-readable storage medium and an electronic control device.

Description

Beschreibung  description
Titel title
Verfahren zur Erkennung eines Blattrandes, Verfahren zur gezielten Behandlung von Pflanzen mit einem Blattbehandlungsmittel und Verwendung eines eventbasierten Bildsensors zur Erkennung eines Blattrandes  Method for detecting a sheet edge, method for targeted treatment of plants with a foliar treatment agent and use of an event-based image sensor for detecting a sheet edge
Die vorliegende Erfindung betrifft ein Verfahren zur Erkennung eines Blattrandes, ein Verfahren zur gezielten Behandlung von Pflanzen mit einem The present invention relates to a method for detecting a sheet edge, a method for the targeted treatment of plants with a
Blattbehandlungsmittel, eine Verwendung eines eventbasierten Bildsensors zur Erkennung eines Blattrandes, ein Computerprogramm, ein maschinenlesbares Speichermedium sowie ein elektronisches Steuergerät. Sheet handling means, a use of an event-based image sensor for detecting a sheet edge, a computer program, a machine-readable storage medium and an electronic control unit.
Stand der Technik State of the art
Das vorliegende technische Gebiet betrifft die Erkennung von Blättern oder Pflanzen auf einem Ackerboden durch Bildsensoren bei einer The present technical field relates to the detection of leaves or plants on a field soil by image sensors in a
Fahrtgeschwindigkeit von bis zu 20 km/h eines über den Ackerboden fahrenden Fahrzeugs. Travel speed of up to 20 km / h of a vehicle traveling over the field.
Es ist im Stand der Technik bekannt, dass die verfügbare Information in der Szene sinnvollerweise nur auf die Blattrand- Kurve reduziert ist, die mit einer Bodenauflösung zwischen 0,5 und 1 mm pro Pixel, der sogenannten Blattrand- Auflösung, erfasst werden kann. Dies liegt darin begründet, dass die Blatttextur als nächsthöhere Informationsebene erst mindestens bei Verzehnfachung der Bodenauflösung hinzugenommen werden kann, was bezüglich Datenmengen, Dynamikumfang des Sensors und Kosten für Sensor/Optik mit herkömmlichen Bildsensoren nicht praktikabel ist. It is known in the art that the information available in the scene is usefully reduced only to the sheet edge curve, which can be detected with a bottom resolution between 0.5 and 1 mm per pixel, the so-called sheet-edge resolution. This is due to the fact that the leaf texture can be added as the next higher information level only at least ten times the ground resolution, which is not practicable with respect to data quantities, dynamic range of the sensor and costs for sensor / optics with conventional image sensors.
Ferner ist der Dynamikumfang in einem einzelnen Bild bei direktem Furthermore, the dynamic range is in a single image with direct
Sonnenlichteinfall und vorhandenem Schlagschatten bereits bei der Blattrand- Auflösung an Erdklumpen oder Pflanzen sehr hoch. Bei dem begrenzten Dynamikumfang von ungefähr 60 bis 80 dB verwendbarer CMOS- Kameras bleiben zeitgleich über- und unterbelichtete Bildbereiche, mit denen kein sinnvoller normalisierter differenzierter Vegetationsindex (NDVI, engl. Normalized Difference Vegetation Index) berechnet werden kann. Der NDVI ist ein Sunlight and existing drop shadow already at the leaf margin resolution of clods or plants very high. In the limited Dynamic range of about 60 to 80 dB usable CMOS cameras remain at the same time overexposed and underexposed image areas, with which no meaningful Normalized Difference Vegetation Index (NDVI) can be calculated. The NDVI is a
Differenzindex aus Nahinfrarot- und Rotkanal zur Pflanzen- / Boden-Difference index from near infrared and red channel to plant / soil
Unterscheidung. Der NDVI berechnet sich als die Differenz der Reflexionswerte im nahen Infrarotbereich und des roten sichtbaren Bereichs geteilt durch die Summe dieser Reflexionswerte. Der NDVI ist der am häufigsten angewandte Vegetationsindex und wurde historisch für Fernerkundungsaufgaben definiert. Discrimination. The NDVI is calculated as the difference in near infrared reflectance and red visible range divided by the sum of these reflectance values. The NDVI is the most commonly used vegetation index and has historically been defined for remote sensing tasks.
Im Stand der Technik sind eventbasierte Bildsensoren oder Kameras, insbesondere DVS- Kameras (DVS = Dynamic Vision Sensor), bekannt. DVS- Kameras stellen eine änderungssensitive Form einer Kamera da, deren Event-based image sensors or cameras, in particular DVS cameras (DVS = Dynamic Vision Sensor), are known in the prior art. DVS cameras provide a change-sensitive form of a camera, whose
Funktionsweise aus der Biologie des menschlichen Auges heraus adaptiert wurde. Der Dynamic- Vision-Sensor nimmt nicht wie klassische BildsensorenFunctionality was adapted from the biology of the human eye out. The Dynamic Vision sensor does not take like classic image sensors
(z.B. CMOS-Technologie) in äquidistanten Zeitschritten Bilder auf, sondern misst Intensitätsdifferenzen, sogenannte Events, an einzelnen Pixelpositionen und sendet nur diese unverzüglich mit Mikrosekundengenauigkeit und Millisekunden- Latenz. Wenn sich die Intensität eines Pixels nicht oder nur geringfügig ändert, wird kein Event ausgelöst und für dieses Pixel keine Daten gesendet. Ein solcher(e.g., CMOS technology) images at equidistant time intervals, but measures intensity differences, so-called events, at individual pixel locations and only instantaneously sends them with microsecond accuracy and millisecond latency. If the intensity of a pixel does not change or only slightly changes, no event will be triggered and no data will be sent for that pixel. Such a
Sensor wird auch Veränderungssensor genannt. Sensor is also called change sensor.
Es kann eingestellt werden, ab welcher Intensitätdifferenz der It can be adjusted from which intensity difference the
Veränderungssensor ein Event erkennt, zum Beispiel bei einer Änderung um einen gewissen Prozentsatz oder um einen gewissen Betrag. Es sind auch andere Definitionen einer Änderung möglich. Der Veränderungssensor ist ausgebildet, Intensitätsänderungen in einem Pixel von einem Zeitpunkt tnl zu einem Zeitpunkt tn2 als Intensitätsdaten zu bestimmen. Insbesondere gilt, dass tn2 - tnl = dt2 ist, wobei dt2 < 10"4 Sekunden ist. Vorzugsweise ergibt sich das Zeitintervall dt2 aus den von dem Veränderungssensor detektierten Zeitpunkten einer Intensitätsänderung. Die Zeitpunkte tnl und tn2 sowie das Zeitintervall dt2 sind vorzugsweise veränderlich und/oder nicht zwangsläufig konstant für verschiedene Intensitätsänderungen. Beispielsweise ist das Zeitintervall dt2 variabel und ergibt sich aus den detektierten Intensitätsänderungen in einer Zelle und/oder aus der Übertragungsrate des Veränderungssensors. Offenbarung der Erfindung Change sensor detects an event, for example, a change by a certain percentage or by a certain amount. Other definitions of change are possible. The change sensor is configured to determine intensity changes in a pixel from a time tnl to a time tn2 as intensity data. In particular, tn2 - tnl = dt2, where dt2 <10 "is 4 seconds Preferably, the time interval dt2 results from the time points of an intensity change detected by the change sensor The times tnl and tn2 and the time interval dt2 are preferably variable and / or not necessarily constant for different intensity changes For example, the time interval dt2 is variable and results from the detected intensity changes in a cell and / or from the transmission rate of the change sensor. Disclosure of the invention
Das Verfahren zur Erkennung eines Blattrandes weist als ersten Schritt das Erfassen von Events eines Bildes eines mit Pflanzen oder Vegetation The sheet edge detection method comprises, as a first step, acquiring events of an image of a plant or vegetation
bewachsenen Bodens bei einer Fahrtgeschwindigkeit relativ zum Boden auf. overgrown soil at a ground speed relative to the ground.
Ein derartiges Bild eines mit Pflanzen bewachsenen Bodens weist in der Regel hauptsächlich zwei Arten von Bereichen auf. Zum einen ist dies ein Bereich, in dem die Farbe Grün vorherrscht, welche vom Chlorophyll der Pflanzen stammt.Such an image of a vegetated soil usually has mainly two types of areas. On the one hand, this is an area in which the color green predominates, which comes from the chlorophyll of the plants.
Zum anderen ist dies ein Bereich, in dem eine vom Boden stammende bräunliche Farbe vorherrscht. Unter einer Pflanze soll eine Pflanze mit Blättern verstanden werden, deren Blätter Chlorophyll enthält. On the other hand, this is an area where a brownish color from the ground predominates. A plant is to be understood as meaning a plant with leaves whose leaves contain chlorophyll.
Im Folgenden werden die Reflexionskoeffizienten von Vegetation und trockenem Boden beschrieben unter der Voraussetzung, dass im roten Spektralbereich und im nahen Infrarot gleich intensive Beleuchtung vorhanden ist und dass die verwendeten Sensoren eine gleiche spektrale Empfindlichkeit aufweisen. In the following, the reflection coefficients of vegetation and dry soil are described, provided that in the red spectral range and in the near infrared equally intense illumination is present and that the sensors used have the same spectral sensitivity.
Vegetation weist im sichtbaren Bereich einen sehr niedrigen Vegetation has a very low visible level
Reflexionskoeffizienten unter 25% auf, jedoch steigt der Reflexionskoeffizient vom roten Bereich zum NI R- Bereich, in dem er nahezu 50 % aufweist, steil an. Der Reflexionskoeffizient von trockenen Boden verändert sich weniger stark vom roten zum NI R- Bereich. Der entsprechende Wert des Reflexionskoeffizienten beträgt im roten Bereich ca. 25% und im NI R-Bereich ca. 30 bis 35%. Im ganzen NI R- Bereich ist der Reflexionskoeffizient der Vegetation deutlich höher als der Reflexionskoeffizient des trockenen Bodens. Im roten Spektralbereich ist der Reflexionskoeffizient des trockenen Bodens in der Regel größer als der Reflection coefficients below 25%, however, the reflection coefficient steeply increases from the red region to the NI R region where it is nearly 50%. The reflection coefficient of dry soil changes less strongly from the red to the NI R range. The corresponding value of the reflection coefficient is about 25% in the red region and about 30 to 35% in the NI R region. Throughout the NI R range, the reflection coefficient of the vegetation is significantly higher than the reflection coefficient of the dry soil. In the red spectral range, the reflection coefficient of the dry soil is usually larger than that
Reflexionskoeffizient der Vegetation, jedoch ist der Reflexionskoeffizient der Vegetation in Richtung des NI R-Bereichs größer als der Reflexionskoeffizient des trockenen Bodens. Reflection coefficient of vegetation, however, the reflection coefficient of the vegetation in the direction of the NI R range is greater than the reflection coefficient of the dry soil.
Unter diesen Voraussetzungen werden bei relativer Bewegung der Kamera zur Szene, z.B. nach rechts, an den Helligkeitsgradienten Events erzeugt. Diese sind für Boden-Boden- bzw. Boden-Stein-Übergänge wegen der nahezu konstanten Reflektivität zwischen R- und NI R- gefiltertem Event-Strom positiv korreliert. Für Vegetation ist die Reflektivitätsdifferenz beider Kanäle deutlich höher, so dass das Vorzeichen der Gradientenstärke im Fall eines Bodens mittlerer Reflektivität stets zwischen beiden Kanälen entgegengesetzt ist. Damit kehrt sich die ON-/OFF-Polarität der Events entsprechend um. Under these conditions, when the camera moves relative to the scene, eg to the right, events are generated at the brightness gradients. These are positively correlated for ground-to-ground and ground-to-stone transitions because of the nearly constant reflectivity between R and NI R filtered event current. For vegetation, the reflectivity difference of both channels is significantly higher, so that the sign of the gradient strength in the case of a bottom of medium reflectivity is always opposite between the two channels. This reverses the ON / OFF polarity of the events accordingly.
Falls der Boden dunkel ist, erhält man einen schwachen Gradienten im roten Kanal an den Pflanzenrändern und starke Gradienten im NI R-Kanal. Falls der Boden hell ist, erhält man starke Gradienten im R-Kanal an den Pflanzenrändern und schwache Gradienten im NI R-Kanal. If the soil is dark, you get a faint gradient in the red channel at the plant edges and strong gradients in the NI R channel. If the soil is light, there are strong gradients in the R channel at the plant edges and weak gradients in the NI R channel.
Das Verfahren benutzt für die Ermittlung eines Blattrandes eine Bodenauflösung zwischen 0,5 und 1 mm pro Pixel. Der Vorteil dieser Bodenauflösung liegt darin, dass damit die sogenannte Blattrand- Kurve mit herkömmlichen Mitteln erfasst werden kann. Zudem ist diese Art der Erfassung sehr schnell und ermöglicht einen hohen Dynamikumfang. Dies gewährleistet eine zuverlässige Analyse der Blattrand- Kurve in Echtzeit. The method uses a bottom resolution between 0.5 and 1 mm per pixel for the determination of a sheet edge. The advantage of this ground resolution is that it allows the so-called leaf edge curve to be detected by conventional means. In addition, this type of detection is very fast and allows a high dynamic range. This ensures a reliable analysis of the sheet edge curve in real time.
Ferner ist vor einem ersten Pixel des Bildsensors ein Bandpassfilter eines ersten Frequenzbereichs und vor einem zum ersten Pixel benachbarten zweiten Pixel ein Bandpassfilter eines zweiten Frequenzbereichs angeordnet. Durch eine solche benachbarte Anordnung von Bandpassfiltern kann ein unterschiedliches Verhalten in den entsprechenden spektralen Bereichen von unterschiedlichen Materialien detektiert werden. Furthermore, a bandpass filter of a first frequency range is arranged in front of a first pixel of the image sensor and a bandpass filter of a second frequency range is arranged in front of a second pixel adjacent to the first pixel. By such an adjacent arrangement of bandpass filters, a different behavior in the corresponding spectral regions of different materials can be detected.
In einer Ausführungsform des Verfahrens ist der erste Frequenzbereich gleich dem zweiten Frequenzbereich. Dies ermöglicht die Verwendung eines Filters, welcher ein Machine-Learning zur falsch-positiv- Entfernung verwendet. In one embodiment of the method, the first frequency range is equal to the second frequency range. This allows the use of a filter that uses machine learning for false positive removal.
Bevorzugt ist der erste Frequenzbereich allerdings das nahe Infrarot und der zweite Frequenzbereich ein roter Spektralbereich. Durch eine solche However, the first frequency range is preferably the near infrared and the second frequency range is a red spectral range. By such
benachbarte Anordnung von Bandpassfiltern im NI R- und im roten adjacent array of bandpass filters in the NI R and in the red
Spektralbereich kann ein Blattrand zuverlässig erkannt werden. Spectral range, a sheet edge can be reliably detected.
Gemäß dem Verfahren wird bestimmt, dass ein Blattrand erkannt wurde, falls der erste Pixel zu einem ersten Zeitpunkt tl mindestens ein Event einer ersten Polarität und der zweite Pixel zu einem Zeitpunkt t2 mindestens ein Event einer zweiten Polarität erfasst, wobei die erste und zweite Polarität entgegengesetzt sind, und dass das mindestens eine Event einer ersten Polarität des ersten Pixels und das mindestens ein Event einer zweiten Polarität des zweiten Pixels demselben Ort des mit Pflanzen bewachsenen Bodens entspricht. Hierbei ist unter dem Begriff„desselben Ortes das mit Pflanzen bewachsenen Bodens" insbesondere benachbarte Pixel eines Einzelbildes zu verstehen. Alternativ können hierunter auch Pixel im Abstand von bis zu drei Pixeln verstanden werden. Das oben genannte Merkmal ist insbesondere dann der Fall, falls der mit Pflanzen bewachsene Boden sowohl im ersten als auch im zweiten According to the method, it is determined that a leaf margin has been detected if the first pixel at a first time tl at least one event of a first Polarity and the second pixel detected at a time t2 at least one event of a second polarity, wherein the first and second polarity are opposite, and that the at least one event of a first polarity of the first pixel and the at least one event of a second polarity of the second pixel the same Place of plant-covered soil corresponds. In this case, the term "the same place is to be understood as meaning the plant-covered ground", in particular adjacent pixels of a single image, or alternatively pixels with a spacing of up to three pixels can be understood Plant-covered soil both in the first and in the second
Frequenzbereich eine gleich intensive Beleuchtung aufweist.  Frequency range has an equally intense lighting.
Alternativ wird gemäß dem Verfahren bestimmt, dass ein Blattrand erkannt wurde, falls die detektierten Events entweder nur bei dem ersten oder dem zweiten Pixel erkannt wurden. Dies kann insbesondere durch geeignete Wahl von Schwellenwerten des Objektkontrastes erreicht werden. Hierbei können die Schwellenwerte für On- und Off- Events separat eingestellt werden. Die Alternatively, according to the method, it is determined that a leaf margin has been detected if the detected events were detected at only the first or the second pixel. This can be achieved in particular by suitable selection of threshold values of the object contrast. Here, the thresholds for on and off events can be set separately. The
Schwellenwerte können auch für die unterschiedlichen Kanäle, d.h. den R- Kanal und den NI R-Kanal separat eingestellt werden. Dieser Fall tritt unter anderem dann ein, falls der Boden dunkel oder hell ist. Thresholds may also be used for the different channels, i. the R channel and the NI R channel are set separately. This case occurs, among other things, if the ground is dark or light.
Insbesondere durch geeignete Wahl der Schwellenwerte kann für beliebige Helligkeitsbedingungen erreicht werden, dass entweder der oben genannte erste Fall, wonach benachbarte Pixel eine entgegengesetzte Polarität aufweisen oder der oben genannte zweite Fall, wonach bei benachbarten Pixeln lediglich einIn particular, by suitable selection of the threshold values, it can be achieved for any brightness conditions that either the above-mentioned first case, according to which adjacent pixels have an opposite polarity, or the above-mentioned second case, after which only one is present at adjacent pixels
Pixel Events aufweist, auftritt. Pixel events occurs.
Alternativ lässt sich für beliebige Helligkeitsverhältnisse die gleiche Information auch aus dem Helligkeitshistogramm des Vollbildes folgern. Hierbei bietet sich das Verfahren der Szenenrekonstruktion an, das z.B. unter anderem in der wissenschaftlichen Veröffentlichung mit dem Titel„Real-Time 3D Reconstruction and 6-DoF Tracking with an Event Camera" von Hanme Kim, Stefan Alternatively, for any brightness ratios, the same information can also be deduced from the brightness histogram of the frame. Here, the method of scene reconstruction is suitable, which is e.g. among others in the scientific publication entitled "Real-Time 3D Reconstruction and 6-DoF Tracking with an Event Camera" by Hanme Kim, Stefan
Leutenegger, Andrew J. Davison in European Conference on Computer Vision, ECCV 2016: Computer Vision - ECCV 2016, pp 349-364, veröffentlicht wurde, gezeigt wird. Dort siehe insbesondere Figur 4. Hierbei ist das Helligkeitshistogramm in mindestens einem der beiden Leutenegger, Andrew J. Davison in European Conference on Computer Vision, ECCV 2016: Computer Vision - ECCV 2016, pp 349-364, is published. See there in particular Figure 4. Here, the brightness histogram is in at least one of the two
Farbkanäle bimodal, im Fall der mittleren Bodenhelligkeit sogar in beiden, wodurch eine automatische Festlegung des Kontrastschwellwertes bei der Eventerzeugung ermöglicht wird, z.B. per Otsu- Verfahren. Bimodal color channels, in the case of the average ground brightness even in both, thereby allowing automatic definition of the contrast threshold in the event generation, e.g. by Otsu method.
Wie bereits obenstehend erläutert, stellen Intensitätsänderungen an den einzelnen Pixelpositionen Events dar. Ein detektiertes Event wird unverzüglich mit Mikrosekundengenauigkeit und Millisekunden-Latenz an eine Recheneinheit gesendet. Wenn nur die beiden benachbarten Pixel im Zeitraum betrachtet werden, so liefert der eventbasierte Bildsensor für jeden Pixel eine zeitabhängige Funktion, welche für jeden Zeitpunkt angibt, ob ein Event detektiert wurde oder nicht. Falls ein Event detektiert wurde, gibt die Funktion zusätzlich die As already explained above, intensity changes at the individual pixel positions represent events. A detected event is sent immediately to a computing unit with microsecond accuracy and millisecond latency. If only the two adjacent pixels are considered in the time period, the event-based image sensor provides a time-dependent function for each pixel, which indicates for each time point whether an event was detected or not. If an event has been detected, the function additionally gives the
Intensitätsänderung mit an. Intensity change with.
Wann Events als gleichzeitig anzusehen sind, hängt von einem Zeitfenster ab. Die Größe des Zeitfensters hängt von Bodenauflösung und Geschwindigkeit ab. Falls z.B. zwei Pixel einen Millimeter abbilden und die Geschwindigkeit 1 Meter pro Sekunden beträgt, so sind Events mit einem Zeitunterschied von ungefähr einer halben Millisekunde als gleichzeitig anzusehen. Wie an anderer Stelle beschrieben, detektiert man dann bei gegensätzlicher Polarität der Events einen Blattrand. When events are considered to be simultaneous depends on a time window. The size of the time window depends on ground resolution and speed. If e.g. If two pixels represent one millimeter and the speed is 1 meter per second, then events with a time difference of approximately half a millisecond are to be regarded as simultaneous. As described elsewhere, one then detects a leaf margin with opposite polarity of the events.
Durch den Einsatz einer entsprechenden Auswertungssoftware können mithilfe des beschriebenen Verfahrens Blattrand-Informationen extrahiert und die zugehörigen Pflanzenarten in Echtzeit ermittelt werden. Das Verfahren generiert durch den Einsatz von eventbasierten Bildsensoren eine geringe Datenrate, was sich vorteilhaft auf die nachfolgende Datenverarbeitung auswirkt und effiziente lokale Berechnungen an den Kamera- und Feldspritzenmodulen ermöglicht. Als besonders vorteilhaft stellt sich dabei auch die hohe Robustheit des Using the appropriate evaluation software, the method described can be used to extract leaf margin information and to determine the associated plant species in real time. The method generates a low data rate through the use of event-based image sensors, which has an advantageous effect on subsequent data processing and enables efficient local calculations on the camera and field spray modules. Particularly advantageous is the high robustness of the
Verfahrens bei einem Dynamikumfang von 130 dB dar. Damit wird ein störungsfreier Ablauf der Blattranderkennung selbst bei sich schnell bewegenden Kameras und Tageslichtbedingungen sichergestellt. Das Erfassen von Events durch den eventbasierten Bildsensor ermöglicht es vorteilhafterweise, Bereiche gleicher Semantik im abgebildeten Bereich als solche zu finden und zu klassifizieren. Process with a dynamic range of 130 dB. Thus, a trouble-free sequence of sheet edge detection is ensured even with fast moving cameras and daylight conditions. The detection of events by the event-based image sensor advantageously makes it possible to find and classify regions of equal semantics in the imaged region as such.
Insbesondere hängt die Dauer zwischen den beiden Zeitpunkten tl und t2 bei einer vorgegebenen Fahrtrichtung von einer ersten Richtung, welche von einem Mittelpunkt des ersten Pixels zu einem Mittelpunkt des zweiten Pixels verläuft, und einer zweiten Richtung, welche einer tangentialen Richtung des Blattrandes entspricht, ab. In particular, the duration between the two times t1 and t2 for a given direction of travel depends on a first direction, which extends from a center point of the first pixel to a center point of the second pixel, and a second direction, which corresponds to a tangential direction of the page edge.
Bevorzugt werden die Events mit einem eventbasierten Bildsensors erfasst. Der eventbasierte Bildsensor ist bevorzugt ein DVS-Sensor. Da die detektierten Events in der Regel sehr viel weniger Speicherplatz benötigen als die Preferably, the events are detected with an event-based image sensor. The event-based image sensor is preferably a DVS sensor. Since the detected events usually require much less memory than the
Speicherung jedes einzelnen Pixels für jedes Frame, ist die von einer DVS- Kamera gelieferte Datenmenge sehr viel geringer als von einem gewöhnlichen Bildsensor. Ferner ist die Verarbeitungsgeschwindigkeit eines DVS-Sensors deutlich schneller als bei gewöhnlichen Kameras. Da ein DVS-Sensor einzelne Pixel unabhängig betrachtet, wird ein sehr viel höherer Dynamikumfang bis zu 130 d B ermöglicht. Dieser hohe Dynamikumfang verhindert überbelichtete Bildbereiche, was wiederum eine zuverlässigere Bildauswertung und somit eine genauere Erkennung des Blattrandes ermöglicht. Storing each pixel for each frame, the amount of data delivered by a DVS camera is much less than that of a regular image sensor. Furthermore, the processing speed of a DVS sensor is much faster than with ordinary cameras. Since a DVS sensor looks at individual pixels independently, a much higher dynamic range up to 130 d B is possible. This high dynamic range prevents overexposed image areas, which in turn allows a more reliable image analysis and thus a more accurate detection of the sheet edge.
Gemäß einer bevorzugten Ausführungsform liegt die Bodenauflösung zwischen 0,1 und 1 mm pro Pixel. Dadurch können vorteilhafterweise feinere Strukturen in den aufgenommenen Bildern aufgelöst werden. Dies trägt dazu bei, dass unterschiedlichen Pflanzenarten zuverlässiger voneinander abgegrenzt werden können. According to a preferred embodiment, the bottom resolution is between 0.1 and 1 mm per pixel. As a result, finer structures can advantageously be resolved in the recorded images. This helps to differentiate between different plant species more reliably.
Gemäß einer weiteren Ausführungsform ist vor dem Bildsensor ein Farbfilterarray (engl.: color filter array (C FA)) aus Band passfiltern im NI R- und R- Spektralbereich angeordnet. Hierbei steht der R-Spektralbereich für den roten Spektralbereich. In accordance with a further embodiment, a color filter array (C FA) of band pass filters in the NI R and R spectral range is arranged in front of the image sensor. Here, the R-spectral range stands for the red spectral range.
Die beiden unterschiedlichen Bandpassfilter können vorteilhafterweise im Schachbrettmuster angeordnet sein. Dadurch wird vorteilhafterweise erreicht, dass neben jedem Pixel mit NI R- Bandpassfilter einen Pixel mit Bandpassfilter im roten Spektralbereich angeordnet ist. Dieser wiederum den Vorteil, dass für jeden Pixel eine Blattranderkennung durchgeführt werden kann. Gemäß einer anderen Ausführungsform sind die beiden unterschiedlichenThe two different bandpass filters can advantageously be arranged in a checkerboard pattern. This advantageously achieves that next to each pixel with NI R bandpass filter is a pixel with bandpass filter in the red spectral range. This in turn has the advantage that a sheet edge detection can be performed for each pixel. According to another embodiment, the two are different
Bandpassfilter streifenförmig angeordnet. Hierbei sind die Streifen bevorzugt quer zur Fahrtrichtung angeordnet. Dies hat den Vorteil, dass mithilfe dieser Anordnung jeder Blattrandübergang erfasst werden kann. Gemäß noch einer weiteren Ausführungsform ist das Farbfilterarray NDVI- optimiert. Unter einem NDVI-optimierten Farbfilterarray versteht man, dass das Farbfilterarray optimal zwischen dem NI R und dem roten Spektralbereich unterscheidet, so dass der NDVI-Index eine hohe Aussagekraft aufweist. Dies ist insbesondere dann der Fall, wenn der NI R- Band passfilter des Farbfllterarrays um 850 nm und der R-Bandpassfilter des Farbfllterarrays um 660 nm zentriert ist.Bandpass filter arranged in strips. In this case, the strips are preferably arranged transversely to the direction of travel. This has the advantage that with the help of this arrangement each sheet edge transition can be detected. According to yet another embodiment, the color filter array is NDVI optimized. An NDVI-optimized color filter array is understood to mean that the color filter array optimally distinguishes between the NI R and the red spectral region so that the NDVI index has high expressivity. This is especially the case when the NI R band pass filter of the color filter array is centered around 850 nm and the R band pass filter of the color filter array is centered around 660 nm.
Die jeweiligen Bandpassfilter weisen bevorzugt eine Breite von 20 nm auf. Durch ein solches Farbfilterarray wird eine optimale Unterscheidung zwischen The respective bandpass filters preferably have a width of 20 nm. Such a color filter array is an optimal distinction between
Vegetation und Boden entsprechend dem NDVI erreicht. Bevorzugt ist vor einem dritten Pixel des Bildsensors ein Bandpassfilter eines dritten Frequenzbereiches angeordnet. Gemäß einer solchen Ausführungsform weist das Farbfilterarray einen dritten Bandpassfilter auf, welcher bevorzugt im grünen Farbbereich liegt. Hierdurch kann vorteilhafterweise, die Genauigkeit der Erkennung des Blattrandes weiter erhöht werden. Es können zum Beispiel neben dem NDVI-Index auch andere Indices, wie z.B. Excessive Green, verwendet werden. Bevorzugt ist das Farbfilterarray für andere Filter optimiert, zum Beispiel für den Excessive Green Index. Vegetation and soil achieved according to the NDVI. Preferably, a bandpass filter of a third frequency range is arranged in front of a third pixel of the image sensor. According to such an embodiment, the color filter array has a third bandpass filter, which is preferably in the green color range. As a result, advantageously, the accuracy of the detection of the sheet edge can be further increased. For example, in addition to the NDVI index, other indexes such as e.g. Excessive Green, to be used. Preferably, the color filter array is optimized for other filters, for example for the Excessive Green Index.
Gemäß einer weiteren bevorzugten Ausführungsform weist der mit Pflanzen bewachsene Boden sowohl im ersten als auch im zweiten Frequenzbereich eine gleich intensive Beleuchtung auf. Falls dies nicht der Fall ist, wird alternativ die Intensität im ersten Frequenzbereich und im zweiten Frequenzbereich bestimmt. Dies kann auch pixelweise geschehen. Bevorzugt wird ein neues Bild berechnet, bei dem die Intensität im ersten und zweiten Frequenzbereich gleich oder identisch ist. Dies kann ebenfalls pixelweise geschehen. Gemäß einer weiteren Ausführungsform wird ein passierendes Objekt mehrfach vermessen. Unter einem passierenden Objekt versteht man ein Objekt, welches einen Erfassungsbereich des eventbasierten Bildsensors passiert. Da die Fahrtgeschwindigkeit und die Fahrtrichtung des Fahrzeugs und die Orientierung und Position des eventbasierten Bildsensors relativ zum Fahrzeug bekannt sind, kann ein Objekt, welches von dem Bildsensor erkannt wird, nachverfolgt werden. Falls sich das Objekt während der Erfassung relativ zum Bildsensor nicht dreht, werden alle Punkte des Objektes mehrfach aufgenommen. Bevorzugt wird das passierende Objekt kontinuierlich vermessen. Durch die mehrfache oder kontinuierliche Vermessung des Objektes wird eine zeitliche Mittelung möglich, welche wiederum eine Erhöhung der Erfassungsgenauigkeit und somit auch eine genauere Detektion des Blattrandes ermöglicht. Gemäß einer weiteren Ausführungsform wird eine Wuchshöhe einer Pflanze aus mindestens einem Bild des mit Pflanzen bewachsenen Bodens ermittelt. Hierbei wird unter einem Bild ein mit einem eventbasierten Bildsensor aufgenommenes Bild verstanden. Bevorzugt wird die Wuchshöhe aus einer Vielzahl von Bildern des mit Pflanzen bewachsenen Bodens ermittelt. Voraussetzung hierfür ist, dass aus dem mindestens einen Bild ein interpretierbares Flussfeldes bestimmt werden kann. Im Stand der Technik ist die Technik„Structure from motion (SfM)" bekannt. Diese Technik ist photogrammetrische Bildgebungstechnik für dreidimensionale Strukturen auf Basis von zweidimensionalen Bildsequenzen. Diese Technik wird in den Bereichen„Computer Vision" und visuelle According to a further preferred embodiment, the soil, which is overgrown with plants, has equally intense illumination both in the first and in the second frequency range. If this is not the case, alternatively the intensity in the first frequency range and in the second frequency range is determined. This can also be done pixel by pixel. Preferably, a new image is calculated in which the intensity in the first and second frequency ranges is the same or identical. This can also be done pixel by pixel. According to another embodiment, a passing object is measured several times. A passing object is an object that passes through a detection area of the event-based image sensor. Since the vehicle speed and direction of travel and the orientation and position of the event-based image sensor relative to the vehicle are known, an object detected by the image sensor can be tracked. If the object does not rotate relative to the image sensor during acquisition, all points of the object are recorded multiple times. Preferably, the passing object is continuously measured. Due to the multiple or continuous measurement of the object, a time averaging is possible, which in turn allows an increase in the detection accuracy and thus a more accurate detection of the sheet edge. According to a further embodiment, a plant height of a plant is determined from at least one image of the soil covered with plants. Here, an image is understood as an image taken with an event-based image sensor. Preferably, the stature height is determined from a variety of images of the vegetated soil with soil. The prerequisite for this is that an interpretable flow field can be determined from the at least one image. Known in the art is the technique "Structure from motion (SfM)." This technique is photogrammetric imaging technique for three-dimensional structures based on two-dimensional image sequences, and is used in the fields of "computer vision" and visual
Wahrnehmung untersucht. Menschen und andere Lebewesen können dreidimensionale Strukturen aufgrund der projizierten zweidimensionalen Bewegung eines bewegten Objektes oder einer Szene im Gehirn rekonstruieren. Die Ermittlung der Wuchshöhe bringt den Vorteil mit sich, dass nachfolgende Spritzvorgänge exakter dosiert werden können und damit flexibel an die jeweiligen Gegebenheiten angepasst werden können. Perception examined. Humans and other living things can reconstruct three-dimensional structures based on the projected two-dimensional motion of a moving object or scene in the brain. The determination of the stature height has the advantage that subsequent spraying operations can be dosed more accurately and thus can be flexibly adapted to the particular circumstances.
Bei Aufnahme von Bildern eines mit Pflanzen bewachsenen Bodens mit einer bewegten Kamera, deren Geschwindigkeitsverlauf bekannt ist, brauchen Bereiche des Bildes, welche näher der Kamera sind für einen Bilddurchgang weniger Zeit als weiter entfernte Bereiche des Bildes. Somit ist das durch die Kamera aufgenommene Flussfeld ein interpretierbares Flussfeld. Für metrische Genauigkeit der Ergebnisse müssen nur intrinsische Parameter der Optik wie die fokale Länge (Öffnungswinkel) und Fahrgeschwindigkeit bekannt sein. When taking pictures of a vegetated soil with a moving camera, the speed of which is known, areas of the image closer to the camera require less time to pass through than more distant areas of the image. Thus, that is through the Camera recorded flow field an interpretable flow field. For metric accuracy of the results, only intrinsic parameters of the optics such as the focal length (opening angle) and driving speed need to be known.
Vergleichende Aussagen ohne metrische Genauigkeit sind auch ohne diese Kalibrierung möglich. Comparative statements without metric accuracy are possible even without this calibration.
Durch die zeitkontinuierliche Aufnahme von Events führen auch Verdeckungen kleiner, bodennaher Unkräuter in hochwachsenden Kulturen mit breiten Blättern (z.B. Mais) seltener zu fehlenden Detektionen als zeitdiskrete Vollbildaufnahmen. Due to the continuous recording of events, occlusions of small, ground-level weeds in high-growing crops with broad leaves (for example maize) rarely lead to missing detections than discrete-time full-frame images.
Bevorzugt weist das Verfahren einen maschinenbasierten Lernalgorithmus zum Erkennen einer Klassifikation der Pflanze auf. Mit dessen Hilfe wird die Preferably, the method comprises a machine-based learning algorithm for recognizing a classification of the plant. With its help, the
Bestimmung der Pflanzenart fortwährend verbessert und die Determination of the plant species continuously improved and the
Verfahrensergebnisse insgesamt genauer. Overall process results more accurate.
Das Verfahren zur gezielten Behandlung von Pflanzen mit einem The method for the targeted treatment of plants with a
Blattbehandlungsmittel erkennt in einem ersten Schritt des Verfahrens einen Blattrand gemäß dem obenstehend dargelegten Verfahren. In einem zweiten Schritt des Verfahrens wird eine Blattform der Pflanze basierend auf dem erkannten Blattrand der Pflanze erkannt. Für einen Standbild eines Ackerbodens mit einem Blatt wird für jedes Pixelpaar, bei dem nur ein Pixel vorwiegend Events detektiert, einen Blattrand erkannt. Dementsprechend kann für das gesamte Standbild jede Stelle des Blattrandes erkannt werden. Falls jede Stelle des Blattrandes bekannt ist, kann eine Blattform bestimmt oder erkannt werden. Für ein bewegtes Bild kann für jeden Zeitpunkt, an dem man das Blatt sieht, eine Blattform bestimmt werden. Foliar treatment agent recognizes a sheet edge in a first step of the method according to the method set out above. In a second step of the method, a leaf shape of the plant is detected based on the recognized leaf margin of the plant. For a still image of a field soil with a leaf, a leaf margin is detected for each pixel pair in which only one pixel predominantly detects events. Accordingly, any location of the sheet edge can be recognized for the entire still image. If each location of the leaf margin is known, a leaf shape can be determined or recognized. For a moving image, a leaf shape can be determined for each time you see the leaf.
In einem dritten Schritt des Verfahrens wird anhand der bestimmten Blattform der Pflanze eine Klassifikation der Pflanze bestimmt. Dies hat den Vorteil, dass die somit klassifizierte Pflanze gezielt mit einem für diese Pflanze passenden Mittel behandelt werden kann. In a third step of the method, a classification of the plant is determined on the basis of the specific leaf shape of the plant. This has the advantage that the thus classified plant can be specifically treated with a suitable agent for this plant.
In einem vierten Schritt des Verfahrens wird die Pflanze mit einem der In a fourth step of the procedure, the plant is treated with one of the
Klassifikation der Pflanze entsprechenden Mittel behandelt. Hierdurch wird vorteilhafterweise erreicht, dass bestimmte Pflanzen selektiv oder gezielt behandelt werden können. Zum Beispiel ist es möglich, dass Unkräuter gezielt mit einem Unkrautbekämpfungsmittel oder Herbizid behandelt wird. Alternativ oder zusätzlich können andere erkannte Pflanzen mit anderen Mitteln behandelt werden. Ein solches Mittel ist insbesondere ein Pflanzenschutzmittel, ein Pestizid, ein Insektizid, ein Fungizid, ein Herbizid, ein Biozid, ein Bakterizid, einClassification of the plant appropriate means treated. This advantageously ensures that certain plants are selective or targeted can be treated. For example, it is possible for weeds to be specifically treated with a weed control or herbicide. Alternatively or additionally, other recognized plants may be treated by other means. Such agent is especially a pesticide, a pesticide, an insecticide, a fungicide, a herbicide, a biocide, a bactericide
Viruzid, ein Akarizid, ein Avizid, ein Molluskizid, ein Nematizid, ein Ovizid oder ein Rodentizid. Die gezielte Behandlung der Pflanze mit einem für diese Pflanze passenden Mittel hat den Vorteil, dass keine Ressourcen verschwendet werden, insbesondere werden keine Pflanzen geschädigt, da keine Pflanze mit einem unpassenden Mittel behandelt wird. Virucide, an acaricide, an avicide, a molluscicide, a nematicide, an ovicide or a rodenticide. The targeted treatment of the plant with a suitable agent for this plant has the advantage that no resources are wasted, in particular no plants are damaged because no plant is treated with an inappropriate agent.
Das Verfahren zur gezielten Behandlung von Pflanzen ermöglicht eine schnelle Differenzierung zwischen den verschiedenen Pflanzenarten und darauf aufbauend eine gezielte Behandlung der jeweiligen Pflanzenart mit dem passenden Mittel. The method for the targeted treatment of plants enables a rapid differentiation between the different plant species and, based on this, a targeted treatment of the respective plant species with the appropriate agent.
Ferner betrifft die Erfindung eine Verwendung eines eventbasierten Bildsensors zur Erkennung eines Blattrandes mithilfe durch einen eventbasierten Bildsensor aufgenommenen Bilder. Diese Verwendung ist bereits im Rahmen des oben beschriebenen Verfahrens zur Erkennung eines Blattrandes offenbart worden.Furthermore, the invention relates to a use of an event-based image sensor for detecting a sheet edge using images recorded by an event-based image sensor. This use has already been disclosed in the sheet edge detection method described above.
Daraus ergeben sich aber auch die mit der Verwendung einhergehenden Vorteile. But this also results in the benefits associated with the use.
Das Computerprogramm ist eingerichtet, jeden Schritt des Verfahrens durchzuführen, insbesondere wenn es auf einem elektronischen Steuergerät oder Rechengerät abläuft. Hierbei ist sowohl das Verfahren zur Erkennung eines Blattrandes als auch das Verfahren zur gezielten Behandlung von Pflanzen mit einem Blattbehandlungsmittel gemeint. Dies ermöglicht die Implementierung des Verfahrens in einem herkömmlichen Steuergerät, ohne hieran bauliche The computer program is set up to perform each step of the method, especially when running on an electronic controller or computing device. This refers to both the method for the detection of a leaf margin and the method for the targeted treatment of plants with a foliar treatment agent. This allows the implementation of the method in a conventional control unit, without constructive
Veränderungen vornehmen zu müssen. Hierzu ist das Computerprogramm auf einem maschinenlesbaren Speichermedium gespeichert. Durch Aufspielen des Computerprogramms auf ein herkömmliches elektronisches Steuergerät wird das elektronische Steuergerät erhalten, welches eingerichtet ist, einen Blattrand zu erkennen oder eine Pflanze gezielt zu behandeln. Weitere Vorteile und Ausgestaltungen der Erfindung ergeben sich aus der Beschreibung und der beiliegenden Zeichnung. To make changes. For this purpose, the computer program is stored on a machine-readable storage medium. By loading the computer program on a conventional electronic control unit, the electronic control unit is obtained, which is set up to recognize a leaf margin or to treat a plant specifically. Further advantages and embodiments of the invention will become apparent from the description and the accompanying drawings.
Es versteht sich, dass die voranstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweiligen angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen. It is understood that the features mentioned above and those yet to be explained below can be used not only in the particular combination indicated, but also in other combinations or in isolation, without departing from the scope of the present invention.
Kurze Beschreibung der Zeichnung Short description of the drawing
Ein Ausführungsbeispiel der Erfindung ist in der Zeichnung dargestellt und wird in der nachfolgenden Beschreibung näher erläutert. An embodiment of the invention is illustrated in the drawing and will be explained in more detail in the following description.
Figur 1 zeigt ein Ablaufdiagramm eines Verfahrens zur Blattranderkennung gemäß einem Ausführungsbeispiel der Erfindung. FIG. 1 shows a flowchart of a method for sheet edge detection according to an exemplary embodiment of the invention.
Ausführungsbeispiel der Erfindung Embodiment of the invention
Figur 1 zeigt ein Ablaufdiagramm eines Verfahrens 100 zur Blattranderkennung. In einem ersten Schritt 110 des Verfahrens 100 werden Events eines Bildes eines mit Pflanzen bewachsenen Bodens bei einer Fahrtgeschwindigkeit relativ zum Boden mithilfe eines eventbasierten Bildsensors erfasst. Die hierbei verwendete Bodenauflösung beträgt 0,5 mm pro Pixel und vor dem Bildsensor ist ein NDVI-optimiertes Farbfilterarray (CFA) aus Band passfiltern im NI R- und R- Spektralbereich angeordnet. Hierbei ist der NI R- Band passfilter um 850 nm und der R- Bandpassfilter um 660 nm zentriert. FIG. 1 shows a flow chart of a method 100 for sheet edge detection. In a first step 110 of the method 100, events of an image of a vegetated soil at a ground speed relative to the ground are detected using an event-based image sensor. The ground resolution used here is 0.5 mm per pixel and in front of the image sensor, an NDVI-optimized color filter array (CFA) of bandpass filters in the NI R and R spectral range is arranged. Here, the NI R band pass filter is centered around 850 nm and the R band pass filter centered at 660 nm.
In einem zweiten Schritt 120 des Verfahrens 100 wird bestimmt, dass ein Blattrand erkannt wurde, falls die detektierten Events zweier benachbarter Pixel vorwiegend nur bei einem der beiden benachbarten Pixel erkannt wurden. DerIn a second step 120 of the method 100, it is determined that a sheet edge was detected if the detected events of two adjacent pixels were detected predominantly only at one of the two adjacent pixels. The
Schritt 120 wird für alle benachbarten Pixel der erfassten Events des Bildes durchgeführt. Dies bedeutet ebenfalls, dass das Verfahren 100 ein passierendes Objekt mehrfach vermessen wird. Somit erhält man den Blattrand für alle aufgenommenen Bilder der Pflanze, woraus man eine Blattform der Pflanze bestimmen kann. In Schritt 130 des Verfahrens 100 wird eine Wuchshöhe einer Pflanze aus allen Bildern ermittelt, welche dieselbe Pflanze des bewachsenen Bodens zeigen. Step 120 is performed for all adjacent pixels of the captured events of the image. This also means that the method 100 repeatedly measures a passing object. Thus, one obtains the leaf margin for all recorded images of the plant, from which one can determine a leaf shape of the plant. In step 130 of the method 100, a plant height of a plant is determined from all images showing the same plant of the overgrown soil.
Im darauf folgenden Schritt 140 des Verfahrens 100 wird ein maschinenbasierter Lernalgorithmus dazu benutzt, anhand der von der Pflanze aufgenommenen Bilder des Blattrandes die Pflanze zu klassifizieren. In the subsequent step 140 of the method 100, a machine-based learning algorithm is used to classify the plant based on the images of the leaf margin taken by the plant.
Im nächsten Schritt 150 Verfahrens 100 wird die klassifizierte Pflanze gezielt mit einem der Klassifikation der Pflanze entsprechenden Blattbehandlungsmittel behandelt. In the next step 150, method 100, the classified plant is specifically treated with a leaf treatment agent corresponding to the classification of the plant.

Claims

Ansprüche claims
1. Verfahren (100) zur Erkennung eines Blattrandes mit folgenden A method (100) for detecting a sheet edge with the following
Schritten:  steps:
Erfassen (110) von Events eines Bildes eines mit Pflanzen  Capturing (110) events of an image of a plant
bewachsenen Bodens bei einer Fahrtgeschwindigkeit relativ zum Boden, wobei eine Bodenauflösung des Bildes zwischen 0,5 und 1 mm pro Pixel liegt; wobei  overgrown soil at a groundspeed relative to ground, with a bottom resolution of the image between 0.5 and 1 mm per pixel; in which
vor einem ersten Pixel des Bildes ein Bandpassfilter eines ersten in front of a first pixel of the image a bandpass filter of a first
Frequenzbereichs und vor einem zweiten Pixel des Bildes ein Frequency range and before a second pixel of the image
Bandpassfilter eines zweiten Frequenzbereichs angeordnet ist; und Bandpass filter of a second frequency range is arranged; and
Bestimmen (120), dass ein Blattrand erkannt wurde, Determining (120) that a sheet edge has been detected
falls der erste Pixel zu einem ersten Zeitpunkt tl mindestens ein Event einer ersten Polarität und der zweite Pixel zu einem Zeitpunkt t2 mindestens ein Event einer zweiten Polarität erfasst,  if the first pixel detects at least one event of a first polarity at a first time t 1 and the second pixel detects at least one event of a second polarity at a time t 2,
wobei die erste und zweite Polarität entgegengesetzt sind, und dass das mindestens eine Event einer ersten Polarität des ersten Pixels und das mindestens ein Event einer zweiten Polarität des zweiten Pixels demselben Ort des mit Pflanzen bewachsenen Bodens entspricht oder  wherein the first and second polarities are opposite, and that the at least one event of a first polarity of the first pixel and the at least one event of a second polarity of the second pixel correspond to the same location of the vegetated soil or
falls die detektierten Events entweder nur bei dem ersten oder nur dem zweiten Pixel erkannt wurden.  if the detected events were detected either only at the first or only the second pixel.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der mit 2. The method according to claim 1, characterized in that with
Pflanzen bewachsene Boden sowohl im ersten als auch im zweiten Frequenzbereich eine gleich intensive Beleuchtung aufweist.  Plant-covered soil in both the first and in the second frequency range has an equally intense lighting.
3. Verfahren nach einem der vorangegangen Ansprüche, dadurch 3. The method according to any one of the preceding claims, characterized
gekennzeichnet, dass die Events mit einem eventbasierten Bildsensors erfasst werden. Verfahren nach einem der vorangegangen Ansprüche, dadurch gekennzeichnet, dass die Bodenauflösung zwischen 0,1 und 1 mm pro Pixel liegt. characterized in that the events are detected with an event-based image sensor. Method according to one of the preceding claims, characterized in that the bottom resolution is between 0.1 and 1 mm per pixel.
Verfahren nach einem der vorangegangen Ansprüche, dadurch gekennzeichnet, dass der erste Frequenzbereich das nahe Infrarot und der zweite Frequenzbereich ein roter Spektralbereich ist. Method according to one of the preceding claims, characterized in that the first frequency range is the near infrared and the second frequency range is a red spectral range.
Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass vor einem dritten Pixel des Bildsensors ein Bandpassfilter eines dritten Frequenzbereiches angeordnet ist. Method according to one of the preceding claims, characterized in that a bandpass filter of a third frequency range is arranged in front of a third pixel of the image sensor.
Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass vor dem Bildsensor ein Farbfilterarray aus Method according to one of the preceding claims, characterized in that in front of the image sensor from a color filter array
Bandpassfiltern im NI R- und R-Spektralbereich angeordnet ist. Bandpass filters in the NI R and R spectral range is arranged.
Verfahren nach dem vorangegangenen Anspruch, dadurch Method according to the preceding claim, characterized
gekennzeichnet, dass das Farbfilterarray NDVI-optimiert ist. characterized in that the color filter array is NDVI optimized.
Verfahren nach dem vorangegangenen Anspruch, dadurch Method according to the preceding claim, characterized
gekennzeichnet, dass das der NI R-Bandpassfilter um 850 nm und der R- Bandpassfilter um 660 nm zentriert ist. characterized in that the NI R bandpass filter is centered at 850 nm and the R bandpass filter at 660 nm.
Verfahren nach einem der vorangegangenen Ansprüche, Method according to one of the preceding claims,
gekennzeichnet durch eine mehrfache Vermessung eines passierenden Objektes. characterized by a multiple measurement of a passing object.
Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass eine Wuchshöhe einer Pflanze aus einer kurzen zeitlichen Sequenz von Bildern des mit Pflanzen bewachsenen Bodens ermittelt werden (130). Method according to one of the preceding claims, characterized in that a stature height of a plant from a short temporal sequence of images of the plant-covered soil are determined (130).
Verfahren nach einem der vorangegangenen Ansprüche, Method according to one of the preceding claims,
gekennzeichnet durch einen maschinenbasierten Lernalgorithmus zum Erkennen einer Klassifikation der Pflanze (140). characterized by a machine-based learning algorithm for detecting a classification of the plant (140).
13. Verfahren zur gezielten Behandlung von Pflanzen mit einem 13. A method for the targeted treatment of plants with a
Blattbehandlungsmittel mit den folgenden Schritten:  Foliar treatment agent comprising the following steps:
Erkennen eines Blattrandes gemäß einem Verfahren nach einem der Ansprüche 1 bis 12:  Detecting a sheet edge according to a method according to one of claims 1 to 12:
Erkennen einer Blattform der Pflanze basierend auf einem erkannten Blattrand der Pflanze;  Recognizing a leaf shape of the plant based on a recognized leaf margin of the plant;
Bestimmen (140) einer Klassifikation der Pflanze;  Determining (140) a classification of the plant;
Behandlung (150) der Pflanze mit einem der Klassifikation der Pflanze entsprechenden Mittel.  Treatment (150) of the plant with an agent corresponding to the classification of the plant.
14. Verwendung eines eventbasierten Bildsensors zur Erkennung eines Blattrandes bei mithilfe eines eventbasierten Bildsensors 14. Using an event-based image sensor to detect a sheet edge when using an event-based image sensor
aufgenommenen Bildern.  recorded pictures.
15. Computerprogramm, welches eingerichtet ist, jeden Schritt eines 15. Computer program, which is set up every step of a
Verfahrens nach einem der Ansprüche 1 bis 13 durchzuführen.  Method according to one of claims 1 to 13 perform.
16. Maschinenlesbares Speichermedium, auf welchem ein 16. Machine-readable storage medium on which a
Computerprogramm nach dem vorhergehenden Anspruch gespeichert ist.  Computer program according to the preceding claim is stored.
17. Elektronisches Steuergerät, welches eingerichtet ist, um mittels eines Verfahrens nach einem der Ansprüche 1 bis 12 einen Blattrand zu erkennen oder um mittels eines Verfahrens nach Anspruch 13, eine Pflanze gezielt zu behandeln. 17. Electronic control device, which is adapted to detect a sheet edge by means of a method according to one of claims 1 to 12 or to treat by means of a method according to claim 13, a plant targeted.
PCT/EP2018/073932 2017-09-28 2018-09-06 Method for recognizing a leaf edge, method for the targeted treatment of plants by means of a leaf treatment agent, and use of an event-based image sensor for the recognition of a leaf edge WO2019063255A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
BR112020002571-2A BR112020002571A2 (en) 2017-09-28 2018-09-06 process for recognition of a leaf edge, process for objective treatment of plants with a leaf treatment agent and use of an event-based image sensor for recognition of a leaf edge
EP18765629.3A EP3688660A1 (en) 2017-09-28 2018-09-06 Method for recognizing a leaf edge, method for the targeted treatment of plants by means of a leaf treatment agent, and use of an event-based image sensor for the recognition of a leaf edge

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017217275.4 2017-09-28
DE102017217275.4A DE102017217275A1 (en) 2017-09-28 2017-09-28 Method for detecting a sheet edge, method for targeted treatment of plants with a foliar treatment agent and use of an event-based image sensor for detecting a sheet edge

Publications (1)

Publication Number Publication Date
WO2019063255A1 true WO2019063255A1 (en) 2019-04-04

Family

ID=63517892

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2018/073932 WO2019063255A1 (en) 2017-09-28 2018-09-06 Method for recognizing a leaf edge, method for the targeted treatment of plants by means of a leaf treatment agent, and use of an event-based image sensor for the recognition of a leaf edge

Country Status (4)

Country Link
EP (1) EP3688660A1 (en)
BR (1) BR112020002571A2 (en)
DE (1) DE102017217275A1 (en)
WO (1) WO2019063255A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112256951A (en) * 2020-09-09 2021-01-22 青岛大学 Intelligent household seedling planting system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020215415A1 (en) 2020-12-07 2022-06-09 Robert Bosch Gesellschaft mit beschränkter Haftung Method and device for detecting a sturgeon plant image in a camera raw image and image processing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012122988A1 (en) * 2011-03-16 2012-09-20 Syddansk Universitet Spray boom for selectively spraying a herbicidal composition onto dicots
US20150015697A1 (en) * 2013-03-07 2015-01-15 Blue River Technology, Inc. Method for automatic phenotype measurement and selection
US20150379702A1 (en) * 2014-06-30 2015-12-31 Trimble Navigation Limited Active Imaging Systems for Plant Growth Monitoring

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9075008B2 (en) * 2003-11-07 2015-07-07 Kyle H. Holland Plant treatment based on a water invariant chlorophyll index

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012122988A1 (en) * 2011-03-16 2012-09-20 Syddansk Universitet Spray boom for selectively spraying a herbicidal composition onto dicots
US20150015697A1 (en) * 2013-03-07 2015-01-15 Blue River Technology, Inc. Method for automatic phenotype measurement and selection
US20150379702A1 (en) * 2014-06-30 2015-12-31 Trimble Navigation Limited Active Imaging Systems for Plant Growth Monitoring

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HANME KIM; STEFAN LEUTENEGGER; ANDREW J. DAVISON: "Real-Time 3D Reconstruction and 6-DoF Tracking with an Event Camera", EUROPEAN CONFERENCE ON COMPUTER VISION, 2016, pages 349 - 364, XP047355269, DOI: doi:10.1007/978-3-319-46466-4_21
MIDOPT: "DB660/850 Dual Bandpass Red + 850nm NIR", 23 June 2017 (2017-06-23), pages 1 - 3, XP055522253, Retrieved from the Internet <URL:https://web.archive.org/web/20170623070705/http://midopt.com/filters/db660850/> [retrieved on 20181108] *
TOBI DELBRUCK: "Dynamic Vision Sensor (DVS) -asynchronous temporal contrast silicon retina", 14 April 2014 (2014-04-14), XP055522343, Retrieved from the Internet <URL:http://siliconretina.ini.uzh.ch/wiki/index.php Go FEB APR APR 14 2016 2017 2018 34> [retrieved on 20181108] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112256951A (en) * 2020-09-09 2021-01-22 青岛大学 Intelligent household seedling planting system

Also Published As

Publication number Publication date
DE102017217275A1 (en) 2019-03-28
EP3688660A1 (en) 2020-08-05
BR112020002571A2 (en) 2020-08-04

Similar Documents

Publication Publication Date Title
EP1267178B1 (en) Method for processing a high definition picture
DE102016118227A1 (en) Image analysis system for agricultural machines
DE112009000949T5 (en) Detection of a free driving path for a vehicle
WO2018185083A2 (en) Time-of-flight camera
DE102013019138A1 (en) A method for detecting a hidden state of a camera, camera system and motor vehicle
EP1531342B1 (en) Method of detecting pedestrians
DE102013212495A1 (en) Method and device for inspecting a contoured surface, in particular the underbody of a motor vehicle
DE112010003752T5 (en) DYNAMIC REAL-TIME REFERENCE GENERATION FOR A DISTANCE IMAGING SYSTEM
EP3615887A1 (en) Material testing by means of angle-variable illumination
DE102016223185A1 (en) Method and system for detecting a raised object located within a parking lot
WO2019063255A1 (en) Method for recognizing a leaf edge, method for the targeted treatment of plants by means of a leaf treatment agent, and use of an event-based image sensor for the recognition of a leaf edge
AT508711B1 (en) METHOD AND DEVICE FOR SEARCHING AND DETECTING ANIMALS HIDDEN IN AGRICULTURAL FIELDS AND MEADOWS
DE10148062A1 (en) Localizing system for objects uses transmitter for pulsed emission of laser beams and receiver with sensor to pick up reflected beam pulses and to analyze them regarding their execution time
DE102007041333B4 (en) Non-contact counting system
WO2016107722A1 (en) Method for determining particles
EP3663881B1 (en) Method for controlling an autonomous vehicle on the basis of estimated movement vectors
WO2016087202A1 (en) Image processing by means of cross-correlation
WO2013068521A1 (en) Device and method for mechanically thinning out blossom
DE102016210056A1 (en) Camera arrangement for determining the optical flow, driver assistance system and surveillance camera with the camera arrangement
WO2019185184A1 (en) Device and method for the optical position detection of transported objects
DE102011083745B4 (en) A method for monocular motion stereo-based automatic automatic parking free parking, computer program product and device
DE102020113183B4 (en) Camera and method for detecting moving objects
DE102016223180A1 (en) Method and system for detecting a raised object located within a parking lot
EP3547664B1 (en) Device and system for creating 3d image data
DE102019117849B4 (en) Detection of an object in a surveillance area

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18765629

Country of ref document: EP

Kind code of ref document: A1

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112020002571

Country of ref document: BR

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018765629

Country of ref document: EP

Effective date: 20200428

ENP Entry into the national phase

Ref document number: 112020002571

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20200206