WO2017071928A1 - Verfahren und informationssystem zum erkennen zumindest einer auf einem feld angepflanzten pflanze - Google Patents

Verfahren und informationssystem zum erkennen zumindest einer auf einem feld angepflanzten pflanze Download PDF

Info

Publication number
WO2017071928A1
WO2017071928A1 PCT/EP2016/073939 EP2016073939W WO2017071928A1 WO 2017071928 A1 WO2017071928 A1 WO 2017071928A1 EP 2016073939 W EP2016073939 W EP 2016073939W WO 2017071928 A1 WO2017071928 A1 WO 2017071928A1
Authority
WO
WIPO (PCT)
Prior art keywords
plant
information
detecting
field
image information
Prior art date
Application number
PCT/EP2016/073939
Other languages
English (en)
French (fr)
Inventor
Roland-Kosta Tschakarow
Dejan PANGERCIC
Tobias DIPPER
Gabriel GAESSLER
Markus Hoeferlin
Tobias Mugele
Steffen Fuchs
Achim Winkler
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to EP16785383.7A priority Critical patent/EP3369037A1/de
Priority to CN201680063157.6A priority patent/CN108140118A/zh
Priority to US15/771,012 priority patent/US20180308229A1/en
Publication of WO2017071928A1 publication Critical patent/WO2017071928A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Definitions

  • the invention is based on a method for detecting at least one plant planted on a field or an information system as generically defined by the independent claims.
  • the subject of the present invention is also a computer program.
  • Procedures are used in extensive series of experiments involving multiple repetitions in different locations.
  • Boniturvon in which the characteristics of a plant to be assessed (germination, sprouting, stature height, leaf size, flowering, fruit ripeness, u.v.a.) accordingly
  • the data collected by persons in the field trial according to the rating scheme will be evaluated afterwards.
  • the evaluation is usually a manual procedure in which the partial results are summarized in tables and then analyzed by means of statistical methods.
  • the approach presented here provides a method for detecting at least one plant planted in a field, the method comprising the following steps:
  • a field can be understood as an acreage for plants or even a plot of such a field.
  • a crop can be understood as a crop whose fruit
  • an optical detection unit for example, a camera can be understood. For example, under a geographical position where the plant grows on the field
  • Plant image information can be understood to be an image or a plant parameter which reproduces optically detectable features or features of the plant which can be detected by infrared radiation.
  • the plant image information may also contain information obtained by processing or processing the image of the plant acquired by the optical camera and / or the infrared sensor.
  • plant information can be understood as a parameter or information, such as the aforementioned shape, size, species, number of leaves, leaf structure, number of buds, bud structure or the like, which makes it possible to distinguish the plant from another plant.
  • the parameter may also only provide information about the presence of the plant itself at the geographical position.
  • a plant dataset may be understood to mean a data record or an information unit stored or to be stored in a memory in which the plant information is or will be stored with an associated geographical position of the plant.
  • a detection unit to recognize the plant certain geographical position can be made very quickly and reproducibly by avoiding a human classification.
  • Evaluation can be easily recycled. By assigning a geographical position to the plant or the plant information is further ensured that in repeated cycles of detection of the plant always the same plant can be detected, so that the
  • the approach proposed here offers the advantage that the assessment of the plant's plant growth can be carried out very quickly automatically. This is particularly useful when monitoring the growth of a large number of plants, as is the case for example in the
  • Plant information and the geographical position then draw a conclusion on the influence of these growth or environmental conditions on the
  • the step of detecting the plant in the step of detecting the plant can be detected from a plurality of viewing directions and / or with an exposure time of less than half a second, in particular wherein the plant is detected with an exposure time of less than a tenth of a second.
  • Plant distance information can be, for example, information in which distance grid individual plants to be examined in particular
  • Embodiment of the approach proposed here has the advantage that already a pre-selection of actually closer to be examined or to be detected plants can be made, which can sometimes save considerable effort in the recording or identification of plants.
  • Plant image information in particular using a green
  • Image processing in order to be able to identify individual parts or whole plants in the plant image information.
  • step of identifying determination of growth information as partial information of the plant information, which includes a
  • Development status and / or or a health status of the plant represents, wherein in the step of storing the growth information as
  • Partial information of the plant information is stored in the plant dataset.
  • growth information can, for example, information about the species, height, shape or number of leaves, buds, branches or the like or information about a structure of the plant itself or of parts of the plant.
  • Such an embodiment of the approach proposed here offers the additional advantage that not only the presence of the plant, but already one or more other parameters which are responsible for the
  • an embodiment of the approach proposed here in which, in the step of identifying, a recognition of a species of the plant takes place in order to obtain plant information, in particular wherein recognition results in a distinction of the species of the plant from a species of another plant.
  • a species of a plant may in the present case be understood as a genus of the plant.
  • Such an embodiment of the approach proposed here offers the advantage of being able to make a distinction between a useful or a cultivated plant from a weed, which need not be taken into account, for example, for the investigation of the state of development of the plant. In this way it can also be established, for example, that at the geographical position where, for example, at an earlier time a crop plant was planted, but this has been received by drought or animal feeding, now one (not further)
  • Such information that a weed plant now grows at the current geographic position may also be stored as part of the plant information in the plant dataset.
  • An embodiment of the approach proposed here in which at least one further plant is detected by means of an optical and / or infrared detection unit in order to obtain at least one further plant image information and at least one is particularly advantageous for assessing the development state of a plurality of plants another geographical position is detected at which the further plant grows in the field.
  • the step of identifying the further plant is identified using the further plant image information to obtain another To obtain plant information that represents the presence of the further plant.
  • the step of storing the further plant information and the further geographical position are stored in the plant data record.
  • an embodiment of the approach presented here which has a step of counting plants grown in the field using the plant information and the further plant information from the plant dataset.
  • Such an embodiment of the approach presented here offers the advantage of a fast, safe and unambiguous counting of plants grown on the field.
  • Determination time of the plant information contained in the stored plant dataset represents.
  • Such an embodiment of the approach proposed herein offers the advantage of providing a very precise history of the state of development of the plant.
  • Identify the plant is identified using a previously recorded identification information.
  • Information of a previously recorded plant image information or identification information can be, for example, a recognition algorithm for the plant, which in a previous training cycle specifically for Detection of the plant or characteristics of the plant has been optimized. In this way, the detection or identification can be simplified, since the
  • Plant image information needs to be compared only with a reference information or a reference image and thereby usually much less numerical or circuit complexity to determine the
  • a captured plant image may be plant image information taken in a previous embodiment of an embodiment of the method of recognition proposed herein.
  • Such an approach offers the advantage of being able to detect a technical disturbance of the detection unit with simple means, so that as far as possible no erroneous data are stored in the plant data record and an early elimination of the disturbance at the detection unit is possible.
  • This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control unit.
  • the approach presented here also creates an information system that is designed to implement, control or implement the steps of a variant of a method presented here in corresponding devices. Also by this embodiment of the invention in the form of a device, the object underlying the invention can be solved quickly and efficiently.
  • the information system at least one arithmetic unit for
  • At least one memory unit for storing signals or data, at least one interface to a sensor or an actuator for reading sensor signals from the sensor or for outputting data or control signals to the actuator and / or at least one communication interface to Reading or outputting data embedded in a communication protocol.
  • the arithmetic unit may be, for example, a signal processor, a microcontroller or the like, wherein the memory unit may be a flash memory, an EPROM or a magnetic memory unit.
  • the communication interface can be designed to read in or output data wirelessly and / or by line, wherein a communication interface, the
  • an information system can be understood to mean an electrical device which processes sensor signals and outputs control and / or data signals in dependence thereon.
  • the device may have an interface, which may be formed in hardware and / or software.
  • the interfaces can be part of a so-called system ASIC, for example, which contains a wide variety of functions of the device.
  • system ASIC system ASIC
  • the interfaces are their own integrated circuits or at least partially consist of discrete components.
  • the interfaces may be software modules that are present, for example, on a microcontroller in addition to other software modules.
  • the information system controls an electronic record of the plant data record.
  • the information system may, for example, read sensor signals such as the image data of the detection unit and an interface (for example from a satellite-based location system)
  • Access location information takes place via actuators, such as a write head for an electromagnetic recording of the plant information and the geographical position information in the
  • Plant data set or in a microelectronic memory Plant data set or in a microelectronic memory.
  • a computer program product or computer program with program code which can be stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk memory or an optical memory and for carrying out, implementing and / or controlling the steps of the method according to one of the above
  • Fig. 1 is a representation of a use of an embodiment of an information system for detecting at least one on a field
  • Fig. 2 is a schematic representation of an embodiment of the
  • FIG. 3 is a flowchart of a method according to a
  • FIG. 1 shows an illustration of a use of an exemplary embodiment of an information system 100 for recognizing at least one plant 110 cultivated on a field 105.
  • the plants 110 can thereby be arranged in columns, as shown in the left-hand area in FIG.
  • the geographical position of the individual plants 110 may already have been determined and stored in a corresponding file. Now on the field 105
  • the information system 100 has a detection unit 120 for detecting a (single) plant 110a.
  • the detection unit 120 may include, for example, an optical camera 125 and / or an infrared sensor 130 (also referred to as an infrared camera) that form an optical image and / or an infrared image of the plant 110a. It is also conceivable that the detection unit 120 comprises a filter unit 135 in order to extract a color component, such as the green color component of the image captured by the optical camera 125.
  • an infrared image of the infrared sensor 130 and / or one of the optical image of the camera 125 / or an infrared image of the infrared sensor 130 derived image can then as plant image information 140 from the
  • Detecting unit 120 are output.
  • the plant image information 140 is then sent from a unit 145 to
  • the plant information 150 represents the presence of the plant 110a.
  • the unit 145 may use an image processing algorithm for identifying this by using color components such as, for example, a green component in certain image regions, to draw a conclusion that a leaf or other component of the plant 110a would have to be imaged in these areas concerned. Additionally or alternatively, a
  • Edge detection algorithm used to outline the plant 110a and thereby recognize a spatial delimitation of the plant 110a of one or more adjacent plants.
  • the plant information 150 is transferred to a storage unit 155 into which the plant information 150 together with a
  • Position information 160 which represents a geographical position, is stored in a plant dataset 165.
  • the position information 160 is in this case provided by a position detection unit 170, which receives the position information 160 using, for example, a
  • This position information 160 refers to the current geographical position, of which the detection unit 120 or a subunit of the detection unit 120 has created an image. In a larger spatial extent of the information system 100 can in this case in the
  • Position detection unit 170 where appropriate, an offset correction take place, which takes into account a distance of an antenna 180 of the position detection unit 170 of the image pick-up area of the detection unit 120.
  • a file is stored, at which distance or at which geographical positions the plants 110 were planted, so that, for example, from the
  • a trigger signal 185 is sent to the detection unit 120 when a geographical position is reached at which a plant 110a is expected. In this way, a numerical effort for the determination or evaluation of the of the detection unit 120th
  • the position detection unit 170 also detects only a relative position of the information system 100 with respect to a corner coordinate 187 of the field 105 and thereby determines the relative position of the plant 110a. This relative position of the plant with respect to the corner coordinate 187 as a geographic position or as
  • Position information 160 is also sufficient here for the
  • the position information 160 is supplied as a signal to the unit 145 for identification.
  • unit 145 may already use the knowledge of the current geographical position from position information 160 to identify, for example, from previous recognition cycles a particular species of plant, plant size or the like by comparing the current plant image information with those contained in plant data set 165, from previously identified plant information. In this way, an effort for identifying the plant can be significantly reduced, since already some information about the expected species of RooellOa, size of the plant or the like can be suspected.
  • This growth information can then also be transmitted as part of the plant information 150 to the storage unit 155 and in the
  • Plant dataset 165 are stored. In this way, not only can a count of the individual plants 110 be made on the field 105, but it is also technically very easy to create a machine data record 165 which is very easy to machine and which provides a precise evaluation of the growth of the field 105 growing Plant 110 allows.
  • the information system 100 is used to determine a history of the growth of the plants 110 grown on the field 105.
  • the information system 100 can be used at intervals, in particular cyclically, at intervals of days, weeks and / or months in order to detect the plants 110a, 110b and / or 110c cultivated on the field 105.
  • a corresponding combination of the plant information 150 with the respective position information 160 can be stored in the plant data record 165, wherein additionally a time information for this above combination of plant information 150 and position information 160 is stored, which stores a time, for example indicates a date and an hour to be entered by the detection unit 120
  • Plant image information of the corresponding plant 110a, 110b and / or 110c has been detected.
  • the recognition of the plants 110 planted on the field 105 is particularly simple if the information system 100 is fastened, for example, on or to a vehicle or aircraft not shown in FIG. As a result, detection of the plants 110 planted on the field 105 can be carried out quickly and reliably without major personnel expenditure, and a large and machine-evaluable plant data set 165 can be set up very quickly by technical means.
  • the history of the physiological development of each individual plant measured can be taken into account in the assessment of breeding candidates, varieties, seed qualities or pesticide use.
  • the approach proposed here can be used in particular for the assessment of the field emergence stage as an important development phase of crop plants.
  • the task is the numerical and quota recording of rising plants.
  • the field crop rate is an essential one, especially with increasing seed quality (combined with high seed costs) and precise application with precision seed drills
  • seed is offered in different qualities and for different
  • a quality feature is the starting quota guaranteed by the manufacturer.
  • Another quality-forming feature is the field emergence time. The simultaneous emergence of sowing results in a homogeneous stock. This is for plant care, for certain
  • Breeding goals are z. As stress tolerances, resistance and fruit-specific characteristics. Yield is an integral breeding goal achieved through in conjunction with several specific subgoals.
  • Varieties developed by seed producers are tested and monitored in terms of their characteristics and characteristics by these institutions.
  • the improved measurement and analysis technology allows testing to be performed faster, with greater accuracy, and less labor.
  • the methods according to the invention can also be used in daily agricultural operations.
  • the data on field emergence and plant development gained during cultivation are inferior
  • the measurement is made by photogrammetric acquisition for the short duration of a single exposure. This excludes the influence of external factors such as B. Wind out. i. If several image recordings are taken one after the other (for example, while the measuring device is being moved over the inventory), then images of the corresponding plants in the image detail are obtained from different starting positions. The evaluation of the obtained images enables an improvement of the measurement results. j.) With the help of classification methods, the distinction
  • This classification is additionally supported by a-priori knowledge (such as alination, row and plant spacing).
  • the cyclical measurements and classifications result in a refinement of the measurement and classification results, for example by transformation (in the process of alination) of the positionally determined position grid of the plants. k.) Due to the history of each plant contained in the data management in its original position, a correction or improvement of the
  • the data processing can both online (during the current
  • the online analysis also allows Plausibility checks of the acquired measurement data in order to minimize errors and external influences or exclude them on site.
  • the use of suitable methods for data compression and reduction allows the (longer-term) storage of measurement and analysis data on the device or a (radio) transmission to a cloud-based storage system.
  • Data Management also allows the collection and analysis of data collected by third-party devices or processes. Corresponding interfaces for data exchange are required. o.) From the obtained data further insights (eg over
  • Pest infestation, diseases, influence of external factors such as weather, water, drought can be obtained.
  • Influencing factors are of crucial importance for the assessment of breeding, seed treatment or plant protection measures.
  • the (semi-) automatic functions according to the invention contribute to a holistic examination of the plants in the herd (that is, as a result, the user obtains a consistent overall picture of the plants in the herd during different stages of development).
  • the invention takes into account a plausibility check on the basis of a (partial) online evaluation of the measured data. This ensures that faults in the measuring device (such as a soiled camera lens) are already detected at the beginning of the measurement and recording of the data. This ensures that no unsuccessful attempts and resources are spared.
  • Position assignment realized. b. A data management part that collects, archives, evaluates and / or processes the comparatively large amounts of data, for example, as meaningful reports and also helps to plan the measurements.
  • the recorded measurement data can be processed directly on the measuring instrument or transmitted to a central server.
  • the storage on suitable data carriers is possible, which can be read in the wake of the measurement.
  • a suitable mobile solution is used by the measuring device (ie herein).
  • This mobile solution can be designed as a (semi-) autonomous vehicle, hand or motor vehicle, as an attachment for tractors, as an aircraft (for example as a drone) or in the simplest form in a portable form (for humans or animals).
  • a plurality of parallel measuring devices 120 may be integrated in a structure for optimum construction of the measuring device 100
  • Information system 100 has a position and orientation sensor 170 (eg rtkGPS), optionally supplemented by an orientation sensor (eg an inertial measurement unit IMU), optionally supplemented by odometrically obtained position information.
  • a position and orientation sensor 170 eg rtkGPS
  • an orientation sensor eg an inertial measurement unit IMU
  • odometrically obtained position information optionally supplemented by odometrically obtained position information.
  • It also has one or more cameras 125 with RGB, I R information channels and a suitable illumination unit for the required wavelength ranges.
  • An optional shading unit of the image surfaces ensures that the disturbing influence of extraneous light and
  • Shading is minimized.
  • the shading is designed so that it does not touch the plants when crossing.
  • the following exemplary processes and functions are integrated into the measuring and evaluation device 100:
  • the concrete experimental design (here, for example, division of the parcels with their assignment to test objects and series) is likewise read into the measuring device 100 before the measurements are started (experiment description).
  • the measuring device 100 is guided in rows (eg in the drilling direction) over the test surfaces (that is to say here the field 105). This process can take place several times.
  • Measuring device 100 built-in cameras 125 and / or 130 of the
  • Detection unit 120 driven according to the known boundaries of the parcels and take data as plant image information 140. It is particularly noteworthy that one or more plants 110a and 110b are captured in the image section during the crossing. Thus, multiple images of the same plant 110a and 110b are sequentially made by the one-shot imaging technique (Image Sequencing). This method allows the influences of changing wind and light conditions as well
  • image data recorded in lighting conditions includes a.) RGB images and b.) Infrared images.
  • the cameras 125 and 130 are calibrated (for example, to calculate the height assignment from the pictures). 6.
  • the captured by the cameras 125 and 130 images are registered with each other to z.
  • an NDVI index Normalized Differenced Vegetation Index, which is formed from reflection values in the near infrared and visible red wavelength range of the light spectrum
  • biomass masks reduced image data with clusterings of green fractions that are very likely to represent individual plants.
  • the biomass masks are assigned positions in the global coordinate system (eg rtkGPS positions).
  • fusion eg orientation of the measuring device, transformation between camera position and position sensors.
  • Classification method applied to the detected green clusters In the case of a follow-on crossing, the biomass masks are re-identified on the basis of their global position data. The classification can be done online (during the current measurements) or offline (in the aftermath). The used classifiers have been trained for this purpose before the measurements. For this purpose, data has been collected on trial plots and manually examined and "labeled" (annotated) . The trainer distinguishes between crop and weeds in this process
  • Parameters such as geometric features of the biomass masks (such as shape or size) and statistical features (such as the number of pixels of particular colors and their distribution based on intensity values). 10.
  • the classification is based on all the image data recorded during the measurements (several images during the crossing, over several crossings). All classification results are taken into account and contribute to an overall result based on a majority voting evaluation process. This result is updated at the current date and can be used to correct misclassifications in the past correct. Overall, the method used increases the likelihood of correct classification.
  • Biomass masks classed as crops are used to calculate appropriate characteristics that contribute to the results of the trial (eg leaf area estimation, field crop detection or crop loss).
  • the data is stored after recording and evaluation z. B. stored in a cloud-based environment and maintained for visualization and further analysis on terminals. Evaluations can have different tabular, graphical and written form and contain all measured and derived parameters (eg scaled representation of the plants in their plots as plan view, weed stock in the trial field, etc.).
  • Fig. 2 shows a schematic representation of an embodiment of the method with an operation of an automated high-throughput Deginaung and measurement in the field.
  • a carrier platform such as the information system 100, the position detection unit is first used
  • a position information 160 representing the geographical position.
  • This position information 160 can be detected, for example, via an interface such as an antenna 180 to a satellite-based location system 175, so that, for example, GPS data can be detected and thereby the geographic position 160 of the information system 100 can be determined. It is also conceivable that the position information 160 a memory in conjunction with odometrically detected movement data of the
  • the carrier platform or the information system 100 comprises at least one detection unit 120 for detecting a plant 110a or 110b or 110c by means of the optical camera
  • the detection unit 120 may, for example, comprise one or more sensor systems, such as the cameras 125 and 130, which are embodied, for example, as low-cost optical cameras which capture / capture images of the plants 110a or 110b and derive these as plant image information 140 or derived therefrom Information of unit 145 transmitted for identification.
  • Information of unit 145 transmitted for identification.
  • the unit 145 for identifying for example, a data extraction and / or a data fusion of the plant image information 140 and / or the information derived therefrom with the position information 160 can take place.
  • an assignment 215 of the geographical position (which can be taken from the position information 160) to the plant 110a can be made.
  • the geographical position (for example using GPS data) of the plant 110a known from the position detection unit 170 and / or from a memory 220 can be used and / or used for plausibility checking.
  • a specific capture or identification 220 of the plant 110a may be in the form of the plant image information 140 or derived therefrom Information is provided so that, for example, this information in the
  • Plant data set 165 can be stored. This can be done in the
  • Plant data set 165 may be stored as part of the plant image information 140 or the information derived therefrom information about extracted features of the plant 110a, such as a sheet number, a leaf structure or the like of the respective plant 110a. Finally, in the storage unit 155, the plant information 145 together with the respectively corresponding position information 160 is stored in the plant data record 165.
  • Exposure unit (for example, as a subunit of the unit 120 for detecting) is driven in order to change the brightness in the area detected by the camera (s) 125 and 130, in particular to increase.
  • Drive signal 230 may be output to unit 120 for detection, for example, by unit 145 for identifying and / or storage unit 155 or the control unit (not shown in FIG. 2).
  • the plant dataset 165 may then, for example, to a
  • Processing unit 235 are output, either part of the
  • Information system 100 or, for example, in a central computer 237 is arranged, as shown by way of example in Figure 2. In this
  • Processing unit 235 then carries out, for example, the processing in a 4D processing level, as illustrated by way of example in region 240 of FIG.
  • this 4D processing level an evaluation of the plant parameter data set 105, especially of the one preferably takes place
  • Plant data set 165 stored geographic positions 245, for example, as the GPS data of the plants 110a and 110b assigned Position information 160 is present, with data 250 relating to a history of the development of the individual plant (s) 110a or 110b or the re-identification of the individual plant (s) 110a or 110b, for example using the
  • Soil water content of the soil, weather and / or
  • an annotation 238 takes place in which a change in the data of the stored in the storage unit 155 plant data set 165 takes place.
  • a correction can take place such that upon detection of a dead plant 110a or 110b, for example due to animal feeding or due to drought, the plant information for the plant 110a or 110b receives additional information such that this plant 110a or 110a resp.
  • the plant data record 165 can be stored in a database 260, for example directly in the central computer 237, a PC or a cloud, not shown here. Also conceivable is a modification of the plant data record 165, which from the database 260 by means of a
  • Information from the plant dataset 165 can also be found in a
  • Display unit 265 are displayed visually. From this you can leave
  • Results 270 determine or determine the quality of a seed, a particularly favorable method of growing seed, a development of varieties of the plant, a development of the use of plant protection products etc. improve. Also conceivable here is a change of the
  • Plant data set 165 which is triggered by the display unit 265 by means of a change signal 275.
  • the method 300 comprises a step 310 of detecting a plant by means of an optical and / or infrared detection unit in order to obtain plant image information and detecting position information representing a geographical position at which the plant grows in the field. Further, the method 300 includes a step 320 of identifying the plant using the plant
  • the method 300 includes a step 330 of plant information and position information in a plant dataset to identify the plant planted in the field.
  • an exemplary embodiment comprises a "and / or" link between a first feature and a second feature, then this is to be read so that the embodiment according to one embodiment, both the first feature and the second feature and according to another embodiment either only first feature or only the second feature.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Processing (AREA)

Abstract

Die Erfindung betrifft ein Verfahren (300) zum Erkennen zumindest einer auf einem Feld (105) angepflanzten Pflanze (110a, 110b). Das Verfahren (300) umfasst einen Schritt (310) des Erfassenseiner Pflanze (110a, 110b) mittels einer optischen und/oder Infrarot-Erfassungseinheit (120, 125, 130), um eine Pflanzenbildinformation (140) zu erhalten und Erfassen einer Positionsinformation (160), die eine geografische Position repräsentiert, an der die Pflanze (110a, 110b) in dem Feld (105) wächst. Weiterhin umfasst das Verfahren (300) einen Schritt (320) des Identifizierensder Pflanze (110a, 110b) unter Verwendung der Pflanzenbildinformation (140), um eine Pflanzeninformation (145) zu erhalten, die das Vorhandensein der Pflanze (110a, 10b) repräsentiert. Schließlich umfasst das Verfahren (300) einen Schritt (330) des Speicherns(330) der Pflanzeninformation (145) und der geografischen Position in einem Pflanzendatensatz (165), um die auf dem Feld (105) angepflanzte Pflanze (110a, 110b) zu erkennen.

Description

Beschreibung Titel
Verfahren und Informationssystem zum Erkennen zumindest einer auf einem Feld angepflanzten Pflanze
Stand der Technik
Die Erfindung geht aus von einem Verfahren zum Erkennen zumindest einer auf einem Feld angepflanzten Pflanze oder einem Informationssystem nach Gattung der unabhängigen Ansprüche. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.
In der Landwirtschaft werden bei der Züchtung neuer Sorten und bei der
Optimierung der Saatgutqualität weitgehend standardisierte Verfahren zur Beurteilung der Zucht- oder Behandlungsfortschritte angewendet. Diese
Verfahren werden in umfassenden Versuchsreihen eingesetzt, die mehrere Wiederholungen an verschiedenen Standorten beinhalten.
Die höchste Aussagekraft für Züchter haben Versuchsreihen (sogenannte Serien), die im Feld stattfinden und weitestgehend die tatsächliche
Anbausituation widerspiegeln. Für diese Feldversuche werden daher mehrere großformatige Beete angelegt, die in Parzellen aufgeteilt werden.
Im überwiegenden Teil der Feldversuche kommen Boniturverfahren zum Einsatz, bei denen die zu beurteilenden Merkmale einer Pflanze (Keimung, Austrieb, Wuchshöhe, Blattgröße, Blüte, Fruchtreife, u.v.a.) entsprechend
Entwicklungsstadium einer Boniturnote (Zahlenwert von 1 bis 9) zugeordnet werden. Die zu betrachtenden Merkmale sind von der Kulturart abhängig. Die Zuordnung der Boniturnoten erfolgt durch menschliche Betrachter. Die Ergebnisse werden üblicherweise im Feld auf Papier notiert und in einem weiteren Bearbeitungsschritt in einen PC übertragen. In seltenen Fällen werden heute Handheld-Computer (Tablets) mit spezifischen Eingabemasken für die Bonitur bestimmter Kulturen und Merkmale eingesetzt.
Die von Personen im Feldversuch entsprechend Boniturschema erfassten Daten werden im Nachgang ausgewertet. Die Auswertung ist üblicherweise ein manuelles Verfahren, in dem die Teilergebnisse in Tabellen zusammengefasst und anschließend mittels statistischer Verfahren analysiert werden.
Offenbarung der Erfindung
Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zum Erkennen zumindest einer auf einem Feld angepflanzten Pflanze, weiterhin ein Informationssystem, das dieses Verfahren verwendet, sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen
Anspruch angegebenen Vorrichtung möglich.
Der hier vorgestellte Ansatz schafft ein Verfahren zum Erkennen zumindest einer auf einem Feld angepflanzten Pflanze, wobei das Verfahren die folgenden Schritte aufweist:
Erfassen einer Pflanze mittels einer optischen und/oder Infrarot- Erfassungseinheit, um eine Pflanzenbildinformation zu erhalten und
Erfassen einer Positionsinformation, die eine geografische Position repräsentiert, an der die Pflanze in dem Feld wächst;
Identifizieren der Pflanze unter Verwendung der Pflanzenbildinformation, um eine Pflanzeninformation zu erhalten, die das Vorhandensein der Pflanze repräsentiert; und
Speichern der Pflanzeninformation und der Positionsinformation in einem Pflanzendatensatz, um die auf dem Feld angepflanzte Pflanze zu erkennen. Unter einem Feld kann vorliegend eine Anbaufläche für Pflanzen oder auch eine Parzelle eines solchen Feldes verstanden werden. Unter eine Pflanze kann beispielsweise eine Nutzpflanze verstanden werden, deren Frucht
landwirtschaftlich genutzt wird, beispielsweise als Nahrungsmittel, Futtermittel oder als Energiepflanze. Unter einer optischen Erfassungseinheit kann beispielsweise eine Kamera verstanden werden. Unter einer geografischen Position, an der die Pflanze dem Feld wächst, kann beispielsweise eine
Information verstanden werden, die die Position der Pflanze als Weltkoordinaten repräsentiert oder die Lage der Pflanze in Bezug auf eine Eckkoordinate des Feldes wiedergibt. Unter einer Pflanzenbildinformation kann ein Abbild oder ein Pflanzenparameter verstanden werden, das/der optisch erfassbare Merkmale oder mittels Infrarot-Strahlung erfassbare Merkmale der Pflanze wiedergibt. Hierbei kann die Pflanzenbildinformation auch Informationen enthalten, die durch eine Ver- oder Bearbeitung des von der optischen Kamera und/oder des Infrarotsensors erfassten Abbildes der Pflanze erhalten wird. Unter einem Identifizieren der Pflanze kann beispielsweise das Bestimmen des
Vorhandenseins der Pflanze an der geografischen Position und/oder eine Bestimmung einer Form, Größe, Spezies, Blattanzahl, Blattstruktur,
Knospenanzahl, Knospenstruktur oder anderer biologischer Merkmale verstanden werden, die eine Pflanze von anderen Pflanzen unterscheidbar macht. Hierbei kann beispielsweise auch die Bestimmung einer Grenze einer Pflanze in Bezug zu einer anderen Pflanze erfolgen. Unter einer
Pflanzeninformation kann vorliegend ein Parameter oder eine Information verstanden werden, wie beispielsweise die vorstehend genannte Form, Größe, Spezies, Blattanzahl, Blattstruktur, Knospenanzahl, Knospenstruktur oder dergleichen, die eine Unterscheidung der Pflanze von einer anderen Pflanze ermöglicht. Jedoch kann auch der Parameter lediglich eine Information über das Vorhandensein der Pflanze selbst an der geografischen Position geben. Unter einem Pflanzendatensatz kann ein Datensatz oder eine in einem Speicher abgespeicherte oder abzuspeichernde Informationseinheit verstanden werden, in welcher die Pflanzeninformation mit einer zugeordneten geografischen Position der Pflanze abgespeichert ist oder wird.
Der hier vorgeschlagene Ansatz basiert auf der Erkenntnis, dass unter
Verwendung einer Erfassungseinheit das Erkennen der Pflanze einer bestimmten geografischen Position sehr schnell und durch das Vermeiden einer menschlichen Klassifizierung reproduzierbar erfolgen kann. Hierbei wird ferner ausgenutzt, dass durch das Speichern der Pflanzeninformation und der geografischen Position in dem Pflanzendatensatz zugleich ein maschinell sehr einfach lesbarer Pflanzendatensatz generiert wird, der für eine nachfolgende
Auswertung sehr einfach weiter verwertet werden kann. Durch die Zuordnung einer geografischen Position zu der Pflanze bzw. der Pflanzeninformation wird ferner sichergestellt, dass in wiederholten Zyklen der Erkennung der Pflanze stets die gleiche Pflanze erfasst werden kann, sodass sich der
Entwicklungszustand dieser Pflanze zeitlich eindeutig nach verfolgen lässt.
Der hier vorgeschlagene Ansatz bietet den Vorteil, dass die Beurteilung des Pflanzenwachstums der Pflanze sehr schnell automatisiert durchgeführt werden kann. Dies ist insbesondere dann hilfreich, wenn das Wachstum einer großen Anzahl von Pflanzen überwacht werden soll, wie es beispielsweise in der
Saatgutforschung erforderlich ist. Hierbei werden beispielsweise in
unterschiedlichen Teilbereichen des Feldes unterschiedliche
Wachstumsbedingungen geschaffen, beispielsweise durch das Ausbringen von unterschiedlicher Art bzw. Menge von Dünger, wobei diese Kenntnis der Wachstums- bzw. Umgebungsbedingungen in Verbindung mit der
Pflanzeninformation und der geografischen Position dann einen Rückschluss auf den Einfluss dieser Wachstums- bzw. Umgebungsbedingungen auf den
Entwicklungsverlauf der Pflanze an der entsprechenden geografischen Position bietet. Der hier vorgestellte Ansatz ermöglicht somit eine deutliche Verbesserung bei der Beurteilung der Entwicklungsstadien von auf dem Feld wachsenden
Pflanzen durch eine automatisierte Erkennung der Pflanze und der
automatischen Abspeicherung der Pflanzeninformationen zusammen mit der geografischen Information in dem Pflanzendatensatz. Gemäß einer Ausführungsform des hier vorgestellten Ansatzes kann im Schritt des Erfassens die Pflanze aus einer Mehrzahl von Blickrichtungen und/oder mit einer Belichtungszeit von weniger als einer halben Sekunde erfasst werden, insbesondere wobei die Pflanze mit einer Belichtungszeit von weniger als einer zehntel Sekunde erfasst wird. Eine solche Ausführungsform des hier
vorgestellten Ansatzes bietet den Vorteil, ein sehr präzises und möglichst fehlerfreies Abbild der Pflanze zu generieren, um Störeffekte bei der Aufnahme des Bildes, beispielsweise durch Wind oder Verschattung einzelner Pflanzenteile, möglichst weitgehend ausschließen zu können. Günstig ist weiterhin eine Ausführungsform des hier vorgestellten Ansatzes, bei dem im Schritt des Erfassens der Pflanzenbildinformation unter Verwendung eine vorab eingelesene Pflanzenabstandsinformation erfasst wird, die einen Abstand von Pflanzen in dem Feld repräsentiert. Eine solche vorab eingelesene
Pflanzenabstandsinformation kann beispielsweise eine Information sein, in welchem Abstandsraster einzelne, besonders zu untersuchende Pflanzen bei der
Anlage des Feldes ursprünglich gepflanzt wurden. Eine derartige
Ausführungsform des hier vorgeschlagenen Ansatzes bietet den Vorteil, dass bereits eine Vorauswahl von tatsächlich näher zu untersuchenden oder zu erfassenden Pflanzen vorgenommen werden kann, wodurch sich teilweise erheblicher Aufwand bei der Aufnahme oder Identifizierung von Pflanzen einsparen lässt.
Technisch sehr einfach und zuverlässig ist eine Ausführungsform des hier vorgestellten Ansatzes, bei dem im Schritt des Identifizierens die Pflanze unter Verwendung eines Farbanteils eines Pflanzenbildes aus der
Pflanzenbildinformation, insbesondere unter Verwendung eines grünen
Farbanteils des Pflanzenbildes aus der Pflanzenbildinformation und/oder einem Infrarot- Anteil des Pflanzenbildes der Pflanzenbildinformation identifiziert wird. Eine solche Ausführungsform des hier vorgeschlagenen Ansatzes bietet den Vorteil der Anwendung von bereits ausgereiften Algorithmen der
Bildverarbeitung, um in der Pflanzenbildinformation einzelne Teile oder ganze Pflanzen identifizieren zu können.
Auch kann gemäß einer weiteren Ausführungsform des hier vorgeschlagenen Ansatzes im Schritt des Identifizierens ein Bestimmen einer Wuchsinformation als Teilinformation der Pflanzeninformation erfolgen, die einen
Entwicklungszustand und/oder oder einen Gesundheitszustand der Pflanze repräsentiert, wobei im Schritt des Speicherns die Wuchsinformation als
Teilinformation der Pflanzeninformation in dem Pflanzendatensatz abgespeichert wird. Eine solche Wuchsinformation kann beispielsweise eine Information über die Spezies, Höhe, Form oder die Anzahl der Blätter, Knospen, Zweige oder dergleichen oder eine Information über eine Struktur der Pflanze selbst oder von Teilen der Pflanze sein. Eine solche Ausführungsform des hier vorgeschlagenen Ansatzes bietet den zusätzlichen Vorteil, dass nicht nur das Vorhandensein der Pflanze, sondern bereits ein oder mehrere weitere Parameter, die für die
Beurteilung des Entwicklungszustands und/oder des Gesundheitszustands der Pflanze relevant sind, mit in dem Pflanzendatensatz aufgezeichnet oder abgespeichert werden.
Besonders vorteilhaft ist ferner eine Ausführungsform des hier vorgeschlagenen Ansatzes, bei der im Schritt des Identifizierens ein Erkennen einer Spezies der Pflanze erfolgt, um eine Pflanzeninformation zu erhalten, insbesondere wobei bei dem Erkennen ein Unterscheiden der Spezies der Pflanze von einer Spezies einer anderen Pflanze erfolgt. Unter einer Spezies einer Pflanze kann vorliegend eine Gattung der Pflanze verstanden werden. Eine derartige Ausführungsform des hier vorgeschlagenen Ansatzes bietet den Vorteil, eine Unterscheidung einer Nutz- oder Kulturpflanze von einem Beikraut vornehmen zu können, welches beispielsweise für die Untersuchung des Entwicklungszustands der Pflanze nicht weiter beachtet werden brauchen. Auf diese Weise lässt sich beispielsweise auch feststellen, dass an der geografischen Position, an der beispielsweise zu einem früheren Zeitpunkt eine Nutzpflanze angepflanzt war, diese jedoch durch Trockenheit oder Tierfraß eingegangen ist, nun eine (nicht weiter zu
berücksichtigende) Beikraut-Pflanze wächst. Eine solche Information, dass an der aktuellen geografischen Position nun eine Beikraut-Pflanze wächst, kann ebenfalls als Teil der Pflanzeninformation in den Pflanzendatensatz gespeichert werden.
Besonders vorteilhaft zur Beurteilung des Entwicklungszustandes einer Mehrzahl von Pflanzen ist eine Ausführungsform des hier vorgeschlagenen Ansatzes, bei dem im Schritt des Erfassens zumindest eine weitere Pflanze mittels einer optischen und/oder Infrarot-Erfassungseinheit erfasst wird, um zumindest eine weitere Pflanzenbildinformation zu erhalten und zumindest eine weitere geografische Position erfasst wird, an der die weitere Pflanze in dem Feld wächst. Im Schritt des Identifizierens wird die weitere Pflanze unter Verwendung der weiteren Pflanzenbildinformation identifiziert, um eine weitere Pflanzeninformation zu erhalten, die das Vorhandensein der weiteren Pflanze repräsentiert. Im Schritt des Speicherns werden die weitere Pflanzeninformation und die weitere geografische Position in dem Pflanzendatensatz abgespeichert. Eine solche Ausführungsform des hier vorgeschlagenen Ansatzes bietet den Vorteil, das Erkennen einer Mehrzahl, insbesondere einer Vielzahl von Pflanzen hoch-automatisiert und somit schnell und zuverlässig durchführen zu können. Auf diese Weise wird es möglich, sehr präzise Informationen über den
Entwicklungszustand der Pflanzen auf dem Feld zu erhalten.
Besonders vorteilhaft ist eine Ausführungsform des hier vorgestellten Ansatzes, die einen Schritt des Zählens von auf dem Feld angebauten Pflanzen unter Verwendung der Pflanzeninformation und der weiteren Pflanzeninformation aus dem Pflanzendatensatz aufweist. Eine solche Ausführungsform des hier vorgestellten Ansatzes bietet den Vorteil einer schnellen, sicheren und eindeutigen Zählung der auf dem Feld angebauten Pflanzen.
Von Vorteil ist weiterhin eine Ausführungsform des hier vorgeschlagenen
Ansatzes, bei dem die Schritte des Erfassens, des Identifizierens und des Speichers zumindest einmal wiederholt ausgeführt werden, insbesondere zyklisch wiederholt ausgeführt werden, insbesondere wobei in jedem Schritt des Speicherns zusätzlich ein Zeitparameter abgespeichert wird, der einen
Ermittlungszeitpunkt der in dem abgespeicherten Pflanzendatensatz enthaltenen Pflanzeninformation repräsentiert. Eine solche Ausführungsform des hier vorgeschlagenen Ansatzes bietet den Vorteil der Bildung einer sehr präzisen Historie über den Entwicklungszustand der Pflanze.
Von Vorteil ist weiterhin eine Ausführungsform des hier vorgeschlagenen
Ansatzes, bei der im Schritt des Erfassens dar Pflanzenbildinformation unter Verwendung einer Information einer zeitlich vorausgehend aufgenommenen oder erwarteten Pflanzenbildinformation erfasst wird und/oder im Schritt des
Identifizierens die Pflanze unter Verwendung einer zeitlich vorausgehend aufgezeichneten Identifizierungsinformation identifiziert wird. Eine solche
Information einer zeitlich vorausgehend aufgenommenen Pflanzenbildinformation oder Identifizierungsinformation kann beispielsweise ein Erkennungsalgorithmus für die Pflanze sein, der in einem zuvor erfolgten Trainingszyklus speziell zur Erkennung der Pflanze oder der Merkmale der Pflanze optimiert wurde. Auf diese Weise lässt sich das Erfassen oder Identifizieren vereinfachen, da die
Pflanzenbildinformation lediglich mit einer Referenzinformation oder einem Referenzbild abgeglichen werden braucht und hierdurch meist deutlich weniger numerischer oder schaltungstechnischer Aufwand zur Ermittlung der
Pflanzeninformation erforderlich ist.
Um beispielsweise mit einfachen Mitteln eine Beschädigung oder Verschmutzung der Erfassungseinheit erkennen zu können, kann im Schritt des Erfassens ein Plausibilisieren der Pflanzenbildinformation mit einer
Plausibilisierungsinformation aus einer zeitlich vorausgehend aufgenommenen Pflanzenbildinformation erfolgen, um eine Funktionsfähigkeit der
Erfassungseinheit zu ermitteln. Ein solches zeitlich vorausgehend
aufgenommenes Pflanzenbild kann beispielsweise eine Pflanzenbildinformation sein, die in einer vorausgehenden Ausführung einer Ausführungsform des hier vorgeschlagenen Verfahrens zum Erkennen aufgenommen wurde. Ein solcher Ansatz bietet den Vorteil, mit einfachen Mitteln bereits eine technische Störung der Erfassungseinheit erkennen zu können, sodass möglichst keine fehlerhaften Daten in den Pflanzendatensatz abgespeichert werden und eine frühzeitige Behebung der Störung an der Erfassungseinheit möglich ist.
Besonders vorteilhaft ist eine Ausführungsform des hier vorgeschlagenen Ansatzes, bei der im Schritt des Erfassens eine auf einem Fahrzeug und/oder auf einem Luftfahrzeug angeordnete Erfassungseinheit zum Erfassen der Pflanze verwendet wird. Eine solche Ausführungsform bietet den Vorteil einer schnellen, eindeutigen und reproduzierbaren Erkennung einer großen Anzahl von Pflanzen auf dem Feld.
Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.
Der hier vorgestellte Ansatz schafft ferner ein Informationssystem, das ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
Hierzu kann das Informationssystem zumindest eine Recheneinheit zum
Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Daten- oder Steuersignalen an den Aktor und/oder zumindest eine Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die
leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten
beispielsweise elektrisch oder optisch aus einer entsprechenden
Datenübertragungsleitung einlesen oder in eine entsprechende
Datenübertragungsleitung ausgeben kann.
Unter einem Informationssystem kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
In einer vorteilhaften Ausgestaltung erfolgt durch das Informationssystem eine Steuerung einer elektronischen Aufzeichnung des Pflanzendatensatzes. Hierzu kann das Informationssystem beispielsweise auf Sensorsignale wie die Bilddaten der Erfassungseinheit und über eine Schnittstelle (beispielsweise von einem satellitengestützten Ortungssystem) eingelesene geografische
Positionsinformationen zugreifen. Die Ansteuerung erfolgt über Aktoren wie beispielsweise einen Schreibkopf für eine elektromagnetische Aufzeichnung der Pflanzeninformation und der geografischen Positionsinformation in dem
Pflanzendatensatz oder in einen mikroelektronischen Speicher.
Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend
beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
Fig. 1 eine Darstellung einer Verwendung eines Ausführungsbeispiels eines Informationssystems zum Erkennen zumindest einer auf einem Feld
angepflanzten Pflanze;
Fig. 2 eine schematische Darstellung eines Ausführungsbeispiels des
Verfahrens mit einer Funktionsweise einer automatisierten Hochdurchsatz- Pflanzenzählung und Vermessung im Feld; und
Fig. 3 ein Ablaufdiagramm eines Verfahrens gemäß einem
Ausführungsbeispiel.
In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren
dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
Fig. 1 zeigt eine Darstellung einer Verwendung eines Ausführungsbeispiels eines Informationssystems 100 zum Erkennen zumindest einer auf einem Feld 105 angebauten Pflanze 110. Die Pflanzen 110 können dabei, wie dies im linken Bereich in der Figur 1 dargestellt ist, in Spalten angeordnet sein und
beispielsweise je in einem Pflanzabstand 115 voneinander beanstandet sein. Dabei kann beispielsweise beim Anlegen des Feldes 105 die geographische Position der einzelnen Pflanzen 110 bereits ermittelt worden sein und in einer entsprechenden Datei abgespeichert sein. Nun die auf dem Feld 105
angebauten Pflanzen einzeln zu erkennen, weist das Informationssystem 100 eine Erfassungseinheit 120 zum Erfassen einer (einzelnen) Pflanze 110a auf. Die Erfassungseinheit 120 kann beispielsweise eine optische Kamera 125 und/oder einen Infrarotsensor 130 (auch als Infrarotkamera bezeichnet) aufweisen, die ein optisches Bild und/oder ein Infrarotbild der Pflanze 110a erstellen. Denkbar ist auch, dass die Erfassungseinheit 120 eine Filtereinheit 135 umfasst, um einen Farbanteil wie beispielsweise den grünen Farbanteil des von der optischen Kamera 125 erfassten Bildes zu extrahieren. Das optische Bild der
Kamera 125, ein Infrarotbild des Infrarotsensors 130 und/oder ein von dem optischen Bild der Kamera 125/oder ein von Infrarotbild des Infrarotsensors 130 abgeleitetes Bild kann dann als Pflanzenbildinformation 140 von der
Erfassungseinheit 120 ausgegeben werden.
Das Pflanzenbildinformation 140 wird dann von einer Einheit 145 zum
Identifizieren eingelesen und unter Anwendung von entsprechenden Algorithmen die Pflanzeninformation 150 ermittelt. Die Pflanzeninformation 150 repräsentiert dabei das Vorhandensein der Pflanze 110a. Beispielsweise kann die Einheit 145 zum Identifizieren hierzu einen Bildverarbeitungsalgorithmus verwenden, in welchem anhand von Farbanteilen wie beispielsweise einem Grünanteil in bestimmten Bildbereichen ein Rückschluss darauf gezogen werden kann, dass in diesen betreffenden Bereichen ein Blatt oder anderer Bestandteil der Pflanze 110a abgebildet sein müsste. Zusätzlich oder alternativ kann auch ein
Kantenerkennungsalgorithmus verwendet werden, um die Umrisse der Pflanze 110a zu erkennen und hierdurch eine räumliche Abgrenzung der Pflanze 110a von einer oder mehrerer benachbarter Pflanzen zu erkennen.
Schließlich wird die Pflanzeninformation 150 an eine Speichereinheit 155 übertragen, in welche die Pflanzeninformation 150 zusammen mit einer
Positionsinformation 160, die eine geografische Position repräsentiert, in einem Pflanzendatensatz 165 abgespeichert wird. Die Positionsinformation 160 wird hierbei von einer Positionserfassungseinheit 170 bereitgestellt, welche die Positionsinformation 160 beispielsweise unter Verwendung eines
satellitengestützten Ortungssystems 175, wie beispielsweise dem GPS-System, bereitstellt. Diese Positionsinformation 160 bezieht sich dabei auf die aktuelle geografische Position, von der die Erfassungseinheit 120 bzw. eine Teileinheit der Erfassungseinheit 120 ein Abbild erstellt hat. Bei einer räumlichen größeren Ausdehnung des Informationssystems 100 kann hierbei in der
Positionserfassungseinheit 170 gegebenenfalls auch eine Offset- Korrektur erfolgen, die einen Abstand einer Antenne 180 der Positionserfassungseinheit 170 von dem Bildaufnahmebereich der Erfassungseinheit 120 berücksichtigt.
Denkbar ist ferner, dass auch in der Positionserfassungseinheit 170 eine Datei gespeichert ist, in welchem Abstand oder an welchen geografischen Positionen die Pflanzen 110 gepflanzt wurden, sodass auch beispielsweise von der
Positionserfassungseinheit 170 ein Auslösesignal 185 an die Erfassungseinheit 120 gesandt wird, wenn eine geografische Position erreicht ist, an der eine Pflanze 110a zu erwarten ist. Auf diese Weise kann ein numerischer Aufwand für die Ermittlung oder Auswertung des von der Erfassungseinheit 120
aufgenommenen Bildes bzw. der aufgenommenen Bilder reduziert werden, da nur zu bestimmten Zeitpunkten von Erfassung 120 Bilder aufgenommen werden, welche nachfolgend in der Einheit 135 bzw. der Einheit 145 zum Identifizieren auszuwerten sind. Denkbar ist ferner, dass die Positionserfassungseinheit 170 auch lediglich eine relative Position des Informationssystems 100 in Bezug auf eine Eckkoordinate 187 des Feldes 105 erfasst und hierdurch die relative Position der Pflanze 110a ermittelt. Diese relative Position der Pflanze in Bezug auf die Eckkoordinate 187 als geografische Position oder als
Positionsinformation 160 ist hierbei ebenfalls ausreichend, um für die
nachfolgende Auswertung der Informationen aus dem Pflanzendatensatz relevante Informationen in Bezug auf die jeweiligen Pflanzen wie die Pflanze 110a ziehen zu können. Ferner ist auch denkbar, dass die Positionsinformation 160 als Signal der Einheit 145 zum Identifizieren zugeführt wird. In diesem Fall kann die Einheit 145 zum Identifizieren bereits die Kenntnis der aktuellen geografischen Position aus der Positionsinformation 160 verwenden, um beispielsweise aus vorangegangenen Erkennungszyklen eine bestimmte Spezies der Pflanze, Größe der Pflanze oder dergleichen durch Vergleich der aktuellen Pflanzenbildinformation mit den im Pflanzendatensatz 165 enthaltenen, von zuvor identifizierten Pflanzeninformationen zu bestimmen. Auf diese Weise kann ein Aufwand für das Identifizieren der Pflanze deutlich reduziert werden, da bereits einige Informationen über die zu erwartende Spezies der PflanzellOa, Größe der Pflanze oder dergleichen vermutet werden können.
Denkbar ist ferner, dass beim Identifizieren der Pflanze 110a auch aus dem Pflanzenbildinformation 140 weiterhin eine Wuchsinformation ermittelt wird, die beispielsweise die Größe der Pflanze 110a, eine Anzahl von Blättern der Pflanze 110a, eine Anzahl von Knospen der Pflanze 110a, eine Struktur der Blätter der Pflanze 110a oder andere botanische Merkmale der Pflanze 110a
repräsentieren, aus denen ein Rückschluss auf den Entwicklungszustand und/oder den Gesundheitszustand der Pflanze 110a gezogen werden kann.
Diese Wuchsinformation kann dann ebenfalls als Teil der Pflanzeninformation 150 an die Speichereinheit 155 übertragen werden und in dem
Pflanzendatensatz 165 abgespeichert werden. Auf diese Weise lässt sich nicht nur eine Zählung der einzelnen Pflanzen 110 auf dem Feld 105 vornehmen, sondern es lässt sich auch technisch sehr einfach ein maschinell sehr gut zu verarbeitender Pflanzendatensatz 165 erstellen, der eine präzise Auswertung der des Wachstums der auf dem Feld 105 wachsenden Pflanzen 110 zulässt.
Hierzu ist es vorteilhaft, wenn nicht nur eine Pflanze 110a unter Verwendung des vorstehend beschriebenen Ausführungsbeispiels des Informationssystems 100 erkannt wird, sondern wenn auch weitere Pflanze wie die Pflanzen 110b und 110c beispielsweise analog zu der vorstehend beschriebenen Vorgehensweise ebenfalls erkannt werden und je eine entsprechende Kombination aus einer Pflanzeninformation 150 mit einer Positionsinformation 160 für jede der Pflanzen 110b und 110c in dem Pflanzendatensatz 165 abgespeichert werden. Besonders vorteilhaft ist es, wenn beispielsweise entsprechend der vorstehend beschriebenen Vorgehensweise das Informationssystem 100 eingesetzt wird, um eine Historie des Wachstums der auf dem Feld 105 angebauten Pflanzen 110 zu bestimmen. Hierzu kann das Informationssystem 100 in zeitlichen Abständen, insbesondere zyklisch in Abständen von Tagen, Wochen und/oder Monaten eingesetzt werden, um die auf dem Feld 105 angebauten Pflanzen 110a, 110b und/oder 110c zu erkennen. Hierbei kann nach jedem Erkennen einer Pflanze 110 eine entsprechende Kombination aus der Pflanzeninformation 150 mit der jeweiligen Positionsinformation 160 in dem Pflanzendatensatz 165 abgespeichert werden, wobei noch zusätzlich eine Zeitinformation zu dieser vorstehenden Kombination aus Pflanzeninformation 150 und Positionsinformation 160 abgespeichert wird, die einen Zeitpunkt, beispielsweise ein Datum und eine Stunde angibt, zu der durch die Erfassungseinheit 120 ein
Pflanzenbildinformation der entsprechenden Pflanze 110a, 110b und/oder 110c erfasst wurde.
Besonders einfach ist das Erkennen der auf dem Feld 105 angepflanzten Pflanzen 110 dann, wenn das Informationssystem 100 beispielsweise auf oder an einem in der Figur 1 nicht dargestellten Fahrzeug oder Luftfahrzeug befestigt ist. Dies führt dazu, dass ohne größeren Personalaufwand schnell und zuverlässig eine Erkennung der auf dem Feld 105 angepflanzten Pflanzen 110 erfolgen kann und somit mit technischen Mitteln sehr schnell ein großer und maschinell auswertbarer Pflanzendatensatz 165 aufgebaut werden kann.
Gegenüber der vorstehend beschriebenen Vorgehensweise sind dagegen die beschriebenen manuellen Boniturverfahren stark subjektiv geprägt, weil die Ergebnisse der Bonituren durch Betrachtung entstehen. Verschiedene Betrachter können in ihrer Beurteilung zum Teil stark voneinander abweichen. Darüber hinaus kann die Einteilung in lediglich neun qualitativ bewertete Stufen eine
Beschränkung bei der objektiven Beurteilung von ungefähr gleichwertigen Kandidaten bei der Zuchtauswahl darstellen.
Der hier vorgeschlagene Ansatz orientiert auf die Automatisierung von Teilen der oben beschriebenen Feldversuche. Durch automatisierte Datenerfassung werden die genannten Nachteile behoben sowie gleichzeitig ein höherer Durchsatz (Feldversuche pro Zeiteinheit und Personaleinsatz) erreicht.
Wegen der im Vergleich zum oben beschriebenen manuellen
Aufzeichnungsverfahren wesentlich höheren Datenspeicherkapazität des
Messrechners ergeben sich weitere Verbesserungsaspekte. Die
computergestützte Aufnahme und Verwaltung der Messdaten ist bis auf
Einzelpflanzenebene möglich und erfolgt direkt auf dem Feld. In diesem
Zusammenhang kann die Historie der physiologischen Entwicklung jeder einzelnen vermessenen Pflanze bei der Beurteilung von Zuchtkandidaten, Sorten, Saatgutqualitäten oder Pflanzenschutzmitteleinsatz berücksichtigt werden.
Der hier vorgeschlagene Ansatz lässt sich insbesondere für die Beurteilung des Feldaufgangsstadiums als wichtige Entwicklungsphase von Kulturpflanzen einsetzen.
Im Feldaufgangsstadium besteht die Aufgabe in der zahlen- und quotenmäßigen Erfassung der aufgehenden Pflanzen. Die Feldaufgangsquote ist insbesondere bei steigender Saatgutqualität (verbunden mit hohen Kosten für Saatgut) und präziser Ausbringung mit Einzelkornsämaschinen ein wesentliches
Qualitätsmerkmal (entsprechend Sorte und Saatgut). Die Feldaufgangszählung im manuellen Boniturverfahren ist heute eine Quotenzählung. Erfasst wird demzufolge eine Feldaufgangsquote pro Parzelle. Eine Zuordnung zur konkreten Einzelpflanze ist auf diese Weise nicht möglich, weshalb Auswertefehler auch bei korrekter Zählung möglich sind (beispielsweise verschwinden Keimpflanzen auch nach dem Auflauf wegen Fraß oder anderen äußeren Umständen). Der hier vorgestellte Ansatz überwindet diesen Nachteil, weil er die mehrfache (Wieder-) Erkennung, Zählung und Zuordnung jeder einzelnen Pflanze im Bestand zu einer eindeutigen Position ermöglicht. Über die Feldaufgangsphase hinweg lässt sich eine Historie der Entwicklung jeder Pflanze an ihrer zugeordneten Position ermitteln.
In diesem Stadium können aus der tatsächlichen Blattfläche Rückschlüsse auf den Entwicklungsfortschritt der Einzelpflanze im Bezug zum Aussaat- bzw. Feldaufgangstermin gezogen werden. Ein Aspekt des hier vorgestellten Ansatzes kann daher in einer Möglichkeit zur reproduzierbar gestalteten maschinellen Erfassung der Blattparameter jeder einzelnen Jungpflanze gesehen werden.
Mit der hier vorgestellten Hochdurchsatzmessung im Feld unter Berücksichtigung jeder Einzelpflanze werden die Nachteile des manuellen Boniturverfahrens überwunden.
Die korrekte Pflanzenzählung und Aufzeichnung einer positionsbezogenen Historie hat eine hohe Bedeutung für folgende Zielstellungen:
- bei der Begutachtung der Saatgutqualität im Feldversuchswesen (Saatgut wird in verschiedenen Qualitäten angeboten und für unterschiedliche
Standortbedingungen optimiert). Ein Qualitätsmerkmal ist die vom Hersteller zugesicherte Aufgangsquote. Ein weiteres qualitätsbildendes Merkmal ist der Feldaufgangszeitpunkt. Ein möglichst gleichzeitiger Aufgang der Aussaat führt zu einem homogenen Bestand. Dies ist für Pflanzenpflege, für gewisse
Ertragsparameter und für die Ernte bedeutsam. Homogene Felder können besser (maschinell) bewirtschaftet werden.
- Bei der Begutachtung von Züchtungsfortschritten im Feldversuchswesen.
Zuchtziele sind z. B. Stresstoleranzen, Resistenzen sowie fruchtartenspezifische Eigenschaften. Ertrag ist ein integrales Zuchtziel, das durch in Verbindung mit mehreren spezifischen Teilzielen erreicht wird.
- Bei der Sortenprüfung durch institutionelle Einrichtungen. Die von
Saatgutherstellern entwickelten Sorten werden in Bezug auf ihre Merkmale und Eigenschaften durch diese Institutionen geprüft und überwacht. Durch die verbesserte Mess- und Analysetechnik können die Prüfungen schneller, mit höherer Genauigkeit und geringerem Personalaufwand geleistet werden.
- Bei der Entwicklung und Anwendung von Pflanzenschutzmitteln (PSM). Die Funktion der Pflanzenzählung und Aufzeichnung einer positionsbezogenen Historie kann im Zusammenhang mit dem Einsatz von PSM zu einer Kontrolle und Weiterentwicklung der Leistungsfähigkeit von PSM genutzt werden. - Für die kontinuierliche Verbesserung des Wissens über die Eignung der Sorten und Saatgutqualitäten für die weltweit unterschiedlichen Standorte
(Einsatzgebiete). Dafür können die erfindungsgemäßen Verfahren auch im täglichen landwirtschaftlichen Betrieb eingesetzt werden. Die beim Anbau gewonnen Daten zu Feldaufgang und Pflanzenentwicklung sind nach
Verknüpfung mit klimatischen Daten und Wetterinformationen in Datenbanken der Saatguthersteller wichtige Indikatoren für die turnusmäßige Eignungsprüfung und Verbesserung der Standortempfehlungen. Durch die fortschreitenden klimatischen Veränderungen bedeutet dies einen wichtigen Vorteil für die Saatguthersteller und Landwirte.
Der vorgestellte Ansatz löst die Nachteile des Bekannten auf und erweitert die Anwendbarkeit durch zusätzliche Vorteile: a. ) Eliminierung subjektiver Einflüsse bei Zählung bzw. Vermessung von Pflanzen durch Personen b. ) Zerstörungsfreie Hochdurchsatz-Blattflächen und -höhenmessung der Pflanzen mit folgenden Eigenschaften:
- der Einzelblattflächen von Jung- und Keimpflanzen auf Einzelpflanzenebene
- Gesamtblattflächenerfassung einzelner Pflanzen c. ) Erkennung des Feldaufgangs jeder einzelnen Pflanze und Zuordnung einer eindeutigen Position (z. B. basierend auf RTK-GPS-Position, Triangulation, Trilateration, Odometrie, etc.) d. ) Wiedererkennung der einzelnen Pflanze an der bestimmten Position und Dokumentation ihrer physiologischen Entwicklung anhand der Messzyklen ausgehend von Aussaat- und Aufgangstermin e. ) Erkennen des Verlusts einzelner Pflanzen durch Fraß, Dürre, etc. f. ) Hoher Automatisierungsgrad der Messungen durch Einsatz der Messtechnik auf Fahrzeugen/Fluggeräten mit integrierter autonomer Lokalisierung und Navigation g. ) Hoher Automatisierungsgrad der Messvorgänge durch rechnergestützte Aufzeichnung und Auswertung großer Datenmengen h. ) Die Messung erfolgt durch fotogrammetrische Erfassung für die kurze Dauer einer einzelnen Belichtung. Das schließt den Einfluss von äußeren Faktoren wie z. B. Wind aus. i. ) Werden nacheinander mehrere Bildaufnahmen getätigt (beispielsweise während die Messeinrichtung über den Bestand bewegt wird), so erhält man Abbildungen der entsprechenden Pflanzen im Bildausschnitt aus verschiedenen Ausgangspositionen. Die Auswertung der erhaltenen Abbildungen ermöglicht eine Verbesserung der Messergebnisse. j.) Mit Hilfe von Klassifikationsverfahren unterscheidet die
Datenmanagementsoftware zwischen untersuchter Kulturpflanze und
Beikräutern. Diese Klassifikation wird zusätzlich durch a-priori-Wissen (wie z. B. Alinierung, Reihen- und Pflanzabstand) unterstützt. Durch die zyklisch erfolgenden Messungen und Klassifikationen ergibt sich eine Verfeinerung der Mess- und Klassifikationsergebnisse, beispielsweise durch Transformation (im Verfahren der Alinierung) des messtechnisch gewonnenen Positionsrasters der Pflanzen. k.) Aufgrund der im Datenmanagement beinhalteten Historie jeder Pflanze an ihrer angestammten Position ist eine Korrektur bzw. Verbesserung des
Datenbestandes auch rückwirkend möglich (beispielsweise können
Fehlzuordnungen nachträglich korrigiert werden).
I.) Die Datenverarbeitung kann sowohl online (während der laufenden
Datenerfassung auf dem Feld) als auch offline (im Nachgang zur
Datenaufzeichnung) erfolgen. Die Online-Analyse ermöglicht zudem Plausibilitätsprüfungen der gewonnenen Messdaten, um Fehler und äußere Einflüsse zu minimieren bzw. vor Ort auszuschließen. m.) Der Einsatz geeigneter Verfahren zur Datenkompression und -reduktion erlaubt die (längerfristige) Speicherung von Mess- und Analysedaten auf dem Gerät oder eine (Funk-) Übertragung zu einem cloudbasierten Speichersystem. n.) Das Datenmanagement gestattet zudem die Sammlung und Analyse von Daten, die durch Geräte oder Verfahren von Drittanbietern aufgenommen wurden. Entsprechende Schnittstellen zum Datenaustausch sind Voraussetzung. o.) Aus den gewonnenen Daten können weitere Erkenntnisse (z. B. über
Schädlingsbefall, Krankheiten, Einfluss von äußeren Faktoren wie Wetter, Wasser, Trockenheit) gewonnen werden. Der Zusammenhang zu den
Einflussfaktoren ist für die Beurteilung der Zucht- bzw. Saatgutbehandlungs- oder Pflanzenschutzmaßnahmen von entscheidender Bedeutung. p.) Die erfindungsgemäßen (teil-)automatischen Funktionen tragen zu einer gesamtheitlichen Untersuchung der Pflanzen im Bestand bei (d. h. im Ergebnis erhält der Nutzer ein durchgängiges Gesamtbild der Pflanzen im Bestand während verschiedener Entwicklungsphasen). q.) Die Erfindung berücksichtigt aufgrund einer (teilweisen) Online-Auswertung der gemessenen Daten eine Plausibilitätsprüfung. Damit wird gewährleistet, dass Störungen in der Messeinrichtung (wie z. B. eine verschmutzte Kameralinse) schon zu Beginn der Messung und Aufzeichnung der Daten detektiert werden. Auf diesem Wege wird sichergestellt, dass keine erfolglosen Versuche durchgeführt und Ressourcen geschont werden.
Der hier vorgestellte Ansatz umfasst zwei wichtige Elemente: a. Einen messtechnischen Teil, der die Funktionen Pflanzenzählung und
Positionszuordnung realisiert. b. Einem Datenmanagement-Teil, der die vergleichsweise großen Datenmengen beispielsweise sammelt, archiviert, auswertet und/der als sinnvolle Reports verarbeitet sowie zur Planung der Messeinsätze dient. Die erfassten Messdaten können je nach Rechenleistung und Datenverbindung direkt auf dem Messgerät verarbeitet oder an einen zentralen Server übertragen werden. Alternativ ist auch die Speicherung auf geeigneten Datenträgern möglich, die im Nachgang zur Messung ausgelesen werden können.
Eine geeignete mobile Lösung dient der Messeinrichtung (d. h. hier dem
Informationssystem 100) als Trägerplattform für die Ausführung der
Feldversuche. Diese mobile Lösung kann als (semi-) autonomes Fahrzeug, hand- oder motorisch betriebenes Fahrzeug, als Anbaugerät für Traktoren, als Fluggerät (beispielsweise als Drohne) oder in einfachster Ausprägung in tragbarer Form (für Mensch oder Tier) ausgeführt sein.
Für einen optimalen Aufbau der Messeinrichtung 100 können gegebenenfalls mehrere parallele Messgeräte 120 in einem Aufbau integriert sein, um
vorhandene Fahrspuren oder andere Gegebenheiten des Feldaufbaus sinnvoll nutzen zu können.
Im Sinne einer weiteren Parallelisierung von Aufgaben ist auch die Verteilung der Messungen auf mehrere mobile Geräte möglich (z. B. nach den Schwärm- oder Master-Slave- Prinzipien). Die hier vorgestellte Messeinrichtung als
Informationssystem 100 verfügt über einen Positions- und Orientierungssensor 170 (z. B. rtkGPS), gegebenenfalls ergänzt durch einen Orientierungssensor (z. B. eine Inertial Measurement Unit IMU), gegebenenfalls ergänzt durch odometrisch gewonnene Positionsinformationen.
Sie besitzt zudem eine oder mehrere Kameras 125 mit RGB-, I R- Informationskanälen und eine geeignete Beleuchtungseinheit für die dazu erforderlichen Wellenlängenbereiche. Eine optionale Abschattungseinheit der Bildflächen sorgt dafür, dass der störende Einfluss von Fremdlicht und
Verschattungen minimiert wird. Die Abschattung ist dabei so konstruiert, dass sie die Pflanzen bei der Überfahrt nicht berührt. Im Detail sind folgende beispielhafte Abläufe und Funktionen in die Mess- und Auswerteeinrichtung 100 integriert:
1. Gegeben sind die Grenzen und Abmessungen der gesamten Versuchsfläche, die Lage und Ausrichtung der Parzellen und Wege sowie die Trajektorien, die sich aus den Saatreihen ergeben. Diese Daten sind georeferenziert und in einem Vorverarbeitungsschritt erfasst worden (z. B. bei der Anlage der Versuchsflächen oder bei der Aussaat). Diese Geo-Daten werden der Messeinrichtung 100 (hier dem Informationssystem 100) bekannt gegeben.
2. Die konkrete Versuchsplanung (hier z. B. Aufteilung der Parzellen mit ihrer Zuordnung zu Versuchsobjekten und Serien) wird ebenso vor dem Beginn der Messungen in die Messeinrichtung 100 eingelesen (Experimentbeschreibung).
3. Die Messeinrichtung 100 wird reihenweise (z. B. in Drillrichtung) über die Versuchsflächen (d. h. hier dem Feld 105) geführt. Dieser Vorgang kann mehrfach stattfinden.
4. Während des Screening-Vorgangs (z. B. Überfahrt) werden die in der
Messeinrichtung 100 eingebauten Kameras 125 und/oder 130 der
Erfassungseinheit 120 entsprechend der bekannten Grenzen der Parzellen angesteuert und nehmen Daten als Pflanzenbildinformation 140 auf. Besonders erwähnenswert ist, dass während der Dauer der Überfahrt eine oder mehrere Pflanzen 110a bzw. 110b im Bildausschnitt erfasst werden. Durch die One-Shot- Bildaufnahmetechnik werden daher mehrere Aufnahmen derselben Pflanze 110a bzw. 110b sequenziell gemacht (Image Sequencing). Dieses Verfahren gestattet, die Einflüsse durch wechselnde Wind- und Lichtverhältnisse sowie
Überlappungen und Rauschen im Bild auf ein Minimum zu reduzieren.
5. Die von den Kameras 125 bzw. 130 unter gegebenen
Beleuchtungsumständen aufgezeichneten Bilddaten umfassen beispielsweise a.) RGB-Bilder und b.) Infrarot-Bilder. Die Kameras 125 bzw. 130 sind kalibriert (um z. B. die Höhenzuordnung aus den Bildern zu errechnen). 6. Die von den Kameras 125 bzw. 130 erfassten Bilder werden miteinander registriert, um z. B. im Anschluss einen NDVI-Index (Normalized Differenced Vegetation Index, er wird aus Reflexionswerten im nahen infraroten und sichtbaren roten Wellenlängenbereich des Lichtspektrums gebildet) berechnen zu können.
7. Anhand des vorbestimmten NDVI-Wertes erfolgt die Trennung von Biomasse und Boden im Bild, was im Ergebnis zu Biomasse-Masken (reduzierte Bilddaten mit Clusterungen von Grün-Anteilen, die mit hoher Wahrscheinlichkeit einzelne Pflanzen repräsentieren) führt.
8. Den Biomasse-Masken werden Positionen im globalen Koordinatensystem zugewiesen (z. B. rtkGPS-Positionen). Hier kommen mehrere Sensordaten in Fusion zum Tragen (z. B. Orientierung der Messeinrichtung, Transformation zwischen Kameraposition und Positionssensoren).
9. Anhand der nun georeferenzierten Biomasse-Masken werden die
Klassifikationsverfahren auf die erkannten Grün-Cluster angewendet. Im Falle einer Folgeüberfahrt werden die Biomasse-Masken anhand ihrer globalen Positionsdaten reidentifiziert. Die Klassifikation kann online (während der laufenden Messungen) oder offline (im Nachgang) erfolgen. Die eingesetzten Klassifikatoren sind zu diesem Zweck vor Durchführung der Messungen trainiert worden. Dazu sind Daten auf Versuchsflächen erhoben und manuell untersucht und„gelabelt" (annotiert) worden. Der Trainer unterscheidet bei diesem Vorgang zwischen Nutzpflanze und Unkraut. Die Klassifikation beruht auf mehreren
Parametern, wie z. B. geometrische Merkmale der Biomasse-Masken (wie Form oder Größe) und statistische Merkmale (wie Pixel-Anzahl bestimmter Farben und ihre Verteilung anhand von Intensitätswerten). 10. Die Klassifikation erfolgt anhand aller Bilddaten, die bei den Messungen aufgezeichnet wurden (mehrere Bilder während der Überfahrt, über mehrere Überfahrten). Alle Klassifikationsergebnisse werden berücksichtigt und tragen anhand eines Majority-Voting-Bewertungsverfahrens zu einem Gesamtergebnis bei. Dieses Ergebnis wird jeweils zum aktuellen Datum aktualisiert und kann dazu genutzt werden, um Fehlklassifizierungen in der Vergangenheit zu korrigieren. Insgesamt erhöht sich durch das angewendete Verfahren die Wahrscheinlichkeit einer korrekten Klassifikation.
11. Zusätzlich zur Klassifikation wie oben beschrieben fließt a-priori-Wissen über die Lage der Pflanzenreihe sowie über das Spacing (z. B. Pflanzabstand) in die endgültige Entscheidung ein, ob es sich um eine Nutzpflanze oder eine Unkraut handelt.
12. Anhand der final als Nutzpflanzen klassifizierten Biomasse-Masken erfolgt eine Berechnung von geeigneten Merkmalen, die zu den Versuchsergebnissen beitragen (z. B. Schätzung der Blattfläche, Detektion des Feldaufgangs oder auch des Verlusts von Nutzpflanzen).
13. Die Daten werden nach Aufzeichnung und Auswertung z. B. in einer Cloud- basierten Umgebung gespeichert und zur Visualisierung und weiteren Analyse auf Endgeräten vorgehalten. Auswertungen können verschiedene tabellarische, grafische und schriftliche Form haben und alle gemessenen und daraus abgeleiteten Parameter enthalten (z. B. maßstäbliche Darstellung der Pflanzen in ihren Parzellen als Draufsicht, Unkrautbesatz im Versuchsfeld, etc.).
14. Die in den verschiedenen Versuchsreihen an unterschiedlichen Standorten und über mehrere Jahre gesammelten Daten bilden eine sehr große Menge, die sinnvollerweise automatisiert durch die z. B. über Cloud-Dienste gekoppelten dezentralen Messeinrichtungen in einer geeigneten Datenbankstruktur gelagert werden. Dazu sind die Daten auf das notwendige und tatsächliche relevante Maß zu reduzieren oder auch zusätzlich zu komprimieren. Geeignete Algorithmen zur Suche und Filterung gestatten einzelpflanzen-, parzellen-, Serien-, Versuchs- und standortbezogene sowie weitere Sorten- und kulturartübergreifende
Auswertungen.
Als Beispiel sei hier weiterhin die NachVerfolgbarkeit und Historie einer
Einzelpflanze vom Anbau bis zum Konsumenten genannt. Dies bezieht auch Daten ein, die die Datenbank außerhalb der Messeinrichtung gewonnen hat, wie z. B. geobezogene Informationen zum Wetter, Niederschlag, Bodenwerten (Temperatur, Leitfähigkeit, Düngemittelkonzentration, etc.). Fig. 2 zeigt eine schematische Darstellung eines Ausführungsbeispiels des Verfahrens mit einer Funktionsweise einer automatisierten Hochdurchsatz- Pflanzenzählung und Vermessung im Feld. Hierbei wird in einer Trägerplattform wie dem Informationssystem 100 zunächst über die Positionserfassungseinheit
170 eine die geografische Position repräsentierende Positionsinformation 160 eingelesen. Diese Positionsinformation 160 kann beispielsweise über eine Schnittstelle wie eine Antenne 180 zu einem satellitengestützten Ortungssystem 175 erfasst werden, sodass beispielsweise GPS-Daten erfasst werden und hierdurch die geografische Position 160 des Informationssystems 100 ermitteln werden kann. Denkbar ist ferner, dass die Positionsinformation 160 einem Speicher in Verbindung mit odometrisch erfassten Bewegungsdaten des
Informationssystems 100 erfasst wird. Weiterhin umfasst die Trägerplattform bzw. das Informationssystem 100 zumindest eine Erfassungseinheit 120 zum Erfassen einer Pflanze 110a bzw. 110b bzw. 110c mittels der optischen Kamera
125 und/oder der Infrarotkamera 130, um eine Pflanzenbildinformation 140 oder ein davon abgeleitetes Bild zu erhalten. Die Erfassungseinheit 120 kann beispielsweise ein oder mehrere Sensorsystem (e) wie die Kameras 125 bzw. 130 aufweisen, die beispielsweise als preisgünstige optische Kamera ausgebildet sind, welche Bilder von den Pflanzen 110a bzw. 110b erfasst/erfassen und diese als Pflanzenbildinformation 140 oder davon abgeleitete Information der Einheit 145 zum Identifizieren übermittelt. In der Einheit 145 zum Identifizieren kann beispielsweise dann eine Datenextraktion und/oder eine Datenfusion der Pflanzenbildinformation 140 und/oder der davon abgeleiteten Information mit der Positionsinformation 160 erfolgen.
Dabei kann beispielsweise, wie dies in dem Bereich 210 der Figur 2 näher dargestellt ist, eine Zuordnung 215 der (aus der Positionsinformation 160 entnehmbaren) geografischen Position zu der Pflanze 110a vorgenommen werden. Hierzu kann beispielsweise die aus der Positionserfassungseinheit 170 und/oder aus einem Speicher 220 eine bei der Anlage des Feldes 105 bekannte geografische Position (beispielsweise unter Verwendung von GPS-Daten) der Pflanze 110a verwendet und/oder zur Plausibilisierung verwendet werden.
Weiterhin kann eine konkrete Erfassung bzw. Identifikation 220 der Pflanze 110a in der Form der Pflanzenbildinformation 140 oder der davon abgeleiteten Information erfolgen, sodass beispielsweise diese Informationen in dem
Pflanzendatensatz 165 abgelegt werden können. Hierbei kann in dem
Pflanzendatensatz 165 auch als Teil der Pflanzenbildinformation 140 oder der daraus abgeleiteten Information eine Information über extrahierte Merkmale der Pflanze 110a wie beispielsweise eine Blattanzahl, eine Blattstruktur oder dergleichen der jeweiligen Pflanze 110a abgelegt sein. Schließlich wird in der Speichereinheit 155 die Pflanzeninformation 145 zusammen mit der jeweils entsprechenden Positionsinformation 160 in dem Pflanzendatensatz 165 abgespeichert.
Zusätzlich ist es denkbar, dass in der Speichereinheit 155 oder einer der Figur 2 nicht dargestellten entsprechenden Steuereinheit erkannt wird, dass
beispielsweise eine Belichtung des von der/den Kamera(s) 125 bzw. 130 erfassten Bereichs zu schwach ist, sodass eine nicht dargestellte
Belichtungseinheit (beispielsweise als Teileinheit der Einheit 120 zum Erfassen) angesteuert wird, um die Helligkeit in dem von der/den Kamera(s) 125 bzw. 130 erfassten Bereich zu verändern, insbesondere zu erhöhen. Ein solches
Ansteuersignal 230 kann beispielsweise von der Einheit 145 zum Identifizieren und/oder der Speichereinheit 155 oder der in der Figur 2 nicht dargestellten Steuereinheit an die Einheit 120 zum Erfassen ausgegeben werden.
Der Pflanzendatensatz 165 kann dann beispielsweise an eine
Verarbeitungseinheit 235 ausgegeben werden, die entweder Teil des
Informationssystems 100 oder beispielsweise auch in einem Zentralrechner 237 angeordnet ist, wie dies exemplarisch in der Figur 2 dargestellt ist. In dieser
Verarbeitungseinheit 235 wird dann beispielsweise die Verarbeitung in einer 4D- Prozessierungebene durchgeführt, wie dies exemplarisch in dem Bereich 240 der Figur 2 dargestellt ist. In dieser 4D-Prozessierungsebene erfolgt eine Auswertung des Pflanzenparameterdatensatzes 105, speziell der vorzugsweise
dreidimensional erfassten Merkmale der Pflanze 110 mit den jeweils zugehörigen
Zeitpunkten als vierter Dimension, sodass aus diesen Informationen ein sehr präziser Rückschluss auf das Wachstum oder die Entwicklung der jeweiligen Pflanze 115 gezogen werden kann. Hierbei werden die in dem
Pflanzendatensatz 165 abgespeicherten geografischen Positionen 245, die beispielsweise als GPS-Daten der den Pflanzen 110a bzw. 110b zugeordneten Positionsinformationen 160 vorliegen, mit Daten 250 bezüglich einer Historie der Entwicklung der einzelnen Pflanze(n) 110a bzw. 110b bzw. der Reidentifikation der einzelnen Pflanze(n) 110a bzw. 110b, beispielsweise anhand der
Pflanzeninformation 140 und/oder der Wuchsinformationen, und den erkannten Pflanzenmerkmalen 255 der jeweils betreffenden Pflanze 110a bzw. 110b verknüpft, um hieraus beispielsweise das zeitliche Wachstum der einzelnen Pflanze 110a bzw. 110b an der jeweils zugeordneten geografischen Position ermitteln zu können. Dies ermöglicht beispielsweise bei Kenntnis der
Bodenbeschaffenheit, des Wassergehalts des Bodens, Wetter-und/oder
Klimadaten an der geografischen Position des Feldes, Beurteilung des
Zusammenhangs von Umwelteinflüssen auf die das Wachstum der Pflanze der geografischen Position zu erkennen und hierdurch beispielsweise eine Zucht von Saatgut zu optimieren. Denkbar ist weiterhin, dass aufgrund von
Verarbeitungsergebnissen der in der Verarbeitungseinheit 235 ausgeführten Algorithmen eine Annotation 238 erfolgt, in der eine Veränderung der Daten des in der Speichereinheit 155 abgespeicherten Pflanzendatensatzes 165 erfolgt. Hierbei kann beispielsweise eine Korrektur derart erfolgen, dass bei Erkennung einer abgestorbenen Pflanze 110a bzw. 110b, beispielsweise durch Tierfraß oder durch Trockenheit die Pflanzeninformation für die betreffende Pflanze 110a bzw. 110b eine Zusatzinformation dahin gehend erhält, dass diese Pflanze 110a bzw.
110b dann für eine weitere Beurteilung der auf dem Feld angebauten Pflanzen 110 nicht mehr zu berücksichtigen ist.
Weiterhin kann der Pflanzendatensatz 165 in einer Datenbank 260 abgespeichert werden, beispielsweise direkt in dem Zentralrechner 237, einem PC oder einer hier nicht dargestellten Cloud erfolgen. Denkbar ist auch eine Veränderung des Pflanzendatensatzes 165, die von der Datenbank 260 mittels eines
Änderungssignals 265 ausgelöst wird. Der Pflanzendatensatz 165 oder Ergebnisse einer statistischen Auswertung von
Informationen aus dem Pflanzendatensatz 165 kann ferner in einer
Darstellungseinheit 265 visuell angezeigt werden. Hieraus lassen sich
Ergebnisse 270 ermitteln oder ziehen, die die Bestimmung einer Saatgutqualität, ein besonders günstiges Verfahren zur Zucht von Saatgut, eine Entwicklung von Sorten der Pflanze, eine Entwicklung des Einsatzes von Pflanzenschutzmitteln etc. verbessern. Denkbar ist auch hier wieder eine Veränderung des
Pflanzendatensatzes 165, die von der Darstellungseinheit 265 mittels eines Veränderungssignals 275 ausgelöst wird.
Fig. 3 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels des hier vorgestellten Ansatzes als Verfahren 300 zum Erkennen zumindest einer auf einem Feld angepflanzten Pflanze. Das Verfahren 300 umfasst einen Schritt 310 des Erfassens einer Pflanze mittels einer optischen und/oder Infrarot- Erfassungseinheit, um eine Pflanzenbildinformation zu erhalten und Erfassen einer Positionsinformation, die eine geografische Position repräsentiert, an der die Pflanze in dem Feld wächst. Ferner umfasst das Verfahren 300 einen Schritt 320 des Identifizierens der Pflanze unter Verwendung der
Pflanzenbildinformation, um eine Pflanzeninformation zu erhalten, die das Vorhandensein der Pflanze repräsentiert. Schließlich umfasst das Verfahren 300 einen Schritt 330 des der Pflanzeninformation und der Positionsinformation in einem Pflanzendatensatz, um die auf dem Feld angepflanzte Pflanze zu erkennen.
Umfasst ein Ausführungsbeispiel eine„und/oder"-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.

Claims

Ansprüche
1. Verfahren (300) zum Erkennen zumindest einer auf einem Feld (105) angepflanzten Pflanze (110a, 110b), wobei das Verfahren (300) die folgenden Schritte aufweist:
Erfassen (310) einer Pflanze (110a, 110b) mittels einer optischen und/oder Infrarot-Erfassungseinheit (120, 125, 130), um eine Pflanzenbildinformation (140) zu erhalten und Erfassen einer Positionsinformation (160), die eine geografische Position repräsentiert, an der die Pflanze (110a, 110b) in dem Feld (105) wächst;
Identifizieren (320) der Pflanze (110a, 110b) unter Verwendung der Pflanzenbildinformation (140), um eine Pflanzeninformation (145) zu erhalten, die das Vorhandensein der Pflanze (110a, 110b) repräsentiert; und
Speichern (330) der Pflanzeninformation (145) und der Positionsinformation (160) in einem Pflanzendatensatz (165), um die auf dem Feld (105) angepflanzte Pflanze (110a, 110b) zu erkennen.
2. Verfahren (300) gemäß Anspruch 1, dadurch gekennzeichnet, dass im
Schritt des Erfassens (310) die Pflanze (110a, 110b) aus einer Mehrzahl von Blickrichtungen und/oder mit einer Belichtungszeit von weniger als einer halben Sekunde erfasst wird, insbesondere wobei die Pflanze (110a, 110b) mit einer Belichtungszeit von weniger als einer zehntel Sekunde erfasst wird.
3. Verfahren (300) gemäß einem der vorangegangenen Ansprüche,
dadurch gekennzeichnet, dass im Schritt des Erfassens (310) der Pflanzenbildinformation (140) unter Verwendung einer vorab
eingelesenen Pflanzenabstandsinformation erfasst wird, die einen Abstand (115) von Pflanzen in dem Feld (105) repräsentiert. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Identifizierens (320) die Pflanze (110a, 110b) unter Verwendung eines Farbanteils eines Pflanzenbildes aus der Pflanzenbildinformation (140), insbesondere unter Verwendung eines grünen Farbanteils des Pflanzenbildes aus der Pflanzenbildinformation (140) und/oder einem Infrarot-Anteil des Pflanzenbildes aus der Pflanzenbildinformation (140) identifiziert wird.
Verfahren (300) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Identifizierens (320) ein Bestimmen einer Wuchsinformation als Teilinformation der
Pflanzeninformation (145) erfolgt, wobei die Wuchsinformation einen Entwicklungszustand und/oder oder einen Gesundheitszustand der Pflanze (110a, 110b) repräsentiert, wobei im Schritt des Speicherns (330) die Wuchsinformation als Teilinformation der Pflanzeninformation (145) in dem Pflanzendatensatz (165) abgespeichert wird.
Verfahren (300) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Identifizierens (320) ein Erkennen einer Spezies der Pflanze (110a, 110b) erfolgt, um eine Pflanzeninformation (145) zu erhalten, insbesondere wobei bei dem Erkennen ein Unterscheiden der Spezies der Pflanze (110a, 110b) von einer Spezies einer anderen Pflanze erfolgt.
Verfahren (300) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Erfassens (310) zumindest eine weitere Pflanze (110b) mittels einer optischen und/oder Infrarot-Erfassungseinheit (120, 125, 130) erfasst wird, um zumindest eine weitere Pflanzenbildinformation (140) zu erhalten und zumindest eine weitere Positionsinformation (160) erfasst wird, die eine weitere geografische Position repräsentiert, an der die weitere Pflanze (110b) in dem Feld (105) wächst, wobei im Schritt des Identifizierens (320) die weitere Pflanze (110b) unter Verwendung der weiteren
Pflanzenbildinformation (140) identifiziert wird, um eine weitere
Pflanzeninformation zu erhalten, die das Vorhandensein der weiteren Pflanze (110b) repräsentiert und wobei im Schritt des Speicherns (330) die weitere Pflanzeninformation und die weitere Positionsinformation (160) in dem Pflanzendatensatz (165) abgespeichert werden.
Verfahren (300) gemäß einem der vorangegangenen Ansprüche, gekennzeichnet, durch einen Schritt des Zählens von auf dem Feld (105) angebauten Pflanzen (110, 110a, 110b) unter Verwendung der Pflanzeninformation (145) und der weiteren Pflanzeninformation (145) aus dem Pflanzendatensatz (165).
Verfahren (300) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Schritte des Erfassens (310), des Identifizierens (320) und des Speichers zumindest einmal wiederholt ausgeführt werden, insbesondere zyklisch wiederholt ausgeführt werden, insbesondere wobei in jedem Schritt des Speicherns (330) zusätzlich ein Zeitparameter abgespeichert wird, der einen
Ermittlungszeitpunkt der in dem abgespeicherten Pflanzendatensatz (165) enthaltenen Pflanzeninformation (145) repräsentiert.
Verfahren (300) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Erfassens (310) die Pflanzenbildinformation (140) unter Verwendung einer Information einer zeitlich vorausgehend aufgenommenen oder erwarteten
Pflanzenbildinformation (140) erfasst wird und/oder im Schritt des Identifizierens (320) die Pflanze (110a, 110b) unter Verwendung einer zeitlich vorausgehend aufgezeichneten Identifizierungsinformation identifiziert wird.
Verfahren (300) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Erfassens (310) ein Plausibilisieren der Pflanzenbildinformation (140) mit einer
Plausibilisierungsinformation mit einer zeitlich vorausgehend
aufgenommenen Pflanzenbildinformation (140), um eine
Funktionsfähigkeit der Erfassungseinheit (120, 125, 130) zu ermitteln.
12. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Erfassens (310) eine auf einem Fahrzeug und/oder auf einem Luftfahrzeug angeordnete
Erfassungseinheit (120, 125, 130) zum Erfassen (310) der Pflanze (110a, 110b) verwendet wird.
13. Informationssystem (100), das eingerichtet ist, um Schritte des
Verfahrens (300) gemäß einem der vorangegangenen Ansprüche in entsprechenden Einheiten auszuführen.
14. Computerprogramm, das dazu eingerichtet ist, das Verfahren (300) gemäß einem der vorangegangenen Ansprüche 1 bis 12 auszuführen.
15. Maschinenlesbares Speichermedium, auf dem das Computerprog
nach Anspruch 14 gespeichert ist.
PCT/EP2016/073939 2015-10-28 2016-10-07 Verfahren und informationssystem zum erkennen zumindest einer auf einem feld angepflanzten pflanze WO2017071928A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP16785383.7A EP3369037A1 (de) 2015-10-28 2016-10-07 Verfahren und informationssystem zum erkennen zumindest einer auf einem feld angepflanzten pflanze
CN201680063157.6A CN108140118A (zh) 2015-10-28 2016-10-07 用于识别至少一株种植在耕地上的植物的方法和信息系统
US15/771,012 US20180308229A1 (en) 2015-10-28 2016-10-07 Method and information system for detecting at least one plant planted on a field

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015221085.5 2015-10-28
DE102015221085.5A DE102015221085A1 (de) 2015-10-28 2015-10-28 Verfahren und Informationssystem zum Erkennen zumindest einer auf einem Feld angepflanzten Pflanze

Publications (1)

Publication Number Publication Date
WO2017071928A1 true WO2017071928A1 (de) 2017-05-04

Family

ID=57199957

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2016/073939 WO2017071928A1 (de) 2015-10-28 2016-10-07 Verfahren und informationssystem zum erkennen zumindest einer auf einem feld angepflanzten pflanze

Country Status (5)

Country Link
US (1) US20180308229A1 (de)
EP (1) EP3369037A1 (de)
CN (1) CN108140118A (de)
DE (1) DE102015221085A1 (de)
WO (1) WO2017071928A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200401883A1 (en) * 2019-06-24 2020-12-24 X Development Llc Individual plant recognition and localization

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017217258A1 (de) * 2017-09-28 2019-03-28 Robert Bosch Gmbh Verfahren zum Klassifizieren von Pflanzen
US10492374B2 (en) * 2017-12-28 2019-12-03 X Development Llc Capture of ground truthed labels of plant traits method and system
CN109214831B (zh) * 2018-08-09 2021-08-03 云智前沿科技发展(深圳)有限公司 基于位置信息与DNA信息的Hash指纹及构建方法与应用
US11676244B2 (en) 2018-10-19 2023-06-13 Mineral Earth Sciences Llc Crop yield prediction at field-level and pixel-level
DE102018251708A1 (de) * 2018-12-27 2020-07-02 Robert Bosch Gmbh Verfahren zur Zerstörung von zumindest einer Pflanze
US11508092B2 (en) 2019-12-16 2022-11-22 X Development Llc Edge-based crop yield prediction
CN113407755A (zh) * 2020-03-17 2021-09-17 北京百度网讯科技有限公司 植物生长状况信息获取方法、装置及电子设备
US11532080B2 (en) 2020-11-17 2022-12-20 X Development Llc Normalizing counts of plant-parts-of-interest
DE102021114996A1 (de) * 2021-06-10 2022-12-15 Eto Magnetic Gmbh Vorrichtung zu einem Erkennen eines Sprießens von Aussaaten, Agrarsensorvorrichtung und Agrarüberwachungs- und/oder Agrarsteuerungsverfahren und -system
US20230274541A1 (en) * 2022-02-25 2023-08-31 X Development Llc Aggregate trait estimation for agricultural plots
CN117530164B (zh) * 2024-01-09 2024-04-02 四川省农业机械科学研究院 一种基于机器视觉的智能决策立体循环育秧方法和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2752807A1 (de) * 2011-08-30 2014-07-09 Fujitsu Limited Abbildungsvorrichtung, abbildungsunterstützungsprogramm, informationsbereitstellungsverfahren und informationsbereitstellungsprogramm
EP2752808A1 (de) * 2011-08-30 2014-07-09 Fujitsu Limited Bildgebungsvorrichtung, werkstückträgerprogramm, informationsbereitstellungsverfahren und informationsbereitstellungsprogramm
US20140205154A1 (en) * 2013-01-22 2014-07-24 Vale S.A. System for mapping and identification of plants using digital image processing and route generation
JP2014183788A (ja) * 2013-03-25 2014-10-02 Sony Corp 情報処理システム、および情報処理システムの情報処理方法、撮像装置および撮像方法、並びにプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3906215A1 (de) * 1989-02-28 1990-08-30 Robert Prof Dr Ing Massen Automatische klassifikation von pflaenzlingen
DE4413739C2 (de) * 1994-04-20 1996-07-18 Deutsche Forsch Luft Raumfahrt Einrichtung zum Erkennen und Unterscheiden von Pflanzen und Bodenbereichen sowie zum Unterscheiden von Kultur- und Wildpflanzen
EP1415187A4 (de) * 2001-08-06 2008-03-26 Bioview Ltd Bildfokussierung bei der fluoreszenzabbildung
DE10211706A1 (de) * 2002-03-16 2003-09-25 Deere & Co Austrageinrichtung einer landwirtschaftlichen Erntemaschine
EP1777486B1 (de) * 2005-08-01 2013-07-17 Pioneer-Hi-Bred International, Inc. Sensorsystem, Verfahren und Computerprogrammprodukt zur Phenotypmessung von Pflanzen in landwirtschaftlichen Umgebungen
WO2012122988A1 (en) * 2011-03-16 2012-09-20 Syddansk Universitet Spray boom for selectively spraying a herbicidal composition onto dicots
CN102208099A (zh) * 2011-05-30 2011-10-05 华中科技大学 一种抗光照变化的作物彩色图像分割方法
WO2013059399A1 (en) * 2011-10-20 2013-04-25 Monsanto Technology Llc Plant stand counter
CA2941533A1 (en) * 2014-03-06 2015-09-11 Raven Industries, Inc. System and method for sensing an edge
US10402835B2 (en) * 2014-07-16 2019-09-03 Raytheon Company Agricultural situational awareness tool
US9652690B2 (en) * 2015-02-27 2017-05-16 Lexmark International, Inc. Automatically capturing and cropping image of check from video sequence for banking or other computing application

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2752807A1 (de) * 2011-08-30 2014-07-09 Fujitsu Limited Abbildungsvorrichtung, abbildungsunterstützungsprogramm, informationsbereitstellungsverfahren und informationsbereitstellungsprogramm
EP2752808A1 (de) * 2011-08-30 2014-07-09 Fujitsu Limited Bildgebungsvorrichtung, werkstückträgerprogramm, informationsbereitstellungsverfahren und informationsbereitstellungsprogramm
US20140205154A1 (en) * 2013-01-22 2014-07-24 Vale S.A. System for mapping and identification of plants using digital image processing and route generation
JP2014183788A (ja) * 2013-03-25 2014-10-02 Sony Corp 情報処理システム、および情報処理システムの情報処理方法、撮像装置および撮像方法、並びにプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
R GERHARDS ET AL: "Practical experiences with a system for site-specific weed control in arable crops using real-time image analysis and GPS-controlled patch spraying", WEED RESEARCH., vol. 46, no. 3, 1 June 2006 (2006-06-01), GB, pages 185 - 193, XP055324601, ISSN: 0043-1737, DOI: 10.1111/j.1365-3180.2006.00504.x *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200401883A1 (en) * 2019-06-24 2020-12-24 X Development Llc Individual plant recognition and localization
US11803959B2 (en) * 2019-06-24 2023-10-31 Mineral Earth Sciences Llc Individual plant recognition and localization

Also Published As

Publication number Publication date
US20180308229A1 (en) 2018-10-25
CN108140118A (zh) 2018-06-08
DE102015221085A1 (de) 2017-05-04
EP3369037A1 (de) 2018-09-05

Similar Documents

Publication Publication Date Title
EP3369037A1 (de) Verfahren und informationssystem zum erkennen zumindest einer auf einem feld angepflanzten pflanze
EP3700320B1 (de) Erstellung digitaler bearbeitungskarten
CN111582055B (zh) 一种无人机的航空施药航线生成方法及系统
EP3503724A1 (de) Bekämpfung von schadorganismen auf basis der vorhersage von befallsrisiken
DE102015216080A1 (de) Anordnung zur Sammlung von Bilddaten
EP3782467A1 (de) Verfahren zum identifizieren von beikräutern innerhalb einer definierten pflanzenreihe einer landwirtschaftlichen fläche
WO2019081567A1 (de) Ertragsabschätzung beim anbau von kulturpflanzen
DE102015221092A1 (de) Verfahren und Informationssystem zum Erfassen zumindest eines Pflanzenparameterdatensatzes einer auf einem Feld wachsenden Pflanze
DE102011078290A1 (de) Verfahren und Vorrichtung zum Klassifizieren eines Umgebungsbereiches eines Fahrzeuges
EP3516580B1 (de) Bekämpfung von schadorganismen
DE102018216476A1 (de) Verfahren zum Sanieren entwicklungsverzögerter Pflanzen
Kierdorf et al. GrowliFlower: An image time‐series dataset for GROWth analysis of cauLIFLOWER
Qiao et al. AI, sensors and robotics in plant phenotyping and precision agriculture
DE102019218189A1 (de) Verfahren zum Generieren einer Vielzahl von annotierten Bildern
DE102017217258A1 (de) Verfahren zum Klassifizieren von Pflanzen
Kim et al. Case study: Cost-effective weed patch detection by multi-spectral camera mounted on unmanned aerial vehicle in the buckwheat field
WO2019034785A1 (de) Nutzung von daten aus feldversuchen im pflanzenschutz zur kalibrierung und optimierung von vorhersagemodellen
de Ocampo et al. Integrated Weed Estimation and Pest Damage Detection in Solanum melongena Plantation via Aerial Vision-based Proximal Sensing.
EP3468339B1 (de) Verfahren zur ermittlung von pflanzeneigenschaften einer nutzpflanze
Butler Making the replant decision: utilization of an aerial platform to guide replant decisions in Tennessee cotton
DE202024100734U1 (de) Biomasse-Überwachungssystem für landwirtschaftliche Flächen
Maldaner Sugarcane plant detection and mapping for site-specific management
DE102016203850B4 (de) Verfahren zum Klassifizieren von Pflanzen
Andrews Role of Artificial Intelligence in Agriculture Sector A Study on The Changing Scenario of the Agrarian sector in India
Utrilla et al. How to apply remote sensing techniques to precision farming: 2 practical cases by Garnata drone

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16785383

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15771012

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE