WO2021176254A1 - Sistema y método de detección e identificación de cultivo y maleza - Google Patents

Sistema y método de detección e identificación de cultivo y maleza Download PDF

Info

Publication number
WO2021176254A1
WO2021176254A1 PCT/IB2020/051926 IB2020051926W WO2021176254A1 WO 2021176254 A1 WO2021176254 A1 WO 2021176254A1 IB 2020051926 W IB2020051926 W IB 2020051926W WO 2021176254 A1 WO2021176254 A1 WO 2021176254A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection
identification system
camera
processing unit
plant species
Prior art date
Application number
PCT/IB2020/051926
Other languages
English (en)
French (fr)
Inventor
Cintia CORTI
Nicolás PELLEJERO
Original Assignee
Plantium S.A.
GENTILI, Jorge A.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Plantium S.A., GENTILI, Jorge A. filed Critical Plantium S.A.
Priority to BR112022017719A priority Critical patent/BR112022017719A2/pt
Priority to EP20718362.5A priority patent/EP4116840A1/en
Priority to US17/909,672 priority patent/US20230117884A1/en
Priority to PCT/IB2020/051926 priority patent/WO2021176254A1/es
Priority to ARP200101014A priority patent/AR118643A1/es
Priority to UY0001039117A priority patent/UY39117A/es
Publication of WO2021176254A1 publication Critical patent/WO2021176254A1/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M7/00Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass
    • A01M7/0089Regulating or controlling systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/0098Plants or trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Definitions

  • the position of the plants is used as a criterion to determine whether it is weeds or cultivation. This is based on the assumption that the crop will be planted at a uniform distance and that there will not be weeds very close to any plant of the crop, which generates the most damaging cases in terms of agronomic weeds that are very close to the crop are not detected if the weed has the same leaf shape as the crop. Also, the method by which the leaf shapes of the crop and the weeds are compared is not explained in said patent document so the precision of the method cannot be estimated.
  • an object of the present invention is a system for the detection and identification of plant species in an agricultural field that allows to act on them, comprising: at least one camera comprising a lens, a band-pass filter and a image sensor; a GPS unit; and at least one data processing unit comprising data storage means and is in data communication with the at least one camera and with the GPS unit, wherein each of the at least one data processing unit comprises a camera calibration system, where each of the at least one camera captures and sends images to the at least one data processing unit, where each of the at least one data processing unit is configured to detect and identify plant species autonomously, discriminating between crops, weeds and soil, based on the images it receives and to make decisions as detected and identified , and where each of the at least one data processing unit geopositioning the detected plant species.
  • the detection and identification system comprises a data processing unit for every six or fewer cameras.
  • each of said cameras 2 comprises a cabinet formed by a front part 2.1 of the cabinet and a rear part 2.2 of the cabinet, wherein said cabinet comprises a lens 2.3 on the front part 2.1 of the cabinet; a band pass filter 2.4, a plate with the image sensor 2.5, and a plate with the inertial measurement unit 2.6 inside the cabinet; and a power cable 2.7 and in data communication with the processing unit.
  • the chamber 2 may not have the plate with the inertial measurement unit 2.6 being optional the incorporation of said inertial measurement unit in each of the chambers.
  • the lens 2.3 is selected according to the requirements that a user has during the use of the detection and identification system of the present invention.
  • the components of chamber 2 will be described in greater detail later.
  • the cameras have image sensors selected so as to allow images with a very wide aspect ratio to be captured, which compared to a standard aspect ratio allows to obtain better resolution in the horizontal dimension for a given working width.
  • aspect ratio of an image is understood the ratio between the width and the height of said image, therefore, a very wide aspect ratio implies that the captured image has a width greater than its height. This is useful for the detection of plant species because these, be they crops or weeds, are on the ground, that is, on a certain plane and taking into account their size and the required working speed, the distance from the vehicle to the one that is of interest to be able to sense plant species.
  • the third stage or detection and identification stage which is carried out by the detection and identification module, is in charge of detecting and identifying the content of each patch by means of deep learning algorithms. More precisely, through convolutional neural networks, which are trained with a database that contains patches or frames of the size obtained in the previous stage, where these patches or frames comprise plant species and soils captured in different conditions in the that the system could be used. Said plant species in the patches of the database may correspond to a considerable amount of plant species, although they do not necessarily have to include all the plant species present in the agricultural field where it is desired to use the detection and identification system of the present invention. Likewise, said patches or frames of each plant species that could be found in the soil, can be enlarged with techniques of data augmentation.
  • the data augmentation techniques used consist of changes that are made on the images to produce new images from them and thus increase the amount of data without the need to capture other images.
  • the changes in the original images occur randomly, but with restrictions that make the new images obtained represent situations that could occur in reality, for example, rotations of the original images are made at small angles, effects that would simulate a blur , etc.
  • the manual data augmentation of the images in the database also looking for them to resemble situations that could occur in reality. For example, the gain is modified to obtain lighter / darker images.
  • the learning procedure of the generative adversary networks consists of training at the same time a synthetic data generator and a discriminator that tries to discern if the data provided is real or synthetic.
  • the generator should try to produce images as similar as possible to those provided and the discriminator, in the process of learning to discern between the generated images (synthetic) and the real ones, will be able to train its filters (parameters) in order to identify properties. of the image that are characteristic.
  • the fourth stage or decision stage which is carried out by a decision module, is responsible for geopositioning each patch and the plant species that exist, through the use of geopositioning algorithms, taking into account that the cameras are they are calibrated for their intrinsic and extrinsic parameters, as previously mentioned, relative to the GPS unit. Then, the decision module makes a decision taking into account various adjustment factors that include, for example, the evaluation carried out in the third stage by the detection and identification module on each patch, the type of spraying to be carried out (on fallow or over cropping); the degree of certainty in spraying vs the degree of agrochemical savings selected by the user. Said decision-making corresponds to generating a requirement to act on some or all of the plant species detected depending on the agricultural task that is being carried out.
  • each of the modules that carry out the method of the present invention together with an image by way of example of the function they carry out.
  • the sensing module the capture of an image containing crops and weeds is shown;
  • the image processing module the same previous image is shown, which has been subdivided into patches;
  • the detection and identification module the same previous image is shown in which the patches containing the weeds or plant species of interest have been detected and identified;
  • the decision module the same previous image is shown where each patch has been geopositioned and decided to act on the detected weeds or plant species;
  • the same previous image is shown where it has been determined at what moment and for how long each valve (or actuator) must actuate to carry out the required action in the specified position on any of the weeds or species detected vegetables.

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Wood Science & Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Environmental Sciences (AREA)
  • Insects & Arthropods (AREA)
  • Pest Control & Pesticides (AREA)
  • Zoology (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Library & Information Science (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Food Science & Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Botany (AREA)
  • Catching Or Destruction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Guiding Agricultural Machines (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Un sistema de detección e identificación de especies vegetales en un campo agrícola que permite actuar sobre las mismas, que comprende al menos una cámara que comprende una lente, un filtro pasabanda y un sensor de imagen; una unidad de GPS; y al menos una unidad de procesamiento de datos que comprende medios de almacenamiento de datos y está en comunicación de datos con la al menos una cámara y con la unidad de GPS, en donde cada unidad de procesamiento de datos comprende un sistema de calibración de las cámaras, en donde las cámaras capturan y envían imágenes a la unidad de procesamiento de datos, en donde cada unidad de procesamiento de datos está configurada para detectar e identificar especies vegetales de manera autónoma, discriminando entre cultivos, malezas y suelo, en base a las imágenes que recibe y tomar decisiones según lo detectado e identificado, y en donde cada unidad de procesamiento de datos geoposiciona las especies vegetales detectadas. Un método que utiliza el sistema de detección e identificación de especies vegetales de la presente invención para detectar e identificar especies vegetales en un campo agrícola.

Description

SISTEMA Y MÉTODO DE DETECCION E IDENTIFICACION DE CULTIVO Y
MALEZA
Campo de la invención
[0001] La presente invención se relaciona con el área técnica de agricultura de precisión. Más particularmente, la presente invención está relacionada a un sistema y método de detección e identificación de cultivo y malezas que permite detectar, identificar, y geoposicionar el cultivo y maleza, además de poder actuar sobre ellas en función de la actividad que se esté realizando en un campo agrícola.
Antecedentes de la invención
[0002] Es bien conocido en el área técnica relacionada a la agricultura cómo en las últimas décadas se han ido incorporando nuevas tecnologías en dicha área para llegar a lo que hoy en día se conoce como agricultura de precisión. Esta expresión se refiere a la incorporación y aplicación de tecnologías como por ejemplo geoposicionamiento satelital, softwares de gestión, softwares de electrónica, visión e inteligencia artificial, entre muchas otras. La introducción de cada una de estas tecnologías resulta inevitablemente en una agricultura mejor, más sostenible, rápida, económica y eficiente.
[0003] En particular, la introducción de la visión e inteligencia artificial permite automatizar la toma de decisiones. Una máquina agrícola que incorpore estas tecnologías podría detectar y distinguir distintas especies vegetales, geoposicionarlas, y tomar decisiones para actuar o no sobre ellas, entre muchas otras funciones posibles. Así es como en los últimos años se han comenzado a aplicar, en el área técnica correspondiente a la agricultura de precisión, redes neuronales convolucionales, las cuales son una forma particular de inteligencia artificial muy sofisticada cuyo empleo resulta muy efectivo para la detección de plantas.
[0004] Existen en el arte múltiples documentos de patentes relacionados con la detección de especies vegetales tales como la solicitud de patente WO 2017/178666 Al a nombre de Diego H. Pérez Roca que divulga un conjunto de dispositivos autónomo y un método para la detección e identificación de especies vegetales en un cultivo agrícola para la aplicación de agroquímicos en forma selectiva mediante el uso redes neuronales convolucionales. [0005] Dicho método al permitir distinguir distintas especies vegetales requiere necesariamente la obtención de datos de la totalidad de especies vegetales existentes en cantidad suficiente para entrenar a las redes neuronales convolucionales lo cual representa un mayor costo de tiempo tanto de entrenamiento de la red como de procesamiento de ésta para detectar las especies vegetales, y un mayor costo de recursos necesarios ya que de modo de realizar la operación de detección en el menor tiempo posible y, por lo tanto, de manera más eficiente, sería necesario una unidad de procesamiento potente y, en consecuencia, de costo elevado.
[0006] Por otra parte, la solicitud de patente WO’666 no permite la realización de mapas de malezas y cultivos geoposicionándolos.
[0007] La solicitud de patente US 2018/0330166 Al a nombre de Blue River Technology divulga una plataforma de tratamiento de plantas que utiliza un modelo de detección de plantas para detectar e identificar plantas en imágenes capturadas por una cámara en la plataforma de tratamiento móvil a medida que se desplaza a través de un campo de cultivos. Dicho modelo de detección de plantas está configurado para generar cajas delimitantes (bounding boxes) que encierran porciones de las imágenes que son identificadas como conteniendo diferentes plantas. Asimismo, dicho modelo de detección de plantas emplea redes neuronales de aprendizaje profundo para la detección de las plantas.
[0008] En dicho documento se modifica el balance de blancos de las imágenes una vez capturadas lo cual genera una pérdida de resolución en los colores ya que los mismos ya fueron digitalizados. Asimismo, no se menciona el uso filtros en las cámaras para mejorar el contraste entre las especies vegetales y el suelo u otros elementos normalmente presentes en un campo para la siembra de cultivo.
[0009] El uso de las cajas delimitantes agrega una complejidad al algoritmo ya que, para detectar un objeto, en este caso una planta, el algoritmo debe primero lograr delimitarlo en un bounding box , por lo que la función de costo que debe entrenar el algoritmo es más compleja. Además, se generan casos difíciles cuando las plantas se encuentran cercanas o superpuestas.
[0010] El etiquetado con bounding boxes es poco eficiente ya que requiere de muchas horas de trabajo de etiquetado en relación con el volumen de datos procesados. Asimismo, en dicho documento no está contemplado la realización de mapas de cultivos y/o malezas que geoposicione los mismos a medida que la plataforma de detección de plantas avanza sobre un campo de cultivos.
[0011] La solicitud de patente US 2016/0255778 Al a nombre de Blue River Technology divulga un sistema modular de agricultura de precisión que incluye diferentes módulos acoplados a un bastidor de modo que cada módulo puede operar en una respectiva hilera. Asimismo, cada módulo tiene sensores correspondientes, un actuador para realizar una acción sobre el cultivo y una unidad de procesamiento para tomar decisiones sobre la acción a realizar.
[0012] El hecho de que cada módulo tenga su respectiva unidad de procesamiento resulta en costos innecesarios y evitables.
[0013] La patente US 5296702 A, a nombre de Patchen California, divulga un dispositivo y método para detectar hierbas en un cultivo mediante dos fuentes de luz a longitudes de onda diferentes.
[0014] En dicha patente se emplean fotodetectores, mediante los cuales solo se puede determinar si la respuesta espectral obtenida por los mismos en el área de detección supera cierta condición umbral establecida como base. El método propuesto en esta patente depende de la distribución y salud del cultivo para discriminar entre cultivo y maleza, ya que supone que la “base”, es decir, la respuesta del cultivo va a mantenerse constante, determinando que hay una maleza si se detecta un incremento respecto de esa base. Por otro lado, no emplea redes neuronales ni permite la geoposición de las plantas y malezas y la realización de mapas multicapa.
[0015] Por último, la solicitud de patente US 2015/245565 Al, a nombre de Bob Pilgrim, Harold Shane Sanford y Clark Duncan, divulga un método y dispositivo para detectar plantas y aplicar productos agrícolas de forma selectiva.
[0016] El dispositivo de dicho documento utiliza uno o más dispositivos receptores de imágenes y uno o más emisores de luz. Asimismo, comprende un filtro de doble banda para filtrar imágenes y puede comprender un GPS para precisar la posición de una planta.
[0017] Se indica también que se utiliza como criterio para determinar si se trata de malezas o cultivo la posición de las plantas. Esto parte de la suposición de que el cultivo va a estar sembrado a una distancia uniforme y que no va a haber malezas muy cercanas a alguna planta del cultivo, lo cual genera que los casos más perjudiciales en términos agronómicos que son malezas muy cercanas al cultivo no sean detectados si la maleza tiene la misma forma de hoja que el cultivo. Asimismo, el método mediante el cual se comparan las formas de hojas del cultivo y las malezas no está explicado en dicho documento de patente por lo que no se puede estimar la precisión del método.
[0018] En consecuencia, existe la necesidad de un sistema y método que permitan la detección e identificación de especies vegetales y la toma de decisiones sobre éstas de manera eficiente, confiable y con un mínimo de recursos. Asimismo, que permitan la obtención de mapas donde las especies vegetales puedan geoposicionarse.
Breve Descripción de la Invención
[0019] En base a las consideraciones anteriores, la presente invención proporciona un sistema y método que permiten la detección e identificación de especies vegetales en un campo agrícola, pudiendo diferenciar fácilmente entre cultivo, maleza y suelo; y la toma de decisiones sobre éstas permitiendo, por ejemplo, una pulverización selectiva de agroquímicos, de manera eficiente, confiable y con un mínimo de recursos. Asimismo, permite generar mapas multicapa que brindan información útil acerca del campo agrícola. Por otro lado, dicho sistema de detección y método son fácilmente adaptables a distintos equipos o vehículos agrícolas con distintas funciones a realizar.
[0020] En consecuencia, es un objeto de la presente invención un sistema de detección e identificación de especies vegetales en un campo agrícola que permite actuar sobre las mismas, que comprende: al menos una cámara que comprende una lente, un filtro pasabanda y un sensor de imagen; una unidad de GPS; y al menos una unidad de procesamiento de datos que comprende medios de almacenamiento de datos y está en comunicación de datos con la al menos una cámara y con la unidad de GPS, en donde cada una de las al menos una unidad de procesamiento de datos comprende un sistema de calibración de las cámaras, en donde cada una de las al menos una cámara capturan y envían imágenes a las al menos una unidad de procesamiento de datos, en donde cada una de las al menos una unidad de procesamiento de datos está configurada para detectar e identificar especies vegetales de manera autónoma, discriminando entre cultivos, malezas y suelo, en base a las imágenes que recibe y para tomar decisiones según lo detectado e identificado, y en donde cada una de las al menos una unidad de procesamiento de datos geoposiciona las especies vegetales detectadas.
[0021] En una forma de realización de la presente invención, el sistema de detección e identificación comprende seis cámaras.
[0022] En una forma de realización de la presente invención, cada una de las al menos una cámara es una cámara de alto rango dinámico.
[0023] En una forma de realización de la presente invención, el filtro pasabanda permite que su respectiva cámara reciba radiación electromagnética con longitudes de onda correspondientes a la luz roja y al infrarrojo cercano.
[0024] En una forma de realización de la presente invención, el sistema de detección e identificación comprende además una unidad de medición inercial por cada una de las al menos una cámara.
[0025] En una forma de realización de la presente invención, la unidad de medición inercial está unida de manera rígida a su respectiva cámara.
[0026] En una forma de realización de la presente invención, el sistema de detección e identificación comprende una fuente de iluminación por cada una de las al menos una cámara.
[0027] En una forma de realización de la presente invención, la fuente de iluminación se posiciona en forma paralela a una respectiva cámara.
[0028] En una forma de realización de la presente invención, la fuente de iluminación es una fuente de iluminación LED.
[0029] En una forma de realización de la presente invención, el sistema de detección e identificación comprende una unidad de procesamiento de datos cada seis o menos cámaras.
[0030] En una forma de realización de la presente invención, cada una de las al menos una unidad de procesamiento de datos, de modo de lograr la detección e identificación de especies vegetales, emplea algoritmos de inteligencia artificial y algoritmos de aprendizaje profundo que comprenden redes neuronales convoluci onales, discriminando entre cultivos, malezas y suelo.
[0031] En una forma de realización de la presente invención, cada una de las al menos una unidad de procesamiento de datos, de modo de lograr el geoposicionamiento de las especies vegetales, emplea algoritmos de geoposicionamiento.
[0032] En una forma de realización de la presente invención, el sistema de detección e identificación de especies vegetales está montado en un vehículo agrícola.
[0033] En una forma de realización preferida de la presente invención, el vehículo agrícola es seleccionado entre un vehículo pulverizador de agroquímicos, un vehículo que tira de una pulverizadora de arrastre o un robot eléctrico para operaciones agrícolas.
[0034] En una forma de realización de la presente invención, cada una de las al menos una unidad de procesamiento de datos está en comunicación de datos con un controlador de válvulas de modo de accionar un conjunto de válvulas de manera independiente.
[0035] En una forma de realización de la presente invención, el sistema de detección e identificación está montado en un botalón pulverizador.
[0036] En una forma de realización preferida de la presente invención, cada una de las al menos una cámara se posiciona a una altura entre 50 cm y 180 cm con respecto al suelo, preferiblemente entre 80 cm y 160 cm y más preferiblemente a 140 cm.
[0037] En una forma de realización preferida de la presente invención, cada una de las al menos una cámara tiene un ángulo de inclinación entre 40 y 60 grados, preferiblemente 50 grados, hacia el suelo y hacia adelante de, por ejemplo, un vehículo pulverizador.
[0038] En una forma de realización preferida de la presente invención, el sistema de detección e identificación comprende al menos dos cámaras espaciadas entre sí entre 0.5 m y 5m, preferiblemente entre 1 m y 3 m, y más preferiblemente 2 m.
[0039] En una forma de realización preferida de la presente invención, el sensor de imagen de cada una de las al menos una cámara permite capturar imágenes con una relación de aspecto ancha. [0040] Es otro objeto de la presente invención un método que utiliza el sistema de detección e identificación de especies vegetales de la presente invención para detectar e identificar especies vegetales en un campo agrícola, en donde dicho método comprende las siguientes etapas: etapa de sensado, en donde se captura una imagen o fotograma del suelo que puede contener especies vegetales vivas o muertas a través de una cámara, y en donde una unidad de procesamiento de datos recibe datos desde la unidad de GPS, y realiza en tiempo real y de manera iterativa configuraciones a cada cámara mediante el sistema de calibración, etapa de procesamiento de imágenes, en donde la unidad de procesamiento de datos realiza cualquier tipo de corrección posterior necesaria a la captura de la imagen y separa la imagen en parches o porciones rectangulares de modo de dividir la imagen en una grilla de fotogramas de menor tamaño, etapa de detección e identificación, en donde se detecta e identifica el contenido de cada parche mediante la unidad de procesamiento de datos, logrando así la detección e identificación de especies vegetales, etapa de decisión, en donde se geoposicionan las especies vegetales detectadas e identificadas en la etapa anterior mediante la unidad de procesamiento de datos y se realiza la toma de decisiones respecto de la forma de actuar sobre dichas especies vegetales detectadas, y etapa de aplicación, en donde la unidad de procesamiento de datos determina una acción con respecto a las especies vegetales detectadas e identificadas, determinando cuándo, en dónde y durante cuánto tiempo debe realizarse dicha acción.
[0041] En una forma de realización preferida de la presente invención, el método es realizado por un vehículo pulverizador de agroquímicos de modo que la etapa de aplicación es realizada mediante válvulas las cuales aplican o no agroquímicos sobre las especies vegetales detectadas e identificadas.
[0042] En una forma de realización preferida de la presente invención, la cámara es una cámara de alto rango dinámico. [0043] En una forma de realización de la presente invención, la unidad de procesamiento de datos recibe datos de una unidad de medición inercial.
[0044] En una forma de realización de la presente invención, la etapa de detección e identificación del método emplea algoritmos de aprendizaje profundo para la detección e identificación de especies vegetales.
Breve descripción de las figuras
[0045] La Figura 1 muestra una forma de realización del sistema de detección e identificación de la presente invención incorporado o montado sobre un botalón pulverizador y un vehículo agrícola el cual tira de dicho botalón pulverizador.
[0046] La Figura 2 muestra una forma de realización de ejemplo del sistema de detección e identificación similar al de la Figura 1 pero en este caso se muestra al sistema de detección e identificación por separado y no aplicado en un vehículo agrícola y botalón pulverizador.
[0047] La Figura 3 muestra una vista en despiece de una forma de realización preferida de las cámaras utilizadas por el sistema de detección e identificación de la presente invención.
[0048] La Figura 4 muestra una imagen esquemática de una forma de realización del sistema de detección e identificación de la presente invención.
[0049] La Figura 5 muestra una imagen esquemática de una forma de realización preferida del sistema de detección e identificación que comprende una unidad de procesamiento de datos en comunicación de datos con seis cámaras.
[0050] La Figura 6 muestra una imagen esquemática de una forma de realización del sistema de detección e identificación en comunicación de datos con controladores de válvulas pulverizadoras a través de las unidades de procesamiento de datos.
[0051] Las Figuras 7A y 7B muestran respectivamente las etapas del método de la presente invención y los módulos encargados de realizar cada una de dichas etapas.
[0052] La Figura 8 muestra de manera esquemática las etapas que realizan los algoritmos de aprendizaje profundo en el sistema de detección e identificación de la presente invención. [0053] La Figura 9 muestra un diagrama de bloques esquemático que representa el procedimiento del entrenamiento supervisado.
[0054] La Figura 10 muestra un gráfico en el cual puede apreciarse cómo evoluciona la precisión y el error en función de las épocas de entrenamiento en una red convolucional.
Descripción detallada de la invención
[0055] El sistema y método de la presente invención serán descritos a continuación en detalle haciendo referencia a las Figuras 1 a 10, que ilustran, a modo de ejemplo, formas de realización de la invención y los distintos elementos que componen la misma.
[0056] En cada una de las figuras se emplean las mismas referencias numéricas para designar elementos similares o iguales del sistema de detección e identificación de la presente invención.
[0057] Haciendo referencia a la Figura 1 puede apreciarse una forma de realización del sistema de detección e identificación 1 de la presente invención incorporado o montado sobre un botalón pulverizador y un vehículo agrícola el cual porta dicho botalón pulverizador. Dicho sistema de detección e identificación 1 comprende una pluralidad de cámaras 2, una pluralidad de fuentes de iluminación 3 habiendo una fuente de iluminación 3 por cada cámara 2, una unidad de procesamiento de datos 4 que está en comunicación de datos con la pluralidad de cámaras 2 y la pluralidad de fuentes de iluminación 3, y que está en comunicación de datos con una unidad de GPS 5. Dicho sistema de detección e identificación 1 puede utilizarse además para comandar válvulas pulverizadoras, tal como se verá más adelante. Cabe destacar que, si bien no se muestran cámaras ni fuentes iluminación del otro lado del botalón, dichos componentes, en este caso, se incorporan a lo largo de todo el botalón espaciados entre sí y referenciados respectos del piso a distancias y ángulos que serán detallados más adelante
[0058] En dicha forma de realización, cada una de las cámaras 2 comprende una unidad de medición inercial (IMU por sus siglas en inglés) y un sensor de imagen encargado de transformar la imagen que se obtiene en una serie de señales eléctricas que darán lugar a la imagen digital que será posteriormente procesada como se verá más adelante, a través de la unidad de procesamiento de datos 4. Cabe destacar que cada una de las cámaras 2 puede no tener una unidad de medición inercial. [0059] Haciendo referencia a la Figura 2 puede apreciarse una forma de realización de ejemplo del sistema de detección e identificación 1 similar a la mostrada en la Figura 1 pero en este caso se muestra al sistema de detección e identificación 1 por separado y no aplicado en un vehículo agrícola y botalón pulverizador. Dicha Figura 2 se muestra únicamente para aclarar cómo se relacionan entre sí los distintos componentes del sistema de detección e identificación de la presente invención mostrándose para ello una única cámara 2 y una fuente de iluminación 3, estando tanto la cámara 2 y la fuente de iluminación 3 en comunicación de datos con la unidad de procesamiento de datos 4 a través de respectivos cables los cuales también sirven como cables de alimentación. Dicha unidad de procesamiento de datos 4 comprende medios de almacenamiento de datos y está, a su vez, en comunicación de datos con una unidad de GPS 5 de modo de poder georreferenciar las detecciones de especies vegetales que se vayan realizando tal como será descrito más adelante.
[0060] Haciendo referencia a la Figura 3 puede apreciarse una vista en despiece de una forma de realización preferida de las cámaras 2 utilizadas por el sistema de detección e identificación de la presente invención. Cada una de dichas cámaras 2 comprende un gabinete formado por una parte frontal 2.1 del gabinete y una parte trasera 2.2 del gabinete, en donde dicho gabinete comprende una lente 2.3 en la parte frontal 2.1 del gabinete; un filtro pasabanda 2.4, una placa con el sensor de imagen 2.5, y una placa con la unidad de medición inercial 2.6 en el interior del gabinete; y un cable 2.7 de alimentación y en comunicación de datos con la unidad de procesamiento. Como se mencionó anteriormente, la cámara 2 puede no tener la placa con la unidad de medición inercial 2.6 siendo opcional la incorporación de dicha unidad de medición inercial en cada una de las cámaras.
[0061] La lente 2.3 es seleccionada de acuerdo con los requerimientos que tenga un usuario durante el uso del sistema de detección e identificación de la presente invención. Los componentes de la cámara 2 serán descritos en mayor detalle más adelante.
[0062] Haciendo referencia a la Figura 4 puede apreciarse una imagen esquemática de una forma de realización del sistema de detección e identificación 1 de la presente invención que comprende una cámara, en donde dicha cámara comprende en su interior una lente, un filtro pasabanda y un sensor de imagen; una fuente de iluminación y una unidad de medición inercial, pudiendo dicha unidad de medición inercial estar también dentro de la cámara o fuera de ésta y habiendo una unidad de medición inercial por cada cámara. Asimismo, la cámara está en comunicación de datos con una unidad de procesamiento de datos la cual, a su vez, está en comunicación de datos con una unidad de GPS. Dicha unidad de procesamiento de datos comprende medios de almacenamiento de datos y está también en comunicación de datos con la fuente de iluminación y la unidad de medición inercial. Además, la unidad de procesamiento de datos está en comunicación de datos con una interfaz de usuario de modo que toda la información recolectada puede ser representada en dicha interfaz de usuario.
[0063] La unidad de medición inercial ya sea que se encuentre dentro o afuera de la cámara, está unida de manera rígida a la cámara de modo de, por ejemplo, medir la posición de la cámara.
[0064] Cabe destacar que, si bien en las Figura 2 y 4 se muestra a una unidad de procesamiento de datos en comunicación de datos con una sola cámara, dichas Figura 2 y 4 son únicamente a modo de ejemplo y la unidad de procesamiento de datos del sistema de detección e identificación de la presente invención está preferiblemente en comunicación de datos con dos o más cámaras, fuentes de iluminación y unidades de medición inercial, de modo de cubrir el ancho total de trabajo, tal como se verá a continuación.
[0065] Haciendo referencia a la Figura 5 puede apreciarse una imagen esquemática de una forma de realización preferida de la presente invención similar a la forma de realización de la Figura 4 pero con la diferencia en que el sistema de detección e identificación 1 comprende una unidad de procesamiento de datos en comunicación de datos con una pluralidad de cámaras que comprende seis cámaras, en donde cada cámara es preferiblemente una cámara de alto rango dinámico. Cabe destacar que podría utilizarse otra cantidad de cámaras como, por ejemplo, 2, 3, 4, 5 cámaras, o una cantidad mayor a 6 cámaras en comunicación de datos con una misma unidad de procesamiento de datos siempre que dicha unidad de procesamiento lo permita.
[0066] En una forma de realización preferida de la presente invención se utiliza una unidad de procesamiento de datos por cada seis cámaras, de modo que cada unidad de procesamiento de datos esté en comunicación de datos con un máximo de seis cámaras. De este modo, en caso de utilizar, por ejemplo, doce cámaras de modo de cubrir el ancho total de trabajo, se necesitarían al menos dos unidades de procesamiento de datos en comunicación de datos con dichas cámaras. [0067] En una forma de realización de la presente invención, el gabinete de cada cámara comprende una unidad de medición inercial, una fuente de iluminación, una unidad de procesamiento de datos y componentes necesarios para el accionamiento de válvulas o actuadores, además de los componentes propios de la cámara tales como el sensor de imagen, filtro pasabanda y lente. En esta forma de realización corresponde una unidad de procesamiento de datos por cámara o sensor de imagen.
[0068] A continuación, se detallará en profundidad cada uno de los componentes del sistema de detección e identificación de la presente invención y el modo de operación del mismo. Dichas descripciones en profundidad son aplicables a cada una de las formas de realización descritas anteriormente.
[0069] El filtro pasabanda utilizado para cada cámara es un filtro que permite que lleguen al sensor de imagen de la cámara bandas de ondas electromagnéticas cuyas longitudes de onda van desde aproximadamente 620 nm, es decir desde el rojo del espectro visible, hasta aproximadamente los 2500 nm que pertenecen al infrarrojo cercano (NIR, por sus siglas en inglés). En una forma de realización preferida las longitudes de onda van desde 620 nm a 700 nm y desde 780 nm a 900 nm. De esta forma, mediante el filtro pasabanda se mejora la percepción de especies vegetales vivas o muertas con respecto al suelo, aprovechando así la absorción y rechazo de luz infrarroja y roja correspondiente a cada grupo a distinguir (ver “ Strategy for the Development of a Smart NDVI Camera System for Outdoor Plant Detection and Agricultural Embedded Systems ”). Por su parte, la elección de la lente permite observar objetos a cierta distancia de la cámara con una determinada resolución y nitidez.
[0070] Como se mencionó previamente, se coloca una fuente de iluminación por cada cámara, en donde dicha fuente de iluminación es preferiblemente una fuente de iluminación LED que se coloca de manera paralela a su correspondiente cámara. Cabe destacar que el sistema de detección e identificación de la presente invención puede utilizar iluminación natural siempre que las condiciones climáticas así lo permitan. De este modo, la incorporación de la fuente de iluminación al sistema de detección e identificación es opcional y depende de si se emplea dicho sistema de detección e identificación durante la noche. En otras palabras, la fuente de iluminación es requerida únicamente en la configuración para trabajos nocturnos.
[0071] En una forma de realización de la presente invención el sistema de detección e identificación de la presente invención puede ser montado sobre un vehículo agrícola y sobre un botalón pulverizador, tal como se aprecia en la Figura 1. Adicionalmente, el sistema de detección e identificación puede incorporarse o montarse en vehículos agrícolas tales como un vehículo pulverizador de agroquímicos, un vehículo que tire de una pulverizadora de arrastre o un robot eléctrico. En una forma de realización de la presente invención el sistema de detección e identificación se monta sobre un botalón pulverizador de un vehículo pulverizador o sobre una pulverizadora de arrastre.
[0072] En caso de que el sistema de detección e identificación se monte ya sea en un vehículo pulverizador, pulverizadora de arrastre, botalón pulverizador u otro vehículo o componente agrícola, y se utilice una pluralidad de cámaras para la detección de especies vegetales, el espaciado entre dichas cámaras se determinará de acuerdo con la precisión a alcanzar y el tipo de detección pudiendo ser, en una forma de realización a modo de ejemplo, de entre 0,5 m y 5 m, preferiblemente entre 1 m y 3 m, y más preferiblemente 2 m de modo de lograr un amplio campo de visión del terreno sobre el cual se desplaza el vehículo agrícola.
[0073] En caso de que el sistema de detección e identificación de especies vegetales esté montado ya sea en un vehículo pulverizador de agroquímicos, pulverizadora de arrastre, botalón pulverizador u otro vehículo o componente agrícola, las cámaras se incorporan de manera de encontrarse a una altura entre 50 cm y 180 cm respecto del suelo, preferiblemente entre 80 cm y 160 cm, y más preferiblemente 140 cm, e inclinadas a un ángulo de inclinación entre 40 y 60 grados, preferiblemente 50 grados, de modo de que las cámaras estén orientadas hacia el suelo y hacia adelante de, por ejemplo de un vehículo agrícola, estando la dirección hacia adelante definida por la dirección de avance de por ejemplo dicho vehículo agrícola. En particular, el ángulo de inclinación de 50 grados favorece la detección de especies vegetales para la cámara y lente seleccionados y el uso de iluminación artificial de noche mediante la fuente de iluminación LED.
[0074] Cabe destacar que los rangos de valores recién mencionados en relación con el espaciamiento entre las cámaras, la altura y ángulo de inclinación de éstas, son solo formas de realización preferidas y no deben ser considerados como limitantes ya que pueden utilizarse valores fuera de dichos rangos según sea necesario. Asimismo, dependiendo de los requerimientos de precisión, costo, entre otros, se puede seleccionar un modelo de lente y una determinada geometría para las cámaras, entendiéndose por geometría la altura de las cámaras y el espaciamiento entre ellas, que permitan observar las especies vegetales con la resolución necesaria. Por ejemplo, si se desea una determinada resolución y se tiene un determinado modelo de lente, las cámaras deben colocarse a una altura y espaciamiento entre sí determinados de modo de lograr dicha resolución determinada, pudiendo el espaciamiento ser tal que implique pocas cámaras. En otras palabras, la resolución y costo requeridos determinan la elección de la lente y la altura y el espaciamiento entre las cámaras.
[0075] Las cámaras se encargan de capturar y enviar imágenes a la unidad de procesamiento de datos de modo que ésta pueda detectar e identificar especies vegetales de manera autónoma, discriminando entre cultivos, malezas y suelo, en base a las imágenes que recibe, y tomar decisiones según lo detectado, tal como actuar sobre las malezas o no, entre otras posibles acciones. Asimismo, permite el geoposicionamiento de las especies vegetales que detecta al estar en comunicación de datos con la unidad de GPS. Esto será descrito con más detalle a continuación.
[0076] Las cámaras, por ejemplo, cámaras de alto rango dinámico, cubren cada una, por ejemplo, entre 1 m y 5 m de ancho de trabajo según la precisión a alcanzar y tipo de detección a realizar. Esta variación está dada debido a que puede trabajarse con lentes de distintas características en cuanto a su campo de visión de acuerdo con el cual es el requerimiento de precisión versus costo, en donde la elección del modelo lentes a utilizar modifica la geometría de altura de las cámaras y espaciado entre las mismas, otorgando versatilidad al sistema de detección e identificación.
[0077] Las cámaras tienen sensores de imagen seleccionados de modo de permitir capturar imágenes con una relación de aspecto muy ancha, que en comparación a una relación de aspecto estándar permite obtener mejor resolución en la dimensión horizontal para un ancho de trabajo determinado. A los efectos de la presente invención, por relación de aspecto de una imagen se entiende la proporción entre el ancho y la altura de dicha imagen, por lo tanto, una relación de aspecto muy ancha implica que la imagen captada tiene un ancho mayor a su altura. Esto resulta útil para la detección de especies de vegetales porque éstas, sean cultivos o malezas, se encuentran sobre el suelo, o sea sobre un plano determinado y teniendo en cuenta su tamaño y la velocidad de trabajo requerida, es limitada la distancia del vehículo a la que resulta de interés poder sensar las especies vegetales. En cambio, resulta de gran utilidad mejorar la resolución horizontal dentro del ancho de trabajo estipulado, ya que pueden detectarse con mejor resolución las especies vegetales que se encuentran a una distancia del vehículo propicia para la detección. Además, los sensores de imagen utilizados en las cámaras son preferiblemente sensores con un rango dinámico de al menos 60 dB, preferiblemente 120 dB, gracias al uso del modo de imágenes de alto rango dinámico (HDR por sus siglas en inglés) que permite capturar imágenes con distintos valores de exposición y ganancia y componerlas automáticamente para obtener una buena relación señal ruido en toda la imagen cuando la escena capturada por la cámara cuenta con gran variación en los niveles de iluminación.
[0078] El sistema de detección e identificación de especies vegetales al estar montado ya sea en un vehículo pulverizador, pulverizadora de arrastre, botalón pulverizador de agroquímicos u otro vehículo o componente agrícola, es capaz de discriminar eficazmente entre malezas, cultivos y suelo de modo que la pulverización de agroquímicos sea de forma selectiva y precisa, por ejemplo, asegurando la aplicación de herbicidas únicamente sobre las malezas. Esto se logra mediante la unidad de procesamiento de datos la cual está configurada, como se describió anteriormente, para detectar, y discriminar entre cultivos, malezas y suelo, en base a las imágenes que recibe, de manera autónoma y tomar decisiones según lo detectado. Asimismo, la unidad de procesamiento de datos comprende algoritmos de geoposicionamiento que al recibir las imágenes desde las cámaras y al estar la unidad de procesamiento de datos en comunicación de datos con la unidad de GPS y las unidades de medición inercial, permiten geoposicionar cada una de las especies vegetales detectadas a medida que el vehículo pulverizador avanza y, a su vez, elaborar mapas de malezas y cultivos que pueden ser multicapa y que son de gran utilidad para toma de decisiones. En particular, el sistema de detección e identificación de la presente invención permite generar un mapa del área recorrida que es multicapa, es decir, puede comprender mapas de maleza (discriminada por familia), mapas de estadios de crecimiento tanto de maleza como del cultivo, mapas de cultivo dañado con posibles enfermedades o plagas.
[0079] La unidad de procesamiento de datos, la cual es preferiblemente un procesador de varios núcleos con unidad de procesamiento gráfico optimizada para trabajar con imágenes y/o conjuntos de imágenes, comprende un sistema de calibración que está en comunicación de datos con un sistema de autocalibración en las cámaras de modo de gestionar dicho sistema de autocalibración. Para ello, el sistema de calibración de la unidad de procesamiento comprende algoritmos de calibración de la exposición y otros ajustes de las cámaras en función de las condiciones lumínicas existentes en el campo donde se encuentre el vehículo pulverizador, medidas a través de parámetros de las mismas cámaras. De este modo, el sistema de autocalibración de las cámaras por medio del sistema de calibración de la unidad de procesamiento de datos una permite una calibración de las imágenes que obtienen las cámaras en términos de valores de exposición, ganancia, balance de blancos entre otros parámetros.
[0080] Cabe destacar que la calibración de los parámetros físicos de las cámaras, tales como sus parámetros intrínsecos (distancia focal de la cámara, su centro y sus coeficientes de distorsión) como sus parámetros extrínsecos (posición y ángulo de inclinación) se realizan durante la fabricación de las mismas y/o montaje de las mismas, por ejemplo, en el vehículo o componente agrícola donde serán utilizadas por el sistema de detección e identificación de la presente invención. Dichos parámetros intrínsecos y extrínsecos se informan a la unidad de procesamiento de datos para que ésta los tenga en consideración a la hora de realizar sus correspondientes funciones. De este modo, la unidad de procesamiento de datos conoce, por ejemplo, la posición y orientación de cada una de las cámaras con respecto al vehículo o componente agrícola y al suelo; y permite relacionar lo detectado por las cámaras con una posición real en el suelo.
[0081] Es necesario aclarar que algunos de dichos parámetros intrínsecos y extrínsecos podrían ser calibrados por la unidad de procesamiento de datos.
[0082] Además, la unidad de procesamiento de datos está configurada para detectar, identificar y discriminar entre cultivos, malezas y suelo ya que contiene un software con algoritmos de inteligencia artificial entrenados para detectar especies vegetales vivas o muertas en tiempo real y un software con algoritmos de aprendizaje profundo (en inglés, deep learning ), que comprenden redes neuronales convolucionales, entrenados previamente para distinguir cualquier cultivo o especie vegetal específico, por ejemplo, soja, entre malezas, suelo, barbecho y otros elementos normalmente presentes en un campo de producción agrícola.
[0083] Como se describió anteriormente, cada cámara tiene un filtro pasabanda especialmente diseñado para recibir las frecuencias relacionadas a la luz roja e infrarroja y bloquear las demás. En una forma de realización el filtro puede tener una respuesta en frecuencia tal que deja pasar longitudes de onda entre los 620 nm y 660 nm, y entre los 780 nm y 900 nm, correspondientes a luz roja e infrarroja respectivamente. Debe tenerse en cuenta que las distintas celdas receptoras de los sensores de imagen de cada cámara están diseñadas para recibir ondas correspondientes a la luz verde, la luz azul y la luz roja individualmente. Asimismo, reciben la luz infrarroja a menos que se coloque un filtro en la lente para evitarlo. De este modo, al anteponer el filtro pasabanda al sensor de imagen de la cámara, se recibirá sólo luz infrarroja en las celdas preparadas para recibir verde y azul y se recibirá luz roja e infrarroja en las celdas preparadas para recibir luz roja. De este modo, se permite sensar las especies vegetales vivas con más contraste respecto a las especies vegetales muertas y al suelo que si no se utiliza el filtro pasabanda (Strategy for the Development of a Smart NDVI Camera System for Outdoor Plant Detection and Agricultural Embedded Systems).
[0084] Asimismo, como se describió anteriormente, cada cámara del sistema de detección e identificación de la presente invención puede contar también con una fuente de iluminación la cual puede ser una fuente de iluminación LED para uso nocturno, especialmente diseñada para emitir luz roja e infrarroja en correlación con la luz captada por el sensor óptico debido al filtro pasabanda descripto. Al estar cada cámara y fuente de iluminación LED de manera paralela entre sí, como se adelantó previamente, ambas tienen un ángulo de inclinación dentro del rango definido anteriormente, es decir, 40 grados a 60 grados, preferiblemente un ángulo de inclinación de 50 grados, de modo de que estén orientadas hacia abajo y hacia adelante. La fuente de iluminación LED se ubica, a modo de ejemplo, a aproximadamente 30 cm por debajo o por encima de su correspondiente cámara pudiendo modificarse dicha distancia según sea necesario. Alternativamente, la fuente de iluminación puede situarse en el mismo gabinete de la cámara. De este modo, se logra que las cámaras reciban una mayor intensidad de luz y que puedan utilizarse con una configuración de tiempo de apertura pequeño para evitar blurring o desenfoque de movimiento a las velocidades de trabajo.
[0085] Haciendo referencia a la Figura 6, en el caso de que el sistema de detección e identificación esté implementado sobre ya sea un vehículo pulverizador de agroquímicos, una pulverizadora de arrastre o bien un botalón pulverizador de agroquímicos, dicho sistema de detección e identificación 1 puede estar en comunicación de datos con un controlador 7 de válvulas pulverizadoras a través de una unidad de procesamiento de datos 4 tal como se aprecia en la Figura 7. En particular, en dicha Figura 7 se muestra una imagen esquemática de una forma de realización del sistema de detección e identificación 1 de la presente invención que comprende más de una unidad de procesamiento de datos 4, estando cada unidad de procesamiento de datos en comunicación de datos con seis cámaras 2, seis fuentes iluminación 3 (con motivo de lograr simplicidad, en la Figura 7 se muestran menos de seis cámaras 2 y menos de seis fuentes de iluminación 3 por cada unidad de procesamiento de datos) y con un controlador 7 de válvulas que comanda una determinada cantidad de válvulas pulverizadoras 8. Asimismo, cada unidad de procesamiento 4 de datos está en comunicación de datos con una misma unidad de GPS 5 y una misma interfaz de usuario 6.
[0086] Cada controlador 7 de válvulas, por medio de la correspondiente unidad de procesamiento de datos 4, se encarga de gestionar la apertura y cierre de cada una de las válvulas pulverizadoras 8 que estén asociadas a dicho controlador 7 de válvulas. De este modo, la unidad de procesamiento de datos 4 transmite órdenes al controlador 7 de válvulas de modo de permitir una lógica de apertura y cierre de válvulas para la aplicación de agroquímicos. A modo de ejemplo únicamente, en caso de que un vehículo pulverizador aplique herbicidas, la aplicación de herbicidas es llevada a cabo según la posición de las malezas detectadas, el movimiento del vehículo pulverizador, la posición de las válvulas relativas al mismo, la altura de las válvulas y presión a utilizar para la pulverización, entre otras posibles variables a tener en cuenta.
[0087] Al estar la o las unidades de procesamiento de datos 4 que tiene el sistema de detección e identificación 1 en comunicación de datos con la interfaz de usuario 6, el operario del vehículo pulverizador puede interactuar con los componentes propios del, y vinculados al, sistema de detección e identificación 1 de la presente invención de modo de realizar acciones, ajustes y/u obtener información de éstos.
[0088] El sistema de detección e identificación de la presente invención, de modo de detectar eficientemente las especies vegetales, lleva a cabo un método para detectar e identificar especies vegetales en un campo agrícola que presenta etapas que se describen a modo de ejemplo y que pueden ser reemplazas por otras que produzcan efectos iguales o similares. Este método se lleva a cabo a través de los algoritmos presentes en la unidad de procesamiento de datos los cuales pueden separarse en distintos módulos. A continuación, se describen las etapas del método, el cual se ilustra de manera simplificada en la Figura 7A, junto con los módulos encargados de realizar dichas etapas, los cuales se ilustran de manera esquemática en la Figura 7B junto con una imagen a modo de ejemplo de la función que llevan a cabo.
[0089] La primer etapa o etapa de sensado, la cual es realizada por un módulo de sensado, captura una imagen o fotograma del suelo que puede contener especies vegetales vivas o muertas a través de una cámara y recibe datos desde la unidad de GPS y desde las unidades de medición inercial con los que puede contar cada cámara. Asimismo, en dicha etapa se realizan, en tiempo real y de manera iterativa, las configuraciones necesarias, tales como la calibración de exposición, balance de blancos, etc., mediante el sistema de autocalibración de las cámaras y, por lo tanto, los algoritmos de calibración del sistema de calibración de la unidad de procesamiento de datos, de modo que cada cámara obtenga la mejor calidad de imagen posible para la detección de especies vegetales. Es decir, el módulo de sensado efectúa una calibración de la imagen en términos de valores de exposición, ganancia, balance de blancos entre otros parámetros.
[0090] Las exposiciones y ganancias con las que se captura la imagen se adaptan con el objetivo de normalizar la iluminación en la imagen de cada cámara para poder analizar ciertos detalles independientemente de la existencia de sombras y de la iluminación ambiente en diferentes situaciones climáticas. Dado el uso del filtro, mencionado más arriba, para resaltar el contraste entre especies vegetales y otros elementos presentes en un lote para uso agropecuario y la necesidad de observar detalles en sectores de la imagen que podrían estar oscurecidos por sombras, se utiliza un objetivo de calibración diferente al utilizado normalmente por cámaras de uso general. Por ello los parámetros de exposición y ganancia se ajustan a valores especiales que permitan lograr una imagen óptima en términos de contraste entre especies vegetales y demás elementos y definición de detalle en todo tipo de iluminación, tanto en áreas de menor iluminación debido a sombras que pudieran proyectarse sobre el suelo como en sectores de gran iluminación.
[0091] Las cámaras utilizadas, por ejemplo, cámaras de alto rango dinámico, mediante la captura de tres imágenes tomadas con distintos valores de exposición generan una única imagen, que utiliza más información de la imagen con mayor exposición en partes oscuras de la escena y más información de la imagen con menor exposición en sectores más iluminados de la escena. Esta composición resultante es realizada por cada una de las cámaras de alto rango dinámico, ahorrándole así recursos de procesamiento a la unidad de procesamiento de datos la cual recibe imágenes ya procesadas. Se establecen máximos de exposición para evitar una imagen movida al tomarla con el vehículo circulando a su velocidad de uso máxima. [0092] La segunda etapa o etapa de procesamiento de imágenes, la cual es realizada por un módulo de procesamiento de imágenes, se encarga de realizar cualquier tipo de corrección posterior necesaria a la captura de la imagen, como la anti distorsión, el cálculo del índice de vegetación de diferencia normalizada (NDVI por sus siglas en inglés) según la aplicación a realizar y separar la imagen en parches o porciones rectangulares o cuadradas. Esto último quiere decir que la imagen o fotograma obtenido se divide en una grilla de fotogramas de menor tamaño.
[0093] La tercer etapa o etapa de detección e identificación, la cual es realizada por el módulo de detección e identificación, se encarga de detectar e identificar el contenido de cada parche mediante los algoritmos de aprendizaje profundo. Más precisamente, mediante las redes neuronales convolucionales, las cuales están entrenadas con una base de datos que contiene parches o fotogramas del tamaño que se obtienen en la etapa anterior, en donde dichos parches o fotogramas comprenden especies vegetales y suelos capturados en distintas condiciones en las que pudiera utilizarse el sistema. Dichas especies vegetales en los parches de la base de datos pueden corresponder a una cantidad considerable de especies vegetales, aunque no necesariamente deben comprender todas las especies vegetales presentes en el campo agrícola donde se desea utilizar el sistema de detección e identificación de la presente invención. Asimismo, dichos parches o fotogramas de cada especie vegetal que pudiera encontrarse en el suelo, pueden ser ampliados con técnicas de aumento de datos. A su vez cada parche se clasifica como conteniendo malezas o no, conteniendo cultivo o no, especies vegetales a exterminar o ninguna especie vegetal, entre otras combinaciones posibles. De esta forma, las redes neuronales convolucionales realizan una identificación del contenido de las imágenes que se le presentan en tiempo real durante la aplicación agropecuaria que se esté llevando a cabo. Esto lo logran filtrando solo los parches que tienen alta probabilidad de contener las especies vegetales que se desean detectar.
[0094] Las técnicas de aumento de datos empleadas consisten en cambios que se efectúan sobre las imágenes para producir imágenes nuevas a partir de ellas y así aumentar la cantidad de datos sin necesidad de capturar otras imágenes. Los cambios en las imágenes originales se producen de manera aleatoria, pero con restricciones que hacen que las imágenes nuevas obtenidas representen situaciones que podrían ocurrir en la realidad, por ejemplo, se realizan rotaciones de las imágenes originales en ángulos pequeños, efectos que simularían un desenfoque, etc. Por otro lado, también se realiza el aumento de datos manual de las imágenes de la base de datos, también buscando que se asemejen a situaciones que podrían ocurrir en la realidad. Por ejemplo, se modifica la ganancia para obtener imágenes más claras/oscuras.
[0095] Además, para el uso del sistema de detección e identificación de la presente invención para detectar y distinguir especies vegetales en un campo agrícola en, por ejemplo, un vehículo agrícola que utiliza dicho sistema de detección e identificación, debe realizarse una etapa de entrenamiento de las redes neuronales convolucionales, es decir, de los algoritmos de aprendizaje profundo, la cual consta de dos partes, una primera parte de aprendizaje o entrenamiento no supervisado, y una segunda parte de aprendizaje o entrenamiento supervisado, que se explicarán a continuación, y una etapa de identificación o detección en la que la red entrenada efectúa una identificación del contenido de las imágenes que se le presentan en tiempo real durante la aplicación agropecuaria seleccionada, véase la Figura 8. Cabe destacar que la etapa de entrenamiento se realiza previo al uso del sistema de detección e identificación de la presente invención y la etapa de identificación se realiza durante el uso de dicho sistema de aplicación.
[0096] En la etapa de entrenamiento, los algoritmos de aprendizaje profundo, en particular, las redes neuronales convolucionales, reciben como entrada imágenes de sectores de campo en diversas situaciones y las utilizan para aprender a clasificar cualquier nueva imagen en las categorías que se le indiquen. Ello implica que la red ajuste sus parámetros, denominados filtros, que son los coeficientes de las matrices de convolución que serán aplicadas sobre los datos de entrada a una determinada capa de la red, de manera de minimizar alguna función de error que se le provee. Cabe aclarar que por categorías debe entenderse qué tipo de cultivo quiere detectarse, qué tipo de maleza quiere detectarse, etc. Por su parte, la función de error es una medida de la diferencia entre el resultado obtenido por la red para un dato de entrada dado y un resultado establecido como válido o deseable. Por ejemplo, en el entrenamiento supervisado, el resultado considerado válido o correcto es la etiqueta que una persona experta en especies vegetales asoció a un parche al clasificarlo como maleza, suelo, etc. La función de error tendrá un valor menor si los resultados obtenidos por la red y los considerados como válidos o deseables coinciden. Por eso de acuerdo con el valor arrojado por la función de error se realizará un ajuste sobre los filtros de la red en un proceso iterativo. Estos conceptos se aplican tanto para el entrenamiento supervisado como para el entrenamiento no supervisado.
[0097] Asimismo, es necesario aclarar, que el sistema de detección e identificación de la presente invención puede configurarse para detectar e identificar distintos tipos de especies vegetales, pero con el fin de economizar recursos de procesamiento y a fines prácticos agrícolas, puede configurarse al sistema de detección e identificación para detectar e identificar, por ejemplo, el cultivo de interés y/o las malezas que pueden estar presentes en el campo agrícola de interés. Asimismo, estas malezas pueden diferenciarse entre gramíneas o de hoj a.
[0098] En primer lugar, en el entrenamiento no supervisado se utilizan redes adversarias generativas (GAN por sus siglas en inglés) que permiten a la unidad de procesamiento de datos del sistema de detección e identificación de la presente invención aprender filtros relevantes para la clasificación en las categorías seleccionadas. En dicho sistema de detección e identificación se puede clasificar a lo detectado en cultivo/mal eza/suelo como categorías más amplias y en subtipos de cultivos o malezas ante la posibilidad de obtener un sistema para usos que requieran dicha precisión de clasificación.
[0099] El procedimiento de aprendizaje de las redes adversarias generativas consiste en entrenar al mismo tiempo un generador de datos sintéticos y un discriminador que intenta discernir si los datos que se le proveen son reales o sintéticos. Así, el generador deberá intentar producir imágenes lo más parecidas posibles a las provistas y el discriminador, en el proceso de aprender a discernir entre las imágenes generadas (sintéticas) y las reales, logrará entrenar sus filtros (parámetros) de manera de poder identificar propiedades de la imagen que resulten características.
[0100] En particular, el procedimiento de aprendizaje de las redes adversarias generativas consiste en proveer a las redes adversarias generativas una base de datos de parches de 64 x 64 pixeles, extraídos de imágenes capturadas con las cámaras y tomadas en diversas condiciones del entorno agropecuario en el que se empleará el sistema de detección e identificación de la presente invención. El tamaño seleccionado para subdividir las imágenes es debido a que la arquitectura de redes adversarias generativas logra una buena estabilidad en el entrenamiento utilizando ese tamaño de entrada en la red (64 x 64). A su vez los parches se toman únicamente de un rectángulo del centro inferior de una imagen, y, para esta etapa, se favorece la inclusión de imágenes que contienen cultivo y malezas en oposición a las que contienen solo suelo. Esto permite aumentar las probabilidades de que los parches contengan especies vegetales y que se utilicen ejemplos con buena calidad de imagen.
[0101] Dada la base de datos descrita, el sistema de detección e identificación repite la parte de aprendizaje no supervisado durante una cantidad determinada de iteraciones y se evalúan los resultados obtenidos. En el caso del discriminador la evaluación se realiza a través de la observación del progreso del error en la distinción entre imágenes reales y generadas. En el caso del generador la evaluación se realiza mediante la inspección de las mismas. Este procedimiento (proveer las imágenes de entrada, realizar la cantidad preestablecida de iteraciones y evaluar los resultados) se vuelve a realizar tantas veces como sea necesario hasta obtener resultados satisfactorios para un experto en aprendizaje automatizado del sistema de la presente invención.
[0102] Una vez completo el entrenamiento no supervisado se realiza el entrenamiento supervisado, el cual se describe a continuación y que para su mejor comprensión puede apreciarse en la Figura 9 un diagrama de bloques esquemático que representa el procedimiento del entrenamiento supervisado. Para esta instancia, se utiliza un subconjunto de la base de datos de parches de 64 x 64 extraídos de imágenes capturadas, esta vez sin favorecer ningún tipo de datos en particular, si no buscando obtener una misma cantidad de ejemplos de los distintos elementos que se quieren clasificar, en variadas condiciones ambientales. Estos parches son etiquetados por expertos en el arte pertinente según el tipo de especie vegetal, si la hubiera, que se observa en cada parche de la imagen y si el mismo parche contiene solo suelo, rastrojo, etc.
[0103] A su vez, se utiliza el discriminador entrenado en la etapa de aprendizaje no supervisado y se recuperan los filtros aprendidos para pasarlos a un formato de red convolucional optimizado para obtener una mejor performance en tiempo en la unidad de procesamiento de datos, siendo que ésta cuenta con varios núcleos y una unidad de procesamiento gráfico optimizada para trabajar con imágenes.
[0104] Con las imágenes de 64 x 64 y sus respectivas etiquetas más la red obtenida para el discriminador en el nuevo formato, se realiza una transferencia de conocimiento de la siguiente manera: se calcula una función de error utilizando los filtros que entrenó las redes adversarias generativas en el aprendizaje no supervisado sobre las imágenes etiquetadas. A partir de allí se continúa con el entrenamiento de tres redes distintas con datos etiquetados con el objetivo de optimizar este error. Las redes utilizadas son de 3 y de 2 capas solamente, siendo de esta manera, redes sencillas.
[0105] Cabe aclarar que las capas de una red neuronal convolucional están formadas por conjuntos de filtros. Dichos filtros son los coeficientes de las matrices de convolución a aplicar sobre sus entradas. Una red puede tener varias capas que se aplican una después de otra, de manera que los datos transformados por una capa pasan a ser la entrada de la siguiente capa, que los volverá a transformar. El entrenamiento de una red neuronal consiste precisamente en determinar estos filtros para que ante un dato de entrada determinado las sucesivas transformaciones resulten en la salida deseada. Por ejemplo, ante un parche que contiene una maleza la red neuronal bien entrenada aplicará transformaciones sobre dicho parche hasta lograr clasificarla como maleza.
[0106] Por otro lado, por el término época debe entenderse un período o ciclo de entrenamiento de una red en el que dicha red recibe cada uno de los datos de entrenamiento una vez. Por ejemplo, si en total se utilizarán MxN datos (imágenes) de entrenamiento, éstos serían entregados a la red en N grupos de M datos (imágenes) cada uno. Para cada grupo de M datos la red hace una clasificación de los mismos. Con ese resultado de clasificación más las etiquetas asociadas a los datos, en donde dichas etiquetas son agregadas por un usuario antes del inicio del entrenamiento, se computa una función de costo. Con este costo se realimenta la red y se actualizan sus filtros. Luego se entrega a la red actualizada otro grupo de M datos y se repite el procedimiento. Al terminar el procedimiento con el grupo N la red ha recibido una vez cada uno de los datos de entrenamiento y concluye una época. El entrenamiento total de la red neuronal convolucional consiste en realizar varias de estas épocas de entrenamiento, por ejemplo, “n” cantidad de veces.
[0107] En la figura 10 puede apreciarse un gráfico que muestra cómo evoluciona la red convolucional a través de las épocas de entrenamiento, en particular, cómo evoluciona la precisión y el error en función de las épocas de entrenamiento. Más precisamente, se observa cómo la evolución de la función error, indicada en el gráfico como costo entrenamiento, disminuye con las épocas de entrenamiento. Siendo que el entrenamiento de la red podría detenerse en cualquiera de las épocas y utilizarse la red convolucional obtenida en esa época donde se detuvo el entrenamiento para clasificar imágenes, el gráfico también muestra la función de error y precisión calculados sobre un conjunto de datos de validación que se clasificó con la red resultante de cada época. [0108] Este gráfico ilustra cómo se puede seleccionar una época para detener el entrenamiento dado la evolución del error y la precisión obtenida.
[0109] Adicionalmente, como se mencionó previamente, se agrega robustez a los datos mediante técnicas de aumento de datos. Para ello, teniendo en cuenta que el procedimiento descrito se repite “n” veces, en ciertas iteraciones puntuales seleccionadas al azar por el algoritmo, en vez de entregar como entrada las imágenes capturadas, se entregan versiones de las mismas con pequeñas modificaciones introducidas de manera probabilística. En otras palabras, de manera aleatoria el algoritmo selecciona algunos grupos de M parches de entre los N grupos que se entregan a la red durante una época de entrenamiento y en vez de entregar esas M parches tal cual fueron capturados por una correspondiente cámara, los entrega con pequeñas modificaciones. Así, se introduce cierta variación en los datos o parches para que la red deba ajustar sus filtros si no puede clasificar correctamente estos datos o parches modificados. Las modificaciones que se utilizan son ruido con distribución de probabilidad Gaussiana y rotaciones en ángulos con cierto grado de aleatoriedad, dado que generan imágenes que podrían ocurrir en las capturas reales. De esta forma, estas modificaciones permiten introducir variedad en los datos de entrenamiento para evitar que la red se sobreajuste a los mismos. En esta instancia el sistema de detección e identificación recibe los parches de 64x64 correspondientes a una nueva imagen y los entrega a la red ya entrenada para identificar el contenido de los mismos.
[0110] Es necesario destacar que mediante las redes de 2 capas y de 3 capas se obtienen resultados que son comparables con los resultados obtenidos usando redes mucho más complejas, que tendría una peor performance de tiempo en el entrenamiento porque el entrenamiento llevaría más tiempo y peor aún durante la predicción porque lleva más tiempo que todas las capas procesen los datos.
[0111] Por otro lado, también se recurre al aumento de datos realizada de manera manual, lo cual permite introducir cambios controlados en los datos, con el mismo objetivo de agregar robustez al sistema. La base de datos utilizada aumenta mediante rotaciones, cambios en el balance de blancos, de ganancia, generando datos similares a los que podrían ocurrir naturalmente en el entorno de uso del sistema de detección e identificación.
[0112] Por su parte, la etapa de identificación ocurre durante el uso del sistema de detección e identificación para una determinada aplicación requerida. En esta instancia el sistema de detección e identificación recibe una nueva imagen, la subdivide en parches de 64x64 y entrega cada uno de los parches a la red ya entrenada para identificar el contenido de los mismos.
[0113] La cuarta etapa o etapa de decisión, la cual es realizada por un módulo de decisión, se encarga de geoposicionar cada parche y las especies vegetales que hubiere, mediante el uso de los algoritmos de geoposicionamiento, teniendo en cuenta que las cámaras se encuentran calibradas en cuanto a sus parámetros intrínsecos y extrínsecos, como se mencionó previamente, en relación con la unidad de GPS. Luego, el módulo de decisión toma una decisión teniendo en cuenta diversos factores de ajuste que comprenden, por ejemplo, la evaluación realizada en la tercera etapa por el módulo de detección e identificación sobre cada parche, el tipo de pulverización que se desea realizar (sobre barbecho o sobre cultivo); el grado de certeza en la pulverización vs el grado de ahorro de agroquímicos seleccionado por el usuario. Dicha toma de decisión corresponde a generar un requerimiento de actuar sobre alguna o todas de las especies vegetales detectadas en función de la tarea agropecuaria que se esté llevando a cabo.
[0114] La quinta y última etapa o etapa de aplicación, la cual es realizada por un módulo de aplicación, se encarga de determinar en qué momento y durante cuánto tiempo debe accionar cada válvula (o actuador) para llevar a cabo la acción requerida en la posición especificada sobre alguna de las especies vegetales detectadas. El módulo de aplicación contrasta el requerimiento de aplicación determinado por la cuarta etapa con las condiciones de entorno para poder llevarlo a cabo. Primeramente, se define un radio alrededor de la zona del parche a pulverizar (o buffer) que resulta de una configuración del usuario y/o las características de la pulverización a efectuar: tipo de producto, velocidad de aplicación, tipo de malezas a tratar, condiciones ambientales, etc. En base a la velocidad de circulación y la geoposición de cada actuador se determina el momento de apertura y cierre de la o las válvulas para aplicar sobre el radio determinado.
[0115] El sistema de detección e identificación también cuenta con una interfaz al usuario, la cual se mencionó anteriormente, que está en comunicación de datos con todo el sistema de detección e identificación y brinda la posibilidad de configurar parámetros como, por ejemplo, seguridad en la pulverización vs. ahorro de producto; “buffer” o radio en torno a la especie vegetal que debe pulverizarse y otros requerimientos de la pulverización. Además, a través de la interfaz de usuario se puede intervenir sobre los módulos de detección e identificación, de decisión y de aplicación. Asimismo, a través de la interfaz al usuario también se ofrece, por ejemplo, un reporte que incluye un mapa de la detección con el geoposicionamiento de las especies vegetales, la acción efectuada (por ejemplo, las áreas donde se aplicó producto) y cualquier otro tipo de información útil para que el usuario pueda decidir sobre futuras acciones o generar un requerimiento para otro equipo.
[0116] Cabe destacar que las cámaras y las unidades de medición inercial están calibradas respecto a la unidad de GPS montada en el vehículo o componente agrícola, por ejemplo, un vehículo pulverizador. En el caso de las unidades de medición inercial puede ajustarte un offset de posición y alineación respecto al sensor de imagen de la cámara solidaria al mismo. A su vez y como se ha mencionado anteriormente las cámaras están calibradas en cuánto a sus parámetros intrínsecos (distancia focal de la cámara, su centro y sus coeficientes de distorsión) y sus parámetros extrínsecos, que permiten conocer su pose (posición y ángulo) respecto a los picos de pulverización y unidad de GPS.
[0117] Por último, es necesario destacar que mediante el sistema de detección e identificación y método de la presente invención se consiguen resultados altamente eficientes independientemente de si se los aplica en cultivos intensivos o extensivos y de si las condiciones ambientales y del terreno son amigables u hostiles.
[0118] Haciendo referencia nuevamente a la Figura 7B, en ésta puede apreciarse cada uno de los módulos que llevan a cabo el método de la presente invención junto con una imagen a modo de ejemplo de la función que llevan a cabo. En particular, para el módulo de sensado se muestra la captura de una imagen que contiene cultivos y malezas; para el módulo de procesamiento de imagen se muestra la misma imagen anterior a la cual se le ha realizado una subdivisión en parches; para el módulo de detección e identificación se muestra la misma imagen anterior a la que se le han detectado e identificado los parches que contienen las malezas o especie vegetal de interés; para el módulo de decisión se muestra la misma imagen anterior en donde se ha geoposicionado cada parche y decidido actuar sobre las malezas o especies vegetales detectadas; y para el módulo de aplicación se muestra la misma imagen anterior en donde se ha determinado en qué momento y durante cuánto tiempo debe accionar cada válvula (o actuador) para llevar a cabo la acción requerida en la posición especificada sobre alguna de las malezas o especies vegetales detectadas. Resultados
[0119] A continuación, se muestra la Tabla 1, la cual muestra el desempeño del sistema de detección e identificación en la detección e identificación de malezas de distinto tipo dentro de cultivo de soja. Los valores que se muestran en la Tabla 1 se obtuvieron a partir de los resultados de aplicar los algoritmos de aprendizaje profundo basado en redes neuronales convolucionales y descrito anteriormente sobre imágenes capturadas con el sistema de detección e identificación de la presente invención. Los algoritmos clasificaron cada parche de imagen como conteniendo maleza o libre de maleza, y dicha detección se comparó con la etiqueta dada al parche por una persona experta. Se asume que esa etiqueta es correcta.
Tabla 1
Figure imgf000030_0001
[0120] Para analizar el desempeño del sistema de detección e identificación de la presente invención se consideraron los siguientes parámetros, la eficacia que indica qué proporción de las detecciones (parche con maleza y parche sin maleza) son correctas; la sensibilidad que indica qué proporción de los parches que contienen maleza se clasifican como tal, siendo este parámetro importante porque su alto porcentaje de 93% muestra que se detectan correctamente los casos en los que hay que pulverizar; la especificidad que indica qué proporción de los parches que no tienen maleza se clasifican como tal; y la precisión que indica qué proporción de los parches que se clasifican como conteniendo maleza realmente tienen, permitiendo este parámetro dar cuenta del aprovechamiento que se hará del producto pulverizado.
[0121] Por otro lado, el parámetro del poder predictivo negativo indica qué proporción de los parches que se clasifican como libres de maleza realmente lo son, siendo el valor de 96% de gran importancia porque muestra que cuando el clasificador determina que un parche no tiene maleza lo hace con un alto porcentaje de acierto y de esta manera no quedarían malezas sin pulverizar. La contraparte de este parámetro es la tasa de falsa omisión que muestra qué proporción de los parches clasificados como libres de maleza en realidad la contienen. Puede apreciarse que la tasa de falsa omisión es sólo el 4% de los parches clasificados como libres de maleza, lo cual es un valor altamente aceptable en la práctica.
[0122] Adicionalmente, la Tabla 2 presenta los resultados en la pulverización de agroquímicos. En este caso, además de los algoritmos de aprendizaje profundo se evalúa el proceso de geoposicionamiento de las malezas y de apertura y cierre de válvulas, ya que ante especies vegetales físicas en un lote se evalúa su correcta pulverización y la ausencia de pulverización donde las especies consideradas malezas (es decir, las que no son cultivo) no están presentes.
Tabla 2
Figure imgf000031_0001
[0123] El sistema de detección e identificación de la presente invención permite funciones, resultados y ventajas que no son obtenibles mediante ningún dispositivo o método conocido en el arte o mediante alguna combinación obvia de dispositivos o métodos conocidos en el arte.
[0124] En particular, el sistema de detección e identificación permite entre algunas de sus funciones detectar e identificar especies vegetales en un lote (que puede o no tener un cultivo), geoposicionarlas y efectuar una acción sobre ellas, por ejemplo, pulverización de agroquímicos. A continuación se detallan algunas ventajas de la presente invención frente a lo conocido en el estado del arte.
[0125] El uso de cámaras permite obtener un detector más completo que el que resulta de otros tipo de sensores que solo pueden identificar el porcentaje de especies vegetales dentro de un área de medición. Las cámaras ofrecen versatilidad para hacer una detección más específica pudiendo distinguir en primer lugar las malezas del cultivo, fundamental para la aplicación selectiva. En segundo lugar, permite identificar el tipo o familia de maleza y la especie. Además la detección mediante cámaras permite determinar la posición de la especie vegetal dentro del área sensada. Las cámaras pueden usarse para geoposicionar las especies vegetales detectadas permitiendo generar un mapa de las mismas además de realizar una acción en base a la detección. También se puede brindar un nivel de detalle sobre las especies detectadas pudiendo identificar de cuáles se trata, sus estadios y otra información de interés que pueden representarse, por ejemplo, a través de la interfaz de usuario. De esta forma se ofrece un reporte completo al usuario que servirá para toma de decisiones o para generar un requerimiento para futuras acciones.
[0126] En el sistema de detección e identificación cada cámara detecta especies vegetales en una porción del ancho de trabajo cubierta por varios actuadores que podrían ser picos de pulverización, no se requiere de una cámara por actuador. A su vez una unidad de procesamiento se encarga de controlar varias cámaras. El sistema de detección e identificación es versátil en costos para el usuario al poder variar la cantidad de cámaras y unidades de procesamiento de acuerdo a la precisión mínima a alcanzar.
[0127] Por su parte, el uso de un filtro pasabanda en cada cámara para mejorar el contraste entre especies vegetales y otros elementos que puedan estar presentes en el entorno de uso del sistema de detección e identificación, como suelo o barbecho, facilita la clasificación.
[0128] Los algoritmos de aprendizaje profundo se valen del etiquetado de parches y la posterior clasificación de su contenido utilizando la red neuronal convolucional entrenada. Particularmente, en referencia al documento US 2018/0330166 Al el sistema de detección e identificación de la presente invención es más eficiente al modelo de detección descrito en dicho documento ya que no hace uso de cajas delimitantes antes de efectuar la clasificación de su contenido.
[0129] Además, la estructura de la red seleccionada es de pocas capas resultando en una red sencilla, con una menor cantidad de datos necesarios para su entrenamiento que el caso de una red más compleja. Una menor cantidad de datos de entrenamiento permite que la red sea fácilmente adaptable a nuevas condiciones y que el sistema de detección e identificación que la usa sea más económico por requerir menos tiempo de etiquetado de datos. A su vez los tiempos de entrenamiento y de clasificación resultan más pequeños con dichas redes. Se obtiene así una ventaja en costo y velocidad sin perder efectividad. [0130] El sistema de detección e identificación mediante la interfaz al usuario permite la configuración de parámetros como seguridad en la pulverización vs. ahorro de producto, de un “buffer” o radio en torno a la especie vegetal que debe pulverizarse, etc. También ofrece un reporte de la detección con detalles de la posición de las especies detectadas y la acción efectuada.
[0131] Por último, como se ha podido constatar a través de las tablas que muestran más arriba, el sistema de detección e identificación de la presente invención permite un alto grado de certeza en la detección de especies vegetales y en la aplicación de producto sobre las mismas.
[0132] A menos que se defina de otra manera, todos los términos técnicos y científicos utilizados en la presente tienen el mismo significado como es comúnmente entendido por una persona experta en el arte al cual pertenece la invención. Todas las patentes, solicitudes, solicitudes publicadas y otras publicaciones referenciadas en la presente están incorporadas como referencia en su totalidad para divulgar y describir los métodos y/o dispositivos en conexión con los cuales están citadas las publicaciones.
[0133] Los entendidos en la técnica reconocerán o podrán determinar, usando solamente la experimentación de rutina, muchos equivalentes de los procedimientos específicos, realizaciones, reivindicaciones y ejemplos descritos en el presente. Dichos equivalentes se consideran como dentro del alcance de la presente invención y cubiertos por las reivindicaciones adjuntas.

Claims

Reivindicaciones Un sistema de detección e identificación de especies vegetales en un campo agrícola que permite actuar sobre las mismas, que comprende: al menos una cámara que comprende una lente, un filtro pasabanda y un sensor de imagen;
- una unidad de GPS; y al menos una unidad de procesamiento de datos que comprende medios de almacenamiento de datos y está en comunicación de datos con la al menos una cámara y con la unidad de GPS, en donde cada una de las al menos una unidad de procesamiento de datos comprende un sistema de calibración de las cámaras, en donde cada una de las al menos una cámara capturan y envían imágenes a las al menos una unidad de procesamiento de datos, en donde cada una de las al menos una unidad de procesamiento de datos está configurada para detectar e identificar especies vegetales de manera autónoma, discriminando entre cultivos, malezas y suelo, en base a las imágenes que recibe y para tomar decisiones según lo detectado e identificado, y en donde cada una de las al menos una unidad de procesamiento de datos geoposiciona las especies vegetales detectadas. El sistema de detección e identificación de acuerdo con la reivindicación 1, en donde el sistema comprende seis cámaras. El sistema de detección e identificación de acuerdo con una cualquiera de las reivindicaciones precedentes, en donde cada una de las al menos una cámara es una cámara de alto rango dinámico. El sistema de detección e identificación de acuerdo con una cualquiera de las reivindicaciones precedentes, en donde el filtro pasabanda permite que su respectiva cámara reciba radiación electromagnética con longitudes de onda correspondientes a la luz roja y al infrarrojo cercano. El sistema de detección e identificación de acuerdo con una cualquiera de las reivindicaciones precedentes, en donde el sistema comprende además una unidad de medición inercial por cada una de las al menos una cámara. El sistema de detección e identificación de acuerdo con la reivindicación 5, en donde la unidad de medición inercial está unida de manera rígida a su respectiva cámara. El sistema de detección e identificación de acuerdo con una cualquiera de las reivindicaciones precedentes, en donde el sistema comprende además una fuente de iluminación por cada una de las al menos una cámara. El sistema de detección e identificación de acuerdo con la reivindicación 7, en donde la fuente de iluminación se posiciona en forma paralela a una respectiva cámara. El sistema de detección e identificación de acuerdo con la reivindicación 7 o 8, en donde la fuente de iluminación es una fuente de iluminación LED. El sistema de detección e identificación de acuerdo con la reivindicación 9, en donde la fuente de iluminación LED está especialmente diseñada para emitir luz roja e infrarroja en correlación con la luz captada por el sensor óptico debido al filtro pasabanda. El sistema de detección e identificación de acuerdo con una cualquiera de las reivindicaciones precedentes, en donde el sistema comprende una unidad de procesamiento de datos cada seis o menos cámaras. El sistema de detección e identificación de acuerdo con una cualquiera de las reivindicaciones precedentes, en donde cada una de las al menos una unidad de procesamiento de datos de modo de lograr la detección e identificación de especies vegetales emplea algoritmos de inteligencia artificial y algoritmos de aprendizaje profundo que comprenden redes neuronales convolucionales, discriminando entre cultivos, malezas y suelo. El sistema de detección e identificación de acuerdo con una cualquiera de las reivindicaciones precedentes, en donde cada una de las al menos una unidad de procesamiento de datos de modo de lograr el geoposicionamiento de las especies vegetales emplea algoritmos de geoposicionamiento. El sistema de detección e identificación de acuerdo con una cualquiera de las reivindicaciones precedentes, en donde el sistema está montado en un vehículo agrícola. El sistema de detección e identificación de acuerdo con la reivindicación 14, en donde el vehículo agrícola es seleccionado entre un vehículo pulverizador de agroquímicos, un vehículo que tira de una pulverizadora de arrastre o un robot eléctrico para operaciones agrícolas. El sistema de detección e identificación de acuerdo con una cualquiera de las reivindicaciones precedentes, en donde cada una de las al menos una unidad de procesamiento de datos está en comunicación de datos con un controlador de válvulas de modo de accionar un conjunto de válvulas de manera independiente. El sistema de detección e identificación de acuerdo con una cualquiera de las reivindicaciones precedentes, en donde el sistema está montado en un botalón pulverizador. El sistema de detección e identificación de acuerdo con una cualquiera de las reivindicaciones precedentes, en donde cada una de las al menos una cámara se posiciona a una altura entre 50 cm y 180 cm con respecto al suelo. El sistema de detección e identificación de acuerdo con la reivindicación 18, en donde cada una de las al menos una cámara se posiciona a una altura entre 80 cm y 160 cm con respecto al suelo. El sistema de detección e identificación de acuerdo con la reivindicación 19, en donde cada una de las al menos una cámara se posiciona a una altura de 140 cm con respecto al suelo. El sistema de detección e identificación de acuerdo con una cualquiera de las reivindicaciones precedentes, en donde cada una de las al menos una cámara tiene un ángulo de inclinación entre 40 y 60 grados hacia el suelo y hacia adelante. El sistema de detección e identificación de acuerdo con la reivindicación 21, en donde cada una de las al menos una cámara tiene un ángulo de inclinación de 50 grados hacia el suelo y hacia adelante. El sistema de detección e identificación de acuerdo con una cualquiera de las reivindicaciones precedentes, en donde el sistema comprende al menos dos cámaras espaciadas entre sí entre 0.5 m y 5 m. El sistema de detección e identificación de acuerdo con la reivindicación 23, en donde las al menos dos cámaras se encuentran espaciadas entre sí entre 1 m y 3 m. El sistema de detección e identificación de acuerdo con la reivindicación 24, en donde las al menos dos cámaras se encuentran espaciadas entre sí 2 m. El sistema de detección e identificación de acuerdo con una cualquiera de las reivindicaciones precedentes, en donde el sensor de imagen de cada una de las al menos una cámara permite capturar imágenes con una relación de aspecto ancha. Un método que utiliza el sistema de detección e identificación de especies vegetales de acuerdo con la reivindicación 1 para detectar e identificar especies vegetales en un campo agrícola, que comprende las siguientes etapas: etapa de sensado, en donde se captura una imagen o fotograma del suelo que puede contener especies vegetales vivas o muertas a través de una cámara, y en donde una unidad de procesamiento de datos recibe datos desde la unidad de GPS, y realiza en tiempo real y de manera iterativa configuraciones a cada cámara mediante el sistema de calibración, etapa de procesamiento de imágenes, en donde la unidad de procesamiento de datos realiza cualquier tipo de corrección posterior necesaria a la captura de la imagen y separa la imagen en parches o porciones rectangulares de modo de dividir la imagen en una grilla de fotogramas de menor tamaño, etapa de detección e identificación, en donde se detecta e identifica el contenido de cada parche mediante la unidad de procesamiento de datos, logrando así la detección e identificación de especies vegetales, etapa de decisión, en donde se geoposicionan las especies vegetales detectadas e identificadas en la etapa anterior mediante la unidad de procesamiento de datos y se realiza la toma de decisiones respecto de la forma de actuar sobre dichas especies vegetales detectadas, y etapa de aplicación, en donde la unidad de procesamiento de datos realiza una acción con respecto a las especies vegetales detectadas e identificadas, determinando cuándo, en dónde y durante cuánto tiempo debe realizarse dicha acción. El método de acuerdo con la reivindicación 27, en donde el método es realizado por un vehículo pulverizador de agroquímicos de modo que la etapa de aplicación es realizada mediante válvulas las cuales aplican o no agroquímicos sobre las especies vegetales detectadas e identificadas. El método de acuerdo con una cualquiera de las reivindicaciones 27 y 28, en donde la cámara es una cámara de alto rango dinámico. El método de acuerdo con una cualquiera de las reivindicaciones 27 a 29, en donde la unidad de procesamiento de datos recibe datos de una unidad de medición inercial. El método de acuerdo con una cualquiera de las reivindicaciones 27 a 30, en donde la etapa de detección e identificación emplea algoritmos de aprendizaje profundo para la detección e identificación de especies vegetales.
PCT/IB2020/051926 2020-03-05 2020-03-05 Sistema y método de detección e identificación de cultivo y maleza WO2021176254A1 (es)

Priority Applications (6)

Application Number Priority Date Filing Date Title
BR112022017719A BR112022017719A2 (pt) 2020-03-05 2020-03-05 Sistema de detecção e identificação de espécies vegetais e método
EP20718362.5A EP4116840A1 (en) 2020-03-05 2020-03-05 System and method of detection and identification of crops and weeds
US17/909,672 US20230117884A1 (en) 2020-03-05 2020-03-05 System and method of detection and identification of crops and weeds
PCT/IB2020/051926 WO2021176254A1 (es) 2020-03-05 2020-03-05 Sistema y método de detección e identificación de cultivo y maleza
ARP200101014A AR118643A1 (es) 2020-03-05 2020-04-08 Sistema y método de detección e identificación de cultivo y maleza
UY0001039117A UY39117A (es) 2020-03-05 2021-03-05 Sistema y método de deteccion e identificacion de cultivo y maleza

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2020/051926 WO2021176254A1 (es) 2020-03-05 2020-03-05 Sistema y método de detección e identificación de cultivo y maleza

Publications (1)

Publication Number Publication Date
WO2021176254A1 true WO2021176254A1 (es) 2021-09-10

Family

ID=70277414

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2020/051926 WO2021176254A1 (es) 2020-03-05 2020-03-05 Sistema y método de detección e identificación de cultivo y maleza

Country Status (5)

Country Link
US (1) US20230117884A1 (es)
EP (1) EP4116840A1 (es)
AR (1) AR118643A1 (es)
BR (1) BR112022017719A2 (es)
WO (1) WO2021176254A1 (es)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4238416A1 (en) * 2022-03-03 2023-09-06 Blue River Technology Inc. Dynamically adjusting treatment buffers for plant treatments
WO2023193072A1 (pt) * 2022-04-08 2023-10-12 Eirene Projetos E Consultoria Ltda Sistema, dispositivo e método para identificação de plantas e controle de pulverização

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220125032A1 (en) * 2020-10-23 2022-04-28 Deere & Company System confidence display and control for mobile machines
US11944087B2 (en) * 2020-12-21 2024-04-02 Deere & Company Agricultural sprayer with real-time, on-machine target sensor
US20230032199A1 (en) * 2021-07-28 2023-02-02 Cnh Industrial America Llc System and method for performing spraying operations with an agricultural applicator

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5296702A (en) 1992-07-28 1994-03-22 Patchen California Structure and method for differentiating one object from another object
US20140180549A1 (en) * 2011-01-07 2014-06-26 The Arizona Board Of Regents On Behalf Of The University Of Arizona Automated machine for selective in situ manipulation of plants
US20150245565A1 (en) 2014-02-20 2015-09-03 Bob Pilgrim Device and Method for Applying Chemicals to Specific Locations on Plants
US20160255778A1 (en) 2013-03-07 2016-09-08 Blue River Technology Inc. Modular precision agriculture system
WO2017178666A1 (es) 2016-04-12 2017-10-19 Diego Hernan Perez Roca Conjunto autónomo de dispositivos y método para la detección e identificación de especies vegetales en un cultivo agrícola para la aplicación de agroquímicos en forma selectiva
US20180330166A1 (en) 2017-05-09 2018-11-15 Blue River Technology Inc. Automated plant detection using image data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5296702A (en) 1992-07-28 1994-03-22 Patchen California Structure and method for differentiating one object from another object
US20140180549A1 (en) * 2011-01-07 2014-06-26 The Arizona Board Of Regents On Behalf Of The University Of Arizona Automated machine for selective in situ manipulation of plants
US20160255778A1 (en) 2013-03-07 2016-09-08 Blue River Technology Inc. Modular precision agriculture system
US20150245565A1 (en) 2014-02-20 2015-09-03 Bob Pilgrim Device and Method for Applying Chemicals to Specific Locations on Plants
WO2017178666A1 (es) 2016-04-12 2017-10-19 Diego Hernan Perez Roca Conjunto autónomo de dispositivos y método para la detección e identificación de especies vegetales en un cultivo agrícola para la aplicación de agroquímicos en forma selectiva
US20180330166A1 (en) 2017-05-09 2018-11-15 Blue River Technology Inc. Automated plant detection using image data

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4238416A1 (en) * 2022-03-03 2023-09-06 Blue River Technology Inc. Dynamically adjusting treatment buffers for plant treatments
WO2023193072A1 (pt) * 2022-04-08 2023-10-12 Eirene Projetos E Consultoria Ltda Sistema, dispositivo e método para identificação de plantas e controle de pulverização

Also Published As

Publication number Publication date
US20230117884A1 (en) 2023-04-20
AR118643A1 (es) 2021-10-20
BR112022017719A2 (pt) 2022-10-18
EP4116840A1 (en) 2023-01-11

Similar Documents

Publication Publication Date Title
WO2021176254A1 (es) Sistema y método de detección e identificación de cultivo y maleza
US11510355B2 (en) Method and apparatus for automated plant necrosis
Fernández‐Quintanilla et al. Is the current state of the art of weed monitoring suitable for site‐specific weed management in arable crops?
JP5020444B2 (ja) 作物生育量測定装置、作物生育量測定方法、作物生育量測定プログラム及びその作物生育量測定プログラムを記録したコンピュータ読取可能な記録媒体
US7248968B2 (en) Obstacle detection using stereo vision
US20180330165A1 (en) Automatic camera parameter adjustment on a plant treatment system
US20200182697A1 (en) Active illumination 2d and/or 3d imaging device for agriculture
Aravind et al. Design and development of automatic weed detection and smart herbicide sprayer robot
CN108550141A (zh) 一种基于深度视觉信息的运动车斗自动识别与定位方法
US10719709B2 (en) Augmented reality for plant stand management
ES2929076T3 (es) Rociador de control de plagas basado en cámara
Gray et al. Utility of multispectral imagery for soybean and weed species differentiation
Southall et al. An autonomous crop treatment robot: Part I. A Kalman filter model for localization and crop/weed classification
EP4221488A1 (en) Calibration of autonomous farming vehicle image acquisition system
US20220100996A1 (en) Ground Plane Compensation in Identifying and Treating Plants
CN113418509A (zh) 一种用于农业的自动对靶检测装置及检测方法
Rozenberg et al. Using a low-cost unmanned aerial vehicle for mapping giant smutgrass in bahiagrass pastures
CN109655413A (zh) 获得植物信息的方法
US20230103532A1 (en) Non-contact, non-invasive, and quantitative agricultural monitoring devices and systems
Longchamps et al. A technique for high-accuracy ground-based continuous weed mapping at field scale
US12020465B2 (en) Method and apparatus for automated plant necrosis
Laxmi et al. An IoT-Based Pest Detection and Alert System for Farmers Using CNN-LSTM Approach
WO2023105112A1 (en) Weeding robot
WO2023222594A1 (en) Apparatus and method for detecting insects
EP4358710A1 (en) Apperatus and method for measuring insect activity

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20718362

Country of ref document: EP

Kind code of ref document: A1

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112022017719

Country of ref document: BR

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020718362

Country of ref document: EP

Effective date: 20221005

ENP Entry into the national phase

Ref document number: 112022017719

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20220902