ES2837552T3 - Método para reconocer y clasificar una planta de raíz desnuda - Google Patents

Método para reconocer y clasificar una planta de raíz desnuda Download PDF

Info

Publication number
ES2837552T3
ES2837552T3 ES11756656T ES11756656T ES2837552T3 ES 2837552 T3 ES2837552 T3 ES 2837552T3 ES 11756656 T ES11756656 T ES 11756656T ES 11756656 T ES11756656 T ES 11756656T ES 2837552 T3 ES2837552 T3 ES 2837552T3
Authority
ES
Spain
Prior art keywords
plant
image
bare root
color
root plant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES11756656T
Other languages
English (en)
Inventor
David Stager
James Bagnell
Christopher Fromme
L Baker
Elliot Cuzzillo
David Larose
Michael Sergi-Curfman
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carnegie Mellon University
Original Assignee
Carnegie Mellon University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carnegie Mellon University filed Critical Carnegie Mellon University
Application granted granted Critical
Publication of ES2837552T3 publication Critical patent/ES2837552T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour

Landscapes

  • Image Analysis (AREA)
  • Apparatuses For Bulk Treatment Of Fruits And Vegetables And Apparatuses For Preparing Feeds (AREA)
  • Sorting Of Articles (AREA)

Abstract

Un método para reconocer y clasificar una planta de raíz desnuda sobre una superficie de transportador, que comprende: clasificar una planta de raíz desnuda a partir de una imagen sin procesar para formar una imagen de raíz desnuda clasificada en base a parámetros formados; y evaluar la planta de raíz desnuda clasificada en base a características formadas para asignar la planta de raíz desnuda evaluada a una categoría configurada, en donde la clasificación (32) de la planta de raíz desnuda comprende: recibir un flujo continuo bidimensional en tiempo real de datos de imágenes sin procesar de la formación de imágenes de la cámara; detectar y extraer objetos en primer plano en la imagen para identificar una pluralidad de subpartes de la planta de raíz desnuda para formar una imagen recortada que contiene solo plantas y mínimo fondo del transportador; enmascarar componentes desvinculados en la imagen de primer plano para eliminar partes de otras plantas cercanas para formar una segunda imagen recortada; calcular características para su uso en la clasificación de píxeles en base a la segunda imagen recortada; y en donde la evaluación (36) de la raíz desnuda clasificada comprende: clasificar cada píxel de la segunda imagen recortada utilizando los parámetros preparados como una subparte de la pluralidad de subpartes de la planta de raíz desnuda, para identificar subpartes de la planta de raíz desnuda; calcular características de la planta de raíz desnuda en base a los píxeles clasificados para su uso en la clasificación de la planta en base a las características formadas; clasificar la planta de raíz desnuda en una de una pluralidad de categorías; y disponer la planta en base a la categoría.

Description

DESCRIPCIÓN
Método para reconocer y clasificar una planta de raíz desnuda
Antecedentes
La industria de la fresa utiliza actualmente mano de obra para clasificar cientos de millones de plantas cada año en categorías buenas y malas, un paso tedioso y costoso en el proceso de llevar la fruta al mercado. Las plantas cultivadas en granjas de viveros se cultivan en grandes campos que crecen como la hierba. Las plantas se cosechan por la noche en otoño e invierno cuando están inactivas y pueden trasladarse a sus ubicaciones finales para la producción de bayas. Durante la cosecha de las granjas de viveros, la calidad de las plantas provenientes del campo es muy variable. Solo aproximadamente la mitad de las plantas cosechadas presentan la calidad suficiente para venderse a las granjas de bayas. Son estas plantas las que finalmente producen las bayas que se ven en los supermercados y puestos de frutas de las carreteras. La presente invención proporciona nuevas tecnologías de clasificación que desempeñarán un papel valioso al estandarizar la calidad de las plantas y reducir el tiempo que están las plantas fuera del suelo entre las granjas de vivero y las granjas de bayas.
Las operaciones actuales de clasificación de plantas se realizan de forma totalmente manual con cientos de trabajadores migrantes. Una granja típica emplea de 500 a 1.00 trabajadores durante un período de 6 a 8 semanas cada año durante la cosecha de las plantas. La presente invención es novedosa tanto en su aplicación de visión informática avanzada a la tarea de clasificación automática de plantas, como en el diseño específico de los algoritmos de visión informática.
Una realización de la presente invención se aplica a las granjas de vivero de fresas.
Sin embargo, existen otras realizaciones del motor de software que son para muchos
tipos distintos de plantas que requieren una clasificación de calidad sofisticada. La clasificación de plantas según las subpartes identificadas mediante evaluación basada en píxeles se conoce, por ejemplo, a partir del documento US-A-5.253.302.
Breve resumen de la invención
La invención se define en las reivindicaciones adjuntas.
El método descrito en la presente invención es un componente clave para un sistema fuera del alcance de la presente invención, que puede recoger plantas de un contenedor de transporte, separarlas en flujos individuales, inspeccionarlas y moverlas a contenedores separados relacionados con la calidad de venta. Aunque existen sistemas de clasificación automáticos en otras aplicaciones, esta es la primera aplicación para la clasificación de granjas de vivero de fresas, y el primer sistema de este tipo que implica un procesamiento exhaustivo y una visión informática para cultivos de raíz desnuda.
Breve descripción de las figuras
La Figura 4 es un diagrama de flujo del método en tiempo real de la presente
invención;
La Figura 5 es un diagrama de flujo del método fuera de línea de la presente
invención;
Las Figuras 9A-B muestran diagramas de flujo de los pasos del proceso para preparar la fase de clasificación de píxeles de la presente invención; y
La Figura 12 es una imagen de la presente invención que muestra una interfaz de usuario de formación de ejemplo para una asignación de categoría de planta.
Descripción detallada
Las plantas en la tierra se cosechan desde el suelo, se recortan las raíces y se elimina la suciedad para una clasificación mejorada, las plantas se separan mediante un proceso de singulación, cada planta se escanea ópticamente mediante un sistema de visión para su clasificación y las plantas se clasifican en base a calidades de clasificación, tales como como Calidad A, Calidad B, bueno, malo, premium, marginal, problema X, problema Y, y se dirigen a lo largo de una trayectoria predeterminada para su disposición en contenedores por categorías configuradas
o un transportador posterior para: (i) envío a clientes, (ii) separadas para clasificación manual o (iii) rechazos. Las imágenes sin procesar escaneadas ópticamente se clasifican mediante un clasificador de aprendizaje automático de plantas de raíz desnuda para generar imágenes clasificadas en base a parámetros de formación específicos del cultivo. Las imágenes clasificadas se someten a un proceso de evaluación y clasificación de plantas específicas del cultivo 36 que determina el grado de la planta y la disposición de cada categoría configurada de la planta.
Se revela un sistema ejemplar que dispone de un sistema transportador con una superficie superior, un sistema de visión y un dispositivo de clasificación. Un ejemplo del dispositivo de clasificación son los chorros de aire en comunicación con el sistema de visión para la dirección selectiva de las plantas individuales a lo largo de la trayectoria predeterminada.
Esta invención es una combinación y secuencia novedosa de algoritmos de aprendizaje automático y visión informática para realizar una tarea de clasificación y evaluación de plantas altamente compleja. El software descrito funciona con precisión igualando o superando las operaciones humanas con velocidades que superan 100 veces la de los clasificadores humanos. El software se puede adaptar a las condiciones cambiantes del cultivo y, hasta ahora, no ha habido sistemas de clasificación automáticos que se puedan comparar con la calidad y la velocidad humana para la clasificación de plantas de raíz desnuda.
La Figura 4 ilustra la lógica de flujo de software de la presente invención dividida en los siguientes componentes principales: (i) imágenes de cámara y flujo continuo de entrada de datos sin procesar, por ej., plantas individuales en una cinta transportadora de alta velocidad o cualquier superficie, (ii) detección y extracción de objetos (o subimágenes) en primer plano de las imágenes sin procesar, (Hi) enmascaramiento de componentes desvinculados en la imagen en primer plano, (iv) cálculo de características para el uso en la clasificación de píxeles, (v) clasificación de píxeles de subpartes de plantas (raíces, tallos, hojas, etc.), (vi) cálculo de características para su uso en la clasificación de plantas, (vii) cálculo de características para el uso en la detección de múltiples plantas, (viii) determinación de objetos únicos o múltiples dentro de la imagen y (ix) clasificación de la planta en categorías (buena, mala, premium, marginal, problema X, problema Y, etc.). El paso i produce una imagen digital bidimensional en tiempo real que contiene el fondo del transportador y las plantas. El paso ii procesa el flujo de imágenes del paso i para producir imágenes correctamente recortadas que contienen solo plantas y un fondo mínimo. El paso iii utiliza información de componentes conectados del paso ii para detectar píxeles en primer plano que no forman parte del elemento principal de interés en la imagen en primer plano, lo que da como resultado una imagen enmascarada para eliminar porciones de otras plantas cercanas que se pueden observar en esta imagen. El paso iv procesa las imágenes de la planta del paso iii utilizando muchos subalgoritmos y crea imágenes de "características" que representan el modo en que cada píxel ha respondido a un algoritmo o filtro de visión informática en particular. El paso v hace uso de un clasificador de aprendizaje automático aplicado a las imágenes de características del paso iv para predecir el tipo de cada píxel (raíces, tallos, hojas, etc.). El paso vi utiliza la imagen de clasificación de píxeles del paso v para calcular las características de la planta. El paso vii utiliza la información del paso v y el paso vi para calcular las características utilizadas para discernir si una imagen contiene una sola planta o varias. El paso viii hace uso de un clasificador de aprendizaje automático aplicado a las características de la planta del paso vii para detectar la presencia de múltiples plantas, posiblemente superpuestas, dentro de la imagen. Si el resultado es la presencia de una sola planta, el paso ix hace uso de un clasificador de aprendizaje automático aplicado a las características de la planta del paso vi para calcular la disposición de la planta (buena, mala, marginal, etc.).
La Figura 4 también ilustra las rutinas operativas del clasificador de aprendizaje automático de plantas de raíz desnuda 32 y el proceso de evaluación y clasificación de plantas específicas de cultivo 36. El clasificador de aprendizaje automático de plantas de raíz desnuda 32 puede incluir el paso ii de detección y extracción de objetos en primer plano para identificar una pluralidad de subpartes de la planta de raíz desnuda para formar una primera imagen recortada; el paso iv de cálculo de características para el uso en la clasificación de píxeles en base a la imagen recortada para clasificar cada píxel de la imagen recortada como una subparte de la pluralidad de subpartes de la planta de raíz desnuda; y el paso v de clasificación de los píxeles de la pluralidad de subpartes de la planta de raíz desnuda para generar un vector de puntuaciones para cada imagen de la planta. Para mejorar la precisión, el clasificador de aprendizaje automático de plantas de raíz desnuda 32 también puede incluir el paso iii de enmascaramiento de componentes desvinculados de la primera imagen recortada para formar una segunda imagen recortada. El proceso de evaluación y clasificación de plantas específicas de cultivo 36 puede incluir características de cálculo del paso vi para el uso en la clasificación de plantas; y el paso ix que clasifica la planta de raíz desnuda en base a las características calculadas en una categoría configurada. Para la detección de múltiples plantas, el proceso de evaluación y clasificación de plantas específicas de cultivo 36 también puede incluir características de cálculo del paso vii para el uso en la detección de múltiples plantas; y el paso viii que detecta una sola planta o múltiples plantas.
La Figura 5 ilustra los pasos de procesamiento adicionales de la presente invención que incluyen (x) herramientas y algoritmos de formación supervisados para ayudar en las operaciones de formación humana y (xi) selección descendente de características automática para ayudar a alcanzar implementaciones en tiempo real.
A continuación, se describen detalles específicos de cada realización del sistema tal como se muestra en la Figura 4.
Una realización del sistema de la presente invención incluye 2 imágenes de cámara bidimensionales para su clasificación. La formación de imágenes puede ser en escala de grises o a color, pero las imágenes en color añaden información adicional para ayudar a la clasificación de píxeles con mayor precisión. No se requiere una resolución específica para el funcionamiento, y el rendimiento del sistema se degrada con facilidad al disminuir la resolución de la imagen. La resolución de la imagen que proporciona una clasificación más efectiva de píxeles individuales y plantas en general depende de la aplicación.
Una realización de la presente invención que genera las 2 imágenes de cámara bidimensionales (paso i de la Figura 4) puede incluir dos tipos de cámaras: cámaras de zona (cámaras que toman imágenes de regiones rectangulares) y cámaras de barrido de líneas (cámaras que solo toman imágenes de una línea, comúnmente utilizado con cintas transportadoras y otras aplicaciones industriales). El software de formación de imágenes de la cámara debe mantener una captura continua del flujo de plantas (normalmente una cinta transportadora o una cascada). Las imágenes deben estar iluminadas uniformemente y no deben distorsionar el material objeto, por ejemplo, plantas. Para los requisitos en tiempo real, la cámara debe mantenerse al día con la velocidad de la aplicación (por ejemplo, la velocidad de la cinta transportadora). Un sistema ejemplar requiere capturar imágenes de plantas a velocidades de 15-20 imágenes por segundo o más.
Un aspecto que requiere software para la detección y extracción de objetos (o subimágenes) en primer plano de imágenes sin procesar (paso ii de la Figura 4) de las imágenes bidimensionales creadas por el software de formación de imágenes de la cámara (paso i de la Figura 4). Una realización del software puede utilizar un algoritmo de enmascaramiento de colores para identificar los objetos (plantas) en primer plano. Para un sistema de cinta transportadora, el color de la cinta será el color de fondo de la imagen. Se selecciona un color de cinta que sea lo más diferente posible de los colores detectados en las plantas que se están inspeccionando. El espacio de color en el que se realiza esta segmentación de primer plano/fondo se elige para maximizar la precisión de la segmentación. El método de máxima diferencia de color se puede implementar con cualquier superficie de fondo que sea una superficie fija o móvil. La Figura 6F ilustra que al convertir las imágenes de color entrantes en un espacio de tono y seleccionar un color de fondo desfasado con el color de primer plano, se puede aplicar una máscara de primer plano/fondo simple (conocida como umbral de tono o segmentación de color) para extraer imágenes de la región de interés para su evaluación. Un ejemplo segrega el primer plano y el fondo según un umbral de tono y crea una máscara. La máscara aplicada a la imagen original, con solo la información de color del primer plano (es decir, la planta) mostrada y el fondo se ignora.
La presente invención puede incluir dos algoritmos operativos para determinar la región de interés para la extracción:
Un primer algoritmo puede recontar píxeles de primer plano para un primer eje por fila. Cuando el recuento de píxeles es superior a un umbral, el algoritmo está rastreando una planta. Este umbral está predeterminado en base al tamaño de la planta más pequeña a detectar para una aplicación determinada. A medida que el recuento de píxeles cae por debajo del umbral, se captura una planta a lo largo de un eje. Para el segundo eje, los píxeles
de primer plano se suman por columna comenzando en la columna con más píxeles de primer plano y yendo de izquierda a derecha hasta que cae por debajo del umbral (marcando los bordes de la planta). Este algoritmo es lo suficientemente rápido como para mantenerse al día con los datos en tiempo real y es bueno para cortar tallos rastreros extraños y residuos en los bordes de la planta debido al umbral de recuento de píxeles. El resultado de este procesamiento son imágenes recortadas alrededor de la región de interés con el fondo enmascarado, que se pueden utilizar directamente como entrada para el paso iv o pueden procesarse adicionalmente en el paso iii para eliminar "manchas" u otras imágenes que no forman parte de la planta objeto.
El paso iii es un segundo algoritmo que puede utilizar un algoritmo de componentes conectados modificado para rastrear "manchas" y contar el volumen de píxeles en primer plano por mancha durante el procesamiento. Por línea, el algoritmo de componentes conectados se ejecuta uniendo píxeles de primer plano con sus vecinos adyacentes en manchas con índices únicos. Cuando el algoritmo determina que no existe más conectividad con una mancha en particular, esa mancha se analiza para determinar el tamaño mínimo y se extrae para la clasificación de plantas. Este umbral está predeterminado en base al tamaño de la planta más pequeña a detectar para una aplicación determinada. Si la mancha completada está por debajo de este umbral, se ignora, lo que hace que este algoritmo sea capaz de ignorar la suciedad y pequeños residuos sin que sea necesario procesarlos por completo en las fases posteriores del
sistema. El resultado de este procesamiento son imágenes recortadas alrededor de la región de interés que abarca cada mancha con el fondo enmascarado, que se pueden utilizar como entrada en el paso iv. Es posible que la imagen recortada que contiene la región de interés contenga píxeles de primer plano que no forman parte del elemento de interés, posiblemente debido a residuos, suciedad o plantas cercanas que se encuentran parcialmente dentro de esta región. Los píxeles que no forman parte de esta planta se enmascaran y, por lo tanto, se ignoran en el procesamiento posterior, lo cual reduce el número total de píxeles que requieren procesamiento y reduce los errores que, de otro modo, podrían introducir estos píxeles. Se desvela un ejemplo de una máscara de primer plano en la que se han eliminado componentes extraños que no formaban parte de la planta. Cabe destacar que algunas partes de la imagen, como la hoja en la esquina superior derecha, ahora se ignoran y se marcan como fondo para esta imagen. El resultado de esta fase es una imagen aislada que contiene un elemento de interés (es decir, una planta), con todos los demás píxeles enmascarados. Esta fase es opcional y ayuda a aumentar la precisión de la evaluación de la calidad de la planta.
Una realización de la presente invención incluye un algoritmo para el cálculo de características para el uso en la clasificación de píxeles (paso iv de la Figura 4) con el fin de clasificar cada píxel de la imagen como raíz, tallo, hoja, etc. Esto utiliza la salida del paso ii o paso iii. El algoritmo es capaz de calcular varios cientos de características para cada píxel. Aunque la invención no se limita a
cualquier conjunto particular de características, las siguientes características son ejemplos de lo que se puede utilizar:
(i) Intensidad de escala de grises;
(ii) Información de color rojo, verde, azul (RGB);
(iii) Información de color de tono, saturación, valor (HSV);
(iv) Información de color YIQ;
(v) Información de borde (escala de grises, binaria, binaria erosionada);
(vi) Buscador de raíces: el algoritmo desarrollado es un filtro personalizado que busca píxeles con patrones adyacentes de alta y baja intensidad que coincidan con los esperados para las raíces (arriba y abajo en alto, izquierda y derecha son inferiores). El algoritmo también intensifica las puntuaciones en las que la coincidencia de la raíz se produce en grupos lineales; y
(vii) Información de FFT: el algoritmo desarrollado usa un fft en 2D normal, pero colapsa la información en un análisis de espectro (vector ID) para cada bloque de píxeles de la imagen. Esto calcula una respuesta de frecuencia para cada bloque de píxeles que resulta muy útil para diferenciar la textura en la imagen; información de gradiente y entropía de la información de gradiente.
Una vez calculadas las características, se calcula a continuación la media de vecindad y la varianza para cada píxel ejecutada sobre muchos tamaños de vecindad diferentes, ya que se encontró que la precisión de clasificación de un píxel particular se puede mejorar utilizando información de los píxeles circundantes. Los tamaños de vecindad utilizados dependen de los parámetros de la aplicación, generalmente una función del tamaño de la planta, las características de la planta y los parámetros de la cámara. Al final del cálculo de la función, cada píxel tiene un vector de puntuaciones y cada puntuación proporciona un valor que representa cada función.
El sistema está diseñado para ser capaz de generar varios cientos de puntuaciones por píxel para utilizar en la clasificación, pero la configuración de las características depende de las limitaciones informáticas y la precisión deseada. El sistema ejemplar utiliza un conjunto de 37 características que eran un subconjunto de las 308 características analizadas (vectores de elementos). Este subconjunto se determinó mediante un proceso de selección descendente, que se explica en una sección posterior, que determina la combinación óptima y mínima de características para lograr la precisión mínima deseada. Este proceso se puede realizar tanto para cada variedad vegetal como para cada especie vegetal.
Se utilizan técnicas de aprendizaje automático para clasificar píxeles en grupos de alto nivel (paso v de la Figura 4) tales como raíces, tallos, hojas u otras partes de la planta utilizando vectores de puntuación de características calculados. Por ejemplo, se puede implementar un clasificador SVM (máquina de vectores de soporte) para la clasificación de plantas, pero también se pueden sustituir otros clasificadores. Esta implementación es genérica y configurable, por lo que el software se puede utilizar para clasificar raíces, tallos y hojas para una variedad de planta y flores, frutos, tallos y raíces para otra variedad.
Este paso del software requiere ejemplos de formación previos a la clasificación
cuando se utiliza una nueva variedad con el sistema. Los procedimientos de formación permiten que el sistema de aprendizaje asocie combinaciones particulares de puntuaciones de características con clases particulares. Los detalles de este proceso de formación se explican más adelante en el presente documento. Una vez que se completa la formación, el software puede etiquetar automáticamente los píxeles de las nuevas imágenes. Se desvelan fondos, raíces, tallos, hojas vivas y hojas muertas correctamente identificados.
Otro aspecto de la presente invención utiliza el paso v) de imagen de píxeles clasificados descrito anteriormente para el cálculo de características adicionales para el uso en la clasificación de plantas (paso vi de la Figura 4). El algoritmo puede calcular las características de la planta, tales como: tamaño total de la planta y tamaño de cada subcategoría (raíz, tallo, hojas, otros), relación de distintas subcategorías (es decir, raíz frente a tallo), media y varianza de cada color de píxel de categoría (buscando defectos), distribuciones espaciales de cada categoría o subcategoría (disposición física de la planta), longitudes de raíces y tallos, histograma de textura de las raíces (para ayudar a evaluar la salud de las raíces), ubicación y tamaño de la copa, número de raíces o distancia lineal de raíz total y número de tallos. Estas características se calculan utilizando los resultados de la clasificación de píxeles. Por ejemplo, el tamaño total de cada categoría de subparte de la planta se estima mediante un recuento de píxeles de esas categorías en la imagen en relación con el tamaño total de la imagen. Al final del cálculo de características, cada imagen de la planta tiene un vector de puntuaciones que se utiliza para clasificar aún más esa imagen de la planta.
Un algoritmo particular que ayuda a estandarizar la aplicación de clasificación de plantas es el concepto de cultivo virtual. Aunque diferentes agricultores cortan sus plantas, como las fresas, usando maquinaria diferente, la evaluación de la planta de la presente invención se puede estandarizar midiendo los atributos solo dentro de una distancia fija desde la copa. Esto permite que algunos agricultores corten poco mientras que otros corten más, y hace que los métodos de clasificación de plantas anteriores sean más robustos a estas variaciones. Este paso es opcional y puede mejorar la consistencia de la clasificación entre diferentes productos agrícolas.
Dependiendo de la tecnología utilizada para la singulación de plantas, puede ser necesario que el sistema determine si solo está presente una sola planta en la imagen. Este paso es opcional si la singulación es fiable (es decir, si las plantas están adecuadamente separadas para crear imágenes de solo plantas individuales). Algunas aplicaciones de este software de evaluación de plantas pueden involucrar dispositivos mecánicos que distribuyen las plantas sobre la superficie de inspección para la cámara y puede que no logren una separación del 100% de las plantas. En el caso de un par de plantas superpuestas en una imagen, puede ser deseable detectar la presencia de múltiples plantas presentes y manipularlas de una manera especial. Por ejemplo, un sistema de clasificación puede colocar grupos de plantas en un contenedor especial para su evaluación por otros medios. El vector de puntuaciones de plantas calculado anteriormente se utiliza para este fin (paso vi de la Figura 4), proporcionando señales basadas en el tamaño general, masa de raíces, etc. Además, las estadísticas sobre la distribución de píxeles de la corona se utilizan como características para la clasificación (paso vii de la Figura 4) para generar un vector de puntuaciones para la detección de
múltiples plantas. Una imagen con múltiples coronas muestra normalmente una distribución multimodal de ubicaciones de píxeles, por lo que las estadísticas que incluyen la curtosis y la varianza de estas ubicaciones de píxeles se calculan y utilizan como características adicionales. Estas medidas se combinan para proporcionar una sólida indicación de múltiples coronas en la imagen sin la necesidad de un detector de posición absoluta de la corona. El aprendizaje automático se aplica a estos vectores de puntuación para que el sistema pueda asociar combinaciones particulares de puntuaciones con la presencia de una o varias plantas (paso viii de la Figura 4). La amplitud de características utilizadas está diseñada de tal manera que el sistema es capaz de detectar múltiples plantas dentro de imágenes donde algunas de las coronas no son visibles, debido a señales de otras características. Si se detectan varias plantas, las plantas se disponen de una manera predefinida. De lo contrario, el vector de puntuaciones de las plantas del paso vi se utiliza para la clasificación final de las plantas (paso ix de la Figura 4).
Otro aspecto de la presente invención mencionado anteriormente es la clasificación de la planta (paso ix de la Figura 4) en categorías (buena, mala, premium, marginal, problema X, problema Y, etc.). Este algoritmo del paquete de software utiliza el aprendizaje automático para utilizar el vector de puntuaciones de plantas del paso vi para clasificar las imágenes de plantas en grupos de alto nivel, como buenas y malas. Diversas realizaciones de la presente invención utilizan SVM (máquina de vectores de soporte), agrupamiento y clasificadores knn, pero pueden utilizarse otros clasificadores dentro del alcance de la invención. El algoritmo se puede utilizar para clasificar lo bueno frente a lo malo (2 categorías) para una variedad de planta y sin raíces, sin corona, demasiado pequeña, premium, marginal grande, marginal pequeño (6 categorías) para otra variedad y se configura en base a la presente aplicación. Esta paso del software requiere ejemplos de formación previos a la clasificación, lo que permite que el sistema de aprendizaje asocie combinaciones particulares de vectores de puntuación de plantas con clases particulares. Los detalles de este proceso de formación se explican más adelante en el presente documento. El resultado de este paso del software durante el tiempo de ejecución es una clasificación general de la planta basada en las categorías configuradas. La planta se dispondrá en función de la clasificación y configuración de la aplicación. El sistema ejemplar clasifica en última instancia una planta como una que puede o no venderse en función de diversas características de salud y dispone la planta en un contenedor apropiado.
Otro aspecto de la presente invención implica procedimientos y herramientas de formación para el software del sistema (paso x en la Figura 5). Hay dos fases de formación 32, 36 separadas para el sistema general. La primera fase de formación 32 implica la creación de un modelo matemático para clasificar píxeles que se puede utilizar en el paso v de la Figura 4. A continuación, se presentan ejemplos de dos algoritmos operativos que realizan esa tarea.
El primer algoritmo, que se muestra en la Figura 9A, incluye el paso de cortar manualmente las plantas en sus diversos subcomponentes (raíces, hojas, tallos, etc.) y capturar imágenes de cada ejemplo. Los píxeles en primer plano de estas imágenes se utilizan luego como ejemplos de formación y cada imagen proporciona un conjunto de ejemplos para una clase específica. Los resultados de este método son buenos pero
a veces, las regiones superpuestas de raíces, tallos u hojas en imágenes de plantas completas se clasifican erróneamente porque no se representan correctamente en la formación.
Un segundo algoritmo, que se muestra en la Figura 9B, utiliza una selección de imágenes que contienen plantas completas en lugar de partes específicas de plantas. Por ejemplo, se pueden recopilar y utilizar 50 imágenes de plantas para este propósito. Estas imágenes se introducen en una herramienta de formación personalizada para etiquetar los píxeles de primer plano con las categorías adecuadas. Esta herramienta procesa cada imagen con un algoritmo de superpíxeles personalizado para esta aplicación utilizando la intensidad y el espacio de tono para la segmentación. A continuación, la imagen se muestra en una herramienta para que el operador etiquete los píxeles. Este etiquetado se logra seleccionando una categoría deseada y luego haciendo clic en puntos específicos de la imagen para asociarla con esta etiqueta. Usando los resultados de superpíxeles, a los píxeles similares cercanos también se les asigna esta etiqueta para acelerar el proceso. Por lo tanto, el operador solo necesita etiquetar un subconjunto de píxeles de primer plano para etiquetar completamente una imagen.
El segundo algoritmo es un método manual más intensivo, pero es capaz de lograr una mayor precisión en algunas situaciones. Cuando hay casos de regiones superpuestas de diferentes clases, este método es más capaz de evaluarlas correctamente.
Una vez que se han recopilado las imágenes de formación, se aplica el software de aprendizaje automático para preparar un modelo para el clasificador. Esta primera fase de formación produce un modelo que contiene parámetros que se utilizan para clasificar cada píxel en una categoría configurable, como raíz, tallo, hoja, etc.
La segunda fase de formación implica la creación de un modelo para clasificar plantas 36 que se puede utilizar en el paso ix de la Figura 4. Para lograrlo, se adquiere una colección de imágenes de plantas aisladas para la formación. La cantidad de imágenes necesarias depende del método de aprendizaje automático que se aplica a una aplicación. Una vez adquiridas estas imágenes se les debe asignar una etiqueta
en base a las categorías deseadas que se utilizarán para la clasificación. Se han utilizado dos métodos para adquirir estas etiquetas.
El primer método implica clasificar las plantas manualmente. Una vez que las plantas se separan en las distintas categorías, cada planta de cada categoría se captura y se le asigna una etiqueta. Esta es una tarea que requiere mucho tiempo, ya que las plantas deben clasificarse manualmente, pero permite una inspección visual cuidadosa de cada planta.
El segundo método utiliza plantas sin clasificar que se proporcionan al sistema, capturando una imagen de cada planta. Estas imágenes se transmiten a una interfaz de usuario personalizada que muestra la imagen, así como la imagen clasificada por píxeles. Esto permite que un operador evalúe cómo categorizar una planta utilizando la misma información que el sistema utilizará durante la formación, lo cual tiene el beneficio de una mayor consistencia. Luego, el operador selecciona una categoría de la interfaz y se muestra la siguiente imagen. En la Figura 12 se muestra un ejemplo de interfaz.
Después de que se hayan adquirido las imágenes de formación requeridas, se aplica un software de aprendizaje automático (por ejemplo, un algoritmo SVM) para construir las asociaciones de los vectores de puntuación con las categorías de plantas. El resultado final es un modelo de parámetros que contiene los parámetros utilizados para determinar la categoría de una imagen clasificada por píxeles.
Ambas operaciones de formación 32, 36 comparten algunos algoritmos comunes para analizar, configurar y mejorar la precisión. La aleatorización, las distribuciones de formación de clases, las matrices de penalización y los criterios de salida son todos configurables con nuestra implementación del motor de aprendizaje. Estas configuraciones son independientes del software del motor de aprendizaje automático real y permitieron que el software alcanzara una precisión equivalente o superior a los niveles humanos. Se han añadido características adicionales al sistema de formación para permitir al usuario predecir la precisión esperada y controlar las tasas de error mediante el uso de márgenes. Estos márgenes se calculan observando el nivel de fiabilidad del clasificador, que representa la certeza de que el elemento pertenece a una determinada categoría en relación con las otras categorías. Si el software de aprendizaje automático no está seguro de una respuesta para un píxel o una planta, el usuario puede configurar un margen específico (para garantizar la certeza).
Si la respuesta no tiene suficiente margen, la respuesta se marcará como ambigua.
Otro concepto es realizar ajustes en tiempo real a la clasificación de la planta durante el funcionamiento del sistema. Mientras el sistema está en funcionamiento, los datos de imagen y clasificación se transmiten a una interfaz de usuario como en el ejemplo de la Figura 12. Un operador humano puede observar los resultados de clasificación del sistema y, si el resultado no ha sido correcto, asignar la categoría correcta a la imagen. El sistema aplica automáticamente el algoritmo de aprendizaje automático correspondiente utilizado para la aplicación a estos nuevos datos, actualizando el modelo. A continuación, este modelo se puede transmitir al sistema en ejecución y se pueden cargar nuevos parámetros sin necesidad de interrumpir el sistema.
Otro aspecto es la selección descendente automática de características para ayudar a alcanzar las implementaciones en tiempo real (pasos iv y vi de la Figura 4). El objetivo es reducir la carga de trabajo para el paso iv y el paso vi en la Figura 4. Una aplicación de este software puede incluir una restricción de tiempo para clasificar una imagen, restringiendo así el número de características que se pueden calcular para las fases de clasificación
de píxeles y plantas. A menudo, se diseña y calcula una gran cantidad de características para maximizar la precisión; sin embargo, algunas características utilizadas para el sistema de aprendizaje automático tienen información redundante. Se desea encontrar el conjunto mínimo de características necesarias para lograr la precisión especificada por la aplicación y cumplir con las restricciones informáticas durante la operación en tiempo real. La presente invención incluye software que selecciona automáticamente qué conjunto de características son más importantes para la precisión de clasificación para satisfacer esta restricción. A continuación, se describen dos ejemplos de algoritmos operativos.
El primer algoritmo comienza utilizando todos los cálculos de características que se han implementado y calculando un modelo de parámetros de formación utilizando el software de aprendizaje automático. A continuación, se ignora el cálculo de una característica y se repite el proceso de formación, creando un nuevo modelo para esta combinación de características. Este proceso se repite, cada vez ignorando un cálculo de característica distinto, hasta que se haya creado un modelo para cada combinación. Una vez que se completa esta paso, se elige la combinación con la mayor precisión para el siguiente ciclo. Cada ciclo repite estos pasos utilizando la combinación final del ciclo anterior, y cada ciclo proporciona la combinación óptima de ese número de características. La precisión general se puede representar en un gráfico y examinar para determinar cuándo la precisión de este tipo cae por debajo de los niveles aceptables. Se elige el modelo con la menor cantidad de características por encima de la precisión requerida para ser la implementación en tiempo real.
El segundo algoritmo tiene una funcionalidad similar a la del primer algoritmo, pero el segundo algoritmo comienza utilizando solo una característica a la vez y aumentando el número de características en cada ciclo. La función que da como resultado la mayor precisión se acepta de forma permanente y se inicia el siguiente ciclo (buscando una segunda, tercera, cuarta, etc. característica para utilizar). Este algoritmo es mucho más rápido y también tiene éxito en identificar qué características utilizar para la implementación en tiempo real.

Claims (12)

REIVINDICACIONES
1. Un método para reconocer y clasificar una planta de raíz desnuda sobre una superficie de transportador, que comprende:
clasificar una planta de raíz desnuda a partir de una imagen sin procesar para formar una imagen de raíz desnuda clasificada en base a parámetros formados; y
evaluar la planta de raíz desnuda clasificada en base a características formadas para asignar la planta de raíz desnuda evaluada a una categoría configurada, en donde la clasificación (32) de la planta de raíz desnuda comprende:
recibir un flujo continuo bidimensional en tiempo real de datos de imágenes sin procesar de la formación de imágenes de la cámara;
detectar y extraer objetos en primer plano en la imagen para identificar una pluralidad de subpartes de la planta de raíz desnuda para formar una imagen recortada que contiene solo plantas y mínimo fondo del transportador;
enmascarar componentes desvinculados en la imagen de primer plano para eliminar partes de otras plantas cercanas para formar una segunda imagen recortada;
calcular características para su uso en la clasificación de píxeles en base a la segunda imagen recortada; y en donde la evaluación (36) de la raíz desnuda clasificada comprende:
clasificar cada píxel de la segunda imagen recortada utilizando los parámetros preparados como una subparte de la pluralidad de subpartes de la planta de raíz desnuda, para identificar subpartes de la planta de raíz desnuda;
calcular características de la planta de raíz desnuda en base a los píxeles clasificados para su uso en la clasificación de la planta en base a las características formadas;
clasificar la planta de raíz desnuda en una de una pluralidad de categorías; y disponer la planta en base a la categoría.
2. El método de acuerdo con la reivindicación 1, en donde la detección y extracción de objetos en primer plano comprende enmascaramiento de color.
3. El método de acuerdo con la reivindicación 2, en donde el enmascaramiento de color comprende seleccionar un color de la superficie para formar un color de fondo que es lo más distinto posible en comparación con colores de la pluralidad de subpartes de la planta de raíz desnuda para formar color de primer plano.
4. El método de acuerdo con la reivindicación 3, en donde seleccionar el color de la superficie para formar el color de fondo comprende seleccionar el color de fondo que se encuentra fuera de fase con el color de primer plano.
5. El método de acuerdo con la reivindicación 4, en donde seleccionar el color del color de primer plano y el color de fondo en base a un umbral de tono para crear una máscara.
6. El método de acuerdo con la reivindicación 5, en donde el enmascaramiento de color comprende adicionalmente aplicar la máscara a la imagen sin procesar para formar la imagen de raíz desnuda clasificada, donde solo se muestra el color de primer plano.
7. El método de acuerdo con cualquier reivindicación anterior, que comprende, adicionalmente calcular la media de vecindad y la varianza para cada píxel en base a las características calculadas para formar un vector de puntuaciones.
8. El método de acuerdo con cualquier reivindicación anterior que comprende, adicionalmente, asociar puntuaciones de vector de características con subpartes particulares de la planta de raíz desnuda.
9. El método de acuerdo con cualquier reivindicación anterior, en donde las características de cálculo de la planta de raíz desnuda para generar un vector de puntuaciones para cada imagen de planta comprende el cultivo virtual.
10. El método de acuerdo con cualquier reivindicación anterior, que comprende, adicionalmente, detectar una sola o múltiples plantas.
11. El método de acuerdo con la reivindicación 8, en donde la asociación comprende: reunir ejemplos de imágenes de plantas de raíz desnuda completas;
procesar cada imagen con un algoritmo de superpíxeles utilizando la segmentación de espacio de intensidad y tono;
etiquetar los píxeles de primer plano de cada imagen para cada subparte de las plantas de raíz desnuda completas para formar un ejemplo de formación; y
crear un modelo para un clasificador en base al ejemplo de formación para construir asociaciones del vector de puntuaciones con la pluralidad de subpartes de la planta de raíz desnuda.
12. El método de cualquier reivindicación precedente, en donde las características utilizadas incluyen uno o más de:
intensidad de la escala de grises;
información de color rojo, verde, azul (RGB);
información de color de tono, saturación, valor (HSV);
información de color YIQ; información de borde;
un filtro personalizado que identifica píxeles con patrones adyacentes de alta y baja intensidad; y información de FFT.
ES11756656T 2010-03-13 2011-03-14 Método para reconocer y clasificar una planta de raíz desnuda Active ES2837552T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US34009110P 2010-03-13 2010-03-13
PCT/US2011/000465 WO2011115666A2 (en) 2010-03-13 2011-03-14 Computer vision and machine learning software for grading and sorting plants

Publications (1)

Publication Number Publication Date
ES2837552T3 true ES2837552T3 (es) 2021-06-30

Family

ID=44649754

Family Applications (1)

Application Number Title Priority Date Filing Date
ES11756656T Active ES2837552T3 (es) 2010-03-13 2011-03-14 Método para reconocer y clasificar una planta de raíz desnuda

Country Status (4)

Country Link
US (1) US9527115B2 (es)
EP (1) EP2548147B1 (es)
ES (1) ES2837552T3 (es)
WO (1) WO2011115666A2 (es)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8938116B2 (en) * 2011-12-08 2015-01-20 Yahoo! Inc. Image cropping using supervised learning
DE102012200930A1 (de) * 2012-01-23 2015-08-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erfassen einer Pflanze vor einem Hintergrund
US9030549B2 (en) * 2012-03-07 2015-05-12 Blue River Technology, Inc. Method and apparatus for automated plant necrosis
IE20120388A1 (en) * 2012-09-07 2014-03-12 Odenberg Engineering Ltd Method and apparatus for handling harvested root crops
WO2014126576A2 (en) * 2013-02-14 2014-08-21 Adaptive Spectrum And Signal Alignment, Inc. Churn prediction in a broadband network
ES2578811T3 (es) 2013-08-22 2016-08-01 Agricultural Robotics LLC Aparato y método para separar plantas
US9688953B2 (en) * 2014-04-02 2017-06-27 Weyerhaeuser Nr Company Systems and methods of separating and singulating embryos
CN104636716B (zh) * 2014-12-08 2018-04-13 宁波工程学院 绿色果实识别方法
US10625304B2 (en) 2017-04-26 2020-04-21 UHV Technologies, Inc. Recycling coins from scrap
US11964304B2 (en) 2015-07-16 2024-04-23 Sortera Technologies, Inc. Sorting between metal alloys
US10722922B2 (en) 2015-07-16 2020-07-28 UHV Technologies, Inc. Sorting cast and wrought aluminum
US11278937B2 (en) 2015-07-16 2022-03-22 Sortera Alloys, Inc. Multiple stage sorting
US11969764B2 (en) 2016-07-18 2024-04-30 Sortera Technologies, Inc. Sorting of plastics
US9684967B2 (en) 2015-10-23 2017-06-20 International Business Machines Corporation Imaging segmentation using multi-scale machine learning approach
CN106372635A (zh) * 2016-08-24 2017-02-01 滁州学院 一种基于机器视觉的草莓外形品质判别方法
US10791037B2 (en) 2016-09-21 2020-09-29 Iunu, Inc. Reliable transfer of numerous geographically distributed large files to a centralized store
US11244398B2 (en) 2016-09-21 2022-02-08 Iunu, Inc. Plant provenance and data products from computer object recognition driven tracking
US10339380B2 (en) * 2016-09-21 2019-07-02 Iunu, Inc. Hi-fidelity computer object recognition based horticultural feedback loop
US10635274B2 (en) 2016-09-21 2020-04-28 Iunu, Inc. Horticultural care tracking, validation and verification
US11538099B2 (en) 2016-09-21 2022-12-27 Iunu, Inc. Online data market for automated plant growth input curve scripts
CN106650822A (zh) * 2016-12-30 2017-05-10 深圳前海弘稼科技有限公司 病虫害识别方法及装置
US20180197287A1 (en) * 2017-01-08 2018-07-12 Adrian Ronaldo Macias Process of using machine learning for cannabis plant health diagnostics
WO2018200866A1 (en) 2017-04-26 2018-11-01 UHV Technologies, Inc. Material sorting using a vision system
EP3647232A4 (en) * 2017-06-30 2020-11-11 Panasonic Intellectual Property Management Co., Ltd. BAGGAGE DETECTION DEVICE, BAGGAGE SORTING SYSTEM AND BAGGAGE DETECTION METHOD
US10997620B2 (en) * 2017-09-18 2021-05-04 Vertigo Studios, Llc Blockchain-enabled system for controlling advertiser access to personal user data
US10747999B2 (en) * 2017-10-18 2020-08-18 The Trustees Of Columbia University In The City Of New York Methods and systems for pattern characteristic detection
TWI649659B (zh) 2017-10-27 2019-02-01 財團法人工業技術研究院 自動光學檢測影像分類方法、系統及含有該方法之電腦可讀取媒體
WO2019089825A1 (en) * 2017-11-02 2019-05-09 AMP Robotics Corporation Systems and methods for optical material characterization of waste materials using machine learning
US11134221B1 (en) 2017-11-21 2021-09-28 Daniel Brown Automated system and method for detecting, identifying and tracking wildlife
US10492374B2 (en) 2017-12-28 2019-12-03 X Development Llc Capture of ground truthed labels of plant traits method and system
US11288712B2 (en) * 2018-01-03 2022-03-29 Hrb Innovations, Inc. Visual item identification and valuation
US11062516B2 (en) 2018-02-07 2021-07-13 Iunu, Inc. Augmented reality based horticultural care tracking
CN110309933A (zh) * 2018-03-23 2019-10-08 广州极飞科技有限公司 植株种植数据测量方法、作业路线规划方法及装置、系统
CN108647652B (zh) * 2018-05-14 2022-07-01 北京工业大学 一种基于图像分类和目标检测的棉花发育期自动识别方法
CN110547092A (zh) * 2018-06-04 2019-12-10 田林睿 一种基于Kmeans算法的自动化草莓采摘方法
US11315231B2 (en) 2018-06-08 2022-04-26 Industrial Technology Research Institute Industrial image inspection method and system and computer readable recording medium
US20210245201A1 (en) * 2018-06-12 2021-08-12 H.T.B Agri Ltd. A system, method and computer product for real time sorting of plants
US11550951B2 (en) 2018-09-18 2023-01-10 Inspired Patents, Llc Interoperable digital social recorder of multi-threaded smart routed media
US11462037B2 (en) 2019-01-11 2022-10-04 Walmart Apollo, Llc System and method for automated analysis of electronic travel data
US11120552B2 (en) 2019-02-27 2021-09-14 International Business Machines Corporation Crop grading via deep learning
US10930065B2 (en) * 2019-03-08 2021-02-23 X Development Llc Three-dimensional modeling with two dimensional data
CN110321868A (zh) 2019-07-10 2019-10-11 杭州睿琪软件有限公司 对象识别及显示的方法及系统
CN110554040A (zh) * 2019-09-09 2019-12-10 云南农业大学 一种三七种苗机器视觉采集装置及其检测方法
EP3809366A1 (fr) 2019-10-15 2021-04-21 Aisapack Holding SA Procédé de fabrication
US11720980B2 (en) 2020-03-25 2023-08-08 Iunu, Inc. Crowdsourced informatics for horticultural workflow and exchange
US11593712B2 (en) * 2020-05-04 2023-02-28 Google Llc Node-based interface for machine learning classification modeling
US11748984B2 (en) * 2020-05-05 2023-09-05 Planttagg, Inc. System and method for horticulture viability prediction and display
US11687858B2 (en) * 2020-08-04 2023-06-27 Florida Power & Light Company Prioritizing trim requests of vegetation using machine learning
EP4260231A1 (en) * 2020-12-14 2023-10-18 Mars Incorporated Systems and methods for classifying food products
US11480529B1 (en) 2021-09-13 2022-10-25 Borde, Inc. Optical inspection systems and methods for moving objects
GB202118033D0 (en) * 2021-12-13 2022-01-26 Mars Inc A computer-implemented method of predicting quality of a food product sample
JP2023094434A (ja) * 2021-12-23 2023-07-05 日清紡ホールディングス株式会社 分類装置、分類方法、及び分類システム
WO2023129669A1 (en) * 2021-12-29 2023-07-06 Fang Yang Apparatus and method for agricultural mechanization

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL8900227A (nl) * 1988-07-07 1990-02-01 Adrianus Franciscus Maria Flat Werkwijze en inrichting voor het behandelen van planten.
US5253302A (en) * 1989-02-28 1993-10-12 Robert Massen Method and arrangement for automatic optical classification of plants
US5659626A (en) * 1994-10-20 1997-08-19 Calspan Corporation Fingerprint identification system
JPH08190573A (ja) 1995-01-12 1996-07-23 Hitachi Ltd 電子図鑑
US5864984A (en) 1995-06-19 1999-02-02 Paradigm Research Corporation System and method for measuring seedlot vigor
US6882740B1 (en) 2000-06-09 2005-04-19 The Ohio State University Research Foundation System and method for determining a seed vigor index from germinated seedlings by automatic separation of overlapped seedlings
US7367155B2 (en) 2000-12-20 2008-05-06 Monsanto Technology Llc Apparatus and methods for analyzing and improving agricultural products
GB2397423B (en) 2001-09-17 2005-06-01 Ca Minister Agriculture & Food A method and apparatus for identifying and quantifying characteristics of seeds and other small objects
US7123750B2 (en) 2002-01-29 2006-10-17 Pioneer Hi-Bred International, Inc. Automated plant analysis method, apparatus, and system using imaging technologies
NL1021800C2 (nl) 2002-10-31 2004-05-06 Plant Res Int Bv Werkwijze en inrichting voor het maken van beelden van de kwantumefficientie van het fotosynthesesysteem met tot doel het bepalen van de kwaliteit van plantaardig materiaal en werkwijze en inrichting voor het meten, classificeren en sorteren van plantaardig materiaal.
US7406190B2 (en) * 2003-07-24 2008-07-29 Lucidyne Technologies, Inc. Wood tracking by identification of surface characteristics
WO2005058018A2 (en) 2003-12-16 2005-06-30 Aerulean Plant Identification Systems, Inc. System and method for plant identification
US7536048B2 (en) * 2004-01-15 2009-05-19 Xerox Corporation Method and apparatus for automatically determining image foreground color
US7430315B2 (en) * 2004-02-13 2008-09-30 Honda Motor Co. Face recognition system
JP3885058B2 (ja) * 2004-02-17 2007-02-21 株式会社日立製作所 植物成育解析システム及び解析方法
WO2007016407A1 (en) * 2005-08-01 2007-02-08 Pioneer Hi-Bred International, Inc. Sensor system, method, and computer program product for plant phenotype measurement in agricultural environments
US8045060B2 (en) * 2006-10-04 2011-10-25 Hewlett-Packard Development Company, L.P. Asynchronous camera/projector system for video segmentation
US8213685B2 (en) * 2007-01-05 2012-07-03 American Traffic Solutions, Inc. Video speed detection system
US9607372B2 (en) * 2007-07-11 2017-03-28 Hernani D. Cualing Automated bone marrow cellularity determination
US7899248B2 (en) * 2007-08-30 2011-03-01 Seiko Epson Corporation Fast segmentation of images
US8798374B2 (en) * 2008-08-26 2014-08-05 The Regents Of The University Of California Automated facial action coding system
RU2426172C1 (ru) * 2010-01-21 2011-08-10 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ и система выделения данных об изображении объекта переднего плана на основе данных о цвете и глубине

Also Published As

Publication number Publication date
EP2548147A4 (en) 2014-04-16
EP2548147A2 (en) 2013-01-23
EP2548147B1 (en) 2020-09-16
US20130028487A1 (en) 2013-01-31
WO2011115666A3 (en) 2011-12-29
WO2011115666A2 (en) 2011-09-22
US9527115B2 (en) 2016-12-27

Similar Documents

Publication Publication Date Title
ES2837552T3 (es) Método para reconocer y clasificar una planta de raíz desnuda
Pang et al. Improved crop row detection with deep neural network for early-season maize stand count in UAV imagery
Sa et al. Peduncle detection of sweet pepper for autonomous crop harvesting—combined color and 3-D information
Sun et al. Three-dimensional photogrammetric mapping of cotton bolls in situ based on point cloud segmentation and clustering
Kolhar et al. Plant trait estimation and classification studies in plant phenotyping using machine vision–A review
Nuske et al. Automated visual yield estimation in vineyards
US20230292647A1 (en) System and Method for Crop Monitoring
Zhou et al. Strawberry maturity classification from UAV and near-ground imaging using deep learning
Burgos-Artizzu et al. Analysis of natural images processing for the extraction of agricultural elements
Zermas et al. Automation solutions for the evaluation of plant health in corn fields
CN106663192B (zh) 用闪光灯、相机和自动化图像分析检测水果的方法和系统
Pothen et al. Automated assessment and mapping of grape quality through image-based color analysis
Changyi et al. Apple detection from apple tree image based on BP neural network and Hough transform
Syal et al. A survey of computer vision methods for counting fruits and yield prediction
Gené-Mola et al. Looking behind occlusions: A study on amodal segmentation for robust on-tree apple fruit size estimation
Ariza-Sentís et al. Object detection and tracking on UAV RGB videos for early extraction of grape phenotypic traits
Zermas et al. Extracting phenotypic characteristics of corn crops through the use of reconstructed 3D models
Deulkar et al. An automated tomato quality grading using clustering based support vector machine
Finn et al. Unsupervised spectral-spatial processing of drone imagery for identification of pine seedlings
Thakur et al. An extensive review on agricultural robots with a focus on their perception systems
Zhang et al. Feasibility assessment of tree-level flower intensity quantification from UAV RGB imagery: a triennial study in an apple orchard
CN110689022A (zh) 基于叶片匹配的各株作物图像提取方法
Nuske et al. Visual yield estimation in vineyards: experiments with different varietals and calibration procedures
Bulanon et al. Machine vision system for orchard management
Kadethankar et al. Deep learning based detection of rhinoceros beetle infestation in coconut trees using drone imagery