ES2328440B1 - Metodo para identificar guignardia citricarpa. - Google Patents

Metodo para identificar guignardia citricarpa. Download PDF

Info

Publication number
ES2328440B1
ES2328440B1 ES200750068A ES200750068A ES2328440B1 ES 2328440 B1 ES2328440 B1 ES 2328440B1 ES 200750068 A ES200750068 A ES 200750068A ES 200750068 A ES200750068 A ES 200750068A ES 2328440 B1 ES2328440 B1 ES 2328440B1
Authority
ES
Spain
Prior art keywords
particles
contour
images
image
signatures
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES200750068A
Other languages
English (en)
Other versions
ES2328440A1 (es
Inventor
Odemir Martinez Bruno
Mario Augusto Pazoti
Jose Dalton C. Pessoa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Empresa Brasileira de Pesquisa Agropecuaria EMBRAPA
Original Assignee
Empresa Brasileira de Pesquisa Agropecuaria EMBRAPA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Empresa Brasileira de Pesquisa Agropecuaria EMBRAPA filed Critical Empresa Brasileira de Pesquisa Agropecuaria EMBRAPA
Publication of ES2328440A1 publication Critical patent/ES2328440A1/es
Application granted granted Critical
Publication of ES2328440B1 publication Critical patent/ES2328440B1/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • G01N15/1433
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06K9/342
    • G06K9/4604
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0079
    • G06T7/0081
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • G06T7/606
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2333/00Assays involving biological materials from specific organisms or of a specific nature
    • G01N2333/37Assays involving biological materials from specific organisms or of a specific nature from fungi
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30128Food products

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Método para identificar Guignardia citricarpa.
La presente invención se refiere a un sistema de visión por ordenador para identificar el hongo Guignardia citricarpa, el agente causante de la mancha negra de los cítricos.

Description

Método para identificar Guignardia citricarpa.
La presente invención se refiere a un sistema de visión por ordenador para identificar el hongo Guignardia citricarpa, el agente que causa la mancha negra de los cítricos.
Puesto que el proceso usado actualmente para identificar y contar las esporas del hongo Guignardia citricarpa, el agente que causa la mancha negra de los cítricos (Figura 1), se realiza manualmente, y por esta razón consume tiempo y es cansado, se creó el sistema de visión artificial, para ayudar a dicho proceso.
Con la ayuda de técnicas por ordenador, se analizaron las imágenes obtenidas a partir de discos de colección usados habitualmente, y las partículas encontradas en estas imágenes se sometieron a un proceso de identificación automático. Con esto, la presente invención muestra una alternativa para automatizar dicha etapa, como un intento para ayudar al trabajo desarrollado por el especialista.
Se estudió y se comparó un conjunto de técnicas para analizar las imágenes y la caracterización de las ascosporas fúngicas, basándose en la forma. Entre las técnicas, la curvatura y los descriptores de Fourier muestran resultados muy buenos, y se usaron para implementar el sistema de visión por ordenador -CITRUSVIS- que analiza e identifica las ascosporas encontradas en las imágenes de los discos de colección.
Aunque los sistemas de visión similares al sistema de visión biológica se desarrollarán en un futuro muy lejano, actualmente hay mecanismos que realizan ciertas actividades más eficientemente que el sistema de visión humano, por ejemplo. Este es el caso de los sistemas de medida, biométricos, de instrumentación y otros.
Los sistemas de visión artificial se dirigen a obtener un conjunto de técnicas que pueden apoyar el desarrollo de productos suficientemente eficaces y fiables para aplicaciones prácticas en un gran número de campos. Se han usado en varias aplicaciones, tales como la industria, la agricultura, la medicina y otros, para realizar varias tareas.
Estos sistemas, provistos con funciones de análisis de imágenes y de toma de decisiones, están tomando un lugar importante a la hora de controlar y asegurar la calidad de productos, realizando tareas que se asignan habitualmente a inspectores humanos. Por ejemplo, en la agricultura, la introducción de tecnologías de visión artificial pretende ayudar al proceso de producción, por ejemplo en el manejo de plagas y enfermedades.
Se usaron técnicas de visión por ordenador, capaces de caracterizar las ascosporas del hongo Guignardia citricarpa a partir de imágenes microscópicas obtenidas de los discos de colección. Adicionalmente, se desarrolló una herramienta de análisis de imágenes para identificar esporas eventuales capturadas en el disco, identificando y contando las ascosporas del hongo mediante el uso de un conjunto selecto de técnicas que es el objeto de la presente invención.
Para desarrollar este sistema, se vieron implicados los campos de visión por ordenador, de morfología matemática, y de procesamiento de imágenes y señales, además de los aspectos biológicos. Esta es una investigación multidisciplinar dirigida al campo de la agrotecnología.
Un sistema de visión tradicional comprende las etapas de adquirir, segmentar, extraer rasgos y clasificar (González y Woods, 2002). Entre las etapas esenciales en el procesamiento de imágenes, las etapas de segmentación y de análisis son algunas de las más importantes, y también las más difíciles.
Se realizó un estudio comparativo con las técnicas de análisis de formas, para caracterizar las ascosporas. El fin de esta comparación fue evaluar las técnicas y seleccionar aquellas que muestren el mejor comportamiento. A fin de realizar este estudio, se usó un conjunto de muestras seleccionado de las imágenes obtenidas de los discos de colección. Para evaluar/cuantificar el comportamiento de las técnicas en este conjunto de muestras, se empleó el método de clasificación basado en la distancia mínima.
La técnica seleccionada fue la curvatura de la forma asociada con los descriptores de Fourier. Cuando se compara con otras técnicas empleadas, esta técnica mostró el mejor resultado cuando se caracteriza y se segrega el conjunto de muestras.
Después de seleccionar las técnicas para analizar y extraer los rasgos, se prestó atención a las otras etapas requeridas por un sistema de visión por ordenador. Se obtuvo un resultado satisfactorio por medio de una combinación entre algunas de ellas, como ocurrió en la fase de segmentación de imágenes.
Puesto que las imágenes contenían varias partículas y no parecían ser uniformes, la combinación de técnicas de uso de umbrales con filtros no lineales y la transformada del algoritmo de segmentación del procesamiento de imágenes (watershed) permitió que se segmentara correctamente un gran número de partículas.
En la etapa de identificación de las partículas, se usaron dos técnicas: la técnica de la distancia mínima, y las redes neuronales artificiales. La red neuronal se seleccionó entre ellas debido a los resultados satisfactorios obtenidos.
Se implementó un prototipo de sistema propuesto en MATLAB®, dirigido a ensayar y validar la funcionalidad de las técnicas seleccionadas. Con este prototipo, fue posible analizar cada imagen contando las partículas identificadas como ascosporas. Además, cada una de estas partículas se marca en la imagen de forma que el especialista puede comprobar visualmente el resultado.
Conviene enfatizar que algunas imágenes usadas en los ensayos tienen problemas, que hacen difícil el análisis, tales como: baja calidad y resolución de las imágenes, y falta de enfoque que emborronaba algunas de ellas, falta de estandarización de los factores de agrandamiento de las imágenes, y otros.
Incluso con estas dificultades, el resultado del ensayo de identificación de las ascosporas se consideró muy satisfactorio (96,6% de concordancia), satisfaciendo de este modo las expectativas. Sin embargo, se cree que este resultado se puede mejorar usando imágenes estandarizadas y de mejor calidad, en un proceso de adquisición controlada/dedicada.
Adicionalmente, este resultado se basa sólo en las partículas sometidas a la identificación por la red neuronal-partículas preseleccionadas en términos de perímetro. Si se toma en cuenta el total de partículas segmentadas, el porcentaje de concordancia es 99,6%, puesto que la preselección basada en el perímetro elimina un gran número de partículas no ascospóricas. Se debe decir que estas imágenes muestran un amplio intervalo de partículas, incluyendo aquellas que tienen una forma que es muy similar a una forma de ascosporas.
Generalmente, las técnicas ensayadas alcanzaron porcentajes de concordancia de alrededor de 60%, un resultado que se considera positivo. La Tabla 1 muestra un resumen de los resultados obtenidos durante la comparación de las técnicas. El enfoque basado en la curvatura de la forma mostró el mejor resultado (una concordancia de aproximadamente 92%). Es crucial enfatizar que este resultado se alcanzó cuando se considera sólo un tipo de rasgo -la curvatura- usado como la base de los descriptores de Fourier.
La curvatura ha mostrado un resultado satisfactorio para caracterizar las ascosporas. Adicionalmente, otro rasgo mostró ser útil en este proyecto: el perímetro. Tal rasgo permite preseleccionar las muestras. Por lo tanto, parte de las partículas no ascospóricas encontradas en la imagen se desecha, reduciendo de este modo el número de muestras a ser sometidas al proceso de extracción e identificación de los rasgos.
Se debe de mencionar que los resultados presentados, y el estudio comparativo, son específicos para la identificación de las ascosporas de Guignardia citricarpa.
TABLA 1
1
La principal motivación para desarrollar este sistema fue crear un entorno que permitiese la realización de ensayos usando imágenes de discos de colección, considerando la aplicación de todas las etapas desarrolladas (segmentación, extracción e identificación de rasgos).
A continuación se describen las etapas implicadas en el desarrollo del sistema CITRUSVIS, así como los métodos usados en cada una. Se muestran los resultados obtenidos y el sistema implementado.
Las imágenes usadas se obtuvieron de los discos de colección usando cámaras digitales conectadas a un microscopio convencional. Antes de adquirir las imágenes, se aplicó sobre los discos un color azul láctico usado ampliamente en laboratorios de microbiología. Este color se usó para teñir indistintamente las estructuras de hialina (transparentes como vidrio), permitiendo que se viesen con la ayuda de un microscopio. Se tiñen tanto las ascosporas de Guignardia citricarpa como las otras esporas e hifas (partes filamentosas) de otros hongos capturados también en los discos.
La Figura 2 muestra una de las imágenes obtenidas de los discos de colección. Esta imagen muestra diferentes partículas que se recogen en los huertos. Entre estas partículas, se destaca una ascospora del hongo Guignardia citricarpa.
Las imágenes usadas están en formato JPEG (un patrón internacional propuesto por el comité ISO -Joint Photographers Expert Group), y muestran diferentes tamaños, la mayoría de ellos de 640 x 512 pasos.
En los ensayos se usaron alrededor de 70 imágenes. Entre ellas, se encontraron algunos de los siguientes problemas: (i) diferentes colores y sombras de la imagen (fondo del disco) y de las partículas, siendo algunos de ellos demasiado claros, impidiendo de este modo la segmentación, (ii) un emborronamiento como resultado del ajuste inadecuado del enfoque del microscopio, que, en algunos casos, cambia la forma de las partículas y requiere el preprocesamiento para usar la imagen, y (iii) baja calidad debido a la compresión de JPEG.
Inicialmente, la idea fue aplicar una segmentación que pudiese separar las partículas basándose en el color, puesto que algunas partículas contenidas en los discos estaban teñidas de azul, incluyendo las ascosporas. Las imágenes se convirtieron de RGB a HSI (Rick, 2000), y sólo se usó el componente H, que se refiere a la sombra, para aplicar el uso de umbrales.
Los valores obtenidos de la conversión se normalizan entre 0 y 1, y, considerando el intervalo que se refiere al color azul se definieron dos umbrales, Ti = 0,4 y Tf 0,6. De este modo, sólo se segmentaron las partículas que tienen un color que oscila desde ciano a azul (como resultado de las variaciones de color debidas al proceso de tinción), desechando el resto de partículas.
Puesto que las imágenes se compactaron en formato de JPEG, se desechó una cantidad significativa de información relacionada con el color y, en consecuencia, se obtuvieron malos resultados en el proceso de conversión de RGB a HSI. De este modo, la segregación de las partículas se vio alterada, creando varios ruidos y deformaciones en algunas partículas.
Adicionalmente, otro problema fue el color de fondo del disco en algunas imágenes. En algunos casos, no fue posible segmentar las partículas de la imagen mediante el uso de umbrales, puesto que el color de fondo de la imagen dio como resultado una sombra dentro del intervalo de color definido. Puesto que la mayoría de las imágenes mostró algunos de estos problemas, se abandonó este enfoque, puesto que no fue posible obtener nuevas imágenes con una mejor calidad en el tiempo para realizar nuevamente los experimentos.
Una alternativa a la segmentación de las partículas fue aplicar un algoritmo de umbrales directamente sobre la imagen convertida a escala de grises. Entre los algoritmos de segmentación, se escogió el algoritmo Otsu (1979), debido al buen comportamiento observado durante los ensayos realizados con el mismo usando las imágenes del disco de colección. Sin embargo, se generaron ruidos después del proceso de uso de umbrales, como resultado de la variación del nivel de grises de las imágenes, evitando de ese modo una buena segmentación.
Una forma para reducir los ruidos contenidos en la imagen es aplicar filtros suavizantes de la imagen, tales como el filtro gausiano (González y Woods, 2002). Sin embargo, este filtro cambia las regiones frontera debido al emborronamiento que causa en los bordes de las partículas, cambiando de ese modo la forma de algunas de ellas después del uso del umbral, además de la posibilidad de aumentar el número de partículas conectadas.
Después se decidió aplicar el filtro de difusión no lineal propuesto por Perona y Malik (1990). Este filtro suaviza la imagen, conservando las regiones frontera. Reduce la variación de los niveles de grises por región, y consecuentemente los ruidos tras el uso de umbrales (Weickert, 1997). La ecuación de difusión aplicada está definida por Perona y Malik (1990) como
2
Para aplicar este filtro en la imagen I, se consideró el parámetro K = 4 (umbral frontera). Este parámetro indica las regiones consideradas como fronteras, esto es, para \Arrowvert\DeltaI\Arrowvert > K. En estas regiones, el proceso de difusión tiene un efecto disminuido. Por otro lado, \Arrowvert\DeltaI\Arrowvert > K, el coeficiente de difusión tiene una amplitud elevada, y el efecto suavizante será más potente (Morel y Solimini, 1995; Voci et al., 2004). Adicionalmente, el número de iteraciones consideradas para aplicar el filtro sobre las imágenes de los discos fue N = 30.
Cuando se comparan los resultados obtenidos aplicando los filtros lineales y no lineales sobre una imagen adquirida a partir de un disco de colección a las imágenes respectivas después del uso de los umbrales, se observó que ambos filtros muestran menos ruidos cuando se comparan con el umbral cuando se aplica directamente a la imagen original.
Sin embargo, mediante el uso del filtro de Perona-Malik, se observó que la similitud de las formas obtenidas cuando se comparan con las partículas originales es mucho mayor que aquellas obtenidas usando el filtro gausiano. En la imagen con el filtro gausiano, algunas partículas parecen ser mayores que lo que en realidad son, o no se ven completamente. También se observó que aumenta la conexión entre los bordes de diferentes partículas.
Finalmente, es crítico enfatizar que, aunque el filtro de Perona-Malik muestra un mejor resultado para este ensayo, el coste de ordenador de esta técnica es mayor.
Esto ocurre debido al número de interacciones requeridas para obtener un resultado satisfactorio del proceso de difusión. No obstante, esta alternativa se adoptó para este trabajo, principalmente debido a que el filtro mantiene una forma similar a la obtenida después de suavizar con la forma original de las partículas.
Usando el filtro de Perona-Malik, se minimizan los problemas relacionados con ruidos y espacios en las formas de las partículas, pero no se eliminan. Además de algunos ruidos que resultan del proceso del uso de umbrales, aún pueden aparecer en la imagen partes de algunos filamentos y otras partículas pequeñas. Por esta razón, se aplicó un filtro morfológico a fin de eliminar los ruidos que quedan.
Otro aspecto positivo que se refiere a la aplicación del filtro morfológico es el hecho de que suaviza los bordes de las partículas, eliminando de este modo pequeños picos en los bordes, y cerrando los pequeños espacios. Para aplicar el filtro, se consideró un elemento estructuralmente circular que mide 5 x 5 pasos.
Una vez que se analizan individualmente los objetos de la imagen, una de las dificultades principales con este tipo de imagen se refiere al solapamiento o conexión entre las partículas. Este tipo de problema se encuentra habitualmente en imágenes que consisten en varios elementos, igual que las partículas recogidas en los discos. Para resolver este problema, se aplicó la técnica de morfología matemática del algoritmo de segmentación del procesamiento de imágenes (watershed) (Roerdink y Meijster, 2000).
Este enfoque adoptado para segregar estas partículas consiste en el algoritmo de inmersión propuesto por Vincent y Soille (1991). Para aplicar este algoritmo, es necesario usar la Transformada de Distancia (Saito y Toriwaki, 1994) para obtener el mapa de distancias, permitiendo interpretar la imagen binarizada como una liberación requerida para aplicar la transformada del algoritmo de segmentación del procesamiento de imágenes (watershed). Con esto, todas las partículas comienzan a mostrar niveles de profundidad a partir de los cuales se definen las localizaciones mínimas para cada región.
Estas localizaciones mínimas se usan como marcadores de región, para evitar problemas tales como la sobresegmentación de la imagen.
Aunque hay partículas que solapan sobre las imágenes obtenidas de los discos de colección, se han de considerar ciertos aspectos. Puesto que esta es una imagen binarizada, cuando hay un grupo de partículas aglomeradas, la Transformada de la Distancia no siempre permitirá la definición correcta de los marcadores de regiones con relación a la disposición real de las partículas en la imagen.
Para un grupo de partículas solapadas, los marcadores no se definieron correctamente usando el mapa de distancias, y, en consecuencia, el resultado obtenido con el algoritmo de segmentación del procesamiento de imágenes (watershed) no correspondió a la separación real entre las partículas. Sin embargo, según los especialistas de análisis de discos, las ascosporas raramente aparecen aglomeradas con otras partículas. También se observó en el grupo de imágenes usado en este proyecto. Se observó solapamiento sólo en algunas imágenes, pero siempre entre unas pocas partículas. Cuando están conectadas mediante una pequeña región, estas partículas se separaron por medio del algoritmo de segmentación del procesamiento de imágenes (watershed).
Después de la etapa de segmentación, cada partícula segmentada se analizó para determinar la extracción de los vectores de rasgos correspondientes. A fin de llevar a cabo esta etapa, se empleó un enfoque basado en la curvatura de la forma, que, a su vez, se obtiene del contorno paramétrico. A continuación se muestran las etapas de extracción del contorno y adquisición de los descriptores usando la curvatura de formas.
Para extraer el contorno de las partículas, se aplicó el algoritmo después del contorno (Costa y Cesar, 2000). Sin embargo, se proporcionó una adaptación de forma que se extrajo en la misma imagen el contorno de varias partículas, almacenándose cada una en una lista encadenada. Merece la pena enfatizar que las partículas conectadas al borde de la imagen son desechadas, ya que estas partículas habitualmente no están completas, esto es, parte de la forma se perdió durante la adquisición de la imagen.
Durante la extracción del contorno, se preseleccionaron muestras a partir del perímetro. De este modo, sólo se analizan aquellas partículas que tienen el perímetro dentro del intervalo considerado (120 a 220 pasos).
Finalmente, se extrajo un conjunto preseleccionado de contornos a partir de cada imagen, de forma que se extrajeron subsiguientemente los descriptores.
Los descriptores se extraen del conjunto de contornos obtenido de cada imagen analizada. Para cada uno de estos contornos, se calcula la curvatura, considerando k(n,\sigma)=\Im^{-1}{K(f).G(f,\sigma)}, siendo la desviación estándar del filtro gausiano \sigma = 0,22.
Los descriptores se obtienen aplicando la Transformada de Fourier sobre la señal de curvatura, normalizándose el espectro. Después, se seleccionan 60 descriptores considerando sólo la densidad espectral de la señal en el dominio de frecuencias (espectro de potencia). De este modo, cada partícula obtenida de la imagen se representa mediante un vector de rasgo, y se aplican sobre los vectores los métodos de reconocimiento estándares.
En esta etapa, el fin fue usar técnicas de reconocimiento estándares para validar la capacidad discriminatoria obtenida usando la descripción de formas por medio de la curvatura que, en este trabajo, pretendía identificar las ascosporas del hongo Guignardia citricarpa. Cuando se comparan las técnicas, el buen resultado obtenido usando la clasificación de distancia mínima condujo a escoger la curvatura como la técnica a aplicar en la descripción de las partículas. Sin embargo, en un intento por mejorar el resultado obtenido con este enfoque, se decidió usar las redes neuronales artificiales.
A fin de realizar ensayos con redes neuronales, se usó la caja de herramientas de las redes neuronales de
MATLAB® (Demuth y Beale, 2003). Además de obtener una interfaz gráfica disponible para la construcción, entrenamiento y simulación de redes, esta caja de herramientas también permite la integración de redes con las otras etapas implicadas en el sistema de visión, tales como la extracción de rasgos, facilitando de este modo el desarrollo del prototipo del sistema CITRUSVIS.
La red seleccionada fue una red de retropropagación alimentada hacia delante con 60 entradas, dos capas intermedias con 20 y 15 neuronas cada una, y una capa de salida con 2 neuronas (Figura 3).
Una de las neuronas de la capa de salida representa la clase Ascosporas, y la otra representa la clase de Otras partículas. La neurona que tiene el mayor valor de salida indica la decisión de la red en la clase a la que pertenece el estándar analizado.
Para el entrenamiento de redes neuronales, se consideró el número más elevado de muestras. Estas muestras se dividieron en 3 grupos: entrenamiento, validación y ensayo. Se usó un total de 300 muestras, cada una con 60 descriptores. Las muestras se dividieron en 160 muestras para entrenamiento, 70 muestras para validación y 70 para ensayo. Merece la pena destacar que las muestras no se repiten entre los grupos, esto es, una muestra que pertenece al grupo de entrenamiento no se consideró para los otros grupos.
El algoritmo de entrenamiento usado fue la retropropagación de Levenberg-Marquardt (trainlm) (Demuth y Beale, 2003; Hagan y Menhaj, 1994), y la función de activación fue la función sigmoidal (logsig), cuyo intervalo de salida oscila desde 0 hasta 1. El rendimiento obtenido durante el entrenamiento usando la topología (20-15-2) fue alrededor de 6,9 e-8, considerando como medida el error cuadrático medio (MSE). Se ensayaron otras topologías y otros algoritmos de entrenamiento que estuvieron disponibles gracias a la caja de herramientas. Sin embargo, muestran unas menores prestaciones.
El resultado obtenido usando la red fue muy bueno (98% de concordancia), una mejora significativa cuando se compara con el resultado obtenido basándose en la distancia mínima entre los vectores de rasgos (alrededor de 92% - véase Tabla 1). Merece la pena destacar que este resultado se obtuvo con el conjunto preseleccionado de muestras para el ensayo.
Como se ha mencionado anteriormente, el prototipo de sistema de visión para identificar las ascosporas del hongo Guignardia citricarpa se desarrolló a fin de proporcionar un entorno para realizar los ensayos usando las imágenes obtenidas a partir de los discos de colección. Adicionalmente, este entorno facilita la visualización del resultado obtenido, marcando en la imagen del disco las ascosporas identificadas.
Este prototipo se desarrolló usando la interfaz gráfica MATLAB®. Esta interfaz se escogió puesto que integra fácilmente todas las etapas desarrolladas (desde la segmentación de imágenes hasta la identificación de partículas, usando las redes neuronales). Además, el entorno permite varias funcionalidades básicas. La Figura 4 muestra la interfaz del prototipo desarrollado.
Puesto que la idea principal de este sistema fue construir un entorno para ensayar y validar el enfoque adoptado, se permitieron algunas opciones para permitir la selección de algunas técnicas a aplicar durante el proceso de análisis. Haciendo esto, es posible comparar mejor los resultados obtenidos usando la combinación de diferentes enfoques de segmentación (filtros lineales o no lineales y la aplicación del algoritmo de segmentación del procesamiento de imágenes (watershed)) y la identificación (basada en la distancia mínima o en redes neuronales artificiales).
Además de mostrarlos como un texto (número de muestras, números de ascosporas y tiempo), los resultados se muestran en la propia imagen, marcándose las partículas identificadas como ascosporas mediante un contorno rojo. También es posible visualizar los otros contornos preseleccionados (en azul), y también las etiquetas de las partículas (índice de lista de contornos), como se muestra en la Figura 4.
A fin de validar la solución adoptada, se analizaron las imágenes de los discos de colección. De este modo, se aplicaron todas las etapas desarrolladas, desde la segmentación hasta la identificación de las partículas que existen en la imagen de los discos. Para llevar a cabo este experimento, se separaron 3 grupos de imágenes, esto es, Disco 1 (20 imágenes), Disco 2 (15 imágenes) y Disco 3 (20 imágenes).
Se llevaron a cabo tres experimentos, uno para cada grupo de imágenes. Cuando se evaluaron los resultados, se tuvieron en cuenta los siguientes apartados: tiempo de procesamiento en segundos; número de partículas segmentadas; número de partículas preseleccionadas mediante el perímetro; número de errores durante la preselección (partículas de ascosporas no preseleccionadas); número de ascosporas que existen en la imagen (identificadas manualmente); número de ascosporas identificadas correctamente por el sistema; número de falsos positivos y falsos negativos; y el error total, es decir, la suma de los errores aparecidos en la preselección e identificación por la red neuronal.
Los resultados obtenidos usando el análisis de cada grupo de imágenes se muestran en las Tablas 2, 3 y 4. Estas tablas incluyen dos tipos de errores: el error que se refiere a la preselección de las partículas, que se produce cuando no se preselecciona la partícula de una ascospora; y el error que se refiere a la red neuronal, que se produce cuando una partícula preseleccionada no es clasificada correctamente por la red. En este último caso, los errores se separan todavía como falsos positivos y falsos negativos, puesto que en este trabajo la aparición de falsos negativos es más significativo que los falsos positivos. Cada tabla muestra también un resumen del resultado general obtenido con el grupo correspondiente de imágenes.
\vskip1.000000\baselineskip
TABLA 2
3
4
5
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
TABLA 3
6
7
TABLA 4
9
10
Basándose en los datos obtenidos cuando se analizan los 3 grupos de imágenes, los experimentos se sometieron a una evaluación general. Esta evaluación se muestra en la Tabla 5.
TABLA 5
12
El resultado general obtenido con estos experimentos fue de un 96,6% de emparejamiento en la identificación de partículas que existe en el disco, considerando solamente las partículas preseleccionadas. Este resultado se consideró más que satisfactorio, indicando el buen comportamiento del enfoque adoptado para CITRUSVIS. Adicionalmente, el tiempo medio de procesamiento para cada imagen estaba ligeramente por encima de 1 minuto (66 segundos). Este tiempo se consideró como satisfactorio, puesto que se obtuvo mediante un prototipo del sistema y se realizó en un microordenador Pentium 4, 256 MB de RAM. Adicionalmente, el prototipo consiste en escrituras MATLAB® que se interpretan.
Entre los ejemplos mostrados, hay errores tanto falsos positivos como falsos negativos. La mayoría del tiempo, el error del falso negativo se produjo debido a problemas de segmentación de las partículas. Los casos de falsos positivos se produjeron puesto que la forma de las partículas es similar a la de una ascospora, o mostró una señal de curvatura similar a la curvatura mostrada por una ascospora.
El resultado obtenido usando las técnicas seleccionadas se consideró como muy satisfactorio. Merece la pena subrayar que una parte significativa de este resultado es debida a la descripción de las partículas por medio de la curvatura de formas a partir de la cual se extrajeron los descriptores de Fourier. Adicionalmente, el comportamiento obtenido con la red también satisfizo las expectativas, debido al número de partículas analizadas.
La implementación del sistema CITRUSVIS fue muy positiva, puesto que permitió analizar el comportamiento de técnicas en cada etapa llevada a cabo, así como los resultados obtenidos con cada una. También permitió observar la contribución de cada técnica al resultado final. Otro aspecto importante con relación al sistema fue la fácil manipulación del grupo de imágenes y los resultados obtenidos. El tiempo de procesamiento para cada imagen fue satisfactorio, teniendo en cuenta las técnicas empleadas en el análisis.
Los resultados dados a conocer previamente sólo consideraron las partículas preseleccionadas dentro del intervalo de perímetro definido. Sin embargo, la preselección cuando se extrae el contorno de las partículas también se considera como un proceso de clasificación en el que se desestiman las partículas que no tienen el perímetro dentro del intervalo considerado para las ascosporas, es decir, clasificadas inmediatamente como no ascosporas. De este modo, cuando se consideran indistintamente todas las partículas revisadas, el porcentaje de error general obtenido fue sólo 0,4%, es decir, 99,6% de emparejamiento cuando se clasifican las partículas (Tabla 6).
TABLA 6
13
La presente invención tuvo las siguientes contribuciones:
\bullet introducción de una disolución para detectar la enfermedad de la mancha negra (Guignardia citricarpa usando técnicas de visión por ordenador;
\bullet desarrollo de un método para identificar las ascosporas del hongo Guignardia citricarpa; este método ayudará a controlar/combatir la enfermedad de la mancha negra en huertos;
\bullet comparación entre las diferentes técnicas de visión por ordenador para analizar las formas, identificando las ventajas y desventajas de cada una, ayudando así u ofreciendo alternativas a otras situaciones que muestran problemas similares;
\bullet resultado satisfactorio obtenido con la combinación de diferentes técnicas para mejorar el proceso de segmentación que estaba basado en el uso de umbrales con la aplicación de filtros no lineales, en este caso el filtro Perona-Malik;
\bullet desarrollo del prototipo CITRUSVIS basado en las técnicas estudiadas, permitiendo de este modo experimentos que implican a todas las etapas del sistema y la identificación de las ascosporas con resultados muy satisfactorios (99,6%).
Las siguientes figuras son parte de esta aplicación:
1 - ascospora de Guignardia citricarpa
2 - imagen digital adquirida del disco de colección, agrandada mediante un microscopio
3 - topología de la red usada en el CITRUSVIS
4 - interfaz del prototipo CITRUSVIS
Una búsqueda en las bases de datos de patentes no devolvió ningún método para la identificación de Guignardia citricarpa basado en el sistema de visión por ordenador, evidenciando de este modo que dicho sistema es nuevo.

Claims (3)

1. Método para identificar Guignardia citricarpa, caracterizado porque se usa una imagen escaneada de la ascospora, ya sea obtenida desde el disco de captura o no, en el proceso de identificación automática de Guignardia citricarpa por medio de las signaturas extraídas a partir del contorno de imágenes del hongo.
2. Método para identificar Guignardia citricarpa, caracterizado porque se realiza por medio de un sistema de visión por ordenador siguiendo las etapas a continuación:
a) adquisición de imágenes: la primera etapa de este proceso consiste en la adquisición de imágenes a partir del disco de colección usando una cámara digital conectada a un microscopio, que permite agrandar las imágenes y, como resultado, visualizar las partículas recogidas en el campo, incluyendo las ascosporas;
b) preprocesar: esta etapa consiste en aplicar técnicas a fin de mejorar (o corregir) las imágenes escaneadas; en esta fase se aplican filtros principalmente para reducir los ruidos de las imágenes, así como otras anomalías durante la adquisición de imágenes y que se pueden corregir mediante el procesamiento de la imagen;
c) segmentación: en esta etapa se aplican técnicas de segmentación de imágenes a fin de segregar cada partícula en la imagen; esto es necesario puesto que cada partícula se debería de analizar a fin de que se identifique como ascosporas o no; estas partículas se binarizan, y el análisis se lleva a cabo basándose en la forma;
d) análisis y extracción de rasgos importantes: en esta etapa se extraen individualmente los rasgos de las partículas segmentadas, usando técnicas de análisis de imagen; se extrae el contorno de las partículas, así como el conjunto de signaturas relacionadas con este contorno; a partir de estas signaturas, se calculan los descriptores y se selecciona un conjunto de estos descriptores para representar cada partícula que se analiza; las principales signaturas extraídas de las formas de las partículas incluyen: contorno paramétrico, signatura de la distancia entre el contorno de la forma y el centroide, proyección y curvatura; para obtener los descriptores, las técnicas principales fueron los descriptores de Fourier y las ondas pequeñas (wavelets);
e) identificación: en esta etapa, después del resultado de la etapa previa, las partículas se identifican usando técnicas de inteligencia artificial y redes neuronales artificiales; esta etapa se usa para reconocer las ascosporas en la imagen, dando como resultado su identificación y recuento.
3. Método para identificar Guignardia citricarpa, según las reivindicaciones anteriores, caracterizado porque las signaturas usadas como base para el proceso de caracterización de las partículas de ascosporas pueden incluir:
a) contorno paramétrico: consiste en señales de X e Y que se refieren a las coordenadas (x, y) extraídas del contorno de la forma; el contorno de cada partícula se obtiene usando un algoritmo extractor del contorno, cuyo resultado consiste en una lista con todas las coordenadas (x, y) que se refieren a la frontera de la forma (borde);
b) distancia del contorno al centroide de la forma: consiste en obtener una señal unidimensional que comprende la distancia entre cada coordenada que pertenece al contorno de la forma y la coordenada que se refiere al centroide de la partícula (centro de masas); para obtener la distancia entre estas coordenadas, se puede aplicar cualquier algoritmo que calcule la distancia entre dos puntos;
c) proyección: la signatura obtenida por la proyección consiste en viajar a lo largo de la forma de la partícula en una dirección constante (por ejemplo, hacia abajo), sumándose todos los puntos que pertenecen a ella en cada iteración (es decir, cada línea escaneada); finalmente, se obtiene una señal unidimensional y se puede obtener en todas las direcciones la proyección de la forma;
d) curvatura: esta signatura se calcula a partir del contorno de la forma, y se refiere a la variación de la inclinación del contorno; generalmente, describe las regiones cóncavas y convexas en una forma; las partículas se caracterizan a partir de esta descripción;
todas estas signaturas (señales unidimensionales) muestran una variación con relación al tamaño (número de elementos que lo componen); se produce puesto que el tamaño de la signatura depende del tamaño (perímetro, área) de la partícula analizada; sin embargo, a fin de usarlas para caracterizar las partículas y someterlas subsiguientemente a un proceso de reconocimiento, estas signaturas se deben de normalizar; por esta razón, se aplican a estas signaturas métodos de extracción de descriptores; estos métodos permiten obtener un conjunto finito que tiene el mismo tamaño para todas las formas, permitiendo la caracterización; las técnicas aplicadas a estas signaturas fueron los descriptores de Fourier y los descriptores wavelets (ondas pequeñas).
ES200750068A 2005-04-26 2006-04-10 Metodo para identificar guignardia citricarpa. Active ES2328440B1 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
BR0501535 2005-04-26
BRPI0501535A BRPI0501535B8 (pt) 2005-04-26 2005-04-26 método de identificação do guignardia citricarpa

Publications (2)

Publication Number Publication Date
ES2328440A1 ES2328440A1 (es) 2009-11-12
ES2328440B1 true ES2328440B1 (es) 2010-08-30

Family

ID=37214392

Family Applications (1)

Application Number Title Priority Date Filing Date
ES200750068A Active ES2328440B1 (es) 2005-04-26 2006-04-10 Metodo para identificar guignardia citricarpa.

Country Status (5)

Country Link
US (1) US8068132B2 (es)
BR (1) BRPI0501535B8 (es)
ES (1) ES2328440B1 (es)
WO (1) WO2006113979A1 (es)
ZA (1) ZA200710087B (es)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK2156370T3 (da) 2007-05-14 2012-01-23 Historx Inc Kompartmentadskillelse ved pixelkarakterisering under anvendelse af billeddata-clustering
EP2162728B1 (en) 2007-06-15 2016-07-27 Novartis AG Microscope system and method for obtaining standardized sample data
CA2604317C (en) * 2007-08-06 2017-02-28 Historx, Inc. Methods and system for validating sample images for quantitative immunoassays
CA2596204C (en) 2007-08-07 2019-02-26 Historx, Inc. Method and system for determining an optimal dilution of a reagent
WO2009029810A1 (en) * 2007-08-31 2009-03-05 Historx, Inc. Automatic exposure time selection for imaging tissue
ES2573945T3 (es) 2008-09-16 2016-06-13 Novartis Ag Cuantificación reproducible de expresión de biomarcadores
EP2936116B8 (en) * 2012-12-19 2020-04-01 Koninklijke Philips N.V. System and method for classification of particles in a fluid sample
US9773154B2 (en) * 2015-10-09 2017-09-26 Universidad Nacional Autónoma de México System for the identification and quantification of helminth eggs in environmental samples
CN107862697B (zh) * 2017-10-27 2021-03-23 陕西科技大学 一种用于茯茶质量检测的金花菌计数方法
US11397868B2 (en) 2020-03-26 2022-07-26 The University Of Hong Kong Fungal identification by pattern recognition
CN114724027A (zh) * 2022-03-25 2022-07-08 清华大学 基于机器视觉的固态酿造颗粒状原料掺杂鉴别方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240950A (ja) * 1997-02-28 1998-09-11 Asahi Breweries Ltd 微生物菌体の形状分別方法
US5974901A (en) * 1998-02-06 1999-11-02 The Cleveland Clinic Foundation Method for determining particle characteristics
FR2776798A1 (fr) * 1998-03-24 1999-10-01 Philips Electronics Nv Procede de traitement d'images incluant des etapes de segmentation d'une image multidimensionnelle et appareil d'imagerie medicale utilisant ce procede
US6956961B2 (en) * 2001-02-20 2005-10-18 Cytokinetics, Inc. Extracting shape information contained in cell images
JP4749637B2 (ja) * 2001-09-28 2011-08-17 オリンパス株式会社 画像解析方法、装置、及び記録媒体
US6873725B2 (en) * 2002-09-09 2005-03-29 Coulter International Corp. Simultaneous measurement and display of 3-D size distributions of particulate materials in suspensions
US20040114800A1 (en) * 2002-09-12 2004-06-17 Baylor College Of Medicine System and method for image segmentation

Also Published As

Publication number Publication date
BRPI0501535B1 (pt) 2019-08-13
ZA200710087B (en) 2008-12-31
BRPI0501535B8 (pt) 2021-07-27
BRPI0501535A (pt) 2006-12-12
US20090167850A1 (en) 2009-07-02
US8068132B2 (en) 2011-11-29
ES2328440A1 (es) 2009-11-12
WO2006113979A1 (en) 2006-11-02

Similar Documents

Publication Publication Date Title
ES2328440B1 (es) Metodo para identificar guignardia citricarpa.
Chang et al. Gold-standard and improved framework for sperm head segmentation
Han et al. A novel computer vision-based approach to automatic detection and severity assessment of crop diseases
CN111524080A (zh) 脸部皮肤特征的识别方法、终端及计算机设备
CN109154978A (zh) 用于检测植物疾病的系统和方法
CN103034838A (zh) 一种基于图像特征的特种车辆仪表类型识别与标定方法
Laga et al. Image-based plant stornata phenotyping
US9852354B2 (en) Method and apparatus for image scoring and analysis
CN110310291A (zh) 一种稻瘟病分级系统及其方法
US11488401B2 (en) Prostate cancer tissue image classification with deep learning
Salvi et al. Impact of stain normalization and patch selection on the performance of convolutional neural networks in histological breast and prostate cancer classification
Khan et al. Comparitive study of tree counting algorithms in dense and sparse vegetative regions
Hitimana et al. Automatic estimation of live coffee leaf infection based on image processing techniques
CN104933723A (zh) 基于稀疏表示的舌图像分割方法
Rehman et al. Human identification using dental biometric analysis
KR20080076170A (ko) 지문 영상 생성을 위한 영상 필터 조합 생성 방법
CN110021019A (zh) 一种aga临床图像的ai辅助毛发的粗细分布分析方法
Sadeghi et al. Graph-based pigment network detection in skin images
Kumuda et al. Human fingernail segmentation
Ahmed et al. Retina based biometric authentication using phase congruency
Kumar et al. A novel image processing technique for counting the number of trees in a satellite image
KR101032581B1 (ko) 유해영상 자동 판별 방법
Amitha et al. Developement of computer aided system for detection and classification of mitosis using SVM
Shetty et al. Melanoma decision support system for dermatologist
Nandanwar et al. Analysis of pixel intensity variation by performing morphological operations for image segmentation on cervical cancer pap smear image

Legal Events

Date Code Title Description
EC2A Search report published

Date of ref document: 20091112

Kind code of ref document: A1

FG2A Definitive protection

Ref document number: 2328440B1

Country of ref document: ES