ES2328440B1 - Metodo para identificar guignardia citricarpa. - Google Patents
Metodo para identificar guignardia citricarpa. Download PDFInfo
- Publication number
- ES2328440B1 ES2328440B1 ES200750068A ES200750068A ES2328440B1 ES 2328440 B1 ES2328440 B1 ES 2328440B1 ES 200750068 A ES200750068 A ES 200750068A ES 200750068 A ES200750068 A ES 200750068A ES 2328440 B1 ES2328440 B1 ES 2328440B1
- Authority
- ES
- Spain
- Prior art keywords
- particles
- contour
- images
- image
- signatures
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 241000555714 Phyllosticta citricarpa Species 0.000 title claims abstract description 22
- 239000002245 particle Substances 0.000 claims description 91
- 230000011218 segmentation Effects 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 8
- 238000012512 characterization method Methods 0.000 claims description 3
- 238000010191 image analysis Methods 0.000 claims description 3
- 235000001674 Agaricus brunnescens Nutrition 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 claims 1
- 238000003709 image segmentation Methods 0.000 claims 1
- 231100000676 disease causative agent Toxicity 0.000 abstract 1
- 238000013459 approach Methods 0.000 description 9
- 238000012360 testing method Methods 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 238000002474 experimental method Methods 0.000 description 6
- 238000011161 development Methods 0.000 description 5
- 230000018109 developmental process Effects 0.000 description 5
- 238000009792 diffusion process Methods 0.000 description 5
- 210000002569 neuron Anatomy 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 241000233866 Fungi Species 0.000 description 2
- 206010027146 Melanoderma Diseases 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 239000002420 orchard Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- XGWIJUOSCAQSSV-XHDPSFHLSA-N (S,S)-hexythiazox Chemical compound S([C@H]([C@@H]1C)C=2C=CC(Cl)=CC=2)C(=O)N1C(=O)NC1CCCCC1 XGWIJUOSCAQSSV-XHDPSFHLSA-N 0.000 description 1
- 241000207199 Citrus Species 0.000 description 1
- 235000002779 Morchella esculenta Nutrition 0.000 description 1
- 240000002769 Morchella esculenta Species 0.000 description 1
- 241000607479 Yersinia pestis Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 235000020971 citrus fruits Nutrition 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 125000004093 cyano group Chemical group *C#N 0.000 description 1
- 230000003292 diminished effect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002538 fungal effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 210000004276 hyalin Anatomy 0.000 description 1
- 238000013095 identification testing Methods 0.000 description 1
- 238000003706 image smoothing Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005204 segregation Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000010186 staining Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G01N15/1433—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G06K9/342—
-
- G06K9/4604—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G06T7/0079—
-
- G06T7/0081—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G06T7/606—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N2333/00—Assays involving biological materials from specific organisms or of a specific nature
- G01N2333/37—Assays involving biological materials from specific organisms or of a specific nature from fungi
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30128—Food products
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Health & Medical Sciences (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Método para identificar Guignardia
citricarpa.
La presente invención se refiere a un sistema de
visión por ordenador para identificar el hongo Guignardia
citricarpa, el agente causante de la mancha negra de los
cítricos.
Description
Método para identificar Guignardia
citricarpa.
La presente invención se refiere a un sistema de
visión por ordenador para identificar el hongo Guignardia
citricarpa, el agente que causa la mancha negra de los
cítricos.
Puesto que el proceso usado actualmente para
identificar y contar las esporas del hongo Guignardia
citricarpa, el agente que causa la mancha negra de los cítricos
(Figura 1), se realiza manualmente, y por esta razón consume tiempo
y es cansado, se creó el sistema de visión artificial, para ayudar
a dicho proceso.
Con la ayuda de técnicas por ordenador, se
analizaron las imágenes obtenidas a partir de discos de colección
usados habitualmente, y las partículas encontradas en estas
imágenes se sometieron a un proceso de identificación automático.
Con esto, la presente invención muestra una alternativa para
automatizar dicha etapa, como un intento para ayudar al trabajo
desarrollado por el especialista.
Se estudió y se comparó un conjunto de técnicas
para analizar las imágenes y la caracterización de las ascosporas
fúngicas, basándose en la forma. Entre las técnicas, la curvatura y
los descriptores de Fourier muestran resultados muy buenos, y se
usaron para implementar el sistema de visión por ordenador
-CITRUSVIS- que analiza e identifica las ascosporas encontradas en
las imágenes de los discos de colección.
Aunque los sistemas de visión similares al
sistema de visión biológica se desarrollarán en un futuro muy
lejano, actualmente hay mecanismos que realizan ciertas actividades
más eficientemente que el sistema de visión humano, por ejemplo.
Este es el caso de los sistemas de medida, biométricos, de
instrumentación y otros.
Los sistemas de visión artificial se dirigen a
obtener un conjunto de técnicas que pueden apoyar el desarrollo de
productos suficientemente eficaces y fiables para aplicaciones
prácticas en un gran número de campos. Se han usado en varias
aplicaciones, tales como la industria, la agricultura, la medicina
y otros, para realizar varias tareas.
Estos sistemas, provistos con funciones de
análisis de imágenes y de toma de decisiones, están tomando un
lugar importante a la hora de controlar y asegurar la calidad de
productos, realizando tareas que se asignan habitualmente a
inspectores humanos. Por ejemplo, en la agricultura, la introducción
de tecnologías de visión artificial pretende ayudar al proceso de
producción, por ejemplo en el manejo de plagas y enfermedades.
Se usaron técnicas de visión por ordenador,
capaces de caracterizar las ascosporas del hongo Guignardia
citricarpa a partir de imágenes microscópicas obtenidas de los
discos de colección. Adicionalmente, se desarrolló una herramienta
de análisis de imágenes para identificar esporas eventuales
capturadas en el disco, identificando y contando las ascosporas del
hongo mediante el uso de un conjunto selecto de técnicas que es el
objeto de la presente invención.
Para desarrollar este sistema, se vieron
implicados los campos de visión por ordenador, de morfología
matemática, y de procesamiento de imágenes y señales, además de los
aspectos biológicos. Esta es una investigación multidisciplinar
dirigida al campo de la agrotecnología.
Un sistema de visión tradicional comprende las
etapas de adquirir, segmentar, extraer rasgos y clasificar
(González y Woods, 2002). Entre las etapas esenciales en el
procesamiento de imágenes, las etapas de segmentación y de
análisis son algunas de las más importantes, y también las más
difíciles.
Se realizó un estudio comparativo con las
técnicas de análisis de formas, para caracterizar las ascosporas.
El fin de esta comparación fue evaluar las técnicas y seleccionar
aquellas que muestren el mejor comportamiento. A fin de realizar
este estudio, se usó un conjunto de muestras seleccionado de las
imágenes obtenidas de los discos de colección. Para
evaluar/cuantificar el comportamiento de las técnicas en este
conjunto de muestras, se empleó el método de clasificación basado
en la distancia mínima.
La técnica seleccionada fue la curvatura de la
forma asociada con los descriptores de Fourier. Cuando se compara
con otras técnicas empleadas, esta técnica mostró el mejor
resultado cuando se caracteriza y se segrega el conjunto de
muestras.
Después de seleccionar las técnicas para
analizar y extraer los rasgos, se prestó atención a las otras
etapas requeridas por un sistema de visión por ordenador. Se obtuvo
un resultado satisfactorio por medio de una combinación entre
algunas de ellas, como ocurrió en la fase de segmentación de
imágenes.
Puesto que las imágenes contenían varias
partículas y no parecían ser uniformes, la combinación de técnicas
de uso de umbrales con filtros no lineales y la transformada del
algoritmo de segmentación del procesamiento de imágenes
(watershed) permitió que se segmentara correctamente un gran
número de partículas.
En la etapa de identificación de las partículas,
se usaron dos técnicas: la técnica de la distancia mínima, y las
redes neuronales artificiales. La red neuronal se seleccionó entre
ellas debido a los resultados satisfactorios obtenidos.
Se implementó un prototipo de sistema propuesto
en MATLAB®, dirigido a ensayar y validar la funcionalidad de las
técnicas seleccionadas. Con este prototipo, fue posible analizar
cada imagen contando las partículas identificadas como ascosporas.
Además, cada una de estas partículas se marca en la imagen de forma
que el especialista puede comprobar visualmente el resultado.
Conviene enfatizar que algunas imágenes usadas
en los ensayos tienen problemas, que hacen difícil el análisis,
tales como: baja calidad y resolución de las imágenes, y falta de
enfoque que emborronaba algunas de ellas, falta de estandarización
de los factores de agrandamiento de las imágenes, y otros.
Incluso con estas dificultades, el resultado del
ensayo de identificación de las ascosporas se consideró muy
satisfactorio (96,6% de concordancia), satisfaciendo de este modo
las expectativas. Sin embargo, se cree que este resultado se puede
mejorar usando imágenes estandarizadas y de mejor calidad, en un
proceso de adquisición controlada/dedicada.
Adicionalmente, este resultado se basa sólo en
las partículas sometidas a la identificación por la red
neuronal-partículas preseleccionadas en términos de
perímetro. Si se toma en cuenta el total de partículas segmentadas,
el porcentaje de concordancia es 99,6%, puesto que la preselección
basada en el perímetro elimina un gran número de partículas no
ascospóricas. Se debe decir que estas imágenes muestran un amplio
intervalo de partículas, incluyendo aquellas que tienen una forma
que es muy similar a una forma de ascosporas.
Generalmente, las técnicas ensayadas alcanzaron
porcentajes de concordancia de alrededor de 60%, un resultado que
se considera positivo. La Tabla 1 muestra un resumen de los
resultados obtenidos durante la comparación de las técnicas. El
enfoque basado en la curvatura de la forma mostró el mejor
resultado (una concordancia de aproximadamente 92%). Es crucial
enfatizar que este resultado se alcanzó cuando se considera sólo un
tipo de rasgo -la curvatura- usado como la base de los descriptores
de Fourier.
La curvatura ha mostrado un resultado
satisfactorio para caracterizar las ascosporas. Adicionalmente,
otro rasgo mostró ser útil en este proyecto: el perímetro. Tal
rasgo permite preseleccionar las muestras. Por lo tanto, parte de
las partículas no ascospóricas encontradas en la imagen se desecha,
reduciendo de este modo el número de muestras a ser sometidas al
proceso de extracción e identificación de los rasgos.
Se debe de mencionar que los resultados
presentados, y el estudio comparativo, son específicos para la
identificación de las ascosporas de Guignardia
citricarpa.
La principal motivación para desarrollar este
sistema fue crear un entorno que permitiese la realización de
ensayos usando imágenes de discos de colección, considerando la
aplicación de todas las etapas desarrolladas (segmentación,
extracción e identificación de rasgos).
A continuación se describen las etapas
implicadas en el desarrollo del sistema CITRUSVIS, así como los
métodos usados en cada una. Se muestran los resultados obtenidos y
el sistema implementado.
Las imágenes usadas se obtuvieron de los discos
de colección usando cámaras digitales conectadas a un microscopio
convencional. Antes de adquirir las imágenes, se aplicó sobre los
discos un color azul láctico usado ampliamente en laboratorios de
microbiología. Este color se usó para teñir indistintamente las
estructuras de hialina (transparentes como vidrio), permitiendo que
se viesen con la ayuda de un microscopio. Se tiñen tanto las
ascosporas de Guignardia citricarpa como las otras esporas e
hifas (partes filamentosas) de otros hongos capturados también en
los discos.
La Figura 2 muestra una de las imágenes
obtenidas de los discos de colección. Esta imagen muestra
diferentes partículas que se recogen en los huertos. Entre estas
partículas, se destaca una ascospora del hongo Guignardia
citricarpa.
Las imágenes usadas están en formato JPEG (un
patrón internacional propuesto por el comité ISO -Joint
Photographers Expert Group), y muestran diferentes tamaños, la
mayoría de ellos de 640 x 512 pasos.
En los ensayos se usaron alrededor de 70
imágenes. Entre ellas, se encontraron algunos de los siguientes
problemas: (i) diferentes colores y sombras de la imagen (fondo
del disco) y de las partículas, siendo algunos de ellos demasiado
claros, impidiendo de este modo la segmentación, (ii) un
emborronamiento como resultado del ajuste inadecuado del enfoque
del microscopio, que, en algunos casos, cambia la forma de las
partículas y requiere el preprocesamiento para usar la imagen, y
(iii) baja calidad debido a la compresión de JPEG.
Inicialmente, la idea fue aplicar una
segmentación que pudiese separar las partículas basándose en el
color, puesto que algunas partículas contenidas en los discos
estaban teñidas de azul, incluyendo las ascosporas. Las imágenes
se convirtieron de RGB a HSI (Rick, 2000), y sólo se usó el
componente H, que se refiere a la sombra, para aplicar el uso de
umbrales.
Los valores obtenidos de la conversión se
normalizan entre 0 y 1, y, considerando el intervalo que se refiere
al color azul se definieron dos umbrales, Ti = 0,4 y
Tf 0,6. De este modo, sólo se segmentaron las partículas que
tienen un color que oscila desde ciano a azul (como resultado de
las variaciones de color debidas al proceso de tinción), desechando
el resto de partículas.
Puesto que las imágenes se compactaron en
formato de JPEG, se desechó una cantidad significativa de
información relacionada con el color y, en consecuencia, se
obtuvieron malos resultados en el proceso de conversión de RGB a
HSI. De este modo, la segregación de las partículas se vio
alterada, creando varios ruidos y deformaciones en algunas
partículas.
Adicionalmente, otro problema fue el color de
fondo del disco en algunas imágenes. En algunos casos, no fue
posible segmentar las partículas de la imagen mediante el uso de
umbrales, puesto que el color de fondo de la imagen dio como
resultado una sombra dentro del intervalo de color definido. Puesto
que la mayoría de las imágenes mostró algunos de estos problemas,
se abandonó este enfoque, puesto que no fue posible obtener nuevas
imágenes con una mejor calidad en el tiempo para realizar
nuevamente los experimentos.
Una alternativa a la segmentación de las
partículas fue aplicar un algoritmo de umbrales directamente sobre
la imagen convertida a escala de grises. Entre los algoritmos de
segmentación, se escogió el algoritmo Otsu (1979), debido al buen
comportamiento observado durante los ensayos realizados con el
mismo usando las imágenes del disco de colección. Sin embargo, se
generaron ruidos después del proceso de uso de umbrales, como
resultado de la variación del nivel de grises de las imágenes,
evitando de ese modo una buena segmentación.
Una forma para reducir los ruidos contenidos en
la imagen es aplicar filtros suavizantes de la imagen, tales como
el filtro gausiano (González y Woods, 2002). Sin embargo, este
filtro cambia las regiones frontera debido al emborronamiento que
causa en los bordes de las partículas, cambiando de ese modo la
forma de algunas de ellas después del uso del umbral, además de la
posibilidad de aumentar el número de partículas conectadas.
Después se decidió aplicar el filtro de difusión
no lineal propuesto por Perona y Malik (1990). Este filtro suaviza
la imagen, conservando las regiones frontera. Reduce la variación
de los niveles de grises por región, y consecuentemente los ruidos
tras el uso de umbrales (Weickert, 1997). La ecuación de difusión
aplicada está definida por Perona y Malik (1990) como
Para aplicar este filtro en la imagen I, se
consideró el parámetro K = 4 (umbral frontera). Este parámetro
indica las regiones consideradas como fronteras, esto es, para
\Arrowvert\DeltaI\Arrowvert > K. En estas regiones,
el proceso de difusión tiene un efecto disminuido. Por otro lado,
\Arrowvert\DeltaI\Arrowvert > K, el coeficiente de
difusión tiene una amplitud elevada, y el efecto suavizante será
más potente (Morel y Solimini, 1995; Voci et al., 2004).
Adicionalmente, el número de iteraciones consideradas para aplicar
el filtro sobre las imágenes de los discos fue N = 30.
Cuando se comparan los resultados obtenidos
aplicando los filtros lineales y no lineales sobre una imagen
adquirida a partir de un disco de colección a las imágenes
respectivas después del uso de los umbrales, se observó que ambos
filtros muestran menos ruidos cuando se comparan con el umbral
cuando se aplica directamente a la imagen original.
Sin embargo, mediante el uso del filtro de
Perona-Malik, se observó que la similitud de las
formas obtenidas cuando se comparan con las partículas originales
es mucho mayor que aquellas obtenidas usando el filtro gausiano. En
la imagen con el filtro gausiano, algunas partículas parecen ser
mayores que lo que en realidad son, o no se ven completamente.
También se observó que aumenta la conexión entre los bordes de
diferentes partículas.
Finalmente, es crítico enfatizar que, aunque el
filtro de Perona-Malik muestra un mejor resultado
para este ensayo, el coste de ordenador de esta técnica es
mayor.
Esto ocurre debido al número de interacciones
requeridas para obtener un resultado satisfactorio del proceso de
difusión. No obstante, esta alternativa se adoptó para este
trabajo, principalmente debido a que el filtro mantiene una forma
similar a la obtenida después de suavizar con la forma original de
las partículas.
Usando el filtro de
Perona-Malik, se minimizan los problemas
relacionados con ruidos y espacios en las formas de las partículas,
pero no se eliminan. Además de algunos ruidos que resultan del
proceso del uso de umbrales, aún pueden aparecer en la imagen
partes de algunos filamentos y otras partículas pequeñas. Por esta
razón, se aplicó un filtro morfológico a fin de eliminar los ruidos
que quedan.
Otro aspecto positivo que se refiere a la
aplicación del filtro morfológico es el hecho de que suaviza los
bordes de las partículas, eliminando de este modo pequeños picos
en los bordes, y cerrando los pequeños espacios. Para aplicar el
filtro, se consideró un elemento estructuralmente circular que mide
5 x 5 pasos.
Una vez que se analizan individualmente los
objetos de la imagen, una de las dificultades principales con este
tipo de imagen se refiere al solapamiento o conexión entre las
partículas. Este tipo de problema se encuentra habitualmente en
imágenes que consisten en varios elementos, igual que las
partículas recogidas en los discos. Para resolver este problema, se
aplicó la técnica de morfología matemática del algoritmo de
segmentación del procesamiento de imágenes (watershed)
(Roerdink y Meijster, 2000).
Este enfoque adoptado para segregar estas
partículas consiste en el algoritmo de inmersión propuesto por
Vincent y Soille (1991). Para aplicar este algoritmo, es necesario
usar la Transformada de Distancia (Saito y Toriwaki, 1994) para
obtener el mapa de distancias, permitiendo interpretar la imagen
binarizada como una liberación requerida para aplicar la
transformada del algoritmo de segmentación del procesamiento de
imágenes (watershed). Con esto, todas las partículas
comienzan a mostrar niveles de profundidad a partir de los cuales
se definen las localizaciones mínimas para cada región.
Estas localizaciones mínimas se usan como
marcadores de región, para evitar problemas tales como la
sobresegmentación de la imagen.
Aunque hay partículas que solapan sobre las
imágenes obtenidas de los discos de colección, se han de considerar
ciertos aspectos. Puesto que esta es una imagen binarizada, cuando
hay un grupo de partículas aglomeradas, la Transformada de la
Distancia no siempre permitirá la definición correcta de los
marcadores de regiones con relación a la disposición real de las
partículas en la imagen.
Para un grupo de partículas solapadas, los
marcadores no se definieron correctamente usando el mapa de
distancias, y, en consecuencia, el resultado obtenido con el
algoritmo de segmentación del procesamiento de imágenes
(watershed) no correspondió a la separación real entre las
partículas. Sin embargo, según los especialistas de análisis de
discos, las ascosporas raramente aparecen aglomeradas con otras
partículas. También se observó en el grupo de imágenes usado en
este proyecto. Se observó solapamiento sólo en algunas imágenes,
pero siempre entre unas pocas partículas. Cuando están conectadas
mediante una pequeña región, estas partículas se separaron por
medio del algoritmo de segmentación del procesamiento de imágenes
(watershed).
Después de la etapa de segmentación, cada
partícula segmentada se analizó para determinar la extracción de
los vectores de rasgos correspondientes. A fin de llevar a cabo
esta etapa, se empleó un enfoque basado en la curvatura de la
forma, que, a su vez, se obtiene del contorno paramétrico. A
continuación se muestran las etapas de extracción del contorno y
adquisición de los descriptores usando la curvatura de formas.
Para extraer el contorno de las partículas, se
aplicó el algoritmo después del contorno (Costa y Cesar, 2000).
Sin embargo, se proporcionó una adaptación de forma que se extrajo
en la misma imagen el contorno de varias partículas, almacenándose
cada una en una lista encadenada. Merece la pena enfatizar que las
partículas conectadas al borde de la imagen son desechadas, ya que
estas partículas habitualmente no están completas, esto es, parte
de la forma se perdió durante la adquisición de la imagen.
Durante la extracción del contorno, se
preseleccionaron muestras a partir del perímetro. De este modo,
sólo se analizan aquellas partículas que tienen el perímetro dentro
del intervalo considerado (120 a 220 pasos).
Finalmente, se extrajo un conjunto
preseleccionado de contornos a partir de cada imagen, de forma que
se extrajeron subsiguientemente los descriptores.
Los descriptores se extraen del conjunto de
contornos obtenido de cada imagen analizada. Para cada uno de estos
contornos, se calcula la curvatura, considerando
k(n,\sigma)=\Im^{-1}{K(f).G(f,\sigma)},
siendo la desviación estándar del filtro gausiano \sigma =
0,22.
Los descriptores se obtienen aplicando la
Transformada de Fourier sobre la señal de curvatura, normalizándose
el espectro. Después, se seleccionan 60 descriptores considerando
sólo la densidad espectral de la señal en el dominio de frecuencias
(espectro de potencia). De este modo, cada partícula obtenida de la
imagen se representa mediante un vector de rasgo, y se aplican
sobre los vectores los métodos de reconocimiento estándares.
En esta etapa, el fin fue usar técnicas de
reconocimiento estándares para validar la capacidad discriminatoria
obtenida usando la descripción de formas por medio de la curvatura
que, en este trabajo, pretendía identificar las ascosporas del
hongo Guignardia citricarpa. Cuando se comparan las
técnicas, el buen resultado obtenido usando la clasificación de
distancia mínima condujo a escoger la curvatura como la técnica a
aplicar en la descripción de las partículas. Sin embargo, en un
intento por mejorar el resultado obtenido con este enfoque, se
decidió usar las redes neuronales artificiales.
A fin de realizar ensayos con redes neuronales,
se usó la caja de herramientas de las redes neuronales
de
MATLAB® (Demuth y Beale, 2003). Además de obtener una interfaz gráfica disponible para la construcción, entrenamiento y simulación de redes, esta caja de herramientas también permite la integración de redes con las otras etapas implicadas en el sistema de visión, tales como la extracción de rasgos, facilitando de este modo el desarrollo del prototipo del sistema CITRUSVIS.
MATLAB® (Demuth y Beale, 2003). Además de obtener una interfaz gráfica disponible para la construcción, entrenamiento y simulación de redes, esta caja de herramientas también permite la integración de redes con las otras etapas implicadas en el sistema de visión, tales como la extracción de rasgos, facilitando de este modo el desarrollo del prototipo del sistema CITRUSVIS.
La red seleccionada fue una red de
retropropagación alimentada hacia delante con 60 entradas,
dos capas intermedias con 20 y 15 neuronas cada una, y una capa de
salida con 2 neuronas (Figura 3).
Una de las neuronas de la capa de salida
representa la clase Ascosporas, y la otra representa la
clase de Otras partículas. La neurona que tiene el mayor
valor de salida indica la decisión de la red en la clase a la que
pertenece el estándar analizado.
Para el entrenamiento de redes neuronales, se
consideró el número más elevado de muestras. Estas muestras se
dividieron en 3 grupos: entrenamiento, validación y ensayo. Se usó
un total de 300 muestras, cada una con 60 descriptores. Las
muestras se dividieron en 160 muestras para entrenamiento, 70
muestras para validación y 70 para ensayo. Merece la pena destacar
que las muestras no se repiten entre los grupos, esto es, una
muestra que pertenece al grupo de entrenamiento no se consideró
para los otros grupos.
El algoritmo de entrenamiento usado fue la
retropropagación de Levenberg-Marquardt
(trainlm) (Demuth y Beale, 2003; Hagan y Menhaj, 1994), y la
función de activación fue la función sigmoidal (logsig), cuyo
intervalo de salida oscila desde 0 hasta 1. El rendimiento obtenido
durante el entrenamiento usando la topología
(20-15-2) fue alrededor de 6,9
e-8, considerando como medida el error cuadrático
medio (MSE). Se ensayaron otras topologías y otros algoritmos de
entrenamiento que estuvieron disponibles gracias a la caja de
herramientas. Sin embargo, muestran unas menores prestaciones.
El resultado obtenido usando la red fue muy
bueno (98% de concordancia), una mejora significativa cuando se
compara con el resultado obtenido basándose en la distancia mínima
entre los vectores de rasgos (alrededor de 92% - véase Tabla 1).
Merece la pena destacar que este resultado se obtuvo con el
conjunto preseleccionado de muestras para el ensayo.
Como se ha mencionado anteriormente, el
prototipo de sistema de visión para identificar las ascosporas del
hongo Guignardia citricarpa se desarrolló a fin de
proporcionar un entorno para realizar los ensayos usando las
imágenes obtenidas a partir de los discos de colección.
Adicionalmente, este entorno facilita la visualización del
resultado obtenido, marcando en la imagen del disco las ascosporas
identificadas.
Este prototipo se desarrolló usando la interfaz
gráfica MATLAB®. Esta interfaz se escogió puesto que integra
fácilmente todas las etapas desarrolladas (desde la segmentación de
imágenes hasta la identificación de partículas, usando las redes
neuronales). Además, el entorno permite varias funcionalidades
básicas. La Figura 4 muestra la interfaz del prototipo
desarrollado.
Puesto que la idea principal de este sistema fue
construir un entorno para ensayar y validar el enfoque adoptado,
se permitieron algunas opciones para permitir la selección de
algunas técnicas a aplicar durante el proceso de análisis. Haciendo
esto, es posible comparar mejor los resultados obtenidos usando la
combinación de diferentes enfoques de segmentación (filtros
lineales o no lineales y la aplicación del algoritmo de
segmentación del procesamiento de imágenes (watershed)) y la
identificación (basada en la distancia mínima o en redes neuronales
artificiales).
Además de mostrarlos como un texto (número de
muestras, números de ascosporas y tiempo), los resultados se
muestran en la propia imagen, marcándose las partículas
identificadas como ascosporas mediante un contorno rojo. También es
posible visualizar los otros contornos preseleccionados (en azul),
y también las etiquetas de las partículas (índice de lista de
contornos), como se muestra en la Figura 4.
A fin de validar la solución adoptada, se
analizaron las imágenes de los discos de colección. De este modo,
se aplicaron todas las etapas desarrolladas, desde la segmentación
hasta la identificación de las partículas que existen en la imagen
de los discos. Para llevar a cabo este experimento, se separaron 3
grupos de imágenes, esto es, Disco 1 (20 imágenes), Disco 2 (15
imágenes) y Disco 3 (20 imágenes).
Se llevaron a cabo tres experimentos, uno para
cada grupo de imágenes. Cuando se evaluaron los resultados, se
tuvieron en cuenta los siguientes apartados: tiempo de procesamiento
en segundos; número de partículas segmentadas; número de
partículas preseleccionadas mediante el perímetro; número de
errores durante la preselección (partículas de ascosporas no
preseleccionadas); número de ascosporas que existen en la imagen
(identificadas manualmente); número de ascosporas identificadas
correctamente por el sistema; número de falsos positivos y falsos
negativos; y el error total, es decir, la suma de los errores
aparecidos en la preselección e identificación por la red
neuronal.
Los resultados obtenidos usando el análisis de
cada grupo de imágenes se muestran en las Tablas 2, 3 y 4. Estas
tablas incluyen dos tipos de errores: el error que se refiere a la
preselección de las partículas, que se produce cuando no se
preselecciona la partícula de una ascospora; y el error que se
refiere a la red neuronal, que se produce cuando una partícula
preseleccionada no es clasificada correctamente por la red. En este
último caso, los errores se separan todavía como falsos positivos y
falsos negativos, puesto que en este trabajo la aparición de falsos
negativos es más significativo que los falsos positivos. Cada tabla
muestra también un resumen del resultado general obtenido con el
grupo correspondiente de imágenes.
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
Basándose en los datos obtenidos cuando se
analizan los 3 grupos de imágenes, los experimentos se sometieron a
una evaluación general. Esta evaluación se muestra en la Tabla
5.
El resultado general obtenido con estos
experimentos fue de un 96,6% de emparejamiento en la identificación
de partículas que existe en el disco, considerando solamente las
partículas preseleccionadas. Este resultado se consideró más que
satisfactorio, indicando el buen comportamiento del enfoque
adoptado para CITRUSVIS. Adicionalmente, el tiempo medio de
procesamiento para cada imagen estaba ligeramente por encima de 1
minuto (66 segundos). Este tiempo se consideró como satisfactorio,
puesto que se obtuvo mediante un prototipo del sistema y se realizó
en un microordenador Pentium 4, 256 MB de RAM. Adicionalmente, el
prototipo consiste en escrituras MATLAB® que se
interpretan.
Entre los ejemplos mostrados, hay errores tanto
falsos positivos como falsos negativos. La mayoría del tiempo, el
error del falso negativo se produjo debido a problemas de
segmentación de las partículas. Los casos de falsos positivos se
produjeron puesto que la forma de las partículas es similar a la de
una ascospora, o mostró una señal de curvatura similar a la
curvatura mostrada por una ascospora.
El resultado obtenido usando las técnicas
seleccionadas se consideró como muy satisfactorio. Merece la pena
subrayar que una parte significativa de este resultado es debida a
la descripción de las partículas por medio de la curvatura de
formas a partir de la cual se extrajeron los descriptores de
Fourier. Adicionalmente, el comportamiento obtenido con la red
también satisfizo las expectativas, debido al número de partículas
analizadas.
La implementación del sistema CITRUSVIS fue muy
positiva, puesto que permitió analizar el comportamiento de
técnicas en cada etapa llevada a cabo, así como los resultados
obtenidos con cada una. También permitió observar la contribución
de cada técnica al resultado final. Otro aspecto importante con
relación al sistema fue la fácil manipulación del grupo de imágenes
y los resultados obtenidos. El tiempo de procesamiento para cada
imagen fue satisfactorio, teniendo en cuenta las técnicas empleadas
en el análisis.
Los resultados dados a conocer previamente sólo
consideraron las partículas preseleccionadas dentro del intervalo
de perímetro definido. Sin embargo, la preselección cuando se
extrae el contorno de las partículas también se considera como un
proceso de clasificación en el que se desestiman las partículas que
no tienen el perímetro dentro del intervalo considerado para las
ascosporas, es decir, clasificadas inmediatamente como no
ascosporas. De este modo, cuando se consideran indistintamente
todas las partículas revisadas, el porcentaje de error general
obtenido fue sólo 0,4%, es decir, 99,6% de emparejamiento cuando se
clasifican las partículas (Tabla 6).
La presente invención tuvo las siguientes
contribuciones:
\bullet introducción de una disolución para
detectar la enfermedad de la mancha negra (Guignardia
citricarpa usando técnicas de visión por ordenador;
\bullet desarrollo de un método para
identificar las ascosporas del hongo Guignardia citricarpa;
este método ayudará a controlar/combatir la enfermedad de la mancha
negra en huertos;
\bullet comparación entre las diferentes
técnicas de visión por ordenador para analizar las formas,
identificando las ventajas y desventajas de cada una, ayudando así
u ofreciendo alternativas a otras situaciones que muestran
problemas similares;
\bullet resultado satisfactorio obtenido con
la combinación de diferentes técnicas para mejorar el proceso de
segmentación que estaba basado en el uso de umbrales con la
aplicación de filtros no lineales, en este caso el filtro
Perona-Malik;
\bullet desarrollo del prototipo CITRUSVIS
basado en las técnicas estudiadas, permitiendo de este modo
experimentos que implican a todas las etapas del sistema y la
identificación de las ascosporas con resultados muy satisfactorios
(99,6%).
Las siguientes figuras son parte de esta
aplicación:
1 - ascospora de Guignardia
citricarpa
2 - imagen digital adquirida del disco de
colección, agrandada mediante un microscopio
3 - topología de la red usada en el
CITRUSVIS
4 - interfaz del prototipo CITRUSVIS
Una búsqueda en las bases de datos de patentes
no devolvió ningún método para la identificación de Guignardia
citricarpa basado en el sistema de visión por ordenador,
evidenciando de este modo que dicho sistema es nuevo.
Claims (3)
1. Método para identificar Guignardia
citricarpa, caracterizado porque se usa una imagen
escaneada de la ascospora, ya sea obtenida desde el disco de
captura o no, en el proceso de identificación automática de
Guignardia citricarpa por medio de las signaturas extraídas
a partir del contorno de imágenes del hongo.
2. Método para identificar Guignardia
citricarpa, caracterizado porque se realiza por medio de
un sistema de visión por ordenador siguiendo las etapas a
continuación:
a) adquisición de imágenes: la primera etapa de
este proceso consiste en la adquisición de imágenes a partir del
disco de colección usando una cámara digital conectada a un
microscopio, que permite agrandar las imágenes y, como resultado,
visualizar las partículas recogidas en el campo, incluyendo las
ascosporas;
b) preprocesar: esta etapa consiste en aplicar
técnicas a fin de mejorar (o corregir) las imágenes escaneadas; en
esta fase se aplican filtros principalmente para reducir los ruidos
de las imágenes, así como otras anomalías durante la adquisición de
imágenes y que se pueden corregir mediante el procesamiento de la
imagen;
c) segmentación: en esta etapa se aplican
técnicas de segmentación de imágenes a fin de segregar cada
partícula en la imagen; esto es necesario puesto que cada partícula
se debería de analizar a fin de que se identifique como ascosporas
o no; estas partículas se binarizan, y el análisis se lleva a cabo
basándose en la forma;
d) análisis y extracción de rasgos importantes:
en esta etapa se extraen individualmente los rasgos de las
partículas segmentadas, usando técnicas de análisis de imagen; se
extrae el contorno de las partículas, así como el conjunto de
signaturas relacionadas con este contorno; a partir de estas
signaturas, se calculan los descriptores y se selecciona un conjunto
de estos descriptores para representar cada partícula que se
analiza; las principales signaturas extraídas de las formas de las
partículas incluyen: contorno paramétrico, signatura de la
distancia entre el contorno de la forma y el centroide, proyección
y curvatura; para obtener los descriptores, las técnicas
principales fueron los descriptores de Fourier y las ondas
pequeñas (wavelets);
e) identificación: en esta etapa, después del
resultado de la etapa previa, las partículas se identifican usando
técnicas de inteligencia artificial y redes neuronales
artificiales; esta etapa se usa para reconocer las ascosporas en la
imagen, dando como resultado su identificación y recuento.
3. Método para identificar Guignardia
citricarpa, según las reivindicaciones anteriores,
caracterizado porque las signaturas usadas como base para el
proceso de caracterización de las partículas de ascosporas pueden
incluir:
a) contorno paramétrico: consiste en señales de
X e Y que se refieren a las coordenadas (x, y) extraídas del
contorno de la forma; el contorno de cada partícula se obtiene
usando un algoritmo extractor del contorno, cuyo resultado consiste
en una lista con todas las coordenadas (x, y) que se refieren a la
frontera de la forma (borde);
b) distancia del contorno al centroide de la
forma: consiste en obtener una señal unidimensional que comprende
la distancia entre cada coordenada que pertenece al contorno de la
forma y la coordenada que se refiere al centroide de la partícula
(centro de masas); para obtener la distancia entre estas
coordenadas, se puede aplicar cualquier algoritmo que calcule la
distancia entre dos puntos;
c) proyección: la signatura obtenida por la
proyección consiste en viajar a lo largo de la forma de la
partícula en una dirección constante (por ejemplo, hacia abajo),
sumándose todos los puntos que pertenecen a ella en cada iteración
(es decir, cada línea escaneada); finalmente, se obtiene una señal
unidimensional y se puede obtener en todas las direcciones la
proyección de la forma;
d) curvatura: esta signatura se calcula a partir
del contorno de la forma, y se refiere a la variación de la
inclinación del contorno; generalmente, describe las regiones
cóncavas y convexas en una forma; las partículas se caracterizan a
partir de esta descripción;
todas estas signaturas (señales
unidimensionales) muestran una variación con relación al tamaño
(número de elementos que lo componen); se produce puesto que el
tamaño de la signatura depende del tamaño (perímetro, área) de la
partícula analizada; sin embargo, a fin de usarlas para caracterizar
las partículas y someterlas subsiguientemente a un proceso de
reconocimiento, estas signaturas se deben de normalizar; por esta
razón, se aplican a estas signaturas métodos de extracción de
descriptores; estos métodos permiten obtener un conjunto finito que
tiene el mismo tamaño para todas las formas, permitiendo la
caracterización; las técnicas aplicadas a estas signaturas fueron
los descriptores de Fourier y los descriptores wavelets
(ondas pequeñas).
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
BR0501535 | 2005-04-26 | ||
BRPI0501535A BRPI0501535B8 (pt) | 2005-04-26 | 2005-04-26 | método de identificação do guignardia citricarpa |
Publications (2)
Publication Number | Publication Date |
---|---|
ES2328440A1 ES2328440A1 (es) | 2009-11-12 |
ES2328440B1 true ES2328440B1 (es) | 2010-08-30 |
Family
ID=37214392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES200750068A Active ES2328440B1 (es) | 2005-04-26 | 2006-04-10 | Metodo para identificar guignardia citricarpa. |
Country Status (5)
Country | Link |
---|---|
US (1) | US8068132B2 (es) |
BR (1) | BRPI0501535B8 (es) |
ES (1) | ES2328440B1 (es) |
WO (1) | WO2006113979A1 (es) |
ZA (1) | ZA200710087B (es) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DK2156370T3 (da) | 2007-05-14 | 2012-01-23 | Historx Inc | Kompartmentadskillelse ved pixelkarakterisering under anvendelse af billeddata-clustering |
EP2162728B1 (en) | 2007-06-15 | 2016-07-27 | Novartis AG | Microscope system and method for obtaining standardized sample data |
CA2604317C (en) * | 2007-08-06 | 2017-02-28 | Historx, Inc. | Methods and system for validating sample images for quantitative immunoassays |
CA2596204C (en) | 2007-08-07 | 2019-02-26 | Historx, Inc. | Method and system for determining an optimal dilution of a reagent |
WO2009029810A1 (en) * | 2007-08-31 | 2009-03-05 | Historx, Inc. | Automatic exposure time selection for imaging tissue |
ES2573945T3 (es) | 2008-09-16 | 2016-06-13 | Novartis Ag | Cuantificación reproducible de expresión de biomarcadores |
EP2936116B8 (en) * | 2012-12-19 | 2020-04-01 | Koninklijke Philips N.V. | System and method for classification of particles in a fluid sample |
US9773154B2 (en) * | 2015-10-09 | 2017-09-26 | Universidad Nacional Autónoma de México | System for the identification and quantification of helminth eggs in environmental samples |
CN107862697B (zh) * | 2017-10-27 | 2021-03-23 | 陕西科技大学 | 一种用于茯茶质量检测的金花菌计数方法 |
US11397868B2 (en) | 2020-03-26 | 2022-07-26 | The University Of Hong Kong | Fungal identification by pattern recognition |
CN114724027A (zh) * | 2022-03-25 | 2022-07-08 | 清华大学 | 基于机器视觉的固态酿造颗粒状原料掺杂鉴别方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10240950A (ja) * | 1997-02-28 | 1998-09-11 | Asahi Breweries Ltd | 微生物菌体の形状分別方法 |
US5974901A (en) * | 1998-02-06 | 1999-11-02 | The Cleveland Clinic Foundation | Method for determining particle characteristics |
FR2776798A1 (fr) * | 1998-03-24 | 1999-10-01 | Philips Electronics Nv | Procede de traitement d'images incluant des etapes de segmentation d'une image multidimensionnelle et appareil d'imagerie medicale utilisant ce procede |
US6956961B2 (en) * | 2001-02-20 | 2005-10-18 | Cytokinetics, Inc. | Extracting shape information contained in cell images |
JP4749637B2 (ja) * | 2001-09-28 | 2011-08-17 | オリンパス株式会社 | 画像解析方法、装置、及び記録媒体 |
US6873725B2 (en) * | 2002-09-09 | 2005-03-29 | Coulter International Corp. | Simultaneous measurement and display of 3-D size distributions of particulate materials in suspensions |
US20040114800A1 (en) * | 2002-09-12 | 2004-06-17 | Baylor College Of Medicine | System and method for image segmentation |
-
2005
- 2005-04-26 BR BRPI0501535A patent/BRPI0501535B8/pt active IP Right Grant
-
2006
- 2006-04-10 WO PCT/BR2006/000068 patent/WO2006113979A1/en active IP Right Grant
- 2006-04-10 ES ES200750068A patent/ES2328440B1/es active Active
- 2006-04-10 US US11/912,574 patent/US8068132B2/en not_active Expired - Fee Related
-
2007
- 2007-11-23 ZA ZA200710087A patent/ZA200710087B/xx unknown
Also Published As
Publication number | Publication date |
---|---|
BRPI0501535B1 (pt) | 2019-08-13 |
ZA200710087B (en) | 2008-12-31 |
BRPI0501535B8 (pt) | 2021-07-27 |
BRPI0501535A (pt) | 2006-12-12 |
US20090167850A1 (en) | 2009-07-02 |
US8068132B2 (en) | 2011-11-29 |
ES2328440A1 (es) | 2009-11-12 |
WO2006113979A1 (en) | 2006-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2328440B1 (es) | Metodo para identificar guignardia citricarpa. | |
Chang et al. | Gold-standard and improved framework for sperm head segmentation | |
Han et al. | A novel computer vision-based approach to automatic detection and severity assessment of crop diseases | |
CN111524080A (zh) | 脸部皮肤特征的识别方法、终端及计算机设备 | |
CN109154978A (zh) | 用于检测植物疾病的系统和方法 | |
CN103034838A (zh) | 一种基于图像特征的特种车辆仪表类型识别与标定方法 | |
Laga et al. | Image-based plant stornata phenotyping | |
US9852354B2 (en) | Method and apparatus for image scoring and analysis | |
CN110310291A (zh) | 一种稻瘟病分级系统及其方法 | |
US11488401B2 (en) | Prostate cancer tissue image classification with deep learning | |
Salvi et al. | Impact of stain normalization and patch selection on the performance of convolutional neural networks in histological breast and prostate cancer classification | |
Khan et al. | Comparitive study of tree counting algorithms in dense and sparse vegetative regions | |
Hitimana et al. | Automatic estimation of live coffee leaf infection based on image processing techniques | |
CN104933723A (zh) | 基于稀疏表示的舌图像分割方法 | |
Rehman et al. | Human identification using dental biometric analysis | |
KR20080076170A (ko) | 지문 영상 생성을 위한 영상 필터 조합 생성 방법 | |
CN110021019A (zh) | 一种aga临床图像的ai辅助毛发的粗细分布分析方法 | |
Sadeghi et al. | Graph-based pigment network detection in skin images | |
Kumuda et al. | Human fingernail segmentation | |
Ahmed et al. | Retina based biometric authentication using phase congruency | |
Kumar et al. | A novel image processing technique for counting the number of trees in a satellite image | |
KR101032581B1 (ko) | 유해영상 자동 판별 방법 | |
Amitha et al. | Developement of computer aided system for detection and classification of mitosis using SVM | |
Shetty et al. | Melanoma decision support system for dermatologist | |
Nandanwar et al. | Analysis of pixel intensity variation by performing morphological operations for image segmentation on cervical cancer pap smear image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
EC2A | Search report published |
Date of ref document: 20091112 Kind code of ref document: A1 |
|
FG2A | Definitive protection |
Ref document number: 2328440B1 Country of ref document: ES |