ES2481347A1 - Procedimiento de interpretación automática de imágenes para la cuantificación de marcadores tumorales nucleares. - Google Patents

Procedimiento de interpretación automática de imágenes para la cuantificación de marcadores tumorales nucleares. Download PDF

Info

Publication number
ES2481347A1
ES2481347A1 ES201232033A ES201232033A ES2481347A1 ES 2481347 A1 ES2481347 A1 ES 2481347A1 ES 201232033 A ES201232033 A ES 201232033A ES 201232033 A ES201232033 A ES 201232033A ES 2481347 A1 ES2481347 A1 ES 2481347A1
Authority
ES
Spain
Prior art keywords
image
staining
images
segmentation
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
ES201232033A
Other languages
English (en)
Other versions
ES2481347B1 (es
Inventor
Jose Antonio PIEDRA FERNANDEZ
Manuel CANTÓN GARBÍN
Francisco Jose GOMEZ NAVARRO
Emilia MEDINA ESTEVEZ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universidad de Almeria
Original Assignee
Universidad de Almeria
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidad de Almeria filed Critical Universidad de Almeria
Priority to ES201232033A priority Critical patent/ES2481347B1/es
Priority to PCT/ES2013/070920 priority patent/WO2014102428A1/es
Publication of ES2481347A1 publication Critical patent/ES2481347A1/es
Application granted granted Critical
Publication of ES2481347B1 publication Critical patent/ES2481347B1/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/0041Detection of breast cancer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Oncology (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Procedimiento de interpretación automática de imágenes para la cuantificación de marcadores tumorales nucleares donde, partiendo de imágenes tintadas previamente por procedimientos conocidos, se aplican los siguientes pasos: cambio de espacio de color RGB a otro espacio en el que uno de sus canales represente la intensidad luminosa del píxel, extracción del canal correspondiente al valor de intensidad, filtrado de la imagen, ecualización del histograma para aumento del contraste, segmentación basada en regiones y en detección de contornos, suma de las imágenes obtenidas de la segmentación basada en regiones y de la segmentación basada en contornos para obtener una máscara que se aplica a la imagen original para obtener el área de interés compuesta sólo de los núcleos y por último, clasificación de los píxeles. La invención propuesta mejora el flujo de trabajo, la ergonomía, confort y productividad de los expertos en diagnóstico.

Description

P201232033
26-12-2012
DESCRIPCIÓN
Procedimiento de interpretación automática de imágenes para la cuantificación de marcadores tumorales nucleares. 5
SECTOR DE LA TÉCNICA
La presente invención se engloba dentro de las técnicas de tratamiento de imágenes y su aplicación al sector médico, en particular a los procedimientos de tratamiento de imágenes
10 de muestras de tejido tumoral tintadas con técnicas de tinción inmunohistoquímicas (IHC) para su posterior análisis por un experto.
ESTADO DE LA TÉCNICA
15 Los servicios de Anatomía Patológica de los hospitales cuentan con médicos especialistas que evalúan por observación directa al microscopio óptico convencional el nivel de expresión de los marcadores tumorales nucleares en muestras de tejido con tinción inmunohistoquímica. Esta evaluación consiste en la determinación del porcentaje de núcleos tintados de una determinada región de la muestra, así como de la intensidad de su tinción.
20 Esta valoración da información al oncólogo y otros especialistas médicos sobre el posible pronóstico y tratamiento al paciente. Se trata por tanto de pruebas de cuantificación semicuantitativa, fuertemente subjetivas.
Es deseable por lo tanto, disponer de un procedimiento automatizado de tratamiento de las
25 imágenes que suponga una herramienta de ayuda al diagnóstico, mejorando el flujo de trabajo, la ergonomía, confort y productividad.
OBJETO DE LA INVENCIÓN
30 Con objeto de proporcionar dicho tratamiento automatizado, la presente invención propone un procedimiento donde, partiendo de imágenes adquiridas previamente y sometidas a procesos de tinción conocidos, se realizan los siguientes pasos:
a) cambio de espacio de color RGB a otro espacio en el que uno de sus canales 35 represente la intensidad luminosa del pixel, como HSL, HSI, HSV o HSB;
P201232033
26-12-2012
b) extracción del canal correspondiente al valor de intensidad , L, I, V o B ; c) filtrado de la imagen para eliminar el ruido, preservando los bordes; d) ecualización del histograma para aumento del contraste; e) segmentación basada en regiones;
5 f) segmentación basada en detección de contornos; g) suma de las imágenes obtenidas de la segmentación basada en regiones y de la segmentación basada en contornos para obtener una máscara que se aplica a la imagen original para obtener el área de interés compuesta sólo de los núcleos; 10 h) clasificación de los píxeles del área de interés compuesta por los núcleos según su nivel de tinción en tinción negativa, débil, intermedia o fuerte según un sistema predeterminado. Las siguientes puestas en práctica son las más ventajosas, aunque la invención no se limita a ellas:
15 En el paso a, el cambio de RGB a HSL. En el paso b, la extracción del canal L del HSL. En el paso c, la utilización de un filtro bilateral.
Para la segmentación basada en regiones (paso e), se realizan los siguientes pasos, que 20 pueden ser utilizados independientemente o en combinación los unos con los otros:
Umbralización automática mediante el algoritmo de Otsu.
Delimitación de regiones mediante el algoritmo watershed.
Aplicación de operaciones morfológicas de erosión, dilatación y sus combinaciones para perfilado de contornos.
25 • Para la segmentación basada en la detección de contornos, uno de los algoritmos aplicables es el algoritmo de Canny. Este paso puede estar seguido por la aplicación de operaciones morfológicas de erosión, dilatación y sus combinaciones para perfilado de bordes.
P201232033
26-12-2012
Para la clasificación de los píxeles según su nivel de tinción es ventajoso utilizar un sistema de lógica difusa. Como entradas del sistema se toman los niveles de intensidad de cada canal del espacio de color utilizado (RGB), aunque se pueden utilizar otros espacios de color que también podrían mejorar el resultado de clasificación.
La invención encuentra una aplicación práctica en el estudio rápido y fiable de resultados, por ejemplo presentando la imagen original con los píxeles coloreados según el criterio de la figura 12 junto a la imagen original y los porcentajes de píxeles clasificados según su nivel de tinción.
BREVE DESCRIPCIÓN DE LAS FIGURAS
Con objeto de ayudar a una mejor comprensión de las características de la invención de acuerdo con un ejemplo preferente de realización práctica de la misma, se acompaña la siguiente descripción de un juego de dibujos en donde con carácter ilustrativo se ha representado lo siguiente: Figura 1: es una imagen de la zona de interés de una muestra con tinción inmunohistoquímica para la determinación de receptores de estrógenos (ER)
Figura 2: es una imagen resultante del cambio del espacio de color RGB a HLS
Figura 3: es una imagen del canal L extraído del espacio de color HLS.
Figura 4: es la resultante de aplicar al canal L un filtro bilateral.
Figura 5: muestra la resultante de ecualizar el histograma de la imagen del canal L filtrado.
Figura 6: es la imagen resultante de la umbralización automática.
Figura 7: representa la imagen resultante de la aplicación del algoritmo watershed.
Figura 8: es la imagen resultante de aplicar operaciones morfológicas tras el paso anterior.
Figura 9: es la resultante de aplicar el algoritmo de Canny a la imagen del canal L.
Figura 10: máscara definitiva obtenida de la suma de la segmentación basada en regiones y en contornos.
Figura 11: es una imagen que presenta el área de interés correspondiente a los núcleos
Figura 12: muestra el criterio de clasificación de los núcleos y el color asociado para la sobreimpresión final.
P201232033
26-12-2012
Figura 13: muestra el resultado final con los píxeles coloreados con el color correspondiente al nivel de tinción asignado.
Figura 14: es un diagrama de bloques con los pasos de la invención.
5 DESCRIPCIÓN DETALLADA DE LA INVENCIÓN
Para llevar a cabo el procedimiento de la invención en primer lugar se adquiere una imagen mediante un microscopio equipado con cámara o con un scanner de muestras. La ampliación está, preferente pero no necesariamente, en los 40 aumentos. El médico
10 patólogo selecciona el área de interés de la imagen a analizar, tal como lo haría en el caso de la evaluación convencional.
A continuación comienza el preprocesamiento con el cambio del espacio de color de la imagen seleccionada de RGB a otro en el que uno de sus canales represente la intensidad
15 luminosa del pixel, como HSL, HSI, HSV, HSB u otros. En la puesta en práctica se utiliza el espacio de color HSL mostrado en la figura 2.
A continuación, se extrae el canal correspondiente al valor de intensidad (L, I, V o B), en este ejemplo preferencial el L. Al tratarse de imágenes obtenidas al microscopio de campo
20 claro o mediante scanner, el canal L del espacio de color HSL (Hue, Saturation, Lightness) se utiliza de base para el umbralizado.
En la figura 3 se observa la imagen en escala de grises obtenida del canal L (Lightness). Seguidamente se realiza un filtrado de la imagen. En este caso se ha utilizado el filtro
25 bilateral. El filtrado es una de las operaciones fundamentales del procesamiento de imagen. El filtro bilateral permite la eliminación del ruido en las zonas planas de la imagen donde la señal varía poco, preservando los bordes de las zonas con gran variación de la misma (figura 4).
30 El siguiente paso es la ecualización del histograma. La ecualización se consigue aplicando al histograma original de la imagen en escala de grises del paso anterior una tabla LUT (Look-Up Table) o tabla de asignación, que lo redistribuye hasta ocupar todo el rango de niveles de gris que permite la profundidad de la imagen y aumentar el contraste. La imagen resultante se puede ver en la figura 5.
35
5
10
15
20
25
30
35
P201232033
26-12-2012
Tras el pre-procesamiento se realiza una segmentación basada en regiones. El primer paso de esta segmentación es la umbralización, seguido de la delimitación de regiones y el perfilado de contornos. El objetivo de la umbralización es obtener a partir de la imagen anterior en escala de grises una imagen monocroma en la que se puedan distinguir los núcleos del resto de elementos. El paso de la umbralización es autónomo y no requiere de ningún parámetro a introducir por el operador. Para conseguirlo se aplica el algoritmo de Otsu. Este método utiliza un valor umbral del nivel de gris de la imagen para asignar a los diferentes píxeles el valor 0 o 1, en función de que su nivel de gris se encuentre por encima de este valor umbral o no. Para calcular este valor umbral hace un análisis estadístico del histograma de niveles de gris de la imagen, más exactamente utiliza el valor de la varianza como medida de esta dispersión y calcula el valor umbral que permite la menor dispersión dentro de cada segmento (píxeles a los que se va a asignar 0 o 1) y la mayor dispersión entre los dos segmentos. El resultado de la umbralización se ve en la figura 6.
El siguiente paso consiste en la delimitación de regiones mediante el algoritmo Watershed. El principio de funcionamiento del algoritmo Watershed se basa en la similitud entre la intensidad en un determinado punto de la imagen y su altura en un mapa topográfico. De esta manera, los puntos con una mayor intensidad corresponderían a las zonas más altas, dibujando las líneas divisorias de las crestas y los de menor intensidad corresponderían a los valles. Aplicando operaciones morfológicas partiendo desde los valles, se simula una “inundación” de la imagen que da como resultado la segmentación de la misma en las zonas de confluencia de las cuencas. El resultado se puede ver en la figura 7. El siguiente paso en la segmentación es el de realizar operaciones morfológicas para mejorar el resultado y asegurar que el área seleccionada sólo pertenece a los núcleos, no al estroma. Se aplican una serie de operaciones de erosión, dilatación y sus combinaciones, cuyo resultado se puede ver en la figura 8. La erosión y la dilatación son las dos operaciones morfológicas básicas y son utilizadas habitualmente para la eliminación de ruido, aislamiento de elementos individuales ó agrupamiento de elementos dispersos en una imagen. Otras operaciones morfológicas son combinaciones de éstas. La operación de erosión es el resultado de la convolución de una imagen original con una máscara que tiene definido un punto de anclaje o referencia. La máscara suele ser un simple cuadrado, una cruz o un círculo con el punto de anclaje en su centro. En la operación de erosión se superpone la máscara en cada punto de la imagen y se obtiene para cada píxel el mínimo local; es por esto que se llama erosión, porque el efecto es que hay una erosión de los bordes de la imagen. La operación de dilatación es la operación inversa a la erosión, ya que lo que se computa es el máximo local, dando como resultado la dilatación o ampliación de los bordes.
5
10
15
20
25
30
35
P201232033
26-12-2012
La operación de apertura es una combinación de las anteriores y se obtiene aplicando primero una erosión y luego una apertura.
Seguidamente se aplica una segmentación basada en contornos. Partiendo de nuevo de la imagen obtenida de la extracción del canal L (figura 3) (o el canal correspondiente a la intensidad de luz de otro espacio de color) se aplica un algoritmo de detección de bordes para conseguir una mejor delimitación de los núcleos y posteriormente unas operaciones morfológicas para el perfilado de los mismos. Para la detección de bordes se utiliza la implementación del algoritmo de paso por cero del Laplaciano (algoritmo de Canny). La operación se lleva a cabo sobre la imagen obtenida de la extracción del canal L y nos devuelve una imagen binaria con los bordes de los núcleos a la que aplicamos una operación de dilatación para engrosar los bordes y obtenemos el resultado de la figura 9.
La suma de las imágenes obtenidas de los procesos de segmentación basada en regiones (figura 8) y segmentación basada en detección de contornos (figura 9) invertida nos da la máscara definitiva de las regiones de interés obtenida del proceso de segmentación; el resultado se observa en la figura 10.
Una vez se ha logrado la máscara definitiva, se aplica a la imagen original y se obtiene el área de interés compuesta por los núcleos y que es la que se utiliza para los posteriores tratamientos. Este resultado se puede ver en la figura 11.
Del análisis de las imágenes de las muestras con tinción inmuno-histoquímica y de los histogramas del área de los núcleos en los distintos planos del espacio de color RGB (se pueden utilizar otros espacios de color que también mejoran el resultado de la clasificación), se han podido determinar una serie de reglas que nos permiten clasificar adecuadamente los píxeles en tintados y no tintados. Dentro de los píxeles tintados se pueden distinguir a su vez tres niveles de tinción (débil, intermedia y fuerte).
Para tener un conjunto manejable de reglas, estas se definen en base al nivel de cada uno de los canales de la imagen (Rojo, Verde, Azul). Para cada canal se distinguen tres niveles posibles: bajo, medio y alto.
Con las premisas anteriores, se aplica un sistema de lógica difusa para la determinación del nivel de tinción en cada píxel de la imagen, en función de los niveles obtenidos de cada canal; las reglas son del tipo: Si (rojo es alto y verde es bajo y azul es bajo) entonces (tinción
P201232033
26-12-2012
es fuerte). Se define un sistema de inferencia difusa con tres entradas y una salida. Las tres entradas corresponden a la intensidad de cada uno de los planos de color de la imagen RGB en ese píxel y la salida define el nivel de tinción.
Cada entrada tiene tres funciones miembro, llamadas bajo, medio y alto, que se supone siguen una distribución normal (otras distribuciones son posibles). Los parámetros estadísticos de cada función miembro se determinan automáticamente para cada plano del espacio de color a partir del análisis estadístico del histograma del mismo en la zona de interés correspondiente a los núcleos. Las reglas de inferencia que controlan el sistema son todas de igual peso, aunque se pueden aplicar otros criterios de peso.
Una vez desarrollado el sistema de inferencia difusa, se recorre la imagen del área de interés (figura 11) pixel a pixel, y se clasifican los píxeles de los núcleos según su nivel de tinción en: tinción negativa, débil, intermedia o fuerte.
El criterio de clasificación se hace de acuerdo al patrón expuesto en la figura 12 desarrollado para este caso. Este criterio, que pretende servir de base para la clasificación de la tinción de los núcleos, se extrapola para la clasificación de los píxeles. El nivel de tinción viene dado por la intensidad de marrón del píxel. Píxeles en azul, indican que su tinción es negativa. Una vez clasificado el píxel, se colorea en la imagen original de acuerdo al patrón de la figura 12, resultando la figura 13.
Los resultados de la clasificación dan los porcentajes de píxeles para cada nivel de tinción (negativa, débil, intermedia o fuerte). También da los porcentajes finales de píxeles no tintados (con tinción negativa) y tintados (con tinción débil, intermedia y fuerte).
Con los datos de la clasificación y la comparación entre la imagen inicial (figura 1) y la imagen final (figura 13), el patólogo experto puede validar el resultado obtenido. Estos valores de porcentajes los utilizará el patólogo como referencia para indicar el nivel de expresión de los marcadores tumorales según alguno o varios de los distintos criterios de valoración al uso en los laboratorios de Anatomía Patológica, bajo la hipótesis de que los porcentajes de píxeles se corresponden con los porcentajes de núcleos en cada nivel de tinción.
P201232033
26-12-2012
Una vez disponibles los datos de porcentajes según su nivel de tinción, un sistema automático puede indicar el nivel de expresión del marcador tumoral analizado según el criterio de valoración seleccionado.

Claims (7)

  1. P201232033
    26-12-2012
    REIVINDICACIONES
    1. Procedimiento de interpretación automática de imágenes para la cuantificación de marcadores tumorales nucleares donde, partiendo de imágenes tintadas previamente por procedimientos conocidos, se aplican los siguientes pasos:
    a) cambio de espacio de color RGB a otro espacio en el que uno de sus canales represente la intensidad luminosa del pixel, como HSL, HSI, HSV o HSB;
    b) extracción del canal correspondiente al valor de intensidad;
    c) filtrado de la imagen para eliminar el ruido, preservando los bordes;
    d) ecualización del histograma para aumento del contraste;
    e) segmentación basada en regiones;
    f) segmentación basada en detección de contornos;
    g) suma de las imágenes obtenidas de la segmentación basada en regiones y de la segmentación basada en contornos para obtener una máscara que se aplica a la imagen original para obtener el área de interés compuesta sólo de los núcleos;
    h) clasificación de los píxeles del área de interés compuesta por los núcleos según su nivel de tinción en tinción negativa, débil, intermedia o fuerte según un sistema predeterminado.
  2. 2.
    Procedimiento según la reivindicación 1 caracterizado porque el paso a se realiza mediante el cambio de espacio RGB a HSL.
  3. 3.
    Procedimiento según la reivindicación 2, caracterizado porque el paso b consiste en la extracción del canal L del espacio HSL.
  4. 4.
    Procedimiento según cualquiera de las reivindicaciones anteriores, caracterizado porque en el paso c se usa un filtro bilateral.
    10
    P201232033
    26-12-2012
  5. 5. Procedimiento según cualquiera de las reivindicaciones anteriores, caracterizado porque en el paso e se realizan las siguientes etapas:
    i. Umbralización automática mediante el algoritmo de Otsu.
    ii. Delimitación de regiones mediante el algoritmo Watershed.
    5 iii. Aplicación de operaciones morfológicas de erosión, dilatación y sus combinaciones para perfilado de contornos.
  6. 6. Procedimiento según cualquiera de las reivindicaciones anteriores, caracterizado porque el paso f se realiza mediante la aplicación del algoritmo de Canny.
    10
  7. 7. Procedimiento según la reivindicación 6, caracterizado porque a la aplicación del algoritmo de Canny sigue la aplicación de operaciones morfológicas de erosión, dilatación y sus combinaciones para perfilado de bordes.
    15 8. Procedimiento según cualquiera de las reivindicaciones anteriores, caracterizado porque los píxeles se clasifican según su nivel de tinción en el paso h mediante un sistema de lógica difusa.
    20
    11
ES201232033A 2012-12-26 2012-12-26 Procedimiento de interpretación automática de imágenes para la cuantificación de marcadores tumorales nucleares. Active ES2481347B1 (es)

Priority Applications (2)

Application Number Priority Date Filing Date Title
ES201232033A ES2481347B1 (es) 2012-12-26 2012-12-26 Procedimiento de interpretación automática de imágenes para la cuantificación de marcadores tumorales nucleares.
PCT/ES2013/070920 WO2014102428A1 (es) 2012-12-26 2013-12-23 Procedimiento de interpretación automática de imágenes para la cuantificación de marcadores tumorales nucleares

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES201232033A ES2481347B1 (es) 2012-12-26 2012-12-26 Procedimiento de interpretación automática de imágenes para la cuantificación de marcadores tumorales nucleares.

Publications (2)

Publication Number Publication Date
ES2481347A1 true ES2481347A1 (es) 2014-07-29
ES2481347B1 ES2481347B1 (es) 2015-07-30

Family

ID=51019932

Family Applications (1)

Application Number Title Priority Date Filing Date
ES201232033A Active ES2481347B1 (es) 2012-12-26 2012-12-26 Procedimiento de interpretación automática de imágenes para la cuantificación de marcadores tumorales nucleares.

Country Status (2)

Country Link
ES (1) ES2481347B1 (es)
WO (1) WO2014102428A1 (es)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108510499A (zh) * 2018-02-08 2018-09-07 河南师范大学 一种基于模糊集和Otsu的图像阈值分割方法及装置
CN111368854A (zh) * 2020-03-03 2020-07-03 东南数字经济发展研究院 一种批量提取航拍图像中颜色单一的同类目标轮廓的方法
CN111611874A (zh) * 2020-04-29 2020-09-01 杭州电子科技大学 基于ResNet和Canny的人脸口罩佩戴检测方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108022233A (zh) * 2016-10-28 2018-05-11 沈阳高精数控智能技术股份有限公司 一种基于改进型Canny算子的工件边缘提取方法
CN108470343A (zh) * 2017-02-23 2018-08-31 南宁市富久信息技术有限公司 一种改进的图像边缘检测方法
CN107230214B (zh) * 2017-05-27 2020-09-01 西安电子科技大学 基于递归otsu算法的sar图像水域自动检测方法
CN107240084B (zh) * 2017-06-14 2021-04-02 湘潭大学 一种单幅图像去雨方法及装置
CN107563384B (zh) * 2017-08-31 2020-02-21 江苏大学 基于广义Hough聚类的粘连猪的头尾识别方法
CN110378866B (zh) * 2019-05-22 2021-04-06 中国水利水电科学研究院 一种基于无人机巡检的渠道衬砌破损图像识别方法
CN111325220B (zh) 2020-02-17 2023-04-07 腾讯科技(深圳)有限公司 图像生成方法、装置、设备及存储介质
CN111815664B (zh) * 2020-07-08 2023-10-17 云南电网有限责任公司电力科学研究院 一种火点检测方法和系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2740409B2 (ja) * 1992-04-21 1998-04-15 大日本スクリーン製造株式会社 シャープネス処理装置
JPH07203231A (ja) * 1993-12-28 1995-08-04 Canon Inc カラー画像処理装置
US7116800B2 (en) * 2001-05-30 2006-10-03 Eaton Corporation Image segmentation system and method
US20090072098A1 (en) * 2007-09-17 2009-03-19 Inflight Investments Inc. Support bracket for mounting wires to floor beams of an aircraft
US20110043535A1 (en) * 2009-08-18 2011-02-24 Microsoft Corporation Colorization of bitmaps
CN101699511A (zh) * 2009-10-30 2010-04-28 深圳创维数字技术股份有限公司 彩色图像分割方法及系统
US20110286654A1 (en) * 2010-05-21 2011-11-24 Siemens Medical Solutions Usa, Inc. Segmentation of Biological Image Data
CN102608016A (zh) * 2012-04-13 2012-07-25 福州大学 基于Canny边界检测的复杂颗粒平均尺寸测量方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108510499A (zh) * 2018-02-08 2018-09-07 河南师范大学 一种基于模糊集和Otsu的图像阈值分割方法及装置
CN108510499B (zh) * 2018-02-08 2021-10-15 河南师范大学 一种基于模糊集和Otsu的图像阈值分割方法及装置
CN111368854A (zh) * 2020-03-03 2020-07-03 东南数字经济发展研究院 一种批量提取航拍图像中颜色单一的同类目标轮廓的方法
CN111611874A (zh) * 2020-04-29 2020-09-01 杭州电子科技大学 基于ResNet和Canny的人脸口罩佩戴检测方法
CN111611874B (zh) * 2020-04-29 2023-11-03 杭州电子科技大学 基于ResNet和Canny的人脸口罩佩戴检测方法

Also Published As

Publication number Publication date
WO2014102428A1 (es) 2014-07-03
ES2481347B1 (es) 2015-07-30

Similar Documents

Publication Publication Date Title
ES2481347B1 (es) Procedimiento de interpretación automática de imágenes para la cuantificación de marcadores tumorales nucleares.
ES2711196T3 (es) Sistemas y procedimientos para la segmentación y el procesamiento de imágenes de tejidos y extracción de características de estos para tratar, diagnosticar o predecir afecciones médicas
AU2013258519B2 (en) Method and apparatus for image scoring and analysis
Gurcan et al. Image analysis for neuroblastoma classification: segmentation of cell nuclei
Smaoui et al. A developed system for melanoma diagnosis
Song et al. Dual-channel active contour model for megakaryocytic cell segmentation in bone marrow trephine histology images
US20150186755A1 (en) Systems and Methods for Object Identification
Goceri et al. Quantitative validation of anti‐PTBP1 antibody for diagnostic neuropathology use: Image analysis approach
EP3140778B1 (en) Method and apparatus for image scoring and analysis
EP3271864B1 (en) Tissue sample analysis technique
Jose et al. A novel method for glaucoma detection using optic disc and cup segmentation in digital retinal fundus images
Su et al. Detection of tubule boundaries based on circular shortest path and polar‐transformation of arbitrary shapes
Lal et al. A robust method for nuclei segmentation of H&E stained histopathology images
Hassan et al. Skin lesion segmentation using gray level co-occurance matrix
Jaffery et al. Performance analysis of image segmentation methods for the detection of masses in mammograms
WO2014181024A1 (es) Método implementado por ordenador para reconocimiento y clasificación de células sanguíneas anormales y programas informáticos para llevar a cabo el método
Çayır et al. Segmentation of the main structures in Hematoxylin and Eosin images
Pardo et al. Automated skin lesion segmentation with kernel density estimation
Hashim et al. Automatic segmentation of optic disc from color fundus images
Sundaresan et al. Adaptive super-candidate based approach for detection and classification of drusen on retinal fundus images
Kumar et al. Spectral Analysis for Diagnosing of Melanoma through Digital Image Processing
Leś et al. Automatic cell segmentation using L2 distance function
Sirinukunwattana et al. A random polygons model of glandular structures in colon histology images
Sheeba et al. Image segmentation and analysis in the case study of macular degeneration using Labview
Horio et al. Effect of manual image cutout in diagnosis support system of oral mucosal disease based on intraoral image

Legal Events

Date Code Title Description
FG2A Definitive protection

Ref document number: 2481347

Country of ref document: ES

Kind code of ref document: B1

Effective date: 20150730