ES2988511T3 - Predicción de una condición patológica a partir de una imagen médica - Google Patents

Predicción de una condición patológica a partir de una imagen médica Download PDF

Info

Publication number
ES2988511T3
ES2988511T3 ES19167392T ES19167392T ES2988511T3 ES 2988511 T3 ES2988511 T3 ES 2988511T3 ES 19167392 T ES19167392 T ES 19167392T ES 19167392 T ES19167392 T ES 19167392T ES 2988511 T3 ES2988511 T3 ES 2988511T3
Authority
ES
Spain
Prior art keywords
lesion
cluster
lesions
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19167392T
Other languages
English (en)
Inventor
Alan Duncan Fleming
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optos PLC
Original Assignee
Optos PLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optos PLC filed Critical Optos PLC
Application granted granted Critical
Publication of ES2988511T3 publication Critical patent/ES2988511T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Quality & Reliability (AREA)
  • Evolutionary Biology (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Physiology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

Un método, sistema y medio legible por computadora implementados por computadora para determinar una condición patológica a partir de una imagen médica de una parte de un sujeto. El método incluye adquirir una pluralidad de ubicaciones de lesiones en la imagen médica; aplicar un algoritmo de agrupamiento a la pluralidad de ubicaciones de lesiones para identificar al menos un grupo de lesiones y los datos correspondientes del grupo de lesiones; categorizar cada grupo de lesiones en una de un conjunto de categorías predeterminadas en función de los datos del grupo de lesiones identificado; aplicar al menos una función a los datos del grupo de lesiones con respecto a cada categoría del conjunto de categorías predeterminadas, en donde la al menos una función proporciona un número fijo de salidas de datos; y determinar una condición patológica procesando el número fijo de salidas de datos de cada categoría del conjunto en función de un algoritmo de clasificación entrenado en datos de imagen que definen imágenes médicas de la parte de una pluralidad de sujetos. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Predicción de una condición patológica a partir de una imagen médica
Campo
Los aspectos a modo de ejemplo en el presente documento se refieren en general al campo del procesamiento de imágenes y, más particularmente, a un método implementado por ordenador, programa informático y aparato para determinar un nivel de una patología asociada con retinopatía diabética o degeneración macular relacionada con la edad que causa lesiones en una retina de un sujeto, determinándose el nivel de la patología a partir de una imagen de la retina capturada utilizando un sistema de formación de imágenes oculares.
Antecedentes
Se han desarrollado tecnologías de procesamiento de imágenes automáticas para detectar enfermedades o firmas de las mismas basándose en la formación de imágenes digitales médicas.
Una enfermedad puede presentarse como pequeñas lesiones focales que se pueden observar en imágenes digitales. Las lesiones, es decir, cualquier daño o cambio anormal en el tejido, pueden estar causadas por enfermedades o traumatismos. Por ejemplo, dos enfermedades de retina que son las principales causas mundiales de ceguera, retinopatía diabética (DR) y degeneración macular relacionada con la edad (AMD), presentes, al menos en sus primeros estadios, con pequeñas lesiones focales que tienen tamaños variables típicos de 20 a 150 micrómetros. Estas lesiones se pueden producir individualmente, en pequeños agrupamientos dispersos en la retina, como múltiples casos ampliamente distribuidos o en mayores números en uno o más agrupamientos.
En el contexto de enfermedades de retina, por ejemplo, hay sistemas y protocolos en uso para clasificar la gravedad o el estado de la enfermedad de retina (véase, por ejemplo, “DR Guidelines Expert Working Part Members”, The royal college of oftalmologists, diabetic retinopathy guidelines, 2012). Normalmente, un médico proporciona una estimación resumida de la distribución de lesiones, por ejemplo, determinando si hay o no lesiones presentes en la mácula. Además, la presencia de lesiones dentro o fuera de la mácula, definida como un círculo de diámetro fijo centrado en la fóvea, se puede utilizar en la clasificación de la maculopatía diabética (edema). Esto se puede realizar mediante una evaluación visual rápida por parte del médico con o sin una ayuda de medición. Además, se puede utilizar una comparación con fotografías convencionales para evaluar el número de lesiones en la DR. Por tanto, se observa que tales lesiones varían en número según la gravedad o el estado de la enfermedad.
Se proporcionan antecedentes adicionales en los siguientes documentos.
El documento US 6.091.841 describe un método y sistema para detectar y visualizar microcalcificaciones agrupadas en un mamograma digital, en donde un mamograma digital único se recorta primero automáticamente a una subimagen de área de mama que después se procesa por medio de un filtro optimizado de diferencia de Gaussianos para mejorar la aparición de microcalcificaciones potenciales en la subimagen. Las microcalcificaciones potenciales están referidas a un umbral, se detectan agrupaciones, se calculan características para las agrupaciones detectadas y las agrupaciones se clasifican como sospechosas o no sospechosas por medio de una red neuronal. El umbral es preferiblemente mediante umbral local en pendiente, pero también se puede realizar mediante umbral global y duallocal. Se indican las ubicaciones en el mamograma digital original de las microcalcificaciones agrupadas detectadas sospechosas. Los parámetros para su uso en las partes de detección y umbral del sistema se optimizan por ordenador por medio de un algoritmo genético. Los resultados del sistema se combinan óptimamente con la observación por un radiólogo del mamograma original combinando las observaciones con los resultados, después de que el radiólogo haya aceptado o rechazado por primera vez las detecciones individuales notificadas por el sistema.
El artículo titulado "Points of Interest and Visual Dictionations for Automatic Retinal Lesion Detection" de A. Rocha et al., publicado en IEEE Transactions on Biomedical Engineering, Vol. 59, N° 8, agosto de 2012, describe un algoritmo para detectar la presencia de lesiones relacionadas con retinopatía diabética (DR) a partir de imágenes del fondo de ojo basadas en un enfoque analítico común que es capaz de identificar tanto lesiones rojas como brillantes sin requerir procesamiento previo o post-procesamiento específico. El algoritmo construye un diccionario de palabras visuales que representa puntos de interés (Pols) ubicados dentro de regiones marcadas por especialistas que contienen lesiones asociadas con DR y clasifica las imágenes del fondo de ojo basándose en la presencia o ausencia de estos Pols como patología normal o relacionada con DR. El enfoque descrito comprende localizar lesiones DR en las imágenes del fondo óptico utilizando palabras visuales que combinan información de características contenidas dentro de las imágenes en una estructura fácilmente extensible a diferentes tipos de lesiones o patologías de retina y construye un espacio de proyección específico para cada clase de interés (por ejemplo, lesiones blancas tales como exudados o regiones normales) en lugar de un diccionario común para todas las clases. El diccionario de palabras visuales se aplicó para clasificar lesiones brillantes y rojas con validación cruzada clásica y validación de conjunto de datos cruzados para indicar la robustez de este enfoque.
El documento US 2017/0039412 A1 describe sistemas y métodos que ayudan en la selección, diagnóstico y/o monitorización de afecciones médicas. Los sistemas y métodos pueden permitir, por ejemplo, la identificación y ubicación automatizadas de lesiones y otras estructuras anatómicas a partir de datos médicos obtenidos a partir de dispositivos de obtención de imágenes médicas, el cálculo de biomarcadores basados en imágenes que incluyen la cuantificación de la dinámica de las lesiones y/o la integración con servicios, programas o software de telemedicina.
Compendio
La detección automatizada de enfermedades en imágenes médicas puede basarse en identificar una relación entre la distribución de la lesión y un estado actual y/o futuro de una enfermedad. Las lesiones individuales pueden registrarse en un gran número de pacientes y se puede parametrizar una distribución de lesiones, por ejemplo en el cribado de poblaciones. Esto puede conducir a protocolos de cribado alternativos basados en parámetros de una distribución de lesiones puntuales o conformadas de otro modo en el cuerpo humano.
Sin embargo, el número de lesiones en una imagen médica no es un número fijo, y así entre sujetos habría un número variable (no fijo) de estadísticas de lesiones. Estas estadísticas serían valiosas para fines de entrenamiento con el fin de asociar o correlacionar firmas de distribuciones de lesiones con estados de enfermedad o condiciones patológicas y/o para indicar o predecir un estado de enfermedad desconocido.
Los clasificadores automáticos típicos, tales como una red neuronal artificial, un modelo lineal, una máquina de vector de soporte o un clasificador vecino más cercano K, requieren matrices de datos fijas como entrada. Por lo tanto, un intento de entrenar a un clasificador automatizado, por ejemplo, basado en uno o más algoritmos de aprendizaje automático, para predecir o determinar un estado de enfermedad o condición patológica basado en estadísticas de lesiones es problemático en el caso de un número variable (no fijo) de datos. Aunque hay formas de proporcionar un resumen del número variable de datos, por ejemplo, reduciendo los datos de lesión a un recuento del número de lesiones y así proporcionar un número fijo de datos como entrada en un algoritmo de aprendizaje automático, dicho resumen omitiría información relativa a una distribución espacial a través de la imagen médica y/o relativa a la forma en que las lesiones están asociadas entre sí.
Por consiguiente, sería útil evitar el requisito de matrices de datos de tamaño fijo para el entrenamiento de clasificadores automatizados en relación con el problema de omitir información en cuanto a una distribución espacial de lesiones. Una solución puede conducir a protocolos clínicos mejorados basados en parámetros de distribución de la lesión en el cuerpo humano.
La presente invención proporciona, de acuerdo con la reivindicación 1, un método implementado por ordenador para determinar un nivel de una patología asociada con una enfermedad que es una de retinopatía diabética y degeneración macular relacionada con la edad que causa lesiones en la retina de un sujeto, y un programa informático de acuerdo con la reivindicación 13. La presente invención proporciona, además, de acuerdo con la reivindicación 14, un aparato para determinar un nivel de una patología asociada con una enfermedad que es una de retinopatía diabética y degeneración macular relacionada con la edad, que causa lesiones en la retina de un sujeto a partir de una imagen de la retina del sujeto en donde las lesiones son visibles. Las características opcionales se exponen en las reivindicaciones dependientes.
Breve descripción de los dibujos
A continuación, se explicarán en detalle realizaciones de la invención, solo a modo de ejemplos no limitantes, haciendo referencia a las figuras adjuntas descritas a continuación. Los números de referencia similares que aparecen en las diferentes figuras pueden indicar elementos idénticos o funcionalmente similares, a menos que se indique lo contrario.
La Fig. 1 es una ilustración esquemática de un aparato para determinar una condición patológica a partir de una imagen médica de una parte de un sujeto, capturada utilizando un sistema de formación de imágenes médicas, según una realización a modo de ejemplo en el presente documento.
La Fig. 2 es un diagrama de bloques que ilustra una configuración de hardware de procesamiento de señales a modo de ejemplo del aparato de la Fig. 1, según una realización de ejemplo en el presente documento.
La Fig. 3 es un diagrama de flujo que ilustra un proceso mediante el cual el aparato de la Fig. 1 procesa datos de imagen médica para determinar una condición patológica, según una realización a modo de ejemplo en el presente documento.
La Fig. 4 es una ilustración esquemática de una imagen médica de una parte de la retina de un sujeto capturada utilizando un oftalmoscopio láser de barrido, SLO, en donde la ubicación de la lesión 410 se define en un sistema de coordenadas bidimensional basado en imágenes, según una realización a modo de ejemplo en el presente documento.
La Fig. 5(a) es una ilustración esquemática que muestra una imagen médica, en la que están presentes lesiones, a la que se ha aplicado un algoritmo de agrupamiento, según una primera realización a modo de ejemplo en el presente documento.
La Fig. 5(b) es una ilustración esquemática que muestra una imagen médica, en la que están presentes lesiones, a la que se ha aplicado un algoritmo de agrupamiento, según una segunda realización a modo de ejemplo en el presente documento.
La Fig. 6(a) es una ilustración esquemática, que muestra la imagen médica, a la que se ha aplicado el algoritmo de agrupamiento, en la que se identifica un centroide de cada uno de los agrupamientos de lesiones;
La Fig. 6(b) es una ilustración esquemática, que muestra la imagen médica, a la que se ha aplicado el algoritmo de agrupamiento, en donde los agrupamientos de lesiones se clasifican según un campo en donde se ubica un centroide del agrupamiento.
La Fig. 7 es una ilustración esquemática que muestra cómo un algoritmo de clasificación puede ser entrenado en datos de imagen que definen imágenes médicas de la parte de una pluralidad de sujetos, según una primera realización a modo de ejemplo en el presente documento.
La Fig. 8 es una ilustración esquemática que muestra cómo el algoritmo de clasificación puede ser entrenado en datos de imagen que definen imágenes médicas de la parte de una pluralidad de sujetos, según una segunda realización a modo de ejemplo en el presente documento.
La Fig. 9 es una ilustración esquemática de una red neuronal que comprende neuronas artificiales y una capa de entrada, una capa oculta y una capa de salida.
La Fig. 10 es una ilustración esquemática de un aparato para determinar una condición patológica a partir de una imagen médica de una parte de un sujeto capturada utilizando un sistema de formación de imágenes médicas, según una realización a modo de ejemplo en el presente documento.
La Fig. 11 es un diagrama de flujo que ilustra un proceso realizado por el aparato de la Fig. 10 que procesa datos de imagen médica para determinar una condición patológica, según una realización a modo de ejemplo en el presente documento.
Descripción detallada de las realizaciones a modo de ejemplo
A continuación, se describirán en detalle realizaciones a modo de ejemplo en el presente documento haciendo referencia a los dibujos adjuntos.
La Fig. 1 es una ilustración esquemática de un aparato 100 para determinar una condición patológica a partir de una imagen médica 400, 500, 500' (como se muestra en las Figs. 4, 5(a), 5(b), respectivamente) de una parte de un sujeto capturada utilizando un sistema de formación de imágenes médicas 350 (mostrado en las Figs. 7 y 8), según una realización a modo de ejemplo en el presente documento.
El aparato 100 comprende un módulo de adquisición 110, un módulo de clasificación 120 y un módulo de determinación 130. El módulo de adquisición 110 está configurado para adquirir una pluralidad de ubicaciones de lesión en la imagen médica 400, 500, 500'. El módulo de clasificación 120 está configurado para aplicar un algoritmo de agrupamiento a la pluralidad de ubicaciones de lesiones con el fin de identificar al menos un agrupamiento de lesiones y los datos de agrupamiento de lesiones correspondientes, clasificar cada uno del al menos un agrupamiento de lesiones en una de un conjunto de categorías predeterminadas basándose en los datos de agrupamiento de lesiones determinados, y aplicar al menos una función a los datos de agrupamiento de lesiones con respecto a cada categoría del conjunto de categorías predeterminadas, en donde la al menos una función proporciona un número fijo de salidas de datos. El módulo de determinación 130 está configurado para determinar un nivel de patología presente en la imagen procesando el número fijo de salidas de cada categoría del conjunto de categorías predeterminadas utilizando un algoritmo de clasificación 730 (como se muestra en la Fig. 7) entrenado en datos de imagen que definen imágenes médicas 701,702 (como se muestra en la Fig. 7) de la parte de una pluralidad de sujetos.
Una lesión puede ser, en un ejemplo no limitante, una pequeña anomalía similar a un punto que está causada por una patología, y no estaría presente en una imagen adquirida de manera similar de un sujeto sano. Las lesiones, es decir, cualquier daño o cambio anormal en el tejido, pueden ser causadas por enfermedades o traumatismos, por ejemplo, y pueden ser una anomalía similar a un punto o a otra forma.
La imagen médica 400, 500, 500' puede, como en la presente realización, ser una imagen de retina de campo ultra ancho capturada utilizando un sistema de formación de imágenes por barrido en la forma a modo de ejemplo de un oftalmoscopio láser de barrido (SLO), que está configurado para adquirir imágenes de la retina del ojo de un sujeto. La SLO de la presente realización a modo de ejemplo está configurado para capturar imágenes de autofluorescencia (AF) (puede configurarse para capturar imágenes de reflectancia de múltiples longitudes de onda o imágenes a partir de otros modos de fluorescencia), aunque alternativamente o adicionalmente puede configurarse para adquirir uno o más tipos de imágenes. El SLO puede ser, por ejemplo, un SLO de campo ultra ancho (UWF-SLO) capaz de generar una imagen de campo ultra ancho de hasta el 80 % de una superficie de la retina.
Alternativamente y más generalmente, la imagen médica puede ser una imagen ocular capturada utilizando cualquier sistema de formación de imágenes oculares (por ejemplo, formado por el sistema 350) distinto de un SLO, que sea adecuado para formar imágenes de la retina o de cualquier otra parte seleccionada del ojo (por ejemplo, una parte del segmento anterior del ojo, o una parte del segmento posterior del ojo). El sistema de formación de imágenes oculares puede ser, por ejemplo, una cámara de fondo de ojo. Alternativamente, el sistema de formación de imágenes oculares puede ser de otra modalidad de formación de imágenes, por ejemplo, un escáner de tomografía de coherencia óptica (OCT), en cuyo caso las técnicas de procesamiento de imágenes descritas en el presente documento son aplicables a las imágenes tomográficas adquiridas por el escáner de OCT. Como alternativa adicional, el sistema de formación de imágenes oculares puede ser un escáner SLO-OCT combinado, en cuyo caso las técnicas de procesamiento de imágenes descritas en el presente documento son aplicables tanto a los escaneos de retina SLO como a los escaneos OCT adquiridos por el escáner SLO-OCT combinado. La modalidad de obtención de imágenes del sistema de obtención de imágenes oculares puede tomar, por ejemplo, una de las muchas formas diferentes conocidas por los expertos en la materia, incluyendo OCT, fotografía de fondo de ojo en color, angiografía con fluoresceína (FA), angiografía verde de indocianina (ICG) y autofluorescencia (AF), entre otras.
Por consiguiente, el sistema de formación de imágenes médicas 350 puede ser cualquiera de los analizados anteriormente, o cualquier otro sistema de formación de imágenes médicas adecuado para formar imágenes de una parte de la retina del ojo.
El módulo de adquisición 110 está configurado para adquirir una pluralidad de ubicaciones de lesión en la imagen médica 500 (como se muestra en la Fig. 5(a)). El módulo de adquisición 110 puede, como en la presente realización, estar configurado para adquirir la pluralidad de ubicaciones de lesión en la imagen médica a partir de un detector de lesión automatizado 300 (como se muestra en la Fig. 2). En particular, el conjunto de ubicaciones de lesiones se puede producir y posteriormente adquirir a partir del detector de lesiones automatizado 300.
Se conocen detectores de lesiones automatizados (por ejemplo, Bhaskaranand et al. ''Automated diabetic retinopathy screening and monitoring using retinal fundus image analysis”, Journal of diabetes science and technology, 10(2):254-261, 2016; Fleming et al. "Automated microaneurusm detection using local contrast normalization and local vessel detection”, IEEE trnasactions on medical imaging, 25(9):1223-1232, 2006), por ejemplo, en términos de un módulo informático cuya entrada es una imagen médica, tal como la imagen médica 400, 500, 500'. El detector de lesiones automatizado 300 procesa la imagen médica para determinar o identificar un conjunto de ubicaciones o regiones pequeñas y también puede determinar un conjunto de propiedades asociadas con la ubicación/región determinada o identificada. En este caso, cada una de dichas ubicaciones o región pequeña puede ser una ubicación de una anomalía patológica o una lesión. En una realización a modo de ejemplo en el presente documento, el detector de lesiones automatizado 300 puede funcionar según al menos una de las publicaciones mencionadas anteriormente.
Además, los datos de imagen médica introducidos en el detector de lesiones automatizado 300 pueden, como en la presente realización a modo de ejemplo, definir una imagen bidimensional, o puede definir alternativamente una imagen tridimensional de la parte del ojo representada en imagen. Los datos de imagen recibidos pueden proporcionarse en cualquier formato adecuado (ya sea comprimido o no comprimido) conocido por los expertos en la técnica. La salida del detector de lesiones automatizado 300 (es decir, la salida del procesamiento de la imagen médica) es entonces un conjunto de datos de tamaño no fijo (cantidad de datos indefinida), donde los datos representan un conjunto de lesiones, cada una de las cuales puede incluir una serie de propiedades. En particular, antes del procesamiento de una imagen médica particular utilizando el detector de lesiones automatizado 300, el tamaño del conjunto de datos (por ejemplo, el número de lesiones) es desconocido y no puede determinarse. Además, el tamaño del conjunto de datos no es fijo porque el número de lesiones que puede determinar el detector de lesiones automatizado 300 no está fijado o limitado a un cierto intervalo. Es decir, la entrada al aparato 100 de la Fig. 1 puede ser la salida de un detector de lesiones automatizado 300, que es un conjunto de ubicaciones determinadas como las ubicaciones probables de anomalías patológicas o lesiones dentro del cuerpo y propiedades de estas lesiones detectadas.
El detector de lesiones automatizado 300 puede, como en la presente realización, estar configurado para obtener una imagen médica de entrada, tal como la imagen médica 400, 500, 500' directamente del sistema de formación de imágenes médicas 350 mediante cualquier medio adecuado conocido por los expertos en la técnica. Alternativamente, el detector de lesiones automatizado 300 puede estar configurado para obtener una imagen médica capturada y almacenada previamente (por ejemplo, leyendo desde un medio de almacenamiento tal como un CD o disco duro, o recibiendo a través de una red tal como Internet) después de que se haya capturado por el sistema de formación de imágenes médicas 350 o producido por otros medios. A modo de alternativa adicional, el detector de lesiones automatizado 300 puede proporcionarse como parte del sistema de formación de imágenes médicas 350.
El módulo de adquisición 110 puede configurarse para adquirir una pluralidad de ubicaciones de lesión en la imagen médica mediante cualquier medio adecuado conocido por los expertos en la técnica. Por ejemplo, el módulo de adquisición 110 puede recibir la pluralidad de ubicaciones de lesión desde el detector de lesiones automatizado 300 a través de un enlace de comunicación directa (que puede proporcionarse mediante cualquier conexión cableada o inalámbrica adecuada, por ejemplo, un bus serie universal (USB) o una conexión Bluetooth™), o un enlace de comunicación indirecta (que puede ser proporcionado por una red que comprende una red de área local (LAN), una red de área amplia (WAN) y/o Internet). Además, la pluralidad de ubicaciones de lesión puede adquirirse mediante el módulo de adquisición 110 adquiriendo (por ejemplo, leyendo desde un medio de almacenamiento tal como un CD o disco duro, o recibiendo a través de una red tal como Internet) tal pluralidad de ubicaciones de lesión después de que haya sido generada por el detector de lesiones automatizado 300 o producido por otros medios.
Alternativamente, el módulo de adquisición 110 puede incluir un detector de lesiones automatizado 300, como se ha descrito anteriormente. Como tal, el módulo de adquisición 110 del aparato de la Fig. 1 puede configurarse para adquirir una pluralidad de ubicaciones de lesiones en la imagen médica recibiendo los datos de imágenes médicas que definen la imagen médica y procesando los datos de imágenes médicas para determinar la ubicación de cada una de una pluralidad de lesiones en la imagen médica mediante cualquier medio adecuado conocido en la técnica.
Además, la pluralidad de ubicaciones de lesión puede ser recibida por el módulo de adquisición 110 (y puede además procesarse posteriormente hasta un nivel determinado de patología presente en la imagen médica, como se describe a continuación) simultáneamente con la generación de la pluralidad de ubicaciones de lesión por el detector de lesiones automatizado 300, es decir, la pluralidad de ubicaciones de lesión se puede adquirir "sobre la marcha". Sin embargo, en la presente realización a modo de ejemplo, y para los fines de esta descripción, el módulo de adquisición 110 está configurado para adquirir en la imagen médica una pluralidad de ubicaciones de lesión antes de que el módulo de clasificación 120 comience a procesar esta pluralidad de ubicaciones de lesión.
En realizaciones como la presente realización ilustrada, donde el aparato 100 comprende además un generador de señales 140 de control de visualización, el generador de señales de control de visualización 140 puede estar dispuesto para generar señales de control de visualización para controlar un dispositivo de visualización (como se muestra en 215 en la Fig. 2), tal como una pantalla LCD u otro tipo de unidad de visualización, para visualizar las ubicaciones de la pluralidad de lesiones y/o el al menos un agrupamiento identificado en la imagen médica de la parte del sujeto, y/o una representación del nivel de patología determinado.
La Fig. 2 es una ilustración esquemática de un hardware de procesamiento de señales programable 200, que puede, como en la presente realización a modo de ejemplo, configurarse para funcionar como el aparato 100 de la Fig. 1. El hardware de procesamiento de señales programable 200 comprende una interfaz de comunicación (I/F) 210 para recibir datos indicativos de la pluralidad de ubicaciones de lesión descritas anteriormente (por ejemplo, desde el detector de lesiones automatizado 300) y, opcionalmente, para generar señales de control de visualización para controlar el dispositivo de visualización 215 para mostrar las ubicaciones de la pluralidad de lesiones y/o el al menos un agrupamiento identificado en la imagen médica de la parte del sujeto, y/o una representación del nivel determinado de patología. El aparato de procesamiento de señales 200 comprende además un procesador (por ejemplo, una unidad central de procesamiento, CPU o unidad de procesamiento de gráficos, GPU) 220, una memoria de trabajo 230 (por ejemplo, una memoria de acceso aleatorio) y un almacén de instrucciones 240 que almacena un programa informático que comprende las instrucciones legibles por ordenador que, cuando se ejecutan por el procesador 220, hacen que el procesador 220 realice diversas funciones, incluidas las del módulo de clasificación 120, el módulo de determinación 130 y, opcionalmente, el generador de señales de control de visualización 140 descritos anteriormente. El almacenamiento 240 de instrucciones puede comprender una ROM (por ejemplo, en forma de una memoria de solo lectura programable y borrable eléctricamente (EEPROM) o memoria flash) que está precargada con las instrucciones legibles por ordenador. Alternativamente, el almacenamiento de instrucciones 240 puede comprender una RAM o un tipo similar de memoria, y las instrucciones legibles por ordenador del programa informático se pueden introducir en la misma desde un producto de programa informático, tal como un medio de almacenamiento legible por ordenador 250, no transitorio, en forma de un CD-ROM, DVD-ROM, etc. o una señal legible por ordenador 260 que lleva las instrucciones legibles por ordenador. En cualquier caso, el programa informático, cuando es ejecutado por el procesador, hace que el procesador ejecute al menos uno de los métodos de procesamiento de datos de imágenes médicas de una parte de un sujeto capturadas utilizando un sistema de imágenes médicas para determinar un nivel de patología presente en una imagen médica definida por los datos de imágenes médicas descritos en el presente documento. Sin embargo, se debe observarse que el aparato 100 puede implementarse alternativamente en hardware no programable, tal como un circuito integrado de aplicación específica (ASIC).
En la presente realización a modo de ejemplo, una combinación 270 de los componentes de hardware mostrados en la Fig. 2, que comprende el procesador 220, la memoria de trabajo 230 y el almacén de instrucciones 240, está configurada para realizar funciones del módulo de clasificación 120 y del módulo de determinación 130, funciones que se describirán con más detalle a continuación. En realizaciones como la presente realización ilustrada, donde el aparato 100 comprende un generador de señales de control de visualización 140, la funcionalidad de este componente opcional también se proporciona mediante la combinación 270 de los componentes de hardware, junto con la comunicación de I/F 210.
Como resultará más evidente a partir de la siguiente descripción de las operaciones realizadas por el aparato 100 de la presente realización de ejemplo, el aparato de la Fig. 1 supera el requisito de una matriz de datos de tamaño fijo para el entrenamiento de clasificadores automatizados en relación con el problema de omitir información en cuanto a una distribución espacial de lesiones, permitiendo de este modo que el módulo de determinación determine un nivel de patología presente en la imagen médica procesando datos derivados de la pluralidad de ubicaciones de lesión utilizando uno o más algoritmos de clasificación, como un ejemplo de un clasificador automatizado.
La Fig. 3 es un diagrama de flujo que ilustra un proceso mediante el cual el aparato 100 de la Fig. 1 procesa datos de imagen médica para determinar una condición patológica, según una realización a modo de ejemplo en el presente documento.
En la etapa de proceso S10 de la Fig. 3, el módulo de adquisición 110 de la Fig. 1 adquiere una pluralidad de ubicaciones de lesión en una imagen médica 500.
Como se ha descrito anteriormente, el módulo de adquisición 110 puede estar configurado para adquirir la pluralidad de ubicaciones de lesión por cualquier medio adecuado conocido en la técnica. En la presente realización, el módulo de adquisición 110 está configurado para adquirir la pluralidad de ubicaciones de lesión a partir de un detector de lesiones automatizado 300.
El módulo de adquisición 110 puede, como en la presente realización, adquirir una ubicación única respectiva para cada lesión de la pluralidad de lesiones. La ubicación de cada lesión puede ser, a modo de ejemplo, la ubicación de un centroide o de un centro de masas de esa lesión, la ubicación de un vértice de una forma (por ejemplo, un rectángulo, una elipse o un círculo) de un tamaño predeterminado que contiene esa lesión, o cualquier otra ubicación adecuada indicativa de la posición de la lesión. La ubicación de cada lesión también puede ser un conjunto de coordenadas que definen el área o extensión de cada lesión (por ejemplo, el vértice de una forma (por ejemplo, de un rectángulo, una elipse o un círculo) que contiene esa lesión, coordenadas que indican una dimensión más larga de esa lesión, etc.)
Las ubicaciones se pueden definir en cualquier sistema de coordenadas adecuado. A modo de ejemplo, cada ubicación de la pluralidad de ubicaciones de lesión se puede definir en un sistema de coordenadas bidimensional basado en imágenes. A modo de ejemplo, la Fig. 4 es una ilustración esquemática de una imagen médica 400 de una parte de la retina de un sujeto capturada utilizando un oftalmoscopio láser de barrido, SLO, en donde la ubicación de una única lesión a modo de ejemplo 410 está definida en un sistema de coordenadas bidimensional (basado en imágenes) de la imagen médica 400, según una realización a modo de ejemplo en el presente documento. En la Fig. 4, la ubicación de la lesión 410 está definida por una coordenada x indicativa del número de píxeles entre un píxel especificado (en esta realización, el píxel central de la lesión 410) y el borde izquierdo 420 de la imagen 400, y una coordenada y indicativa del número de píxeles entre el píxel especificado y el borde superior 430 de la imagen 400.
En el ejemplo de la Fig. 4, se ilustra una única lesión 410. Sin embargo, en realizaciones alternativas, pueden estar presentes múltiples lesiones en imágenes médicas, tales como la imagen médica 400. Además, en el ejemplo de la Fig. 4, la coordenada x es indicativa de un número de píxeles entre el píxel especificado (relacionado con la lesión) y el borde izquierdo 420 de la imagen 400 y la coordenada y es indicativa de un número de píxeles entre el píxel especificado y el borde superior 430 de la imagen 400. En realizaciones alternativas, la coordenada x puede ser indicativa de un número de píxeles entre un píxel especificado y el borde derecho de la imagen médica 400 y la coordenada y puede ser indicativa de un número de píxeles entre el píxel especificado y el borde inferior de la imagen médica 400.
Alternativamente, cada ubicación de la pluralidad de ubicaciones de lesión puede, como en la presente realización, estar definida en un sistema de coordenadas bidimensional o en un sistema de coordenadas tridimensional adaptado a la parte del sujeto de la que se están tomando imágenes. Dicho sistema de coordenadas se puede denominar sistema de coordenadas normalizado (NCS). Un NCS se puede definir utilizando cualquier combinación adecuada de factores relevantes. La elección de los factores tomados en consideración puede ser un compromiso entre la complejidad y lo que se conoce o supone sobre la relevancia de un factor para la enfermedad o su eficacia clínica.
En particular, en un caso en el que la parte del sujeto de la que se están tomando imágenes es una parte de la retina, como en la presente realización, un sistema de coordenadas basado en la fila y columna de píxeles en una imagen puede no tener en cuenta ninguno de los siguientes factores: la naturaleza aproximadamente esférica de la superficie de la retina; la fisiología probablemente orientada de manera opuesta de los ojos izquierdo y derecho; cambios en la orientación del ojo producidos por la mirada y la inclinación de la cabeza; escalado causado por el aumento de la imagen o el tamaño de la anatomía relevante. Por consiguiente, en un caso en el que la parte del sujeto de la que se están tomando imágenes es una parte de la retina, puede ser preferible definir un sistema de coordenadas que tenga en cuenta estos factores.
Un sistema de coordenadas que tiene en cuenta uno o más de estos factores se denominará NCS de retina (RNCS).
Justificación de la forma esférica
Un RNCS se puede definir en términos de coordenadas esféricas tales como acimut y elevación con respecto a un punto en la retina. Se requiere un mapeo entre coordenadas de píxel en la imagen y acimut y elevación y esto podría obtenerse a partir de un algoritmo de mapeo adecuado mediante un software de modelado óptico para el sistema de formación de imágenes.
Contabilización para la orientación
Una ubicación natural para el origen del RNCS es el centro de la fóvea 440 (tal como se muestra en la Fig. 4), siendo este el centro de la mirada que normalmente está bajo el control del sujeto. El centro de la cabeza del nervio óptico, ONH, 450 (como se muestra en la Fig. 4) es también una ubicación natural para el origen del RNCS puesto que la vasculatura del ojo 460 (como se muestra en la Fig. 4) y los nervios de la retina radian desde esta estructura. Esto explica los cambios en la orientación del ojo en dos ejes en un espacio tridimensional.
Un medio natural para tener en cuenta la orientación del ojo en el tercer eje del espacio tridimensional es utilizar centros tanto de la fóvea 440 como de la cabeza del nervio óptico 450. Una línea recta en la imagen a través de estos puntos se puede utilizar como el eje nominalmente horizontal ya que es poco probable que esta línea esté más de 20 grados alejada de la horizontal.
Contabilización para lateralidad
La dirección positiva para el eje horizontal del RNCS puede ser opuesta para los ojos izquierdo y derecho. Esto permite que el RNCS tenga en cuenta la suposición de que hay fisiología orientada de manera opuesta de los ojos izquierdo y derecho.
Contabilización para la escala
La escala de la imagen se podría obtener de múltiples maneras utilizando anatomía de la retina. Después de evaluar y cuantificar la escala de imagen, el RNCS puede ser escalado de manera que coincida con la anatomía de la retina. Al igual que con la lateralidad, se supone que la escala fisiológica (es decir, la escala real del ojo) coincide con la escala anatómica observada (es decir, la escala en la parte de imágenes del ojo). Aunque el tamaño de la anatomía observada depende del aumento de la imagen y del tamaño anatómico real, se supone que ambos contribuyen de la misma manera a la distribución de las lesiones en la imagen. Se pueden utilizar los siguientes métodos para evaluar la escala:
1. El tamaño de la ONH 450.
2. La distancia entre los centros de la fóvea 440 y e la ONH 450.
3. La distancia entre las arcadas vasculares principales y la fóvea 440. Esto se podría evaluar hallando la distancia desde la fóvea 440 hasta los picos en un perfil suavizado de la vasculatura de la retina o entre los picos en el perfil suavizado, en donde el perfil se extiende desde la fóvea 440 en una dirección que no intersecta la cabeza del nervio óptico 450.
Los métodos están disponibles en un sistema completamente automatizado para detectar ubicaciones del centro de la fóvea, del centro de la ONH 450, del contorno del ONH 450 y de la vasculatura 460. Por lo tanto, la asignación de un RNCS como se ha expuesto anteriormente se puede realizar automáticamente. Seleccionando correctamente la dirección del perfil de la vasculatura de la retina, descrita en relación con el método 3 anterior, de modo que la dirección sea ortogonal a una línea entre los centros de la fóvea 440 y e la ONH 450, las evaluaciones de escala utilizando las distancias 2 y 3 anteriores pueden hacerse ortogonales. Por consiguiente, estos dos métodos de evaluación de la escala se pueden utilizar en combinación para escalar por separado los ejes horizontal y vertical (nominalmente) del RNCS.
En el ejemplo anterior, se analiza un sistema de coordenadas normalizado tridimensional adaptado a la formación de imágenes de retina. Sin embargo, en realizaciones alternativas, se puede definir un sistema de coordenadas que esté adaptado a otras partes del sujeto de las que se están tomando imágenes, tales como, por ejemplo, los pulmones, el cerebro, la piel (para diversas partes del cuerpo), el segmento anterior del ojo y el segmento posterior del ojo.
A modo de ejemplo, en un ejemplo de antecedentes que no forma una realización, donde la parte del sujeto del que se están tomando imágenes es una parte del cerebro, dos tipos de NCS, conocidos como coordenadas de Talairach (Lancaster et al., “Automated talairach atlas labels for functional brain mapping”, Human brain mapping, 10(3):120-131,2000) y espacio estereotáxico MNI (Tzourio-Mazoyer et al., "Automated anatomical labeling of activations in spm using a macroscopic anatomical parcellation of the mni mri single-subject brain", Neuroimage, 15(1):273-289, 2002), son normalmente utilizados en la obtención de de imágenes cerebrales. Las coordenadas de Talairach se definen realizando dos anclajes, la comisura anterior y la comisura posterior, y situándolos sobre una línea horizontal. Ambos sistemas de coordenadas están destinados a tener en cuenta diferencias individuales en el tamaño y la forma del cerebro.
A modo de ejemplo adicional de antecedentes que no forma una realización, donde la parte del sujeto de la que se están tomando imágenes es una parte de los pulmones (formación de imágenes pulmonares), mientras que hay menos uso de NCS basándose en características anatómicas, se ha descrito un NCS basándose en la orientación normalizada de la superficie pleural para crear una descripción más consistente de la ubicación de los nódulos pulmonares detectados (Jirapatnakul et al., "Segmentation of yuxtapleural pulmonary nodules using a robust surface estimate", Journal of Biomedical Imaging, 2011:15, 2011).
En una realización a modo de ejemplo en el presente documento, un NCH puede implementarse según al menos una de las publicaciones mencionadas anteriormente.
Opcionalmente, el módulo de adquisición 110 puede adquirir, como en la presente realización, además, como propiedad de lesión, al menos uno del tipo de lesión, un área de lesión, un volumen de lesión, una complejidad de forma de lesión, una intensidad de lesión y un color de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen médica. Es decir, el módulo de adquisición 110 puede adquirir al menos una propiedad de lesión de una lesión asociada con cada una de la pluralidad de ubicaciones de lesión.
El módulo de adquisición 110 puede, como en la presente realización, estar configurado para adquirir la propiedad de lesión para cada pluralidad de ubicaciones de lesión a partir de un detector de lesiones automatizado 300. A modo de alternativa, en un caso en donde el módulo de adquisición 110 está configurado para adquirir una pluralidad de ubicaciones de lesión en la imagen médica recibiendo los datos de imagen médica que definen la imagen médica y procesando los datos de imagen médica para determinar la ubicación de cada una de una pluralidad de lesiones en la imagen médica, el módulo de adquisición 110 se puede configurar además para procesar los datos de imagen médica para determinar al menos una propiedad de lesión para cada una de la pluralidad de ubicaciones de lesión.
Un tipo de lesión puede ser, por ejemplo, una enfermedad o patología que causa lesión. Con respecto a los pulmones, el cáncer de pulmón puede estar presente como nódulos pulmonares benignos y malignos (lesiones). Con respecto al cerebro, la esclerosis múltiple, lupus y enfermedad de Alzheimer pueden dar como resultado lesiones que son visibles utilizando, por ejemplo, MRI. Con respecto a la retina, enfermedades tales como retinopatía diabética y degeneración macular relacionada con la edad, DMAE, pueden dar como resultado pequeñas lesiones focales. La enfermedad identificada como causante de una lesión puede, por lo tanto, ser considerada un tipo de lesión.
Además, existen numerosas variedades de lesiones cutáneas, muchas de las cuales se pueden caracterizar según su distribución. Se pueden utilizar varios términos para describir cómo las lesiones están distribuidas espacialmente. Pueden estar aisladas (solitarias o únicas) o múltiples. La ubicación de lesiones múltiples en ciertas regiones ayuda al diagnóstico, ya que las enfermedades de la piel tienden a tener distribuciones características. Los términos descriptivos incluyen, acral (en relación con o que afecta a las extremidades distales), siguiendo líneas de Blaschko (siguiendo un patrón de segmento, aproximadamente lineal), dermatomal (lesiones confinadas a uno o más segmentos de piel inervados por un único nervio espinal y generalizadas (lesiones distribuidas aleatoriamente sobre la mayor parte del área de superficie corporal o dentro de una región anatómica), y herpetiforme (pápulas sólidas dentro de un agrupamiento). Por consiguiente, en el caso de que la parte del sujeto sea una parte de la piel del sujeto, el tipo de lesión puede referirse a uno de estos términos.
Alternativamente, un tipo de lesión puede ser si la lesión tiene o no una calidad particular, por ejemplo, ser circulada, exudada, plana, lisa, espiculada o cualquier otra calidad que pueda ser de interés para el médico u otro usuario del aparato 100.
Un área de lesión o un volumen de lesión puede definirse en términos de píxeles o de cualquier otro sistema de coordenadas. En particular, un área de lesión o un volumen de lesión podría ser el área o volumen ocupado por una lesión en uno de los sistemas de coordenadas analizados anteriormente o puede ser una estimación del área verdadera o volumen en el cuerpo humano. Al estimar o calcular un área de lesión o volumen de lesión, se puede suponer que las lesiones son lo suficientemente pequeñas como para que cada lesión individual ocupe una región en la superficie corporal que es lo suficientemente pequeña como para ser considerada como una superficie plana.
La complejidad de la forma de la lesión se puede definir de cualquier manera adecuada conocida en la técnica. A modo de ejemplo, una complejidad de la forma de la lesión se puede definir como la relación de un perímetro de la lesión al área de la lesión.
Una intensidad de lesión puede ser un valor de intensidad promedio de los píxeles de la lesión en la imagen médica o un valor de contraste entre los píxeles de la lesión y las áreas circundantes en la imagen médica. Se puede definir un color de lesión en cualquier sistema de representación de color adecuado conocido en la técnica (por ejemplo, RGB, HSV, CYMK, etc.).
En la etapa de proceso S12 de la Fig. 3, el módulo de clasificación 120 del aparato 100 de la Fig. 1 aplica un algoritmo de agrupamiento a la pluralidad de ubicaciones de lesión con el fin de identificar al menos un agrupamiento de lesiones y los datos de agrupamiento de lesiones correspondientes.
La salida de la etapa de agrupamiento es un conjunto de agrupamientos de lesiones. Cada agrupamiento de lesiones representa un subconjunto de las lesiones que se introdujeron en el algoritmo de agrupamiento. Estos subconjuntos son usualmente no intersectantes. Se podrían aplicar algoritmos para el análisis de agrupaciones a las ubicaciones de las lesiones para producir información cuantificada que caracteriza el agrupamiento observado visualmente de las lesiones en las imágenes médicas adquiridas.
A modo de ejemplo, la Fig. 5(a) es una ilustración esquemática que muestra una imagen médica 500, en donde están presentes lesiones 510, a las que se ha aplicado un algoritmo de agrupamiento, según una primera realización de ejemplo en el presente documento. En el ejemplo de la Fig. 5(a), la imagen médica 500 es una imagen de una parte de la retina de un sujeto capturada utilizando un oftalmoscopio láser de barrido, SLO. Como se muestra en la Fig. 5(a), la salida del algoritmo de agrupamiento es un conjunto de agrupamientos de lesiones 520a, 520b, 520c, 520d y 520e, que se indican utilizando líneas discontinuas.
Se puede observar que, en el ejemplo de las lesiones de retina 510, aunque parece que se forman en ubicaciones aleatorias en la retina, estas a menudo se agrupan en regiones más pequeñas o más grandes. En la retina, hay unos pocos ejemplos en donde los agrupamientos de lesiones corresponden a la práctica clínica:
• El exudado circinato se agrupa en la retinopatía diabética, DR;
• Drusa macular en degeneración macular avanzada, AMD.
En una realización alternativa, en un caso en donde el módulo de adquisición 110 está configurado para adquirir una propiedad de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen médica, el módulo de clasificación 120 se puede configurar además para aplicar el algoritmo de agrupamiento a los datos de propiedad de lesión. Es decir, además de la pluralidad de ubicaciones de lesión, el algoritmo de agrupamiento puede recibir como entrada la propiedad de lesión de cada una de las ubicaciones de lesión. A modo de ejemplo, se puede seleccionar un parámetro o cualquier otro factor adecuado del algoritmo de agrupamiento en base a la propiedad de lesión para cada una de la pluralidad de ubicaciones de lesión. Alternativamente, la propiedad de lesión para cada una de la pluralidad de localizaciones de lesión se puede utilizar por el algoritmo de agrupamiento para influir o controlar el agrupamiento de las localizaciones de lesión de cualquier manera adecuada.
A modo de alternativa adicional, en un caso en el que el módulo de adquisición 110 está configurado para adquirir una propiedad de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen médica, el módulo de clasificación 120 se puede configurar para aplicar el algoritmo de agrupamiento con respecto a la pluralidad de ubicaciones de lesión que tienen la misma propiedad de lesión.
La Fig. 5(b) es una ilustración esquemática que muestra una imagen médica 500', en donde están presentes las lesiones 510, 530, a la que se ha aplicado un algoritmo de agrupamiento, según una segunda realización a modo de ejemplo en el presente documento. En la realización de la Fig. 5(b), el módulo de adquisición 110 ha adquirido un tipo de lesión, como propiedad de lesión, para cada una de la pluralidad de ubicaciones de lesión en la imagen médica 500'. El algoritmo de agrupamiento se aplica con respecto a una primera pluralidad de ubicaciones de lesión de lesiones 510 que tienen la misma propiedad de lesión, es decir, lesiones 510 de un mismo primer tipo. La salida del algoritmo de agrupamiento es un conjunto de agrupamientos de lesiones 540a, 540b, 540c, 540d y 540e del mismo tipo de lesión, que se indican utilizando líneas discontinuas.
Adicionalmente, en el ejemplo de la Fig. 5(b), el algoritmo de agrupamiento se aplica entonces con respecto a una segunda pluralidad de localizaciones de lesión de lesiones que tienen la misma propiedad de lesión, es decir, lesiones 530 de un mismo segundo tipo. En este caso, la salida del algoritmo de agrupamiento es un conjunto de agrupamientos de lesiones 550a, 550b, 550c y 550d del mismo tipo de lesión, que se indican utilizando líneas discontinuas.
En el ejemplo de la Fig. 5(b), la misma propiedad de lesión es un tipo de lesión. Alternativamente, la misma propiedad de lesión puede ser, por ejemplo, cualquiera de un área de lesión, un volumen de lesión, una complejidad de forma de lesión, una intensidad de lesión y un color de lesión.
El número de agrupaciones que se va a determinar por el algoritmo de agrupamiento no es fijo. Sobre la población de personas con una enfermedad particular, las lesiones se pueden formar en una amplia variedad de patrones. Puede haber un único agrupamiento o múltiples agrupamientos. Las lesiones varían en tamaño y parte de esta variación de tamaño contribuye a la impresión visual de densidad o escasez y por lo tanto también al agrupamiento observado. Un agrupamiento puede tener una forma globular generalmente redonda o puede tener una topología más compleja, tal como en el caso de exudados circinato, o, en el ejemplo de formación de imágenes de retina, drusas maculares forman agrupamientos que evitan aún rodear la fóvea. En estos casos, el agrupamiento puede ser más disperso centralmente que hacia su periferia, dando la impresión de un agrupamiento en forma de anillo.
Existen muchos algoritmos para el análisis y detección de agrupaciones presentes en datos de imágenes médicas. Un algoritmo de agrupamiento adecuado puede hacer frente a algunos o todos los factores anteriores.
A modo de ejemplo, el algoritmo de agrupamiento aplicado por el módulo de clasificación 120 puede, como en la presente realización, no requerir, como entrada, una indicación de un número de agrupamientos. Algunos algoritmos de agrupamiento, tales como agrupamiento de k medias, requieren la especificación previa del número de agrupamientos cuando se usa como entrada. Para permitir la gama de presentaciones de enfermedad en toda la población, se debe utilizar preferiblemente un algoritmo de agrupamiento que no realice una suposición previa sobre la forma de agrupamiento de lesión en lugar de, por ejemplo, agrupamiento de k medias, que requiere tal suposición.
En este contexto, un algoritmo de agrupamiento que no hace una suposición previa sobre la forma de agrupamiento de lesiones puede, como en la presente realización, comprender al menos uno de un algoritmo de agrupamiento espacial basado en densidad de aplicaciones con ruido (DBSCAN) y aplicar un umbral a un mapa filtrado de paso de banda de la pluralidad de ubicaciones de lesión. Alternativamente, se puede utilizar cualquier otro algoritmo de agrupamiento adecuado conocido en la técnica.
En el agrupamiento de filtros de paso de banda, se aplica un filtro de paso de banda a un mapa de objetos (en este contexto, un mapa de una pluralidad de ubicaciones de lesión) que van a agruparse. Sea L un mapa de la pluralidad adquirida de ubicaciones de lesiones que se van a agrupar. A continuación, mapa filtrado de paso de banda,Lbpf,se puede representar mediante:
Lbpf= (L o G(a))/(LoG(b)) - 1
donde "o" representa convolución, G(s) representa una función gaussiana de 2 dimensiones con desviación estándar s yay b (a > b) controlan los puntos del ancho de banda de transición superior e inferior del filtro de paso de banda.
El mapa filtrado de paso de banda resultante,Lbpf,puede tener un umbral, por ejemplo, utilizando una histéresis para formar un mapa de agrupaciones. Por ejemplo, la formación de umbrales basada en la histéresis puede representarse mediante:
-agrupamiento<=>rec(Lbpf, th t2)
utilizandorecpara representar una reconstrucción morfológica (https://uk.mathworks.com/ayuda/images/understanding-morfological-reconstruction.html) para dos umbrales,ti>t2.
Una salida adicional de la etapa de agrupamiento son los datos de agrupamiento de lesiones correspondientes al conjunto de salida de agrupamientos de lesiones. En particular, los datos de agrupamiento de lesiones pueden ser cualquier dato o información asociada con un agrupamiento de lesiones identificado particular o asociada con las lesiones individuales de un agrupamiento particular. A modo de ejemplo, los datos del agrupamiento de lesiones pueden incluir las coordenadas de cada lesión en un agrupamiento de lesiones particular y/o, para cada lesión en ese agrupamiento de lesiones, una o más de las propiedades de lesión adquiridas por el módulo de adquisición 110. En particular, a modo de ejemplo no limitativo, la información indicativa de una o más propiedades de lesión se puede almacenar en asociación con cada una de la pluralidad de ubicaciones de lesión y el módulo de clasificación 120 se puede configurar para recuperar información indicativa de la una o más propiedades de lesión para cada una de las ubicaciones de lesión en un agrupamiento de lesiones identificado y asociar esta información con ese agrupamiento de lesiones como datos de agrupamiento de lesiones.
Adicional o alternativamente, los datos de agrupamiento de lesiones de un agrupamiento de lesiones particular pueden incluir información sobre el propio agrupamiento. Es decir, los datos del agrupamiento de lesiones pueden incluir al menos una propiedad de agrupamiento de lesiones. A modo de ejemplo, los datos de agrupamiento de lesiones determinados de cada uno del al menos un agrupamiento de lesiones pueden resumir un agrupamiento de lesiones utilizando sus estadísticas tales como sus momentos (multivariable). Por ejemplo, la media, desviación estándar, varianza, de coordenadas espaciales de cada ubicación de lesión en el agrupamiento se puede utilizar para caracterizar la ubicación del agrupamiento. La covarianza, (co)asimetría y (co)curtosis de coordenadas espaciales de cada ubicación de lesión en el agrupamiento de lesiones se puede utilizar para caracterizar la forma, propagación y apertura de un agrupamiento, respectivamente. El cálculo de estadísticas se puede ponderar mediante el área de lesión individual o el brillo.
Alternativamente, un agrupamiento de lesiones se puede resumir por las propiedades de lesión de ese agrupamiento de lesiones. Por ejemplo, un agrupamiento de lesiones puede resumir por un valor medio, mediano o modal de una propiedad de lesión determinada utilizando el valor para esa propiedad de cada lesión del agrupamiento de lesiones. A este sentido, un valor medio puede ser un valor promedio o esperado de un conjunto de valores, un valor mediano es un valor que separa la mitad superior de la mitad inferior de la muestra de datos de manera que cualquier valor dado es igualmente probable que caiga por encima o por debajo del valor, y un valor modo de un conjunto de valores es el valor que aparece más a menudo entre el conjunto.
Esta información puede ser generada directamente por el algoritmo de agrupamiento. Alternativamente, los datos del agrupamiento de lesiones pueden ser determinados por el módulo de clasificación 120 en base a la al menos un agrupamiento de lesiones identificado generados por el algoritmo de agrupamiento y asociado con el agrupamiento de lesiones correspondiente como datos del agrupamiento de lesiones.
A modo de ejemplo adicional, los datos de agrupamiento de lesiones pueden incluir al menos una propiedad de agrupamiento de cada uno del al menos un agrupamiento de lesiones, comprendiendo la al menos una propiedad de agrupamiento uno o más de:
• en un caso en el que se adquiere un tipo de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen médica, un tipo modal de lesiones en el agrupamiento de lesiones;
• en un caso en el que se adquiere un área de lesión o un volumen de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen médica, un área de lesión media o mediana o un volumen de lesión medio o mediano de lesiones en el agrupamiento de lesión;
• en un caso en el que se adquiere una complejidad de forma de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen médica, una complejidad de forma de lesión media o mediana de lesiones en el agrupamiento de lesiones;
• en un caso en el que se adquiere una intensidad de lesión o un color de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen médica, una intensidad de lesión media o mediana o un color de lesión medio o mediano de lesiones en el agrupamiento de lesiones;
• una ubicación media de las lesiones del agrupamiento de lesiones;
• una ubicación mediana de las lesiones del agrupamiento de lesiones;
• una desviación estándar de las ubicaciones de las lesiones del agrupamiento de lesiones;
• una varianza de las ubicaciones de las lesiones del agrupamiento de lesiones;
• un valor de covarianza del agrupamiento de lesiones;
• un valor de asimetría del agrupamiento de lesiones;
• un valor de cocurtisis del agrupamiento de lesiones;
• un valor de curtosis del agrupamiento de lesiones;
• un valor de cocurtosis del agrupamiento de lesiones;
• una complejidad de forma del agrupamiento de lesiones; y
• un área de agrupamiento de lesiones.
En la etapa de proceso S14 de la Fig. 3, el módulo de clasificación clasifica cada uno del al menos un agrupamiento de lesiones en una del conjunto de categorías predeterminadas basándose en los datos de agrupamiento de lesiones determinados.
El conjunto de categorías predeterminadas puede, como en la presente realización, ser seleccionable por un usuario u operador del aparato 100 para una o más determinaciones del nivel de patología presente en una imagen médica. Alternativamente, el conjunto de categorías predeterminadas puede ser fijo. Cada categoría se puede definir de cualquier modo, pero es habitual que para cualesquiera posibles datos de agrupamiento de lesiones, no existan categorías o una categoría única a la que se puedan asignar.
Más específicamente, el módulo de clasificación 120 de la Fig. 1 está configurado para clasificar cada uno del al menos un agrupamiento de lesiones en una de un conjunto de categorías predeterminadas basándose en los datos determinados del agrupamiento de lesiones utilizando una cuadrícula, tal como la cuadrícula 630 en la Fig. 6(b) para definir campos (elementos de cuadrícula) en la imagen médica y clasificar cada uno del al menos un agrupamiento de lesiones según el campo en donde se localiza un centroide, una ubicación media de lesiones del al menos un agrupamiento de lesiones y/o una ubicación mediana de las lesiones del al menos un agrupamiento de lesiones. Como se muestra en la Fig. 6(b), los campos (elementos de cuadrícula) se pueden superponer.
La Fig. 6(a) es una ilustración esquemática, que muestra la imagen médica 600, a la que se ha aplicado el algoritmo de agrupamiento, en la que se identifica un centroide 610a, 610b, 610c, 610d, 610e de cada uno de los agrupamientos de lesiones 620a, 620b, 620c, 620d, 620e, respectivamente. La Fig. 6(b) es una ilustración esquemática, que muestra la misma imagen médica 600, a la que se ha aplicado el algoritmo de agrupamiento, en donde los agrupamientos de lesiones 620a, 620b, 620c, 620d, 620e se clasifican según un campo F1, F2 , F3,<f>4, F5, F6, F7, P1, P2, P3, P4, P5 en donde se encuentra un centroide 610a, 610b, 610c, 610d, 610e del agrupamiento. En el ejemplo de las Figs. 6(a) y 6(b), la imagen médica 600 se muestra esquemáticamente como una imagen de campo ultra ancho de una parte de la retina de un sujeto capturada utilizando un oftalmoscopio láser de barrido, SLO.
El propósito de una cuadrícula 630 es dividir la anatomía humana en cuestión (específicamente, una parte de la retina) en regiones que permitan la caracterización de la ubicación de la patología. La ubicación de una rejilla 630 con respecto a la anatomía observada se usa comúnmente en el análisis de la enfermedad de retina. Por ejemplo, en la clasificación de la maculopatía, la maculopatía se puede definir utilizando regiones circulares F1, F2, F3, F4, F5, F6, F7 que definen la mácula 640 que están centradas en la fóvea 440. En la Fig. 6(b), la retina está dividida en regiones superpuestas F1, F2, F3, F4, F5, F6, F7 que representan fotografía estándar del fondo de ojo del Estudio de Retinopatía Diabética por Tratamiento Temprano (ETDRS), ubicadas en relación con la fóvea 440 y el ONH 450 (Fig. 5(b), y otras regiones P1, P2, P3, P4, P5 que cubren el resto de la imagen de retina de campo ultra ancho.
En general, una cuadrícula, tal como la cuadrícula 630, comprende regiones conectadas de una imagen o bordes que están definidos utilizando puntos que tienen coordenadas fijas (y posiblemente utilizando distancias tales como radios de círculo) en un sistema de coordenadas, tal como cualquiera de los descritos anteriormente en relación con la etapa de proceso S10. Cada campo (tal como, por ejemplo, los campos F1, F2, F3, F4, F5, F6, F7, P1, P2, P3, P4, P5 en la Fig. 6(b)) es encerrado entonces por un subconjunto especificado de estos bordes. Adicionalmente, se pueden utilizar otros bordes que no se definen utilizando puntos que tienen coordenadas fijas. Ejemplos de estos son (a) los bordes de la imagen o (b) el límite de anatomía visible en la imagen. Tales bordes también se pueden utilizar para definir los límites de campo.
Como se puede ver en la Fig. 6(b), el centroide 610a del agrupamiento de lesiones 620a está localizado en el campo F3. De manera similar, el centroide 610b del agrupamiento de lesiones 620b está ubicado en el campo P3, el centroide 610c del agrupamiento de lesiones 620c está ubicado en el campo F5, el centroide 610d del agrupamiento de lesiones 620d está ubicado en el campo F7 y el centroide 610e del agrupamiento de lesiones 620e está ubicado en el campo P4. Por consiguiente, cada una de las categorías correspondientes a los campos F3, P3, F5, F7 y P4 comprende un único agrupamiento de lesiones y cada una de las categorías correspondientes a los campos F1, F2, F4, F6, P1, P2, P5 no comprende un agrupamiento de lesiones (es decir, las categorías vacías).
En el ejemplo de la Fig. 6(b), cada categoría comprende como máximo un único agrupamiento de lesiones. Sin embargo, en ejemplos alternativos, al menos un subconjunto de las categorías puede comprender dos o más agrupamientos de lesiones, dependiendo del número y distribución de los agrupamientos de lesiones identificados por el módulo de clasificación 120.
Adicionalmente, a modo de ejemplo adicional, el módulo de clasificación 120 de la Fig. 1 se puede configurar para clasificar cada uno del al menos un agrupamiento de lesiones en al menos una de un conjunto de categorías predeterminadas basándose en los datos de agrupamiento de lesiones determinados mediante:
• en un caso en el que se adquiere un tipo de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen médica y los datos de agrupamiento de lesiones de cada uno del al menos un agrupamiento de lesiones comprenden un tipo de modo de lesiones en el agrupamiento de lesiones, clasificando cada uno del al menos un agrupamiento de lesiones según el tipo de modo de lesiones en el agrupamiento de lesiones;
• en un caso en el que los datos de agrupamiento de lesiones de cada uno del al menos un agrupamiento de lesiones comprenden al menos uno de una media, una mediana, una desviación estándar y una varianza de las ubicaciones de las lesiones del agrupamiento de lesiones, clasificar cada uno del al menos un agrupamiento de lesiones según la al menos una de la media, la mediana, la desviación estándar y la varianza de las ubicaciones de las lesiones del agrupamiento de lesiones;
• en un caso en el que los datos de agrupamiento de lesiones de cada uno del al menos un agrupamiento de lesiones comprenden al menos uno de un valor de covarianza del agrupamiento de lesiones, un valor de asimetría del agrupamiento de lesiones, un valor de cocurtosis del agrupamiento de lesiones, un valor de curtosis del agrupamiento de lesiones y un valor de cocurtosis del agrupamiento de lesiones, clasificando cada uno del al menos un agrupamiento de lesiones según una forma del agrupamiento de lesiones;
• en un caso en el que los datos del agrupamiento de lesiones de cada uno del al menos un agrupamiento de lesiones comprenden una complejidad de forma del agrupamiento de lesiones o un área del agrupamiento de lesiones, clasificando cada uno del al menos un agrupamiento de lesiones según una complejidad de forma o área del agrupamiento de lesiones;
• en un caso en el que se adquiere un área de lesión o un volumen de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen médica y los datos de agrupamiento de lesiones de cada uno del al menos un agrupamiento de lesiones comprenden un área de lesión media o mediana o un volumen de lesión medio o mediano de lesiones en el agrupamiento de lesiones, clasificar cada uno del al menos un agrupamiento de lesiones según el área de lesión media o mediana o el volumen de lesión medio o mediano de lesiones en el agrupamiento de lesiones;
• en un caso en el que se adquiere una complejidad de forma de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen médica y los datos de agrupamiento de lesiones de cada uno del al menos un agrupamiento de lesiones comprenden una complejidad de forma de lesión media o mediana de lesiones en el agrupamiento de lesiones, clasificar cada uno del al menos un agrupamiento de lesiones según la complejidad de forma de lesión media o mediana de lesiones en el agrupamiento de lesiones; y
• en un caso en el que se adquiere un color de lesión o una intensidad de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen médica y los datos de agrupamiento de lesiones de cada uno del al menos un agrupamiento de lesiones comprenden un color de lesión medio o mediano o una intensidad de lesión media o mediana de lesiones en el agrupamiento de lesiones, clasificar cada uno del al menos un agrupamiento de lesiones según el color de lesión medio o mediano o la intensidad de lesión media o mediana de lesiones en el agrupamiento de lesiones.
De manera similar al ejemplo analizado anteriormente en relación con la Fig. 6(b), después de que el módulo de clasificación 120 haya clasificado cada uno del al menos un agrupamiento de lesiones en una del conjunto de categorías predeterminadas, cada categoría del conjunto de categorías predeterminadas puede no comprender agrupamientos de lesiones o uno o más agrupamientos de lesiones y sus datos de agrupamientos de lesiones correspondientes.
En el ejemplo de la Fig. 6(b), el número de categorías predeterminadas es doce. Alternativamente, el número de categorías predeterminadas puede ser cualquier número mayor o igual a 2.
En la etapa de proceso S16 de la Fig. 3, el módulo de clasificación 120 aplica al menos una función a los datos de agrupamiento de lesiones con respecto a cada categoría del conjunto de categorías predeterminadas, en donde la al menos una función proporciona un número fijo de salidas de datos.
La al menos una función puede ser, por ejemplo, una función estadística,f:S—>x,donde^ c (es decir, una función que toma un conjunto de números reales y devuelve un número real). Además, la al menos una función aplicada por el módulo de clasificación 120 puede ser una función estadística que toma un número no fijo de datos como entrada (por ejemplo, el número de lesiones y/o el número de agrupamientos de lesiones en cada categoría) y determina un número conocido de resultados (salidas), (es decir, el tamaño del conjunto de salida asociado con la función estadística de datos se conoce antes de la aplicación de la función a los datos de entrada). Para cada categoría, se pueden utilizar una o más de tales funciones.
Cada una de la al menos una función se aplica a los agrupamientos de lesiones en la categoría, o a una propiedad, tal como un área de agrupamiento de lesiones, de cada agrupamiento de lesiones en la categoría. Para cada categoría, el resultado es un vector de datos de longitud conocida. Los resultados que usan todas las categorías proporcionan los datos de tamaño fijo, proporcionando de este modo resultados que se pueden utilizar como entrada para clasificadores automatizados, sin requerir información relacionada con una distribución espacial a través de la imagen médica y/o relacionada con la manera en que las lesiones están asociadas entre sí para omitirse.
A modo de ejemplo, al menos una función puede comprender al menos uno de:
• una función de recuento (que puede, por ejemplo, generar un recuento del número de agrupaciones en una categoría dada);
• una función de suma (que puede, por ejemplo, generar una suma total de un valor numérico, tal como el número de lesiones en el agrupamiento o la ubicación de lesión promedio en el agrupamiento, incluida en los datos del agrupamiento de lesiones de cada agrupamiento en una categoría dada);
• una función de media (que puede, por ejemplo, proporcionar un valor medio o promedio de un valor numérico incluido en los datos de agrupamiento de lesiones de cada agrupamiento en una categoría dada);
• una función de desviación estándar (que puede, por ejemplo, generar un valor de desviación estándar de un valor numérico incluido en los datos del agrupamiento de lesiones de cada agrupamiento en una categoría dada);
• una función de asimetría (que puede, por ejemplo, generar un valor de asimetría (es decir, una medida del grado en el que una distribución difiere de una distribución normal) de un valor numérico incluido en los datos de agrupamientos de lesiones de cada agrupamiento en una categoría dada);
• una función de máximo (que puede, por ejemplo, generar un valor máximo de un valor numérico incluido en los datos de agrupamiento de lesiones de cada agrupamiento en una categoría dada); y/o
• una función de mínimo (que puede, por ejemplo, generar un valor mínimo de un valor numérico incluido en los datos de agrupamiento de lesiones de cada agrupamiento en una categoría dada).
Por ejemplo, para cada categoría a la que se aplica, la función de recuento genera un valor indicativo del número de agrupamientos en esa categoría. Para cada categoría a la que se aplica, cada una de las cinco últimas funciones se puede aplicar a los valores de propiedad particular de cada uno de los agrupamientos de lesiones en esa categoría.
La función estadística, y los datos del agrupamiento de lesiones al que se aplica, se pueden seleccionar hacia una aplicación clínica. Es decir, la selección se puede diseñar para expresar un patrón de distribución de lesiones que se espera que tenga una asociación o correlación con un resultado de enfermedad particular. Por ejemplo, en la enfermedad de retina, la DMAE, se espera que las lesiones se distribuyan alrededor de la mácula. El riesgo para el paciente puede depender de la tendencia de las lesiones asociadas con esta enfermedad de estar presentes cerca de la fóvea. La desviación media y estándar de la distancia desde la fóvea, sería estadística útil para cuantificar la tendencia de las lesiones a formarse en la mácula.
A modo de ejemplo adicional, la Tabla 1 siguiente muestra un ejemplo del número fijo de salidas resultantes del módulo de clasificación 120 que aplica una función de recuento y una función de suma a cada una de las categorías correspondientes a los campos F1, F2, F3, F4, F5, F6, F7, P1, P2, P3, P4, P5 de la Fig. 6(b). En particular, la función de suma genera un valor indicativo de la suma de los valores de propiedad particular (en este caso área de agrupamientos de lesiones) de cada uno de los agrupamientos de lesiones en una categoría dada. En el ejemplo de la Fig. 6(b), como cada una de las categorías correspondientes a los campos F3, P3, F5, F7 y P4 comprende un único agrupamiento de lesiones, la suma de las áreas de agrupamiento de los agrupamientos de lesiones en una categoría dada es igual al área de agrupamiento del único agrupamiento de lesiones en la categoría.
Tabla 1
Por consiguiente, en este ejemplo, el resultado del módulo de clasificación 120 que aplica la al menos una función a los datos de agrupamiento de lesiones con respecto a cada categoría del conjunto de categorías predeterminadas es un vector de longitud 24 (es decir, para cada una de las 12 categorías hay dos valores asociados: un valor de recuento y un valor de suma). En este caso, el "0" puede ser tratado por los clasificadores como un campo de datos vacío para la respectiva categoría.
Alternativamente, cualquier número o combinación de funciones, incluyendo las enumeradas anteriormente, se puede aplicar a los datos del agrupamiento de lesiones con respecto a cada categoría del conjunto de categorías predeterminadas, siempre que cada función proporcione una única salida o un número fijo de salidas.
En la etapa de proceso S18 de la Fig. 3, el módulo de determinación 130 determina la condición patológica a partir de la imagen médica procesando el número fijo de salidas de cada categoría del conjunto de categorías predeterminadas utilizando el algoritmo de clasificación entrenado en datos de imagen que definen imágenes médicas de la parte de una pluralidad de sujetos. Es decir, para cada categoría, la salida(s) de la al menos una función cuando se aplica a esa categoría se utiliza como entradas pare el algoritmo de clasificación.
A modo de ejemplo, el módulo de determinación 130 se puede configurar para determinar un nivel de patología o una condición patológica que es indicativo de uno cualquiera o más de: la presencia o ausencia de una condición o enfermedad patológica en la parte del sujeto de la que se obtienen imágenes; la gravedad de una condición o enfermedad patológica en la parte del sujeto de la que se obtienen imágenes; y la tasa de avance de una condición o enfermedad patológica en la parte del sujeto de la que se obtienen imágenes.
En particular, el algoritmo de clasificación puede clasificar la imagen como perteneciente a uno de dos o más niveles/condiciones patológicos. Cuando hay dos niveles, estos niveles pueden corresponder a una determinación de que la parte del sujeto no está sana o está sana. Por consiguiente, la salida del algoritmo de clasificación puede ser "sí" o "no", 1 o 0, o algún otro indicador binario de si está presente o no una patología, condición patológica o enfermedad.
Alternativamente, cuando el algoritmo de clasificación puede clasificar la imagen como perteneciente a 2 o más niveles, estos niveles pueden corresponder a una determinación del nivel de gravedad de una enfermedad o patología de la parte del sujeto, por ejemplo, leve, moderada, grave, etc. Alternativamente, cuando el algoritmo de clasificación puede clasificar la imagen como perteneciente a 2 o más niveles, estos niveles pueden corresponder a una determinación de la tasa de progreso de una enfermedad o patología en la parte del sujeto, por ejemplo, lenta, moderada, rápida, etc. A modo de ejemplo, en un caso en el que una imagen médica anterior de una parte de un sujeto se ha procesado previamente para determinar un nivel de gravedad de la enfermedad, se puede determinar una tasa de progreso de una enfermedad o patología determinando primero un nivel de gravedad de la enfermedad basándose en la imagen médica actual y determinando después una tasa de progreso basándose en el aumento del nivel de gravedad y el intervalo de tiempo entre la captura de la imagen médica actual y la imagen médica anterior. Alternativamente, el algoritmo de clasificación puede ser entrenado para identificar, como parte de determinar una condición patológica, cualquier rasgo o característica de la parte del sujeto de la que se están tomando imágenes que es conocida en el campo médico que es indicativa de una tasa de progreso de una enfermedad.
En realizaciones como la presente realización ilustrada, donde el aparato 100 comprende un generador de señales de control de visualización 140, el generador de señales de control de visualización 140 puede estar dispuesto para generar señales de control de visualización para controlar un dispositivo de visualización (como se muestra en 215 en la Fig.2), tal como una pantalla LCD u otro tipo de unidad de visualización, para visualizar al menos una representación del nivel determinado de patología. La representación mostrada del nivel determinado de patología puede adoptar cualquier forma adecuada conocida en la técnica, por ejemplo, palabras, números, gráficos, indicadores de color, etc.
La Fig. 7 es una ilustración esquemática que muestra cómo un algoritmo de clasificación puede ser entrenado en datos de imagen 701, 702 que definen imágenes médicas de la parte 710 de una pluralidad de sujetos, según una primera realización a modo de ejemplo en el presente documento. En el ejemplo de la Fig. 7, las imágenes definidas por los datos de imagen 701, 702 son imágenes de una parte de la retina de una pluralidad de sujetos capturados utilizando un oftalmoscopio láser de barrido, SLO, 350.
En particular, los datos de imagen 702 definen imágenes de ojos sanos, y los datos de imagen 701 definen imágenes de ojos no sanos. En este contexto, un ojo sano es uno en el que no hay lesiones presentes y un ojo no sano es uno en donde hay lesiones, causadas por una enfermedad o patología particular. La identificación de que una enfermedad o patología particular está presente (en lugar de identificar simplemente que las lesiones están presentes) puede depender de la distribución espacial de las lesiones y de los agrupamientos de lesiones. Por lo tanto, un ojo sano también puede ser uno en el que están presentes lesiones, pero no en una forma indicativa de la enfermedad o patología particular en cuestión. Un algoritmo de aprendizaje 730 está configurado para aprender de, y hacer predicciones en base a, datos de entrada construyendo un modelo 740 (algoritmo de clasificación) a partir de un conjunto de entrenamiento de ejemplo 700 de datos de entrada, que comprende los datos de imagen 702 que definen imágenes de la retina de ojos sanos, y los datos de imagen 701 que definen imágenes de la retina de ojos no sanos. A modo de ejemplo, los datos de imagen 701 definen imágenes de la parte de ojos no sanos, cada uno de los cuales tiene una pluralidad de lesiones. Las imágenes definidas por los datos de imagen 701 en el conjunto de entrenamiento de ejemplo 700 pueden obtener adquiriendo imágenes de las retinas de múltiples sujetos. Más generalmente, cada imagen es de la misma parte (en este caso, la retina del ojo 710) de un sujeto o de sustancialmente la misma parte de un sujeto o de una parte de un sujeto que contiene la misma parte que la parte del sujeto para la que se va a determinar un nivel de patología. Además, cada imagen definida por los datos de imagen en el conjunto de entrenamiento de ejemplo 700 se adquiere mediante el sistema de formación de imágenes médicas 350 o mediante un mismo tipo de sistema de formación de imágenes médicas y que funciona en una misma modalidad de formación de imágenes.
El algoritmo de aprendizaje puede, como en la presente realización, ser un algoritmo de aprendizaje supervisado. En particular, el algoritmo de aprendizaje puede, como en la presente realización, ser un algoritmo de aprendizaje supervisado que comprende una red neuronal.
En realizaciones en las que el algoritmo de aprendizaje 730 es un algoritmo de aprendizaje supervisado (tal como una red neuronal, una máquina de vector de soporte o un algoritmo evolutivo, por ejemplo), cada imagen de ejemplo en el conjunto de entrenamiento de ejemplo 700 es un par que consiste en datos de imagen de entrada que definen una imagen de la parte de un sujeto y un valor de salida deseado que indica si la imagen es de una parte de una parte "sana" o "no sana" (en este caso, la retina del ojo). El algoritmo de aprendizaje supervisado 730 analiza los datos de imagen en el conjunto de entrenamiento de ejemplo 700 y produce un modelo o algoritmo de clasificación 740, que se puede utilizar para clasificar nuevos datos de imagen no vistos que definen una imagen de la parte de un sujeto como "sanos" o "no sano".
En una realización a modo de ejemplo en el presente documento, dado que el algoritmo de aprendizaje 730 es entrenado en un conjunto de entrenamiento de ejemplo 700 en donde los datos de imagen 701,702 se clasifican solo como "sanos" o "no sanos", el modelo 740 no puede distinguir entre niveles de gravedad de patología en la parte del sujeto de la que se toman imágenes o tasas de avance de patología en la parte del sujeto de la que se toman imágenes. Sólo puede determinar si está presente o no una patología, por ejemplo, retinopatía diabética grave.
La Fig. 8 es una ilustración esquemática que muestra cómo el algoritmo de aprendizaje 830 puede ser entrenado en los datos de imagen 801,802, 803, 804 que definen imágenes médicas de la parte de una pluralidad de sujetos, según una segunda realización a modo de ejemplo en el presente documento. De manera similar a la Fig. 7, en el ejemplo de la Fig. 8, las imágenes definidas por los datos de imagen 801,802, 803, 804 son imágenes de una parte de la retina de una pluralidad de sujetos capturadas utilizando un oftalmoscopio láser de barrido, SLO, 350.
A modo de ejemplo, los datos de imagen 801 definen imágenes de la parte de ojos no sanos que tienen retinopatía diabética no periférica moderada, los datos de imagen 802 definen imágenes de la parte de ojos no sanos que tienen retinopatía diabética no periférica grave, y los datos de imagen 803 definen imágenes de la parte de ojos no sanos que tienen retinopatía diabética periférica. Los datos de imagen 804 definen imágenes de la parte de ojos sanos que no tienen retinopatía diabética (y pueden tener o no otras enfermedades o patologías).
Un algoritmo de aprendizaje 830 está configurado para aprender de, y hacer predicciones en base a, datos de entrada construyendo un modelo o algoritmo de clasificación 840 a partir de un conjunto de entrenamiento de ejemplo 800 de datos de entrada, que comprende los datos de imagen 804 que definen imágenes de la retina de ojos sanos, y los datos de imagen 801, 802, 803 que definen imágenes de la retina de ojos no sanos. Las imágenes definidas por los datos de imagen 801 a 804 en el conjunto de entrenamiento de ejemplo 800 se pueden obtener adquiriendo imágenes de las retinas de múltiples sujetos. Más generalmente, cada imagen es de la misma parte (en este caso, la retina del ojo 710) de un sujeto o de sustancialmente la misma parte de un sujeto o de una parte de un sujeto que contiene la misma parte que la parte del sujeto para la que se va a determinar un nivel de patología. Además, cada imagen definida por los datos de imagen en el conjunto de entrenamiento de ejemplo 800 se adquiere mediante el sistema de formación de imágenes médicas 350 o mediante un mismo tipo de sistema de formación de imágenes médicas y que funciona en una misma modalidad de formación de imágenes.
Alternativamente, la propiedad de lesión se puede determinar mediante un detector de lesiones automatizado 300.
El algoritmo de aprendizaje 830 puede ser un algoritmo de aprendizaje supervisado. Por lo tanto, cada imagen de ejemplo de la parte del ojo 710 en el conjunto de entrenamiento de ejemplo 800 está asociada con un indicador que indica si esa imagen es de una parte de un ojo "sano" o "no sano" y, en los casos en los que la imagen es de una parte de un ojo "no sano", también un segundo indicador que indica un nivel determinado de gravedad de la patología (en este caso, retinopatía diabética) y la parte del sujeto de la que se han tomado las imágenes. El algoritmo de aprendizaje supervisado analiza los datos de imagen en el conjunto de entrenamiento de ejemplo 800 y produce un modelo 840 (algoritmo de clasificación), que se puede utilizar para clasificar nuevos datos de imagen (previamente no vistos) que definen una imagen de la parte del sujeto como uno de, por ejemplo: "sano"; "no sano - retinopatía diabética no proliferativa moderada"; "no sano - retinopatía diabética no proliferativa grave"; y "no sano - retinopatía diabética proliferativa".
Resultará evidente para un experto en la técnica que el aparato 100 se puede adaptar para clasificar niveles adicionales de gravedad de patología ampliando el conjunto de entrenamiento 800 para incluir, para cada uno de los niveles adicionales de gravedad de patología, datos de imagen que definen imágenes de la retina (u otra parte) del sujeto que tiene ese nivel de gravedad, e indicadores asociados como se describió anteriormente. Por ejemplo, el conjunto de entrenamiento 800 se puede ampliar para incluir datos de imagen que definen imágenes de la parte de ojos no sanos que tienen retinopatía diabética no proliferativa leve. Además, cualquiera de los datos de imagen 801, 802, 803 que definen imágenes de la parte de ojos no sanos se puede eliminar o reemplazar por datos de imagen que definen imágenes de la parte de ojos no sanos que tienen un nivel diferente de gravedad de la patología. Se puede producir entonces una versión revisada del modelo o algoritmo de clasificación 840 en base al conjunto de entrenamiento modificado 800. A modo de alternativa adicional, los datos de imagen 801, 802, 803 que definen imágenes de la parte de ojos no sanos se pueden eliminar y sustituir por datos de imagen que definen imágenes de la parte de ojos no sanos que tienen diferentes niveles de tasa de avance de la patología. Una versión revisada del modelo o algoritmo de clasificación 840 se puede producir entonces en base al conjunto de entrenamiento modificado 800.
El algoritmo de aprendizaje supervisado 830 puede, como en la presente realización de ejemplo, ser una red neuronal, tal como por ejemplo una red neuronal convolucional. Las redes neuronales convolucionales son particularmente adecuadas para tareas de reconocimiento de imágenes y vídeo. Las redes neuronales generan automáticamente características de identificación procesando los datos de entrada, tales como los datos de imagen en el conjunto de entrenamiento de ejemplo 800, sin ningún conocimiento previo.
Como se ilustra en la Fig. 9, en general, una red neuronal consiste en una capa de entrada (que tiene entradas de ejemplo x1, x2 y x3 como se muestra, aunque también se pueden proporcionar más o menos entradas) y una capa de salida, así como múltiples capas ocultas. Cada una de las capas está compuesta por una pluralidad de neuronas artificiales (marcadas con A a F en la Fig. 9), y cada capa puede realizar diferentes tipos de transformaciones en sus entradas. Cada neurona artificial puede estar conectada a múltiples neuronas artificiales en capas adyacentes. La salida de cada neurona artificial se calcula mediante alguna función no lineal de la suma de sus entradas. Las neuronas artificiales y las conexiones entre ellas tienen típicamente pesos respectivos (WAD, WAE, etc. en la Fig. 9) que determinan la intensidad de la señal en una conexión dada. Estos pesos se ajustan a medida que avanza el aprendizaje, ajustando de ese modo la salida de la red neuronal. Las señales viajan desde la primera capa (la capa de entrada), a la última capa (la capa de salida), y pueden atravesar las capas múltiples veces.
La salida (y1) de la red neuronal se puede ver como una probabilidad de que los datos de imagen médica de entrada contengan características de identificación de un nivel particular de patología (por ejemplo, cualquiera de las analizadas anteriormente) y la clasificación puede, como en la presente realización a modo de ejemplo, comprender determinar si la salida del modelo entrenado 840 supera un umbral predeterminado. El umbral predeterminado puede representar una probabilidad aceptablemente baja de que los datos de imagen de entrada contengan características de identificación de un nivel particular de patología y, por lo tanto, una alta probabilidad de que el ojo del sujeto esté sano.
Los detalles de una realización a modo de ejemplo adicional en el presente documento se expondrán a continuación en relación con la Fig. 10 y a la Fig. 11. La Fig. 10 es una ilustración esquemática de un aparato 1000 para procesar datos de imágenes médicas de una parte del sujeto capturadas utilizando un sistema de formación de imágenes médicas para determinar el nivel de patología presente en una imagen médica definida por los datos de imagen médica, según una realización a modo de ejemplo en el presente documento. El aparato 1000 de esta realización a modo de ejemplo comprende los componentes 1100, 1200, 1300 y 1400 que son los mismos que los componentes 110, 120, 130, 140, respectivamente, del aparato 100 de la Fig. 1, pero el aparato 1000 difiere en función del aparato 100 de la Fig. 1 en que no se requiere que el aparato 1000 de la Fig. 10 aplique un algoritmo de agrupamiento a la pluralidad de ubicaciones de lesión en la imagen médica. El aparato 1000 de la Fig. 10 se puede implementar mediante una configuración de hardware de procesamiento de señales, tal como la mostrada en la Fig. 2, o mediante cualquier otro medio adecuado.
El aparato 1000 de la Fig. 10 comprende un módulo de adquisición 1100, un módulo de clasificación 1200 y un módulo de determinación 1300. Como se ha expuesto anteriormente en relación con el aparato 100 de la Fig. 1, el aparato 1000 puede, opcionalmente, comprender además un generador de señales de control de visualización 1400. Las características funcionales y estructurales de cada uno de estos elementos (y de cualquier alternativa) son como se han descrito anteriormente en relación con los elementos correspondientes del aparato 100 de la Fig. 1 anterior, a menos que se indique específicamente lo contrario.
La Fig. 11 es un diagrama de flujo que ilustra un proceso por el cual un aparato 1000 de la Fig. 10 procesa datos de imagen médica para determinar el nivel de patología, según una realización a modo de ejemplo en el presente documento.
En la etapa de proceso S110 de la Fig. 11, el módulo de adquisición 1100 adquiere una pluralidad de ubicaciones de lesión en la imagen médica. El módulo de adquisición 1100 puede, opcionalmente, estar configurado para adquirir una pluralidad de ubicaciones de lesión en la imagen médica mediante cualquiera de los medios analizados anteriormente en relación con el aparato 100 de la Fig. 1, por ejemplo, mediante un detector de lesión automatizado 300 (y/o sistema de formación de imágenes médicas 350).
En la etapa de proceso S112 de la Fig. 11, el módulo de clasificación 1200 determina al menos una propiedad de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen médica.
El módulo de clasificación puede 1200, opcionalmente, estar configurado para determinar la al menos una propiedad de lesión para cada una de la pluralidad de ubicaciones de lesión mediante cualquiera de los medios analizados anteriormente en relación con el aparato 100 de la Fig. 1. Además, la al menos una propiedad de lesión puede ser cualquiera de las analizadas anteriormente en relación con el aparato 100 de la Fig. 1.
En la etapa de proceso S114 de la Fig. 11, el módulo de clasificación 1200 clasifica cada una de la pluralidad de ubicaciones de lesión en una de un conjunto de categorías predeterminadas basándose en la propiedad de lesión determinada.
La clasificación de cada una de la pluralidad de localizaciones de lesión en una de un conjunto de categorías predeterminadas basándose en la propiedad de lesión determinada comprende:
• utilizar una cuadrícula para definir campos en la imagen médica y clasificar cada una de la pluralidad de ubicaciones de lesión según el campo en donde se ubica la lesión, y, opcionalmente, uno cualquiera o más de:
• en un caso en el que se adquiere un tipo de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen médica como la propiedad de lesión, clasificar cada una de la pluralidad de ubicaciones de lesión según el tipo de lesión;
• en un caso en el que se adquiere un área de lesión o un volumen de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen médica como la propiedad de lesión, clasificar cada una de la pluralidad de ubicaciones de lesión según el área de lesión o el volumen de lesión;
• en un caso en el que se adquiere una complejidad de forma de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen médica como la propiedad de lesión, clasificar cada una de la pluralidad de ubicaciones de lesión según la complejidad de forma de lesión; y
• en un caso en el que se adquiere un color de lesión o una intensidad de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen médica como propiedad de lesión, clasificar cada una de la pluralidad de ubicaciones de lesión según el color de lesión o la intensidad de lesión.
En la etapa de proceso S116 de la Fig. 11, el módulo de clasificación 1200 aplica al menos una función a las ubicaciones de las lesiones y a las propiedades de lesión con respecto a cada categoría del conjunto de categorías predeterminadas, en donde la al menos una función proporciona un número fijo de salidas de datos.
La al menos una función aplicada por el módulo de clasificación 1200 puede, opcionalmente, ser cualquiera de las analizadas anteriormente en relación con el aparato 100 de la Fig. 1. Sin embargo, en esta realización, la al menos una función se aplica directamente a las ubicaciones de las lesiones y/o los valores de una propiedad de lesión de cada una de las ubicaciones de las lesiones en una categoría particular, en lugar de a los datos del agrupamiento de lesiones.
En la etapa de proceso S118 de la Fig. 11, el módulo de determinación 1300 determina una condición patológica a partir de la imagen médica procesando el número fijo de salidas de datos de cada categoría del conjunto de categorías predeterminadas basándose en un algoritmo de clasificación entrenado en datos de imagen que definen imágenes médicas de la parte de una pluralidad de sujetos. La condición patológica determinada puede ser, opcionalmente, cualquiera de las analizadas anteriormente en relación con el aparato 100 de la Fig. 1. El algoritmo de clasificación puede ser cualquiera de los analizados anteriormente en relación con el aparato 100 de la Fig. 1.
Los aspectos a modo de ejemplo descritos en el presente documento evitan limitaciones, concretamente vinculadas con la tecnología informática, relacionadas con clasificadores convencionales informatizados y automatizados, tales como una red neuronal artificial, un modelo lineal, una máquina de vector de soporte o un clasificador vecino más cercano K, que requieren matrices de datos fijas como entradas. En virtud de los aspectos a modo de ejemplo descritos en el presente documento, por ejemplo, el entrenamiento de un clasificador automatizado (tal como, por ejemplo, basándose en uno o más algoritmos de aprendizaje automático) para predecir/detectar un estado de enfermedad o condición patológica basándose en estadísticas de lesión, se puede realizar incluso en el caso de un número variable (no fijo) de datos, y/o en el caso de un número fijo de datos también e incluso en un caso en el que el clasificador automatizado requiere una matriz de datos de entrada fija. Además, los aspectos a modo de ejemplo en el presente documento permiten proporcionar un resumen de un número variable de datos a la vez que se minimiza la omisión indeseable de información útil en cuanto a, por ejemplo, una distribución espacial de lesiones. En virtud de las capacidades de los aspectos a modo de ejemplo descritos en el presente documento, que están vinculados con la tecnología informática, los aspectos a modo de ejemplo descritos en el presente documento mejoran el procesamiento informático (por ejemplo, al poder manejar una o ambas matrices de datos fijas y no fijas como entradas), y también mejoran el campo(s) de la formación de imágenes médicas y los dispositivos médicos, además de mejorar los protocolos clínicos basados en parámetros de distribución de lesiones en el cuerpo humano y obtener una facilitación mejorada de las determinaciones de los niveles o condiciones patológicos indicados en las imágenes médicas.
En la descripción anterior, se describen aspectos a modo de ejemplo con referencia a varias realizaciones a modo de ejemplo. Por consiguiente, la memoria descriptiva se debe considerar ilustrativa, en lugar de restrictiva. De manera similar, las figuras ilustradas en los dibujos, que resaltan la funcionalidad y ventajas de las realizaciones a modo de ejemplo, se presentan solo con fines ilustrativos. La arquitectura de las realizaciones a modo de ejemplo es suficientemente flexible y configurable, de modo que se puede utilizar (y dirigir) de maneras distintas a las mostradas en las figuras adjuntas.
Las realizaciones de software de los ejemplos presentados en el presente documento se pueden proporcionar como, un programa informático o software, tal como uno o más programas que tienen instrucciones o secuencias de instrucciones, incluidas o almacenadas en un artículo de fabricación tal como un medio accesible por máquina o legible por máquina, un almacenamiento de instrucciones o un dispositivo de almacenamiento legible por ordenador, cada uno de los cuales puede ser no transitorio, en una realización a modo de ejemplo. El programa o instrucciones en el medio no transitorio accesible por máquina, medio legible por máquina, almacén de instrucciones o dispositivo de almacenamiento legible por ordenador, se pueden utilizar para programar un sistema informático u otro dispositivo electrónico. El medio legible por máquina u ordenador, el almacenamiento de instrucciones y el dispositivo de almacenamiento pueden incluir, pero no se limitan a, disquetes, discos ópticos y discos magneto-ópticos u otros tipos de medios/medio legible por máquina/dispositivo de almacenaje/almacenamiento de instrucciones adecuado para almacenar o transmitir instrucciones electrónicas. Las técnicas descritas en el presente documento no se limitan a ninguna configuración de software particular. Pueden encontrar aplicabilidad en cualquier entorno informático o de procesamiento. Los términos "legible por ordenador", "medio accesible por máquina", "medio legible por máquina", "almacén de instrucciones" y "dispositivo de almacenamiento legible por ordenador" utilizados en el presente documento incluirán cualquier medio que sea capaz de almacenar, codificar o transmitir instrucciones o una secuencia de instrucciones para su ejecución por la máquina, ordenador o procesador informático y que haga que la máquina/ordenador/procesador informático realice uno cualquiera de los métodos descritos en el presente documento. Además, es común en la técnica hablar de software, en una forma u otra (por ejemplo, programa, procedimiento, proceso, aplicación, módulo, unidad, lógica, etc.), como que realiza una acción o produce un resultado. Tales expresiones son simplemente una forma abreviada de establecer que la ejecución del software por parte de un sistema de procesamiento hace que el procesador realice una acción para producir un resultado.
Algunas realizaciones también pueden ser implementadas mediante la preparación de circuitos integrados de aplicación específica, matrices de puertas programables en campo, o interconectando una red apropiada de circuitos de componentes convencionales.
Algunas realizaciones incluyen un producto de programa informático. El producto de programa informático puede ser un medio o medios de almacenamiento, almacén(es) de instrucciones o dispositivo(s) de almacenamiento, que tienen instrucciones almacenadas en los mismos que se pueden utilizar para controlar, o hacer, que un ordenador o procesador informático realice cualquiera de los procedimientos de las realizaciones a modo de ejemplo descritas en el presente documento. El medio de almacenamiento/dispositivo de almacenamiento/almacén de instrucciones puede incluir, por ejemplo y sin limitación, un disco óptico, una ROM, una RAM, una EPROM, una EEPROM, una DRAM, una VRAM, una memoria flash, una tarjeta flash, una tarjeta magnética, una tarjeta óptica, nanosistemas, un circuito integrado de memoria molecular, un RAID, almacén/archivo/almacenamiento de datos remotos y/o cualquier otro tipo de dispositivo adecuado para almacenar instrucciones y/o datos.
Almacenadas en uno cualquiera del medio o medios legibles por ordenador, almacén(es) de instrucciones o dispositivo(s) de almacenamiento, algunas implementaciones incluyen software para controlar tanto el hardware del sistema como para permitir que el sistema o microprocesador interactúe con un usuario humano o con otro mecanismo utilizando los resultados de las realizaciones a modo de ejemplo descritas en el presente documento. Dicho software puede incluir, sin limitación, controladores de dispositivos, sistemas operativos y aplicaciones de usuario. Finalmente, dichos medios legibles por ordenador o dispositivo(s) de almacenamiento incluyen además software para realizar aspectos a modo de ejemplo de la invención, como se describió anteriormente.
En la programación y/o software del sistema se incluyen módulos de software para implementar los procedimientos descritos en el presente documento. En algunas realizaciones a modo de ejemplo en el presente documento, un módulo incluye software, aunque en otras realizaciones a modo de ejemplo en el presente documento, un módulo incluye hardware, o una combinación de hardware y software.
Aunque anteriormente se han descrito diversas realizaciones a modo de ejemplo de la presente invención, se debe entender que se han presentado a modo de ejemplo, y no de limitación. Resultará evidente para los expertos en la técnica(s) relevante que se pueden realizar diversos cambios en la forma y en los detalles en la misma. Por lo tanto, la presente invención no debe limitarse por ninguna de las realizaciones a modo de ejemplo descritas anteriormente, sino que se debe definir solo de acuerdo con las siguientes reivindicaciones.

Claims (14)

REIVINDICACIONES
1. Un método implementado por ordenador para determinar un nivel de una patología asociada con una enfermedad que es una de retinopatía diabética y una degeneración macular relacionada con la edad que causa lesiones en la retina de un sujeto, siendo el nivel de la patología determinado a partir de una imagen de la retina del sujeto en la que las lesiones son visibles, habiendo sido capturada la imagen utilizando un sistema de formación de imágenes oculares, comprendiendo el método:
adquirir (S10) una pluralidad de ubicaciones de lesión en la imagen procedente de un detector de lesión automatizado que ha identificado la pluralidad de ubicaciones de lesión en la imagen;
aplicar (S12) un algoritmo de agrupamiento a la pluralidad de ubicaciones de lesiones de manera que el algoritmo de agrupamiento identifique al menos un agrupamiento de lesiones y los datos de agrupamiento de lesiones correspondientes;
clasificar (S14) cada uno del al menos un agrupamiento de lesiones en una de un conjunto de categorías predeterminadas basándose en los datos de agrupamientos de lesiones identificados, utilizando una cuadrícula (630) para definir campos (F1 a F7, P1 a P5) en la imagen de la retina, y clasificar cada uno del al menos un agrupamiento de lesiones según el campo en el que se ubica un centroide, una ubicación media de lesiones del al menos un agrupamiento de lesiones o una ubicación mediana de las lesiones del al menos un agrupamiento de lesiones;
aplicar (S16) al menos una función a los datos de agrupamiento de lesiones con respecto a cada categoría del conjunto de categorías predeterminadas, en donde la al menos una función proporciona un número fijo de salidas de datos, y es una función estadística que toma un conjunto de números reales y devuelve un número real; y
determinar (S18) un nivel de patología a partir de la imagen procesando el número fijo de salidas de datos de cada categoría del conjunto de categorías predeterminadas utilizando un algoritmo de clasificación, en donde el algoritmo de clasificación se construye mediante un algoritmo de aprendizaje a partir de un conjunto de entrenamiento de ejemplo (700) que comprende primeros datos de imagen (701; 801, 802, 803) que definen imágenes de una parte de la retina de una pluralidad de sujetos en las que las lesiones están presentes e indican un primer nivel de patología asociada con la enfermedad, y segundos datos de imagen (702; 804) que definen imágenes de una parte de la retina de una pluralidad de sujetos en donde las lesiones están presentes e indican un segundo nivel diferente de patología o una ausencia de una patología asociada con la enfermedad.
2. El método implementado por ordenador de la reivindicación 1, comprendiendo además el método:
adquirir, como propiedad de lesión, al menos uno de un tipo de lesión, un área de lesión, un volumen de lesión, una complejidad de forma de lesión, una intensidad de lesión y un color de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen.
3. El método implementado por ordenador de la reivindicación 2, comprendiendo además el método:
aplicar el algoritmo de agrupamiento con respecto a la pluralidad de ubicaciones de lesión que tienen la misma propiedad de lesión.
4. El método implementado por ordenador de la reivindicación 2, comprendiendo además el método:
aplicar el algoritmo de agrupamiento a los datos de propiedad de lesión.
5. El método implementado por ordenador de cualquier reivindicación anterior, en donde cada ubicación de la pluralidad de ubicaciones de lesión se define en un sistema de coordenadas bidimensional basado en imágenes o en un sistema de coordenadas adaptado a la retina del sujeto de la que se están tomando imágenes.
6. El método implementado por ordenador de cualquier reivindicación anterior, en donde el algoritmo de agrupamiento no requiere, como entrada, una indicación de un número de agrupamientos.
7. El método implementado por ordenador de cualquier reivindicación anterior, en donde el algoritmo de agrupamiento comprende al menos uno de:
un algoritmo de agrupamiento espacial basado en densidad de aplicaciones con ruido, DBSCAN; o
aplicar un umbral a un mapa filtrado de paso de banda de la pluralidad de ubicaciones de lesión.
8. El método implementado por ordenador de cualquier reivindicación anterior, en donde los datos de agrupamiento de lesiones incluyen al menos una propiedad de agrupamiento de cada uno del al menos un agrupamiento de lesiones, comprendiendo la al menos una propiedad de agrupamiento una o más de:
en un caso en donde se adquiere un tipo de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen, un tipo modal de lesiones en el agrupamiento de lesiones;
en un caso en donde se adquiere un área de lesión o un volumen de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen, un área de lesión media o mediana o un volumen de lesión medio o mediano de las lesiones en el agrupamiento de lesión;
en un caso en donde se adquiere una complejidad de forma de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen, una complejidad de forma de lesión media o mediana de lesiones en el agrupamiento de lesiones;
en un caso en donde se adquiere una intensidad de lesión o un color de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen, una intensidad de lesión media o mediana o un color de lesión medio o mediano de las lesiones en el agrupamiento de lesiones;
una ubicación media de las lesiones del agrupamiento de lesiones;
una ubicación media de las lesiones del agrupamiento de lesiones;
una desviación estándar de las ubicaciones de las lesiones del agrupamiento de lesiones;
una varianza de las ubicaciones de las lesiones del agrupamiento de lesiones;
un valor de covarianza del agrupamiento de lesiones;
un valor de asimetría del agrupamiento de lesiones;
un valor de coasimetría del agrupamiento de lesiones;
un valor de curtosis del agrupamiento de lesiones;
un valor de cocurtosis del agrupamiento de lesiones;
una complejidad de forma del agrupamiento de lesiones; y
un área de agrupamiento de lesiones.
9. El método implementado por ordenador de cualquier reivindicación anterior, en donde clasificar cada uno del al menos un agrupamiento de lesiones en una de un conjunto de categorías predeterminadas en base a los datos del agrupamiento de lesiones comprende además uno cualquiera o más de:
en un caso en el que se adquiere un tipo de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen y los datos de agrupamiento de lesiones de cada uno del al menos un agrupamiento de lesiones comprenden un tipo de modo de lesión en el agrupamiento de lesiones, clasificando cada uno del al menos un agrupamiento de lesiones según el tipo de modo de lesiones en el agrupamiento de lesiones;
en un caso en el que los datos de agrupamiento de lesiones de cada uno del al menos un agrupamiento de lesiones comprenden al menos uno de una media, una mediana, una desviación estándar y una varianza de las ubicaciones de las lesiones del agrupamiento de lesiones, clasificar cada uno del al menos un agrupamiento de lesiones según la al menos una de la media, la mediana, la desviación estándar y la varianza de las ubicaciones de las lesiones del agrupamiento de lesiones;
en un caso en el que los datos del agrupamiento de lesiones de cada uno del al menos un agrupamiento de lesiones comprenden al menos uno de un valor de covarianza del agrupamiento de lesiones, un valor de asimetría del agrupamiento de lesiones, un valor de coasimetría del agrupamiento de lesiones, un valor de curtosis del agrupamiento de lesiones y un valor de cocurtosis del agrupamiento de lesiones, categorizar cada uno del al menos un agrupamiento de lesiones según una forma del agrupamiento de lesiones;
en un caso en el que los datos de al menos un agrupamiento de lesiones comprenden una complejidad de forma del agrupamiento de lesiones o un área del agrupamiento de lesiones, clasificar cada uno de al menos un agrupamiento de lesiones según una complejidad de forma o un área del agrupamiento de lesiones; en un caso en donde se adquiere un área de lesión o un volumen de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen y los datos de agrupamiento de lesiones de cada uno del al menos un agrupamiento de lesiones comprenden un área de lesión media o mediana o un volumen de lesión medio o mediano de lesiones en el agrupamiento de lesiones, clasificar cada uno del al menos un agrupamiento de lesiones según el área de lesión media o mediana o el volumen de lesión medio o mediano de lesiones en el agrupamiento de lesiones;
en un caso en el que se adquiere una complejidad de forma de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen y los datos de agrupamiento de lesiones de cada uno del al menos un agrupamiento de lesiones comprenden una complejidad de forma de lesión media o mediana de lesiones en el agrupamiento de lesiones, clasificar cada uno del al menos un agrupamiento de lesiones según la complejidad de forma de lesión media o mediana de lesiones en el agrupamiento de lesiones; y en un caso en el que se adquiere un color de lesión o una intensidad de lesión para cada una de la pluralidad de ubicaciones de lesión en la imagen y los datos de agrupamiento de lesiones de cada uno del al menos un agrupamiento de lesiones comprenden un color de lesión medio o mediano o una intensidad de lesión media o mediana de lesiones en el agrupamiento de lesiones, clasificar cada uno del al menos un agrupamiento de lesiones según el color de lesión medio o mediano o la intensidad de lesión media o mediana de lesiones en el agrupamiento de lesiones.
10. El método implementado por ordenador de cualquier reivindicación anterior, en donde la al menos una función es una función estadística y comprende al menos una de:
una función de recuento;
una función de suma;
una función de media;
una función de desviación estándar;
una función de máximo; o
una función de mínimo.
11. El método implementado por ordenador de cualquier reivindicación anterior, en donde el nivel determinado de patología es indicativo de una cualquiera o más de:
una presencia o ausencia de la enfermedad en la retina del sujeto de la que se han obtenido imágenes; una gravedad de la enfermedad en la retina del sujeto de la que se han obtenido imágenes; y
una tasa de avance de la enfermedad en la retina del sujeto del que se han obtenido imágenes.
12. El método de cualquier reivindicación precedente, en donde adquirir una ubicación de al menos una lesión en la imagen médica comprende:
recibir datos de imagen médica de la imagen médica; y
procesar los datos de imagen médica para determinar la ubicación de cada una de una pluralidad de lesiones en la imagen médica.
13. Un programa informático que, cuando es ejecutado por un ordenador, hace que el ordenador realice el método de acuerdo con cualquiera de las reivindicaciones 1 a 12.
14. Un aparato (100) para determinar un nivel de una patología asociada con una enfermedad que es una de retinopatía diabética y una degeneración macular relacionada con la edad, que causa lesiones en una retina de un sujeto, a partir de una imagen de la retina del sujeto en donde las lesiones son visibles, y son capturadas utilizando un sistema de formación de imágenes oculares,
comprendiendo el aparato (100):
un módulo de adquisición (110) configurado para adquirir una pluralidad de ubicaciones de lesión en la imagen desde un detector de lesión automatizado (300) que ha identificado la pluralidad de ubicaciones de lesión en la imagen;
un módulo de clasificación (120) configurado para:
aplicar un algoritmo de agrupamiento a la pluralidad de ubicaciones de lesiones de manera que el algoritmo de agrupamiento identifique al menos un agrupamiento de lesiones y los datos de agrupamiento de lesiones correspondientes;
clasificar cada uno del al menos un agrupamiento de lesiones en uno de un conjunto de categorías predeterminadas basándose en los datos del agrupamiento de lesiones, utilizando una cuadrícula (630) para definir campos (F1 a F7, P1 a P5) en la imagen de la retina, y clasificar cada uno del al menos un agrupamiento de lesiones según el campo en el que está ubicado un centroide, una ubicación media de lesiones del al menos un agrupamiento de lesiones o una ubicación mediana de las lesiones del al menos un agrupamiento de lesiones; y
aplicar al menos una función a los datos del agrupamiento de lesiones con respecto a cada categoría del conjunto de categorías predeterminadas, en donde la al menos una función proporciona un número fijo de salidas de datos; y
un módulo de determinación (130) configurado para determinar un nivel de patología a partir de la imagen procesando el número fijo de salidas de datos de cada categoría del conjunto de categorías predeterminadas utilizando un algoritmo de clasificación, en donde el algoritmo de clasificación se construye mediante un algoritmo de aprendizaje a partir de un conjunto de entrenamiento de ejemplo (700) que comprende primeros datos de imagen (701; 801, 802, 803) que definen imágenes de una parte de la retina de una pluralidad de sujetos en las que las lesiones están presentes e indican un primer nivel de patología asociada con la enfermedad, y segundos datos de imagen (702; 804) que definen imágenes de una parte de la retina de una pluralidad de sujetos en las que las lesiones están presentes e indican un segundo nivel diferente de patología o una ausencia de una patología asociada con la enfermedad.
ES19167392T 2019-04-04 2019-04-04 Predicción de una condición patológica a partir de una imagen médica Active ES2988511T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP19167392.0A EP3719807B1 (en) 2019-04-04 2019-04-04 Predicting a pathological condition from a medical image

Publications (1)

Publication Number Publication Date
ES2988511T3 true ES2988511T3 (es) 2024-11-20

Family

ID=66092241

Family Applications (1)

Application Number Title Priority Date Filing Date
ES19167392T Active ES2988511T3 (es) 2019-04-04 2019-04-04 Predicción de una condición patológica a partir de una imagen médica

Country Status (7)

Country Link
US (1) US12062445B2 (es)
EP (1) EP3719807B1 (es)
JP (1) JP7392238B2 (es)
CN (1) CN111815553B (es)
DK (1) DK3719807T3 (es)
ES (1) ES2988511T3 (es)
FI (1) FI3719807T3 (es)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021074963A1 (ja) * 2019-10-15 2021-04-22 株式会社ニコン 画像処理方法、画像処理装置、プログラム
MX2022008840A (es) * 2020-01-17 2022-10-07 Johnson & Johnson Entpr Innovation Inc Sistema y método para predecir el riesgo de futuro cáncer de pulmón.
CN114529501B (zh) * 2020-10-30 2025-09-19 法国加柏公司 病变检测人工智能流水线计算系统
KR102270669B1 (ko) * 2020-11-27 2021-06-29 주식회사 웨이센 인공지능을 이용하여 복수의 병변 영역을 포함하는 영상에 대한 연산을 수행하는 영상 수신 장치
JP2023551899A (ja) * 2020-12-04 2023-12-13 ジェネンテック, インコーポレイテッド カラー眼底画像データを使用する糖尿病性網膜症の重症度の自動化スクリーニング
CA3103872A1 (en) * 2020-12-23 2022-06-23 Pulsemedica Corp. Automatic annotation of condition features in medical images
CN112686310B (zh) * 2020-12-30 2022-08-16 武汉大学 一种基于锚框的目标检测算法中先验框设计方法
CN115497155A (zh) * 2021-06-01 2022-12-20 微创视神医疗科技(上海)有限公司 眼部图片分类方法、超声乳化设备控制方法和装置
TWI768951B (zh) 2021-06-03 2022-06-21 宏碁股份有限公司 訓練老年性黃斑部退化的分類模型的電子裝置和方法
KR20240035560A (ko) 2021-07-16 2024-03-15 존슨 앤드 존슨 엔터프라이즈 이노베이션 인코포레이티드 향후 폐암의 위험을 예측하기 위한 시스템 및 방법
CN114376558B (zh) 2022-03-24 2022-07-19 之江实验室 基于磁共振和孪生图神经网络的脑图谱个体化方法及系统
KR102771267B1 (ko) * 2024-08-30 2025-02-20 김충현 귀 켈로이드 치료 후 재발률 계산 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5999639A (en) * 1997-09-04 1999-12-07 Qualia Computing, Inc. Method and system for automated detection of clustered microcalcifications from digital mammograms
GB2457022A (en) * 2008-01-29 2009-08-05 Medicsight Plc Creating a fuzzy inference model for medical image analysis
MY147093A (en) * 2009-05-13 2012-10-31 Inst Of Technology Petronas Sdn Bhd Apparatus for monitoring and grading diabetic retinopathy
US9208556B2 (en) * 2010-11-26 2015-12-08 Quantitative Insights, Inc. Method, system, software and medium for advanced intelligent image analysis and display of medical images and information
WO2014074178A1 (en) * 2012-11-08 2014-05-15 The Johns Hopkins University System and method for detecting and classifying severity of retinal disease
EP4057215A1 (en) * 2013-10-22 2022-09-14 Eyenuk, Inc. Systems and methods for automated analysis of retinal images
US20170124709A1 (en) * 2014-05-14 2017-05-04 Massachusetts Institute Of Technology Systems and methods for medical image segmentation and analysis
CN107209933A (zh) * 2014-08-25 2017-09-26 新加坡科技研究局 用于评估视网膜图像以及从视网膜图像获得信息的方法和系统
EP3207499A4 (en) * 2014-10-17 2018-09-19 Cireca Theranostics, LLC Methods and systems for classifying biological samples, including optimization of analyses and use of correlation
US10115194B2 (en) * 2015-04-06 2018-10-30 IDx, LLC Systems and methods for feature detection in retinal images
JP6594033B2 (ja) 2015-05-14 2019-10-23 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US10722115B2 (en) * 2015-08-20 2020-07-28 Ohio University Devices and methods for classifying diabetic and macular degeneration
TWM514516U (zh) * 2015-08-28 2015-12-21 Top 1 Green Dev Co Ltd 燃油供給裝置及其中之回油利用緩衝瓶
HUE053281T2 (hu) 2015-10-02 2021-06-28 Curemetrix Inc Rák kimutatási rendszerek és eljárások
CA3021481A1 (en) 2016-07-29 2018-02-01 Novadaq Technologies ULC Methods and systems for characterizing tissue of a subject utilizing machine learning
US10699410B2 (en) * 2017-08-17 2020-06-30 Siemes Healthcare GmbH Automatic change detection in medical images

Also Published As

Publication number Publication date
CN111815553A (zh) 2020-10-23
EP3719807B1 (en) 2024-08-28
US12062445B2 (en) 2024-08-13
FI3719807T3 (fi) 2024-09-24
US20200320692A1 (en) 2020-10-08
EP3719807A1 (en) 2020-10-07
JP2020168372A (ja) 2020-10-15
JP7392238B2 (ja) 2023-12-06
DK3719807T3 (da) 2024-10-07
CN111815553B (zh) 2024-04-09

Similar Documents

Publication Publication Date Title
ES2988511T3 (es) Predicción de una condición patológica a partir de una imagen médica
JP7509505B2 (ja) 眼の画像内における病変の検知
Veena et al. A novel optic disc and optic cup segmentation technique to diagnose glaucoma using deep learning convolutional neural network over retinal fundus images
US10482313B2 (en) Method and system for classification of endoscopic images using deep decision networks
US12124960B2 (en) Learning apparatus and learning method
JP2020518915A (ja) 自動眼底画像分析用のシステムおよび方法
US12136218B2 (en) Method and system for predicting expression of biomarker from medical image
JP2006034585A (ja) 画像表示装置、画像表示方法およびそのプログラム
Sidhu et al. Segmentation of retinal blood vessels by a novel hybrid technique-Principal Component Analysis (PCA) and Contrast Limited Adaptive Histogram Equalization (CLAHE)
Priya et al. Detection and grading of diabetic retinopathy in retinal images using deep intelligent systems: a comprehensive review
WO2022115777A2 (en) System and methods of predicting parkinson&#39;s disease based on retinal images using machine learning
AM et al. Efficient brain tumor classification using PCA and SVM
Anber Diagnosing Diabetic Retinopathy from Colored Fundus Images
HK40027345B (en) Detection of pathologies in ocular images
Agurto Detection and classification of Diabetic retinopathy pathologies in fundus images
بواقنة et al. Using Mathematical Modeling and the Linear Discriminant Analysis to Classify Retinal Vessels into Arteries/Veins
Tadesse An Automated Segmentation of Retinal Images for use in Diabetic Retinopathy Studies
Ullah Khan Bahadar Khan, Amir A. Khaliq, Abdul Jalil, Muhammad Aksam Iftikhar, Najeeb Ullah, Muhammad Waqar Aziz
Agurto Rios Detection and Classification of Diabetic Retinopathy Pathologies in Fundus Images