ES2924486T3 - Procedimientos automatizados para la cuantificación objetiva de las características de la retina por región retiniana y el diagnóstico de la patología retiniana - Google Patents

Procedimientos automatizados para la cuantificación objetiva de las características de la retina por región retiniana y el diagnóstico de la patología retiniana Download PDF

Info

Publication number
ES2924486T3
ES2924486T3 ES16866774T ES16866774T ES2924486T3 ES 2924486 T3 ES2924486 T3 ES 2924486T3 ES 16866774 T ES16866774 T ES 16866774T ES 16866774 T ES16866774 T ES 16866774T ES 2924486 T3 ES2924486 T3 ES 2924486T3
Authority
ES
Spain
Prior art keywords
retinal
oct
layer
nav
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16866774T
Other languages
English (en)
Inventor
Shlomit Schaal
Ayman El-Baz
Amir Hajrasouliha
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Louisville Research Foundation ULRF
Original Assignee
University of Louisville Research Foundation ULRF
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Louisville Research Foundation ULRF filed Critical University of Louisville Research Foundation ULRF
Application granted granted Critical
Publication of ES2924486T3 publication Critical patent/ES2924486T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/168Segmentation; Edge detection involving transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20121Active appearance model [AAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20124Active shape model [ASM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Probability & Statistics with Applications (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

Métodos automatizados y objetivos para cuantificar una característica retiniana a partir de una imagen retiniana de tomografía de coherencia optométrica retiniana, y métodos para detectar patologías oculares ocultas, diagnosticar patologías oculares, reducir el sesgo de edad en el análisis de imágenes OCT y controlar la eficacia de las terapias para enfermedades oculares/retinianas basadas en la se divulga el método de cuantificación. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Procedimientos automatizados para la cuantificación objetiva de las características de la retina por región retiniana y el diagnóstico de la patología retiniana
REIVINDICACIÓN DE PRIORIDAD
La presente solicitud reivindica la prioridad de Solicitante Provisional de EE.UU. No. 62/256.980 presentada el 18 de noviembre de 2015.
CAMPO TÉCNICO
La presente divulgación se refiere al campo del diagnóstico clínico y la supervisión de patologías oculares utilizando la tomografía de coherencia óptica de dominio espectral (SD-OCT). Específicamente, la divulgación se refiere a procedimientos automatizados para segmentar y analizar una imagen OCT y procedimientos automatizados para diagnosticar patología ocular basada en ella.
TÉCNICA ANTECEDENTE
La tomografía de coherencia óptica de dominio espectral (SD-OCT) es una herramienta ampliamente utilizada para el diagnóstico y la evaluación de las enfermedades de la retina. Utilizando la interferometría, la luz de baja coherencia se refleja en el tejido de la retina para producir una imagen bidimensional en escala de grises de las capas de la retina. Las diferencias en la reflectividad de las capas de la retina producen diferentes intensidades en una exploración SD-OCT, lo que permite la visualización no invasiva de distintas capas de la retina. Esta anatomía transversal detallada de la retina suele denominarse "histología in vivo" y es fundamental para evaluar varias patologías comunes de la retina, tales como la retinopatía diabética (RD), la degeneración macular asociada a la edad (DMAE), el agujero macular, el edema macular, la tracción vítreo-macular (TVM), la neovascularización coroidea y la membrana epirretiniana. La SD-OCT también puede utilizarse para evaluar el espesor de la capa de fibras nerviosas de la retina (RNFL) para la evaluación del glaucoma. La morfología de la capa retiniana y las mediciones del espesor de la retina se utilizan para identificar y medir las anomalías de la retina, tal como el edema macular, y estas mediciones también se utilizan para controlar la progresión de la enfermedad y la respuesta al tratamiento.
Sin embargo, a excepción de las mediciones del espesor de la retina, los procedimientos convencionales que se basan en la inspección visual de la SD-OCT proporcionan datos cuantitativos objetivos limitados y, por lo tanto, las imágenes deben ser interpretadas subjetivamente por un oftalmólogo. En consecuencia, la interpretación de la SD-OCT es susceptible de sesgos y errores humanos.
Además, aunque está bien establecido que con el envejecimiento normal de la retina hay una variedad de cambios neuroquímicos, celulares y moleculares que ocurren. El envejecimiento normal también está asociado con una serie de cambios funcionales que parecen producirse en ausencia de cualquier enfermedad ocular evidente. Las técnicas actuales para observar y analizar el envejecimiento de la retina in vivo, incluyendo las imágenes de OCT longitudinales en poblaciones de alto riesgo, no logran captar plenamente los sutiles cambios que se producen, de modo que, incluso con la supervisión, la enfermedad no suele diagnosticarse hasta que se han producido daños irreversibles.
La imagen básica de SD-OCT es una sección de retina B-escaneo de reflectividad óptica equivalente a la histología. Sin embargo, hasta ahora todas las imágenes de SD-OCT son interpretadas manualmente por un oftalmólogo con base en la apariencia anatómica y el reconocimiento de patrones humanos. Es pertinente la necesidad de un procedimiento de procesamiento automatizado válido y fiable y una interpretación no sesgada de los escaneos de la retina. El análisis automatizado y reproducible de las imágenes de la SD-OCT permitirá una identificación más temprana de las afecciones de la retina, posibilitará mejores estrategias y planes de seguimiento, eliminará los errores humanos y permitirá una atención al paciente más eficiente y rentable. Aunque existe un primer procesamiento automatizado de imágenes en algunos modelos de SD-OCT disponibles en el mercado, actualmente se limita al espesor de la retina, al volumen de la retina y a la segmentación parcial de la misma.
La segmentación automatizada de las capas de la retina a partir de imágenes SD-OCT ha sido intentada previamente por varios grupos. Ishikawa (Invest Ophthalmol Vis Sci 2005;46:2012-2017) desarrolló un algoritmo automatizado que identifica cuatro capas de la retina mediante una técnica de generación de umbral adaptativa. Este algoritmo falló con imágenes de baja calidad y también con algunas de buena calidad. Bagci (Am J Ophthalmol. 2008;146:679-687) propuso un algoritmo automatizado que extraía siete capas de la retina utilizando un filtro personalizado para el realce de los bordes con el fin de superar la reflectividad desigual del tejido. Sin embargo, es necesario seguir trabajando para aplicar este algoritmo a anomalías de la retina más avanzadas. Mishra (Opt Express. 2009;17:23719-23728) aplico un esquema de optimización para identificar siete capas de la retina. Sin embargo, el algoritmo no pudo separar las características de las imágenes altamente reflectivas. Otro enfoque automatizado fue propuesto por Rossant (IEEE Int Symp Biomed Imag. 2009;6:1370-1373) para segmentar ocho capas de la retina utilizando contornos activos, kmeans, y campos de Markov aleatorios. Este procedimiento funcionaba bien incluso cuando los vasos sanguíneos de la retina sombreaban las capas, pero fallaba en las imágenes borrosas. Kajic (Opt Express 2010;18:14730-14744) desarrolló un enfoque automatizado para segmentar 8 capas utilizando un gran número de imágenes segmentadas manualmente que se utilizaron como entrada a un modelo estadístico. El aprendizaje supervisado se realizó aplicando el conocimiento de las formas esperadas de las estructuras, sus relaciones espaciales y sus apariencias texturales. Yang (Opt Express. 2010;18:21293-21307) ideo un enfoque para segmentar ocho capas de la retina usando información de gradiente en escalas duales, utilizando simultáneamente información de gradiente local y global complementaria. Este algoritmo resultó prometedor en la segmentación de escaneos tanto sanos como enfermos; sin embargo, no ha demostrado una evaluación fiable en retinas afectadas por enfermedades de la retina externa/interna. Yazdanpanah (IEEE Trans Med Imag. 2011;30:484-496) presentó un enfoque semiautomatizado para extraer 9 capas de imágenes de OCT utilizando el modelo de contorno activo sin bordes minimizador de energía de Chan-Vese. Este algoritmo incorporaba un modelo de forma con base en el conocimiento anatómico experto de las capas de la retina. El procedimiento propuesto requería una inicialización por parte del usuario y nunca se probó en retinas humanas ni en retinas enfermas. Ehnes (Transl Vis Sci Technol. 2014;3:1) desarrolló un algoritmo con base en gráficos para la segmentación de la retina que podía segmentar hasta once capas en imágenes de diferentes dispositivos. Sin embargo, el algoritmo sólo funcionaba con imágenes de alto contraste. Kafieh (Medical image analysis. 2013:17(8): 907-928) también utilizó mapas de difusión con base en gráficos para segmentar las capas intrarretinianas en escaneos de OCT de controles normales y pacientes con glaucoma. Chui (Optics express.
2010:18(18): 19413-19428) propuso un enfoque automatizado para segmentar 8 capas de la retina utilizando la teoría de grafos junto con la programación dinámica, lo que redujo el tiempo de procesamiento.
Rathke (Medical image analysis, 2014: 18(5): 781-794) propuso un enfoque probabilístico que modela las variaciones globales de forma de las capas de la retina junto con su apariencia utilizando un procedimiento variacional. Wang (J of Comp Inform Sys. 2015, 11:23, 8467-8475) también segmentó 8 capas de la retina, pero utilizando el algoritmo de flujo máximo continuo, que fue seguido por un aplanamiento de la imagen con base en el límite superior detectado de la capa del segmento externo (OS) para extraer los límites de las capas restantes. Srimathi (Aust J of Basic and Appl Sci. 2015, 9:15, 166-171) aplicó un algoritmo para la segmentación de las capas de la retina que primero redujo el ruido de moteado en las imágenes de OCT y luego extrajo las capas con base en un procedimiento que combina el modelo de contorno activo y los mapas de difusión. Ghorbel (Patt Recog, 2011, 44:8, 1590-1603) propuso un procedimiento para segmentar 8 capas de la retina con base en contornos activos y en el modelo de Campo Aleatorio de Markov (MRF). También se diseñó un filtro de Kalman para modelar el paralelismo aproximado entre los segmentos de los fotorreceptores. Dufour (IEEE Trans. Med. Imag., 2013, 32:3, 531-543) propuso un algoritmo de segmentación automática de múltiples superficies con base en gráficos que añadía información previa de un modelo aprendido empleando internamente restricciones blandas. Un enfoque de la teoría de grafos también fue empleado por Garvin (IEEE Trans. Med. Imag, 2009, 28:9, 1436-1447) para segmentar las capas de la retina de la OCT, incorporando al mismo tiempo diversas restricciones de viabilidad e información regional real. Tian (PloS one, 2015, 10: 8, e0133908) propuso un procedimiento de segmentación automatizada en tiempo real que se implementó utilizando el camino más corto entre dos nodos finales. Esto se incorporó con otras técnicas, tales como el enmascaramiento y el refinamiento de regiones, para aprovechar la información espacial de los fotogramas adyacentes. Yin (J of biomed opt, 2014, 19:8, 086020-086020) aplicó un procedimiento de segmentación guiado por el usuario que primero definió manualmente las líneas en las regiones irregulares para las que el enfoque automático no logra segmentar. A continuación, el algoritmo se guía por estas líneas trazadas para trazar las capas de la retina en 3D utilizando detectores de bordes que se basan en estimadores de probabilidad robustos.
Un enfoque para la segmentación automatizada también se divulga en Andrew Lang et Al: "Retinal layer segmentation of macular OCT images using boundary classification". La discusión anterior demuestra que existen limitaciones asociadas con los protocolos conocidos de segmentación de la capa retiniana con base en OCT, por ejemplo, la baja precisión que se consigue cuando se tienen imágenes con baja relación señal/ruido (SNR), y el hecho de que la mayoría de los enfoques propuestos sólo podían segmentar hasta ocho capas retinianas, mientras que los procedimientos que segmentaban más capas sólo tenían éxito con imágenes de alto contraste.
Claramente, un algoritmo de segmentación de la retina por OCT mejorado y un modelo analítico que supere estas y otras deficiencias, así como procedimientos para la monitorización y el diagnóstico objetivos y automatizados que superen las imprecisiones y los sesgos asociados a los protocolos de evaluación y diagnóstico actuales, siguen siendo necesidades imperiosas en la técnica.
SUMARIO DE LA INVENCIÓN
En consecuencia, la presente divulgación proporciona un procedimiento de segmentación que supera estas y otras deficiencias en la técnica. También se divulgan procedimientos para cuantificar las características de la retina y diagnosticar la patología ocular. Las realizaciones de la invención son objetivas y sistemáticas y pueden ser totalmente automatizadas y ejecutadas por un ordenador, proporcionando diagnósticos fiables y robustos y la monitorización de condiciones y patologías retinales incluso ocultas.
Una realización proporciona un algoritmo de segmentación de OCT de la retina para construir un mapa de segmentación de una imagen de OCT de prueba de la retina que comprende 13 regiones de la retina. El algoritmo comprende: a) proporcionar un modelo probabilístico de forma e intensidad derivado de una pluralidad de imágenes de OCT generadas a partir de sujetos de control y segmentadas en 13 regiones retinianas; b) alinear la imagen de OCT de prueba con el modelo probabilístico de forma e intensidad de acuerdo con la forma de la región retiniana; c) comparar los píxeles alineados de la imagen de OCT de prueba con sus píxeles correspondientes en el modelo de control por intensidad, estableciendo un ajuste regional probable y refinando los márgenes regionales mediante la estimación de la distribución de densidad marginal con una combinación lineal de gaussianos discretos (LCDG) para generar un mapa de segmentación regional inicial de la imagen de OCT de prueba que comprenda regiones retinianas definidas; y d) ajustar el mapa de segmentación inicial con un modelo estadístico que tenga en cuenta la información espacial para lograr un mapa de segmentación final que comprenda 13 regiones retinianas. El algoritmo puede estar automatizado y adaptado para ser ejecutado por un ordenador.
De acuerdo con otras realizaciones, una vez segmentada una imagen de OCT, la información de diagnóstico de una imagen de OCT puede aumentarse cuantificando una característica de la retina a partir de los datos de la imagen de OCT de la retina. Los procedimientos comprenden: obtener una imagen de OCT de dominio espectral de la retina de un sujeto; segmentar la imagen de OCT en regiones estratificadas de acuerdo con un algoritmo de segmentación de OCT de la retina, comprendiendo dichas regiones al menos el vítreo, el epitelio pigmentario de la retina (RPE) y una o más regiones seleccionadas entre la capa de fibras nerviosas (NFL), la capa de células ganglionares (GCL) la capa plexiforme interna (IPL), la membrana limitante interna (ILM), la capa nuclear interna (INL), la capa plexiforme externa (OPL), la capa nuclear externa (ONL), la membrana limitante externa (ELM), los segmentos internos (IS), la unión segmento interno/segmento externo (I/OS) y los segmentos externos de los fotorreceptores (OSP); calcular un valor característico medio dentro de cada región; asignar a la región vítrea un valor característico medio igual a cero unidades características, y asignar a la región del RPE un nivel característico medio igual a X unidades características; convertir los valores característicos medios calculados para cada región con base en un desplazamiento y una escala uniforme para obtener una escala de unidades características normalizada de control de 0 a X; y cuantificar la característica con de acuerdo la escala de unidades características normalizada. También se puede calcular un valor característico a partir de áreas discretas de una o más áreas retinianas de OCT. Las áreas ejemplares se seleccionan entre la nasal izquierda, la temporal izquierda, la nasal derecha y la temporal derecha, siendo "izquierda" y "derecha" relativas a la fóvea. Generalmente, el área regional nasal está más cerca de la fóvea, y una característica ejemplar de la retina es la reflectividad.
Otras realizaciones proporcionan procedimientos para diagnosticar una patología ocular en un sujeto. Los procedimientos generalmente comprenden: a) obtener al menos una imagen retiniana de OCT del sujeto; b) cuantificar la reflectividad en al menos una región retiniana relevante para el diagnóstico de la imagen de OCT del sujeto; c) comparar el valor de reflectividad cuantificado de una región retiniana de la imagen de OCT del sujeto con un valor de reflectividad de control para la región derivada de imágenes de OCT de control normales o de imágenes de OCT de control específicas de la patología, para determinar una diferencia si la reflectividad de control se deriva de sujetos de control normales, o un ajuste si la reflectividad de control se deriva de sujetos específicos de la patología; d) evaluar estadísticamente la diferencia o el ajuste; y e) diagnosticar una patología ocular si la diferencia o el ajuste es estadísticamente significativo.
Una vez segmentada la imagen de retina de OCT del sujeto, otras características de la imagen de OCT pueden informar un diagnóstico. En otras realizaciones, se puede calcular el espesor y/o la curvatura de al menos una región retiniana relevante para el diagnóstico de la imagen de OCT del sujeto, junto con un espesor y/o curvatura media de la al menos una región retiniana relevante para el diagnóstico de la imagen de OCT de control. Las características calculadas se comparan y se determina una desviación estadística del espesor y/o curvatura de la región retiniana de la imagen de OCT del sujeto con respecto al espesor y/o curvatura de la región retiniana de la imagen de OCT de control, en la que una desviación estadísticamente significativa con respecto a un control normal o un ajuste estadísticamente significativo con respecto a un control específico de patología indica un diagnóstico de patología ocular.
Para eliminar el sesgo de edad de un diagnóstico, las imágenes de OCT de control normales y las imágenes e OCT de control específicas de la patología pueden derivarse de sujetos emparejados por edad. Ejemplos no limitantes de patologías oculares que pueden ser diagnosticadas de acuerdo con las realizaciones de la invención incluyen la degeneración macular relacionada con la edad (AMD), la coroideremia, la enfermedad de Stargardt, el síndrome de Usher, la retinopatía diabética, el agujero/fruncimiento macular, el retinoblastoma, el desprendimiento de retina, la ceguera de río/oncocercosis y la retinitis pigmentosa. Los procedimientos de acuerdo con la invención tienen una utilidad particular para revelar condiciones ocultas de la retina.
También se divulgan procedimientos para controlar los cambios en la retina relacionados con la edad en un sujeto. Generalmente, los procedimientos comprenden: la obtención de al menos dos imágenes retinianas de OCT del sujeto a lo largo de un marco temporal longitudinal; la cuantificación de la reflectividad de cada imagen retiniana de OCT de acuerdo con realizaciones específicas de la invención, la comparación de la reflectividad cuantificada de las imágenes; y el seguimiento del cambio retiniano relacionado con la edad en el sujeto de prueba, con base en la comparación.
Otra realización proporciona procedimientos para monitorizar la respuesta de la retina al tratamiento de un sujeto con un agente farmacéutico. Los procedimientos comprenden: (a) obtener una imagen de OCT de la retina de al menos una retina del sujeto antes de iniciar el tratamiento con el agente farmacéutico; (b) obtener una imagen de OCT de la retina de al menos una retina del sujeto después de iniciar el tratamiento con el agente farmacéutico; (c) cuantificar la reflectividad de cada imagen de OCT de la retina de acuerdo con el procedimiento de la reivindicación 8 o 9; (d) comparar las reflectividades cuantificadas del paso (c) y determinar las diferencias estadísticamente significativas, y (e) determinar una respuesta de la retina al tratamiento cuando se observe una diferencia estadísticamente significativa.
Todavía otros ejemplos proporcionan medios legibles por ordenador no transitorios que almacenan instrucciones ejecutables por ordenador, que cuando son ejecutadas por un ordenador, hacen que el ordenador lleve a cabo un procedimiento de acuerdo con la invención.
Estas y otras realizaciones y ejemplos serán aclarados y mejor comprendidos por referencia a las Figuras y a la Discusión Detallada expuesta a continuación. Aunque las realizaciones de la invención se describen con particularidad, una persona con conocimientos ordinarios de la técnica comprenderá fácilmente que los conceptos y principios inventivos pueden aplicarse en un contexto más amplio sin apartarse del alcance de la invención tal como se define en las reivindicaciones adjuntas. Las Figuras y los Ejemplos se exponen para ilustrar realizaciones específicas y no deben interpretarse como una limitación del alcance total de la invención tal como se define en las reivindicaciones adjuntas.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La Figura 1) Un escaneo de OCT típico de un sujeto normal que muestra 13 regiones retinianas distintas.
La Figura 2 A ) Primera parte del esquema de los pasos básicos del marco de segmentación de OCT propuesto; 2B) Segunda parte del esquema de los pasos básicos del marco de segmentación de OCT propuesto.
La Figura 3A) Muestra una región delimitada de una imagen de OCT para el seguimiento de bordes con base en la descomposición ondícula de 3B) la estructura a gran escala de la retina; 3C) imagen que representa los bordes multiescala cerca del pico foveal, dentro de la región delimitada; 3D) imagen que muestra tres límites detectados después de la alineación.
La Figura 4A) imagen de OCT representativa de una mujer de 65 años, 4B) seguimiento de bordes con descomposición ondícula, 4C) coalineación usando puntos de control de TPS, 4D) modos LCDG para diferentes capas, 4E) segmentación después de usar el modelo de MGRF conjunto, y 4F) bordes de capa superpuestos en la imagen original.
La Figura 5A) Resultados de segmentación para diferentes imágenes de OCT normales; 5B ) resultados de segmentación de acuerdo con una realización de la invención; 5C) resultados de segmentación de acuerdo con el algoritmo/protocolos de [20]. La puntuación del DSC se muestra encima de cada resultado.
La Figura 6A ) muestra un escaneo de trama horizontal representativo de dominio espectral de (SD)-OCT que muestra las ubicaciones de las que se tomaron las mediciones, 6B) gráfico que muestra los datos de reflectividad en bruto, 6C) gráfico que muestra la reflectividad normalizada.
La Figura 7 muestra la reflectividad normalizada de cada capa de la retina para las regiones temporal y nasal en función de la década de vida; 7A ) NFL, muestra que la NFL se midió de forma diferente en las ubicaciones nasales y temporales, 7B) Ganglio, 7C) IPL, 7D INL, 7E) OPL, 7F) ONL, 7G) ELM, 7H) IS y 7I)Elipsoide. Todas las capas, excepto la NFL, mostraron valores de NRS simétricos con respecto a la fóvea (B-I).
(* P<0,01 en comparación con el grupo de edad 10-19).
La Figura 8A) muestra la puntuación de reflectividad normalizada (NRS) trazada en función de la década de vida para la zona nasal del NFL; 8B ) muestra la NRS trazada en función de la década de vida para la zona temporal de la NFL; 8C) muestra la NRS trazada en función de la década de vida para la zona elipsoidal.
Tanto las zonas de la capa de fibras nerviosas como la zona elipsoide mostraron una disminución significativa de la NRS con la edad. Ninguna otra capa de la retina compartió esta reducción de la NRS.
La Figura 9) muestra una tabla con la edad media, el sexo y los datos demográficos por década de edad.
La Figura 10) gráfico que muestra la tasa de cambio de la NRS en función de la edad para cada capa segmentada de la retina con intervalos de confianza del 95 %.
La Figura 11) se muestra un gráfico de barras en el que se compara la NRS en ojos normales y diabéticos para las 12 capas de la retina, mostrando la media y la desviación estándar de la NRS. Aunque no hubo diferencias significativas observables en las capas entre los diabéticos y los controles, el escalamiento de la NRS de acuerdo con las realizaciones de la invención reveló que la NRS varía significativamente según el diagnósticofFí^ss = 24,18; p < 0,0001) y la capa de la retina(F« ,658 = 457,3; p < 0,0001)
La Figura 12) representa un gráfico de barras que compara la media y la desviación estándar de la tortuosidad por capa y diagnóstico. La tortuosidad de una capa es la curvatura media absoluta del límite entre ella y la siguiente capa anterior, o la coroides en el caso de RPE. Los sujetos de control y los diabéticos demostraron diferencias significativas (p < 0,05 corregida por Benjamini-Hochberg).
DESCRIPCIÓN DE LAS REALIZACIONES
A menos que se definan de otro modo, todos los términos técnicos y científicos utilizados en el presente documento tienen el mismo significado que se entiende comúnmente por una persona con conocimientos ordinarios en la técnica a la que pertenece el objeto actualmente divulgado.
A menos que se indique lo contrario, todos los números que expresan cantidades de ingredientes, dosis, propiedades tales como condiciones de reacción, etc., utilizados en la memoria descriptiva y las reivindicaciones deben entenderse modificados en todos los casos por el término "aproximadamente" Por lo tanto, a menos que se indique lo contrario, los parámetros numéricos establecidos en esta memoria descriptiva y en las reivindicaciones son aproximaciones que pueden variar dependiendo de las propiedades deseadas que se pretenden obtener con el objeto actualmente divulgado.
Tal como se utiliza en el presente documento, el término "aproximadamente", cuando se refiere a un valor o a una cantidad de masa, peso, tiempo, volumen, concentración o porcentaje, pretende abarcar variaciones de, en algunas realizaciones, ±20 %, en algunas realizaciones ±10 %, en algunas realizaciones ±5 %, en algunas realizaciones ±1 %, en algunas realizaciones ±0,5 %, y en algunas realizaciones ±0,1 % de la cantidad especificada, ya que tales variaciones son apropiadas para realizar el procedimiento divulgado.
Tal como se utiliza en el presente documento, el término "sujeto" se refiere a cualquier sujeto mamífero, incluyendo ratones, ratas, conejos, cerdos, primates no humanos y humanos.
Los procedimientos de acuerdo con la invención emplean un modelo de segmentación que combina información de intensidad, espacial y de forma. Hasta donde saben los presentes investigadores, ésta es la primera demostración de un enfoque de segmentación totalmente automatizado que tiene la capacidad de extraer 13 regiones retinianas estratificadas de una imagen de OCT. Esto permite, por ejemplo, la detección de los cambios sutiles que se producen en la retina normal con el envejecimiento, y también permite la detección de patologías de la retina antes de la manifestación clínica observable por especialistas entrenados.
Las realizaciones de la invención proporcionan un novedoso algoritmo de segmentación de imágenes de OCT de la retina que da como resultado la segmentación en 13 regiones retinianas estratificadas distintas y relevantes para el diagnóstico. A efectos de la descripción de determinadas realizaciones, las 13 regiones retinianas comprenden el vítreo, la capa de fibras nerviosas (NFL), la capa de células ganglionares (GC), la capa plexiforme interna (IPL), la membrana limitante interna (ILM), la capa nuclear interna (INL), la capa plexiforme externa (OPL), la capa nuclear externa (ONL), la membrana limitante externa (ELM), los segmentos internos (IS), la unión segmento interno/segmento externo (I/OS), los segmentos externos de los fotorreceptores (OSP) y el epitelio pigmentario de la retina (RPE). Una vez segmentada, los investigadores descubrieron que la cuantificación de las características de la retina podía lograrse con un alto grado de saliencia útil para el diagnóstico cuando se normalizaba desde la región vítrea hasta el RPE y se cuantificaba para las 11 regiones restantes. Con base en la segmentación combinada y el procesamiento de cuantificación de características de los datos de las imágenes de la retina de OCT, las patologías de la retina podrían detectarse en una etapa oculta y subclínica. Además, el procesamiento es completamente objetivo y sistemático, de modo que se puede lograr una automatización completa y, por lo tanto, un diagnóstico fiable y rápido a pie de cama con base únicamente en las imágenes de retina de OCT. Además, la objetividad permite eliminar el sesgo de edad de los datos de las imágenes de OCT, y elimina la naturaleza subjetiva del análisis de las imágenes de OCT mediante técnicas de procesamiento manuales e híbridas convencionales.
Los procedimientos automatizados computarizados son capaces de revelar características cuantitativas sutiles, pero clínicamente significativas de la reflectividad de la capa retiniana. La aplicación del algoritmo a ojos normales a lo largo de un periodo de tiempo longitudinal, por ejemplo, demuestra cambios significativos en la reflectividad de la capa retiniana a lo largo de las décadas de la vida y entre géneros.
La retina, al ser un derivado directo del cerebro, no puede curarse y no se regenera. En la actualidad, las enfermedades de la retina se detectan cuando ya se han producido daños anatómicos importantes en la arquitectura de la retina. Un tratamiento exitoso sólo puede ralentizar la progresión de la enfermedad o, en el mejor de los casos, mantener la función visual actual. La revelación de las características topográficas normales y dependientes de la edad de la reflectividad de la retina y la definición de los índices de los cambios normales relacionados con la edad, permite la detección de las condiciones previas a la enfermedad y las aplicaciones en la medicina preventiva de la retina permitiendo la detección temprana y el tratamiento temprano de las condiciones de la retina antes de la observación de los hallazgos clínicos que distorsionan la anatomía avanzada.
Una realización está dirigida a un algoritmo de segmentación novedoso y altamente robusto para segmentar una imagen de OCT de prueba en 13 regiones retínales distintas. Por lo general, el algoritmo incorpora información de forma, intensidad y espacial sobre la imagen en un modelo, que luego se utiliza para proporcionar las bases de referencia a la segmentación de OCT de prueba. El algoritmo comprende a) proporcionar un modelo probabilístico de forma e intensidad derivado de una pluralidad de imágenes de OCT generadas a partir de sujetos de control y segmentadas en 13 regiones retinianas; b) alinear la imagen de OCT de prueba con el modelo probabilístico de forma e intensidad de acuerdo con la forma de la región retiniana c) comparar los píxeles de la imagen de OCT de prueba alineada con los píxeles correspondientes del modelo de control por intensidad, establecer un ajuste regional probable y refinar los márgenes regionales mediante la estimación de la distribución de densidad marginal con una combinación lineal de gaussianos discretos (LCDG) para generar un mapa de segmentación regional inicial de la imagen de OCT de prueba que comprenda regiones retinianas definidas; y d) ajustar el mapa de segmentación inicial con un modelo estadístico que tenga en cuenta la información espacial para lograr un mapa de segmentación final que comprenda 13 regiones retinianas.
Más específicamente, la alineación comprende (i) construir una descomposición ondícula de la imagen de prueba, (ii) detectar al menos tres límites regionales, (iii) identificar la fosa foveal por referencia a los límites detectados, (iv) colocar puntos fiduciales (una marca, o una de varias marcas, visible en el campo de visión y que proporciona una referencia o para la medición) en cada límite detectado en ubicaciones equidistantes de la fosa foveal, y (v) alinear la imagen de prueba con la imagen modelo alineando los puntos fiduciales.
El modelo estadístico que tiene en cuenta la información espacial es un modelo de campo aleatorio de Markov-Gibbs.
En realizaciones específicas, la comparación del paso comprende (i) construir un conjunto cerrado alrededor de cada píxel de la imagen de prueba alineado, (ii) identificar dentro del conjunto un píxel del modelo correspondiente que tenga la intensidad más cercana al píxel de la imagen, y, si es necesario, expandir el límite del conjunto y/o una tolerancia de intensidad para lograr un resultado no vacío, y (iii) determinar una probabilidad de que el píxel de prueba alineado esté en una de las 13 regiones retinianas del modelo.
Los sujetos de control o las imágenes de OCT de control derivadas de sujetos de control pueden ser sujetos normales libres de enfermedades de la retina u otras patologías oculares. En otras realizaciones, las imágenes retinianas de OCT de control proceden de sujetos de control que padecen una patología retiniana específica, o de sujetos con un perfil demográfico específico. En realizaciones específicas, la patología retiniana específica puede ser cualquier patología retiniana que se manifieste en alguna desviación de la imagen retiniana de OCT respecto a una imagen normal. Para describir los algoritmos y procedimientos descritos en el presente documento, se hace referencia a una enfermedad de la retina muy específica; sin embargo, será evidente para una persona con conocimientos ordinarios de la técnica que los algoritmos pueden aplicarse con una eficacia predecible a otras patologías oculares y enfermedades de la retina, siempre que la enfermedad se refleje en una imagen de la retina de OCT. Se conoce el análisis de imágenes de OCT para muchas de estas enfermedades y condiciones oculares, por ejemplo, Schuman, Joel S. "Optical Coherence Tomography of Ocular Diseases", Tercera Ed. SLACK Inc. (2013) ISBN 101-55642-864­ 2, ISBN 13 978-1-55642-864-7. Los controles basados en perfiles democráticos pueden coincidir, por ejemplo, por edad, sexo, raza, residencia geográfica, exposición a factores ambientales, etnia y combinaciones de los mismos.
Otro ejemplo está dirigido a procedimientos para cuantificar una característica de la retina a partir de datos de imágenes de OCT de la retina. Los procedimientos comprenden inicialmente: (a) obtención de una imagen de OCT de dominio espectral de la retina de un sujeto; y (b) segmentación de la imagen de OCT en regiones de la retina de acuerdo con un algoritmo de segmentación de OCT de la retina. La imagen segmentada incluye al menos las regiones del vítreo y del epitelio pigmentario de la retina (RPE), y una o más regiones adicionales seleccionadas entre la capa de fibras nerviosas (NFL), la capa de células ganglionares (GCL), la capa plexiforme interna (IPL) la membrana limitante interna (ILM), la capa nuclear interna (INL), la capa plexiforme externa (OPL), la capa nuclear externa (ONL), la membrana limitante externa (ELM), los segmentos internos (IS), la unión de los segmentos internos/externos (I/OS) y los segmentos externos de los fotorreceptores (OSP). Se calcula un valor característico medio en bruto dentro de cada región y a la región vítrea se le asigna un valor característico normalizado de 0, mientras que al RPEse le asigna algún valor mayor que cero, X. X puede seleccionarse entre cualquier valor; sin embargo, en realizaciones específicas X se selecciona entre 10, 100 y 1000. En realizaciones muy específicas, X es 1000. A continuación, todos los valores brutos calculados se convierten en unidades características normalizadas para cada región de la retina en una escala de 0 a X. La característica se cuantifica entonces de acuerdo con la escala de unidades características normalizadas para cada región de la retina.
La escala de reflectividad normalizada puede utilizarse para interpretar y comparar las imágenes de SD-OCT de forma objetiva y normalizada. La escala normalizada proporciona una medida cuantificable de los escaneos de OCT, lo que permite al profesional percibir objetivamente los cambios patológicos antes de que dichos cambios se aprecien subjetivamente. Además, la escala normalizada proporciona una plataforma para el diagnóstico automatizado de la patología y el tratamiento sugerido.
En ciertas realizaciones puede ser relevante desde el punto de vista del diagnóstico obtener más de una escala característica normalizada para la imagen retiniana de OCT. Por ejemplo, diferentes áreas de una región de la retina pueden sufrir cambios morfológicos/característicos a diferentes ritmos. Las áreas de relevancia diagnóstica incluyen, por ejemplo, la nasal izquierda, la temporal izquierda, la nasal derecha, la temporal derecha, siendo "izquierda" y "derecha" las relativas a la fóvea, siendo la nasal la zona más cercana en fisiología anatómica a la nariz, y la temporal el lado de la fóvea más alejado de la nariz. Es evidente que estas zonas se invertirán como entre el ojo izquierdo y el derecho.
En realizaciones muy específicas, la característica retiniana es la reflectividad, un valor característico normalizado es una unidad de reflectividad (RU), y la escala de unidad característica normalizada es una escala de reflectividad normalizada. Cualquier característica de la retina que se manifieste en una imagen retiniana de OCT puede cuantificarse en consecuencia. De acuerdo con realizaciones muy específicas, el algoritmo de segmentación es una realización del algoritmo de segmentación divulgado en el presente documento.
Como la medición se realiza en todas las capas de la retina, habría una combinación de cambios subjetivos y medibles. Además de tener mayor o menor reflectividad y diferencia en el espesor de las capas, algunas capas pueden estar ausentes debido a la naturaleza de la patología. La presente escala cuantificable proporciona datos objetivos en un solo escaneo que mejora la capacidad de diferenciar los patrones patológicos de los escaneos normales. La aplicación de este enfoque en pacientes diabéticos muestra resultados prometedores, que permiten al profesional detectar una patología ocular antes de que sea evidente subjetivamente.
La utilización de la nueva escala de reflectividad normalizada proporciona un procedimiento alternativo para observar los cambios estructurales progresivos que se producen dentro de la retina en función de la edad, y también ofrece una nueva forma de obtener datos cuantitativos de las imágenes de OCT. Como se muestra en la Figura 7, se demostraron cambios significativos no reconocidos anteriormente en la reflectividad de las capas elipsoide y de fibras nerviosas que se producen con el envejecimiento normal en una población de pacientes con retinas no patológicas. La novedosa escala divulgada permite identificar cada capa y normalizarla con respecto a un grupo de edad.
Otras realizaciones se dirigen a procedimientos de diagnóstico de una patología ocular en un sujeto utilizando el novedoso algoritmo de segmentación seguido de la cuantificación de una característica retiniana. Los procedimientos comprenden obtener de al menos una imagen retiniana de OCT del sujeto; la cuantificación de la reflectividad en al menos una región retiniana relevante desde el punto de vista del diagnóstico de la imagen de OCT del sujeto de acuerdo con las realizaciones divulgadas en el presente documento; comparar la reflectividad cuantificada de la región retiniana de la imagen de OCT del sujeto con una reflectividad cuantificada de control derivada de imágenes de OCT de control normales o de imágenes de OCT de control específicas de la patología, para determinar una diferencia si la reflectividad de control se deriva de sujetos de control normales, y un ajuste si la reflectividad de control se deriva de sujetos específicos de la patología; evaluar estadísticamente la diferencia o el ajuste; y diagnosticar una patología ocular si la diferencia o el ajuste es estadísticamente significativo.
Otras características de la retina observables en una imagen retiniana de OCT también pueden informar un diagnóstico. En realizaciones específicas, los procedimientos comprenden además: calcular el espesor y/o la curvatura de al menos una región retiniana relevante para el diagnóstico de la imagen OCT del sujeto; calcular un espesor y/o una curvatura media de al menos una región retiniana relevante para el diagnóstico de las imágenes de OCT de control; comparar los cálculos; y determinar una diferencia o un ajuste estadísticamente significativo del espesor y/o la curvatura de la región retiniana de la imagen de OCT del sujeto con respecto al espesor y/o la curvatura de la región retiniana de la imagen OCT de control, en los que una diferencia estadísticamente significativa con respecto a un control normal o un ajuste estadísticamente significativo con respecto a un control específico de la patología indica un diagnóstico de patología ocular. Los procedimientos para determinar el espesor y la curvatura de una región retiniana de OCT son bien conocidos en la técnica.
Las patologías oculares específicas que pueden ser evaluadas o diagnosticadas por los procedimientos instantáneos incluyen aquellas en las que se sabe que la textura de la imagen o la reflectividad varían con la enfermedad y la progresión de la enfermedad/condición. Entre los ejemplos no limitantes se encuentran la degeneración macular asociada a la edad (DMAE), la coroideremia, la enfermedad de Stargardt, el síndrome de Usher, la retinopatía diabética, el agujero/arrugas maculares, el retinoblastoma, el desprendimiento de retina, la ceguera de río/oncocercosis y la retinosis pigmentaria.
Los presentes investigadores descubrieron sorprendentemente que ciertas enfermedades pueden ser detectadas en etapas ocultas y preclínicas muy tempranas mediante la implementación de realizaciones de los novedosos procedimientos divulgados en el presente documento. Por ejemplo, los pacientes que padecen diabetes corren el riesgo de desarrollar una retinopatía diabética; sin embargo, los procedimientos clínicos modernos no detectan la retinopatía hasta que se han producido daños irreversibles. La retinopatía diabética, incluso en ausencia de síntomas clínicos manifiestos, estaba indicada cuando: (i) los valores de reflectividad normalizada de la imagen de OCT del sujeto derivados de acuerdo con las realizaciones de los procedimientos divulgados son mayores que los valores de reflectividad normalizada de la imagen de OCT de control para la mayoría de las regiones de la retina, y/o (ii) los valores de reflectividad normalizada del sujeto dentro de al menos una región de la retina difieren significativamente entre las áreas regionales izquierda y derecha, y/o (iii) la curvatura y el espesor de las regiones de la retina segmentadas por OCT del sujeto varían por región de la retina y por área regional izquierda y derecha para al menos dos regiones de la retina. En realizaciones muy específicas, las dos regiones de la retina comprenden la IPL y la INL.
El glaucoma también puede ser detectado/diagnosticado antes de la manifestación de síntomas clínicos manifiestos. De acuerdo con las realizaciones de los procedimientos inventivos, se indica un diagnóstico de glaucoma cuando: (i) los valores de reflectividad normalizada de la imagen de OCT del sujeto en la región retiniana de NFL son mayores que los valores de reflectividad normalizada de la imagen de OCT de control en la región retiniana de NFL, y ii) el espesor de la imagen de OCT del sujeto en la región retiniana de NFL es menor que el espesor de la imagen de OCT de control normal en la región retiniana de NFL.
Es bien sabido que la retina normal experimenta un cambio retiniano relacionado con la edad. Dichos cambios pueden ser monitorizados para detectar signos de cambios extremos/clínicos utilizando las realizaciones del procedimiento de la presente divulgación. En determinadas realizaciones, el procedimiento comprende: obtener al menos dos imágenes retinianas de OCT del sujeto a lo largo de un periodo de tiempo longitudinal; segmentar y cuantificar la reflectividad de cada imagen retiniana de OCT de acuerdo con los procedimientos divulgados, comparando la reflectividad cuantificada de las al menos dos imágenes retinianas de OCT; y monitorizar el cambio de la retina relacionado con la edad en el sujeto de prueba, con base en la comparación.
Otras realizaciones proporcionan procedimientos para gestionar una enfermedad coriorretiniana relacionada con la edad en un sujeto. Generalmente, se obtienen al menos una primera imagen retiniana de OCT y una segunda imagen retiniana de OCT del sujeto a lo largo de un marco temporal longitudinal, se cuantifica la reflectividad para cada imagen retiniana OCT de acuerdo con las realizaciones de los procedimientos novedosos, y se compara la reflectividad cuantificada de la primera imagen retiniana de OCT con la reflectividad cuantificada de la segunda imagen retiniana de OCT. La enfermedad coriorretiniana asociada a la edad puede gestionarse con base en la comparación. En realizaciones muy específicas, la enfermedad coriorretiniana relacionada con la edad está asociada con la degeneración macular neovascular relacionada con la edad. En otras realizaciones específicas, la degeneración macular relacionada con la edad se gestiona para reducir la tasa de cambio de la reflectividad de las regiones de la retina.
También se proporcionan procedimientos para monitorizar la respuesta de la retina al tratamiento de un sujeto con un agente farmacéutico. Se obtiene una imagen de OCT de la retina de al menos una retina del sujeto antes de iniciar el tratamiento con el agente farmacéutico, y se obtiene al menos una imagen de OCT de la retina del sujeto después de iniciar el tratamiento con el agente farmacéutico. La reflectividad de cada imagen retiniana OCT se cuantifica de acuerdo con las realizaciones de la invención, y las reflectividades cuantificadas se comparan y las diferencias se analizan estadísticamente en busca de diferencias significativas o de tendencia. Se determina una respuesta retiniana al tratamiento cuando se observa una diferencia estadísticamente significativa. Cuando la remodelación macular es un objetivo del tratamiento, pueden detectarse indicios subclínicos de remodelación mediante la aplicación de los presentes procedimientos. En otro ejemplo específico, el sujeto sufre de glaucoma y la respuesta retiniana es el cese o la inversión de la atrofia de la capa de fibras nerviosas (NFL).
Los presentes procedimientos inventivos son muy ventajosos, ya que permiten realizar diagnósticos y evaluaciones automáticas y fiables tanto por parte de los no profesionales como de los profesionales. No se requiere la capacidad de leer una imagen retiniana de OCT y los procedimientos son fácilmente automatizables para su ejecución por un ordenador. Una realización proporciona un medio legible por ordenador no transitorio que almacena instrucciones ejecutables por ordenador, que, cuando son ejecutadas por un ordenador, hacen que el ordenador lleve a cabo un procedimiento que comprende: recibir una imagen de OCT de prueba de una retina; segmentar la imagen de OCT de prueba en 13 regiones de la retina con base en un modelo de imagen de OCT de la retina que incorpora la forma, la intensidad y la información espacial derivada de un grupo de control de imágenes de OCT, en el que las 13 regiones de la retina comprenden: vítreo, la capa de fibras nerviosas (NFL), la capa de células ganglionares (GC), la capa plexiforme interna (IPL), la membrana limitante interna (ILM), la capa nuclear interna (INL), la capa plexiforme externa (OPL), la capa nuclear externa (ONL), la membrana limitante externa (ELM), los segmentos internos (IS) la unión del segmento interno/externo (I/OS), los segmentos externos de los fotorreceptores (OSP) y el epitelio pigmentario de la retina (RPE), adicionalmente en el que la reflectividad de cada región de la retina se cuantifica con un valor de unidad de reflectividad de acuerdo con una escala de reflectividad normalizada; derivar una escala de reflectividad normalizada para la imagen de OCT de prueba y asignar un valor de unidad de reflectividad a cada región de la retina con base en la escala de reflectividad normalizada; comparar los valores de unidad de reflectividad asignados de cada región de la retina de la imagen de OCT de prueba con los valores de unidad de reflectividad del modelo para las mismas regiones de la retina; y diagnosticar una patología de la retina correlacionando el resultado de la comparación con una base de datos de patologías de la retina asociadas con escalas de reflectividad normalizadas específicas para cada patología de la retina. En el Ejemplo 6 se ilustra una programación ejemplar. Además, la Figura 2 presenta un flujo de operaciones esquemático para la realización automatizada/computarizada de las realizaciones de los procedimientos inventivos.
La cita de cualquier documento no debe interpretarse como una admisión de que se trata del estado de la técnica con respecto a la presente invención.
Aunque se han ilustrado y descrito realizaciones particulares de la presente invención, sería obvio para un experto en la materia que se pueden realizar otros cambios y modificaciones sin apartarse del alcance de la invención. Los siguientes Ejemplos se exponen para ilustrar realizaciones particulares y no deben interpretarse como una limitación del alcance, que se define por las reivindicaciones adjuntas.
Ejemplo 1.
Este ejemplo ilustra el desarrollo de un algoritmo de segmentación de SD-OCT de la retina de acuerdo con las realizaciones de la invención.
A. Recolección de datos
Los sujetos fueron reclutados en el Kentucky Lions Eye Center, University of Louisville Department of Ophthalmology and Visual Sciences Louisville, Kentucky entre junio de 2015 y diciembre de 2015. Se obtuvo el consentimiento informado de todos los participantes. Se incluyeron en el estudio sujetos con retinas normales con edades comprendidas entre los 10 y los 79 años. Los antecedentes médicos, los antecedentes oftalmológicos, el hábito de fumar y la medicación actual se obtuvieron mediante la revisión de la historia clínica y la entrevista con el sujeto. Se excluyeron de la participación en el estudio las personas con antecedentes significativos de cualquier patología de la retina, antecedentes significativos de diabetes mellitus, miopía elevada definida como un error de refracción mayor o igual a -6,00 dioptrías, e imagen de OCT inclinada. Se recogieron prospectivamente escaneos de SD-OCT de 165 sujetos normales utilizando el Zeiss Cirrus HD-OCT 5000. Los datos de SD-OCT se exportaron para su análisis como archivos en bruto de 8 bits, en escala de grises, con un tamaño de 1024 píxeles*1024 píxeles*N cortes, donde N = 5 o 21. Para N = 5, el campo de visión fue de 6 mm nasal-temporal (N-T) y 2 mm posterior-anterior (P-A), y el espacio entre cortes fue de 0,25 mm. Para N = 21, el campo de visión era de 9 mm N-T y 2 mm P-A, mientras que el espacio entre cortes era de 0,3 mm.
A. Segmentación automática de doce capas de la retina
Sea g = {g(x): x E R ; g(x) E Q} y m = {l(x): x E R ;l(x) e L} es una imagen en escala de grises que toma valores de Q, es decir, g: R ^ Q, con el mapa de regiones asociado tomando valores de L, es decir, m: R ^ L, respectivamente. R denota una red aritmética finita, Q es un conjunto finito de valores grises enteros y L es un conjunto de etiquetas de regiones. Una imagen de OCT de entrada, g, coalineada con la base de datos de entrenamiento, y su mapa, m, se describen con un modelo de probabilidad conjunto
P(g ,m ) = P (g \m)P(m ) . (1)
El modelo de probabilidad conjunta combina una distribución condicional de las imágenes dado el mapa P(g\m), y una distribución de probabilidad incondicional de los mapas P(m) = P sp (m)P v (m). Aquí, P sp (m) denota un modelo de forma ponderada, y P v (m) es una distribución de probabilidad de Gibbs con potenciales V, que especifica un modelo de MGRF de mapas espacialmente homogéneos m.
(i) Modelo de forma adaptable P sp (m)
Para tener en cuenta la falta de homogeneidad de las imágenes de OCT, se tiene en cuenta la información de forma en la segmentación. El modelo de forma se construye utilizando 12 escaneos de OCT, seleccionados de 6 hombres y 6 mujeres. Las segmentaciones de la "verdad sobre el terreno" de estos escaneos se delinearon bajo la supervisión de especialistas en retina. Utilizando uno de los escaneos óptimos como referencia (sin inclinación, fóvea situada en el centro), los demás fueron corregidos utilizando una chaveta de placa fina (TPS) (véase J. Lim y M.-H. Yang; "A direct method for modeling non-rigid motion with thin plate spline" CVPR, 2005, pp. 1196- 1202). El modelo de forma se define como
Figure imgf000010_0001
Donde y es el píxel de la imagen con nivel de gris g. Las mismas deformaciones se aplicaron a sus respectivas segmentaciones de la verdad del terreno, que luego se promediaron para producir un modelo de forma probabilística de la retina típica, es decir, a cada posición x en el espacio de referencia se le asigna una probabilidad previa P(m) de encontrarse dentro de cada una de las 12 clases de tejido.
Para segmentar la imagen de entrada, primero debe ser alineada (registrada) con el modelo de forma. De acuerdo con una realización, se proporciona un enfoque de alineación que integra el TPS con el procedimiento de seguimiento de bordes de resolución múltiple que identifica los puntos de control para iniciar el procedimiento de alineación. En primer lugar, el algoritmo "'a trous" (véase Lega E, Scholl H, Alimi J-M, Bijaoui A, y Bury P. A parallel algorithm for structure detection based on ondículaand segmentation analysis. Parallel Comput., 1995, 21: 2, pp. 265-285, 1995) se utilizó para construir una descomposición ondícula de cada escaneo. A un nivel de detalle lo suficientemente grueso, la retina adquiere un aspecto de tres bandas, con dos bandas hiperreflectantes separadas por una banda hiporreflectante que corresponde aproximadamente a las capas que van de ONL a MZ. Los contornos que siguen los máximos del gradiente de este componente de ondícula proporcionaron estimaciones iniciales de los límites vítreo/NFL, MZ/EZ y RPE/coroides, Figura 3D. El cuarto máximo del gradiente podría estimar el límite de OPL/ONL, pero no es un borde lo suficientemente nítido como para ser útil. Estas crestas en la magnitud del gradiente se siguieron a través del espacio de escala hasta el tercer componente de ondícula, que corresponde a una escala de aproximadamente 15 micrómetros para los escaneos de OCT utilizados en el estudio.
La fosa foveal se determinó entonces como el punto de mayor aproximación de los contornos vítreo/NFL y MZ/EZ. A continuación, se localizaron puntos de control en estos límites en la fosa foveal y a intervalos uniformes nasal y temporalmente desde ella. Por último, se empleó TPS optimizada para alinear la imagen de entrada con la base de datos de formas utilizando los puntos de control identificados.
(ii) Modelo de intensidad de primer orden P (g|m)
Para que la segmentación sea adaptativa y no esté sesgada sólo a la información de forma, se modeló la distribución empírica de niveles de gris de las imágenes de OCT. La apariencia visual de primer orden de cada etiqueta de la imagen se modela separando una distribución mixta de intensidades de píxeles en componentes individuales asociados con los modos dominantes de la mezcla. Esta última se aproxima mediante el enfoque LCDG (E-Baz A, Elnakib A, Khalifa F, El-Ghar M A, McClure P, Soliman A, y Gimelrfarb G. "Precise segmentation of 3D magnetic resonance angiography"; IEEE Trans. Biomed. Eng. 2012, 59: 7, pp. 2019-2029), que emplea componentes gaussianos positivos y negativos que se basan en una versión modificada del algoritmo clásico de maxmización de expectativas (EM). Sea ^0 =(y(q\Q): q e Q) denota una gaussiana discreta (DG) con parámetros Q =(y, a), que integra una densidad gaussiana continua 1D con media y y varianza a2 sobre sucesivos intervalos de nivel de gris. El LCDG con cuatro DGs positivos dominantes y C p > 4 positivos y C n > 0 negativos subordinados DGs es
Figure imgf000011_0001
Donde m toma una de las etiquetas de 1 a 12, y todos los pesos w =[wp:k,wn:k] son no negativos y cumplen una restricción evidente
l l í i p:k ~ l l h <*>mk = 1
(iii) Modelo MGRF espacial de segundo orden Pv(m)
Para mejorar la homogeneidad espacial de la segmentación, se incorporó el modelo de MGRF Potts que tiene en cuenta la información espacial con la información de forma e intensidad (Alansary A, Ismail M, Soliman A, et al. "Infant brain extraction in T1-weighted MR images using BET and refinement using LCDG and MGRF models"; IEEE J Biomed Health Inform. 2015). Este modelo se identifica utilizando los vs de los píxeles más cercanos y los potenciales de Gibbs analíticos bivalorados como
Figure imgf000011_0002
Donde V es el potencial de Gibbs de dos valores que depende de la igualdad del par de etiquetas más cercano
Figure imgf000011_0003
La m inicial resulta en estimaciones analíticas aproximadas de potenciales de máxima verosimilitud
Ve c = ~ Vn e * 2 f ec ( m ) - 1
Que permiten calcular las probabilidades por píxel p x,y (l x,y = A) de cada etiqueta A e L.
Los pasos del marco de segmentación se ilustran en la Figura 2. Las imágenes que muestran la aplicación del marco de segmentación se exponen en la Figura 3 y la Figura 4.
El rendimiento del marco de segmentación propuesto en relación con la segmentación manual se evaluó utilizando el coeficiente de acuerdo (AC1) y el coeficiente de similitud de Dice (F1) DSC (Gwet KL. Computing inter-rater reliability and its variance in the presence of high agreement. Bri J Math Stat Psychol). 2008;61:29-48 S. J. Chiu, X. T. Li, P. Nicholas, C. A. Toth, J. A. Izatt, y S. Farsiu, "Automatic segmentation of seven retinal layers in SDOCT images congruent with expert manual segmentation."
A continuación, se expone un esquema de aplicación del algoritmo de segmentación al análisis de una imagen de prueba de OCT.
I- Preprocesamiento
1. Cargar el modelo de forma (atlas) junto con la imagen de prueba.
II- Alineación de la imagen de prueba con el modelo de forma/atlas:
1. Utilizar un algoritmo "a trous" para construir la descomposición ondícula de la imagen de entrada, y localizar los límites vítreo/NFL, IPL/EL, y RPE/coroides.
2. Identificar la fosa foveal utilizando los 3 límites detectados.
3. Colocar puntos fiduciales en cada límite detectado, comenzando en la fosa foveal y moviéndose hacia afuera a intervalos equidistantes.
4. Alinear la imagen de entrada con el atlas utilizando los puntos de control identificados.
III- Segmentación inicial:
5. Inicializar una ventana 2D de tamaño N1* N2 centrada en cada píxel alineado, y buscar dentro el píxel del atlas que tenga la intensidad más cercana al píxel de la imagen.
6. Aumentar el tamaño de la ventana, si es necesario, y realizar de nuevo la búsqueda hasta encontrar un resultado no vacío. Si se alcanza el tamaño máximo y no se encuentra ningún resultado, aumentar la tolerancia de intensidad y volver al paso anterior.
7. Buscar en el atlas la probabilidad a priori de que el píxel correspondiente pertenezca a cada clase.
IV- Segmentación final:
8. Aproximar la distribución de intensidad marginal P(g) de la imagen de OCT utilizando una LCDG con cuatro modos dominantes.
9. Formar un mapa de regiones inicial m utilizando la densidad marginal estimada y la forma previa de cada etiqueta.
10. Encuentre los potenciales de Gibbs para el modelo de MGRF (para camarillas de pares y de orden superior) a partir del mapa inicial m.
Obténgase la segmentación final utilizando el modelo de probabilidad conjunta de la Ecuación 1.
En la Figura 4 se muestra una demostración paso a paso de la aplicación del enfoque de segmentación propuesto para un sujeto normal. En primer lugar, se rastrean los bordes de la imagen de OCT de entrada (Figura 4A) mediante el procedimiento de descomposición ondícula (Figura 4B) y se procede a su coalineación con la base de datos de formas mediante puntos de control TPS identificados (Figura 4C). El resultado de la segmentación inicial se obtiene primero utilizando el modelo de forma (Figura 4D) y luego se refina utilizando el modelo conjunto-MGRF para obtener el resultado final de la segmentación (Figura 4E). En la Figura 5 se muestran otros resultados de segmentación para sujetos normales.
La robustez y precisión del procedimiento se evalúa utilizando las métricas AC1 y DSC, y la métrica de distancia AD comparando la segmentación con la verdad de campo. La comparación con 165 escaneos segmentados manualmente reveló que el error medio de los límites era de 6,87 micrómetros, promediado en los 13 límites; el límite interno (vítreo) de la retina fue el más preciso, con un error medio de 2,78 micrómetros. El peor rendimiento se produjo en el límite exterior (coroides), con una desviación media de 11,6 micrómetros respecto a la realidad. El AC1 da una media de 77,2 % con una desviación estándar de 4,46 % (intervalo robusto de 64,0 % a 86 %). Algunas capas fueron segmentadas automáticamente con mayor precisión que otras (Figura 4A-F), con un coeficiente de similitud de Dice tan alto como 87,8 % con una desviación estándar de 3,6 % en la capa nuclear externa (intervalo robusto del 79,2 % al 95,1 %) pero tan bajo como 58,3 % con una desviación estándar del 13,1 % en la membrana limitante externa.
Ejemplo 2.
Este ejemplo ilustra la derivación de datos cuantitativos de imágenes de SD-OCT segmentadas de acuerdo con una realización de la invención. En particular, el concepto se ilustra utilizando la reflectividad como característica cuantificada y el desarrollo de una escala de reflectividad normalizada.
Datos cuantitativos derivados de las imágenes de SD-OCT
Se pueden derivar varios datos cuantitativos de las imágenes de SD-OCT segmentadas para caracterizar óptimamente la morfología de la retina. Las realizaciones específicas del presente documento se describen en términos de las mediciones de reflectividad que se obtuvieron de dos regiones por escaneo, que comprenden las porciones más gruesas de la retina en los lados nasal y temporal del pico foveal. Aunque la realización se describe e ilustra utilizando la reflectividad, será evidente para el experto en la técnica que los procedimientos son aplicables a otras características cuantificables de la retina.
La reflectividad media se expresa en una escala normalizada, calibrada de manera que el vítreo formado tiene un valor medio de 0 NRS, y el epitelio pigmentario de la retina tiene un valor medio de 1000 NRS. El nivel de gris promedio dentro de un segmento se calculó utilizando la estimación M de Huber, que es resistente a los valores periféricos que puedan estar presentes, tales como los píxeles muy brillantes en el segmento más interno que pertenecen propiamente a la membrana limitante interna y no a la NFL. Los niveles promedio de gris se convirtieron en unidades n Rs mediante un desplazamiento y una escala uniforme. El análisis estadístico empleó ANCOVA en un diseño factorial completo con los factores sexo, lado de la fóvea (nasal o temporal) y capa retiniana, y la covariable continua edad.
Ejemplo 3.
Este ejemplo ilustra la aplicación de una realización del algoritmo de segmentación automatizada a un análisis de la reflectividad de la capa retiniana en función del género, la edad y la demografía. Los datos de la unidad de reflectividad (RU) se resumen por edad en la Figura 9.
Después de aplicar el protocolo de segmentación a las imágenes recogidas, se lleva a cabo el análisis de la medida de reflectividad a través de las diferentes décadas de la vida. Las realizaciones del enfoque de segmentación se validaron primero utilizando la "verdad básica" de los sujetos, que se recogió de 165 sujetos de entre 10 y 79 años. Se excluyeron los sujetos con miopía alta (< -6,0 dioptrías), y OCT inclinada. Esta verdad básica se creó mediante delineaciones manuales de las capas de la retina revisadas con 4 especialistas diferentes en retina (SS, AP, AH, DS).
Este estudio fue revisado y aprobado por la Institutional Review Board at the University of Louisville. Se realizó una revisión retrospectiva de las historias clínicas para identificar a los sujetos de entre 13 y 97 años de edad sin patología ocular significativa. Los datos recogidos incluían la edad, el sexo, la agudeza visual y los antecedentes médicos y oculares. Los sujetos incluidos en el estudio eran individuos sin enfermedades sistémicas, incluyendo la hipertensión y la diabetes, con una agudeza visual de 20/40 o superior y sin evidencia clínica de ninguna patología ocular. Los criterios de exclusión fueron los diagnósticos de patología oftálmica, incluyendo, pero sin limitarse a ello, la retinopatía diabética, la degeneración macular asociada a la edad, el glaucoma, el edema macular cistoide y la membrana epirretiniana, o los antecedentes de cirugía de retina, incluyendo los tratamientos con láser. Los pacientes restantes (n = 179) se dividieron posteriormente en nueve grupos de edad que representaban cada década de la vida (10-19, 20-29, 30-39, 40-49, 50-59, 60-69, 70-79, 80-89 y 90-99 años). Los datos crudos de OCT de dominio espectral (SD-OCT, Spectralis SLO-OCT, Heidelberg Engineering, Heidelberg, Alemania) tomados de los escaneos de línea horizontal de cada paciente se importaron a ImageJ (versión 1.48; National Institutes of Health, Bethesda, Maryland, EE. UU.) para su posterior análisis. El vítreo y todas las capas de la retina se midieron tanto nasal como temporalmente con respecto a la fóvea entre 50 pm y 300-400 pm desde el centro foveal en cualquier dirección. Se estableció una escala de reflectividad normalizada (NRS) para la reflectividad de la OCT que va de 0 unidades (definida como la reflectividad del vítreo) a 1.000 unidades (definida como la reflectividad del RPE). La reflectividad bruta en la parafovea nasal y temporal se midió con ImageJ, se convirtió en NRS y se comparó para todas las capas de la retina.
Análisis Estadístico
El análisis estadístico se llevó a cabo utilizando un software estadístico (SPSS versión 17.0; SPSS, Inc., Chicago, IL, EE. UU). El análisis multivariante se realizó mediante un análisis ANOVA de dos vías. Los valores se consideraron significativos si P < 0,05.
Resultados
Se incluyó un total de 323 ojos de 179 sujetos (87 hombres y 92 mujeres). El NRS de la capa de fibras nerviosas (NFL) mostró una reflectividad significativamente mayor en la retina parafoveal nasal en comparación con la temporal (843 frente a 559 unidades; P<0,001). Ninguna de las otras capas de la retina demostró una diferencia estadísticamente significativa entre los lados nasal y temporal (Figura 7A-7I). La NRS-NFL disminuyó a lo largo de la vida y llegó a ser significativamente diferente de la línea de base (grupo de edad 10-19) en el grupo de edad 30-39 en el lado nasal (1168 vs 882 unidades; P<0,001) y en el grupo de edad 70-79 en el lado temporal (673 vs 483 unidades; P= 0,02).
Hubo correlaciones estadísticamente significativas con el envejecimiento en la NFL y la capa elipsoide (P<0,001). Todas las demás capas no cambiaron significativamente en la escala de NRS con la edad.
La edad media de los sujetos era de 60,3+/-19,6 años (Figura 9). No hubo diferencias significativas en la agudeza visual de los pacientes en los distintos grupos de edad.
Para demostrar los cambios en la reflectividad de las capas de la retina, cada escaneo de trama se normalizó a la reflectividad bruta del vítreo y del RPE. Además, la relación entre la reflectividad bruta del RPE y el vítreo no mostró cambios significativos en los sujetos normales en todos los grupos.
Los cambios en el NRS con la edad y la localización dentro de la retina se muestran en las Figuras 7 y 8. La comparación de la NRS nasal y temporal con la fóvea mostró que la reflectividad de la capa de fibras nerviosas (NFL) era significativamente mayor en la retina nasal parafoveal en comparación con la temporal (843 frente a 559 unidades; P<0,001). Ninguna de las otras capas de la retina demostró una diferencia estadísticamente significativa entre los lados nasal y temporal para ninguna década de la vida.
Hubo cambios estadísticamente significativos en el NRS de la NFL y la capa elipsoide con la edad (P<0,001, Figura 7). El NRS de la NFL disminuyó con el aumento de la edad y llegó a ser significativamente diferente de la línea de base (grupo de edad 10-19) en el grupo de edad 30-39 en el lado nasal (1168 vs 882 unidades; P<0,001) y en el grupo de edad 70-79 en el lado temporal (673 vs 483 unidades; P= 0,02). El NRS de la capa elipsoide también disminuyó con el aumento de la edad y llegó a ser significativamente diferente de la línea de base (grupo de edad 10-19) en el grupo de edad 40-49 tanto en el lado nasal como en el temporal (Figura 8). Todas las demás capas no demostraron cambios significativos en el NRS con la edad.
En general, la reflectividad normalizada varió significativamente con la edad(F-i,43 68 = 327; p < 0,0001), el género(F1,4368 = 5,11; p = 0,024) y la capa(Fii,4368 = 2330; p < 0,0001), pero no el lado de la fóvea (F-i ,4368 = 0,424; p = 0,515). La pendiente, o cambio de año a año en el NRS, varió significativamente de acuerdo con la capa de la retina('Fíí,4368 = 14,77; p < 0,0001) (Figura 10). Las interacciones del lado de la fóvea con la capa fueron estadísticamente significativas (F114358 = 29,1; p < 0,0001). Ningún otro término del modelo fue significativo. El efecto del género, aunque estadísticamente significativo, ascendió a sólo 1,4 NRS (hombre > mujer). El NRS disminuyó con la edad en general (Figura 8), observándose los mayores descensos en la zona elipsoide (-3,43 NRS-año-1), y en la NFL (-3,50 NRS-año-1). El envejecimiento normal tuvo un efecto escaso o nulo en el EPR (-0,72 NRS-año-1).
Conclusión
El deterioro de la función visual con el envejecimiento ha sido objeto de múltiples estudios en el pasado. Los ERG estándar de campo completo muestran un aumento significativo de los tiempos implícitos y una disminución de las amplitudes de las ondas a y b con el envejecimiento. También se ha demostrado una reducción de la densidad de amplitud del diámetro central 108 de la visión en los ERG multifocales con el envejecimiento normal. A nivel estructural, los bastones parecen estar más afectados por el envejecimiento que los conos. Anteriormente se demostró que entre los 34 y los 90 años, el número de conos en la zona macular permanece estable, mientras que la densidad de bastones disminuye en 30 % en la retina central. El número de células ganglionares en la fóvea y la retina periférica también disminuye durante el envejecimiento. La traducción de los cambios mencionados que se producen con el envejecimiento normal en los cambios morfológicos en las imágenes de OCT no se ha estudiado ni evaluado objetivamente.
Los presentes resultados demuestran que, aunque no se observó ningún cambio significativo en la reflectividad en la capa de células ganglionares con el envejecimiento, la reflectividad de la NFL disminuyó tanto en la parte temporal como en la nasal de la parafovea. Esto puede deberse en parte a la tasa diferencial de pérdida relacionada con la edad entre sus axones. La orientación de los axones en la NFL, en comparación con la orientación de los núcleos en la GCL, también puede contribuir a una pérdida diferencial de reflectividad entre las capas. Además, se ha demostrado que los nervios ópticos de los ratones que envejecen contienen un número importante de axones necróticos en procedimiento de fagocitación. Los cambios estructurales correspondientes pueden influir en la reflectividad de la NFL. Este fenómeno también podría deberse a la característica de envejecimiento que presentan los niveles más altos de orgánulos citoplasmáticos.
La otra capa de la retina que mostró cambios significativos con el envejecimiento fue la zona elipsoide, producto de la alta concentración de mitocondrias fotorreceptoras en esta región. La retina externa está expuesta a la luz solar y a una tensión de oxígeno relativamente alta. Las membranas de los fotorreceptores son ricas en ácidos grasos poliinsaturados, y la combinación de estos diferentes elementos da lugar a un tejido especialmente propenso al daño oxidativo. Las mutaciones del ADN mitocondrial (ADNmt) se acumulan progresivamente en los fotorreceptores con el tiempo, especialmente en la región foveal. La acumulación de mutaciones del ADNmt induce la apoptosis y puede desempeñar un papel en lo que se observó como reducción de la reflectividad del elipsoide con el envejecimiento normal. Además, las mitocondrias sufren alteraciones estructurales y funcionales con el envejecimiento que pueden contribuir a un cambio en la disposición altamente estructurada de las mitocondrias dentro de la zona elipsoide, en la fisiología local o en ambas.
Todas las demás capas de la retina no cambiaron significativamente su reflectividad en los grupos de edad examinados. Esto puede hablar del mantenimiento relativo del número de células de la retina en la fóvea. Teniendo en cuenta la densa población de conos en la fóvea y de acuerdo con los hallazgos histopatológicos del envejecimiento, no se observó ninguna diferencia significativa en la reflectividad de la ONL con el envejecimiento. Curiosamente, tanto la capa plexiforme interna como la externa mostraron una disminución no significativa de la reflectividad con la edad. Esto puede ser coherente con la hipótesis generada a partir del análisis de la NFL y la GCL de que las capas formadas por axones pueden mostrar cambios de reflectividad antes que las capas formadas por núcleos a pesar de su evidente conectividad.
La acumulación de lipofuscina en el RPE es otro cambio importante que ocurre durante el envejecimiento. Sin embargo, la reflectividad del EPR no cambió significativamente después de la 3ra década de vida. Esto puede explicarse por el hecho de que el correlato primario de OCT dentro del EPR es el melanosoma.
Ejemplo 4.
Este ejemplo muestra las ventajas de rendimiento del algoritmo de segmentación inventivo sobre un enfoque con base en la teoría de grafos ejemplificado por Gwet KL, J. Math Stat Psychol. (2008). El enfoque de Gwet produce un error medio en los límites de 284 micrómetros, y sólo se detectó de forma fiable el límite RPE/coroides, con un error medio de 15,1 micrómetros y una desviación estándar de 8,6 micrómetros. El AC1 fue muy bajo; mientras que la media de DSC fue 30,3 % (d.s. 0,358) en ONL--EZ (capa nuclear externa y segmentos internos de los fotorreceptores) y 40,7 % (d.s. 0,194) en OPR--RPE (complejo hiperreflectivo). La media de DSC fue nula en otros lugares.
Los resultados comparativos de segmentación de las realizaciones de la invención frente a Gwet para algunos datos seleccionados se demuestran en la Tabla 1, que resume una comparación cuantitativa de un procedimiento de segmentación inventivo y Gwet, ambos frente a la verdad de base, con base en las tres métricas de evaluación para todos los sujetos. El análisis estadístico mediante la prueba t emparejada demuestra una diferencia significativa en términos de las tres métricas de este procedimiento con respecto a Gwet, como confirman los valores p < 0:05 (véasela Tabla 1). Este análisis demuestra claramente la superioridad de los procedimientos inventivos para la segmentación de los escaneos de OCT.
Tabla 1
Figure imgf000015_0001
Tras excluir los escaneos de baja calidad e inclinados, se midió la reflectividad en el ojo derecho de 138 mujeres y 62 hombres, de entre 10 y 76 años de edad. El subgrupo femenino tenía un promedio de edad de 43,7 años, frente a los 37,6 años del subgrupo masculino (tl06 = 1,91; p = 0,059).
Ejemplo 5
El siguiente ejemplo ilustra la aplicación de una realización del algoritmo de segmentación que proporciona una cuantificación automatizada de imágenes de SD-OCT para permitir la detección de cambios tempranos ocultos/sutiles en la retina diabética
La diabetes provoca inevitablemente con el tiempo una retinopatía diabética (RD). Las imágenes de SD-OCT se utilizan para evaluar los cambios diabéticos en la retina, sin embargo, estos cambios sólo se manifiestan en una fase avanzada de la enfermedad, cuando la anatomía de la retina ya está comprometida. Se ejemplifica una realización dirigida a un algoritmo automatizado para detectar cambios retinales ocultos en imágenes de SD-OCT antes de que se desarrollen cambios anatómicos o clínicos evidentes.
Procedimientos: Se obtuvieron escaneos de OCT en el dominio espectral (Zeiss Cirrus HD-OCT 5000) de 16 sujetos diabéticos de entre 53 y 76 años sin evidencia clínica de DR. Se utilizaron como controles 16 sujetos sanos, emparejados por sexo y edad. Se excluyeron los sujetos con alta miopía (< - 6,00 dioptrías) o con escaneos de OCT inclinados. En primer lugar, se segmentaron doce capas distintas utilizando una realización del algoritmo automatizado divulgado que combina información de forma, intensidad y espacio. A continuación, se aplicó una nueva escala de reflectividad normalizada (NRS) que va de 0 unidades (vítreo) a 1000 unidades (epitelio pigmentario de la retina [EPR]) para calcular la reflectividad de cada capa segmentada a partir de los datos brutos. La tortuosidad de las capas de la retina se cuantificó utilizando la curvatura media absoluta k del límite entre las capas adyacentes.
Resultados: Como se muestra en la Figura 11, aunque no había ninguna diferencia clínica evidente observable entre los ojos normales y los diabéticos, la reflectividad normalizada variaba significativamente según el d iagnóstico^ ,658 = 24,18; p < 0,0001) y la capa de la retina(Fn ,658 = 457,3; p < 0,0001). La reflectividad por capa difiere según el lado de la fóvea (F11,658 = 6,13; p < 0,0001). La reflectividad en los sujetos diabéticos en todas las capas fue en promedio 35,1 NRS mayor que en sus controles emparejados (Figura 11). La curvatura varió significativamente según la capa(F i i ,658 = 11,9; p < 0,0001) y el lado (F1,658 = 6,63; p = 0,010). Las pruebas post hoc revelaron diferencias significativas en la IPL y la INL, donde k fue en promedio 1,91 mm-1 y 1,12 mm-1 mayor, respectivamente, en la diabetes en comparación con el control (Figura 12).
Conclusión: Un algoritmo de análisis de imágenes automatizado permite identificar cambios sutiles en las retinas diabéticas que se producen antes de la alteración de la anatomía normal. La detección de estos cambios conlleva la promesa de un diagnóstico precoz de RDen los diabéticos.
Ejemplo 6
A continuación, se presenta un ejemplo de programación informática ejecutable para llevar a cabo realizaciones de la invención relativas a la segmentación y cuantificación de una característica retiniana (específicamente la reflectividad).
# Read ME#
% * aipha_i,, a lpha jr Foveal angte ort temporal and nasal sise/esp.
% * ihk:kr$ess: Layar thickness in micromsters fn x 12)
% * reffectlvity^t, refiectivityji: Layar reílectivity on temporal aod nasal sida, resp..,
la NRS units faach m x 12)
% * curvatura: Curvatura lo micromeiersA f~!) (n x 12)
% * x_thicknes$, ^curvatura, xjrefíectMty.,t> x„refieetivity_m Losation oí estimatsd thickness, curvatura, and refieciivlty, in micrometers, where ths foveal paak is iocated at 0.
funetiors [nav,feat] = batch_segment(img,pixdim,atlas)
nav = rd2(img, pixdim);
Figure imgf000017_0001

Figure imgf000018_0001
nav.boundary = smooth_boundaries(cc);
nav.seg = seg.seg;
nav.p = seg.p;
[navstd,imgstd] = standard_orientation(nav, img); feat = feature_vector(navstd, imgstd);
end
# rd2 Function #
function nav = rd2(oct_img,pixd¡m)
SCALE1 = 6;
SCALE2 = 3;
MAX_SHIFT = 4;
Figure imgf000018_0002
nav = bootstrap_retina(w(:,:,SCALEl));
nav.pixdim = pixdim;
for k = (SCALE1 - 1):-1:SCALE2
nav = refine_retina(nav, w(:,:,k 1), w(:,:,k));
end
nav.boundary(l).y = smooth_edge(nav.boundary(l).y); nav.boundary(9).y = smooth_edge(nav.boundary(9).y); nav.boundary(13).y = smooth_edge(nav.boundary(13).y); end
function nav = bootstrap_retina(detail)
% At the largest «safe, lócate the aftemating dark and hght
% bands certespondmg approxteately to the ysidous, OCX sones % 3a€w7, OCX sones SSC I^O» OCX sones
Figure imgf000019_0001
and the choroid [ny,nx] = size(detail);
y_vit = zeros(nx, 1);
y_inn = zeros(nx, 1);
y_mid = zeros(nx, 1);
y_out = zeros(nx, 1);
y_cho = zeros(nx, 1);
for x = l:nx
[k_max,k_min,d_max,d_min] = local_extrema(deta¡l(:,x));
k_max(l) < k_min(l)
k_max = k_max(2:end);
d_max = d_max(2:end);
end
if k_max(end) > k_min(end)
k_max = k_max(l:end-l);
d_max = d_m ax(l:end-l);
end
if numel(k_max) < 2 11 numel(k_min) < 3
continué;
end
h_max = d_max - max(d_min(l:end-l), d_min(2:end));
[~,kk] = max(h_max);
if kk > 1 && (kk == numel(k_max) 11 h_max(kk -1 ) > h_max(kk 1)) kk = kk -1;
end
y_vit(x) = k_min(kk);
y_inn(x) = k_max(kk);
y_mid(x) = k_min(kk 1);
y_out(x) = k_max(kk 1);
y_cho(x) = k_min(kk 2);
Figure imgf000021_0001
[gx, gy] = imgradient(detail);
gm = hypot(gx, gy);
ybO = zeros(nx, 1);
yb5 = zeros(nx, 1);
yb8 = zeros(nx, 1);
yb l2 = zeros(nx, 1);
for x = l:nx
[k_max,k_min,d_max,d_min] = local_extrema(gm(:,x)); k m a x = round(k_max);
k_min = round(k_min);
kO = find(k_max > y_v¡t(x) & k_max < y_inn(x) & gy(k_max,x) > 0); íf numel(kO) == 1
ybO(x) = k_max(kO);
elseíf numel(kO) > 1
[~,kk] = max(gm(kO,x));
ybO(x) = k_max(kO(kk));
end
kO = find(k_max > y_¡nn(x) & k_max < y_mid(x) & gy(k_max,x) < 0);
¡f numel(kO) == 1
yb5(x) = k_max(kO);
eiself numel(kO) > 1
[~,kk] = max(gm(kO,x));
yb5(x) = k_max(kO(kk));
end
kO = find(k_max > y_mid(x) & k_max < y_out(x) & gy(k_max,x) > 0); if numel(kO) == 1
yb8(x) = k_max(kO);
eiseif numel(kO) > 1
[~,kk] = max(gm(kO,x));
yb8(x) = k_max(kO(kk));
end
kO = find(k_max > y_out(x) & k_max < y_cho(x) & gy(k_max,x) < 0); sí numel(kO) == 1
ybl2(x) = k_max(kO);
elsssf numel(kO) > 1
[~ kk] = max(gm(kO,x));
ybl2(x) = k_max(kO(kk));
end
end
ybO = continue_ridge((l:nx)', ybO, gm);
yb5 = continue_ridge((l:nx)', yb5, gm);
yb8 = continue_ridge((l:nx)', yb8, gm);
ybl2 = cont¡nue_ridge((l:nx)', ybl2, gm);
x = (l:nx)';
nav = struct();
nav.boundary = repmat(struct( x', [], Y , []), 13,1);
nav.boundary(l).x = x(ybO ~= 0); nav.boundary(l).y = yb0(yb0 ~= 0); nav.boundary(6).x = x(yb5 ~= 0); nav.boundary(6).y = yb5(yb5 ~= 0); nav.boundary(9).x = x(yb8 ~= 0); nav.boundary(9).y = yb8(yb8 ~= 0); nav.boundary(13).x = x(ybl2 ~= 0); nav.boundary(13).y = yb l2(yb l2 ~= 0);
end
function nav = refine_retina(nav,dcoarse,dfine);
[ny,nx] = size(dcoarse);
n_scl = ceil(log2(max(ny, nx)) -1 );
scl_step = ceil(pow2(n_scl) / n_scl);
[gxcoarse,gycoarse] = imgradient(2 * dcoarse);
[gxfine,gyfine] = imgradient(dfine);
for layer = [1, 6, 9 ,13]
b = nav.boundary(layer);
for k = l:numel(b.x)
x = b.x(k);
y = b.y(k);
gx = gxcoarse(y,x);
gy = gycoarse(y,x);
gm l = gx * gx gy * gy;
for a = l:scl_step
gx = (scl_step - a) * gxcoarse(y-l:y+l,x) ...
a * gxfine(y-l:y+l,x);
gy = (scl_step - a) * gycoarse(y-l:y+l,x) ...
a * gyfine(y-l:y+l,x);
gm2 = gx .* gx gy .* gy;
if gm2(3) >= gm l && gm2(3) > gm2(2) && gm2(3) > gm 2(l) y = y 1;
gm l = gm2(3);
elseif gm 2(l) >= gm l && gm 2(l) > gm2(2)
y = y ■ i;
gm l = gm2(l);
eisesf gm2(2) > gm l
gm l = gm2(2);
end
end
b-y(k) = y;
end
b.y = continue_ridge(b.x, b.y, hypot(gxfine, gyfine)); nav.boundary(layer) = b;
end
end
function y_ext = continue_ridge(x_ext,y_ext,F) DY_MAX = 2;
[ny,nx] = size(F);
dx = diff(x_ext);
dy = abs(diff(y_ext));
x_end = [find(dy > DY_MAX * dx); nx];
if numel(x_end) == 1
return;
end
x_start = [1; x_end(l:end-l) 1];
[~,k_longest] = max(x_end - x_start);
k_seg = kjongest -1 ;
Figure imgf000027_0001
if yt == y_ext(x)
x = x_start(k_seg) -1 ;
y = y_ext(x_start(k_seg));
k_seg = k_seg -1 ;
dss
y_ext(x) = yt;
Figure imgf000028_0001

brsak;
end
áf yt == y_ext(x)
x = x_end(k_seg) 1;
Y = y_ext(x_end(k_seg));
k_seg = k_seg 1;
dse
y_ext(x) = yt;
íf x == x_end(k_seg)
k_seg = k_seg 1;
end
x = x 1;
y = yt;
end
Figure imgf000029_0001
# rd2_cp Function # function nav = rd2_cp(nav,pixdim)
TPS_CP_DS = 51;
if isfield(nav, 'ptxdím')
pixdim = nav.pixdim;
e¡se
if nargin < 2
pixdim = [1,1];
eise
nav.pixdim = pixdim;
end
end
aspect_ratio = pixdim(l) / pixdim(2);
x l = (nav.boundary(l).x - 0.5) * aspect_ratio 0.5; y l = nav.boundary(l).y;
x9 = (nav.boundary(9).x - 0.5) * aspect_ratio 0.5; y9 = nav.boundary(9).y;
y_min = min(yl);
y_max = max(y9);
n_row = ceil(y_max - y_min 4);
n_col = ceil(1024 * aspect_ratio);
lam = zeros(n_row, n_col);
y l = y l-y _ m in 2.5;
y9 = y9-y_m in 2.5;
lam(roipoly(lam, [0.5; x l; n_col 0.5], [0.5; y l; 0.5])) = -1;
lam(roipoly(lam, [0.5; x9; n_col 0.5], [n_row 0.5; y9; n_row 0.5])) = 1; stats = lamina_laplace(lam == 0, lam == -1, lam == 1);
coll = ceil(n_col * 3 / 8 ) ;
col2 = floor(n_col * 5 / 8 ) ;
for k = l:n_col
v(k) = find(lam(:,k) == 0 ,1, 'flrst');
t(k) = stats.thickness(v(k),k);
end
[~,k] = min(t(coll:col2));
k = k (coll -1);
nav.x_peak = (k - 0.5) / aspect_ratio 0.5;
%nav,y_peak ~ interp lfnav.boyndaryfl).xf nav..boundary(:l)..yf nav.xjseak, !sp!me*);
[~,k] = min(abs(nav.boundary(l).x - nav.x_peak));
nav.y_peak = nav.boundary(l).y(k);
for k = l:n col
v(k) = find(lam(:,k) == 0 , 1, last');
t(k) = stats.thickness(v(k),k);
end
[~,k] = min(t(coll:col2));
k = k (coll -1);
nav.x_ant¡ = (k - 0.5) / aspect_ratio 0.5;
Figure imgf000032_0001
[~,k] = min(abs(nav.boundary(9).x - nav.x_ant¡));
nav.y_ant¡ = nav.boundary(9).y(k);
x l3 = (nav.boundary(13).x - 0.5) * aspect_ratio 0.5;
[~,k]=min(hypot(xl3 - (nav.x_ant¡ - 0.5) * aspect_ratio 0.5,.,. nav.boundary(13).y - nav.y_ant¡));
nav.x_base = nav.boundary(13).x(k);
%nsv,y_base ~ mterplfna¥,b0imdaryfl3),x, nav,boû daryfl3).y,r5av.x_basa, !splma!); nav.y_base = nav.boundary(13).y(k);
xi = nav.boundary(l).x;
y¡ = nav.boundary(l).y;
[~,k] = min(hypot(xi - nav.x_peak, y¡ - nav.y_peak));
sO = cumsum([0; hypot(diff(x¡), diff(yi))]);
sO = sO - sO(k);
sO_nas = max(sO);
sO_tem = -min(sO);
step_nas = floor(sO_nas / TPS_CP_DS);
step_tem = floor(sO_tem / TPS_CP_DS);
nav.cpOn = ¡nterpl(sO, [x¡# y¡]# (0:step_nas)' * TPS_CP_DS); nav.cpOt = interpl(-sO, [xi, y¡], (l:step_tem)' * TPS_CP_DS); xi = nav.boundary(9).x;
y¡ = nav.boundary(9).y;
[~,k] = min(hypot(x¡ - nav.x_ant¡, y¡ - nav.y_ant¡));
s8 = cumsum([0; hypot(diff(x¡), diff(yi))]);
s8 = s8 - s8(k);
s8_nas = max(s8);
s8_tem = -min(s8);
step_nas = floor(s8_nas / TPS_CP_DS);
step_tem = floor(s8_tem / TPS_CP_DS);
nav.cp8n = interpl(s8, [xi, yi], (0:step_nas)' * TPS_CP_DS); nav.cp8t = ¡nterpl(-s8, [xi, yi], (l:step_tem)' * TPS_CP_DS); xi = nav.boundary(13).x;
y¡ = nav.boundary(13).y;
[~,k] = min(hypot(xi - nav.x_base, y¡ - nav.y_base));
sl2 = cumsum([0; hypot(diff(xi), diff(yi))]);
sl2 = sl2 - sl2(k);
sl2_nas = max(sl2);
sl2_tem = -min(sl2);
step_nas = floor(sl2_nas / TPS_CP_DS);
step_tem = floor(sl2_tem / TPS_CP_DS);
nav.cpl2n = ¡nterpl(sl2, [x¡, y¡], (0:step_nas)' * TPS_CP_DS); nav.cpl2t = ¡nterpl(-sl2, [x¡, y¡], (l:step_tem)' * TPS_CP_DS);
end
Figure imgf000034_0001
end
xy_src = [];
xy_std = [];
for k = l:numel(cp_prop)
xy_src_k = nav_src.(cp_prop{k});
xy_std_k = atlas.(cp_prop{k});
n = min(size(xy_src_k, 1), size(xy_std_k, 1));
xy_src = [xy_src; xy_src_k(l:n#:)];
xy_std = [xy_std; xy_std_k(l:n,:)];
end
tf_warp = maketform_tps(xy_src(:,l); xy_src(:,2), xy_std); result = imtransform(atlas.intensity, fliptform(tf_warp), KDatas, 100 [1, size(oct,2)],...
YData', 100 [1, size(oct,l)]);
Figure imgf000035_0001
% - tform: geometric transform
% mask: mask of vafid pocéis
%
% atlas:
% prior: dass prior probabiliiles
% « mtenstty; mean intenslty
% - mask: mask of non-aero probabiliiles
% -• tp5*; ¡ayer boondarles {control points)
% -- hlstogram: d sss grey leve! hisiogrsms
% Exampie usage;
% std jm g ™ Imresdfdb);
% atlas » boiid_atlas{stdjmgf 'paih/lo/oeik 'paih/io/mamsal/segnienlaiion'); % img
Figure imgf000036_0001
% |%if jsilas] ~ reilna.jsllgn jstiasfatlas, img, [ i f 1]|;
% ob| » siructfdata!f img, ’ifornV', if jstlas, 'mask*, trnefsmafirng)));
% segmentaban ~ priorjappearancefobj, atlas);
function stats = prior_appearance(objective,atlas)
R_MAX = 3; % Search distante
STEP = 1; % Deila-mteessty
MGRFJTERATIONS = 10; % Mumber of smoothing sieps BLEVEL = 1.5:13.5; % Boundary ¡mete
nhood_sub = buildnhood(R_MAX);
[nrow,ncol] = size(objective.data);
[row_a,col_a] = ndgrid(l:nrow, l:ncol);
[row_a,col_a] = atlas_location(row_a, col_a, objective.tform); nclass = size(atlas.prior, 3);
p = zeros(nrow, ncol, nclass);
p_comp_x = p;
p_comp_g = p;
for kr = l:nrow
for kc = l:ncol
if objective.mask(kr,kc)
g = double(objective.data(kr, kc));
% Compute Pf m \ x)
p_m_x = atlas_nhood(atlas, row_a(kr, kc), col_a(kr, kc), g, nhood_sub);
p_comp_x(kr,kc,:) = p_m_x;
Figure imgf000038_0001
stats.p_comp_x = p_comp_x;
stats.p_comp_g = p_comp_g;
stats.p = p;
[~ seg] = max(p, [], 3);
seg(objective.mask == 0) = 0;
sseg = imsmooth_mgrf(seg);
for k = l:MGRF_ITERATIONS
sseg = imsmooth_mgrf(sseg);
end
tmp = sseg;
tmp(sseg == 0) = NaN;
cc = contour2struct(contourc(tmp, BLEVEL));
cc_mask = false(size(cc));
for k = l:numel(BLEVEL)
k_sub = find([cc.level] == BLEVEL(k));
if numel(k_sub) > 1
[~,k_maxlen] = max([cc(k_sub).length]);
k_sub = k_sub(k_maxlen);
end
cc_mask(k_sub) = true;
end
stats.boundary = cc(cc_mask);
stats.seg = uint8(sseg);
stats.p_max = seg;
end
function [row_a,col_a] = atlas_location(row,col,tform) % HACK: the -KlOO relates to the paddlog of atlas Images % This needs to be beiter encapsulated
atloc = round(tformfwd(tform, [col(:), row(:)]) 100); row_a = reshape(atloc(:,2), size(row));
col_a = reshape(atloc(:,l), size(col));
end
fusictlosi p = atlas_nhood(atlas,row_a,col_a,valué,nsub)
[nrow,ncol,nclass] = size(atlas.prior);
atloc = [col_a nsub.dcol, row_a nsub.drow];
% Selsst oniy loeafions within bousids
mask = atloc(:,2) >= 1 & atloc(:,2) <= nrow & atloc(:,l) >= 1...
& atloc(:,l) <= ncol;
% Sefect oniy loeafions with non-xers prebability
k = sub2ind([nrow, ncol], atloc(mask,2), atloc(mask,l)); mask(mask) = atlas.mask(k);
% Seleet prior probabifitias from pomt wlth naarest intemify % and naarest to central foeadon among points wlth same % mlesisliy
if any(mask)
ii = atloc(mask,2);
jj = atloc(mask,l);
k = sub2ind([nrow, ncol], ii, jj);
[dg,k_min] = min(abs(atlas.intensity(k) - double(value))); p = atlas.prior(ii(k_min), jj(k_m in),:);
else
p = zeros(l, 1, nclass);
end
end
function nsub = buildnhood(r_max)
[di,dj] - ndgrid(-r_max:r_max, -r_max:r_max);
r2 = di .* di dj .* dj;
mask = r2 <= r_max * r_max;
tmp = sortrows([r2(mask), di(mask), dj(mask)]);
nsub = struct(!drow!, tmp(:,2), dcoP, tm p(:,3),...
r2!, tm p(:,l), 'sizs', nnz(mask));
end
# smooth_boundaries Function #
% smoothjsoundanes ~ Spüme smooth of boundary csntsurs
%
% Smooth Just enough to account for sampfmg error; keep the deviatioo from % the spline and the original pomts to less than one pixeL funetion b = smooth_boundaries(b)
for k = l:numel(b)
x = b(k).x;
Y = b(k).y;
t = cumsum([0; sqrt(hypot(diff(x), diff(y)))]);
obj = @(p) max(hypot(smooth_spline_deboor(t, x, p, t) - x, smooth_spline_deboor(t, y, p, t) - y)) -1 ;
p_best = fzero(obj, [0,1]);
b(k).x = smooth_spline_deboor(t# x# p_best# t);
b(k).y = smooth_spline_deboor(t, y, p_best, t);
Figure imgf000042_0001
Figure imgf000042_0002
# standard_orientation Funetion # % Fíx kappa » 0,04 mmA»l
funetion [navstd,imgstd] = standard_orientation(nav,img) w = 1025;
h = 1025;
Figure imgf000043_0001
tf = maketform(faffme', M);
for k = 1:13
tmp = [navstd.boundary(k).x, navstd.boundary(k).y]; tmp = tforminv(tf, tmp);
navstd.boundary(k).x = tm p(:,l);
navstd.boundary(k).y = tmp(:,2);
end
tmp = tforminv(tf, [nav.x_peak, nav.y_peak]); navstd.x_peak = tm p(l);
navstd.y_peak = tmp(2);
% TODO here - transform control p o te and fiducial %tmp ~ ¡mtransformflmg, fllptformlmaketformf'affme^ M}}, % OCDsta', fl, 1024], sYOatass [1,1024]);
Figure imgf000044_0001
end
# feature_vector Function # funetion F = feature_vector(nav#img)
N_BIN = 143;
N_LAYER = 12;
REF_BINS = 14;
MID_BINS = 29;
if nav.pixdim(l) < 7
half_width = 3;
e¡se
half_width = 2;
end
xsplit = round(nav.x_peak 0.5) - 0.5;
xsplit = xsplit half_width * (-N_BIN:2:N_BIN);
alpha = foveal_angle(nav);
t = retina_thickness_map(nav);
thk = zeros(N_BIN, N_LAYER);
oob_flag = false;
for k l = 1:N_LAYER
mask = roipoly(t,
[nav.boundary(kl).x; flipud(nav.boundary(kl+l).x)],, [nav.boundary(kl).y; flipud(nav.boundary(kl+l).y)]); for k2 = 1:N_BIN
coll = ceil(xsplit(k2));
col2 = floor(xsplit(k2+l));
if coll < 1 11 col2 > size(mask, 2)
oob_flag = true;
eise
mtmp = mask(:,coll:col2);
ttmp = t(:,coll:col2);
thk(k2,kl) = mean(ttmp(mtmp));
Figure imgf000046_0001
[~,Rimg] = retina_reflectivity(nav, img);
refT = zeros(REF_BINS, N_LAYER);
refN = zeros(REF_BINS, N_LAYER);
oob_flag = false;
for k l = 1:N LAYER
mask = roipoly(Rimg,...
[nav.boundary(kl).x; flipud(nav.boundary(kl+l).x)],, [nav.boundary(kl).y; fl¡pud(nav.boundary(kl+l).y)]); for k2 = 1:REF_BINS
binT = k2 (N_BIN - 2 * REF_BINS - MID_BINS) / 2; binN = binT REF_BINS MID_BINS;
coll = ceil(xsplit(binT));
col2 = floor(xsplit(binT+l));
if coll < 1 11 col2 > size(mask, 2)
oob_flag = true;
ebe
mtmp = mask(:,coll:col2);
rtmp = Rimg(:,coll:col2);
refT(k2,kl) = mean(rtmp(mtmp));
end
coll = ceil(xsplit(binN));
col2 = floor(xsplit(binN+l));
if coll < 1 11 col2 > size(mask, 2)
oob_flag = true;
eise
mtmp = mask(:,coll:col2);
rtmp = Rimg(:,coll:col2);
refN(k2,kl) = mean(rtmp(mtmp));
Figure imgf000048_0001
K = retina_menger_sm(nav);
kap = zeros(N_BIN, N_LAYER 1);
oob_flag = false;
for k l = 1:N_LAYER 1
for k2 = 1:N_BIN
idx = K(kl).x >= xsplit(k2) * nav.p ixdim (l)...
& K(kl).x < xsplit(k2+l) * nav.pixdim(l);
if any(idx)
Figure imgf000049_0001

# foveal_angle Function # % Foveaf angla
% ph i» [phLtemporal, phi_rsasa¡l
function phi = foveal_angle(nav)
x = (nav.boundary(l).x - nav.x_peak) * nav.pixdim(l); y = (nav.boundary(l).y - nav.y_peak) * nav.pixdim(2); phil = max(atan2(-y(x < 0), -x(x < 0)));
ph¡2 = max(atan2(-y(x > 0), x(x > 0)));
phi = 90 -180 * [phil, ph¡2] / pi;
end
# longest_segment Function # unction [k_start,k_end] = longest_segment(mask) k_start = find(mask, 1, ’first');
k_end = find(mask, 1,1ast!);
whüe any(~mask(k_start:k_end))
tmp_start = (k_start -1 ) find(~mask(k_start:k_end), 1, ’first’); tmp_start = (tmp_start -1 ) find(mask(tmp_start:k_end), 1, *first*); tmp_end = (k_start -1 ) find(~mask(k_start:k_end), 1, iast'); tmp_end = (k_start -1 ) find(mask(k_start:tmp_end), 1, Iast );
sí k_end - tmp_start > tmp_end - k_start
k_start = tmp_start;
ebe
k_end = tmp_end;
end
Figure imgf000051_0001
if isstruct(src_pixdim)
nav_src = src_pixdim;
sise
nav_src = rd2(src_oct, src_pixdim);
end
if nargin < 4
nav_std = std_oct;
eise
nav_std = rd2(std_oct, std_pixdim);
end
if ~¡sfield(nav_src, cp_prop{l})
nav_src = rd2_cp(nav_src);
end
if ~isfield(nav_std, cp_prop{l})
nav_std = rd2_cp(nav_std);
end
xy_src = [];
xy_std = [];
for k = l:numel(cp_prop)
xy_src_k = nav_src.(cp_prop{k}); xy_std_k = nav_std.(cp_prop{k});
n = min(size(xy_src_k, 1), size(xy_std_k, 1)); xy_src = [xy_src; xy_src_k(l:n,:)];
xy_std = [xy_std; xy_std_k(l:n,:)];
end
tf_warp = maketform_tps(xy_std(:,l), xy_std(:,2), xy_src); result = imtransform(src_oct, fliptform(tf_warp), makeresampler('lmear!, b o u m f),...
’XData*, [-99, 1124],...
'YData', [-99, 1124]);
end
# retina_menger_sm Function #
Figure imgf000053_0001
functiors mksm = retina_menger_sm(seg,n)
mask = seg.seg ~= 0;
[h, w] = size(mask);
if nargin < 3
n = 8;
end
n_bound = numel(seg.boundary);
for k_bound = n_bound:-l:l
x = seg.boundary(k_bound).x;
y = seg.boundary(k_bound).y;
% Lócate corstsgyous beandary segmeot within región of mierest k_row = round(y);
k_col = round(x);
¡n_ro¡ = k_row >= 1 & k_row <= h & k_col >= 1 & k_col <= w; in_roi(in_roi) = mask(sub2ind(size(mask), k_row(in_roi), k_col(in_roi)));
[roi_start,roi_end] = longest_segment(in_roi);
% Corwert from pocéis to physisaf uníts
x = seg.pixdim(l) * x(roi_start:roi_end);
y = seg.pixdim(2) * y(roi_start:roi_end);
% Parameteriz® the bouodary conloar by t
t = cumsum([0; sqrt(hypot(diff(x), diff(y)))]);
mk = zeros(size(t));
for k_point = (n l):(numel(t) - n)
t_point = t(k_point-n:k_point+n) - t(k_point);
d = [t_point.A3, t_point.A2, t_point, ones(size(t_point))];
xy_sm = d * (d \ [x(k_point-n:k_point+n), y(k_point-n:k_point+n)]); mk(k_point) = menger_curvature(xy_sm(n:n+2,l), xy_sm(n:n+2,2)); end
mksm(k_bound) = struct(1ever, k_bound -1, ...
!t !, t, ’x', x, y , y, !K!, mk);
# retina_reflectivity Function #
function [R,Rimg] = retina_reflectiv¡ty(seg,¡mg)
mask = seg.seg ~= 0;
for k = 13:-1:2
layer_mask = roipoly(mask, [seg.boundary(k).x;
flipud(seg.boundary(k-l).x)], [seg.boundary(k).y;... fl¡pud(seg.boundary(k-l).y)]);
pixels = img(layer_mask & mask);
tmp = robust_summary(double(pixels));
R(k-l) = tmp.location;
end
layer_mask = roipoly(mask, [seg.boundary(l).x; size(img,2) 1; 0], [seg.boundary(l).y; 0; 0]);
pixels = img(layer_mask & mask);
tmp = robust_summary(double(pixels));
RV = tmp.location;
Rimg = zeros(size(mask));
Rimg(mask) = (double(img(mask)) - RV) * (1000 / (R(12) - RV)); R = 1000 * (R - RV) / (R(12) - RV);
end
# retina_thickness Function # function t_out = retina_thickness(seg)
maskO = seg.seg ~= 0;
[n_row,n_col] = size(maskO);
n ja y e r = numel(seg.boundary) -1 ;
for k ja y e r = n_layer:-l:l
mask = maskO;
xO = seg.boundary(k_layer).x;
yO = seg.boundary(k_layer).y;
x l = seg.boundary(k_layer l).x;
y l = seg.boundary(k_layer l).y;
phi = zeros(size(mask));
phi(roipoly(phi, [xO; n_col 1; 0], [yO; 0; 0])) = -1; phi(roipoly(phi, [xl; n_col 1; 0], [y l; n_row 1; n_row 1])) = 1; r_min = max(ceil(min(yO) -1 ), 1);
r_max = min(floor(max(yl) 1), n_row);
c_min = max(ceil(min(min(xO), m in(xl)) -1 ), 1);
c_max = min(floor(max(max(xO), max(xl)) 1), n_row); aspect_ratio = seg.pixdim(l) / seg.pixdim(2);
phi = imresize(phi(r_min:r_max,c_min:c_max),
’Seale', [1, aspect_ratio], ’Method’, 'nearest');
mask = imresize(mask(r_min:r_max,c_min:c_max),
'Seáis', [1, aspect_ratio], 'IVIethod', 'nearest');
phi = roifillgen(phi, phi == 0, phi ~= 0);
[phi_x,phi_y] = imgradient(phi);
x_sc = xO -(1 n_col) / 2;
near_center = abs(x_sc) < n_col / 2;
xO = xO(near_center);
x_sc = x_sc(near_center) * aspect_ratio (size(phi, 2) 1) / 2; yO = yO(near_center);
y_sc = yO (1 - r_min);
xy = stream2(phi_x, phi_y, x_sc, y_sc);
xy = cellfun(@(t) t(phi(sub2ind(size(phi), round(t(:,2)), round(t(:,l)))) < 1,:), xy, *UmformOutput', false);
L = cellfun(@(t) sum(hypot(diff(t(:,l)), diff(t(:,2)))), xy);
[~,k_min] = min(L);
fovea = struct(Y, xO(k_min), y , yO(k_min));
% Lócate coatiguous midline segment within regsoa of interest cc = contour2struct(contourc(ph¡, [0, 0]));
[~,k_max] = max([cc.length]);
xm = cc(k_max).x;
ym = cc(k_max).y;
in_ro¡ = mask(sub2ind(size(mask), round(ym), round(xm)));
[roi_start,roi_end] = longest_segment(in_roi);
xm = xm(roi_start:roi_end);
ym = ym(roi_start:roi_end);
% Compute streamlmes from midlrne to bouodaries
xy = stream2(phi_x, phi_y, xm, ym);
Figure imgf000059_0001
# retina_thicknes$_map Function # functson t_out = retina_thickness_map(seg)
maskO = seg.seg ~= 0;
[n_row,n_col] = size(maskO);
aspect_ratio = seg.pixdim(l) / seg.pixdim(2);
t_out = zeros(n_row, n_col);
n ja y e r = numel(seg.boundary) -1 ;
for k ja y e r = n_layer:-l:l
mask = maskO;
xO = seg.boundary(k_layer).x;
yO = seg.boundary(k_layer).y;
x l = seg.boundary(k_layer l).x;
y l = seg.boundary(k_layer l).y;
phi = zeros(size(mask));
phi(roipoly(phi, [xO; n_col 1; 0], [yO; 0; 0])) = -1; phi(roipoly(phi, [xl; n_col 1; 0], [yl; n_row 1; n_row 1])) = 1; mask = phi == 0 & maskO;
Figure imgf000060_0001
# smooth_edge Function # funetion y_new = smooth_edge(y,max_disp)
if nargin < 2
max_disp = 2;
and
x = (l:numel(y))';
% Divide rough edge solo smooth segmeots
bp = find(abs(diff(y)) > max_disp);
bp = [0; bp; numel(y)];
% Weigbt segments by length
w = zeros(size(y));
for k = l:numel(bp) -1
w(bp(k)+l:bp(k+l)) = bp(k+l) - bp(k);
end
% tosa! poiynomiai smoothing
y_new = smooth_lowess(x, y, '-weight', w, '-bandwidth', 0.1);
% Reweight pomts by distarse© from smoothed edge and smooth again w = exp(-abs(y - y_new) / max_disp);
y_new = smooth_lowess(x, y, -weight’, w, ' bandwidth', 0.05); y_new = min(1024# max(round(y_new), 1));
end

Claims (5)

REIVINDICACIONES
1. Un procedimiento implementado por ordenador de OCT retinal para segmentar una imagen de OCT retinal de prueba en una pluralidad de regiones retínales, comprendiendo dichas regiones al menos el vítreo, el epitelio pigmentario de la retina (RPE) y una o más regiones seleccionadas de la capa de fibras nerviosas (NFL), la capa de células ganglionares (GCL), la capa plexiforme interna (IPL), la membrana limitante interna (ILM), la capa nuclear interna (INL), la capa plexiforme externa (OPL), la capa nuclear externa (ONL), la membrana limitante externa (ELM), los segmentos internos (IS), la unión entre los segmentos internos y externos (I/OS) y los segmentos externos de los fotorreceptores (OSP), comprendiendo el procedimiento
a) proporcionar un modelo probabilístico de forma e intensidad derivado de una pluralidad de imágenes de OCT generadas a partir de sujetos de control y segmentadas en una pluralidad de regiones retinianas, comprendiendo dichas regiones al menos el vítreo, el epitelio pigmentario de la retina (EPR) y una o más regiones seleccionadas entre la capa de fibras nerviosas (CFN), la capa de células ganglionares (GCL), la capa plexiforme interna (IPL), la membrana limitante interna (ILM), la capa nuclear interna (INL), la capa plexiforme externa (OPL), la capa nuclear externa (ONL), la membrana limitante externa (ELM), los segmentos internos (IS), la unión segmento interno/segmento externo (I/OS) y los segmentos externos de los fotorreceptores (OSP);
b) alinear la imagen de OCT de prueba con el modelo probabilístico de forma e intensidad del atlas de acuerdo con la forma de la región de la retina, en el que dicho alineamiento comprende
(i) construir una descomposición ondícula de la imagen de prueba,
(ii) detectar al menos tres límites regionales,
(iii) identificar la fosa foveal por referencia a los límites detectados,
(iv) la colocación de puntos fiduciales en cada límite detectado en lugares equidistantes de la fosa foveal, y
(v) alinear la imagen de prueba con la imagen modelo mediante la alineación de los puntos fiduciales;
c) comparar los píxeles de la imagen de OCT de prueba alineada con los píxeles correspondientes del modelo del atlas por intensidad, establecer un ajuste regional probable y refinar los márgenes regionales estimando la distribución de densidad marginal con una combinación lineal de gaussianos discretos (LCDG) para generar un mapa de segmentación regional inicial de la imagen de OCT de prueba que comprenda regiones retinales definidas; y
d) ajustar el mapa de segmentación inicial con un modelo de campo aleatorio de Markov-Gibbs que tenga en cuenta la información espacial para lograr un mapa de segmentación final que comprenda dichas regiones de la retina.
2. El procedimiento de acuerdo con la reivindicación 1, en el que la comparación del paso (c) comprende (i) construir un conjunto cerrado alrededor de cada píxel de la imagen de prueba alineado, (ii) identificar dentro del conjunto un píxel del modelo correspondiente que tenga la intensidad más cercana al píxel de la imagen, y, si se produjera un resultado vacío, ampliar el límite del conjunto y/o una tolerancia de intensidad para lograr un resultado no vacío, y (iii) determinar una probabilidad de que el píxel de prueba alineado esté en una de las regiones de la retina del modelo del atlas.
3. El procedimiento de acuerdo con la reivindicación 1, en el que las regiones retinianas comprenden el vítreo, la capa de fibras nerviosas (NFL), la capa de células ganglionares (GC), la capa plexiforme interna (IPL), la membrana limitante interna (ILM), la capa nuclear interna (INL) la capa plexiforme externa (OPL), la capa nuclear externa (ONL), la membrana limitante externa (ELM), los segmentos internos (IS), la unión segmento interno/segmento externo (I/OS), los segmentos externos de los fotorreceptores (OSP) y el epitelio pigmentario de la retina (RPE).
4. El procedimiento de acuerdo con la reivindicación 1, en el que el procedimiento es ejecutado automáticamente por un ordenador.
5. El procedimiento de acuerdo con la reivindicación 1, en el que los sujetos de control del paso (a) se seleccionan entre uno de los siguientes: sujetos normales, sujetos que padecen una patología específica de la retina, o sujetos de un perfil demográfico específico, comprendiendo dicho perfil uno o más de los siguientes: edad, género, raza, residencia geográfica y etnia.
ES16866774T 2015-11-18 2016-03-01 Procedimientos automatizados para la cuantificación objetiva de las características de la retina por región retiniana y el diagnóstico de la patología retiniana Active ES2924486T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562256980P 2015-11-18 2015-11-18
PCT/US2016/020280 WO2017087018A1 (en) 2015-11-18 2016-03-01 Automated methods for the objective quantification of retinal characteristics by retinal region and diagnosis of retinal pathology

Publications (1)

Publication Number Publication Date
ES2924486T3 true ES2924486T3 (es) 2022-10-07

Family

ID=58717627

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16866774T Active ES2924486T3 (es) 2015-11-18 2016-03-01 Procedimientos automatizados para la cuantificación objetiva de las características de la retina por región retiniana y el diagnóstico de la patología retiniana

Country Status (4)

Country Link
US (2) US10891729B2 (es)
EP (1) EP3376939B1 (es)
ES (1) ES2924486T3 (es)
WO (1) WO2017087018A1 (es)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10891729B2 (en) * 2015-11-18 2021-01-12 University Of Louisville Research Foundation, Inc. Automated methods for the objective quantification of retinal characteristics by retinal region and diagnosis of retinal pathology
EP3655921B1 (en) * 2017-07-19 2023-10-11 Charité Universitätsmedizin Berlin Method and computer program for estimating shape parameters of the fovea by optical coherence tomography
WO2019075485A1 (en) * 2017-10-15 2019-04-18 Hogan Joshua Noel METHOD AND SYSTEM FOR MONITORING MOTION CONTROL CAPACITY
EP3724848B1 (en) 2017-12-11 2022-05-04 Universitat Politècnica De Catalunya Image processing method for glaucoma detection and computer program products thereof
WO2020056454A1 (en) * 2018-09-18 2020-03-26 MacuJect Pty Ltd A method and system for analysing images of a retina
US10768259B2 (en) * 2018-10-15 2020-09-08 Zayed University Cerebrovascular segmentation from MRA images
CN109744996B (zh) * 2019-01-11 2021-06-15 中南大学 Oct图像的bmo位置定位方法
CN109934843B (zh) * 2019-01-28 2021-05-14 北京华捷艾米科技有限公司 一种实时的轮廓精细化抠像方法及存储介质
CN110610757B (zh) * 2019-09-24 2023-02-03 电子科技大学 基于人工智能与图形学结合的染色体图像处理方法
EP4351334A1 (en) * 2021-06-09 2024-04-17 Lineage Cell Therapeutics, Inc. Methods and compositions for treating retinal diseases and conditions
CN113558564B (zh) * 2021-09-23 2021-12-07 中山大学中山眼科中心 一种基于单纯高度近视数据库构建的数据处理系统
CN117877692A (zh) * 2024-01-02 2024-04-12 珠海全一科技有限公司 一种视网膜病变个性化差异分析方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7295695B1 (en) 2002-03-19 2007-11-13 Kla-Tencor Technologies Corporation Defect detection via multiscale wavelets-based algorithms
GB2412030A (en) * 2004-03-11 2005-09-14 Oti Ophthalmic Technologies Image correction in optical coherence tomography
SI2374472T1 (sl) * 2006-03-16 2018-11-30 Dyax Corp., Sestavki in postopki za zdravljenje oftalmoloških motenj
US20120150029A1 (en) * 2008-12-19 2012-06-14 University Of Miami System and Method for Detection and Monitoring of Ocular Diseases and Disorders using Optical Coherence Tomography
SG2014014724A (en) * 2010-05-07 2014-07-30 Xoma Technology Ltd METHODS FOR THE TREATMENT OF IL-1ß RELATED CONDITIONS
US9164240B2 (en) * 2011-03-31 2015-10-20 Lightlab Imaging, Inc. Optical buffering methods, apparatus, and systems for increasing the repetition rate of tunable light sources
US8908189B2 (en) * 2011-04-15 2014-12-09 Carl Zeiss Meditec, Inc. Systems and methods for swept-source optical coherence tomography
MX350951B (es) * 2011-05-18 2017-09-26 Univ California Composiciones y metodos para tratar enfermedades retinales.
JP5678919B2 (ja) 2012-05-02 2015-03-04 株式会社村田製作所 電子部品
US9115974B2 (en) * 2012-09-14 2015-08-25 The Johns Hopkins University Motion-compensated optical coherence tomography system
US9400169B2 (en) * 2012-12-06 2016-07-26 Lehigh University Apparatus and method for space-division multiplexing optical coherence tomography
AU2014216160B2 (en) * 2013-02-15 2017-03-30 The United States Of America, As Represented By The Secretary, Department Of Health And Human Services AAV8 retinoschisin expression vector for treating X-linked retinoschisis
CA2935721A1 (en) * 2013-07-25 2015-01-29 Javier Gonzalez In situ determination of refractive index of materials
WO2015017536A1 (en) * 2013-07-31 2015-02-05 The Board Of Trustees Of The Leland Stanford Junior University Method and system for evaluating progression of age-related macular degeneration
US9404800B2 (en) * 2013-10-11 2016-08-02 The University Of Hong Kong Wavelength-encoded tomography
US9636011B2 (en) * 2014-07-03 2017-05-02 Carl Zeiss Meditec, Inc. Systems and methods for spectrally dispersed illumination optical coherence tomography
JP6444080B2 (ja) * 2014-07-14 2018-12-26 キヤノン株式会社 Oct装置およびその制御方法
US20160331867A1 (en) * 2015-05-13 2016-11-17 Taipei Veterans General Hospital Multilayered retinal cell implant
US10463247B2 (en) * 2015-06-22 2019-11-05 The Regents Of The University Of California Automatic three-dimensional segmentation method for OCT and doppler OCT angiography
JP2018531773A (ja) * 2015-10-19 2018-11-01 ザ チャールズ スターク ドレイパー ラボラトリー インク 光干渉断層撮影スライスのセグメント化のためのシステムおよび方法
US10123689B2 (en) * 2015-10-28 2018-11-13 Oregon Health & Science University Systems and methods for retinal layer segmentation in OCT imaging and OCT angiography
US10891729B2 (en) * 2015-11-18 2021-01-12 University Of Louisville Research Foundation, Inc. Automated methods for the objective quantification of retinal characteristics by retinal region and diagnosis of retinal pathology
US10231619B2 (en) * 2015-12-09 2019-03-19 Oregon Health & Science University Systems and methods to remove shadowgraphic flow projections in OCT angiography
WO2018222282A2 (en) * 2017-04-18 2018-12-06 Northwestern University Systems for coherent light detection and related methods

Also Published As

Publication number Publication date
EP3376939B1 (en) 2022-05-11
US11727561B2 (en) 2023-08-15
US10891729B2 (en) 2021-01-12
EP3376939A4 (en) 2020-03-18
WO2017087018A1 (en) 2017-05-26
EP3376939A1 (en) 2018-09-26
US20190279358A1 (en) 2019-09-12
US20210125336A1 (en) 2021-04-29

Similar Documents

Publication Publication Date Title
ES2924486T3 (es) Procedimientos automatizados para la cuantificación objetiva de las características de la retina por región retiniana y el diagnóstico de la patología retiniana
Kafieh et al. A review of algorithms for segmentation of optical coherence tomography from retina
US9357916B2 (en) Analysis and visualization of OCT angiography data
Wilk et al. Assessing the spatial relationship between fixation and foveal specializations
Hosseini et al. Measurement of the optic disc vertical tilt angle with spectral-domain optical coherence tomography and influencing factors
Belghith et al. Does the location of Bruch's membrane opening change over time? Longitudinal analysis using San Diego Automated Layer Segmentation Algorithm (SALSA)
Thakku et al. A global shape index to characterize anterior lamina cribrosa morphology and its determinants in healthy Indian eyes
US11854199B2 (en) Methods and systems for ocular imaging, diagnosis and prognosis
Beenakker et al. Automated retinal topographic maps measured with magnetic resonance imaging
US9299139B2 (en) Volumetric analysis of pathologies
JP2014504523A (ja) 血管画像における動静脈比の自動測定
Koprowski et al. Automatic analysis of selected choroidal diseases in OCT images of the eye fundus
Jeoung et al. Optical coherence tomography optic nerve head morphology in myopia I: implications of anterior scleral canal opening versus Bruch membrane opening offset
ElTanboly et al. An automated approach for early detection of diabetic retinopathy using SD-OCT images
Shahlaee et al. Preoperative and postoperative features of macular holes on en face imaging and optical coherence tomography angiography
Cooper et al. Fully automated estimation of spacing and density for retinal mosaics
Pardon et al. Neuroretinal rim response to transient changes in intraocular pressure in healthy non-human primate eyes
Dufour et al. Pathology hinting as the combination of automatic segmentation with a statistical shape model
Taibouni et al. Automated quantification of choroidal neovascularization on Optical Coherence Tomography Angiography images
Fan et al. Fractal analysis of retinal vasculature in normal subjects on ultra-wide field fluorescein angiography
Wynne et al. Comparison of cone mosaic metrics from images acquired with the spectralis high magnification module and adaptive optics scanning light ophthalmoscopy
Zhang et al. Fast retinal layer segmentation of spectral domain optical coherence tomography images
Ometto et al. Fast 3-dimensional estimation of the Foveal Avascular Zone from OCTA
Gao et al. Two-dimensional fractal analysis of retinal tissue of healthy and diabetic eyes with optical coherence tomography
Stankiewicz et al. A new OCT-based method to generate virtual maps of vitreomacular interface pathologies