ES2997410T3 - Oct image processing - Google Patents
Oct image processing Download PDFInfo
- Publication number
- ES2997410T3 ES2997410T3 ES18171806T ES18171806T ES2997410T3 ES 2997410 T3 ES2997410 T3 ES 2997410T3 ES 18171806 T ES18171806 T ES 18171806T ES 18171806 T ES18171806 T ES 18171806T ES 2997410 T3 ES2997410 T3 ES 2997410T3
- Authority
- ES
- Spain
- Prior art keywords
- coordinate system
- coordinate
- oct
- image data
- retinal image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—Three-dimensional [3D] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/102—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/12—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/12—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
- A61B3/1225—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0062—Arrangements for scanning
- A61B5/0066—Optical coherence imaging
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T12/00—Tomographic reconstruction from projections
- G06T12/10—Image preprocessing, e.g. calibration, positioning of sources or scatter correction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/18—Image warping, e.g. rearranging pixels individually
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10101—Optical tomography; Optical coherence tomography [OCT]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Theoretical Computer Science (AREA)
- Public Health (AREA)
- General Physics & Mathematics (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Quality & Reliability (AREA)
- Pathology (AREA)
- Computing Systems (AREA)
- Computer Graphics (AREA)
- Signal Processing (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- General Business, Economics & Management (AREA)
- Business, Economics & Management (AREA)
- Eye Examination Apparatus (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Se proporciona un aparato (100-1) para reproducir datos de imágenes retinianas de tomografía de coherencia óptica, OCT, que han sido adquiridos por un escáner OCT que escanea una retina de un ojo en un rango de ubicaciones de escaneo, en donde cada una de las ubicaciones de escaneo está asociada con una coordenada respectiva en un primer sistema de coordenadas, y cada píxel de los datos de imágenes retinianas de OCT reproducidos está asociado con una coordenada respectiva en un segundo sistema de coordenadas que es diferente del primer sistema de coordenadas. El aparato comprende un módulo de comunicación (110) dispuesto para recibir los datos de imágenes retinianas de OCT adquiridos por el escáner OCT, y un módulo de determinación de coordenadas (120-1) dispuesto para determinar valores de coordenadas en el segundo sistema de coordenadas de píxeles en la imagen retiniana de OCT recibida utilizando una transformación de coordenadas en el primer sistema de coordenadas a coordenadas en el segundo sistema de coordenadas. El aparato comprende además un módulo de interpolación (130-1) dispuesto para interpolar entre valores de los píxeles en los valores determinados de coordenadas en el segundo sistema de coordenadas para calcular valores de los píxeles de los datos de imagen de retina OCT renderizados. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Procesamiento de imágenes OCT
Campo técnico
La presente invención se refiere generalmente al campo del procesamiento de imágenes y, más particularmente, a la renderización de imágenes de tomografía de coherencia óptica de una retina para reducir la distorsión geométrica.
Antecedentes
La tomografía de coherencia óptica (OCT) de la retina es capaz de generar imágenes tomográficas bidimensionales (dentro del plano de imagen) o tridimensionales de la retina. Estas imágenes se utilizan en gran medida clínicamente para observar la estructura interna de la retina, la cabeza del nervio óptico y otras estructuras del ojo. Los escáneres OCT se pueden utilizar para medir el espesor de la capa de retina y observar anomalías tales como edema, desprendimientos de retina, agujeros maculares y tumores.
Los escáneres OCT generan convencionalmente una imagen sobre una región del ojo escaneando un rayo láser a lo largo de una variedad de ángulos de desviación. Puede haber, por ejemplo, dos dispositivos de desviación del haz que estén configurados para desviar el haz en direcciones nominalmente horizontal y vertical.
Los datos obtenidos en una posición instantánea del rayo láser cuando penetra la retina se conocen como A-scan. Las imágenes de tales dispositivos se generan convencionalmente alineando datos de A-scan para producir imágenes bidimensionales o tridimensionales. Existen relaciones convencionalmente lineales entre el tiempo de cada A-scan y las coordenadas de píxeles en donde son renderizados los datos capturados.
El documento JP-A-2018/051 177 describe un aparato de formación de imágenes oftálmicas, que incluye: medios de detección para detectar haces de luz de diferente polarización obtenidos al dividir la luz obtenida al multiplexar la luz de retorno del ojo de un paciente irradiado con luz de medición y luz de referencia correspondiente a la luz de medición; medios de exploración para explorar el ojo del paciente con la luz de medición; y medios de control para controlar los medios de exploración de tal manera que el mismo sitio del ojo del paciente se explora con la luz de medición una pluralidad de veces. El aparato de formación de imágenes oftálmicas adquiere información de contraste de movimiento en el ojo del paciente usando haces de luz de diferente polarización detectados bajo el control de los medios de control. Cuando se escanean diferentes sitios del ojo del paciente correspondientes a un movimiento del ojo del paciente con la luz de medición bajo el control de los medios de control, el aparato de formación de imágenes oftálmicas adquiere información que indica la despolarización del ojo del paciente usando haces de luz de diferente polarización detectados en regiones correspondientes entre los diferentes sitios en la dirección de escaneo de los medios de escaneo y la dirección de profundidad del ojo del paciente.
Compendio
La renderización de imágenes convencional descrita anteriormente no generará una imagen geométricamente verdadera (es decir, una imagen con escala isométrica y que preserve el ángulo) de la retina real porque (1) el ángulo de incidencia del rayo láser sobre la retina varía durante el proceso de escaneo, (2) hay no linealidad en la óptica del dispositivo de imágenes, y (3) hay variación espacial y angular en las propiedades ópticas del ojo. Una imagen renderizada con una relación lineal entre la ubicación renderizada y el momento de la captura contendrá cierta distorsión. Cuando se obtienen imágenes de un campo de visión de la retina estrecho en el polo posterior del ojo, dichas distorsiones pueden ser lo suficientemente pequeñas como para ignorarlas. Sin embargo, cuando se obtienen imágenes de un campo de visión de la retina más amplio o uno que está desplazado del polo posterior, la distorsión geométrica resultante de una renderización de imagen tan ingenua puede ser significativa.
Los inventores de la presente invención han ideado un medio para producir una renderización geométricamente precisa de imágenes OCT de la retina independientemente de la anchura del campo de visión o de si la ubicación del escaneo es central o en la periferia de la retina.
Más particularmente, los inventores han ideado un método de renderización de datos de una imagen de retina OCT, que se han adquirido mediante un escáner OCT que escanea la retina de un ojo en un intervalo de ubicaciones de escaneo, en donde cada una de las ubicaciones de escaneo está asociada con una coordenada respectiva en un primer sistema de coordenadas ("sistema de coordenadas de captura"), y cada píxel de los datos de la imagen de la retina OCT renderizados está asociado con una coordenada respectiva en un segundo sistema de coordenadas ("sistema de coordenadas de renderización") que es diferente del primer sistema de coordenadas. El método comprende recibir los datos de la imagen de la retina OCT adquiridos por el escáner OCT, determinar los valores de coordenadas en el segundo sistema de coordenadas de píxeles en la imagen de la retina OCT recibida usando una transformación de coordenadas en el primer sistema de coordenadas a coordenadas en el segundo sistema de coordenadas, e interpolar entre valores de los píxeles en los valores de coordenadas determinados en el segundo sistema de coordenadas para calcular valores de los píxeles de los datos de la imagen de la retina OCT renderizados.
Los inventores han ideado además un método para renderizar datos de una imagen de la retina OCT, que se han adquirido mediante un escáner OCT que escanea la retina de un ojo en un intervalo de ubicaciones de escaneo, en donde cada una de las ubicaciones de escaneo está asociada con una coordenada respectiva en un primer sistema de coordenadas, y cada píxel de los datos de imagen de la retina OCT renderizados está asociado con una coordenada respectiva en un segundo sistema de coordenadas que es diferente del primer sistema de coordenadas. El método comprende recibir los datos de imagen de la retina OCT adquiridos por el escáner OCT, y procesar una matriz de píxeles usando los datos de imagen de la retina OCT recibidos para generar los datos de imagen de la retina OCT renderizados: determinando valores de coordenadas en el segundo sistema de coordenadas de píxeles en la imagen de la retina OCT recibida usando una transformación de coordenadas en el primer sistema de coordenadas a coordenadas en el segundo sistema de coordenadas; interpolando entre los valores determinados de coordenadas en el segundo sistema de coordenadas para calcular valores de coordenadas de los píxeles en la matriz de píxeles en el primer sistema de coordenadas; y usando los valores calculados de coordenadas de los píxeles en la matriz de píxeles en el primer sistema de coordenadas para interpolar entre valores de los píxeles de los datos de imagen de la retina OCT recibidos para calcular valores de los píxeles en la matriz de píxeles.
Los inventores han ideado además un medio de almacenamiento no transitorio legible por ordenador o una señal que transporta instrucciones de programas de ordenador que, cuando se ejecutan por un ordenador, hacen que el ordenador ejecute uno o ambos métodos expuestos anteriormente.
Los inventores han ideado además un aparato para renderizar datos de imagen de la retina OCT, que se han adquirido mediante un escáner OCT que escanea una retina de un ojo en un intervalo de ubicaciones de escaneo, en donde cada una de las ubicaciones de escaneo está asociada con una coordenada respectiva en un primer sistema de coordenadas, y cada píxel de los datos de imagen de la retina OCT renderizados está asociado con una coordenada respectiva en un segundo sistema de coordenadas que es diferente del primer sistema de coordenadas. El aparato comprende un módulo de comunicación dispuesto para recibir los datos de imagen de la retina OCT adquiridos por el escáner OCT, y un módulo de determinación de coordenadas dispuesto para determinar valores de coordenadas en el segundo sistema de coordenadas de píxeles en la imagen de la retina OCT recibida usando una transformación de coordenadas en el primer sistema de coordenadas a coordenadas en el segundo sistema de coordenadas. El aparato comprende además un módulo de interpolación dispuesto para interpolar entre valores de los píxeles en los valores de coordenadas determinados en el segundo sistema de coordenadas para calcular valores de los píxeles de los datos de imagen de la retina OCT renderizados.
Los inventores han ideado además un aparato para renderizar datos de imagen de la retina OCT, que se han adquirido mediante un escáner OCT que escanea una retina de un ojo en un intervalo de ubicaciones de escaneo, en donde cada una de las ubicaciones de escaneo está asociada con una coordenada respectiva en un primer sistema de coordenadas, y cada píxel de los datos de imagen de la retina OCT renderizados está asociado con una coordenada respectiva en un segundo sistema de coordenadas que es diferente del primer sistema de coordenadas. El aparato comprende un módulo de comunicación dispuesto para recibir los datos de imagen de la retina OCT adquiridos por el escáner OCT, y un módulo de determinación de coordenadas dispuesto para determinar valores de coordenadas en el segundo sistema de coordenadas de píxeles en la imagen de la retina OCT recibida usando una transformación de coordenadas en el primer sistema de coordenadas a coordenadas en el segundo sistema de coordenadas. El aparato comprende además un módulo de interpolación dispuesto para procesar una matriz de píxeles usando los datos de imagen de la retina OCT recibidos para generar los datos de imagen de la retina OCT renderizados: interpolando entre los valores de coordenadas determinados en el segundo sistema de coordenadas para calcular los valores de coordenadas de los píxeles en la matriz de píxeles en el primer sistema de coordenadas; y usando los valores de coordenadas calculados de los píxeles en la matriz de píxeles en el primer sistema de coordenadas para interpolar entre los valores de los píxeles de los datos de imagen de la retina OCT recibidos para calcular los valores de los píxeles en la matriz de píxeles.
Breve descripción de los dibujos
A continuación se explicarán en detalle realizaciones de la invención, únicamente a modo de ejemplo no limitativo, haciendo referencia a las figuras adjuntas, en las que:
la Fig. 1 es una ilustración esquemática de un aparato para renderizar datos de imágenes de retina OCT según una primera realización de la invención;
la Fig. 2 es un diagrama de bloques que ilustra un ejemplo de configuración de hardware del aparato para renderizar datos de imágenes de retina OCT según una realización;
la Fig. 3 es un diagrama de flujo que ilustra un método para renderizar datos de imágenes de retina OCT según la primera realización;
la Fig. 4 es un diagrama de flujo que muestra detalles del proceso S20 en la Fig. 3;
la Fig. 5 es una ilustración esquemática de un aparato para renderizar datos de imágenes de retina OCT según una variante de la primera realización;
la Fig. 6 es un diagrama de flujo que ilustra un método para renderizar datos de imágenes de retina OCT según la variante;
la Fig. 7 es una ilustración esquemática de un aparato para renderizar datos de imágenes de retina OCT según una segunda realización de la invención;
la Fig. 8 es un diagrama de flujo que ilustra un método para renderizar datos de imágenes de retina OCT según la segunda realización;
la Fig. 9 es una ilustración esquemática de un aparato para renderizar datos de imágenes de retina OCT según un ejemplo de la técnica anterior que no forma parte de ninguna realización de la invención; y
la Fig. 10 es un diagrama de flujo que ilustra un método para renderizar datos de imágenes de retina OCT según ejemplo de la técnica anterior.
Descripción detallada de realizaciones
A continuación, haciendo referencia a los dibujos adjuntos, se describirán en detalle realizaciones de la presente invención, así como un ejemplo de la técnica anterior que no forma parte de ninguna realización, pero que sin embargo ayuda a comprender la invención.
La siguiente notación se utiliza en la descripción de las realizaciones y el ejemplo de la técnica anterior proporcionados a continuación:
La configuración del escáner OCT descrito en el presente documento se define mediante los parámetros de escaneo H, V y D, donde H y V son las posiciones de escaneo horizontal y vertical o señales de control, y D es la distancia del camino óptico. La configuración del escáner OCT en términos de estos parámetros se indica (H, V, D).
Los datos de imagen capturados, que son recibidos por el aparato para renderizar datos de imágenes de retina OCT descritos en el presente documento, se indican como Icap, y las coordenadas de píxeles en un sistema de coordenadas de píxeles de la imagen capturada se indican (x, y, z).
Los datos de la imagen renderizada se indican como Iren, y las coordenadas de píxeles en un sistema de coordenadas de píxeles de la imagen renderizada se indican (X, Y, Z).
El sistema de coordenadas de mundo real utilizado en el modelado de sistemas en algunas de las realizaciones se indica (A, B, C), y el sistema de coordenadas de mundo real utilizado para la renderización de imágenes se indica (A', B', C'). tomándose como ejemplo los sistemas de coordenadas cartesianos o esféricos.
Para cada uno de los sistemas de coordenadas anteriores, los subíndices "cap" y "ren" se utilizan en la descripción de las realizaciones proporcionadas a continuación, para indicar valores de las coordenadas en el sistema de coordenadas respectivo de un píxel capturado (cap) o renderizado (ren). Por ejemplo, los valores de coordenadas expresados utilizando el sistema de coordenadas (A', B', C') de un píxel en la imagen capturada se indican (A'cap, B'cap, C'cap). Como otro ejemplo, los valores de las coordenadas de píxeles (x, y, z) en el sistema de coordenadas de píxeles de la imagen renderizada se indican (xren, yren, zren).
Realización 1
La Fig. 1 es una ilustración esquemática de un aparato 100-1 para renderizar datos de imágenes de retina OCT según una primera realización de la invención. Los datos de imágenes de retina OCT procesados por el aparato 100-1 pueden ser adquiridos mediante cualquier escáner OCT adecuado conocido por los expertos en la técnica, que adquiera los datos de imágenes de retina OCT durante el curso de un escaneo OCT que realiza, donde el escaneo cubre una gama de ubicaciones de escaneo en el ojo del paciente.
El escáner OCT se puede proporcionar, por ejemplo, en forma de un oftalmoscopio láser de escaneo (SLO) combinado y un sistema de imágenes OCT, como se describe en la Solicitud de Patente Internacional n.° PCT/BG2013/052556 (publicada como WO2014/053824 A1), cuyo contenido se incorpora en su totalidad a esta memoria por referencia. El sistema de generación de imágenes SLO-OCT de campo amplio descrito comprende dos elementos de escaneo que se pueden girar independientemente alrededor de ejes de rotación respectivos para desviar un haz de muestra de luz colimada desde una fuente de luz, tal como un diodo superluminiscente (SLD) o similar, a lo largo de diferentes ejes de escaneo para realizar escaneos bidimensionales de la superficie de la retina y 'rebanadas' de su interior. Los ejes de escaneo son típicamente ortogonales y comprenden un eje horizontal (eje H) y un eje vertical (eje V). Para cada uno de una pluralidad de valores de una distancia del camino óptico, D, desde la fuente de luz hasta la retina, el escáner OCT interfiere una reflexión del haz de muestra desde la retina con un haz de referencia, y mide la intensidad de los haces interferidos para cada una de una pluralidad de ubicaciones de escaneo bidimensionales que están cubiertas por el escaneo.
Cada una de estas ubicaciones de escaneo está asociada con los valores de parámetros de escaneo OCT correspondientes que son indicativos de la ubicación de escaneo respectiva. Más particularmente, cuando se realiza un escaneo unidimensional a lo largo del eje H o el eje V, por ejemplo, cada ubicación de escaneo a lo largo del eje H (o eje V, según sea el caso) está asociada con un valor de un parámetro de escaneo, H (o V, según sea el caso), que es indicativo de esa ubicación de escaneo, tal como un ángulo de desviación correspondiente del elemento de escaneo que escanea el haz de muestra a lo largo del eje H (o eje V, según sea el caso), una señal de control para hacer que el elemento de escaneo alcance dicho ángulo de desviación, o un parámetro operativo similar del escáner OCT. El ángulo de desviación se puede medir o determinar, por ejemplo, a partir de una calibración o de un modelado del sistema óptico. Por extensión, en el caso de un escaneo bidimensional que se realiza a lo largo de los ejes H y V, cada ubicación de escaneo está asociada con un par respectivo de valores de parámetros de escaneo que son indicativos de esa ubicación de escaneo, tales como los ángulos de desviación correspondientes (de nuevo, medido o determinado a partir de la calibración o del modelado del sistema óptico) de los dos elementos de escaneo, señales de control para hacer que los elementos de escaneo alcancen tales ángulos de desviación, o similares.
El escáner OCT obtiene así una pluralidad de mediciones OCT en una dirección de profundidad de la retina (es decir, a lo largo de la dirección del haz, en diferentes valores de D) para cada ubicación de escaneo bidimensional representada por los valores respectivos de H y V, con cada dicho conjunto de mediciones OCT (adquiridas para cualquier valor dado de H y cualquier valor dado de V) se denomina ampliamente "A-scan", como se señaló anteriormente. Al adquirir una pluralidad de A-scans en puntos a lo largo de uno de los ejes de escaneo bidimensionales (por ejemplo, una dirección a lo largo del eje H designado), el escáner OCT puede adquirir lo que se conoce ampliamente como un "B-scan", y al adquirir una pluralidad de B-scans en puntos a lo largo del eje de escaneo bidimensional restante (en este ejemplo, el eje V designado), el escáner OCT puede adquirir lo que se conoce como una "C-scan".
Las operaciones de procesamiento de imágenes que se describen a continuación hacen uso de una relación conocida entre cada valor de intensidad medido (es decir, valor de píxel) adquirido por el escáner OCT y un conjunto correspondiente de valores de parámetros de escaneo OCT que son indicativos de la ubicación en donde se realizó la medición durante el escaneo. Por lo tanto, cada valor de píxel en los datos de imagen de retina OCT está asociado con una coordenada respectiva en un sistema de coordenadas de máquina del escáner OCT, que se define por un valor de D en combinación con un valor de H y/o con un valor de V, de acuerdo con qué valores habría estado funcionando el escáner OCT cuando se midió el valor del píxel. A continuación, se proporcionan ejemplos de cómo se puede determinar esta relación.
Las operaciones de procesamiento de imágenes de retina descritas a continuación se refieren al procesamiento no solo de datos de imágenes de retina OCT proporcionados en forma de conjuntos de datos de cuatro dimensiones obtenidos durante la adquisición de C-scans (en los que cada elemento de datos comprende un valor de medición y un punto asociado en un espacio tridimensional) sino también de conjuntos de datos tridimensionales asociados con B-scans (en los que cada elemento de datos comprende un valor de medición y un punto asociado en un espacio bidimensional). Se puede considerar que el conjunto de datos tridimensionales del B-scan representa una matriz bidimensional de píxeles que definen una imagen bidimensional de un corte a través de la retina, mientras que el conjunto de datos de cuatro dimensiones del C-scan se puede considerar que representa una matriz tridimensional de vóxeles que definen una imagen tridimensional de la retina. El método de procesamiento de imágenes que se describe a continuación puede transformar esta imagen bidimensional/tridimensional sin procesar en una renderización geométricamente verdadera, a partir de la cual se pueden realizar mediciones más precisas.
El aparato 100-1 comprende un módulo de comunicación 110 que puede funcionar para recibir los datos de imágenes de retina OCT adquiridos por el escáner OCT. Los datos de imágenes de retina OCT pueden, como en la presente realización, ser almacenados en cualquier medio de almacenamiento adecuado (tal como un CD o DVD, o un disco duro de ordenador, por ejemplo) después de haber sido adquiridos por el escáner OCT, y posteriormente recibidos desde un ordenador o similar (directamente o a través de una red tal como, por ejemplo, una red de área local (LAN) o Internet) cuando o después de que el ordenador lea los datos de imágenes de retina OCT del medio de almacenamiento. Alternativamente, los datos de la imagen de retina OCT se pueden recibir directamente desde el escáner OCT tal como son adquiridos durante la realización de un escaneo de retina.
Como se explicará con más detalle a continuación, cada una de las ubicaciones de escaneo está asociada con un punto respectivo definido por valores de coordenadas en un primer sistema de coordenadas (también denominado aquí "sistema de coordenadas de captura") que puede, como en la presente realización, ser un primer sistema de coordenadas de mundo real indicado por (A, B, C), y que se utiliza para modelar la propagación de la luz en el escáner OCT. Además, cada píxel de los datos de imagen de retina OCT renderizados puede, como en la presente realización, ser asociado con un punto respectivo definido por valores de coordenadas en un segundo sistema de coordenadas (también denominado en este caso "sistema de coordenadas de renderizado") que es otro sistema de coordenadas de mundo real denotado por (A', B', C'). Ejemplos de sistemas de coordenadas de mundo real son los sistemas de coordenadas cartesianas, cuyas coordenadas se denotan convencionalmente (x, y, z), y los sistemas de coordenadas esféricas, cuyas coordenadas se denotan convencionalmente (r, 0, 9).
El aparato 100-1 comprende además un módulo de determinación de coordenadas 120-1 que está dispuesto para determinar valores de coordenadas en el segundo sistema de coordenadas de píxeles en la imagen de retina OCT recibida utilizando una transformación entre coordenadas en el primer sistema de coordenadas y coordenadas en el segundo sistema de coordenadas. El módulo de determinación de coordenadas 120-1 puede estar dispuesto, como en la presente realización, para determinar los valores de las coordenadas en el segundo sistema de coordenadas de píxeles en la imagen de retina OCT recibida utilizando no solo dicha transformación sino también un mapeo entre (i) al menos un conjunto de valores de parámetros de escaneo OCT utilizados durante la adquisición de los datos de imagen de retina OCT, siendo cada conjunto de valores de parámetros de escaneo OCT indicativos de una ubicación respectiva dentro del escaneo, y (ii) coordenada(s) en el primer sistema de coordenadas correspondiente al al menos un conjunto de valores de parámetros de escaneo OCT. A continuación, se describe un ejemplo de cómo el módulo de determinación de coordenadas 120-1 puede determinar los valores de las coordenadas en el segundo sistema de coordenadas de píxeles en la imagen de retina OCT recibida utilizando dicha transformación y mapeo.
El aparato 100-1 comprende además un módulo de interpolación 130-1 que está dispuesto para interpolar entre valores de los píxeles en los valores de coordenadas en el segundo sistema de coordenadas determinado por el módulo de determinación de coordenadas 120-1 (que normalmente estará separado irregularmente en el segundo sistema de coordenadas) para calcular los valores de los píxeles de los datos de imagen de retina OCT renderizados (que normalmente estarán separados regularmente en el segundo sistema de coordenadas, distribuyéndose para definir una cuadrícula de puntos). En otras palabras, el módulo de interpolación 130-1 está dispuesto para procesar una matriz de píxeles utilizando los datos de imagen de retina OCT recibidos para generar los datos de imagen de retina OCT renderizados interpolando entre valores de los píxeles en las coordenadas en el segundo sistema de coordenadas determinado por el módulo de determinación de coordenadas 120-1 para calcular los valores de los píxeles de la matriz de píxeles, generando así los datos de imagen de retina OCT renderizados. A continuación, también se proporcionan más detalles de este proceso de interpolación.
La Fig. 2 muestra un ejemplo de cómo se puede implementar el aparato 100-1 en hardware de procesamiento de señales programable. El aparato de procesamiento de señales 200 mostrado en la Fig. 2 comprende una interfaz de comunicación (I/F) 210 para recibir datos de imágenes de retina OCT adquiridos por el escáner OCT y emitir datos de imágenes de retina OCT renderizados, de manera que se puedan visualizar o procesar de otro modo mediante el aparato de procesamiento de señales o un dispositivo externo. El aparato de procesamiento de señales 200 comprende además un procesador (CPU) 220, una memoria de trabajo 230 (por ejemplo, una memoria de acceso aleatorio) y un almacenamiento de instrucciones 240 que almacena instrucciones legibles por ordenador que, cuando las ejecuta el procesador 220, hacen que el procesador 220 realice las operaciones de procesamiento que se describen a continuación para renderizar los datos de imagen de retina OCT recibidos (es decir, procesar los datos OCT recibidos para generar datos de imagen que representan una imagen bidimensional o tridimensional de la parte de la retina que se ha escaneado para generar los datos OCT). El almacenamiento de instrucciones 240 puede comprender una ROM (por ejemplo, en forma de memoria de solo lectura programable y borrable eléctricamente (EEPROM) o memoria flash) que está precargada con las instrucciones legibles por ordenador. Alternativamente, el almacenamiento de instrucciones 240 puede comprender una RAM o un tipo similar de memoria, y las instrucciones legibles por ordenador se pueden introducir en él desde un producto de programa informático, tal como un medio de almacenamiento legible por ordenador 250 tal como un CD-ROM, etc. o una señal legible por ordenador 260 que lleva las instrucciones legibles por ordenador. Cabe señalar, sin embargo, que el aparato de las realizaciones descritas en el presente documento se puede implementar alternativamente en hardware no programable, tal como un circuito integrado de aplicación específica (ASIC).
En la presente realización, la I/F de comunicación 210 está configurada para realizar las funciones del módulo de comunicación 110 mostrado en la Fig. 1, mientras que la combinación 270 de los componentes de hardware mostrados en la Fig. 2, que comprende el procesador 220, la memoria de trabajo 230 y el almacenamiento de instrucciones 240, está configurada para realizar las funciones del módulo de determinación de coordenadas 120-1 y del módulo de interpolación 130-1, que se describirán a continuación en detalle haciendo referencia a las Figs. 3 y 4.
La Fig. 3 es un diagrama de flujo que ilustra un proceso mediante el cual el aparato 100-1 genera datos de imágenes de retina OCT para generar una imagen geométricamente verdadera (en otras palabras, una imagen con reserva de ángulo y escala isométrica) de una parte escaneada de la retina.
En el proceso 510, el módulo de comunicación 110 recibe los datos de imágenes de retina OCT adquiridos por el escáner OCT. En la presente realización, los datos recibidos comprenden valores de píxeles indicativos de la intensidad de una señal de interferencia generada al interferir la luz de muestra reflejada desde la retina con la luz de un brazo de referencia del escáner OCT.
A modo de ejemplo, en la presente realización, los datos de imagen de retina OCT que representan una imagen OCT bidimensional (B-scan), Icap, capturado por el escáner OCT son recibidos por el módulo de comunicación 110. Sin embargo, como se señaló anteriormente, los datos de imagen de retina OCT que representan una imagen OCT tridimensional (C-scan) adquirida por el escáner OCT pueden ser recibidos alternativamente por el módulo de comunicación 110. Cada columna de los datos de imagen de retina OCT recibidos corresponde a un A-scan, teniendo cada uno un valor conocido y constante para H y para V. Estos valores para H y V pueden ser recibidos por el módulo de comunicación 110 junto con los valores de píxeles asociados de la imagen capturada Icap, de modo que el aparato 100-1 pueda almacenar los valores de píxeles recibidos en asociación con los respectivos valores recibidos para H y V. Alternativamente, el módulo de comunicación 110 puede recibir solo los propios valores de píxeles, con el algoritmo de renderización de imágenes descrito a continuación determinando los valores H y V para cada píxel basándose en las ubicaciones de los píxeles en un sistema de coordenadas de píxeles (estando representadas estas ubicaciones de píxeles por las coordenadas x, y, y z en el sistema de coordenadas de píxeles) de los datos de imagen recibidos, y datos de calibración prealmacenados relacionados con el escáner OCT que adquirió los datos de la imagen de retina OCT. En este caso, los datos de calibración relacionan la ubicación de cada píxel en los datos de la imagen con los valores respectivos de H y V. La coordenada<zc>representa una coordenada a lo largo de un eje de la imagen que corresponde a la dirección del rayo láser, mientras que x e y representan coordenadas a lo largo de ejes que son ortogonales a ese eje de la imagen.
En el proceso S20, el módulo de determinación de coordenadas 120-1 determina valores de coordenadas en el segundo sistema de coordenadas de píxeles en la imagen de retina OCT recibida utilizando una transformación de coordenadas en el primer sistema de coordenadas a coordenadas en el segundo sistema de coordenadas. El módulo de determinación de coordenadas 120-1 puede, como en la presente realización, también utilizar en este proceso un mapeo entre al menos un conjunto de valores de parámetros de escaneo OCT utilizados durante la adquisición de los datos de imagen de retina OCT, y la(s) coordenada(s) en el primer sistema de coordenadas (A, B, C) correspondiente a al menos un conjunto de valores de parámetros de escaneo OCT.
Este mapeo se puede derivar mediante el uso de modelos de sistemas ópticos, junto con un modelo combinado del escáner OCT y un modelo ocular supuesto, para encontrar las trayectorias de los rayos de luz dentro del escáner OCT hasta la retina para un rango de ángulos de desviación establecidos para los elementos de escaneo de haz de láser. El modelo ocular supuesto se puede definir de diversas maneras, como un ojo idealizado específico de geometría y dimensiones fijas, o un modelo parametrizado cuyos parámetros se derivan para un ojo en particular a partir de datos biométricos oftálmicos. El punto final del modelado del sistema óptico es un mapeo entre los valores de los parámetros de escaneo OCT H, V y D y los valores correspondientes de las coordenadas en el primer sistema de coordenadas (mundo real) (A, B, C). El modelado del sistema óptico se puede basar en el conocimiento de la estructura óptica del escáner OCT y/o en el conocimiento de la estructura de un objetivo artificial y la imagen resultante cuando ésta es capturada por el escáner OCT.
Se puede utilizar el modelado del sistema óptico para determinar, para posibles valores de los parámetros H y V (es decir, para posibles rayos de luz), los siguientes datos:
1. Los valores de las coordenadas de mundo real donde el rayo de luz incide en la retina.
2. La dirección, como vector en coordenadas de mundo real, del rayo de luz dentro del vítreo del ojo.
3. La distancia, conocida como distancia del camino óptico (D), desde el emisor de luz hasta el punto de intersección del rayo de luz con la retina.
Sin embargo, cabe señalar que no es necesario obtener todos los datos anteriores en el modelado del sistema óptico y que los resultados del modelado del sistema óptico se pueden representar de muchas formas diferentes.
Con respecto al mapeo entre los valores del parámetro D de escaneo OCT y las coordenadas z correspondientes en el sistema de coordenadas de píxeles, esto se puede determinar de la siguiente manera.
El valor de D es constante para todos los píxeles con un valor dado de z, y el espacio entre píxeles en la dirección zcap se conoce en unidades de distancia reales. Por lo tanto, D = (z - z1 )*p, donde p es un valor conocido igual al espaciado entre píxeles en la dirección z, y z1 es un desplazamiento que debe determinarse. Los valores de z1 se pueden determinar de varias maneras diferentes.
Por ejemplo, los valores de píxeles en los datos de imagen de retina OCT recibidos se pueden analizar (por ejemplo, mediante análisis de imágenes por ordenador) para detectar una capa de la retina, y se puede encontrar el valor de z para un subconjunto de columnas de imágenes en esta capa de la retina. En puntos a lo largo de esta capa detectada, se supone que el valor de D se conoce a partir del resultado del modelado del sistema óptico. Esto permite determinar una estimación de z1.
Como alternativa, z1 se puede determinar utilizando información del sistema de control del escáner OCT. La longitud del camino óptico en el brazo de referencia está controlada con precisión por el dispositivo y, por tanto, existe una relación conocida entre el parámetro de control posicional y z1. Esta relación se puede determinar a partir del conocimiento del diseño del escáner OCT o se puede obtener a partir de la calibración.
Sin embargo, cabe señalar que no es necesario determinar z1 explícitamente mediante ninguno de los métodos anteriores (u otros); es la determinación del valor de la D para cada valor de zcap, y por lo tanto se obtiene preferiblemente un mapeo entre los valores de los parámetros de escaneo OCT H, V y D y las coordenadas correspondientes (x, y, z).
Para reproyectar las coordenadas de los píxeles de datos de la imagen de retina OCT desde el primer sistema de coordenadas al segundo sistema de coordenadas, el módulo de determinación de coordenadas 120-1 utiliza el primer mapeo determinado entre los valores de los parámetros de escaneo OCT H, V y D y las coordenadas correspondientes (x, y, z), y el segundo mapeo determinado entre los valores de los parámetros de escaneo OCT H, V y D y las coordenadas correspondientes en el primer sistema de coordenadas de mundo real (A, B, C), como se describirá a continuación haciendo referencia a la Fig. 4.
La Fig. 4 es un diagrama de flujo que ilustra un ejemplo de cómo el módulo de determinación de coordenadas 120-1 puede determinar los valores de las coordenadas, en el segundo sistema de coordenadas, de los píxeles de los datos de imagen de retina OCT recibidos.
En el proceso S21, se selecciona un primer píxel de los datos de imagen de retina OCT recibidos. Después, en el proceso S22, el módulo de determinación de coordenadas 120-1 determina, para el primer píxel que se considera en la iteración actual, los valores correspondientes de los parámetros de escaneo<o>C<t>H, V y D utilizando el primer mapeo descrito anteriormente. En el proceso S23, estos valores de parámetros de escaneo se convierten en valores correspondientes de coordenadas en el primer sistema de coordenadas de mundo real (A, B, C) utilizando el (segundo) mapeo entre valores de los parámetros de escaneo OCT y las coordenadas correspondientes en el primer sistema de coordenadas de mundo real (A, B, C) descrito anteriormente. Por lo tanto, los valores de las coordenadas reales de los píxeles en los datos de imagen de retina OCT recibidos se determinan en esta etapa del proceso de renderización de la imagen.
Dependiendo de los datos disponibles en el resultado del modelado del sistema óptico, el cálculo de las coordenadas de mundo real de los píxeles se puede simplificar. Por ejemplo, en una variante de la realización donde la dirección del rayo de luz dentro del vítreo del ojo se conoce como un vector en el sistema de coordenadas de mundo real, la iteración anterior se puede realizar solo para un píxel en cada columna de imagen (A-scan). Después, los valores de las coordenadas de los píxeles en el primer sistema de coordenadas de mundo real, (Acap, Bcap, Ccap), se podrían calcular para los píxeles restantes de la columna iterando sobre los píxeles de la columna y sumando el vector de dirección del rayo de luz escalado por la distancia entre píxeles (que es conocida).
Se elige un segundo sistema de coordenadas de mundo real (A', B', C') para renderizar los datos de la imagen de retina OCT. Esta elección puede informarse o lograrse de diversas maneras. Por ejemplo, se puede elegir un sistema de coordenadas cartesiano o esférico que esté estandarizado en múltiples eventos de captura de imágenes, o el mismo que se utiliza en otro evento de captura. Esto puede ser apropiado, por ejemplo, (a) para facilitar la comparación por parte del usuario de la imagen actual con otra imagen, o (b) para facilitar la comparación mediante un sistema automatizado para la detección de cambios de enfermedades o el registro de imágenes utilizando la imagen actual y otra imagen. Alternativamente, se puede utilizar un sistema de coordenadas cartesiano o esférico que esté alineado de alguna manera óptima con los datos capturados. Uno o más de los ejes del segundo sistema de coordenadas (A', B', C') pueden estar estrechamente alineados con uno o más de los ejes de los datos capturados. Por ejemplo, si se utiliza un sistema de coordenadas cartesiano, un eje se puede alinear, de alguna manera óptima, con la dirección de escaneo H y otro se puede alinear, de alguna manera óptima, con la dirección de escaneo V. Alternativamente, si se utiliza un sistema de coordenadas esféricas, entonces el eje radial se puede alinear con la dirección de propagación de la luz a lo largo de la cual se mide D.
Cualquiera que sea el método que se utilice para decidir el segundo sistema de coordenadas de mundo real (A', B', C'), debe existir una relación conocida entre el primer y segundo sistema de coordenadas de mundo real (A, B, C) y (A', B', C'), de modo que existe una transformación (A, B, C) ^ (A', B', C') para convertir valores de coordenadas de uno a otro. Por ejemplo, esta etapa puede requerir el cálculo de una matriz homogeneizada, P, de modo que la conversión se pueda realizar mediante multiplicación de matrices:
Para la renderización de imágenes, son elegidos los rangos para los valores de coordenadas de píxeles (Xren, Yren, zren) de píxeles en la matriz de píxeles que se va a procesar para producir la imagen renderizada, y un mapeo lineal entre el segundo sistema de coordenadas de mundo real (A', B', C') y las coordenadas de la cuadrícula de píxeles renderizados (X, Y, Z). Cada conjunto de coordenadas de píxeles puede ser simplemente un conjunto de valores (enteros) de índices que identifican la ubicación del píxel en la matriz/cuadrícula de píxeles, o un conjunto de valores derivados de los mismos mediante cualquier mapeo uno a uno apropiado. Una forma de elegir los rangos es tomar, en cada eje de los datos de la imagen capturada, los valores mínimo y máximo de sus coordenadas min(A'cap), máx(A'cap), mín(B'cap), máx(B'cap), mín(C'cap), máx(C'cap), en el segundo sistema de coordenadas de mundo real (A', B', C'). Si el mapeo lineal anterior se elige de manera que los promedios de los espacios entre Xcap, Ycap y Zcap correspondientes a los píxeles capturados adyacentes son aproximadamente la unidad en cada dimensión, entonces la información capturada se renderizará bien en la imagen renderizada.
En el proceso S24, los valores de coordenadas determinados (Acap, Bcap, Ccap) del píxel en el primer sistema de coordenadas de mundo real (A, B, C) son convertidos en los valores de coordenadas correspondientes (A'cap, B'cap, C'cap) en el segundo sistema de coordenadas de mundo real (A', B', C') utilizando la transformación (A, B, C) ^ (A', B', C') mencionada anteriormente.
En el proceso S25, el módulo de determinación de coordenadas 120-1 determina si se han procesado todos (o un subconjunto de interés designado) de los datos de imagen de retina recibidos. En caso contrario, se selecciona el siguiente píxel en el proceso S26 y el procesamiento vuelve al proceso S22. Por otro lado, cuando se determina en el proceso S25 que no hay más píxeles para procesar, el procesamiento de S20 se completa y el procesamiento continúa hasta S30 en la Fig. 3. De esta manera, los píxeles los datos de la imagen de retina OCT recibida se procesan iterativamente para determinar sus respectivas coordenadas en el primer sistema de coordenadas de mundo real y después se vuelven a proyectar estas coordenadas en el segundo sistema de coordenadas de mundo real. Los valores de las coordenadas (A'cap, B'cap, C'cap) en el segundo sistema de coordenadas de mundo real (A', B', C') determinado de esta manera, en general estarán separados irregularmente en este sistema de coordenadas.
Haciendo referencia nuevamente a la Fig. 3, en el proceso S30, el módulo de interpolación 130-1 interpola entre valores de los píxeles en los valores determinados de coordenadas (A'cap, B'cap, C'cap) en el segundo sistema de coordenadas (A', B', C') para calcular los valores de píxeles (en los valores de coordenadas (A'ren, B'ren, C'ren)) que van a formar los datos de imagen de retina OCT renderizados.
Por tanto, para los píxeles de la matriz de píxeles que se van a procesar para generar los datos de imagen OCT renderizados (a los que, por conveniencia, se hace referencia en el presente documento simplemente como píxeles de los datos de imagen de retina OCT renderizados), los valores de intensidad Iren de píxeles de los datos de la imagen de retina OCT renderizada en coordenadas separadas regularmente (A'ren, B'ren, C'ren) en el segundo sistema de coordenadas de mundo real se determinan interpolando entre los valores conocidos en las coordenadas no separadas regularmente (A'cap, B'cap, C'cap) de píxeles de los datos de imagen de retina OCT recibidos Icap que se han proyectado en el segundo sistema de coordenadas de mundo real. Para hacer esto, el módulo de interpolación 130-1 realiza una interpolación de dispersión; a diferencia de la interpolación regular, donde los valores se conocen en ubicaciones separadas regularmente y encontrar valores en ubicaciones intermedias es sencillo, para la interpolación de dispersión, los valores solo se conocen en ubicaciones separadas irregularmente y es más difícil encontrar valores en ubicaciones separadas regularmente a partir de estos. Sin embargo, los métodos para realizar la interpolación de dichos datos son bien conocidos e incluyen redes trianguladas, tales como las basadas en la triangulación de Delauney y splines de placa delgada.
En la variante de la realización mencionada anteriormente, las coordenadas en el segundo sistema de coordenadas de mundo real de píxeles en los datos de imagen de retina OCT recibidos del A-scan se pueden determinar en el proceso S20 utilizando la transformación (A, B, C) ^ (A', B', C') y el primer mapeo para determinar las coordenadas en el segundo sistema de coordenadas de mundo real de un primer píxel en los datos de imagen de retina OCT recibidos del A-scan, estando asociado el primer píxel con un primer conjunto de valores de parámetros de escaneo OCT, y utilizando la transformación (A, B, C) ^ (A', B', C') y un vector en el primer sistema de coordenadas de mundo real que es indicativo de una dirección de un haz de luz que incide o se propaga en la retina del ojo cuando el escáner OCT opera de acuerdo con el primer conjunto de valores de parámetros de escaneo OCT para determinar las coordenadas en el segundo sistema de coordenadas de mundo real de los píxeles restantes en los datos de imagen de retina OCT recibidos del A-scan.
Los datos de imagen de retina OCT renderizados son después emitidos por el módulo de comunicación 110 para que puedan ser visualizados en cualquier dispositivo de visualización adecuado (tal como una pantalla de ordenador o similar) y/o procesados automáticamente o bajo la guía del usuario para determinar una medición dimensional de una o más características de interés en los datos de imagen de retina OCT renderizados.
A continuación se describirá un aparato 100-2 para renderizar datos de imágenes de retina OCT según una variante de la primera realización haciendo referencia a las Figs. 5 y 6.
El aparato 100-2 de la variante mostrada esquemáticamente en la Fig. 5 difiere del aparato 100-1 de la primera realización solo por la funcionalidad del módulo de interpolación 130-2. La implementación del aparato 100-2 en hardware de procesamiento de señales y la funcionalidad de sus componentes restantes son las mismas que en la primera realización y, por lo tanto, no se describirán nuevamente. La diferencia en funcionalidad del módulo de interpolación 130-3 se describirá a continuación haciendo referencia a la Fig. 6.
La Fig. 6 es un diagrama de flujo que ilustra un proceso mediante el cual el aparato 100-2 genera datos de imágenes de retina OCT para generar una imagen geométricamente verdadera de una parte escaneada de la retina. Los procesos S10 y S20 son los mismos que los de la primera realización. Sin embargo, el proceso mediante el cual el módulo de interpolación 130-2 de la variante procesa una matriz de píxeles utilizando los datos de imagen de retina OCT recibidos para generar los datos de imagen de retina OCT renderizados es diferente al procesamiento realizado por el módulo de interpolación 130-1 de la primera realización, como se explicará a continuación.
En el proceso S40, el módulo de interpolación 130-2 interpola entre las coordenadas, en el segundo sistema de coordenadas de mundo real (A', B', C'), de los píxeles de los datos de imagen de retina OCT recibidos, para calcular las coordenadas de los píxeles de la matriz de píxeles en el primer sistema de coordenadas de mundo real (A, B, C). Las coordenadas de los píxeles de los datos de imagen de retina OCT recibidos en el segundo sistema de coordenadas de mundo real (A', B', C') generalmente estarán separados irregularmente. El módulo de interpolación 130-2 de la variante realiza una interpolación de dispersión sobre estos datos utilizando, por ejemplo, redes trianguladas tales como las basadas en triangulación de Delauney o splines de placa delgada, para determinar las coordenadas de los píxeles de la matriz de píxeles en el primer sistema de coordenadas de mundo real (A, B, C).
En el proceso S50, el módulo de interpolación 130-2 utiliza las coordenadas calculadas de los píxeles de la matriz de píxeles en el primer sistema de coordenadas de mundo real (A, B, C) para interpolar entre valores de los píxeles de los datos de imagen de retina OCT recibidos para calcular los valores de los píxeles de la matriz de píxeles, generando así los datos de la imagen de retina OCT renderizada.
Realización 2
A continuación se describirá un aparato 100-3 para renderizar datos de imagen de retina OCT de acuerdo con una segunda realización de la invención haciendo referencia a las Figs. 7 y 8.
El aparato 100-3 de la presente realización mostrado esquemáticamente en la Fig. 7 difiere del aparato 100-1 de la primera realización solo en la funcionalidad del módulo de determinación de coordenadas 120-3. La implementación del aparato 100-3 en hardware de procesamiento de señales, la funcionalidad de sus componentes restantes y las posibles variaciones que se pueden realizar en el aparato son las mismas que en la primera realización y, por lo tanto, no se describirán nuevamente.
El proceso mediante el cual el módulo 120-3 de determinación de coordenadas de la presente realización determina coordenadas en el segundo sistema de coordenadas de píxeles en los datos de imagen de retina OCT recibidos, en un proceso S20' que es una alternativa al proceso S20 mostrado en la Fig. 3, se describirá a continuación haciendo referencia a la Fig. 8.
En el proceso S21', el módulo de determinación de coordenadas 120-3 selecciona un subconjunto de píxeles en los datos de imágenes de retina OCT recibidos que se distribuyen de manera sustancialmente uniforme (entre las ubicaciones de píxeles) en los datos de imágenes de retina OCT recibidos.
En el proceso S22', el módulo de determinación de coordenadas 120-3 determina, para cada píxel del subconjunto de píxeles, una coordenada respectiva en el segundo sistema de coordenadas utilizando la transformación entre las coordenadas (x, y, z) en el (primer) sistema de coordenadas de los datos y coordenadas (X, Y, Z) de la imagen de retina OCT recibida en el (segundo) sistema de coordenadas de la matriz de píxeles que se va a procesar para dar la imagen renderizada. Se obtiene así un mapeo "ideal" utilizando el subconjunto de píxeles.
El módulo de determinación de coordenadas 120-3 puede, como en la presente realización, determinar la coordenada respectiva en el segundo sistema de coordenadas para cada píxel del subconjunto de píxeles utilizando: un primer mapeo para convertir la coordenada (x, y, z) de un píxel de los datos de imagen OCT recibidos desde el primer sistema de coordenadas al primer sistema de coordenadas de mundo real (A, B, C); un segundo mapeo para convertir la coordenada de un píxel en el primer sistema de coordenadas de mundo real (A, B, C) en una coordenada en el segundo sistema de coordenadas de mundo real (A', B', C'); y un tercer mapeo para convertir la coordenada (X, Y, Z) de un píxel en la matriz de píxeles en una coordenada correspondiente en el segundo sistema de coordenadas de mundo real (A', B', C').
En el proceso S23', el módulo de determinación de coordenadas 120-3 utiliza las coordenadas determinadas de píxeles del subconjunto de píxeles en el segundo sistema de coordenadas para determinar parámetros de un mapeo parametrizado entre coordenadas (x, y, z) en el primer sistema de coordenadas y coordenadas (X, Y, Z) en el segundo sistema de coordenadas. Los parámetros para este mapeo se pueden generar mediante ajuste exacto, por ejemplo, ajustando una spline (un polinomio por partes). En este caso, el subconjunto de puntos después de aplicar el mapeo ideal es sustancialmente el mismo que el de aplicar el mapeo parametrizado. Alternativamente, se puede utilizar una técnica de regresión para minimizar una función de pérdida basada en las diferencias entre el subconjunto de puntos después de aplicar el mapeo ideal y aquellos después de aplicar el mapeo parametrizado.
Finalmente, en el proceso S24', el módulo de determinación de coordenadas 120-3 utiliza el mapeo parametrizado con los parámetros determinados para determinar las coordenadas (X, Y, Z) en el segundo sistema de coordenadas de píxeles en los datos de imagen de retina OCT recibidos.
Ejemplo de la Técnica Anterior
A continuación se describirá un aparato 100-4 para renderizar datos de imágenes de retina OCT según un ejemplo de la técnica anterior que no forma parte de ninguna realización de la invención, pero que sin embargo ayuda a entender la invención, haciendo referencia a las Figs. 9 y 10.
El aparato 100-4 del presente ejemplo de la técnica anterior mostrado esquemáticamente en la Fig. 9 difiere del aparato 100-1 de la primera realización solo en las funcionalidades del módulo de determinación de coordenadas 120-4 y el módulo de interpolación 130-4. La implementación del aparato 100-4 en hardware de procesamiento de señales y la funcionalidad del módulo de comunicación 110 son las mismas que en la primera realización y, por lo tanto, no se describirán nuevamente.
La Fig. 10 es un diagrama de flujo que ilustra un proceso mediante el cual el aparato 100-4 genera datos de imágenes de retina OCT para generar una imagen geométricamente verdadera de una parte escaneada de la retina. El proceso S10 es el mismo que en la primera realización. Sin embargo, las operaciones realizadas por el módulo de determinación de coordenadas 120-4 y por el módulo de interpolación 130-4 son diferentes a las realizadas por el módulo de determinación de coordenadas 120-1 y por el módulo de interpolación 130-1 de la primera realización, y estas se describirán a continuación.
En el proceso 560, el módulo de determinación de coordenadas 120-4 determina, para cada píxel de una matriz de píxeles de renderización que se va a procesar para generar los datos de imagen de retina OCT renderizada, una coordenada respectiva (x, y, z) en un primer sistema de coordenadas siendo el de los datos de imagen de retina OCT recibidos, utilizando una transformación de coordenadas en un segundo sistema de coordenadas que es el de los datos de imagen de retina OCT renderizados a coordenadas en el primer sistema de coordenadas. Así, la coordenada (Xren, Yren, Zren) en el segundo sistema de coordenadas se convierte en una coordenada correspondiente (xren, yren, zren) en el primer sistema de coordenadas. El primer y segundo sistemas de coordenadas en este ejemplo de la técnica anterior pueden estar definidos de cualquier forma adecuada. Por ejemplo, cada píxel de los datos de imagen de retina OCT recibidos puede tener coordenadas de píxel en el primer sistema de coordenadas que son valores enteros que representan la ubicación del píxel en la matriz o cuadrícula bidimensional o tridimensional de píxeles que constituye los datos de imagen de retina OCT recibidos, estando asociado cada conjunto de valores enteros con los valores respectivos de los parámetros de escaneo OCT H, V y D en el caso de una matriz tridimensional (o H y D (alternativamente V y D) en el caso por ejemplo, de una matriz bidimensional).
El módulo de determinación de coordenadas 120-4 puede, como en el presente ejemplo de la técnica anterior, determinar la coordenada respectiva en el primer sistema de coordenadas para cada píxel de los datos de la matriz de píxeles utilizando: (i) un primer mapeo para convertir los valores de coordenadas (Xren, Yren, zren) del píxel de la matriz de píxeles en el segundo sistema de coordenadas a valores de coordenadas (A'ren, B'ren, C'ren) en el sistema de coordenadas de mundo real (A', B', C') expuesto anteriormente; (ii) un segundo mapeo para convertir los valores de coordenadas (A'ren, B'ren, C'ren) del píxel de la matriz de píxeles en el sistema de coordenadas de mundo real (A', B', C') en valores de coordenadas (Aren, Bren, Cren) en el otro sistema de coordenadas de mundo real (A, B, C) expuesto anteriormente; (iii) un tercer mapeo para convertir los valores de coordenadas (Aren, Bren, Cren) del píxel de la matriz de píxeles en el sistema de coordenadas de mundo real (A, B, C) a un conjunto correspondiente de valores de valores de parámetros de escaneo OCT (Hren, Vren, Dren) que son indicativos de una ubicación dentro del escaneo realizado por el escáner OCT; y (iv) un cuarto mapeo para convertir el conjunto de valores de parámetros de escaneo OCT a los valores de coordenadas correspondientes (xren, yren, zren) del píxel de la matriz de píxeles en el primer sistema de coordenadas. El rango de coordenadas de mundo real que cubrirá la imagen renderizada puede, como en el presente ejemplo de la técnica anterior, ser elegido de modo que una región de interés en (o quizás todos) los datos capturados aparezcan en la imagen renderizada.
Suponiendo que los datos capturados o su región de interés son conceptualmente un cuboide de puntos de datos, un método para obtener el rango de coordenadas en (A', B', C') que cubrirá la imagen renderizada es estimar (A'ren, B'ren, C'ren) para los puntos de datos en las ocho esquinas de este cuboide conceptual de datos capturados. Los extremos de estos valores de (A'ren, B'ren, C'ren) son valores adecuados para los extremos de los rangos de (A', B', C') que cubrirá la imagen renderizada.
En el proceso 570, el módulo de interpolación 130-4 calcula los valores de los píxeles de la matriz de píxeles utilizando las coordenadas en el primer sistema de coordenadas de mundo real (A, B, C) o la coordenada correspondiente (xren, yren, zren) del píxel de la matriz de píxeles en el primer sistema de coordenadas determinado por el módulo de determinación de coordenadas 120-4 en el proceso S60 para interpolar entre valores de píxeles de los datos de imagen de retina OCT recibidos, generando así los datos de imagen de retina OCT renderizados.
Las interpolaciones realizadas en este ejemplo de la técnica anterior se basan en cuadrículas regulares para los datos de origen. Por lo tanto, este ejemplo de la técnica anterior puede proporcionar una implementación más eficiente que las realizaciones descritas anteriormente, ya que cada una de ellas incluye una interpolación cuyos datos de origen están en una cuadrícula irregular.
Aunque anteriormente se han descrito realizaciones ejemplares de la presente invención haciendo referencia a los dibujos, la configuración específica de las realizaciones ejemplares no se limita a ellas, y abarca diseños y similares dentro de un intervalo que no se aparta del alcance de la presente invención.
Claims (16)
1. Un método para renderizar datos de imágenes de retina de tomografía de coherencia óptica, OCT, que han sido adquiridos por un escáner OCT que escanea una retina de un ojo en una variedad de ubicaciones de escaneo, en donde cada una de las ubicaciones de escaneo está asociada con una coordenada respectiva en un primer sistema de coordenadas, y cada píxel de los datos de imagen de retina OCT renderizados está asociado con una coordenada respectiva en un segundo sistema de coordenadas que es diferente del primer sistema de coordenadas, el método comprende:
recibir (S10) los datos de imágenes de retina OCT adquiridos por el escáner OCT;
determinar (S20; S20’) los valores de coordenadas en el segundo sistema de coordenadas de píxeles en la imagen de la retina de OCT recibida usando una transformación de coordenadas en el primer sistema de coordenadas a coordenadas en el segundo sistema de coordenadas, e
interpolar (S30) entre valores de los píxeles en los valores de coordenadas determinados en el segundo sistema de coordenadas para calcular valores de los píxeles de los datos de la imagen de la retina de OCT renderizados.
2. Un método para renderizar datos de imágenes de retina de tomografía de coherencia óptica, OCT, que han sido adquiridos por un escáner OCT que escanea una retina de un ojo en una variedad de ubicaciones de escaneo, en donde cada una de las ubicaciones de escaneo está asociada con una coordenada respectiva en un primer sistema de coordenadas, y cada píxel de los datos de imagen de retina OCT renderizados está asociado con una coordenada respectiva en un segundo sistema de coordenadas que es diferente del primer sistema de coordenadas, el método comprende:
recibir (S10) los datos de imágenes de retina OCT adquiridos por el escáner OCT; y
procesar una matriz de píxeles utilizando los datos de imagen de retina OCT recibidos para generar los datos de imagen de retina OCT renderizados gracias a:
determinar (S20) los valores de coordenadas en el segundo sistema de coordenadas de píxeles en la imagen de la retina de OCT recibida usando una transformación de coordenadas en el primer sistema de coordenadas a coordenadas en el segundo sistema de coordenadas;
interpolar (S40) entre los valores de coordenadas determinados en el segundo sistema de coordenadas para calcular valores de coordenadas de los píxeles en la matriz de píxeles en el primer sistema de coordenadas; y
utilizar (S50) los valores calculados de las coordenadas de los píxeles en la matriz de píxeles en el primer sistema de coordenadas para interpolar entre valores de los píxeles de los datos de la imagen de la retina de OCT recibidos para calcular valores de los píxeles en la matriz de píxeles.
3. El método según la reivindicación 1 o la reivindicación 2, en el que los valores de coordenadas en el segundo sistema de coordenadas de píxeles en la imagen de retina OCT recibida se determinan (S20) utilizando dicha transformación y un mapeo entre (i) al menos un conjunto de valores de parámetros de escaneo OCT utilizados durante la adquisición de los datos de imagen de retina OCT, siendo cada conjunto de valores de parámetros de escaneo OCT indicativos de una ubicación respectiva dentro del escaneo, y (ii) coordenada(s) en el primer sistema de coordenadas correspondiente al al menos un conjunto de valores de parámetros de escaneo OCT.
4. El método según la reivindicación 3, en el que:
los datos de imagen de retina OCT recibidos comprenden datos de imagen de retina OCT de un A-scan de la retina realizado por el escáner OCT; y
los valores de coordenadas del segundo sistema de coordenadas de píxeles de los datos de imagen de retina OCT recibidos del A-scan son determinados (S20) gracias a:
utilizar dicha transformación y dicho mapeo para determinar los valores de coordenadas en el segundo sistema de coordenadas de un primer píxel en los datos de imagen de retina de OCT recibidos del A-scan, el primer píxel está asociado con un primer conjunto de valores de parámetros de escaneo OCT; y
utilizar dicha transformación y un vector en el primer sistema de coordenadas que es indicativo de una dirección de un haz de luz incidente sobre o que se propaga en la retina del ojo cuando el escáner de OCT funciona de acuerdo con el primer conjunto de valores de parámetros de escaneo de OCT para determinar valores de coordenadas en el segundo sistema de coordenadas de píxeles restantes en los datos de imagen de retina de OCT recibidos del A-scan.
5. El método según la reivindicación 1, en el que determinar (S20') valores de coordenadas en el segundo sistema de coordenadas de píxeles en los datos de imagen de retina de OCT recibidos comprende:
seleccionar (S21') un subconjunto de píxeles en los datos de imagen de retina de OCT recibidos que se distribuyen de manera sustancialmente uniforme en los datos de imagen de retina de OCT recibidos;
determinar (S22'), para cada píxel del subconjunto de píxeles, un valor respectivo de una coordenada en el segundo sistema de coordenadas usando la transformación de coordenadas en el primer sistema de coordenadas a coordenadas en el segundo sistema de coordenadas;
utilizar (S23') los valores determinados de coordenadas de píxeles del subconjunto de píxeles en el segundo sistema de coordenadas para determinar parámetros de un mapeo parametrizado entre coordenadas en el primer sistema de coordenadas y coordenadas en el segundo sistema de coordenadas; y
utilizar (S24') el mapeo parametrizado con los parámetros determinados para determinar valores de coordenadas en el segundo sistema de coordenadas de píxeles en los datos de imagen de retina de OCT recibidos.
6. El método según la reivindicación 5, en el que la coordenada respectiva en el segundo sistema de coordenadas para cada píxel del subconjunto de píxeles se determina (S22') usando:
un primer mapeo para convertir la coordenada de un píxel de los datos de imagen de OCT recibidos desde el primer sistema de coordenadas a un primer sistema de coordenadas del mundo real;
un segundo mapeo para convertir la coordenada de un píxel en el primer sistema de coordenadas del mundo real en una coordenada en un segundo sistema de coordenadas del mundo real; y
un tercer mapeo para convertir la coordenada de un píxel en la matriz de píxeles en una coordenada correspondiente en el segundo sistema de coordenadas del mundo real.
7. El método según cualquier reivindicación anterior, en el que los datos de imágenes de retina OCT de una pluralidad de imágenes de retina OCT adquiridas por el escáner OCT son renderizados utilizando un segundo sistema de coordenadas común.
8. Un medio (250) de almacenamiento no transitorio legible por ordenador que almacena instrucciones de programa de ordenador que, cuando son ejecutadas por un ordenador (270), hacen que el ordenador (270) realice un método según cualquier reivindicación anterior.
9. Una señal (260) que transporta instrucciones de programa informático que, cuando las ejecuta un ordenador (270), hacen que el ordenador (270) realice un método según cualquiera de las reivindicaciones anterior 1 a 7.
10. Un aparato (100-1; 100-2) para renderizar datos de imagen de retina de tomografía de coherencia óptica, OCT, que se han adquirido mediante un escáner de OCT que escanea una retina de un ojo en un intervalo de ubicaciones de escaneo, en donde cada una de las ubicaciones de escaneo está asociada con una coordenada respectiva en un primer sistema de coordenadas, y cada píxel de los datos de imagen de retina de OCT renderizados está asociado con una coordenada respectiva en un segundo sistema de coordenadas que es diferente del primer sistema de coordenadas, el aparato comprende:
un módulo de comunicación (110) dispuesto para recibir los datos de imagen de retina OCT adquiridos por el escáner OCT;
un módulo de determinación de coordenadas (120-1; 120-2) dispuesto para determinar valores de coordenadas en el segundo sistema de coordenadas de píxeles en la imagen de retina OCT recibida usando una transformación de coordenadas en el primer sistema de coordenadas a coordenadas en el segundo sistema de coordenadas; y
un módulo de interpolación (130-1) dispuesto para interpolar entre valores de los píxeles en los valores determinados de coordenadas en el segundo sistema de coordenadas para calcular valores de los píxeles de los datos de imagen de retina OCT renderizados.
11 Un aparato (100-3) para renderizar datos de imágenes de retina de tomografía de coherencia óptica, OCT, que han sido adquiridos por un escáner OCT escaneando una retina de un ojo en una variedad de ubicaciones de escaneo, en donde cada una de las ubicaciones de escaneo está asociada con una coordenada respectiva en un primer sistema de coordenadas, y cada píxel de los datos de imagen de retina OCT renderizados está asociado con una coordenada respectiva en un segundo sistema de coordenadas que es diferente del primer sistema de coordenadas, el aparato comprende:
un módulo de comunicación (110) dispuesto para recibir los datos de imágenes de retina OCT adquiridos por el escáner OCT;
un módulo de determinación de coordenadas (120-1) dispuesto para determinar los valores de coordenadas en el segundo sistema de coordenadas de píxeles en la imagen de la retina de OCT recibida usando una transformación de coordenadas en el primer sistema de coordenadas a coordenadas en el segundo sistema de coordenadas, y
un módulo de interpolación (130-3) dispuesto para procesar una matriz de píxeles utilizando los datos de imágenes de retina OCT recibidos para generar los datos de imágenes de retina OCT renderizados gracias a:
interpolar entre los valores de coordenadas determinados en el segundo sistema de coordenadas para calcular valores de coordenadas de los píxeles en la matriz de píxeles en el primer sistema de coordenadas; y
utilizar los valores calculados de coordenadas de los píxeles en la matriz de píxeles en el primer sistema de coordenadas para interpolar entre valores de los píxeles de los datos de la imagen de la retina de OCT recibidos para calcular valores de los píxeles en la matriz de píxeles.
12. El aparato (100-1) según la reivindicación 10 o la reivindicación 11, en donde el módulo de determinación de coordenadas (120-1) está dispuesto para determinar los valores de coordenadas en el segundo sistema de coordenadas de píxeles en la imagen de retina OCT recibida usando dicha transformación y un mapeo entre (i) al menos un conjunto de valores de parámetros de escaneo OCT usados durante la adquisición de los datos de imagen de retina OCT, cada conjunto de valores de parámetros de escaneo OCT es indicativo de una ubicación respectiva dentro del escaneo, y (ii) coordenadas(s) en el primer sistema de coordenadas correspondiente al al menos un conjunto de valores de parámetros de escaneo OCT.
13. El aparato (100-1) según la reivindicación 12, en el que:
el módulo de comunicación (110) está dispuesto para recibir datos de imagen de retina OCT de un A-scan de la retina realizado por el escáner OCT; y
el módulo de determinación de coordenadas (120-1) está dispuesto para determinar los valores de coordenadas en el segundo sistema de coordenadas de píxeles en los datos de imagen de retina OCT recibidos del A-scan gracias a:
utilizar dicha transformación y dicho mapeo para determinar los valores de coordenadas en el segundo sistema de coordenadas de un primer píxel en los datos de imagen de retina de OCT recibidos del A-scan, el primer píxel está asociado con un primer conjunto de valores de parámetros de escaneo de OCT; y
utilizar dicha transformación y un vector en el primer sistema de coordenadas que es indicativo de una dirección de un haz de luz incidente sobre o que se propaga en la retina del ojo cuando el escáner de OCT funciona de acuerdo con el primer conjunto de valores de parámetros de escaneo de OCT para determinar valores de coordenadas en el segundo sistema de coordenadas de píxeles restantes en los datos de imagen de retina de OCT recibidos del A-scan.
14. El aparato (100-2) según la reivindicación 10, en el que el módulo de determinación de coordenadas (120-2) está dispuesto para determinar valores de coordenadas en el segundo sistema de coordenadas de píxeles en los datos de imagen de retina de OCT recibidos gracias a:
seleccionar (S21') un subconjunto de píxeles en los datos de imagen de retina de OCT recibidos que se distribuyen de manera sustancialmente uniforme en los datos de imagen de retina de OCT recibidos;
determinar (S22'), para cada píxel del subconjunto de píxeles, un valor respectivo de una coordenada en el segundo sistema de coordenadas usando la transformación de coordenadas en el primer sistema de coordenadas a coordenadas en el segundo sistema de coordenadas;
utilizar (S23') los valores determinados de coordenadas de píxeles del subconjunto de píxeles en el segundo sistema de coordenadas para determinar parámetros de un mapeo parametrizado entre coordenadas en el primer sistema de coordenadas y coordenadas en el segundo sistema de coordenadas; y
utilizar (S24') el mapeo parametrizado con los parámetros determinados para determinar valores de coordenadas en el segundo sistema de coordenadas de píxeles en los datos de imagen de retina de OCT recibidos.
15. El aparato (100-2) según la reivindicación 14, en el que el módulo de determinación de coordenadas (120-2) está dispuesto para determinar el valor respectivo de una coordenada en el segundo sistema de coordenadas para cada píxel del subconjunto de píxeles usando:
un primer mapeo para convertir la coordenada de un píxel de los datos de imagen de OCT recibidos desde el primer sistema de coordenadas a un primer sistema de coordenadas del mundo real;
un segundo mapeo para convertir la coordenada de un píxel en el primer sistema de coordenadas del mundo real en una coordenada en un segundo sistema de coordenadas del mundo real; y
un tercer mapeo para convertir la coordenada de un píxel en la matriz de píxeles en una coordenada correspondiente en el segundo sistema de coordenadas del mundo real.
16. El aparato (100-1; 100-2; 100-3; 100-4) según cualquiera de las reivindicaciones 10 a 15, en donde el aparato está dispuesto para renderizar datos de imágenes de retina de OCT de una pluralidad de imágenes de retina de OCT adquiridas por el escáner de OCT utilizando un segundo sistema de coordenadas común.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP18171806.5A EP3566637B1 (en) | 2018-05-11 | 2018-05-11 | Oct image processing |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2997410T3 true ES2997410T3 (en) | 2025-02-17 |
Family
ID=62152436
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES18171806T Active ES2997410T3 (en) | 2018-05-11 | 2018-05-11 | Oct image processing |
| ES22182203T Active ES2969279T3 (es) | 2018-05-11 | 2018-05-11 | Procesamiento de imagen OCT |
Family Applications After (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES22182203T Active ES2969279T3 (es) | 2018-05-11 | 2018-05-11 | Procesamiento de imagen OCT |
Country Status (10)
| Country | Link |
|---|---|
| US (1) | US10929963B2 (es) |
| EP (2) | EP3566637B1 (es) |
| JP (3) | JP6841863B2 (es) |
| KR (1) | KR102199134B1 (es) |
| CN (1) | CN110473265B (es) |
| AU (1) | AU2019202426B2 (es) |
| CA (2) | CA3091570C (es) |
| DK (2) | DK3566637T3 (es) |
| ES (2) | ES2997410T3 (es) |
| FI (2) | FI3566637T3 (es) |
Families Citing this family (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114585307A (zh) | 2019-10-28 | 2022-06-03 | 株式会社理光 | 测量装置和生物信息测量装置 |
| CN115004218B (zh) * | 2020-01-08 | 2025-08-05 | 海克-斯特莱特股份公司 | 用于眼科的光学相干断层扫描系统 |
| CN111257282B (zh) * | 2020-01-22 | 2022-11-15 | 杭州捷诺飞生物科技股份有限公司 | Oct成像系统、电子设备和机器可读存储介质 |
| EP3889889A1 (en) * | 2020-03-30 | 2021-10-06 | Optos PLC | Ocular image data processing |
| FI4000502T3 (fi) * | 2020-11-12 | 2024-02-05 | Optos Plc | Volumetrisen OCT-kuvatiedon käsittely |
| CN112785640B (zh) * | 2020-12-28 | 2022-08-09 | 宁波江丰生物信息技术有限公司 | 一种用于扫描仪内部切片位置检测的方法和系统 |
| KR102464056B1 (ko) * | 2021-09-10 | 2022-11-09 | 가톨릭대학교 산학협력단 | Mri 영상과 oct 영상의 병합을 이용한 안구 및 시신경의 3차원 모델링 방법 |
| CN114184581B (zh) * | 2021-10-25 | 2024-05-07 | 北京理工大学 | 基于oct系统的图像优化方法、装置、电子设备及存储介质 |
| CN114795183B (zh) * | 2022-04-27 | 2026-04-24 | 四川锦江电子医疗器械科技股份有限公司 | 一种磁电结合定位跟踪的方法和装置 |
| CN120876334B (zh) * | 2025-09-29 | 2025-11-28 | 霖鼎光学(上海)有限公司 | 一种基于深度学习的oct光学畸变矫正方法、介质及设备 |
Family Cites Families (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2003011764A2 (en) | 2001-08-03 | 2003-02-13 | Volker Westphal | Real-time imaging system and method |
| JP5355074B2 (ja) * | 2008-12-26 | 2013-11-27 | キヤノン株式会社 | 3次元形状データ処理装置、3次元形状データ処理方法及びプログラム |
| WO2010129544A1 (en) | 2009-05-04 | 2010-11-11 | Duke University | Methods and computer program products for quantitative three-dimensional image correction and clinical parameter computation in optical coherence tomography |
| EP2563206B1 (en) * | 2010-04-29 | 2018-08-29 | Massachusetts Institute of Technology | Method and apparatus for motion correction and image enhancement for optical coherence tomography |
| JP5794664B2 (ja) | 2011-01-20 | 2015-10-14 | キヤノン株式会社 | 断層画像生成装置及び断層画像生成方法 |
| ES2391510B1 (es) | 2011-04-29 | 2013-11-11 | Consejo Superior De Investigaciones Científicas (Csic) | Procedimiento de calibracion y correccion de la distorsion de barrido de un sistema de tomografia de coherencia optica |
| JP6115007B2 (ja) | 2012-01-31 | 2017-04-19 | 株式会社ニデック | 眼科画像処理装置及びプログラム |
| GB201217538D0 (en) | 2012-10-01 | 2012-11-14 | Optos Plc | Improvements in or relating to scanning laser ophthalmoscopes |
| US10568586B2 (en) * | 2012-10-05 | 2020-02-25 | Volcano Corporation | Systems for indicating parameters in an imaging data set and methods of use |
| JP2015104582A (ja) * | 2013-11-29 | 2015-06-08 | 株式会社ニデック | 光断層像撮影装置、及び光断層像撮影プログラム |
| CN104958061B (zh) * | 2015-07-28 | 2016-09-14 | 北京信息科技大学 | 双目立体视觉三维成像的眼底oct成像方法及其系统 |
| JP6685125B2 (ja) * | 2015-12-22 | 2020-04-22 | 株式会社トプコン | 眼科撮影装置 |
| JP6808381B2 (ja) | 2016-07-07 | 2021-01-06 | キヤノン株式会社 | 保持装置、投影光学系、露光装置、および物品製造方法 |
| JP2018051177A (ja) * | 2016-09-30 | 2018-04-05 | キヤノン株式会社 | 眼科撮影装置、及び眼科撮影装置の作動方法 |
-
2018
- 2018-05-11 EP EP18171806.5A patent/EP3566637B1/en active Active
- 2018-05-11 ES ES18171806T patent/ES2997410T3/es active Active
- 2018-05-11 DK DK18171806.5T patent/DK3566637T3/da active
- 2018-05-11 FI FIEP18171806.5T patent/FI3566637T3/fi active
- 2018-05-11 EP EP22182203.4A patent/EP4085819B1/en active Active
- 2018-05-11 FI FIEP22182203.4T patent/FI4085819T3/fi active
- 2018-05-11 ES ES22182203T patent/ES2969279T3/es active Active
- 2018-05-11 DK DK22182203.4T patent/DK4085819T3/da active
-
2019
- 2019-04-08 AU AU2019202426A patent/AU2019202426B2/en active Active
- 2019-04-16 CA CA3091570A patent/CA3091570C/en active Active
- 2019-04-16 CA CA3040403A patent/CA3040403C/en active Active
- 2019-05-09 CN CN201910383653.5A patent/CN110473265B/zh active Active
- 2019-05-10 US US16/409,179 patent/US10929963B2/en active Active
- 2019-05-10 KR KR1020190055015A patent/KR102199134B1/ko active Active
- 2019-05-13 JP JP2019090481A patent/JP6841863B2/ja active Active
-
2021
- 2021-02-18 JP JP2021024435A patent/JP2021079144A/ja not_active Ceased
-
2022
- 2022-01-07 JP JP2022001438A patent/JP7251028B2/ja active Active
Also Published As
| Publication number | Publication date |
|---|---|
| EP3566637B1 (en) | 2024-11-06 |
| EP3566637A1 (en) | 2019-11-13 |
| JP2021079144A (ja) | 2021-05-27 |
| JP6841863B2 (ja) | 2021-03-10 |
| CN110473265B (zh) | 2023-06-16 |
| FI4085819T3 (fi) | 2024-01-17 |
| CA3091570C (en) | 2023-07-18 |
| JP2019195636A (ja) | 2019-11-14 |
| CA3091570A1 (en) | 2019-11-11 |
| CN110473265A (zh) | 2019-11-19 |
| EP4085819A1 (en) | 2022-11-09 |
| CA3040403A1 (en) | 2019-11-11 |
| US10929963B2 (en) | 2021-02-23 |
| EP4085819B1 (en) | 2023-12-20 |
| DK3566637T3 (da) | 2024-12-16 |
| ES2969279T3 (es) | 2024-05-17 |
| JP7251028B2 (ja) | 2023-04-04 |
| AU2019202426B2 (en) | 2020-02-13 |
| FI3566637T3 (fi) | 2024-12-09 |
| CA3040403C (en) | 2022-03-22 |
| KR102199134B1 (ko) | 2021-01-06 |
| JP2022033344A (ja) | 2022-02-28 |
| KR20190129760A (ko) | 2019-11-20 |
| AU2019202426A1 (en) | 2019-11-28 |
| DK4085819T3 (da) | 2024-01-22 |
| US20190347774A1 (en) | 2019-11-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2997410T3 (en) | Oct image processing | |
| ES2365766T3 (es) | Mejoras en o relativas a la exploración retiniana por barrido. | |
| ES3032782T3 (en) | System and method for integrated visualization camera and optical coherence tomography | |
| ES2678518T3 (es) | Proceso para tomografía de coherencia óptica y aparato para tomografía de coherencia óptica | |
| US20150097931A1 (en) | Calibration of 3d scanning device | |
| US12016653B2 (en) | Optical coherence tomography scanning system and methods | |
| JP2019088823A (ja) | 眼の画像処理の改良 | |
| US20150097968A1 (en) | Integrated calibration cradle | |
| CN109313016B (zh) | 利用流体分割的口内3d扫描仪 | |
| JP6336271B2 (ja) | 検眼鏡の改良 | |
| CN115052514B (zh) | 图像处理方法、图像处理装置、以及程序 | |
| WO2014096835A1 (en) | Improvements in and relating to ophthalmoscopes | |
| HK40013775A (en) | Oct image processing | |
| JP7301581B2 (ja) | 形状測定装置、放射線治療システム及び形状測定方法 | |
| HK1254982B (zh) | 眼睛成像中的改进以及与眼睛成像相关的改进 | |
| JP2019025185A (ja) | 眼科装置、及びデータ収集方法 | |
| HK1133568B (en) | Improvements in or relating to retinal scanning |