ES2689935T3 - Medición y visualización de frente de onda en línea - Google Patents

Medición y visualización de frente de onda en línea Download PDF

Info

Publication number
ES2689935T3
ES2689935T3 ES04763406.8T ES04763406T ES2689935T3 ES 2689935 T3 ES2689935 T3 ES 2689935T3 ES 04763406 T ES04763406 T ES 04763406T ES 2689935 T3 ES2689935 T3 ES 2689935T3
Authority
ES
Spain
Prior art keywords
image
centroid
algorithm
centroids
wavefront
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES04763406.8T
Other languages
English (en)
Inventor
Hans-Joachim Polland
Gerhard Youssefi
Stefan Seitz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bausch and Lomb Inc
Original Assignee
Bausch and Lomb Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bausch and Lomb Inc filed Critical Bausch and Lomb Inc
Application granted granted Critical
Publication of ES2689935T3 publication Critical patent/ES2689935T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Testing Of Optical Devices Or Fibers (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

Un algoritmo para la detección de centroides en una imagen, que comprende: a) adquirir una imagen de frente de onda de tamaño XxY representada por una intensidad de señal de píxel variable que contiene una pluralidad de manchas; b) comprimir la imagen de frente de onda de tamaño XxY a una imagen de tamaño X/n x Y/m, donde n, m es igual a cualquier número entero y X/n, Y/m son valores enteros; c) determinar una intensidad de fondo para cualquier posición en la imagen comprimida y sustraer este fondo de la imagen comprimida; d) detectar una pluralidad de centroides aproximadamente posicionados en la imagen comprimida sustraída de fondo que comprende: da) determinar un valor de señal máximo en la imagen; db) establecer un valor de umbral como un porcentaje predeterminado del máximo; dc) determinar una posición X, una posición Y, y una intensidad de señal de cada píxel que tiene una intensidad de señal mayor que el valor de umbral; dd) ordenar los valores de la etapa (c) en orden descendente de intensidad de señal; de) asignar la intensidad de señal más alta como primer centroide aproximadamente posicionado; y df) seleccionar una condición preestablecida para definir todos los valores ordenados como centroides aproximadamente posicionados, que obedecen la condición preestablecida, en donde la condición preestablecida es que la posición de cada centroide posicionado aproximadamente posterior está a una distancia más lejana que una distancia preestablecida de todos los centroides aproximadamente ya determinados; e) iterar la etapa (d) hasta que se detecten las posiciones aproximadas de una pluralidad deseada de centroides; f) convertir la posición aproximada de la pluralidad deseada de centroides en posiciones más exactas en la imagen de frente de onda de tamaño XxY, por lo que cada posición del centroide en la imagen ha sido identificada.

Description

5
10
15
20
25
30
35
40
45
50
55
60
65
DESCRIPCION
Medición y visualización de frente de onda en línea Antecedentes de la información Campo de la invención
Las realizaciones de la invención se dirigen generalmente al campo del procesamiento de imágenes y, más particularmente, a métodos y aparatos para la medición simultánea, análisis, y visualización de información de frente de onda ocular referida en el presente documento como aberrometría "en línea".
Descripción de la técnica relacionada
Hay pocas tecnologías que no han sido tocadas por la ciencia del procesamiento de imágenes. Avanzar en el desarrollo en la mayoría de los campos generalmente da lugar a la automatización de procesos donde la capacidad de detectar estructuras de forma rápida y precisa en las imágenes de la cámara se vuelve cada vez más importante. Un área dirigida por las realizaciones de la presente invención son las mediciones de aberración de frente de onda del ojo humano, aunque las técnicas expuestas a continuación en el presente documento encontrarán una aplicación mucho más amplia dirigida a la detección de estructura en imágenes.
El campo de la oftalmología relacionado con la corrección de la visión a través de la cirugía refractiva, o el uso de componentes de lente en o en el ojo, ha experimentado el desarrollo relativamente reciente de aberrómetros. Estos dispositivos permiten a los profesionales explorar el significado de la calidad de la visión y apreciar que no se limita simplemente a la agudeza visual. Los aberrómetros que incorporan sensores de frente de onda pueden proporcionar información acerca de defectos de visión que, después de la corrección, pueden no solo proporcionar agudeza visual en el límite teórico sino también una mejor visión, tal vez incluso visión personalizada, bajo una panoplia de condiciones de visión.
Una de las formas más convencionales y bien desarrolladas de detección de frente de onda ocular se basa en el principio de Hartmann-Shack. Un sensor de frente de onda de tipo Hartman-Shack incluye generalmente una matriz de microlentes que representa diversas porciones de un frente de onda distorsionado que sale del ojo hacia un detector/cámara CCD. La imagen producida por la matriz de microlentes comprende una matriz de pequeños puntos de luz que se desplazan ligeramente desde ubicaciones de referencia de la imagen de puntos de luz desde un frente de onda no aberrado. Los desplazamientos de puntos aberrados están relacionados con las pendientes localizadas del frente de onda que sale de la pupila del ojo. Los polinomios de Zernike (u otras formas matemáticas) se pueden derivar de estos desplazamientos, que luego se usan para caracterizar prácticamente todas las aberraciones del ojo. La capacidad de realizar cálculos de frente de onda precisos depende fundamentalmente de la determinación real de la ubicación central de cada punto en la imagen de frente de onda. Este aspecto del proceso de análisis de frente de onda se conoce como detección de centroide.
Los sensores de frente de onda de tipo Hartmann-Shack, y otros tipos conocidos, tales como Tscherning, por ejemplo, generalmente miden imágenes individuales de centroides o, como mucho, un número muy pequeño de imágenes en un intervalo de tiempo corto. El ojo, no obstante, es un sistema dinámico con cambios de frente de onda rápidamente variables. El tiempo necesario para la detección del centroide ha sido el principal culpable que obstaculiza las mediciones en tiempo real con tasas de repetición superiores a unas pocas imágenes por segundo. Un sistema conocido en la técnica de frente de onda, como WASCA, ha demostrado una tasa de repetición de aproximadamente 7 Hz para el registro de 30 segundos de un frente de onda. No obstante, las imágenes de frente de onda deben primero registrarse, guardarse y, posteriormente, evaluarse. Una imagen de frente de onda individual requiere alrededor de 400 Kb de memoria del ordenador. Asimismo, las mediciones de aberración (por ejemplo, esfera, cilindro/eje, y aberraciones de orden superior) no se pueden visualizar en línea, es decir, sustancialmente de manera simultánea con la medición y el cálculo del frente de onda. Tampoco es posible adquirir y guardar imágenes de pupilas e imágenes de centroides de forma sustancialmente simultánea, por lo que es prácticamente imposible evaluar la influencia del movimiento ocular en los cambios en el frente de onda. "A new centroid detection algorithm for Shack-Hartmann wavefront sensor" por Sung-Hoon Baik y col., PROCEEDINGS OF THE SPIE - THE INTERNATIONAL SOCIETY FOR OPTICAL ENGINEERING SPIE-INT. SOC. OPTAR. ENG USA, vol. 4926, 2002, páginas 251-260, describe un algoritmo de detección de posición de centro de mancha, que "es un algoritmo de centro de peso modificado, que usa cierta potencia de la intensidad de nivel gris de las imágenes de mancha en lugar de la propia intensidad de nivel de gris de las imágenes de mancha". Estas ilustraciones representan algunos de los problemas ejemplares de desarrollo en el campo de la medición de frente de onda ocular abordados por las realizaciones de la presente invención, que se define por las reivindicaciones independientes adjuntas.
Breve descripción de los dibujos
La figura 1 es un diagrama de flujo esquemático de una realización de algoritmo de detección de centroide rápido de la invención;
5
10
15
20
25
30
35
40
45
50
55
60
La figura 2 es una fotografía reproducida de una imagen de frente de onda de tipo Hartmann-Shack (centroide) asociada a una realización de la invención;
La figura 3 es una representación de dibujo de una imagen de frente de onda (centroide) asociada a una realización de la invención;
La figura 4 es un diagrama de flujo esquemático de un algoritmo de ordenación de acuerdo con una realización de la invención;
La figura 5 es otra representación de dibujo de una imagen de frente de onda (centroide) que representa un proceso de algoritmo de acuerdo con una realización de la invención;
La figura 6 es una ilustración esquemática que representa otro proceso de algoritmo de acuerdo con una realización de la invención;
La figura 7 es una ilustración que representa otro proceso de algoritmo de acuerdo con una realización de la invención;
La figura 8 es una fotografía reproducida de parte de una imagen de frente de onda de tipo Hartmann-Shack (centroide) que representa otro proceso de algoritmo de acuerdo con una realización de la invención;
La figura 9 es un diagrama de flujo esquemático dirigido a otra realización de la invención; y La figura 10 es un diagrama de bloques de una realización de aparato de la invención.
Descripción detallada de las realizaciones preferentes de la invención
Una realización de la presente invención se dirige a un algoritmo que proporciona la detección de estructuras brillantes y estructuras oscuras en una imagen CCD. La imagen puede comprender, solo con fines ilustrativos, centroides en una imagen de frente de onda, o marcas identificadas sobre la superficie de una lente de contacto. La figura 3 ilustra una matriz de imágenes de centroides 32 como machas negras en una imagen simulada de frente de onda de tipo Hartmann-Shack.
Una característica de esta realización es que las posiciones de las estructuras tales como los centroides 32 en una imagen CCD, por ejemplo, se puede ubicar y ordenar en aproximadamente 5 ms, Se calcularon los coeficientes de Zernike, y la información de la imagen de frente de onda se mostró en aproximadamente 13 ms o menos (usando un procesador Pentium® (Intel) de 800 MHz o equivalente). Un procesador de 1,6 GHz reduciría el tiempo total en aproximadamente la mitad al aumentar la tasa a aproximadamente 50 Hz. Por lo tanto, el algoritmo describe a lo que se hace referencia a lo largo de esta descripción como análisis "en línea" de información de frente de onda, refiriéndose a la detección, medición, y visualización de información de frente de onda de forma sustancialmente simultánea a una tasa de hasta aproximadamente 25 Hz.
Las realizaciones que se describirán en detalle a continuación se ilustrarán en términos de una medición y análisis de frente de onda de tipo Hartmann-Shack, pero son más ampliamente aplicables a otras metodologías de frente de onda, por ejemplo, las basadas en el principio de Tscherning y otros conocidos en la técnica; no obstante, como se señaló anteriormente, la invención incorporada es aún más generalmente aplicable al procesamiento de imágenes para analizar la estructura en una imagen de tipo CCD.
Un método para la detección de centroides en una imagen de frente de onda de acuerdo con la presente realización se establece en el diagrama de flujo 100 de la figura 1. Se observa desde el principio que, en la realización ilustrada, se adquiere una pluralidad secuencial de imágenes, se analizan, y se visualizan como se desee a una tasa de 25 Hz, pero, en aras de la simplicidad, las etapas de algoritmo establecidos a continuación se aplican a una única imagen de frente de onda y se repiten para cada imagen de frente de onda de la secuencia deseada.
En la figura 1 en la etapa 102, una imagen de frente de onda de tamaño de píxel X x Y, como se muestra, por ejemplo, en la imagen 22 en la figura 2, es adquirido. Las imágenes de mancha de luz se representan mediante intensidades de señal de píxeles variables, como se muestra. Las imágenes tomadas de una cámara CCD por lo general consisten en una matriz de píxeles en la que a cada píxel se le asigna un número proporcional a la cantidad de carga recogida en este píxel. Este número se conoce como la señal del píxel. En la descripción ilustrativa que sigue, una cuadrícula cuadrada regular de puntos brillantes en una imagen oscura se describirá en detalle.
i) Compresión de imagen
Después de adquirir la imagen en la etapa 102, la imagen se comprime desde el tamaño X x Y píxeles hasta X/n x Y/m píxeles en la etapa 104. Esto se puede hacer promediando la señal de cada píxel en un cuadrado de n x m en el inicio de la imagen original, por ejemplo, en la esquina superior izquierda de la imagen y escaneando a través de la imagen. La señal en la esquina superior izquierda de la imagen comprimida se establece entonces en el promedio del primer cuadrado, la señal del siguiente píxel se establece en el promedio del siguiente (segundo) cuadrado, y así sucesivamente, finalmente produciendo una imagen X/n x Y/m píxeles de tamaño. n y m deben ser números enteros con X/n e Y/m también siendo valores de número entero. En una realización ejemplar, n = m = 8.
5
10
15
20
25
30
35
40
45
ii) Sustracción del fondo
En la etapa 106, la imagen comprimida se divide entonces en regiones cuadradas, o baldosas (que no deben confundirse con los cuadrados de píxeles en (i) arriba). En la realización ejemplar, una baldosa es un cuadrado de 64x64 píxeles, pero se pueden usar otros tamaños. Generalmente, una baldosa puede contener 3-5 centroides. La señal promedio se calcula nuevamente para cada baldosa. Los valores promedio para las baldosas se extrapolan linealmente para obtener un valor de fondo para cualquier ubicación en la imagen. Este fondo se sustrae entonces de la imagen produciendo una señal baja fuera de los centroides. En la realización ilustrativa, una relación de señal a ruido de dos se mejoró a una relación de señal a ruido de 10 por la sustracción de fondo.
iii) Detección de estructura irregular
En la etapa 108, se identifican los puntos de estructura (centroides) aproximados o irregulares. En primer lugar, un máximo se define como la señal más alta en la imagen comprimida. El máximo se determina mediante un escaneo a través de la imagen y la posición X, La posición Y, y el valor de la señal de cada píxel se registran en una tabla, pero solo si el valor de la señal de este punto es mayor que un cierto porcentaje del máximo, por ejemplo, 30 % (otros valores pueden seleccionarse por el usuario). En la realización ejemplar, esto produce una tabla (Tabla I) de aproximadamente 400 entradas. La tabla está ordenada por señal descendente como se muestra. Cualquiera de una variedad de rutinas de ordenación rápida está disponible para lograr esto.
TABLA I
Señal
Posición X Posición Y
223
86 55
154
85 75
135
87 95
133
115 56
110
118 74
108
114 93
La primera entrada (valor de señal más alto) se define como el primer punto de estructura irregular. Entonces, todas las entradas en la tabla que obedecen una determinada condición preestablecida se definen como puntos de estructura irregulares. En la realización ejemplar, la condición preestablecida es que la posición de la entrada particular está más alejada de todos los puntos de estructura irregular ya encontrados que una distancia preestablecida. En una realización ejemplar, la distancia es de 17 píxeles. Después de esta primera iteración, se crea una tabla de puntos de estructura irregular que incluye aproximadamente el 95 % de todos los puntos a detectar.
iv) Refinar la detección de la estructura
Para aumentar el nivel de confianza que se encuentran todos los puntos de la estructura, la etapa 108 puede repetirse como se muestra en el bloque 110, estableciendo un nuevo mínimo a un cierto porcentaje del mínimo en la primera iteración. La segunda iteración encuentra puntos que eran demasiado débiles en la señal como para ser encontrados en la primera iteración. Los puntos de estructura irregular encontrados en la primera iteración se tienen en cuenta para que no se vuelvan a encontrar (es decir, no obedecen la condición de estar más lejos que una distancia preestablecida de los puntos detectados).
v) Detección de estructura definitiva
En la etapa 112, se determinan las últimas posiciones de centroide. Como la imagen se comprimió anteriormente en la etapa 104, mucha de la información originalmente contenida en la imagen fue ignorada. Esta información ahora se puede usar para determinar posiciones de centroides más exactas. Usando la imagen original sin comprimir, un cuadrado de, por ejemplo, 15x15 píxeles se crea alrededor de cada punto irregular. En general, cada cuadrado es más pequeño que 2x la distancia mínima para asegurar que cada cuadrado contiene solo un centroide y es más grande que el propio centroide. En la realización ejemplar, este valor está entre cinco y 30 píxeles. Entonces, se determina el centro de masa de la señal para la distribución de la señal dentro del cuadrado, dando lugar a la posición sustancialmente exacta del centroide.
5
10
15
20
25
30
35
40
45
50
55
60
65
En un aspecto de la realización, la etapa 112 se puede repetir, por ejemplo, 1, 2, 3... n veces para determinar resultados aún más exactos. El centro de masa calculado en la etapa anterior se usa posteriormente. A cada punto de la estructura también se le puede asignar un factor de calidad dependiendo de cuánto cambie la posición del centro de masa si el cuadrado alrededor del píxel se desplaza voluntariamente en una distancia del conjunto de usuarios, en la etapa 112. En una realización ejemplar, esta distancia es de cinco píxeles. A los puntos cuyas posiciones han cambiado menos se les asignan los factores de mayor calidad. De este modo, los puntos espurios o el ruido asignado a un factor de baja calidad se pueden eliminar, ya que probablemente representan puntos de estructura falsos.
En la realización ilustrativa dirigida a la detección de frente de onda de tipo Hartmann-Shack, es deseable poder correlacionar los centroides con la lente de formación de imágenes correspondiente de la matriz de microlentes. De este modo, un aspecto 200 de la realización como se ilustra en la figura 4 se dirige al proceso de ordenación de los centroides detectados para asignarlos a un patrón de cuadrícula cuadrada regular. Los expertos en la materia apreciarán que el algoritmo puede adaptarse fácilmente a otras estructuras o configuraciones tales como, por ejemplo, puntos en anillos, o cualquier línea recta de puntos.
En la etapa 202, se selecciona la configuración de ordenación deseada. En la realización ejemplar, la configuración es una cuadrícula cuadrada basada en la geometría de la matriz de microlentes. Por cada punto centroide encontrado previamente, i, la fórmula para una línea recta se calcula con el punto centroide, i, y teniendo una pendiente de 1 (45°), como se muestra en la etapa 204. Para las posiciones de inicio de la esquina izquierda superior o la esquina derecha inferior de la imagen, se pueden usar valores de pendiente entre 0,1 a 0,9. Asimismo, cuando la posición inicial es la esquina derecha superior o la esquina izquierda inferior de la imagen, se pueden seleccionar valores de pendiente de -0,1 a -0,9. En la etapa 206, la distancia 502 (ni), entre la línea 514 y, en la realización ilustrativa, la esquina izquierda superior 506 de la imagen 510 se calcula, como se ilustra en la figura 5. Todos los centroides, i, a continuación, se ordenan por ni en la etapa 208 comenzando con el centroide que tiene el menor valor ni. En la etapa 210, el centroide con el menor valor ni se asigna a la Fila 1 y se almacena en la memoria como el último centroide de la Fila 1. En un aspecto de la realización, los últimos centroides de las filas existentes se almacenan en la memoria durante la etapa 210. En la etapa 212, una región 610 se define que, en una realización ejemplar, comprende un área a la derecha del último centroide 605 de una fila dada, teniendo dimensiones que pueden ser controladas y variadas por parámetros de la matriz de lentes, y teniendo una forma que es adecuada para detectar la configuración de la cuadrícula seleccionada, como se ilustra en la figura 6, que muestra el área de búsqueda 610 para el siguiente centroide. Cualquier forma adecuada para detectar otras configuraciones de cuadrícula es alternativamente posible. Los ejemplos de los parámetros de la matriz de lentes incluyen ángulo máximo 702, distancia mínima 704, distancia máxima 1 (706), y distancia máxima 2 (708), como se ilustra en la figura 7. Entonces, en la etapa 214, se selecciona el siguiente valor más alto de ni y se comprueba ese centroide, con respecto a todas las filas existentes, si el centroide está en la región definida. En caso afirmativo, entonces, en la etapa 216, ese centroide se asigna como el último centroide de esa fila. Si no, ese centroide se asigna como el último centroide de una nueva fila. Las etapas 214-216 ahora se repiten para todos los centroides. De este modo, las filas comienzan a acumularse de izquierda a derecha. En la etapa 220, la posición y promedio de cada fila se calcula y las filas se ordenan de acuerdo con su posición y promedio. Esta etapa facilita el marcado de la fila superior como Fila 1, la siguiente fila como Fila 2, y así sucesivamente.
Antes de describir las etapas para ordenar las columnas, es beneficioso señalar que la situación puede tener lugar como se ilustra por los puntos vistos débilmente que se encuentran a lo largo de las líneas 802, 804 como se muestra en la figura 8; es decir, algunos centroides 812, 814 en el medio de una fila no se han detectado debido a la mala calidad de los puntos de centroide, y los centroides de la izquierda y la derecha se han asignado a filas diferentes. En este caso, la etapa opcional 222 implica fusionar estas filas. Esto se logra mediante las siguientes subetapas: Desde la posición y promedio media de cada fila desde la etapa 214, calcular la distancia media entre las filas sustrayendo yfila1-yfila2 (produciendo la distancia entre Fila1 y Fila2); yfila2-yfila3 (produciendo la distancia entre Fila2 y Fila3); y así sucesivamente, y luego tomar los valores medios de las distancias obtenidas. En la realización ejemplar, el criterio para fusionar las filas j y k es: Si yryk < f*a y (Primero > Pj,último o Pk,último < Pj,primero), donde:
f es un parámetro variable en el intervalo entre aproximadamente 0,1-0,7, eso es establecido por el usuario. En la
realización ejemplar, se usan valores entre 0,3 a 0,5;
a es la distancia media entre filas (ver arriba);
Pk,primero, es el valor x del primer centroide (más a la izquierda) de la fila k; y
Pk,último, es el valor x del último centroide (más a la derecha) de la fila k.
En otras palabras, las filas se fusionan si están mucho más cerca en la posición y que las típicas y si no se superponen, es decir, la fila j está completamente a la izquierda o completamente a la derecha de la fila k.
El proceso para ordenar las columnas comienza en la etapa 224 donde la lista de centroides ordenados por valor de distancia de la etapa 208 se usa de nuevo. El centroide con la menor ni se asigna a la Columna 1 y se almacena en la memoria como el último centroide de la Columna 1. En un aspecto ejemplar, los últimos centroides de una columna existente siempre se almacenan en la memoria durante la etapa 224. En la etapa 226, una región se define
5
10
15
20
25
30
35
40
45
50
55
60
que, en la realización ejemplar, comprende un área debajo del último centroide de una columna dada que tiene dimensiones y forma que son controladas y variadas por los mismos parámetros de la matriz de lentes como se estableció anteriormente. Esto se ilustra inclinando el diagrama de la figura 6 hacia abajo 90 grados. En la etapa 228, se selecciona el siguiente valor más alto de ni y se comprueba ese centroide, con respecto a todas las columnas existentes, si el centroide está en la región definida. En caso afirmativo, entonces, en la etapa 230, ese centroide se asigna como el último centroide de esa columna. Si no, ese centroide se asigna como el último centroide de una nueva columna. Las etapas 228-230 ahora se repiten para todos los centroides. De este modo, las columnas comienzan a acumularse de arriba a abajo. En la etapa 234, la posición y promedio de cada columna se calcula y las columnas se ordenan de acuerdo con su posición x promedio. Esta etapa facilita el marcado de la columna más a la izquierda como Columna 1, la siguiente columna como Columna 2, y así sucesivamente.
La situación puede tener lugar, como se mencionó anteriormente con referencia a la figura 8, donde algunos centroides en el medio de una columna no se han detectado debido a la mala calidad de los puntos de centroide y, por lo tanto, los centroides superiores e inferiores se han asignado a columnas diferentes. En este caso, la etapa opcional 236 implica fusionar estas columnas. Esto se logra mediante las siguientes subetapas: A partir de la posición x promedio media para cada columna desde la etapa 228, calcular la distancia media entre las columnas sustrayendo xcolumnai-xcolumna2 (proporcionando la distancia entre Columna1 y Columna2); xcolumna2-xcolumna3 (proporcionado la distancia entre Columna2 y Columna3); y así sucesivamente, y luego tomar los valores medios de las distancias obtenidas. En la realización ejemplar, el criterio para fusionar las columnas j y k es:
Si xj-xk < fa y (Pk,primero > Pj,último o Pk,último < F^último^
donde:
f es un parámetro variable en el intervalo entre aproximadamente 0,1-0,7, eso es establecido por el usuario. En la realización ejemplar, se usan valores entre 0,3 a 0,5, a es la distancia media entre columnas;
Pk,primero es el valor y del primer centroide (el más alto) de la columna k; y Pk,último es el valor y del último centroide (más abajo) de la columna k.
En otras palabras, las columnas se fusionan si están mucho más cerca en la posición x que las típicas y si no se superponen; es decir, la columna j está completamente encima o completamente debajo de la columna k.
Desde las posiciones del centroide ordenado, se puede hacer un cálculo de Zernike para determinar la aberración del frente de onda. De acuerdo con la realización ilustrada, los procesos para adquirir una sola imagen y visualizar la información de aberración del frente de onda, usando un procesador Pentium a 800 MHz, se enumeran a continuación con sus tiempos de procesamiento correspondientes:

Encontrar y ordenar los centroides: ~ 5 ms;

Realizar los cálculos de Zernike: ~ 5 ms;

Operaciones de formación de imagen: ~ 8 ms;

Visualización de imagen: ~ 8 ms
Ubicación de coordenadas de pupila (opcional): ~ 6-8 ms;
Posición de la lente de contacto (opcional): ~ 5 ms
En un aspecto ilustrativo de la realización, el proceso de cálculo de Zernike se realiza dos veces durante un ciclo de medición, una vez para los términos de segundo orden y una vez para los términos de orden superior. El tiempo total por imagen es de aproximadamente 40 ms o ligeramente menor a una tasa de repetición de 25 Hz. Por el contrario, el análisis de frente de onda convencional en tiempo real (en lugar de en línea) consiste en almacenar una secuencia de imágenes y, posteriormente, analizar las imágenes para obtener información de frente de onda. Estas técnicas están limitadas por los requisitos de almacenamiento del ordenador. Por ejemplo, almacenar dos imágenes a 25 Hz durante 30 segundos requiere aproximadamente 400 MB/medición. Por otra parte, de acuerdo con la realización ilustrativa, el almacenamiento de imágenes no es necesario porque la información contenida en esas imágenes ya se ha extraído al detectar el centroide y la posición de la pupila. El almacenamiento de datos de posición de centroide y pupila solo da como resultado requisitos de almacenamiento de datos de solo 700 Kb de memoria para una medición de 20 segundos a 25 Hz, que producirá 500 imágenes.
Otra realización de la invención está dirigida a un medio legible por dispositivo que tiene almacenada en él una instrucción ejecutable para llevar a cabo el algoritmo descrito anteriormente. Los medios apropiados son bien conocidos e incluyen, sin límites, CD, DVD, disquete, disco duro, onda portadora, y otros.
Otra realización de la invención se dirige a un método para el análisis de frente de onda. El método se establece en el diagrama de bloques de la figura 9. El método comprende en la etapa 902 la adquisición de una pluralidad de imágenes de frente de onda de la luz que sale de la pupila de un ojo, donde cada una de las imágenes incluye un centroide desplazado que es indicativo de la información de medición del frente de onda del ojo, y en la etapa 904 que calcula y muestra la información de medición del frente de onda en línea para un orden de aberración seleccionado. Como se usó aquí anteriormente y a lo largo de la descripción, el término "en línea" se refiere a la medición sustancialmente simultánea, análisis y visualización de la información de medición del frente de onda. El algoritmo rápido ejemplar descrito en la realización anterior no es más que una forma de facilitar un proceso en
5
10
15
20
25
30
35
40
45
línea. Las personas expertas en la materia apreciarán que otros algoritmos pueden desarrollarse, o están actualmente disponibles, que también facilitarán la técnica en línea.
En un aspecto de esta realización, las imágenes se adquieren a una tasa igual o superior a 10 Hz. En un aspecto ejemplar, las imágenes se obtienen a una tasa de 25 Hz; no obstante, la velocidad del procesador del ordenador es el factor limitante en la tasa de adquisición de imágenes. En otro aspecto, se adquieren al menos 50 imágenes secuenciales. En otro aspecto, la etapa 906 de cálculo y visualización de la información de medición de frente de onda en línea para una orden de aberración seleccionado se realiza para un diámetro de pupila seleccionado. Es decir, si el valor del diámetro de una pupila no se selecciona antes de la medición, la visualización se limitará a aberraciones de segundo orden (esfera o equivalente esférico, y cilindro/eje) porque las aberraciones de segundo orden son independientes del diámetro de pupila. No obstante, se puede querer asegurar que la información del frente de onda resultante se interprete para un diámetro de pupila sustancialmente constante, o una variación controlada en el diámetro de pupila. Por otra parte, se puede seleccionar un valor de diámetro de la pupila antes de la medición, lo que permite cualquier orden de Zernike (por ejemplo, coma, aberración esférica, órdenes superiores) para que ese diámetro dado se muestre en línea. Un intervalo ejemplar de diámetros de pupila está entre aproximadamente 2 mm a 10 mm.
En una realización ejemplar, a una tasa de repetición de 25 Hz, Se pueden obtener 500 imágenes (y, por lo tanto, se pueden hacer 500 mediciones) en un intervalo de tiempo de 20 segundos. Las primeras 125 imágenes se pueden obtener para el diámetro de pupila, D < Dmín; las siguientes 250 imágenes para Dmín < D < Dmáx; y las 125 imágenes restantes para Dm¿x < D. Usando el conjunto de 250 imágenes, Las amplitudes de Zernike para Z2xx a Zi0xx pueden calcularse como se establece en la etapa 908. Si se desea, en la etapa 910, se puede calcular y visualizar en línea el valor promedio de una orden de Zernike seleccionada. Si se ha calculado un valor promedio, se pueden usar técnicas estadísticas bien conocidas para determinar una desviación estándar en la etapa 912 que proporciona una banda de error para la medición de frente de onda promedio. En un aspecto de esta realización, se pueden determinar periodos de parpadeo que contienen información de frente de onda anómala, y se descarta la información durante estos períodos de parpadeo. Asimismo, si se midiera la posición de la lente de contacto, por ejemplo, sería ventajoso eliminar las mediciones durante los períodos de parpadeo, ya que el asentamiento de la lente tarda un corto tiempo en producirse. Conocer el valor de la amplitud de frente de onda que se produce con mayor frecuencia para un orden de aberración particular basado en el diámetro de pupila le permitirá al médico recetar un tratamiento o una corrección de la vista que resulte en una visión óptima para el paciente.
En un aspecto relacionado de acuerdo con esta realización, en la etapa 914 también se puede obtener una secuencia de imágenes de pupila correspondientes a las imágenes de frente de onda. Estas imágenes se pueden guardar simultáneamente para que se pueda evaluar la influencia del movimiento ocular en los cambios en el frente de onda.
Otra realización de la invención está dirigida a un aparato de medición de frente de onda 1000 ilustrado por el diagrama de bloques en la figura 10. El aparato incluye un componente de iluminación 1010 que proporciona una pequeña mancha de luz sobre la retina del ojo 1020, un componente de formación de imagen 1030 que forma una imagen de centroide de la luz de iluminación dispersada desde la retina y saliendo de la pupila del ojo, un detector 1040 adaptado para adquirir la imagen de centroide, un procesador 1050 que trabaja en cooperación con el detector que ejecuta un cálculo de desplazamiento de centroide para determinar la información de medición de frente de onda, un componente de visualización 1060 conectado operativamente al procesador que visualiza una información de medición de frente de onda seleccionada, y medios 1070 para instruir un cálculo en línea y visualización de la información de medición de frente de onda seleccionada. También se visualiza una cámara de pupila opcional 1080 y un pupilómetro 1090, donde los componentes 1015 son divisores de haz o equivalentes ópticos de los mismos.

Claims (34)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
    REIVINDICACIONES
    1. Un algoritmo para la detección de centroides en una imagen, que comprende:
    a) adquirir una imagen de frente de onda de tamaño XxY representada por una intensidad de señal de píxel variable que contiene una pluralidad de manchas;
    b) comprimir la imagen de frente de onda de tamaño XxY a una imagen de tamaño X/n x Y/m, donde n, m es igual a cualquier número entero y X/n, Y/m son valores enteros;
    c) determinar una intensidad de fondo para cualquier posición en la imagen comprimida y sustraer este fondo de la imagen comprimida;
    d) detectar una pluralidad de centroides aproximadamente posicionados en la imagen comprimida sustraída de fondo que comprende:
    da) determinar un valor de señal máximo en la imagen;
    db) establecer un valor de umbral como un porcentaje predeterminado del máximo;
    dc) determinar una posición X, una posición Y, y una intensidad de señal de cada píxel que tiene una intensidad de señal mayor que el valor de umbral;
    dd) ordenar los valores de la etapa (c) en orden descendente de intensidad de señal;
    de) asignar la intensidad de señal más alta como primer centroide aproximadamente posicionado; y
    df) seleccionar una condición preestablecida para definir todos los valores ordenados como centroides aproximadamente posicionados, que obedecen la condición preestablecida,
    en donde la condición preestablecida es que la posición de cada centroide posicionado aproximadamente posterior está a una distancia más lejana que una distancia preestablecida de todos los centroides aproximadamente ya determinados;
    e) iterar la etapa (d) hasta que se detecten las posiciones aproximadas de una pluralidad deseada de centroides;
    f) convertir la posición aproximada de la pluralidad deseada de centroides en posiciones más exactas en la imagen de frente de onda de tamaño XxY,
    por lo que cada posición del centroide en la imagen ha sido identificada.
  2. 2. El algoritmo de la reivindicación 1, que comprende:
    g) iterar la etapa (f) hasta que se determine un nivel deseado de posiciones más exactas.
  3. 3. El algoritmo de la reivindicación 2, que comprende, además:
    asignar un factor de calidad a cada centroide en relación con una magnitud de cambio posicional para cada centroide en cada iteración de la etapa (g).
  4. 4. El algoritmo de cualquiera de las reivindicaciones 1 a 3, que comprende:
    ordenar los centroides determinados a partir de la etapa (f) de acuerdo con una configuración predeterminada.
  5. 5. El algoritmo de la reivindicación 4, en donde la configuración es una cuadrícula geométrica.
  6. 6. El algoritmo de la reivindicación 5, que comprende una cuadrícula rectangular.
  7. 7. El algoritmo de la reivindicación 4, en donde la configuración es un anillo.
  8. 8. El algoritmo de la reivindicación 4, en donde la configuración es una línea recta.
  9. 9. El algoritmo de la reivindicación 4, que comprende:
    asociar cada centroide determinado a un elemento de formación de imagen de centroide respectivo.
  10. 10. El algoritmo de cualquiera de las reivindicaciones 1 a 9, en donde comprimir la imagen de frente de onda de tamaño XxY a una imagen de tamaño X/n x Y/m comprende:
    a) promediar la señal para cada píxel en un cuadrado n x m comenzando en una primera región predeterminada de la imagen original y escanear a través de la imagen, establecer un nivel de señal en una primera región predeterminada correspondiente de la imagen comprimida al valor promedio de la primera región predeterminada;
    b) repetir la etapa (a) para una segunda y posteriores regiones predeterminadas hasta que se obtenga el tamaño de imagen X/n x Y/m.
  11. 11. El algoritmo de la reivindicación 10, en donde n = m = 8.
  12. 12. El algoritmo de la reivindicación 10 u 11, en donde la primera región predeterminada es la esquina izquierda superior de la imagen.
    5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
  13. 13. El algoritmo de cualquiera de las reivindicaciones 1 a 12, en donde la etapa (c) comprende:
    dividir la imagen comprimida en una pluralidad de segmentos de imagen, cada uno de los cuales contiene una pluralidad de centroides, determinar un valor de señal promedio para cada segmento de imagen y extrapolar los valores promedio para cada segmento de imagen para determinar el nivel de intensidad de fondo.
  14. 14. El algoritmo de la reivindicación 13, en donde los segmentos de imagen son cuadrados.
  15. 15. El algoritmo de la reivindicación 13, en donde cada segmento de imagen contiene aproximadamente de 3 a 5 centroides.
  16. 16. El algoritmo de cualquiera de las reivindicaciones 1 a 15, que comprende, además, establecer un nuevo valor de umbral a un porcentaje predeterminado de un valor mínimo de las intensidades de señal ordenadas y la iteración de etapas (c-f), en donde los centroides posicionados aproximadamente ya identificados no se identifican de nuevo.
  17. 17. El algoritmo de cualquiera de las reivindicaciones 1 a 16, en donde la etapa (f) comprende:
    definir una estructura de límite alrededor de cada posición aproximada de la pluralidad deseada de centroides en la imagen original; y
    determinar un centro de masa de la señal para la distribución de la señal dentro del límite.
  18. 18. El algoritmo de la reivindicación 6, que comprende:
    a) calcular una fórmula de línea recta para cada centroide ordenado, i, que contiene el punto de centroide, i, y que tiene una pendiente entre los valores de aproximadamente <-0,1 o >0,1;
    b) calcular una distancia, ni, entre la línea y una posición de referencia en la imagen;
    c) ordenar todos los centroides, in, por ni comenzando con el valor ni más pequeño;
    d) asignar el centroide con el ni menor a una primera fila y almacenar este centroide como un último centroide en la primera fila;
    e) definir una región como un área a la derecha de un último centroide de una fila dada que tiene dimensiones que son variablemente controlables por un parámetro de componente de formación de imagen y una forma adecuada para la detección de una estructura de cuadrícula seleccionada;
    f) obtener el siguiente valor ni y determinar, para todas las filas existentes, si el centroide está dentro de la región;
    g) asignar el centroide como el último centroide en la fila dada si el centroide está dentro de la región o, asignar el centroide como el último centroide en una nueva fila si el centroide está fuera de la región;
    h) repetir las etapas (f-g) para todos los centroides;
    i) calcular una posición y promedio para cada fila y ordenar las filas de acuerdo con las posiciones y promedio para identificar una fila superior, Fila 1, una siguiente fila, Fila 2, y así sucesivamente hasta la Fila n;
    j) asignar el centroide con el ni menor a una primera columna y almacenar este centroide como último centroide en la primera columna;
    k) definir una región como un área por debajo del último centroide de una columna dada que tiene dimensiones que son variablemente controlables por el parámetro de componente de formación de imagen y una forma adecuada para la detección de la estructura de cuadrícula seleccionada;
    l) obtener el siguiente valor ni y determinar, para todas las columnas existentes, si el centroide está dentro de la región;
    m) asignar el centroide como el último centroide en la columna dada si el centroide está dentro de la región o, asignar el centroide como el último centroide en una nueva columna si el centroide está fuera de la región;
    n) repetir las etapas (l-m) para todos los centroides; y
    o) calcular una posición x promedio para cada columna y ordenar las columnas de acuerdo con las posiciones x promedio para identificar una primera columna, Columna 1, una siguiente columna, Columna 2, y así sucesivamente hasta la Columna n.
  19. 19. El algoritmo de la reivindicación 18 en donde la posición de referencia es una esquina izquierda superior de la imagen.
  20. 20. Un medio legible por dispositivo que tiene almacenada en él una instrucción ejecutable en forma del algoritmo de cualquiera de las reivindicaciones 1 a 19.
  21. 21. Un método para el análisis de frente de onda, que comprende:
    a) adquirir una pluralidad de imágenes de frente de onda de luz que salen de una pupila de un ojo, en donde cada una de las imágenes forma una imagen de centroide que es indicativa de información de medición de frente de onda del ojo; y
    b) calcular la información de medición de frente de onda utilizando el algoritmo de cualquiera de las reivindicaciones 1 a 19 y visualizar la información de medición de frente de onda en línea para un orden de aberración seleccionado.
    5
    10
    15
    20
    25
    30
    35
    40
    45
    50
  22. 22. El método de la reivindicación 21, que comprende adquirir las imágenes a una tasa igual o superior a 10 Hz.
  23. 23. El método de la reivindicación 21 o 22, que comprende adquirir al menos 50 imágenes secuenciales.
  24. 24. El método de cualquiera de las reivindicaciones 21 a 23, que comprende, además, determinar un valor promedio y una desviación estándar correspondiente para la información de medición de frente de onda de orden de aberración seleccionada.
  25. 25. El método de cualquiera de las reivindicaciones 21 a 24, en donde la etapa (b) se realiza para un diámetro de pupila seleccionado.
  26. 26. El método de cualquiera de las reivindicaciones 21 a 25, que comprende visualizar el valor promedio para la información de medición de frente de onda para un diámetro de pupila seleccionado.
  27. 27. El método de cualquiera de las reivindicaciones 21 a 26, en donde la información de medición de frente de onda es un valor de refracción manifiesto.
  28. 28. El método de la reivindicación 27, que comprende visualizar el valor de refracción manifiesto en línea.
  29. 29. El método de cualquiera de las reivindicaciones 21 a 28, en donde la información de medición del frente de onda se selecciona para que se corresponda con una de las segundas a décimas órdenes de aberración de Zernike o sus equivalentes ópticos.
  30. 30. El método de cualquiera de las reivindicaciones 21 a 29, que comprende adquirir una imagen de pupila correspondiente del ojo para cada imagen de frente de onda;
    determinar al menos uno de los datos de posición, datos de tamaño, datos de forma y datos de caracterización geométrica de la pupila en cada imagen de pupila; y
    visualizar al menos una de las imágenes de pupila y los datos de imagen de pupila correspondientes en línea.
  31. 31. El método de la reivindicación 30, que comprende visualizar una aberración de frente de onda seleccionada en línea, seleccionada de un grupo que comprende las segundas a décimas órdenes de aberración de Zernike o sus equivalentes ópticos.
  32. 32. El método de la reivindicación 30 o 31, que comprende guardar una imagen de pupila y una imagen de frente de onda temporalmente correspondiente de manera simultánea.
  33. 33. El método de la reivindicación 25, en donde el diámetro de pupila seleccionado está en un intervalo entre aproximadamente 2 mm a 10 mm.
  34. 34. Un aparato de medición de frente de onda, que comprende:
    un componente de iluminación adaptado para suministrar una pequeña mancha de luz sobre una retina; un componente de formación de imagen que puede formar una imagen de centroide de luz de iluminación dispersada desde la retina y saliendo de una pupila de un ojo; un detector adaptado para adquirir la imagen de centroide;
    un procesador en conexión operativa con el detector que puede ejecutar un cálculo de desplazamiento de centroide para determinar información de medición de frente de onda utilizando el algoritmo de cualquiera de las reivindicaciones 1 a 19;
    un componente de visualización en conexión operativa con el procesador que puede visualizar una información de medición de frente de onda seleccionada; y
    medios para instruir un cálculo en línea y visualización de la información de medición de frente de onda seleccionada.
ES04763406.8T 2003-07-24 2004-07-22 Medición y visualización de frente de onda en línea Expired - Lifetime ES2689935T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10333813 2003-07-24
DE10333813A DE10333813A1 (de) 2003-07-24 2003-07-24 Online-Wellenfrontmessung und Anzeige
PCT/EP2004/008205 WO2005015495A2 (en) 2003-07-24 2004-07-22 Online wavefront measurement and display

Publications (1)

Publication Number Publication Date
ES2689935T3 true ES2689935T3 (es) 2018-11-16

Family

ID=34071891

Family Applications (1)

Application Number Title Priority Date Filing Date
ES04763406.8T Expired - Lifetime ES2689935T3 (es) 2003-07-24 2004-07-22 Medición y visualización de frente de onda en línea

Country Status (11)

Country Link
US (1) US7708411B2 (es)
EP (1) EP1658587B1 (es)
JP (1) JP2006528499A (es)
KR (1) KR20060080578A (es)
CN (1) CN1856803A (es)
AU (1) AU2004263957B2 (es)
CA (1) CA2539944A1 (es)
DE (1) DE10333813A1 (es)
ES (1) ES2689935T3 (es)
SG (1) SG145707A1 (es)
WO (1) WO2005015495A2 (es)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10333794A1 (de) 2003-07-24 2005-03-03 Technovision Gmbh Verfahren und Vorrichtung zur Online-Kontaktlinsenbewertung
WO2008131321A1 (en) * 2007-04-20 2008-10-30 Alcon Refractivehorizons, Inc. Adaptive wavefront modulation system and method for refractive laser surgery
CN101055223B (zh) * 2007-04-26 2010-12-08 中国科学院光电技术研究所 哈特曼波前传感器质心测量精度优化方法
US8740381B2 (en) * 2007-06-27 2014-06-03 Bausch & Lomb Incorporated Method and apparatus for extrapolating diagnostic data
DE102008014294A1 (de) * 2008-03-14 2009-09-17 Bausch & Lomb Inc. Schneller Algorithmus für Wellenfrontdatenstrom
US8254724B2 (en) * 2008-11-06 2012-08-28 Bausch & Lomb Incorporated Method and apparatus for making and processing aberration measurements
US9504376B2 (en) 2009-12-22 2016-11-29 Amo Wavefront Sciences, Llc Optical diagnosis using measurement sequence
CN104103078A (zh) * 2014-07-31 2014-10-15 中国航天科工集团第三研究院第八三五七研究所 一种螺旋对称中心检测方法
CN104955148B (zh) * 2014-12-09 2019-03-19 文春明 一种利用电磁波对称传播特性的无线传感网络定位方法
US9782064B1 (en) 2016-04-08 2017-10-10 Clarity Medical Systems, Inc. Obtaining and displaying histogram and/or confidence of intra-operative refraction and/or IOL power recommendation
CN106530278B (zh) * 2016-10-14 2020-01-07 中国科学院光电技术研究所 用于点源哈特曼波前探测器的点光斑检测与背景噪声特征估计方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4222395A1 (de) 1992-07-08 1994-01-13 Amtech Ges Fuer Angewandte Mic Vorrichtung und Verfahren zur Messung der Augenrefraktion
US5777719A (en) * 1996-12-23 1998-07-07 University Of Rochester Method and apparatus for improving vision and the resolution of retinal images
FR2788597B1 (fr) 1999-01-15 2001-02-23 Imagine Optic Sarl Procede et dispositif d'analyse de front d'onde a grande dynamique
US6234631B1 (en) * 2000-03-09 2001-05-22 Lasersight Technologies, Inc. Combination advanced corneal topography/wave front aberration measurement
DE10154194A1 (de) 2001-11-07 2003-05-22 Asclepion Meditec Ag Verfahren und Vorrichtung zur Messung des Dynamischen Verhaltens eines optischen Systems

Also Published As

Publication number Publication date
SG145707A1 (en) 2008-09-29
EP1658587A2 (en) 2006-05-24
US20070008491A1 (en) 2007-01-11
CN1856803A (zh) 2006-11-01
AU2004263957B2 (en) 2010-05-13
JP2006528499A (ja) 2006-12-21
DE10333813A1 (de) 2005-02-17
AU2004263957A1 (en) 2005-02-17
WO2005015495A2 (en) 2005-02-17
KR20060080578A (ko) 2006-07-10
WO2005015495A3 (en) 2005-12-22
US7708411B2 (en) 2010-05-04
CA2539944A1 (en) 2005-02-17
EP1658587B1 (en) 2018-09-19

Similar Documents

Publication Publication Date Title
CA2533068C (en) Method and apparatus for online contact lens evaluation
Belin et al. The PAR technology corneal topography system
US5159361A (en) Method and apparatus for obtaining the topography of an object
US7284858B2 (en) Method for determining distances in the anterior ocular segment
US6905210B2 (en) Methods and systems for measuring local scattering and aberration properties of optical media
CA3017003C (en) Method of qualifying light spots for optical measurements and measurement instrument employing method of qualifying light spots
ES2689935T3 (es) Medición y visualización de frente de onda en línea
JPH01166740A (ja) 輪郭測定方法とその装置
AU2012268101B2 (en) Method of locating valid light spots for optical measurement and optical measurement instrument employing method of locating valid light spots
Nicholson et al. Quantifying retinal area in ultra-widefield imaging using a 3-dimensional printed eye model
CN113012112B (zh) 一种血栓检测的评估系统
Neal et al. Effect of lenslet resolution on the accuracy of ocular wavefront measurements
JP2022548110A (ja) 涙液膜の安定性を評価するための方法
Tavazzi et al. Corneal Pachymetry and Endothelial Microscopy by Slit-Lamp
JP2022548111A (ja) 涙液層破壊を検出するための装置および方法