ES2886136T3 - Sistema para la medición del error de refracción de un ojo basado en la medición subjetiva de distancias - Google Patents
Sistema para la medición del error de refracción de un ojo basado en la medición subjetiva de distancias Download PDFInfo
- Publication number
- ES2886136T3 ES2886136T3 ES14808041T ES14808041T ES2886136T3 ES 2886136 T3 ES2886136 T3 ES 2886136T3 ES 14808041 T ES14808041 T ES 14808041T ES 14808041 T ES14808041 T ES 14808041T ES 2886136 T3 ES2886136 T3 ES 2886136T3
- Authority
- ES
- Spain
- Prior art keywords
- subject
- image
- target image
- target
- mdba
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 208000014733 refractive error Diseases 0.000 title claims abstract description 55
- 238000005259 measurement Methods 0.000 title description 37
- 230000000007 visual effect Effects 0.000 claims abstract description 7
- IWEDIXLBFLAXBO-UHFFFAOYSA-N dicamba Chemical compound COC1=C(Cl)C=CC(Cl)=C1C(O)=O IWEDIXLBFLAXBO-UHFFFAOYSA-N 0.000 claims abstract 19
- 238000000034 method Methods 0.000 claims description 97
- 201000009310 astigmatism Diseases 0.000 claims description 79
- 238000012360 testing method Methods 0.000 claims description 57
- 230000008859 change Effects 0.000 claims description 18
- 238000012937 correction Methods 0.000 claims description 10
- 208000001491 myopia Diseases 0.000 claims description 9
- 230000004379 myopia Effects 0.000 claims description 9
- 238000010200 validation analysis Methods 0.000 claims description 7
- 230000001815 facial effect Effects 0.000 claims description 6
- 230000004305 hyperopia Effects 0.000 claims description 6
- 201000006318 hyperopia Diseases 0.000 claims description 6
- 230000000737 periodic effect Effects 0.000 claims description 5
- 206010020675 Hypermetropia Diseases 0.000 claims description 4
- 201000010041 presbyopia Diseases 0.000 claims description 3
- 238000002156 mixing Methods 0.000 description 14
- 230000004304 visual acuity Effects 0.000 description 12
- 230000001133 acceleration Effects 0.000 description 10
- 241000526960 Amaranthus acanthochiton Species 0.000 description 8
- 230000004075 alteration Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 8
- 239000003086 colorant Substances 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 210000001525 retina Anatomy 0.000 description 7
- WQJBDEHULKUMKX-UHFFFAOYSA-N [5-(2-aminoethyl)-2-hydroxyphenyl] benzoate Chemical compound NCCC1=CC=C(O)C(OC(=O)C=2C=CC=CC=2)=C1 WQJBDEHULKUMKX-UHFFFAOYSA-N 0.000 description 6
- 230000004308 accommodation Effects 0.000 description 6
- 239000000203 mixture Substances 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 6
- 239000011521 glass Substances 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000006185 dispersion Substances 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 208000006992 Color Vision Defects Diseases 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 201000007254 color blindness Diseases 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004371 high visual acuity Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 241000255777 Lepidoptera Species 0.000 description 1
- 208000029091 Refraction disease Diseases 0.000 description 1
- 230000004430 ametropia Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000011951 anti-virus test Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003094 perturbing effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 238000012956 testing procedure Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/028—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
- A61B3/032—Devices for presenting test symbols or characters, e.g. test chart projectors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0033—Operational features thereof characterised by user input arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
- A61B3/0058—Operational features thereof characterised by display arrangements for multiple images
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/028—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
- A61B3/032—Devices for presenting test symbols or characters, e.g. test chart projectors
- A61B3/0325—Devices for presenting test symbols or characters, e.g. test chart projectors provided with red and green targets
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/028—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
- A61B3/036—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters for testing astigmatism
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Ophthalmology & Optometry (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Signal Processing (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Un aparato para proporcionar una indicación de al menos un error de refracción de un ojo de un sujeto, comprendiendo el aparato: medios para presentar al menos una imagen objetivo sobre un área de visualización; al menos un procesador que comprende medios para recibir retroalimentación del sujeto para cada imagen objetivo presentada que indica que el sujeto está situado a una distancia máxima de mejor agudeza, MDBA, de la imagen objetivo de entre las múltiples distancias experimentadas por el sujeto cuando visualiza la imagen objetivo con un ojo del mismo, siendo dicha MDBA la distancia máxima a la que dicho sujeto reconoce con nitidez uno o más elementos visuales de dicha imagen objetivo usando dicho ojo; al menos un sensor para adquirir datos que representan una distancia real entre el ojo del sujeto y dicha imagen objetivo que corresponde a la MDBA subjetiva; comprendiendo además el al menos un procesador un módulo de estimación de distancias y calibración (112) para estimar la MDBA según dichos datos adquiridos, y un módulo de retroalimentación (113), y que está configurado para calcular al menos un parámetro asociado al error de refracción del ojo, el al menos un parámetro calculado está basado en dicha imagen objetivo y la MDBA estimada.
Description
DESCRIPCIÓN
Sistema para la medición del error de refracción de un ojo basado en la medición subjetiva de distancias CAMPO DE LA INVENCIÓN
La presente invención se refiere en general a sistemas para realizar un procedimiento de refracción en el examen optométrico y particularmente a sistemas y procedimientos para realizar exámenes para medir el error de refracción.
ANTECEDENTES DE LA INVENCIÓN
En los exámenes optométricos, los procedimientos de refracción se usan para identificar diversas afecciones, tales como el error de refracción del ojo. El error de refracción de un ojo (ametropía) es un defecto en la capacidad del ojo para enfocar rayos de luz paralelos de objetos distantes sobre la retina. Un objeto distante se ve habitualmente a seis metros o más del ojo examinado. El objeto usado es habitualmente un carácter, tal como una letra, un número, etc., de un tamaño predefinido presentado sobre una tabla o una pantalla. Los tipos de errores de refracción incluyen miopía, hipermetropía y astigmatismo.
El error de refracción del ojo se puede evaluar usando procedimientos subjetivos u objetivos. Los procedimientos objetivos requieren que un examinador profesional realice el examen del ojo del paciente, usando un equipo especial diseñado para determinar el estado de refracción del paciente y prescribir la lente apropiada (lentes de vidrio y/o lentes de contacto) para cada ojo.
El procedimiento subjetivo requiere que el paciente responda a preguntas específicas relativas a la nitidez de letras/objetivos presentados sobre una gráfica situada a una distancia de 6 metros. El examinador interpone lentes de diversas potencias dióptricas a una distancia de aproximadamente 12 mm del ojo del paciente y se pide al paciente que distinga los cambios en la nitidez de los caracteres respondiendo a preguntas de elección forzosa. Habitualmente, se pregunta al paciente cuál de dos presentaciones de lentes proporciona la mejor agudeza.
La refracción subjetiva busca encontrar la potencia de la esfera y la potencia y el eje del cilindro. La mayoría de los optometristas y oftalmólogos usarán un cilindro cruzado junto con un marco de prueba o foróptero con el fin determinar la potencia y el eje del cilindro. La refracción subjetiva requiere que el examinador interprete las respuestas del paciente.
En cambio, la refracción objetiva no requiere ninguna respuesta del paciente. El paciente tiene un papel pasivo mientras se evalúa su error de refracción mediante diversos procedimientos y medios objetivos posibles. La autorrefracción y la retinoscopía son los procedimientos objetivos más habituales. También se encuentran disponibles y se usan procedimientos tales como la fotorrefracción y la aberrometría. La refracción objetiva, menos exacta, normalmente precede al resultado subjetivo que se usa para definir la prescripción final. Un ejemplo de una prescripción optométrica en la convención de cilindro negativo es -2,00/-1,00 x 90 (esfera -2,00, cilindro -1,00, eje 90 grados). En otras palabras, cilindro lejano -2,00 a 180 grados y cilindro cercano -3,00 a 90 grados.
El documento WO 2010/117386 se refiere a un sistema de centro de pruebas oftálmicas que incluye un instrumento de adquisición de imágenes oftálmicas que comprende un ocular para recibir al menos un ojo de un usuario o sujeto, una fuente de luz que emite luz que se dirige a través del ocular al ojo del usuario o sujeto, un interferómetro configurado para producir interferencia óptica que usa la luz reflejada desde el ojo del usuario/sujeto, un detector óptico dispuesto para detectar dicha interferencia óptica y una unidad de procesamiento acoplada al detector. El sistema de centro de pruebas oftálmicas se puede configurar para realizar una multitud de pruebas oftálmicas funcionales y/o estructurales autogestionadas y enviar los datos de las pruebas.
El documento WO 2008/047385 se refiere a un refractor subjetivo para determinar el error de refracción del ojo que comprende un sistema óptico para presentar al menos dos objetivos al ojo, siendo la diferencia de enfoque entre los objetivos mayor que la profundidad de enfoque prevista del ojo; medios para indicar la preferencia de un objetivo de entre los objetivos presentados y medios para determinar el error de refracción del ojo en base la preferencia de un objetivo.
RESUMEN DE LA INVENCIÓN
La presente invención se define en la reivindicación independiente adjunta a la que se debe hacer referencia.
En las reivindicaciones dependientes adjuntas se exponen características ventajosas.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La Fig. 1 muestra un diagrama que ilustra una distancia máxima de mejor agudeza (MDBA) de 0,414 m para un paciente miope que tiene una potencia de corrección del error de refracción de las gafas de -2,50 dioptrías [D].
La Fig. 2 muestra un diagrama de bloques de un sistema para medir el error de refracción del ojo de un sujeto, según algunas realizaciones de la invención.
Las Figuras 3A-3B muestran cómo usa el sujeto un dispositivo de teléfono inteligente personal integrado que hace funcionar una aplicación específica para llevar a cabo un autoexamen del error de refracción, usando una cámara como sensor que permite medir la distancia entre el ojo examinado del sujeto y la imagen objetivo presentada al mismo, según algunas realizaciones de la invención: la Fig. 3A muestra cómo lleva a cabo el sujeto un procedimiento de calibración preliminar usando una tarjeta de crédito como elemento de forma de referencia y la Fig. 3B muestra cómo se presenta la imagen objetivo sobre un área de visualización de la pantalla táctil del teléfono inteligente para permitir que el sujeto ajuste la distancia entre su ojo y la imagen objetivo hasta alcanzar la distancia máxima de mejor agudeza (MDBA).
Las Figuras 4A-4L muestran diferentes tipos de imágenes objetivo que se pueden usar para el examen, según realizaciones de la invención: la Fig. 4A muestra una imagen objetivo que contiene letras con un patrón de rayas diagonales a un cierto ángulo sobre un fondo gris; la Fig. 4B muestra una imagen objetivo que contiene letras con un patrón de rayas diagonales a un cierto ángulo sobre un fondo verde; la Fig. 4C muestra una imagen objetivo que contiene letras con un patrón de rayas diagonales a un cierto ángulo sobre un fondo rojo; la Fig. 4D muestra una imagen objetivo que contiene letras con un patrón de rayas diagonales borroso a un cierto ángulo en la que la sombra borrosa de las rayas se mezcla con el fondo rojo; la Fig. 4E muestra una imagen objetivo que contiene letras con un patrón de rayas diagonales a un cierto ángulo sobre un fondo azul; la Fig. 4F muestra una imagen objetivo que contiene letras blancas nítidas sobre un fondo negro; la Fig. 4G muestra una imagen objetivo de círculos blancos concéntricos sobre un fondo negro; la Fig. 4H muestra una imagen objetivo que contiene un patrón de líneas blancas perpendiculares cruzadas sobre un fondo negro; la Fig. 4I muestra una imagen objetivo que contiene un patrón de líneas perpendiculares cruzadas sobre un fondo negro, donde las líneas horizontales son verdes y las líneas verticales son rojas; las Figuras 4J-4L muestran una imagen objetivo en blanco y negro (BN) con anillos concéntricos: la Fig. 4J muestra la imagen como se presenta en la pantalla, donde las Figuras 4K y 4L muestran cómo percibirá la imagen un sujeto que tiene un astigmatismo.
La Fig. 5 muestra un flujograma que ilustra un procedimiento para medir el error de refracción del ojo de un sujeto, según algunas realizaciones de la invención.
La Fig. 6 muestra un flujograma que ilustra un procedimiento de calibración preliminar para medir una forma de referencia permanente usando una forma de referencia temporal, según algunas realizaciones de la invención.
La Fig. 7 muestra un flujograma que ilustra un procedimiento de medición para identificar una forma de referencia de una banda magnética de una tarjeta de crédito mediante la adquisición de imágenes bidimensionales de la misma para la medición de distancias, según algunas realizaciones de la invención.
Las Figuras 8A-8D muestran un objetivo para medir el eje de astigmatismo usando un procedimiento cromático: la Fig. 8A muestra un objetivo de rayas de colores para mediciones de astigmatismo que incluye tres líneas verticales paralelas, la del centro es verde y las dos líneas exteriores son rojas, sobre un fondo negro, donde las líneas están separadas entre sí a una distancia conocida; la Fig. 8B muestra cómo percibirá el objetivo de la Fig. 8A un sujeto que tiene un ángulo de astigmatismo de 0° (usando la convención de cilindro negativo); la Fig. 8C muestra cómo percibirá el objetivo de la Fig. 8A un sujeto que tiene un ángulo de astigmatismo de 45° y la Fig. 8D muestra cómo percibirá el objetivo de la Fig. 8A un sujeto que tiene astigmatismo que está coalineado con la dirección de las rayas de colores presentadas.
Las Figuras 9A-9C muestran un objetivo para medir el eje de astigmatismo usando un procedimiento cromático: la Fig. 9A muestra un objetivo de rayas de colores para mediciones de astigmatismo que incluye cuatro conjuntos de rayas, cada conjunto incluye tres rayas de color rojo-verde-rojo paralelas separadas a igual distancia, donde los conjuntos de rayas se cruzan angularmente entre sí, sobre un fondo negro; la Fig. 9B muestra cómo percibirá el objetivo de la Fig. 9A un sujeto que tiene un ángulo de astigmatismo de ai y la Fig. 9C muestra cómo percibirá un cambio realizado en el objetivo de la Fig. 9A un sujeto para indicar el ángulo del astigmatismo con precisión angular superior.
La Fig. 10 es un flujograma que ilustra esquemáticamente un procedimiento para medir el ángulo del cilindro usando un procedimiento cromático, no forma parte de la invención.
La Fig. 11 es un flujograma que ilustra esquemáticamente un procedimiento para medir el ángulo del cilindro usando un procedimiento acromático, que usa un objetivo de anillos concéntricos, no forma parte de la invención.
La Fig. 12 es un flujograma que ilustra esquemáticamente un procedimiento para la estimación de la potencia del cilindro usando un objetivo que contiene características unidimensionales, no forma parte de la invención.
Las Figuras 13A y 13B muestran cómo se pueden usar imágenes objetivo en blanco y negro (BN) de letras de
optotipos para medir la agudeza visual, según algunas realizaciones de la invención: la Fig. 13A muestra una imagen objetivo BN de optotipos para medir la miopía mediante la medición de la potencia del equivalente esférico (SEP) de los ojos de los sujetos y la Fig. 13B muestra una tabla para mostrar cómo se correlaciona aproximadamente la MDBA con el tamaño de letra...
Las Figuras 14A y 14B muestran una imagen objetivo de dos conjuntos de letras negras, uno sobre un fondo azul y el otro sobre un fondo rojo, para medir la SEP de los ojos de los sujetos, según algunas realizaciones de la invención: la Fig. 14A muestra la imagen objetivo como se presenta sobre la pantalla para medir la SEP y la Fig.
14B muestra cómo se percibirá la imagen objetivo de la Fig. 14A a la distancia MDBA cuando sólo las letras de optotipos en azul están borrosas y las rojas son legibles.
Las Figuras 15A y 15B muestran una imagen objetivo de tipo mariposa a rayas que tiene rayas verdes en forma de arco sobre fondo negro con una de las rayas en forma de arco de cada lado de color rojo, según algunas realizaciones de la invención: la Fig. 15A muestra la imagen objetivo de tipo mariposa como se presenta sobre la pantalla para medir la MDBA para el cilindro cercano y la muestra el aspecto que tendría la imagen objetivo de tipo mariposa antes de pasar la MDBA para el cilindro cercano, donde el color rojo parece amarillento. Tras alcanzar la MBDA del cilindro cercano, la raya amarilla en forma de arco se volverá roja.
Las Figuras 16A y 16B muestran una imagen objetivo de tres rayas rectas que tiene rayas laterales verdes y una raya central roja sobre fondo negro, según algunas realizaciones de la invención: la Fig. 16A muestra la imagen objetivo como se presenta sobre la pantalla para medir el astigmatismo y la Fig. 16B muestra el aspecto que tendría la imagen objetivo para un sujeto que tiene un astigmatismo de 180 grados.
Las Figuras 17A y 17B muestran otra imagen objetivo de tres rayas rectas que tiene rayas laterales verdes y una raya central roja sobre fondo negro, según algunas realizaciones de la invención: la Fig. 17A muestra la imagen objetivo como se presenta sobre la pantalla para medir el astigmatismo y la Fig. 17B muestra el aspecto que tendría la imagen objetivo para un sujeto que tiene un astigmatismo de 180 grados.
Las Figuras 18A y 18B muestran una imagen objetivo de tipo “sol” en color que tiene múltiples imágenes objetivo de rayas combinadas, donde cada raya de la imagen objetivo de tipo sol tiene tres rayas laterales verdes y una raya central roja sobre fondo negro, según algunas realizaciones de la invención: la Fig. 18A muestra la imagen objetivo de tipo sol como se presenta sobre la pantalla para medir el astigmatismo y la Fig. 18B muestra el aspecto que tendría la imagen objetivo de tipo sol para un sujeto que tiene un astigmatismo de 180 grados.
Las Figuras 19A y 19B muestran una imagen objetivo de tipo sol combinada que incluye el sol y una imagen de anillos concéntricos BN en el centro de la misma, según algunas realizaciones de la invención: la Fig. 19A muestra la imagen objetivo de tipo sol combinada como se presenta sobre la pantalla para medir el astigmatismo y la Fig.
19B muestra el aspecto que tendría la imagen objetivo de tipo sol combinada para un sujeto que tiene un astigmatismo de 180 grados.
Las Figuras 20A y 20B muestran una imagen objetivo de “anillos concéntricos” de colores que tiene múltiples anillos verdes con uno de los anillos de color rojo sobre un fondo negro, según algunas realizaciones de la invención: la Fig. 20A muestra la imagen objetivo de anillos concéntricos como se presenta sobre la pantalla para medir el astigmatismo y la Fig. 20B muestra el aspecto que tendría la imagen objetivo de anillos concéntricos para un sujeto que tiene un astigmatismo de 180 grados con una línea marcadora colocada por el sujeto sobre la imagen en una posición que indica que el centro de la forma de mariposa parece más nítido como retroalimentación de entrada, según la cual se puede deducir el ángulo de astigmatismo del sujeto.
Las Figuras 21A y 21B muestran dos imágenes objetivo diferentes, que tienen cada una un patrón singular para una prueba de validación, también denominada en esta memoria “la prueba africana”, según algunas realizaciones de la invención: la Fig. 21A muestra una imagen objetivo que tiene conjuntos intercambiables de filas de unidades elípticas amarillas y rojas dispuestas en filas que están inclinadas en direcciones intercambiables, donde la imagen objetivo está cortada por dos rayas negras gruesas, superior e inferior, y una raya central negra de un espesor inferior a las rayas superior e inferior y la Fig. 21B muestra una imagen objetivo de patrón singular donde el componente básico es de forma elíptica inclinada, replicado en filas y columnas a la vez que intercambia su color en cada dimensión, donde al menos una línea oscura obstruye total o parcialmente al menos una parte de la fila del patrón o al menos crea una región de perturbación de la estructura periódica básica.La obstrucción o perturbación da como resultado un color adyacente idéntico del bloque básico en una dirección horizontal o vertical. Alternativamente, el color del componente básico situado en la fila perturbada o más allá de la fila obstruida es similar a su vecino más próximo en la fila no perturbada/no obstruida. Cuando se experimenta un cierto desenfoque, la imagen tiene varias características distintivas, como se muestra en 701a.
La Fig. 22 muestra una imagen ampliada del patrón de las imágenes objetivo de las Figuras 21A y 21B inclinadas en una de las posibles direcciones intercambiables.
La Figura 23 muestra el aspecto que tendría la imagen objetivo de la Fig. 21A a la distancia a la que se indica al
sujeto que se detenga. Esto sucede a una distancia específica donde la combinación de esfera y cilindro produce un desenfoque conocido.
Las Figuras 24A y 24B muestran una imagen ampliada del patrón de la imagen objetivo de la Fig. 21A: la Fig. 24B ilustra cómo se desenfocarán los componentes del patrón (la flecha muestra la dirección de desenfoque) a distancia de la imagen objetivo para un sujeto que no tiene astigmatismo y la Fig. 24A ilustra cómo se desenfocarán los componentes del patrón a distancia de la imagen objetivo para un sujeto que tiene astigmatismo.
La Fig. 25 muestra otro componente opcional para un patrón para la prueba de validación, según otras realizaciones de la invención.
La Fig. 26 muestra otro componente opcional más para un patrón para la prueba de validación, según otras realizaciones de la invención.
Las Figuras 27A y 27B muestran un flujograma que ilustra un procedimiento completo de un examen optométrico para medir la SEP y el cilindro lejano y cercano de un sujeto, usando las imágenes objetivo proporcionadas anteriormente, según algunas realizaciones de la presente invención: la Fig. 27B es una continuación del procedimiento de la Fig.27A.
DESCRIPCIÓN DETALLADA DE ALGUNAS REALIZACIONES DE LA INVENCIÓN
En la siguiente descripción detallada de diversas realizaciones, se hace referencia a los dibujos adjuntos que forman parte de la misma y en los que se muestran de modo ilustrativo realizaciones específicas en las que se puede poner en práctica la invención. Se entiende que se pueden utilizar otras realizaciones y se pueden hacer otros cambios estructurales sin apartarse del alcance de la presente invención.
La presente invención, en algunas realizaciones de la misma, proporciona sistemas para permitir a los usuarios llevar a cabo exámenes oculares exactos para medir el error de refracción de sus ojos o los ojos de otras personas, sin necesidad de medios de corrección de la refracción tales como lentes de vidrio o lentes de contacto.
El término “error de refracción”, también conocido como “error refractivo”, como se conoce en la técnica se refiere a cualquier tipo de error al enfocar rayos de luz paralelos sobre la retina del ojo, esta afección se conoce como “ametropía”. La ametropía incluye una cualquiera o más de miopía, hipermetropía y/o astigmatismo, categorizadas habitualmente como errores esféricos y errores cilíndricos. Los errores esféricos incluyen miopía, hipermetropía y presbicia, mientras que los errores cilíndricos incluyen astigmatismo. El examen ocular habitual para la provisión de lentes correctoras mide la potencia de la esfera, la potencia y el eje del astigmatismo correspondientes a un cierto ojo.
Según algunas realizaciones, el sistema permite que el sujeto se autoexamine para determinar el error de refracción usando un dispositivo personal integrado, u otra unidad de procesamiento remoto, o un sistema tal como un ordenador personal (PC), un ordenador portátil, un teléfono inteligente, una tableta y similares, siempre que el dispositivo personal esté equipado o comunicado con dispositivos que permiten la presentación de imágenes, el almacenamiento, el procesamiento, la introducción y el envío de datos, y opcionalmente también uno o más sensores que permitan deducir la distancia entre el ojo examinado y las imágenes presentadas.
El sistema incluye un dispositivo de visualización capaz de presentar visualmente imágenes objetivo sobre un área de visualización y uno o más sensores para permitir medir al menos un parámetro que se puede usar para deducir distancias. En otras realizaciones, la distancia se puede medir directamente mediante el uno o más sensores, mientras que en otras realizaciones la distancia se mide usando una cámara conectada o integrada en el dispositivo personal para deducir la distancia entre la pantalla de la imagen y el ojo examinado del sujeto.
El sistema de la presente invención, según algunas realizaciones de la misma, permite que un sujeto que desea realizar un examen del error de autorrefracción use un dispositivo personal que tiene medios de presentación visuales tales como una pantalla y un sensor, tal como una cámara de vídeo y/o una cámara fotográfica, donde el dispositivo hace funcionar una aplicación de software específica para pruebas de refracción ocular configurada para presentar al menos una imagen objetivo dinámica o fija seleccionada sobre el área de visualización; reciba retroalimentación subjetiva del sujeto que indica que el sujeto está situado a una distancia máxima de mejor agudeza (MDBA) de la imagen objetivo de entre múltiples distancias experimentadas por el sujeto, donde dicha MDBA es la distancia máxima a la que el sujeto reconoce con nitidez la imagen objetivo presentada con un ojo del sujeto que se examina; mida al menos un parámetro asociado a la distancia, cuando el sujeto ha alcanzado la MDBA, usando el sensor; estime la MDBA estimando la distancia entre el ojo examinado del sujeto y el área de visualización en la que se presenta la imagen objetivo usando datos enviados desde el sensor y un procesador del dispositivo personal para llevar a cabo esta estimación; y calcule el error de refracción del ojo según la MDBA estimada y las características de la imagen objetivo.
Una vez que el sujeto indica, mediante la retroalimentación del mismo, que ha alcanzado la MDBA, el sistema
estima automáticamente la distancia real entre el ojo examinado del sujeto y la imagen objetivo presentada (p. ej., el centro de la pantalla) usando datos que llegan de los sensores y opcionalmente datos de calibración tomados de un procedimiento de calibración preliminar para calcular el error de refracción del ojo examinado usando un algoritmo específico. El error de refracción se calcula según la MDBA estimada (que es la distancia estimada entre el ojo y la imagen objetivo en el momento en que el sujeto indicó que había alcanzado su MDBA) y las características gráficas y de otro tipo del uno o más signos de la imagen objetivo (p. ej., tamaño, color, patrón y similares) que, por ejemplo, dan como resultado la potencia dióptrica (también denominada en esta memoria “potencia del equivalente esférico (SEP)” y/o potencia de la esfera y/o potencia del cilindro (cil) lejano y/o potencia del cilindro cercano).
El dispositivo de visualización es cualquier dispositivo configurado para presentar visualmente imágenes sobre un área de visualización tal como una pantalla, un dispositivo proyector (con o sin pantalla) y similares. El dispositivo de visualización y el área de visualización se pueden integrar en el dispositivo personal.
El sensor, que puede estar integrado en el dispositivo personal o comunicado con el mismo en cualquier otra configuración incluye, por ejemplo, una o más cámaras de vídeo y/o cámaras fotográficas, un sensor tridimensional (3D) configurado para cartografiar superficies en puntos tridimensionales o cualquier otro sensor óptico o de otro tipo para medir uno o más parámetros que permitan deducir distancias o cualquier otro sensor o dispositivo que permita captar imágenes o medir directa o indirectamente la distancia entre objetos. El algoritmo del sistema para estimar la distancia real entre el ojo examinado del sujeto y la imagen objetivo presentada se adapta al sensor específico usado y a las características de envío de datos específicas del mismo. Por ejemplo, para una cámara fotográfica o una cámara de vídeo, el algoritmo está diseñado para recibir la entrada de los datos de imagen enviados por la cámara y usar la imagen de referencia u otra imagen en los datos de imagen de dimensiones conocidas para calcular la distancia del ojo examinado en el momento en que la cámara captó la imagen.
Según algunas realizaciones, la presente invención proporciona una aplicación informática específica que se puede hacer funcionar mediante el dispositivo personal del sujeto que proporciona una interfaz de usuario (IU) que permite que un sujeto mida su propio error de refracción del ojo a través de la misma. Esto significa que la aplicación no requiere que el sujeto se pruebe diferentes lentes correctoras para medir su graduación, su medida del cilindro y similares.
La aplicación se puede diseñar de tal manera que use los medios de procesamiento del dispositivo personal del sujeto para todo el procedimiento de examen (lo que incluye la recepción de datos de entrada, el procesamiento y envío de resultados del examen y el almacenamiento de datos) o se comunique con un servidor remoto que está configurado para recibir datos de entrada a través de la aplicación del dispositivo personal del sujeto, procesar los datos para calcular el error de refracción del ojo examinado del sujeto y enviar los resultados al dispositivo personal a través de esta aplicación para que sean mostrados (p. ej., presentados) al sujeto a través de medios de presentación de datos del dispositivo personal (tal como a través de la pantalla y/o a través de los altavoces del dispositivo).
Según algunas realizaciones, los sistemas permiten que el sujeto inicie un examen de refracción subjetiva usando su dispositivo personal y accediendo a una aplicación específica que se puede hacer funcionar mediante el mismo (p. ej., instalada en el mismo o a la que se puede acceder mediante el mismo). Una vez iniciada la sesión, se presenta una imagen objetivo dinámica o estática preseleccionada sobre el área de visualización. La imagen objetivo puede tener una forma o ser un signo predeterminado tal como una letra, un número y similares conocidos por el sujeto, donde las características de la imagen, tales como el tamaño, el color del patrón, el fondo y similares, pueden variar en función del parámetro y/o el tipo de error de refracción que se está examinando, tal como astigmatismo, miopía o hipermetropía.
Como se mencionó anteriormente, uno o más sensores, tales como una cámara integrada o conectada al dispositivo personal, detectan repetida o continuamente uno o más parámetros asociados a la distancia y los datos del uno o más parámetros del sensor se usan para estimar la distancia entre el ojo examinado del sujeto y el área de visualización en la que se presenta la imagen seleccionada. La IU de la aplicación permite recibir retroalimentación subjetiva del sujeto relativa a la imagen presentada para calcular uno o más valores de uno o más parámetros cuantificables indicativos de uno o más aspectos del error de refracción del ojo examinado del sujeto, también denominados en este documento el uno o más resultados del examen. Estos resultados se presentan a continuación al sujeto o se envían de cualquier otra manera a través de uno o más dispositivos de salida del dispositivo personal, tal como se presentan sobre la pantalla a través de la IU de la aplicación específica.
Según algunas realizaciones de la invención, se usa un procedimiento de calibración especialmente, pero no exclusivamente, en los casos en los que el sensor es un dispositivo para captar imágenes bidimensionales, tal como una cámara fotográfica y/o una cámara de vídeo. En estas realizaciones, se usa una forma de referencia de dimensiones absolutas conocidas usando, por ejemplo, un objeto de dimensiones tridimensionales conocidas o un objeto que tiene un patrón físico bidimensional fijado al mismo o impreso sobre el mismo que se puede identificar mediante el análisis de imágenes de una imagen adquirida que incluye la forma de referencia del patrón. Las dimensiones conocidas de la forma de referencia se pueden usar para deducir la distancia entre la posición física de la forma de referencia y la cámara o el centro del área de visualización asociada a la misma en el momento en que
se adquirió la imagen de la forma de referencia.
Este procedimiento de calibración puede repetirse (continua o específicamente) durante la sesión de examen, requiriendo que el sujeto sostenga la forma de referencia en la misma posición con respecto a la posición del ojo examinado durante toda la sesión o, cuando lo requiera la IU, cuando se ejecutan las mediciones. De esta manera, la distancia entre el ojo examinado y la imagen presentada se mide o estima constantemente mediante otros parámetros medidos durante la sesión de examen para permitir obtener los resultados más exactos.
En otras realizaciones, el procedimiento de calibración usa un elemento que consiste en una forma de referencia temporal, tal como una tarjeta de crédito que tiene una forma de referencia de una banda magnética de dimensiones conocidas, para estudiar las dimensiones absolutas de una forma de referencia constante tal como uno o más rasgos faciales del sujeto, tal como la anchura del ojo (no cubierto por la forma de referencia temporal) del mismo, para permitir usar el valor absoluto del rasgo facial para medir distancias en la sesión de examen del error de refracción real. Esto permitirá que el sujeto se libere de sostener el elemento de la forma de referencia temporal durante todo el procedimiento.
Según algunas realizaciones, la IU está configurada para enviar preguntas de retroalimentación e instrucciones al sujeto que están predefinidas y asociadas a la imagen objetivo específica presentada y sus características para ayudar a determinar el error de refracción específico (p. ej., la potencia dióptrica) con respecto a la MDBA estimada y las características de la imagen objetivo.
Según algunas realizaciones de la invención, una vez presentado el signo del examen o cualquier otra imagen objetivo sobre el área de visualización al tamaño seleccionado, la aplicación requiere que el sujeto mueva el área de visualización (integrada en el dispositivo) o se mueva con respecto al área de visualización (p. ej., si el área de visualización es difícil de mover) a la distancia máxima a la que aún reconoce con nitidez el uno o más signos presentados en la imagen objetivo con una agudeza relativa. Esta distancia se definirá como la “MDBA”, que es proporcional a la potencia (en dioptrías) de la lente correctora que será necesaria. La relación entre la MDBA y la potencia “P” se calcula usando la fórmula de transformación siguiente:
1
P [Dioptrías] ~ K
MDBA[m\
La potencia “P” es el promedio de las potencias astigmáticas del sujeto (la mejor esfera) o una de las potencias astigmáticas, en función del objetivo usado que es la forma o el patrón de la imagen presentada. Por ejemplo, un objetivo sin características definidas direccionalmente provocará el enfoque a una distancia que corresponde a la media de las potencias astigmáticas, y un objetivo con características en la dirección de uno de los ejes astigmáticos provocará el enfoque a una distancia que corresponde a esta potencia astigmática. K es una constante de calibración encontrada en los ensayos clínicos y es aproximadamente -1.
Según algunas realizaciones, se pide al sujeto deje el ojo no examinado bien abierto (aunque ocluido por el elemento de forma de referencia, p. ej., la tarjeta de crédito) durante la sesión de medición, ya que puede afectar al error de refracción del ojo examinado.
La Fig. 1 muestra un diagrama que ilustra una distancia máxima de mejor agudeza (MDBA) de 0,414 m para un paciente miope que tiene una potencia de corrección del error de refracción de las gafas de -2,50 dioptrías [D].
El sensor del sistema está situado a una distancia fija conocida de la posición de la imagen presentada, ya que estos dos dispositivos (p. ej., la pantalla y la cámara) están fijados en una cierta posición.
Cuando no se establece ninguna corrección de la refracción, un ojo relajado, que corresponde a una corrección de las lentes de contacto de -2,50, por ejemplo, verá una imagen borrosa a una distancia superior a 0,4 m y la primera imagen de alta agudeza visual se verá a una distancia igual a 0,4 m. Una imagen a una distancia establecida dentro del intervalo (de infinito a 400 mm para este ejemplo) se desenfocará en función de la vergencia,
, donde el desenfoque máximo será evidente en el infinito y el desenfoque se reducirá gradualmente con la vergencia para alcanzar el desenfoque mínimo a 0,4 m. Un desenfoque de la imagen a una distancia inferior a 0,4 m en este ejemplo dependerá de la capacidad del ojo para acomodarse. Si hay presente una acomodación de 7 dioptrías, el sujeto podría ver una imagen con alta agudeza visual a una distancia en el intervalo de 400 mm a 105 mm.
Ahora, se hace referencia a la Fig. 2, que muestra un diagrama de bloques, que ilustra esquemáticamente un sistema 100 para medir un error de refracción del ojo de un sujeto usando un sistema computarizado que tiene al menos un procesador 110, tal como un sistema informático de PC, un dispositivo de tableta o un dispositivo móvil, que tiene medios de entrada y salida y un sensor 120, tal como una cámara que está configurada para adquirir fotogramas bidimensionales, y una pantalla 130 como dispositivo de visualización que define un área de
visualización 135 en el mismo.
El procesador 110 hace funcionar una aplicación específica capaz de hacer funcionar varios módulos: (i) una interfaz de usuario (IU) 110; (ii) un módulo de estimación de distancias y calibración 112 para estimar repetidamente (continua o específicamente) la distancia entre el ojo examinado y la imagen objetivo mostrada/presentada; (iii) un módulo de retroalimentación 113 para dar instrucciones al sujeto durante una sesión de examen y para permitir que el sujeto introduzca su retroalimentación; y un módulo de error de refracción 114 para calcular el uno o más valores del uno o más parámetros del error de refracción, según la distancia estimada y las características de las imágenes objetivo presentadas.
Según algunas realizaciones, la IU 111 puede ser una interfaz gráfica de usuario (IGU) de la aplicación específica, configurada para proporcionar una plataforma para presentar de manera fija o dinámica imágenes objetivo, permitir que el sujeto inicie sesiones de examen mediante la misma, dar instrucciones al sujeto durante la sesión de examen, permitir que el sujeto introduzca retroalimentación subjetiva en respuesta a la imagen objetivo presentada y/o su posición con respecto a la misma y presentar los resultados del error de refracción calculado.
Según algunas realizaciones, el módulo de estimación de distancias y calibración112 está configurado para dar instrucciones al sujeto de que se coloque o coloque el dispositivo/área de visualización 130/135 a la MDBA, según su perspectiva subjetiva, y recibir los datos enviados por el sensor 120 para procesar los mismos y deducir (estimar) la distancia “Di” entre el ojo examinado del sujeto y la imagen objetivo en cada momento o periodo de tiempo determinado. En los casos en los que los datos enviados por el sensor 120 son una imagen (p. ej., cuando se usa una cámara 2D), se puede iniciar un procedimiento de análisis de imágenes para evaluar la distancia midiendo el tamaño de imagen de una forma de la imagen adquirida que tiene dimensiones conocidas. En estos casos, el módulo de estimación y calibración 112 (a través de la IU 111) puede dar instrucciones al sujeto para que sostenga una forma de referencia de dimensiones bidimensionales conocidas (tal como una tarjeta de crédito que tiene una banda magnética de tamaño estándar con la banda magnética orientada hacia el sensor 120 de la cámara) sobre su ojo no examinado de manera que la imagen adquirida por el sensor 120 de la cámara incluya toda la forma de referencia bidimensional conocida en cada momento determinado del examen. De esta forma, la diferencia entre el tamaño de imagen de la forma de referencia y el tamaño real de la misma conocido permite deducir la distancia y la perspectiva angular entre al menos la cámara y el elemento físico que es, o contiene, la forma de referencia bidimensional. Esta distancia y este ángulo permiten a su vez estimar la distancia entre el ojo examinado situado adyacente al ojo cubierto por el elemento de forma de referencia y el centro del área de visualización conociendo la posición del área de visualización con respecto al sensor de la cámara.
En los casos en los que se utiliza un sensor 120 2D, para mejorar la exactitud en las estimaciones de distancias, puede ser necesario un procedimiento de calibración preliminar, adquiriendo una imagen del sujeto que sujeta el elemento de forma de referencia que cubre su ojo no examinado y midiendo las dimensiones absolutas y la forma del ojo examinado mediante un procedimiento de análisis de imágenes, según las dimensiones absolutas conocidas de la forma de referencia. En estas realizaciones, una vez calculadas las dimensiones absolutas y la forma del ojo examinado, el propio ojo examinado sirve como forma de referencia en el procedimiento de examen.
Por ejemplo, se puede pedir al sujeto que sostenga una tarjeta de crédito sobre uno de sus ojos, con la banda magnética de la tarjeta de crédito orientada hacia la cámara, para una calibración preliminar de la sesión de examen y adquirir una imagen de calibración que capte sus dos ojos (uno cubierto por la tarjeta de crédito) usando la cámara. La anchura y longitud absolutas de la banda magnética de una tarjeta de crédito son habitualmente estándar y serán conocidas en el sistema. La imagen de calibración adquirida se analiza a continuación, por ejemplo, calculando una escala proporcional (para la longitud anchura y/o anchura) según la cual se puede deducir la anchura absoluta del ojo examinado. Este valor de anchura del ojo (AO) (p. ej., en centímetros) puede almacenarse en una unidad de almacenamiento del sistema y usarse como el tamaño conocido del ojo examinado como forma de referencia para la sesión específica. Esto permitirá usar un elemento de forma de referencia independiente solo en una etapa de calibración inicial del examen y no durante todo el examen, y opcionalmente para cada uno de los ojos del sujeto (ya que su tamaño no cambia a lo largo del tiempo), estos valores se pueden almacenar permanentemente para ser usados en múltiples exámenes oculares a lo largo del tiempo por el mismo sujeto.
Según algunas realizaciones, el módulo de retroalimentación 113 está configurado para enviar instrucciones al usuario y también para permitir que el usuario (que puede ser el propio sujeto) introduzca información de retroalimentación, tal como para indicar que ha alcanzado la distancia MDBA según su vista subjetiva, y para enviar el error de refracción resultante (potencia dióptrica) del ojo examinado correspondiente.
En algunas realizaciones, un mecanismo de retroalimentación para indicar que el sujeto ha alcanzado la MDBA, puede incluir, por ejemplo, la identificación de la retirada de la tarjeta de crédito o cualquier otro elemento de forma de referencia (si se usa una cámara de vídeo, por ejemplo), seguida de una identificación de dos ojos situados en la región de la forma de referencia antes de su retirada, usando el sensor de la cámara y la unidad de procesamiento.
Según algunas realizaciones, el módulo de error de refracción 114 está configurado para recibir la MDBA medida y
otros datos medidos desde el módulo de estimación de distancias y calibración 112 y calcular el error de refracción del ojo examinado según el valor de la MDBA y las características del objetivo presentado en el momento en que se midió el parámetro del sensor relacionado con la MDBA. El error de refracción calculado resultante del ojo examinado se envía a continuación al sujeto a través de la IU 111 (p. ej., usando una representación visual del mismo sobre el área de visualización 135). El error de refracción resultante también puede transmitirse tras la selección del usuario para pedir gafas por Internet (usando los medios de comunicación del dispositivo personal) con las lentes correctoras según los resultados del examen. En este caso, la IU 111 también incluye una plataforma de pedidos para permitir que el sujeto haga un pedido, seleccione la montura de las gafas y pague, etc.
Según algunas realizaciones, los resultados del examen ocular de una sesión de medición se pueden enviar a un tercero de forma alternativa o adicional para que presente los resultados al sujeto.
Las Figuras 3A-3B muestran cómo usa el sujeto un dispositivo de teléfono inteligente personal integrado que tiene la aplicación específica que se puede hacer funcionar mediante el mismo para llevar a cabo un examen del error de autorrefracción, según algunas realizaciones de la invención. El dispositivo de teléfono inteligente 200 tiene una cámara 220 y una pantalla táctil 250 integradas en el mismo y habitualmente también un micrófono y un altavoz para la entrada y salida de datos de audio.
La Fig. 3A muestra cómo se lleva a cabo el procedimiento de calibración haciendo que un sujeto 50 sostenga un elemento de forma de referencia 20 que incluye una forma de referencia 21 de dimensiones conocidas sobre su ojo no examinado que cubre el mismo. La forma de referencia 21 se usa para calcular la anchura absoluta “d2” del ojo examinado y opcionalmente también la longitud del mismo.
Se pide al usuario (p. ej., a través de medios de audio, es decir, un altavoz del teléfono inteligente) que sostenga o coloque el teléfono inteligente en la posición más lejana en la que aún identifica con nitidez el signo con una agudeza sustancialmente buena y la cámara 220 capta una o más imágenes bidimensionales del ojo examinado una vez que el usuario indica que ha alcanzado el punto de MDBA o durante todo el tiempo de colocación, que incluye el tiempo de indicación. Esto permite que la aplicación estime la distancia “d1” (véase la Fig. 3B) entre el ojo examinado 50a y la imagen objetivo presentada en el momento en que el sujeto ha alcanzado su Md Ba y calcule el error de refracción mediante la misma.
Como se mencionó anteriormente, se pueden usar diversos tipos de sensores de medición para deducir o medir directamente la distancia del ojo examinado a la imagen objetivo que se presenta, tal como una cámara (de vídeo y/o fotográfica), detectores 3D, un sensor de aceleración, un sensor de proximidad y similares. El algoritmo usado por la aplicación para deducir la distancia depende del tipo de sensor usado y del tipo y formato de los datos enviados mediante el mismo. El párrafo siguiente ofrece ejemplos no limitantes de cómo se pueden tratar los datos de cada tipo de sensor para deducir la distancia:
Sensor 3D: un sensor 3D cartografía un objeto Obj para generar un conjunto de puntos {x¡,y¡,z¡} en coordenadas cartesianas tridimensionales (por ejemplo, usando estructuras proyectadas cuya forma es dependiente de la distancia, desenfoque de la forma a distancia, triangulación a base de estéreo, etc.). Por tanto, se puede aplicar un algoritmo de detección del ojo (o cualquier otra forma facial) para detectar una característica del ojo dentro del “Obj”
y la distancia del ojo al objetivo se puede extraer como ^ k ^ ^
donde {x0 ,y0 ,z0} es la posición del objetivo en la misma coordenada cartesiana y k indica un punto específico sobre el ojo adquirido por el sensor 3D.
Sensor de proximidad: un sensor de proximidad es un sensor capaz de detectar la presencia de objetos cercanos sin ningún contacto físico. Un sensor de proximidad a menudo emite un campo electromagnético o un haz de radiación electromagnética (infrarroja, por ejemplo) y busca cambios en el campo o en la señal de retorno. El uso de los datos del sensor de proximidad en el intervalo nominal se puede aplicar para el refinamiento de la medición de distancias a distancias cortas, es decir, para ampliar la exactitud de otro procedimiento utilizado para evaluar la distancia entre el ojo y el objetivo. Los datos del sensor de proximidad también se podrían aplicar únicamente para distancias en el intervalo nominal. Este sensor puede medir directamente distancias, enviando la distancia entre el sensor y el objeto al que está dirigido, para permitir deducir la distancia entre el ojo examinado y la imagen objetivo conociendo la posición fija del área de visualización con respecto al sensor.
Sensor de aceleración: un sensor de aceleración es un sensor que emite datos de aceleración en un momento determinado. La distancia en cualquier momento determinado se puede calcular con la unidad de cálculo después de que se haya cumplido un conjunto de dos condiciones. Para deducir la distancia entre el ojo examinado y la imagen de objetivo presentada, el procesamiento de datos de datos de los datos del sensor de aceleración puede incluir un procedimiento de calibración para la distancia inicial entre el ojo y el objetivo, X0.
Una distancia inicial calibrada entre el ojo y el objetivo se puede ajustar a cero, mientras se sostiene el teléfono inteligente cerca del ojo y comienza la medición. El sujeto que sostiene el teléfono inteligente o cualquier otro dispositivo que consiste en un sensor de aceleración mantiene una posición fija estable de la cabeza, mientras permite que el dispositivo de sensor de aceleración se mueva hacia atrás y hacia delante. La distancia en cualquier momento determinado se puede calcular según los parámetros siguientes:
ax (t) = datos de aceleración del sensor de aceleración
Xq = distancia inicial entre el ojo y el objetivo calibrada
De la misma manera, los datos del sensor de aceleración para ay(f) y az{f) se podrían aplicar para evaluar y(tj y z(f),
d .ond .e e .l ve .cto .r de . de .splazami .ent ,o sera ,: r( vt') ' = J v x( v t ’)2 y(t ' j)2 z( v t ' j)2
El uso del sensor de aceleración se puede aplicar únicamente o junto con otros sensores de medición de distancia para aumentar el intervalo de medición, la fiabilidad y la sensibilidad.
Cámara: la estimación también puede ser realizada por una cámara que toma fotos de un elemento de un tamaño conocido o que incluye una forma bidimensional de referencia que tiene un tamaño (dimensiones) conocido, donde la longitud o el tamaño de una imagen de la forma o el elemento de referencia permite deducir la distancia al menos entre la cámara y el elemento. Un elemento conocido puede ser: (i) una tarjeta de crédito o cualquier otra tarjeta que tenga una banda negra en la parte posterior de longitud y/o anchura conocidas; (ii) una moneda o un billete, (iii) formas precalibradas tales como el tamaño de los ojos, la distancia entre los ojos o cualquier otro rasgo facial del sujeto.
La medición se realiza usando dispositivos que consisten en una cámara y una unidad de visualización de distancias, una pantalla y/o una unidad de proyección y una unidad de cálculo (procesador). La medición se puede llevar a cabo usando un único dispositivo que consiste en una unidad de cámara y/o una unidad de medición de distancias, una pantalla y/o una unidad de proyección y una unidad de cálculo (ejemplos: teléfono inteligente, tableta, ordenador con cámara, teléfono inteligente con proyector integrado), o un conjunto de dispositivos independientes, que consisten cada uno en al menos una única unidad singular, que están conectados entre sí mediante una conexión local (ejemplo: cables, WiFi, Bluetooth, infrarrojos o cualquier otra conexión inalámbrica) y/o una conexión remota (por ejemplo: mediante IP).
La calibración se realiza midiendo la relación entre el tamaño de la característica y el tamaño de un elemento/forma de referencia conocido. El procedimiento de calibración se realiza con una cámara situada a una distancia fija tanto de la característica del objeto como del objeto de calibración. El plano del objeto de calibración y el plano de la característica del elemento pueden no coincidir. En tal caso, se debe tener en cuenta el desplazamiento entre los planos en el procedimiento de evaluación de distancias.
Cuando se usa un sensor de cámara que produce datos de imágenes bidimensionales, se debe proporcionar o efl
calibrar la relación de la cámara Pltcfl ¡ donde “efl” es la longitud focal efectiva de la cámara y “pitch” es el paso efectivo del sensor. El paso efectivo es la distancia física entre píxeles adyacentes multiplicada por la reducción de la frecuencia de muestreo.
h = altura del Obj conocido
h' = altura de la imagen del Obj conocido
u = distancia entre el objetivo de la cámara y el Obj conocido
v = distancia del objetivo de la cámara al sensor
efl = longitud focal efectiva de la cámara
h'_pixles_estimated =número de píxeles de la altura estimada del Obj conocido
la e/i
A partir de la similitud de triángulos: u
ti = pitch * ti_pixles_estimated
^ fl*h -- e-- f-l- * -------------- h------------pitch hr_pixeLs_estimated
— e - f —l * ----------------------- w--------------------------
Se pueden combinar/usar en paralelo varios métodos con el fin de aumentar la estimación de la exactitud de u = efl
f(uh,uw). Se puede realizar un procedimiento de calibración para pUch usando un tamaño de objeto conocido visualizado por la cámara desde una distancia conocida.
efl
Precisión de la estimación de distancias: M = -u u ’ h" = (h Ah) x M. Ah es el error de estimación de la h *e fl h *e f l
longitud en el plano del objeto; ' h" 0 aa)*m ’ , donde u’ es la estimación de la “u” real: , _ h *e fl*u _ h*u
(h+ A h )*efl h+ A h
1 Ahr pixels_error*pitch u p ixel_error*pitch
AP á —
h*u h*u M h*u e f l h *e fl
Para un objetivo de cámara estándar, efl de 3 mm, paso de sensor de 1,4 pm (iPhone 5, Samsung Galaxy S3) y una tarjeta de crédito configurada como conocida, se permite un Obj, pixels_error de 45 [píxeles] para hacer posible una precisión de 0,25 D.
La medición del error de refracción puede incluir medir al menos uno de los parámetros siguientes: potencia del equivalente esférico (SEP) y/o potencia de astigmatismo; y (iii) eje o ángulo de astigmatismo. El examen puede incluir exámenes monoculares y opcionalmente también binoculares.
Según algunas realizaciones de la invención, las imágenes objetivo usadas para examinar el error de refracción del ojo, que incluye errores esféricos y cilíndricos, pueden variar en función del error particular examinado. Por ejemplo, se pueden usar imágenes objetivo “monodireccionales” para examinar y cuantificar errores astigmáticos. Las pruebas incluyen signos específicos conocidos, tales como letras y números (optotipos) de fuente, tamaño, color, textura y fondo conocidos. Esto proporcionará la potencia dióptrica del ojo examinado. Otras imágenes objetivo para examinar la agudeza visual, que incluye el error cilíndrico, pueden tener simetrías “multidireccionales” u “omnidireccionales”, tales como formas de anillos concéntricos, formas de tipo sol o formas de tipo mariposa. Cuando se usan imágenes objetivo multidireccionales u omnidireccionales, la MDBA se puede medir pidiendo al sujeto que observe un efecto visual específico a la distancia máxima de la imagen objetivo para determinar la potencia del cilindro lejano, la potencia del cilindro cercano y el ángulo/eje del cilindro del ojo examinado.
La imagen objetivo: la presentación de la imagen objetivo puede incluir características variables tales como su tamaño, color, el patrón de los mismos de la imagen objetivo a lo largo del tiempo.
Tamaño del objetivo: el tamaño de uno o más signos de la imagen objetivo (brevemente, también denominado “el tamaño del objetivo”) se puede calcular según los parámetros/constantes siguientes (LogMAR = logaritmo del ángulo mínimo de resolución):
“Offset” = distancia entre el ojo examinado y la forma de referencia
“d0bjTarget” = distancia entre la imagen objetivo y la forma de referencia
“d 11” = distancia entre el ojo examinado y la imagen objetivo
"Refdis lance LogMAR "= l,2[LogMAR]
“Refdistance” = 6,3 [m]
“RefTargetSize” = 8,7 [mm]
“RequireLogMar” = agudeza visual requerida
“fontConst” = factor de tamaño de fuente fijo
"distanceCalibrateToRequiredLogmar "= d i2 *i0ARequireLogMar
DistanceCalibrateToRequiredLogm ar TargetSize = RefD istance Re f TargetSize
FontTargetSize = FontConst * TargetSize
Tamaño del objetivo dinámico: objetivo con un tamaño que conserva un ángulo de visualización constante a lo largo de todas las posiciones axiales. El valor d12 es actualizado constantemente por el procesador (p. ej., por el módulo de estimación de distancias y calibración) a medida que cambia la distancia entre el ojo y el objetivo. Por consiguiente, FontTargetSize (0095) sigue el cambio en la distancia entre el ojo y el objetivo y mantiene un ángulo de visualización constante del objetivo para una agudeza visual requerida especificada. Objetivos de tamaño fijo: en estos casos, el tamaño de la imagen objetivo presentada en una cierta “prueba”?’ se ajusta a la agudeza visual requerida a distancias equiparables a la MDBA de la prueba anterior (pruebai-1) de la sesión. El valor d12 usado en el algoritmo se mantiene constante durante toda la sesión y no corresponde al cambio de distancia entre el ojo y el objetivo en tiempo real. Por ejemplo, si la MDBA resultante de una prueba anterior fue 33 cm, se usará un cálculo que usa d12 = 0,33 [m] para determinar el tamaño del objetivo durante esta prueba, a pesar de la distancia variable en tiempo real entre el objetivo y el ojo.
Las formas de signos de la imagen objetivo pueden ser, por ejemplo, letras, números, formas de anillo conectadas entre sí o situadas concéntricamente entre sí en un orden predefinido (p. ej., múltiples anillos concéntricos que tienen un espacio predefinido que separa cada par de anillos adyacentes).
Objetivo unidimensional:
f = frecuencia espacial
0 = ángulo del objetivo unidimensional deseado
A = constante
La frecuencia espacial del objetivo unidimensional f debe cumplir con la agudeza visual requerida.
Objetivo unidimensional significativo: el cuerpo del objetivo significativo está compuesto por un objetivo unidimensional, tal como líneas en una cierta orientación. Una realización del objetivo significativo pueden ser letras, tales como los objetivos 22a-22e mostrados en las Figuras 4A-4E. Otra realización puede ser una forma simple o compleja conocida, tal como un animal. El propósito de este objetivo es permitir al sujeto una identificación significativa de los detalles de la imagen objetivo. Una realización de un objetivo significativo puede ser letras como los objetivos 22a-22e mostrados en la Figura 4A-4E. Otra realización puede ser una forma conocida simple o compleja, como un animal. El propósito de este objetivo es permitir al sujeto una identificación significativa de los detalles de la imagen objetivo.
A una distancia superior a la MDBA, donde el sujeto percibe una imagen borrosa, el objetivo unidimensional se traduce en un promedio sin patrón de los colores que consisten en picos unidimensionales (Fig. 4D). El fondo está ajustado a ese color promedio borroso. En este caso, la imagen borrosa termina siendo una imagen casi imperceptible. El objetivo unidimensional solo se hace evidente cuando se visualiza a una distancia inferior a la MDBA, por tanto, los contornos de las letras o formas se vuelven perceptibles y significativos (Fig.4C).
El ángulo del objetivo unidimensional deseado corresponde al ángulo del error astigmático del sujeto.
El color de fondo del uno o más signos presentados en la imagen objetivo debe permitir preferiblemente que una imagen desenfocada sea casi imperceptible. Una pauta para la intensidad del fondo es 0,67, donde la constante A usada en [00102] es 1.
La Fig. 4F muestra la imagen objetivo 23 que muestra un orden específico de optotipos para examinar la potencia del equivalente esférico (SEP). La Fig. 4G muestra una imagen objetivo en blanco y negro (BN) 24 de anillos cónicos blancos sobre un fondo negro para examinar el error del cilindro (es decir, el ángulo y la potencia del cilindro).
Las imágenes objetivo cruzadas, tales como las imágenes objetivo 25a y 25b mostradas en las Figuras 4H-4I, muestran una cruz compuesta por dos o más líneas a un cierto ángulo “0”, cada una con una anchura de w
desplazada entre sí a una anchura de^2w, y dos o más líneas, a un ángulo de 0 90 cada una con una anchura de w desplazada entre sí a una anchura de^2w. La cruz se podría orientar a cualquier ángulo determinado.
Color del objetivo: el color del objetivo o algunas características del mismo (p. ej., su fondo, el color de los signos en el mismo, el nivel de contraste de los colores de las rayas de un patrón en el uno o más signos del mismo y similares) y/o el cambio del mismo durante el examen se pueden usar para ajustar la MDBA y/o ayudar a identificar cualquier aberración del cilindro (astigmatismo) del ojo y determinar el ángulo de la aberración del cilindro.
Imagen objetivo de cilindro cruzado cromático virtual tal como la imagen 25b (Fig. 4I): una imagen objetivo cruzada que tiene el color de las líneas a un ángulo 0 ajustado a Verde y ajustando el color de las líneas ortogonales a Rojo. Según algunas realizaciones, esta imagen objetivo se puede rotar durante el examen para medir el astigmatismo a un ángulo de 0 90.
En el caso donde una imagen en blanco y negro ha caído sobre la retina, la imagen en Rojo se visualizaría detrás de la retina en aproximadamente 0,25 D. La imagen Verde correspondiente da como resultado un desplazamiento axial de la imagen delante de la retina de aproximadamente 0,25 D. Este procedimiento cromático se puede usar junto con los desplazamientos del cilindro cruzado cromático virtual, un objetivo unidimensional delante de la retina y su correspondiente objetivo unidimensional ortogonal detrás de la retina. El procedimiento descrito corresponde a lo que habría hecho un cilindro cruzado tradicional. La potencia dióptrica del cilindro cruzado cromático virtual estaría determinada por la respuesta espectral de la pantalla. La longitud de onda de excitación más larga del rojo dará como resultado una potencia dióptrica efectivamente superior del cilindro cruzado cromático virtual. Asimismo, el uso de longitudes de onda más cortas, tales como el azul o el violeta, se podría usar junto con el rojo para aumentar la potencia dióptrica a -0,5 D, ya que la aberración cromática para la longitud de onda del azul (~480 nm) es -0,75 D y para el rojo (~636 nm) es 0,25 D. En este caso, sin embargo, se debe tener en cuenta un desplazamiento de -0,25 D al amarillo, como medio, y el objetivo se debe presentar a una distancia inferior en 0,25 D al equivalente esférico estimado. Por ejemplo, si se estimó una MDBA de 33,3 cm, que corresponde a un error de la esfera de -3D, el cilindro cruzado cromático virtual azul-rojo se debería usar a 0,308 [m] del ojo del usuario.
Imágenes objetivo cromáticas unidimensionales significativas 22b, 22c y 22e (Figuras 4B, 4C, 4E): en este procedimiento, el color del objetivo unidimensional significativo es el color Rojo (Fig. 4C) y las rayas del patrón se ajustan a un cierto ángulo 0. La imagen perceptible se compara con ajustar un color Verde o Azul al objetivo unidimensional significativo al mismo ángulo. Esto se repite a un ángulo de 0 90 (Figura 4E). Este procedimiento aplica el mismo principio del cilindro cruzado cromático virtual, donde en este procedimiento se usa el objetivo unidimensional con el fin de permitir el reconocimiento de cifras o letras.
Otro procedimiento opcional es usar una imagen objetivo significativa con una combinación de letras. Cada letra puede diferir en el color, la orientación, el patrón y/o la textura.
Las Figuras 4J-4L muestran una imagen objetivo en blanco y negro (BN) 26a-26b con anillos concéntricos: la Fig.
4J muestra la imagen 26a como se presenta sobre la pantalla, donde las Figuras 4K y 4L muestran una imagen 26b que ilustra cómo percibirá la imagen 26a un sujeto que tiene astigmatismo.
Se hace referencia ahora a la Fig. 5, que muestra un flujograma que ilustra esquemáticamente un procedimiento para medir el error de refracción del ojo de un sujeto, según algunas realizaciones de la invención. El procedimiento incluye iniciar una sesión de examen 41 (también denominada brevemente “sesión”), p. ej., a través de la IGU de la aplicación específica que se puede hacer funcionar mediante el dispositivo personal del sujeto. Una vez iniciada la sesión, se presenta una imagen objetivo, que tiene características gráficas preseleccionadas, sobre el área de visualización (p. ej., sobre la pantalla del dispositivo personal) 42. Se puede habilitar al sujeto/usuario para que seleccione el tipo de error de refracción que desea comprobar en cada momento o se puede configurar la aplicación para que compruebe todos los tipos en un orden predefinido mostrando imágenes objetivo seleccionadas en consecuencia.
A continuación, la IU de la aplicación pide al sujeto, que no lleva medios de corrección de la refracción, que indique cuál piensa que es la MDBA 43 con respecto a la imagen presentada e indique 44 cuándo alcanza esta posición de MDBA mediante la una o más opciones de retroalimentación de la aplicación y la IU de la misma. El sujeto puede buscar la posición de MDBA alejándose físicamente del área de visualización o alejando la propia área de visualización. Las instrucciones se pueden dar, por ejemplo, enviando mensajes de audio y/o texto a través de la pantalla y/o el altavoz del dispositivo personal, respectivamente.
La aplicación puede hacer funcionar el sensor del sistema/dispositivo personal de tal manera que adquiera datos continua o repetidamente o solo cuando el sujeto/usuario indica que lo autoriza, una vez que alcanza la MDBA. En cualquier caso, la aplicación está configurada para identificar o sincronizar el momento en el que recibe la indicación del sujeto de que ha alcanzado la posición de MDBA y los datos adquiridos del sensor en ese momento. Los datos adquiridos del sensor se reciben en el procesador del sistema 45 y también pueden almacenarse opcionalmente en una unidad de almacenamiento especificada.
Los datos adquiridos recibidos (p. ej., la imagen del ojo examinado u otra forma de referencia) se pueden procesar a continuación para estimar mediante los mismos (deducir a partir de los mismos) la distancia real “D” entre el ojo examinado y la imagen objetivo en el momento de alcanzar la MDBA 46.
Según algunas realizaciones, como se mencionó anteriormente, en el caso de un sensor que proporciona imágenes bidimensionales y cuando se usa una forma de referencia de dimensiones conocidas, el tamaño de una o más dimensiones (p. ej., anchura y/o longitud) de la imagen de la forma de referencia se compara con la una o más dimensiones absolutas correspondientes de la misma para deducir una distancia “D1” entre el sensor y la posición de la forma de referencia y a continuación se deduce la distancia “D” entre el ojo examinado y la imagen objetivo a partir de “D1”, conociendo la distancia real (absoluta) entre el área de visualización y el sensor y la distancia entre la forma de referencia y el ojo examinado.
La distancia “D” estimada entre el ojo examinado y la imagen objetivo y las características conocidas de la imagen objetivo se usan a continuación para calcular el valor de uno o más parámetros asociados al error de refracción del ojo 47, tales como la potencia “P”, como mencionó anteriormente. El uno o más valores resultantes se pueden enviar a continuación al sujeto 48, p. ej., presentándolos sobre el área de visualización y/o enviando un mensaje de audio.
Según algunas realizaciones, el examen puede incluir además un procedimiento de calibración preliminar 49 en los casos en los que el sensor se debe calibrar con respecto a las dimensiones de una forma de referencia específica que no se conocen en el sistema. Por ejemplo, en los casos en los que una forma de referencia temporal conocida (tal como la banda magnética de una tarjeta de crédito) solo se usa para calibrar el tamaño del ojo examinado del sujeto, también se usa como forma de referencia durante la sesión de mediciones real.
La Fig. 6 muestra un flujograma que ilustra un procedimiento de calibración preliminar para medir una forma de referencia de medición usando una forma de referencia temporal, según algunas realizaciones de la invención, en el que el sensor usado es una cámara capaz de producir datos de imágenes bidimensionales. La aplicación se puede configurar para que envíe una instrucción al sujeto que le pide que sostenga un elemento de forma de referencia temporal conocido, tal como una tarjeta de crédito, en una posición específica (p. ej., cubriendo el ojo no examinado con la banda magnética mostrada) 51.Una vez colocado el elemento de forma de referencia temporal 52, el sujeto puede indicarlo a través una plataforma de entrada especial de la IU o simplemente hacer funcionar la cámara mediante la IU para adquirir una imagen 53, la imagen adquirida debe incluir tanto el elemento de forma de referencia completo como el ojo examinado. Los datos de imagen adquiridos se procesan a continuación llevando a cabo un análisis de las imágenes de los mismos 54, un procedimiento que puede incluir, por ejemplo: (i) identificar la una o más dimensiones de la forma de referencia temporal (p. ej., la anchura y/o longitud y/o la posición angular de la banda magnética) produciendo una o más escalas proporcionales, tales como escalas de anchura y/o longitud; (ii) identificar contornos de la forma de referencia fija (p. ej., identificar los contornos del ojo examinado) y (iii) medir uno o más valores absolutos de uno o más parámetros de la forma de referencia fija (tales como la longitud absoluta del ojo). El uno o más valores absolutos del uno o más parámetros correspondientes se pueden almacenar a continuación en la unidad de memoria del sistema 55 para usar los mismos para la medición de distancias.
La Figura 7 muestra un flujograma que ilustra un procedimiento para identificar repetidamente una forma de referencia de una banda magnética de una tarjeta de crédito sostenida por un sujeto de manera que la tarjeta cubre su ojo no examinado, mediante la adquisición de imágenes bidimensionales de la misma con el fin de medir distancias, según algunas realizaciones de la invención. Una vez iniciado un examen 61, uno de los módulos de la aplicación recibe los datos de entrada 62, que incluyen una imagen bidimensional del fotograma captado actualmente, las dimensiones del elemento de tarjeta de crédito (TC) completo, y usa los datos de entrada 63 para llevar a cabo dos procedimientos paralelos para identificar las proporciones verticales y horizontales de la imagen de la TC. Para identificar la longitud de la imagen de la banda magnética (en número de píxeles) el algoritmo busca los bordes de la misma 64a/64b e identifica el tamaño de las líneas longitudinales y horizontales (“n” y “p”) que se extienden desde un borde de la banda magnética a otro en píxeles usando la transformación de Hough 65a-66a/65b-66b y equipara las líneas perpendiculares “n”-“p” según con la proximidad, el tamaño, el nivel de perpendicularidad y similares 67a, 67b, 68-69. Los pares n-p se usan a continuación para estimar las dimensiones verticales y horizontales de la imagen de la banda magnética 70-71, p. ej., promediando todos los pares de longitudes p y longitudes n (independientemente). Para identificar la longitud de la imagen de la banda magnética (en número de píxeles) el algoritmo busca los bordes de la misma 64a/64b e identifica el tamaño de las líneas longitudinales y horizontales ('n' y 'p') que se extienden desde un borde de la banda magnética a otro en píxeles mediante la transformación de Hough 65a-66a/65b-66b y coincide con las líneas perpendiculares 'n' - 'p' de acuerdo con la vecindad, el tamaño, el nivel de perpendicularidad y similares 67a, 67b, 68-69. Los pares np se utilizan luego para estimar las dimensiones verticales y horizontales de la imagen de banda magnética 70-71, por ejemplo, promediando las longitudes p y las longitudes n de todos los pares (por separado).
Los sistemas de la presente invención, en algunas realizaciones, se pueden configurar para llevar a cabo primero un examen de la miopía/hipermetropía/presbicia usando un primer conjunto de imágenes objetivo y a continuación llevar a cabo un examen para medir el astigmatismo midiendo el ángulo del cilindro y a continuación midiendo la potencia del cilindro.
El ángulo del cilindro, si existe, se puede estimar dirigiendo al sujeto a un intervalo estricto de distancias determinadas a partir de la MDBA de la esfera (MDBA relativa a un objetivo sin preferencias direccionales significativas). Se guía al sujeto para que comience a visualizar un objetivo simétrico concéntrico, tal como una imagen de dos colores (un color para el anillo y un color para el fondo, tal como una forma de anillos concéntricos en blanco y negro (BN) (véase la Fig.4J)) a una distancia MDBA, donde todos los anillos concéntricos tienen un aspecto igual de nítido. A continuación, la interfaz de usuario pide al sujeto que identifique una imagen de tipo reloj de arena (también denominada de tipo ampolleta o mariposa), si existe, más lejana que la MDBA, pero no más lejana de 2 x MDBA. Este intervalo estricto de distancias garantiza la identificación de la potencia del cilindro hasta la mitad de la potencia del equivalente esférico. Recibir una retroalimentación subjetiva sobre la percepción asimétrica (Fig. 4K) de un objetivo simétrico (Fig. 4J) (tal como un círculo o anillos concéntricos, tal como los mostrados en las Figuras 4G y 4J-4L) y el ángulo (Fig. 4L) en el que se produce la percepción asimétrica permite calcular la potencia y el eje del astigmatismo. Desde la posición donde el reloj de arena es más evidente, donde a un cierto ángulo hay un reloj de arena con arcos nítidos de alto contraste y un reloj de arena más ancho y borroso perpendicular, se puede estimar el eje, así como la potencia del cilindro. Se guía al sujeto para que identifique una barra, tal como la barra 41 de la Fig. 4L, en el centro del reloj de arena nítido para determinar el ángulo “0” entre un eje horizontal “x” de la imagen y la barra 41 para calcular el ángulo del astigmatismo. La distancia del ojo al objetivo, en la que se observa el reloj de arena nítido, corresponde a la potencia del eje débil del error cilíndrico. La verificación de la potencia astigmática puede ser asistida por un objetivo unidimensional al ángulo encontrado. Se recomienda el mismo intervalo estricto de distancias para evitar la inversión del contraste del objetivo periódico.
Según algunas realizaciones, el ángulo astigmático se determina usando uno o más de los procedimientos siguientes:
El procedimiento acromático: según este procedimiento, se pide al sujeto que mire una imagen objetivo en blanco y negro con detalles que indican la orientación del astigmatismo (por ejemplo, anillos concéntricos separados a igual distancia). Se indica al sujeto que visualice el objetivo a una distancia ligeramente más superior a la MDBA. El sujeto indica la orientación por medio de una respuesta subjetiva (retroalimentación) a través los medios de entrada del dispositivo/sistema. En el caso de círculos concéntricos, el sujeto indica la orientación del área de mayor contraste.
El procedimiento cromático: según este procedimiento, se pide al sujeto que mire un objetivo cromático con detalles que indican la orientación del astigmatismo, tal como el cilindro cruzado cromático virtual. Se dan instrucciones al sujeto para que visualice el objetivo a una distancia específica y/o un intervalo de distancias. La diferencia de cromaticidad/contraste permite una localización más fácil del eje de astigmatismo.
Determinar el poder astigmático: los objetivos usados para este tipo de mediciones del astigmatismo son objetivos unidimensionales en el meridiano astigmático. Estos objetivos ayudan a evaluar la MDBA para esa potencia astigmática. La imagen de anillos concéntricos (Fig. 4H) también se puede usar hasta que las áreas de contraste alto y bajo de los anillos concéntricos forman la imagen de reloj de arena más definida. El objetivo astigmático se mueve hacia atrás y hacia delante hasta el punto de máxima nitidez apreciable indicado por el sujeto y se toma como la distancia real “D” de la MDBA del mismo.
Se indica al sujeto que visualice el objetivo a una distancia a la MDBA del equivalente esférico. Para un cierto error astigmático máximo, la distancia del objetivo debe estar en el intervalo de:
Por ejemplo: para una SEP de -2,50 D, la MDBA es 400 mm; para un ASTG_error máximo de -3,00 D, el intervalo para el objetivo presentado debe estar entre 0,4 m y 1 m.
Se pueden usar diversos objetivos cromáticos para el ajuste. El elemento de forma de referencia usado para la medición de distancias (ejemplo: tarjeta de crédito) se puede usar como un medio de oclusión mientras tiene lugar el examen del ojo no ocluido.
Para examinar dioptrías inferiores: SEP < 1,50 D, el examen se hace con medios auxiliares, tales como un espejo. En este procedimiento, la pantalla debe estar orientada hacia el espejo y la cámara posterior hacia el sujeto. La distancia de la imagen observada por el sujeto es ahora la distancia entre el sujeto y la cámara posterior más el doble de la distancia entre la pantalla y el espejo. De esta manera, el sujeto aún puede sostener el teléfono inteligente a una distancia razonable (~65 cm) mientras visualiza objetivos a distancias de hasta 6 m. En este procedimiento, la cámara posterior se puede usar para estimar la distancia entre el ojo y la cámara posterior, mientras que la cámara frontal puede estimar la distancia entre la cámara frontal y el espejo. En este último ejemplo, se podría usar la forma conocida del teléfono inteligente como tamaño del objeto conocido para deducir la distancia.
Las Figuras 8A-8D muestran una imagen objetivo 27a para medir el eje de astigmatismo usando el procedimiento cromático: la Fig. 8A muestra una imagen objetivo de rayas de colores 27a para mediciones de astigmatismo que incluye tres líneas verticales paralelas, la del centro es verde y las dos líneas exteriores son rojas, sobre un fondo
negro, donde las líneas están separadas entre sí a una distancia conocida; la Fig. 8B muestra una imagen 27b que indica cómo percibirá la imagen objetivo 27a un sujeto que tiene un ángulo de astigmatismo de 0°; la Fig. 8C muestra una imagen 27c que indica cómo percibirá la imagen objetivo 27a de la Fig. 8A un sujeto que tiene un ángulo de astigmatismo de 45° y la Fig. 8D muestra una imagen 27d que indica cómo percibirá el objetivo de la Fig.
8A un sujeto que tiene astigmatismo que está coalineado con la dirección de las rayas de colores presentadas.
Cuando la imagen objetivo 27a de la Fig. 8A es visualizada por un sujeto que tiene un error de refracción por astigmatismo, se puede producir una cierta mezcla de colores. Por ejemplo, donde el desenfoque verde se superpone sobre el desenfoque rojo, se crea una línea amarilla. En la Fig. 8D se muestra la mezcla mínima de colores (generación de color amarillo) se produce cuando el eje astigmático está coalineado con la dirección de las rayas. Esta prueba sirve para reconocer cuándo estos dos ejes están coalineados.
Las Figuras 9A-9C muestran otra imagen objetivo 28a para medir el eje de astigmatismo usando el procedimiento cromático: la Fig. 9A muestra una imagen objetivo 28a con múltiples conjuntos de rayas de colores para mediciones de astigmatismo que incluye cuatro conjuntos de rayas, cada conjunto incluye tres rayas paralelas de color rojoverde-rojo separadas a igual distancia, donde los conjuntos de rayas se cruzan angularmente entre sí de tal manera que el ángulo entre cada par adyacente de conjuntos de rayas es sustancialmente igual; la Fig. 9B muestra una imagen 28b que ilustra cómo percibirá la imagen objetivo de la Fig. 9A un sujeto que tiene astigmatismo a un ángulo que es próximo a ai = 0° y la Fig. 9C muestra una imagen 28c que ilustra cómo un cambio hecho en la imagen objetivo 28a de la Fig. 9A según la retroalimentación del sujeto indica que el conjunto de rayas más nítidas que percibe es como se muestra en la Fig. 9B.
Según algunas realizaciones, para medir con exactitud el ángulo de astigmatismo del sujeto, el primer objetivo mostrado al sujeto es una imagen simétrica en color presentada a la MDBA tal como la imagen objetivo mostrada en la Fig. 9A. Una vez presentada la Fig. 9A a la MDBa , se pide al sujeto que separe el objetivo hasta una posición donde uno o más conjuntos de rayas son más nítidos que otros y a continuación se le pide que proporcione retroalimentación que indique cuál de los cuatro conjuntos de rayas se ve como el más nítido. En este ejemplo, la Fig. 9B representa una situación en la que los sujetos específicos ven el conjunto vertical de rayas como el más nítido. La retroalimentación del sujeto iniciará a continuación un procedimiento de refinamiento en el que, por ejemplo, los otros conjuntos de rayas no perpendiculares se moverán angularmente de tal manera que tendrán un ángulo menor entre ellos y el conjunto de rayas más nítidas seleccionado como se muestra en la Fig. 9C. Si se identificaron dos conjuntos como igual de nítidos, el objetivo rotará para colocar la cruz principal en el centro de los dos conjuntos identificados. Se pide al sujeto que vuelva a proporcionar retroalimentación que indique ahora cuál de los conjuntos de rayas es el más nítido para refinar el astigmatismo angular. Este procedimiento de acercar los conjuntos de rayas adyacentes al conjunto más nítido seleccionado se puede repetir hasta que el conjunto de rayas seleccionado sea el mismo que el seleccionado anteriormente. Alternativamente, puede tener lugar un procedimiento de refinamiento del ángulo como un cambio del ángulo de todo el objetivo, usando la IU y/o sensores relacionados (es decir, una cámara que identifica una inclinación de la tarjeta de crédito, un sensor de giroscopio del teléfono inteligente y similares) para identificar el ángulo en el que uno de los conjuntos es principalmente nítido, mientras que el conjunto perpendicular es principalmente borroso.
La Fig. 10 es un flujograma que ilustra esquemáticamente un procedimiento para medir el ángulo del cilindro usando un procedimiento cromático, según algunas realizaciones de la invención. Este procedimiento incluye recibir la MDBA con respecto a una MDBA medida anteriormente cuando se usa un objetivo sin preferencias direccionales 81 y dar instrucciones al sujeto para que se coloque o coloque la imagen objetivo (colocando el área de visualización) a la distancia MDBA 82. Una vez que el sujeto alcanza la MDBA del objetivo no direccional, se le presenta otra imagen objetivo 83 a través de los medios de visualización que muestran el objetivo cromático, tal como el objetivo de rayas mostrado en la Fig.9A, por ejemplo, y se recoloca el objetivo o el propio sujeto para alcanzar una nueva distancia “D” entre el objetivo y el ojo examinado del sujeto dentro de un intervalo de MDBA < D < 2 x MDBA 84. Se indica al sujeto que encuentre una distancia en la que reconoce uno o más conjuntos de rayas dentro del objetivo que son más nítidos que otros con una mezcla mínima de colores 85 y, si tal reconocimiento se hace dentro del intervalo, se ajusta la distancia a esa posición 86a. Una vez que el sujeto alcanza el MDBA del objetivo no direccional, se presenta otra imagen objetivo a him/her 83 a través de los medios de visualización que muestran el objetivo cromático, como el objetivo de rayas que se muestra en la Fig.9A, por ejemplo, y reubicar el objetivo o him/herself para alcanzar una nueva distancia "D" entre el objetivo y el ojo examinado del sujeto dentro de un rango de MDBA < D < 2xMDBA 84. Se indica al sujeto que encuentre una distancia en la que he/she reconoce uno o más conjuntos de tiras dentro del objetivo que son más nítidas que otras con una mezcla de color mínima 85 y establece la distancia en esa ubicación 86a si dicho reconocimiento se realiza dentro del rango. A continuación, el sistema mide automáticamente la distancia “D” en esa posición 87b y ajusta esta distancia como la nueva MDBA del eje más débil. La retroalimentación del sujeto que indica el ángulo de la raya más nítida se recibe del sujeto 88a y, si no se requiere refinamiento de este ángulo 89a, entonces se guarda el ángulo del cilindro y la MDBA del eje más débil 91. Si se requiere un refinamiento de ese ángulo 89a, la aplicación rota la imagen objetivo 90 y se repiten las etapas 88a-91. Si se requiere un refinamiento de ese ángulo 89a, la aplicación 90 hace girar la imagen objetivo y se repiten los pasos 88a-91.
En otra realización, que usa el sensor de giroscopio del dispositivo, un cambio en el ángulo del dispositivo
corresponderá a un cambio del ángulo de todo el objetivo. Esto se puede aplicar para refinar el ángulo usando el objetivo 9A, por ejemplo.
En caso de que no haya reconocimiento de una imagen nítida con una mezcla mínima de colores dentro del intervalo de MDBA < D < 2 x MDBA según la condición 85, la distancia “D” se ajusta donde la imagen del objetivo es más nítida 86b y el sistema mide D y la ajusta como la MDBA87b, tras la confirmación de la misma 88b se identifica como un estado de “ausencia de astigmatismo” 89b.
La Fig. 11 es un flujograma que ilustra esquemáticamente un procedimiento para medir el ángulo del cilindro usando un procedimiento acromático, que usa un objetivo simétrico concéntrico, según algunas realizaciones de la invención. Este procedimiento incluye recibir la MDBA correspondiente a una MDBA medida anteriormente cuando se usa un objetivo sin preferencias direccionales 131 y dar instrucciones al sujeto para que se coloque o coloque la imagen objetivo (colocando el área de visualización) a la distancia MDBA 132. Una vez que el sujeto alcanza la MDBA del objetivo no direccional, se le presenta otra imagen objetivo 133 a través de los medios de visualización que muestran una imagen simétrica concéntrica 26a, tal como la imagen de anillos concéntricos mostrada en la Fig.
4J, por ejemplo, y se recoloca el objetivo o el propio sujeto para alcanzar una nueva distancia “D” entre el objetivo y el ojo examinado del sujeto dentro de un intervalo de MDBA < D < 2 x MDBA 134 donde el objetivo se percibe como un reloj de arena. This process includes receiving MDBA related to a previously measured MDBA when using a target with no directional preferences 131 and instructing the subject to locate the target image (by locating the display area) or the subject at the MDBA distance 132. Una vez que el sujeto alcanza el MDBA del objetivo no direccional, se presenta otra imagen objetivo a him/her 133 a través de los medios de visualización que muestran una imagen simétrica concéntrica 26a, como la imagen de anillos concéntricos mostrada en la figura 4J, por ejemplo, y reubicar el objetivo o him/herself para alcanzar una nueva distancia "D" entre el objetivo y el ojo examinado del sujeto dentro de un rango de MDBA < D < 2xMDBA 134 donde el objetivo se percibe como un reloj de arena. Una vez que reconocida una imagen de reloj de arena 136, se indica al sujeto que encuentre la distancia “D” en la que la imagen de reloj de arena es la más nítida, dentro del intervalo mencionado 138a, donde se mide esta distancia y se ajusta como la MDBA del eje más débil 139a. A continuación, el sujeto puede introducir retroalimentación indicativa del ángulo de la vista del reloj de arena más nítida 140 y a continuación se guarda el ángulo del cilindro del eje fuerte y la MDBA del eje débil 143.
La Fig. 12 es un flujograma que ilustra esquemáticamente un procedimiento para la estimación de la potencia del cilindro usando un objetivo que contiene características unidimensionales, no forma parte de la invención. En este procedimiento, se recibe el ángulo del eje del cilindro de mediciones anteriores 151 (p. ej., como resultado del procedimiento descrito en la Fig. 10 o la Fig. 11). A continuación, se indica al sujeto que se coloque o coloque el área de visualización (p. ej., la pantalla) de manera que la distancia entre ellos sea la media de la MDBA de los ejes 152. Una vez que se alcanza esta distancia, se presenta una imagen objetivo con características unidimensionales al ángulo del cilindro 153 y se pide al sujeto que aumente la distancia entre su ojo examinado y el objetivo a la posición más distante (alejándose o alejando el área de visualización) dentro de un intervalo de MDBA < D < 2 x MDBA 154 donde la imagen objetivo aún es reconocible. Una vez que se alcanza esta distancia, se presenta una imagen de destino con características unidimensionales en el ángulo del cilindro 153 y se solicita al sujeto que aumente la distancia entre his/her ojo probado y el objetivo a la ubicación más distante (ya sea moviendo him/herself o moviendo el área de visualización más lejos) dentro de un rango de MDBA < D < 2xMDBA 154 donde la imagen de destino aún es reconocible. Esta distancia se mide y se ajusta como la MDBA del eje correspondiente 155 y estos parámetros se guardan 156. Para aumentar la exactitud, se puede repetir el procedimiento de estimación de la potencia del cilindro a la orientación de 90 grados con respecto a la medición anterior con el fin de identificar la potencia del eje fuerte. Para aumentar la precisión, se puede repetir el proceso de estimación de la potencia del cilindro en la orientación de 90 grados con respecto a la medición anterior para localizar la potencia del eje fuerte. Los resultados finales permiten tomar estos valores para preparar gafas o lentes de contacto 157 mediante los mismos. Por ejemplo, los parámetros incluyen los detalles siguientes: (i) potencia = potencia del eje débil; (ii) cilindro = la diferencia (resta) entre la potencia del eje fuerte y la potencia del eje débil y (iii) ángulo = ángulo del eje fuerte. Por ejemplo, los parámetros incluyen los siguientes detalles: (i) potencia = poder del eje débil; (ii) cilindro = la diferencia (resta) entre la potencia del eje fuerte y la potencia del eje débil; y (iii) ángulo = ángulo del eje fuerte.
Se podrían aplicar varios procedimientos con el fin de verificar que la MBDA medida no es demasiado corta ni demasiado larga. En este procedimiento, denominado en esta memoria “desenfoque anticipado”, el sujeto hace retroceder la pantalla desde la MBDA hasta una distancia equivalente a un desenfoque de una dioptría. Por ejemplo, una MBDA medida de 33 cm, que indica una potencia de 3 dioptrías, recibiría instrucciones de retroceder a 50 cm, que corresponden a 2 D. El desenfoque anticipado de 1 dioptría debería dar como resultado una reducción de 0,2 0,3 [logmar] para la agudeza visual.
Otro procedimiento para la verificación de la MDBA es un procedimiento cromático en el que el color del objetivo se cambia a un color que corresponde a una longitud de onda corta mientras se mantiene la misma distancia MBDA. La aberración cromática del ojo daría como resultado un cambio miópico, impidiendo así un resultado demasiado negativo. Una imagen en color nítida relacionada con una longitud de onda corta indicaría un resultado de la MDBA demasiado corto. El uso de un color relacionado con una longitud de onda larga verificaría, según el mismo principio,
que la MDBA no es demasiado larga, impidiendo un resultado demasiado positivo. Todos los procedimientos de verificación se podrían aplicar a todos los parámetros que se miden en cualquier etapa del examen.
La Fig. 13A muestra una imagen objetivo BN 30 de letras para medir la agudeza visual (VA) midiendo la potencia del equivalente esférico (SEP) aproximada de los ojos de los sujetos, según algunas realizaciones de la invención. La imagen objetivo básica 30 está compuesta por varias letras (proporciones de las letras del optotipo de Snellen, por ejemplo) con un cierto espacio entre cada letra.
La prueba de la SEP se realiza cuando la imagen objetivo 30 está situada en una posición fija, tal como a 1 m (o más) del sujeto. Los sujetos miopes verán el objetivo con cierto grado de desenfoque. El tamaño de la imagen objetivo 30 se cambiará hasta que su tamaño no esté correlacionado con un ángulo mínimo de resolución (MAR). Cada letra está compuesta normalmente por 5 elementos de MAR, y se reconoce parcialmente cuando el desenfoque es aproximadamente igual al tamaño de la letra. El sujeto debería ver un objetivo borroso a una distancia que supere su MDBA (p. ej., 2 m -> el mejor enfoque solo para miopía de -0,5 D donde los más miopes lo verán borroso), no estimulando, por lo tanto, la acomodación.
El tamaño de partida de las letras en la imagen objetivo 30 (o cualquier otra forma optométrica, Landolt C, Illeterate E, etc.) del objetivo es 6/6 (subtendiendo cada letra un ángulo de 5 minutos de arco). El objetivo se amplía hasta que el sujeto reconoce aproximadamente el 50 % de las letras. En algunas realizaciones, la MDBA aproximada está relacionada con el tamaño de letra elegido según la tabla de la Fig. 13B.
Alternativamente, se pueden presentar al sujeto varias líneas de optotipos de tamaño creciente vistas simultáneamente en la pantalla, en lugar de presentarle una única línea que se amplía hasta que el sujeto es capaz de reconocer el 50 % de las letras como se describió anteriormente con respecto a la imagen objetivo 30 de la Fig.
13A. A continuación, se pide al sujeto que lea la línea legible más pequeña.
Esta imagen 30 también se puede usar para una estimación aproximada de la SEP del sujeto para eliminar a los sujetos que tienen una SEP de una dioptría que supera un valor predefinido. Si la SEP es demasiado alta (p. ej., superior a 9 dioptrías (D)) de miopía, entonces puede que el examen computarizado no sea capaz de proporcionar una medición de la SEP lo suficientemente exacta y se puede negar al sujeto este servicio del sistema. Si la SEP está dentro de un intervalo permitido de dioptrías, la aplicación puede permitir que el sujeto continúe con el examen.
Las Figuras 14A y 14B muestran una imagen objetivo 31a de dos conjuntos de las mismas letras, uno sobre un fondo azul y el otro sobre un fondo rojo, para medir la SEP de los ojos de los sujetos, según algunas realizaciones de la invención. La Fig. 14A muestra la imagen objetivo 31a como se muestra en la pantalla para examinar la SEP y la Fig. 14B muestra una imagen 31b de cómo se percibirá la imagen objetivo 31a a la distancia MDBA cuando solo están borrosas las letras en azul y las rojas son legibles. Esta prueba y la imagen objetivo 31a están diseñadas para permitir que el sujeto reconozca fácilmente la posición de la MDBA con mayor exactitud.
La imagen objetivo 31a está compuesta por dos parches rectangulares adyacentes de color rojo y azul (o verde). Sobre cada parche hay varias letras (proporciones de las letras del optotipo de Snellen, por ejemplo) con un cierto espacio entre cada letra. Esta prueba solo se puede realizar para sujetos que no tienen daltonismo. El tamaño de partida de las letras (o cualquier otra forma optométrica, Landolt C, Illeterate E, etc.) de la imagen objetivo 31a es 6/6 (subtendiendo cada letra un ángulo de 5 minutos de arco). La prueba para la medición de la SEP se basa en la dispersión cromática de la óptica del ojo, con el objetivo rojo visto enfocado más lejos que el azul (verde). Por este motivo, el sujeto aún puede ser capaz de leer las letras sobre el fondo rojo cuando las letras sobre el fondo azul se vuelven completamente borrosas e ilegibles. El fondo azul se puede sustituir por un fondo verde.
En esta fase de detección de la SEP, se indica al sujeto que sostenga la pantalla (con la imagen objetivo 31a) de tal manera que las letras sobre los parches rojos y azules, o verdes, estén borrosas y sean ilegibles. A continuación, se indica al sujeto que acerque la pantalla (mientras que el tamaño del objetivo se ajusta para mantener el mismo ángulo continuamente o en etapas) hasta que pueda leer todas las letras sobre el parche rojo (letras negras con fondo rojo), mientras que sobre el parche azul (o verde) el sujeto no puede leer todas las letras (la condición de detención). De esta manera, el sujeto no se ve tentado a aplicar la acomodación y se detiene la primera vez que las letras rojas son legibles a la MDBA. La distancia resultante se mide a continuación a partir de la imagen tomada por la cámara del sistema y el análisis de imágenes de la misma, como se explicó anteriormente, donde la distancia MDBA se convierte a continuación en potencia del equivalente esférico con
Potencia = 1/m dba
Si el sujeto no puede encontrar la distancia a la que ve las letras 6/6, el sujeto puede pedir ampliar las letras al tamaño 6/9 a través de la IU de la aplicación (subtendiendo cada letra un ángulo de 7,5 minutos de arco) y se repite el procedimiento.
Las Figuras 15A y 15B muestran una imagen objetivo de tipo mariposa a rayas 32a que tiene rayas verdes con forma de arco sobre fondo negro con una de las rayas con forma de arco de cada lado de color rojo, según algunas
realizaciones de la invención: la Fig. 15A muestra la imagen objetivo de tipo mariposa 32a como se presenta sobre la pantalla para medir la MDBA y la Fig. 15B muestra el aspecto que tendría la imagen objetivo de tipo mariposa 32b al pasar la MDBA, donde las rayas rojas con forma de arco parecen volverse amarillas.
La imagen objetivo 32a está construida con dos sectores de un anillo concéntrico. El ángulo de cada sector puede ser 5°-45°. La mayoría de las rayas arqueadas son verdes, mientras que una o varias son de color rojo. La elección de dos colores hecha en este ejemplo es tal que la mezcla de colores por el desenfoque crea un color distinguible (rojo, en este caso). Además, debido a la aberración cromática del ojo, cuando la distancia entre el sujeto y la imagen objetivo alcanza la distancia de mezcla mínima (de lejos a cerca), la raya roja alcanza primero su punto más nítido. Las rayas verdes siguen desenfocadas y mezclan el rojo en las mismas, cambiando el rojo a amarillo. A menor distancia, el rojo está desenfocado y contribuye al cambio de color de los arcos verdes. El punto de detención se define como el punto donde desaparece el amarillo y aparece el color rojo (32c); en esta posición, el verde sigue desenfocado, por lo tanto, el sujeto no debe iniciar todavía la acomodación. Por lo tanto, esta distancia es la distancia MDBA para el cilindro cercano. La orientación de la imagen objetivo 32a se puede adaptar para que sea perpendicular al ángulo astigmático encontrado en pruebas de astigmatismo anteriores.
En algunas pruebas hechas, la mitad de la anchura de la función de dispersión del punto de enfoque es aproximadamente dos minutos de arco. Ese es también el grado de desenfoque perceptible, 0,15-0,2 [dioptrías]. Como la dispersión cromática perceptible es aproximadamente 0,25 D [dioptrías], tomando las rayas arqueadas de color rojo y verde como aproximadamente el mismo número, 2-4 minutos de arco, promete suficiente efecto de mezcla de colores.
Según algunas realizaciones, cuando se usan imágenes objetivo de tipo mariposa, tales como la imagen 32a, se puede indicar al sujeto a través de las herramientas de software y hardware de aplicación que se aleje o aleje la pantalla hasta que el anillo rojo (en nuestro ejemplo) se vuelva amarillento y a continuación comience a acercarla hasta que comience a ver rojo otra vez. A continuación, se mide automáticamente la distancia en este punto y se toma como la distancia MDBA (la estimada sobre la potencia astigmática más fuerte (“cilindro cercano”)).
Las Figuras 16A y 16B muestran una imagen objetivo de tres rayas rectas que tiene rayas laterales verdes y una raya central roja sobre fondo negro, según algunas realizaciones de la invención: la Fig. 16A muestra la imagen objetivo 33a como se presenta sobre la pantalla para medir el astigmatismo y la Fig. 16B muestra el aspecto que tendría la imagen objetivo 33b para un sujeto que tiene un astigmatismo de 180 grados.
Las Figuras 17A y 17B muestran otra imagen objetivo de tres rayas rectas 34a que tiene rayas laterales verdes y una raya central roja sobre fondo negro, según algunas realizaciones de la invención: la Fig. 17A muestra la imagen objetivo 34a como se presenta sobre la pantalla para medir el astigmatismo y la Fig. 17B muestra el aspecto que tendría la imagen objetivo 34b para un sujeto que tiene un astigmatismo de 180 grados.
Las Figuras 18A y 18B muestran una imagen objetivo de tipo “sol” en color 35a que tiene múltiples imágenes objetivo de rayas combinadas, donde cada raya de la imagen de tipo sol tiene rayas laterales verdes y una raya central roja sobre fondo negro, según algunas realizaciones de la invención: la Fig. 18A muestra la imagen objetivo de tipo sol 35a como se presenta sobre la pantalla para medir el astigmatismo y la Fig. 18B muestra el aspecto que tendría la imagen objetivo de tipo sol para un sujeto que tiene un astigmatismo de 180 grados. La imagen objetivo de rayas 33a de la Fig. 16A se usa para construir la forma similar al sol de la imagen objetivo 35a mostrada en la Fig. 18A. El componente básico del objetivo como se muestra en la Fig. 16A está compuesto por un par de rayas verdes laterales y una única raya roja central sobre un fondo negro que forman espacios negros entre las rayas verdes laterales y la roja. El bloque de construcción del objetivo básico como se muestra en la Fig. 16A está compuesto por un par de franjas laterales verdes y una franja roja única en el medio sobre un fondo negro que forma espacios negros entre las franjas verdes laterales y la roja. Cuando se visualiza con un error de refracción astigmático, se puede producir una cierta mezcla de colores, tal como se ilustra en la Fig. 17B para un astigmatismo de 180 grados. La mezcla depende de las propiedades del componente. En las Figuras 16A y 17A, las formas están hechas de tres rayas de color verde-rojo-verde. En otras imágenes objetivo de tipo sol similares, las rayas de color verde-rojo-verde tienen algo más de espacio entre ellas. En la Fig. 17B, las formas a 0° experimentan un desenfoque astigmático de 90, donde se creó una franja verdosa en el centro.
Cuando las formas coinciden con el eje de desenfoque astigmático, no aparece ninguna mezcla (Fig. 16B). El sujeto puede distinguir muy fácilmente cuál es el eje de astigmatismo dados los múltiples componentes simultáneos en diversas orientaciones, tal como en la imagen objetivo de tipo sol 35a. Debido a la aberración cromática del ojo, cuando el objetivo se acerca a la distancia de mezcla mínima (de lejos a cerca), la raya roja alcanza primero su punto más nítido. Cada raya verde sigue desenfocada y mezcla el rojo en su posición, lo que lo cambia a amarillo. A menor distancia, el rojo se desenfoca y contribuye al cambio de color del verde. El punto de detención se define como el punto donde desaparece el amarillo y aparece el color rojo; en esta posición, el verde sigue desenfocado, por lo tanto, el sujeto no debe iniciar todavía la acomodación. Por lo tanto, se considera que esta distancia es la MDBA.
La mitad de la anchura de la función de dispersión del punto de enfoque es aproximadamente 2 minutos de arco.
Ese es también el grado de desenfoque perceptible, 0,15-0,2 D [dioptrías]. Como la dispersión cromática perceptible es aproximadamente 0,25 D [dioptrías], tomar las rayas de color rojo y verde como aproximadamente el mismo número, 2-4 minutos de arco, promete suficiente efecto de mezcla de colores. Esta situación se demuestra en las Figuras 18A y 18B, donde la separación angular entre cada componente es 90°/4 = 22,5°. Es posible cambiar el número de componentes (imágenes de rayas), por ejemplo, a cuatro, con la separación angular resultante entre cada bloque de 90°/3 = 30° (parecida al reloj).
Obviamente, esta prueba solo se puede realizar en caso de que el sujeto no padezca daltonismo.
Según algunas realizaciones, en la fase de detección del ángulo astigmático, se indica al sujeto que sostenga la pantalla a una distancia en la que toda la imagen objetivo de tipo sol 35a está borrosa. Se pide al sujeto que acerque la pantalla hasta que el color de al menos una de las rayas de los objetivos cambie de amarillo a rojo de una manera evidente. Si el sujeto no puede ver al menos una de ellas, se cambia el tamaño del objetivo y se pide al sujeto que vuelva a intentarlo. Esto se puede hacer varias veces. El ángulo resultante es el ángulo de potencia astigmática más débil (“cilindrico lejano”). El eje del cilindro es perpendicular al ángulo resultante. La distancia descrita es la estimada sobre la potencia astigmática más débil.
Las Figuras 19A y 19B muestran una imagen objetivo de tipo sol que incluye el sol y una imagen de anillos concéntricos BN en el centro de la misma, según algunas realizaciones de la invención: la Fig. 19A muestra la imagen objetivo de tipo sol combinada 36a como se presenta sobre la pantalla para medir el astigmatismo y la Fig.
19B muestra el aspecto que tendría la imagen objetivo de tipo sol combinada 36b para un sujeto que tiene un astigmatismo de 180 grados.
El propósito de esta imagen objetivo combinada 36a es refinar la identificación del eje de astigmatismo. El uso de la forma cromática de tipo sol proporciona una resolución más aproximada y, por lo tanto, la imagen objetivo combinada 36a puede refinar esa resolución usando la forma de anillos concéntricos BN simultáneamente dentro de la misma imagen objetivo.
Según algunas realizaciones, en este caso se presenta la imagen objetivo 36a al sujeto después de la estimación aproximada del eje. La región brillante de la forma de anillos concéntricos de la imagen objetivo combinada 36a y la parte con forma de mariposa no borrosa de la imagen de tipo sol son perpendiculares. Se indica al sujeto que rote los marcadores de retículo superpuestos 11a y 11b para que coincidan con estos indicadores de los objetivos, es decir, con el eje central de la forma de mariposa nítida del objetivo de anillos concéntricos que se ha formado y la raya más nítida de la imagen de tipo sol como se muestra en la Fig. 19B.
Las Figuras 20A y 20B muestran una imagen objetivo de “anillos concéntricos” en color 37a que tiene múltiples anillos verdes con uno de los anillos de color rojo sobre un fondo negro, según algunas realizaciones de la invención: la Fig. 20A muestra la imagen objetivo de anillos concéntricos 37a como se presenta sobre la pantalla para medir el astigmatismo y la Fig. 20B muestra el aspecto que tendría la imagen objetivo de anillos concéntricos 37b para un sujeto que tiene un astigmatismo de 90 grados con una línea marcadora colocada por el sujeto sobre la imagen en una posición que indica que el centro de la forma de mariposa parece más nítido según la retroalimentación de entrada, según la cual se puede deducir el ángulo de astigmatismo del sujeto.
La imagen objetivo puede incluir solo un área parcial de los anillos concéntricos que consigue el mismo efecto.
La imagen objetivo 37a tiene anillos concéntricos de color verde sobre un fondo negro con adición de un único anillo rojo o varios. Esta imagen objetivo 37a se usa para refinar adicionalmente la identificación del eje de astigmatismo. Esta imagen objetivo 37a alcanza la MDBA según el mismo principio explicado en el objetivo de tipo “mariposa”.
La imagen objetivo 37a se presenta al sujeto después de la estimación aproximada del eje. Se indica al sujeto que sostenga la pantalla a una distancia en la que toda la imagen objetivo 37b está borrosa. A continuación, se indica al sujeto que acerque la pantalla hasta llegar a un cierto punto de detención según una condición predefinida. Debido a la aberración cromática del ojo, cuando el objetivo se acerca a la distancia de mezcla mínima (de lejos a cerca), la raya roja alcanza primero su punto más nítido. La raya verde sigue desenfocada y mezcla el rojo en su posición, lo cambia a amarillo. A menor distancia, el rojo se desenfoca y contribuye al cambio de color del verde. Por lo tanto, el punto de detención se define a una distancia en la que desaparece el amarillo y aparece el color rojo. En esta posición, el verde sigue desenfocado, por lo tanto, el sujeto no debe comenzar todavía la acomodación. Por lo tanto, esta distancia es la MDBA. Se puede indicar al sujeto que rote el marcador con una línea indicadora 39 para corregir la orientación. La mitad de la anchura de la función de dispersión del punto de enfoque es aproximadamente 2 minutos de arco. Ese es también el grado de desenfoque perceptible, 0,15-0,2 [dioptrías]. Como la dispersión cromática perceptible es aproximadamente 0,25 [dioptrías], tomar las rayas de color rojo y verde como aproximadamente el mismo número, 2-4 minutos de arco, promete suficiente efecto de mezcla de colores.
Las Figuras 21A y 21B muestran dos imágenes objetivo diferentes 701a y 702, que tienen cada una un patrón singular usado para una prueba de validación opcional también denominada en esta memoria “la prueba africana”, según algunas realizaciones de la invención. La Fig. 21A muestra una imagen objetivo 701a que tiene conjuntos
intercambiables de filas de unidades elípticas amarillas y rojas (también denominadas en esta memoria “componentes”) dispuestas en filas. La imagen objetivo está cortada por dos rayas verdes oscuras, superior e inferior, sin raya central oscura (imagen 701a), o con una raya central verde oscura de un espesor inferior a las rayas superior e inferior (imagen 702). Las formas se eligen para que produzcan un patrón espacial con un contraste mínimo en presencia de desenfoque simétrico/esférico: el componente periódico básico (imagen 710) consiste en un color de contraste igualmente espaciado en todas las direcciones y, cuando se produce desenfoque simétrico, los dos colores principales se promedian produciendo un patrón uniforme. La perturbación de la estructura periódica (como en el centro de la imagen 701a) acerca los mismos colores en una cierta dimensión. En esta dimensión, las formas no cambiarán de color significativamente bajo un desenfoque direccional, tal como el desenfoque cilíndrico coherente con esa dimensión. Otro procedimiento para generar un patrón singular bajo desenfoque direccional se representa en la imagen 701/702, donde la imagen objetivo está cortada por dos rayas verdes oscuras gruesas, superior e inferior. En presencia de desenfoque direccional (que es coherente con la dimensión antes mencionada), los dos colores se difuminan en la franja oscura sin mezcla mutua. Esto crearía un patrón de rayas alternas de color amarillo-rojo dado el fondo negro. Como los niveles de gris de tal patrón son bajos, un cambio pequeño en el color del fondo podría cambiar el color del patrón. El uso del color verde oscuro logrará un patrón alterno de color verderojo (imagen 701b).
La Fig. 22 muestra una imagen ampliada del patrón 710 de las imágenes objetivo 701a y 702 de las Figuras 21A y 21B inclinado en una de las posibles direcciones intercambiables.
La Fig. 23 muestra el aspecto que tendría la imagen objetivo de la Fig. 21A a la distancia a la que se indica al sujeto que se detenga (MBDA), donde la presencia de los patrones alternos superior e inferior de color verde-rojo y el patrón central de color rojo-amarillo es más evidente. Esto sucede a una distancia específica donde la combinación de esfera y cilindro produce un desenfoque conocido.
Las Figuras 24A y 24B muestran una imagen ampliada del patrón de la imagen objetivo 701a de la Fig. 21A.
Las imágenes 701a o 702 se usan para validar el error de la esfera y el cilindro ya medido del sujeto. La imagen objetivo 701a, por ejemplo, se presenta sobre la pantalla y se pide al sujeto que se sitúe frente a la pantalla a la distancia MDBA donde los patrones alternos de color rojo-verde y rojo-amarillo son más evidentes (imagen 701b). En este punto de detención, un desenfoque se compone de contribuciones esféricas y cilíndricas. A partir de la evaluación de dos o más objetivos similares que difieren en el tamaño, es posible relacionar las combinaciones de distancias obtenidas con un error de la esfera y el cilindro específico. Estos tamaños de imagen se determinan según el examen anterior del error de la esfera y el cilindro (astigmatismo). En caso de que el sujeto tenga astigmatismo de 90 grados, la imagen tendría el aspecto de una imagen 701b como se muestra en la Fig. 23 en la posición del punto de detención del sujeto particular. En este aspecto de la imagen 701b, las rayas de color verde oscuro superior e inferior más gruesas de la imagen objetivo original 701a parecería que tienen componentes alternos de color marrón/rojo y verde y la raya central oscura tendrá en su lugar componentes alternos de color amarillo y rojo.
La imagen objetivo 701a se ve afectada de manera diferente por el desenfoque del error de la esfera y el desenfoque astigmático. Por lo tanto, para cualquier otro desenfoque astigmático (distinto de 90 grados), la orientación y el tamaño de la imagen objetivo 701a se orientarán con el fin de obtener estos efectos profundos.
Las áreas del patrón de la imagen objetivo 701a que son de fondo se vuelven uniformes para un grado de desenfoque de aproximadamente 2 x h. Cabe esperarlo, ya que las formas elípticas de las filas vecinas se promedian como se ilustra en las Figuras 24A y 24B. Las dos líneas de color verde oscuro, que tienen una altura de 1 x h, se colorean a partir de las filas vecinas: el desenfoque crea los parches rojos y verdosos-amarillentos. Su contraste es mucho menor que para el desenfoque astigmático, ya que en el caso astigmático el rojo se crea solo a partir de rojo y el verdoso para las filas inferior y superior amarillas (Fig.24B), mientras que para el error de refracción esférico solo los componentes del patrón de color rojo y amarillo comienzan a mezclarse entre sí y reducen el contraste a medida que el desenfoque de la esfera sigue creciendo (Fig. 24A). Presencia de desenfoque esférico y astigmático simultáneamente: este es el caso cuando el punto de desenfoque es una elipse en lugar de un disco circular. Por lo tanto, el componente vertical impone el aspecto de todos los efectos antes mencionados (tres), mientras que el componente horizontal se debilita. Si el tamaño de la imagen objetivo 701a es constante y se mueve axialmente, para cada posición: (a) se obtiene un efecto de desenfoque diferente; (b) cambia la fuerza mutua de los componentes verticales y horizontales y (c) cambia la relación del punto de desenfoque a “h”.
Relación entre el desenfoque y el error de refracción: como el desenfoque es significativo, la relación de la óptica geométrica es válida:
0[rad] = Dpupila[m\xAL
Donde 0 es el tamaño angular del disco de desenfoque; Dpupila es el diámetro de la pupila y AL es el error dióptrico.
\díoptrías]0[mimitos de arco] = 60----Z)pUp¿¡ [m] x A L [ dioptrías ]
La imagen objetivo 701a o 702 se rota al mismo ángulo que el encontrado en los círculos concéntricos, pero a 90 grados con respecto a la línea nítida sobre el sol brillante.
En algunas realizaciones, el procedimiento de prueba incluye las etapas siguientes: (i) se pide al sujeto que aleje la pantalla hasta que todo el objetivo esté borroso y a continuación (ii) que comience a acercar la pantalla hasta que vea el efecto antes mencionado. (iii) A continuación, se cambia el tamaño de un objetivo y se pide al sujeto que repita la prueba. El procedimiento se realiza varias veces con objetivos a diferente escala. El punto de detención con cada una de estas iteraciones es diferente debido a los cambios en el ángulo de visualización que subtiende “h” (Fig. 710) y en los pesos de los componentes esféricos y cilíndricos del punto de desenfoque. Por consiguiente, se registran varias distancias. Como el tamaño y las características de la imagen objetivo son conocidos, se usan para calcular la potencia astigmática y para refinar los resultados anteriores de la potencia de la esfera y la potencia astigmática.
La Fig. 25 muestra otro componente opcional 711 para un patrón para la prueba de validación, según otras realizaciones de la invención.
La Fig. 26 muestra otro componente opcional 712 más para un patrón para la prueba de validación, según otras realizaciones de la invención.
Las Figuras 27A y 27B muestran un flujograma que ilustra un procedimiento de un examen optométrico para medir el error de refracción del ojo de un sujeto, que incluye mediciones de la SEP y el astigmatismo, usando algunas o todas las diversas imágenes objetivo de la presente invención especificadas anteriormente, según algunas realizaciones de la presente invención: la Fig. 27B es una continuación del procedimiento de la Fig. 27A. El sistema lleva a cabo el procedimiento usando la aplicación de software específica que se puede hacer funcionar en el dispositivo personal del sujeto, tal como la tableta o el teléfono inteligente del sujeto, usando un sensor de la cámara del dispositivo personal o un sensor externo controlable por el dispositivo personal. El proceso lo lleva a cabo el sistema usando la aplicación de software designada que se puede operar sobre el dispositivo personal del sujeto, como la tableta o el teléfono inteligente del sujeto, usando un sensor de cámara del dispositivo personal o un sensor externo controlable por el dispositivo personal.
Inicialmente, se realiza una prueba de agudeza visual (AV) 801, p. ej., usando la una o más imágenes objetivo de letras, tales como las como imágenes 30 y/o 31a. Los datos de la SEP estimada aproximadamente (RE-SEP) resultantes 802 de la prueba de AV se pueden guardar opcionalmente junto con la MDBa del sujeto. La prueba de AV puede ir precedida de una prueba de calibración para permitir medir, por ejemplo, un elemento facial del sujeto, tal como la anchura del ojo examinado o no examinado, para la medición de distancias como se explicó anteriormente. Alternativamente, se puede pedir al sujeto que sostenga el elemento de referencia sobre el ojo no examinado para la medición de distancias.
Si el valor de la RE-SEP está dentro de un intervalo dióptrico predefinido (p. ej., entre 0 y -9 dioptrías) 803, entonces se permite al sujeto que use la aplicación para realizar pruebas del error de refracción. Si la RE-SEP se encuentra fuera del intervalo, entonces puede que la aplicación no sea capaz de llevar a cabo una medición lo suficientemente exacta y, por lo tanto, se puede finalizar el procedimiento 805.
La aplicación comprueba además si la RE-SEP supera un valor umbral predefinido 804 para seleccionar el tamaño de pantalla apropiado (y por lo tanto, el dispositivo personal apropiado) requerido para examinar al sujeto 806-807.
Una vez seleccionado el tamaño de pantalla y, por lo tanto, el tipo de dispositivo personal, se selecciona el tamaño de la imagen objetivo apropiado para la prueba del error del cilindro 808 según los resultados de la RE-SEP y se realiza la prueba del error del cilindro lejano 809, p. ej., usando la prueba cromática como se explicó con respecto a las Figuras 15A-20B. La prueba del error del cilindro lejano más aproximada puede implicar usar la imagen objetivo cromática de tipo sol (Figuras 18A-18B) y una o más pruebas de refinamiento 810 usando, por ejemplo, una o más de: (1) la imagen objetivo de anillos concéntricos BN (Figuras 4J-4L); (2) la imagen cromática combinada del sol y los anillos concéntricos BN (Figuras 19A-19B) y/o (3) la imagen objetivo cromática de anillos concéntricos (Figuras 20A-20B).
[0151]También se realiza una prueba del error del cilindro cercano 811 usando, por ejemplo, la imagen objetivo de tipo mariposa (Figuras 15A-15B). Si se detecta error del cilindro 812, se realiza una prueba refinada para determinar la potencia y el ángulo del cilindro 813, p. ej., usando la prueba africana como se explica con respecto a las Figuras 21A-23.
Si no se detecta error del cilindro 812, se puede realizar una prueba refinada de la SEP, p. ej., usando una o más pruebas que usan al menos una de las imágenes objetivo siguientes: (1) las pruebas de las letras rojas y azules/verdes 814 (Figuras 14A-4B); (2) la imagen objetivo de tipo mariposa (Figuras 15A-15B) a ángulos
arbitrarios y/o (3) una imagen objetivo que muestra dos mariposas perpendiculares superpuestas.
En cualquiera de las pruebas descritas anteriormente, la IU de la aplicación permite dar instrucciones al sujeto a lo largo de la prueba, a la vez que proporciona una plataforma de entrada para introducir datos y comandos operativos, tal como para hacer funcionar la cámara para captar la imagen de la cara del sujeto cuando el sujeto siente que ha alcanzado la posición de la MDBA y similares. La aplicación también se puede configurar de tal manera que pueda dar instrucciones al sujeto para que corrija la forma en que sostiene el dispositivo personal o la cámara. Las instrucciones se pueden mostrar visualmente y/o se puede enviar un audio, tal como mediante comandos de voz pregrabados, y/o indicar a través de una salida táctil, p. ej., usando opciones de vibración del dispositivo personal. Por ejemplo, para indicar al sujeto que incline el dispositivo en una dirección específica, este puede aumentar las vibraciones cuando lo inclina en la dirección correcta y atenuar las vibraciones cuando lo inclina en la dirección contraria.
Se puede usar una cualquiera o más imágenes objetivo de cualquier forma, simetría y color para medir uno cualquiera o más aspectos del error de refracción del sujeto. La presente invención no se limita a las imágenes objetivo ilustradas anteriormente y se pueden usar otras imágenes objetivo nuevas o conocidas. Las imágenes objetivo presentadas en esta solicitud también se pueden modificar, tener colores diferentes o tener anchuras de línea o texturas diferentes.
Según algunas realizaciones de la presente invención, se proporciona un procedimiento de corrección para corregir la potencia del cilindro y la esfera. El procedimiento de corrección comprende las etapas de: recibir el ángulo de astigmatismo, la potencia del cilindro y la potencia de la esfera resultantes de pruebas anteriores del sujeto; presentar la imagen objetivo de patrón singular sobre el área de visualización rotada a un ángulo de astigmatismo del sujeto, según el ángulo de astigmatismo recibido, dicha imagen objetivo de patrón singular se presenta sobre el área de visualización en al menos dos tamaños, cada tamaño calculado según la potencia del cilindro y la potencia de la esfera obtenidas. Para cada tamaño de la imagen objetivo de patrón singular presentada, se indica al sujeto que se distancie de la imagen objetivo hasta que reconozca un efecto visual predefinido, para cada tamaño de la imagen objetivo de patrón singular presentada, se mide la distancia entre la imagen objetivo de patrón singular y el ojo examinado del sujeto y se recalcula la potencia del cilindro y la potencia de la esfera según las distancias medidas.
Los expertos en la materia pueden realizar muchos cambios y modificaciones sin apartarse del alcance de la invención. Por lo tanto, se debe entender que la realización ilustrada se ha expuesto solo como ejemplo y que no se debe considerar como limitante de la invención como se define en la siguiente invención y sus diversas realizaciones y/o en las reivindicaciones siguientes. Por ejemplo, a pesar del hecho de que los elementos de una reivindicación se exponen a continuación en una cierta combinación, se debe entender expresamente que la invención incluye otras combinaciones de menos, más o diferentes elementos que están descritos anteriormente incluso cuando no se reivindican inicialmente en tales combinaciones. La enseñanza de que dos elementos se combinan en una combinación reivindicada se debe entender además como que también permite una combinación reivindicada en la que los dos elementos no se combinan entre sí, sino que se pueden usar solos o combinados en otras combinaciones. La eliminación de cualquier elemento descrito de la invención se contempla explícitamente como dentro del alcance de la invención.
Las palabras usadas en esta memoria descriptiva para describir la invención y sus diversas realizaciones se deben entender no solo en el sentido de sus significados definidos habituales, sino también para incluir mediante definición especial en esta memoria descriptiva la estructura, el material o las acciones más allá del alcance de los significados definidos habituales. Por tanto, si se puede entender en el contexto de esta memoria descriptiva que un elemento incluye más de un significado, entonces su uso en una reivindicación se debe entender como genérico para todos los posibles significados avalados por la memoria descriptiva y por la propia palabra.
Por lo tanto, las definiciones de las palabras o los elementos de las reivindicaciones siguientes se definen en esta memoria descriptiva para que no solo incluyan la combinación de elementos que se expone literalmente, sino también toda la estructura, el material o las acciones equivalentes para realizar sustancialmente la misma función de sustancialmente de la misma manera para obtener sustancialmente el mismo resultado. Por lo tanto, en este sentido se contempla que se puede hacer una sustitución equivalente de dos o más elementos por uno cualquiera de los elementos en las reivindicaciones siguientes o que se puede sustituir un único elemento por dos o más elementos en una reivindicación. Aunque los elementos se pueden haber descrito como que actúan en ciertas combinaciones e incluso reivindicado inicialmente como tales, se debe entender expresamente que uno o más elementos de una combinación reivindicada se pueden eliminar en algunos casos de la combinación y que la combinación reivindicada se puede referir a una subcombinación o a una variación de una subcombinación.
Los cambios no sustanciales de la materia reivindicada tal como los ve un experto en la materia, ya conocidos o ideados posteriormente, se contemplan expresamente como equivalentes dentro del alcance de las reivindicaciones. Por lo tanto, las sustituciones obvias conocidas ahora o posteriormente por un experto en la materia se definen para que estén dentro del alcance de los elementos definidos.
Por tanto, se debe entender que las reivindicaciones incluyen lo que se ha ilustrado y descrito específicamente anteriormente, lo que es conceptualmente equivalente, lo que se puede sustituir obviamente y también lo que incorpora esencialmente la idea esencial de la invención.
Aunque la invención se ha descrito pormenorizadamente, no obstante, los cambios y las modificaciones que no se apartan de las enseñanzas de la presente invención serán evidentes para los expertos en la materia.
REFERENCIAS
1. R. BEDFORD and G. WYSZECKI, "Axial Chromatic Aberration of the Human Eye," J. Opt. Soc. Am. 47, 564_1-565 (1957)
Claims (12)
1. Un aparato para proporcionar una indicación de al menos un error de refracción de un ojo de un sujeto, comprendiendo el aparato:
medios para presentar al menos una imagen objetivo sobre un área de visualización;
al menos un procesador que comprende medios para recibir retroalimentación del sujeto para cada imagen objetivo presentada que indica que el sujeto está situado a una distancia máxima de mejor agudeza, MDBA, de la imagen objetivo de entre las múltiples distancias experimentadas por el sujeto cuando visualiza la imagen objetivo con un ojo del mismo, siendo dicha MDBA la distancia máxima a la que dicho sujeto reconoce con nitidez uno o más elementos visuales de dicha imagen objetivo usando dicho ojo;
al menos un sensor para adquirir datos que representan una distancia real entre el ojo del sujeto y dicha imagen objetivo que corresponde a la MDBA subjetiva;
comprendiendo además el al menos un procesador un módulo de estimación de distancias y calibración (112) para estimar la MDBA según dichos datos adquiridos, y un módulo de retroalimentación (113), y que está configurado para calcular al menos un
parámetro asociado al error de refracción del ojo, el al menos un parámetro calculado está basado en dicha imagen objetivo y la MDBA estimada.
2. El aparato de la reivindicación 1, donde dichos datos adquiridos comprenden al menos una imagen captada de una cara del sujeto que incluye el ojo examinado y una forma de referencia de dimensiones conocidas, donde el sensor es una cámara configurada para enviar la al menos una imagen, y donde el medio para estimar la MDBA es una aplicación de software específica para ello.
3. El aparato de la reivindicación 2, donde la forma de referencia de dimensiones conocidas se usa para determinar uno o más rasgos faciales del sujeto.
4. El aparato de una cualquiera de las reivindicaciones 1-3, donde el módulo de estimación de distancias y calibración está configurado para dar instrucciones al sujeto de que se coloque a la MDBA según su perspectiva subjetiva.
5. El aparato de una cualquiera de las reivindicaciones 1-4, donde la al menos una imagen objetivo se usa para examinar uno o más tipos de error de refracción de la lista siguiente: miopía, hipermetropía, presbicia y astigmatismo, lo que incluye la potencia del cilindro y el eje del cilindro.
6. El aparato de una cualquiera de las reivindicaciones 1-5, donde dicha imagen objetivo comprende una imagen de tamaño objetivo dinámico, donde el objetivo tiene un tamaño que conserva un ángulo de visualización constante a lo largo de todas las posiciones axiales.
7. El aparato de una cualquiera de las reivindicaciones 1-6, donde dicha imagen objetivo comprende imágenes objetivo que tienen simetrías multidireccionales o simetrías omnidireccionales tales como formas de anillos concéntricos, formas de sol o formas de mariposa.
8. El aparato de una cualquiera de las reivindicaciones 1-7, donde el aparato está configurado para llevar a cabo una prueba para medir el astigmatismo midiendo el ángulo del cilindro y a continuación midiendo la potencia del cilindro.
9. El aparato de la reivindicación 8, que comprende:
medios para medir un ángulo del cilindro usando un procedimiento cromático.
10. El aparato de una cualquiera de las reivindicaciones 1-9, donde la al menos una imagen objetivo comprende dos imágenes objetivo diferentes (701a, 702), que tienen cada una de ellas un patrón singular usado para una prueba de validación.
11. El aparato de una cualquiera de las reivindicaciones 1-10 que comprende medios para realizar un procedimiento de corrección para corregir la potencia del cilindro y de la esfera, comprendiendo dicho procedimiento de corrección las etapas de: recibir el ángulo de astigmatismo, la potencia del cilindro y la potencia de la esfera resultantes de pruebas anteriores del sujeto, presentar la imagen objetivo de patrón singular sobre el área de visualización rotada a un ángulo de astigmatismo del sujeto, según el ángulo de astigmatismo recibido, dicha imagen objetivo de patrón singular se presenta sobre el área de visualización en al menos dos tamaños, cada tamaño calculado según la potencia del cilindro y la potencia de la esfera recibidas, para cada tamaño de la imagen objetivo de patrón singular presentada, dar instrucciones al sujeto de que se aleje de la imagen objetivo hasta que reconozca un efecto visual predefinido en el que la presencia de al menos un patrón alterno verde-rojo o rojo-amarillo es más evidente; para cada tamaño de la imagen objetivo de patrón singular presentada, medir la distancia entre la imagen
objetivo de patrón singular y el ojo examinado del sujeto; y recalcular la potencia del cilindro y la potencia de la esfera según las distancias medidas.
12. El aparato según una cualquiera de las reivindicaciones 1-11, donde dicha imagen objetivo comprende una imagen seleccionada de un grupo que consiste en:
una primera imagen objetivo que incluye una única fila de signos de un único color presentados sobre un fondo predefinido de un color diferente, donde la MDBA, cuando se usa la primera imagen objetivo, se define como la distancia máxima a la que los signos son reconocibles por el sujeto;
una segunda imagen objetivo que incluye dos filas de signos, teniendo cada fila signos, cada fila presentada sobre un color de fondo diferente, donde la MDBA, cuando se usa la segunda imagen objetivo, se define como la distancia máxima a la que los signos de una de las filas están borrosos y los signos de la otra fila son distinguibles por el sujeto;
una tercera imagen objetivo que incluye una imagen de tipo mariposa que incluye rayas curvas sobre un fondo, donde al menos algunas de las rayas son de un primer color y al menos una raya de las rayas es de un segundo color, y el fondo es de un tercer color, donde la MDBA, cuando se usa la tercera imagen objetivo, se define como la distancia máxima a la que al menos una raya del segundo color recupera su color original mediante enfoque; una cuarta imagen objetivo que incluye una imagen de anillos concéntricos bicolores o una parte de los anillos concéntricos donde la MDBA, cuando se usa esta imagen objetivo, se define como la distancia máxima a la que al menos una imagen de tipo mariposa de la forma de anillos concéntricos es visible con nitidez;
una quinta imagen objetivo que incluye una imagen de anillos concéntricos en color que tiene anillos de al menos un color y un fondo de un color diferente, donde la MDBA, cuando se usa la quinta imagen objetivo, se define como la distancia máxima a la que al menos una imagen de tipo mariposa de la forma de anillos concéntricos es visible con nitidez con al menos una raya del segundo color, que no ha cambiado su color;
una sexta imagen objetivo que incluye una imagen cromática en forma de sol que incluye múltiples elementos de rayas, cada elemento comprende al menos una raya exterior de un color y una raya central de otro color, dichos elementos están dispuestos radialmente de tal manera que forman una forma similar al sol radialmente simétrica, donde la MDBA cuando se usa la sexta imagen objetivo, se define como la distancia máxima a la que al menos algunos de los elementos son visibles con nitidez sin cambio en el segundo color;
una séptima imagen objetivo que incluye una imagen cromática en forma de sol combinada y una imagen de anillos concéntricos, dicha imagen de anillos concéntricos está situada en el centro de una imagen cromática de anillos de tal manera que comparte el mismo eje de simetría radial, donde la MDBA, cuando se usa la séptima imagen objetivo, se define como la distancia máxima a la que al menos algunos de los elementos de la imagen cromática en forma de sol son visibles con nitidez y al menos una imagen de tipo mariposa de la forma de anillos concéntricos es visible sin cambio en el segundo color de la imagen cromática en forma de sol; y
una octava imagen objetivo que incluye una imagen de patrón singular donde un componente básico es una forma elíptica inclinada, replicada en filas y columnas mientras intercambia su color en cada dimensión, donde al menos una línea oscura obstruye total o parcialmente al menos una parte de la fila del patrón o al menos una región de perturbación para la estructura periódica básica.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201361831685P | 2013-06-06 | 2013-06-06 | |
| PCT/IL2014/050506 WO2014195951A1 (en) | 2013-06-06 | 2014-06-05 | System and method for measurement of refractive error of an eye based on subjective distance metering |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2886136T3 true ES2886136T3 (es) | 2021-12-16 |
Family
ID=52007655
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES14808041T Active ES2886136T3 (es) | 2013-06-06 | 2014-06-05 | Sistema para la medición del error de refracción de un ojo basado en la medición subjetiva de distancias |
Country Status (13)
| Country | Link |
|---|---|
| US (3) | US9549669B2 (es) |
| EP (1) | EP3003121B1 (es) |
| JP (2) | JP6453859B2 (es) |
| KR (1) | KR102252090B1 (es) |
| CN (2) | CN105764405B (es) |
| AU (1) | AU2014276340B2 (es) |
| CA (1) | CA2914456C (es) |
| DK (1) | DK3003121T3 (es) |
| ES (1) | ES2886136T3 (es) |
| IL (1) | IL242949B (es) |
| PT (1) | PT3003121T (es) |
| RU (2) | RU2706372C9 (es) |
| WO (1) | WO2014195951A1 (es) |
Families Citing this family (81)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9549669B2 (en) | 2013-06-06 | 2017-01-24 | 6 Over 6 Vision Ltd. | System and method for measurement of refractive error of an eye based on subjective distance metering |
| US9265412B2 (en) * | 2013-08-27 | 2016-02-23 | Johnson & Johnson Vision Care, Inc. | Means and method for demonstrating the effects of low cylinder astigmatism correction |
| JP6075644B2 (ja) * | 2014-01-14 | 2017-02-08 | ソニー株式会社 | 情報処理装置および方法 |
| US20160309062A1 (en) * | 2015-04-15 | 2016-10-20 | Appbanc, Llc | Metrology carousel device for high precision measurements |
| US9492074B1 (en) * | 2015-04-30 | 2016-11-15 | Opternative, Inc. | Computerized refraction and astigmatism determination |
| CN107835935B (zh) * | 2015-05-10 | 2021-08-03 | 6超越6视觉有限公司 | 确定镜片的一个或多个光学参数的装置、系统以及方法 |
| US9532709B2 (en) | 2015-06-05 | 2017-01-03 | Jand, Inc. | System and method for determining distances from an object |
| EP3313263B1 (en) | 2015-06-23 | 2021-12-01 | Essilor International | Optometry measuring scale |
| US9770165B2 (en) | 2015-08-13 | 2017-09-26 | Jand, Inc. | Systems and methods for displaying objects on a screen at a desired visual angle |
| US10799109B2 (en) | 2016-01-15 | 2020-10-13 | Jand, Inc. | Systems and methods for determining distance from an object |
| RU2738913C2 (ru) * | 2016-01-23 | 2020-12-18 | 6 Овер 6 Вижн Лтд. | Устройство, система и способ определения одного или более оптических параметров линзы |
| EP3416537A4 (en) | 2016-02-16 | 2019-11-13 | Massachusetts Eye & Ear Infirmary | MOBILE DEVICE APPLICATION FOR MEASURING EYE FAILURE |
| US10036685B2 (en) | 2016-05-18 | 2018-07-31 | Jand, Inc. | Fixtureless lensmeter and methods of operating same |
| US10557773B2 (en) | 2016-05-18 | 2020-02-11 | Jand, Inc. | Fixtureless lensmeter system |
| DE102016112023A1 (de) * | 2016-06-30 | 2018-01-04 | Carl Zeiss Ag | Komponente, Computerprogramm, System und Kit zur Augenglasbestimmung |
| US10943373B2 (en) * | 2016-07-29 | 2021-03-09 | Sony Corporation | Image processing apparatus and image processing method |
| EP3295862B1 (en) | 2016-09-15 | 2019-04-03 | Essilor International | Online determination of a customer's prescription knowing his previous prescription and using a measurement or a model of the evolution of its values |
| EP3295863B1 (en) * | 2016-09-15 | 2023-04-19 | Essilor International | Measurement method for determining a value of a visual correction need for near vision of an individual in a natural posture for near vision |
| US10206566B2 (en) | 2016-10-17 | 2019-02-19 | EyeQue Corporation | Optical method to assess the refractive properties of an optical system |
| US10321818B2 (en) | 2016-10-31 | 2019-06-18 | Brainscope Company, Inc. | System and method for ocular function tests |
| FR3059537B1 (fr) * | 2016-12-07 | 2019-05-17 | Essilor International | Appareil et procede de mesure de refraction oculaire subjective de haute resolution en puissance optique spherique et/ou cylindrique |
| KR102487170B1 (ko) | 2016-12-14 | 2023-01-10 | 현대자동차 주식회사 | 연료전지 부품의 접합 장치 및 방법 |
| KR20190090857A (ko) * | 2016-12-26 | 2019-08-02 | 선전 로욜 테크놀로지스 컴퍼니 리미티드 | 광학 시스템 및 디옵터 조정 방법 |
| US10022045B1 (en) * | 2017-02-28 | 2018-07-17 | David Evans | Method and apparatus for vision acuity testing |
| EP3592204B1 (en) | 2017-03-05 | 2024-05-08 | Virtuoptica Ltd. | Eye examination method and apparatus therefor |
| US10810773B2 (en) * | 2017-06-14 | 2020-10-20 | Dell Products, L.P. | Headset display control based upon a user's pupil state |
| US10674904B2 (en) * | 2017-09-15 | 2020-06-09 | M.P. Optics, LLC | Systems, methods and apparatuses for subjective self-refraction |
| EP3703551A4 (en) * | 2017-10-31 | 2021-07-21 | Welch Allyn, Inc. | VISUAL ACUITY EXAMINATION |
| WO2019099952A1 (en) * | 2017-11-17 | 2019-05-23 | Oregon Health & Science University | Smartphone-based measurements of the refractive error in an eye |
| CN108042103B (zh) * | 2017-11-30 | 2020-02-18 | 武汉琉明光电科技有限公司 | 一种检测散光的方法、装置及相关系统 |
| US10413172B2 (en) * | 2017-12-11 | 2019-09-17 | 1-800 Contacts, Inc. | Digital visual acuity eye examination for remote physician assessment |
| CN108197548A (zh) * | 2017-12-27 | 2018-06-22 | 苏州体素信息科技有限公司 | 一种检测人眼屈光不正的方法、客户端和服务器 |
| CN108324239B (zh) * | 2018-02-06 | 2023-11-28 | 深圳视力棒医疗科技有限公司 | 便携式智能验光仪 |
| WO2019156485A1 (en) * | 2018-02-07 | 2019-08-15 | Samsung Electronics Co., Ltd. | Method for determining refractory power of eye using immersive system and electronic device thereof |
| CN112399817B (zh) | 2018-02-22 | 2024-11-01 | 斯格本斯眼科研究所有限公司 | 测量眼睛屈光 |
| CN109008936A (zh) * | 2018-07-26 | 2018-12-18 | 上海鹰瞳医疗科技有限公司 | 基于参照物的屈光度检测方法和设备 |
| CN109008937A (zh) * | 2018-07-26 | 2018-12-18 | 上海鹰瞳医疗科技有限公司 | 屈光度检测方法和设备 |
| CN109008938B (zh) * | 2018-08-08 | 2021-07-06 | 广东小天才科技有限公司 | 一种视力检测装置和系统 |
| US12207872B2 (en) | 2018-08-20 | 2025-01-28 | Bar-Ilan University | Computerized behavioral method for eye-glasses prescription |
| US11481996B2 (en) * | 2018-09-20 | 2022-10-25 | Nec Corporation | Calculation device, information processing method, and storage medium |
| TWI838428B (zh) * | 2018-11-29 | 2024-04-11 | 美商愛奎有限公司 | 類比眼睛的光學系統 |
| EP3669752B1 (en) * | 2018-12-20 | 2025-08-13 | Essilor International | Method for determining a refraction feature of an eye of a subject, and associated portable electronic device |
| CN111387932B (zh) * | 2019-01-02 | 2023-05-09 | 中国移动通信有限公司研究院 | 一种视力检测方法、装置及设备 |
| US11426065B2 (en) * | 2019-01-24 | 2022-08-30 | 6 Over 6 Vision Ltd. | Apparatus, system and method of determining one or more parameters of a refractive error of a tested eye |
| EP4275587A3 (en) | 2019-04-25 | 2024-01-17 | Visionapp Solutions S.L. | A computer-implemented method and system for interactively measuring ocular refractive errors, addition and power of reading glasses |
| US20220240772A1 (en) * | 2019-05-09 | 2022-08-04 | Evolution Optiks Limited | Corrective light field display profile management, communication and integration system and method |
| AU2020286342B2 (en) * | 2019-06-07 | 2021-07-22 | SPEQS Limited | Eye test |
| US11471042B2 (en) * | 2019-07-18 | 2022-10-18 | Welch Allyn, Inc. | Vision screening apparatus with a visual acuity protocol compliance feature and an associated method of vision screening |
| CN110353623A (zh) * | 2019-08-16 | 2019-10-22 | 江苏悠享颐生健康科技有限公司 | 一种定量检测视觉精细调节能力的装置及应用 |
| EP3782535A1 (de) * | 2019-08-23 | 2021-02-24 | Carl Zeiss Vision International GmbH | Gemeinsame bestimmung von akkommodation und vergenz |
| US11488239B2 (en) | 2019-08-26 | 2022-11-01 | Warby Parker Inc. | Virtual fitting systems and methods for spectacles |
| CN111084606A (zh) * | 2019-10-12 | 2020-05-01 | 深圳壹账通智能科技有限公司 | 基于图像识别的视力检测方法、装置、及计算机设备 |
| EP3811849B1 (en) | 2019-10-24 | 2023-12-27 | Essilor International | Method and system for determining a prescription for an eye of a person |
| US11832885B2 (en) | 2019-10-24 | 2023-12-05 | Sanovas Intellectual Property, Llc | Patient home monitoring and physician alert for ocular anatomy |
| EP4057886A4 (en) * | 2019-11-14 | 2024-03-13 | Digiteyez Corporation | SYSTEM AND METHOD FOR DETERMINING CORRECTIVE LENS PRESCRIPTIONS USING PREDICTIVE CALCULATIONS AND CORRECTED VISION SIMULATION |
| KR102460451B1 (ko) * | 2020-02-20 | 2022-10-28 | 사회복지법인 삼성생명공익재단 | 가시광선의 동공 반사 이미지를 이용한 굴절이상 측정 방법 |
| AU2021224864A1 (en) | 2020-02-21 | 2022-09-29 | Ditto Technologies, Inc. | Fitting of glasses frames including live fitting |
| CN111281331B (zh) * | 2020-04-02 | 2023-02-07 | 京东方科技集团股份有限公司 | 视力检测方法、装置及可穿戴显示设备 |
| EP4136563B8 (en) | 2020-04-15 | 2025-10-01 | Warby Parker Inc. | Virtual try-on systems for spectacles using reference frames |
| CA3185605A1 (en) | 2020-06-17 | 2021-12-23 | Warby Parker Inc. | System and method for measuring pupillary distance and uses thereof |
| CN111803022A (zh) * | 2020-06-24 | 2020-10-23 | 深圳数联天下智能科技有限公司 | 一种视力检测方法、检测装置、终端设备及可读存储介质 |
| AU2021298223B2 (en) * | 2020-06-26 | 2025-08-21 | 6OVER6 Vision Ltd. | Subjective refraction exam system |
| EP3940449A1 (en) * | 2020-07-15 | 2022-01-19 | Essilor International | System and method for determining a rounded value of an optical feature of an ophtalmic lens adapted to provide a dioptric correction for improving the vision of a subject |
| CA3185092A1 (en) * | 2020-07-15 | 2022-01-20 | Stephane Boutinon | Method and system for evaluating visual accuity of a person |
| EP3944806A1 (de) | 2020-07-29 | 2022-02-02 | Carl Zeiss Vision International GmbH | Verfahren zum bestimmen des nahpunkts, zum bestimmen der nahpunktdistanz, zum bestimmen eines sphärischen brechwertes sowie zum herstellen eines brillenglases sowie entsprechende mobile endgeräte und computerprogramme |
| IL298146B2 (en) | 2020-09-24 | 2025-03-01 | Shamir Optical Ind Ltd | System and method for assessing the visual ability of a subject |
| CN112450871A (zh) * | 2020-11-19 | 2021-03-09 | 温州星康医学科技有限公司 | 一种自适应不同分辨率的视力检测系统及方法 |
| CN114795100B (zh) * | 2021-01-21 | 2025-11-28 | 刘振灏 | 一种屈光测试卡及其测量方法 |
| EP4046566A1 (en) * | 2021-02-17 | 2022-08-24 | Carl Zeiss Vision International GmbH | Apparatus and method for determining the refractive error of an eye |
| US12114928B2 (en) * | 2021-03-13 | 2024-10-15 | James W. O'Neil | Ocular focus assessment and monitoring for myopia and other vision disorders |
| EP4098970B1 (en) | 2021-05-31 | 2024-09-04 | Essilor International | Method for measuring a distance separating a camera from a reference object |
| EP4539723A2 (en) * | 2022-06-17 | 2025-04-23 | 6over6 Vision Ltd. | Single device remote visual acuity testing systems and methods |
| CN115137289B (zh) * | 2022-07-29 | 2025-02-14 | 段兵 | 一种智能自助屈光度测量系统 |
| CN115457574B (zh) * | 2022-09-02 | 2024-04-09 | 郭列维 | 一种基于预设距离的视觉信息处理方法及视觉信息的载体 |
| EP4364643A1 (en) | 2022-11-04 | 2024-05-08 | Carl Zeiss Vision International GmbH | Computer-implemented methods and devices for determining refractive errors |
| EP4364642A1 (en) | 2022-11-04 | 2024-05-08 | Carl Zeiss Vision International GmbH | Computer-implemented methods and devices for determining refractive errors |
| EP4437938A1 (en) * | 2023-03-27 | 2024-10-02 | Essilor International | Device and method for estimating a refractive error from measured visual acuity |
| EP4491098A1 (en) * | 2023-07-10 | 2025-01-15 | Essilor International | Device for determining a visual behaviour of a person |
| EP4555917A1 (en) | 2023-11-16 | 2025-05-21 | Carl Zeiss Vision International GmbH | Method and apparatus for determining at least one refractive value of an eye |
| EP4556989A1 (en) | 2023-11-16 | 2025-05-21 | Carl Zeiss Vision International GmbH | Methods and devices for determining at least one refractive value |
| IT202300025392A1 (it) * | 2023-11-29 | 2025-05-29 | Visionbalance Tech S R L | “sistema per valutare la visione binoculare o stereoscopica di un osservatore” |
Family Cites Families (53)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05154105A (ja) | 1991-12-03 | 1993-06-22 | Toto Ltd | 視力検査装置 |
| JP3190083B2 (ja) * | 1992-01-07 | 2001-07-16 | ホーヤ株式会社 | 自覚式検眼装置の近用測定機構 |
| US5675399A (en) * | 1994-04-30 | 1997-10-07 | Canon Kabushiki Kaisha | Ophthalmic apparatus |
| IL110547A0 (en) * | 1994-08-02 | 1994-11-11 | Optitest Ltd | A method and a system for vision testing |
| US5596379A (en) * | 1995-10-24 | 1997-01-21 | Kawesch; Gary M. | Portable visual acuity testing system and method |
| KR100208900B1 (ko) | 1995-12-05 | 1999-07-15 | 구자홍 | 텔레비젼 수상기 및 모니터를 이용한 시력검사장치 |
| US6072443A (en) * | 1996-03-29 | 2000-06-06 | Texas Instruments Incorporated | Adaptive ocular projection display |
| JPH11244239A (ja) | 1998-03-02 | 1999-09-14 | Nikon Corp | 視機能検査装置 |
| JP2000083900A (ja) | 1998-09-10 | 2000-03-28 | Canon Inc | 検眼装置 |
| NL1010939C2 (nl) * | 1998-12-31 | 2000-07-03 | Tno | Werkwijze en inrichting voor het bepalen van een leescorrectie. |
| DE10007705A1 (de) | 2000-02-19 | 2001-09-06 | Keune Thomas | Verfahren zur Anpassung einer Brille |
| US6535223B1 (en) | 2000-05-31 | 2003-03-18 | Schmidt Laboratories, Inc. | Method and system for determining pupiltary distant and element height |
| AUPQ842800A0 (en) * | 2000-06-28 | 2000-07-20 | Aivision Pty Ltd | Flat screen vision testing |
| GB0207303D0 (en) * | 2002-03-28 | 2002-05-08 | Jordan Ian | Optical testing methods and apparatus |
| US6652101B1 (en) | 2001-10-09 | 2003-11-25 | Stephen R. Glaser | Method and apparatus for performing vision screening |
| US6688745B2 (en) * | 2001-10-25 | 2004-02-10 | Johnson & Johnson Vision Care, Inc. | Subjective refinement of wavefront measurements |
| RU2210972C1 (ru) * | 2001-12-21 | 2003-08-27 | Закрытое акционерное общество "Научно-производственное предприятие Центр "Реабилитация" | Устройство для скрининговой диагностики зрения |
| CN101065766A (zh) | 2004-09-03 | 2007-10-31 | 潘那西卡股份有限公司 | 视觉中心自助式服务机 |
| CN1781443A (zh) * | 2004-12-03 | 2006-06-07 | 娄世平 | 一种适合青少年近视眼的屈光度检测方法 |
| JP2006263067A (ja) | 2005-03-23 | 2006-10-05 | Matsushita Electric Ind Co Ltd | 視力測定装置 |
| CN1843285A (zh) * | 2005-04-06 | 2006-10-11 | 上海迪比特实业有限公司 | 视力测试方法 |
| JP4837968B2 (ja) | 2005-09-30 | 2011-12-14 | 株式会社ニデック | 近用視標呈示装置 |
| JP2007105097A (ja) | 2005-10-11 | 2007-04-26 | Sony Corp | 視力測定システム,情報処理装置,遠隔操作装置,情報処理方法,遠隔操作方法およびコンピュータプログラム |
| DE102005053297A1 (de) * | 2005-11-08 | 2007-05-10 | Bausch & Lomb Inc. | System und Verfahren zur Korrektur von ophthalmischen Brechungsfehlern |
| JP2007143665A (ja) | 2005-11-24 | 2007-06-14 | Funai Electric Co Ltd | 視力検査機能付きテレビジョン装置および映像表示装置 |
| US7524065B1 (en) * | 2006-09-05 | 2009-04-28 | Ogilvie John W | Vision testing with rendered digital imagery modification under viewer control |
| US7963654B2 (en) * | 2006-10-16 | 2011-06-21 | Karan Aggarwala | Apparatus and method for subjective determination of the refractive error of the eye |
| US10226171B2 (en) * | 2007-04-13 | 2019-03-12 | Nike, Inc. | Vision cognition and coordination testing and training |
| JP5073521B2 (ja) * | 2007-09-28 | 2012-11-14 | 株式会社ニデック | 検眼装置 |
| CN201481388U (zh) * | 2009-02-18 | 2010-05-26 | 复旦大学附属眼耳鼻喉科医院 | 一种具有眼球跟踪和屈光补偿功能的电子视野计 |
| WO2010117386A1 (en) * | 2009-04-10 | 2010-10-14 | Doheny Eye Institute | Ophthalmic testing methods, devices and systems |
| RU2419402C2 (ru) * | 2009-04-13 | 2011-05-27 | Сергей Игоревич Анисимов | Способ лечения аномалий рефракции воздействием ультрафиолетового излучения и устройство для его реализации |
| SG10201402138PA (en) | 2009-05-09 | 2014-07-30 | Vital Art And Science Llc | Shape discrimination vision assessment and tracking system |
| US9492344B2 (en) | 2009-08-03 | 2016-11-15 | Nike, Inc. | Unified vision testing and/or training |
| FR2952517B1 (fr) * | 2009-11-13 | 2012-07-20 | Essilor Int | Procede et dispositif de mesure automatique d'au moins une caracteristique de refraction des deux yeux d'un individu |
| FR2957511B1 (fr) | 2010-03-19 | 2021-09-24 | Fittingbox | Procede et dispositif de mesure de distance inter-pupillaire |
| PL2560543T3 (pl) * | 2010-04-22 | 2019-04-30 | Massachusetts Inst Technology | Narzędzie do badania refrakcji oka |
| FR2961591B1 (fr) | 2010-06-21 | 2013-05-31 | Interactif Visuel Systeme I V S | Procede d'estimation de la posture d'un sujet. |
| WO2012022380A1 (de) | 2010-08-18 | 2012-02-23 | Optiswiss Ag | Verfahren und einrichtung zur bestimmung des augenabstandes von personen |
| KR20120030639A (ko) | 2010-09-20 | 2012-03-29 | 삼성전자주식회사 | 디스플레이장치 및 그 영상처리방법 |
| FR2966038B1 (fr) | 2010-10-14 | 2012-12-14 | Magellan Interoptic | Procede de mesure de l'ecart pupillaire d'une personne et dispositif associe |
| EP2676441B1 (en) * | 2011-02-17 | 2019-06-19 | Welch Allyn, Inc. | Photorefraction ocular screening device |
| US8888288B2 (en) * | 2011-02-23 | 2014-11-18 | Nikoo Iravani | Method and system for self-administering a visual examination using a mobile computing device |
| US8702238B2 (en) | 2011-06-23 | 2014-04-22 | Orca Health, Inc. | Interactive medical diagnosing with portable consumer devices |
| FR2980681A3 (fr) | 2011-09-29 | 2013-04-05 | Fittingbox | Procede de determination des mesures oculaires et optiques d'interet pour la fabrication et le montage de verre de lunettes correcteurs, a l'aide d'une camera en contexte non controle |
| JP2014533587A (ja) | 2011-11-21 | 2014-12-15 | アイチェック ヘルス コネクション, インコーポレイテッド | 網膜疾患を監視するビデオゲーム |
| CN202526147U (zh) * | 2012-04-26 | 2012-11-14 | 重庆坤峰科技有限公司 | 一种便携式视力检查仪 |
| WO2013170091A1 (en) * | 2012-05-09 | 2013-11-14 | The Schepens Eye Research Institute, Inc. | Rapid measurement of visual sensitivity |
| SG10201605624YA (en) | 2013-03-12 | 2016-09-29 | Steven P Lee | Computerized refraction prescription determination with sphere calculation |
| US9549669B2 (en) | 2013-06-06 | 2017-01-24 | 6 Over 6 Vision Ltd. | System and method for measurement of refractive error of an eye based on subjective distance metering |
| US9173557B2 (en) | 2013-07-08 | 2015-11-03 | Jack Clark | Method and apparatus that facilitates determining refractive error |
| US9265412B2 (en) | 2013-08-27 | 2016-02-23 | Johnson & Johnson Vision Care, Inc. | Means and method for demonstrating the effects of low cylinder astigmatism correction |
| US10028653B2 (en) * | 2015-04-17 | 2018-07-24 | The Cleveland Clinic Foundation | Assessment of low contrast visual sensitivity |
-
2014
- 2014-06-05 US US14/896,418 patent/US9549669B2/en active Active
- 2014-06-05 KR KR1020167000326A patent/KR102252090B1/ko active Active
- 2014-06-05 CN CN201480044610.XA patent/CN105764405B/zh active Active
- 2014-06-05 CN CN201811346412.5A patent/CN110251066B/zh active Active
- 2014-06-05 AU AU2014276340A patent/AU2014276340B2/en active Active
- 2014-06-05 CA CA2914456A patent/CA2914456C/en active Active
- 2014-06-05 PT PT148080419T patent/PT3003121T/pt unknown
- 2014-06-05 DK DK14808041.9T patent/DK3003121T3/da active
- 2014-06-05 RU RU2018120718A patent/RU2706372C9/ru active
- 2014-06-05 RU RU2015152290A patent/RU2657853C2/ru active
- 2014-06-05 ES ES14808041T patent/ES2886136T3/es active Active
- 2014-06-05 EP EP14808041.9A patent/EP3003121B1/en active Active
- 2014-06-05 JP JP2016517741A patent/JP6453859B2/ja active Active
- 2014-06-05 WO PCT/IL2014/050506 patent/WO2014195951A1/en not_active Ceased
-
2015
- 2015-12-06 IL IL24294915A patent/IL242949B/en active IP Right Grant
-
2016
- 2016-11-30 US US15/364,551 patent/US10702143B2/en active Active
-
2018
- 2018-12-13 JP JP2018233175A patent/JP6612959B2/ja active Active
-
2019
- 2019-06-18 US US16/444,254 patent/US10898071B2/en active Active
Also Published As
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2886136T3 (es) | Sistema para la medición del error de refracción de un ojo basado en la medición subjetiva de distancias | |
| ES2970062T3 (es) | Método y sistema implementado por ordenador para la medición interactiva de errores refractivos oculares, adición y potencia de gafas de lectura | |
| ES2960593T3 (es) | Un método para realizar una prueba de potencia de astigmatismo utilizando un dispositivo informático que tiene una pantalla para visualización de imágenes relacionadas con dicha prueba de potencia de astigmatismo, así como un dispositivo informático correspondiente | |
| ES2952550T3 (es) | Superposición de imágenes para el registro de un ojo de pacientes para cirugía láser | |
| ES2932157T3 (es) | Determinación de un error de refracción de un ojo | |
| JP2018508254A (ja) | 自動視力診断の方法およびシステム | |
| CN111699432B (zh) | 使用沉浸式系统确定眼睛的屈光力的方法及其电子设备 | |
| US11730357B2 (en) | Method and system for measuring or assessing human visual field | |
| BR112021013995A2 (pt) | Sistema e método para medição digital de visão estéreo | |
| TWI411429B (zh) | 供用於角膜雷射剝蝕處理之影像對準系統及相關方法 | |
| ES2942865T3 (es) | Determinación de valores para el control de la miopía de un ojo de un usuario | |
| ES2330260T3 (es) | Aparatos para determinar la agudeza visual de un ojo. | |
| BR112015030406B1 (pt) | Dispositivo de computação para medir pelo menos um erro de refração de um olho de um indivíduo | |
| ES2947436A1 (es) | Metodo implementado por ordenador para medir de manera interactiva uno o ambos bordes de intervalo de vision nitida del ojo de un usuario mediante un dispositivo electronico, sistema y dispositivo electronico que lo comprende |





