ES2967660T3 - Método y dispositivo para determinar un error de refracción - Google Patents

Método y dispositivo para determinar un error de refracción Download PDF

Info

Publication number
ES2967660T3
ES2967660T3 ES21721125T ES21721125T ES2967660T3 ES 2967660 T3 ES2967660 T3 ES 2967660T3 ES 21721125 T ES21721125 T ES 21721125T ES 21721125 T ES21721125 T ES 21721125T ES 2967660 T3 ES2967660 T3 ES 2967660T3
Authority
ES
Spain
Prior art keywords
image
user
eye
modulation
spatial modulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES21721125T
Other languages
English (en)
Inventor
Alexander Leube
Torsten Strasser
Arne Ohlendorf
Eberhart Zrenner
Siegfried Wahl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Vision International GmbH
Original Assignee
Carl Zeiss Vision International GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Vision International GmbH filed Critical Carl Zeiss Vision International GmbH
Application granted granted Critical
Publication of ES2967660T3 publication Critical patent/ES2967660T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/024Methods of designing ophthalmic lenses
    • G02C7/027Methods of designing ophthalmic lenses considering wearer's parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

La presente invención se refiere a un método (210), un dispositivo (110) y un producto de programa informático para determinar al menos un error refractivo de al menos un ojo (112) de un usuario (114), así como a un método relacionado para producir al menos una lente para gafas para al menos un ojo (112) del usuario (114). En el presente documento, el método (210) comprende los siguientes pasos: a) mostrar al menos una imagen (120) a un usuario (114), en donde al menos una imagen (120) comprende al menos una modulación espacial (132); b) opcionalmente registrar una reacción del usuario (114) a al menos una variación de al menos una modulación espacial (132) a lo largo del tiempo; c) detectar un momento en el que un umbral de percepción del usuario (114) está indicado por una reacción del usuario (114); y d) determinar un valor (220) para al menos un error de refracción del al menos un ojo (112) del usuario (114) a partir de la al menos una modulación espacial (132) en la al menos una imagen (120) en el momento en el que al menos una imagen (120) comprende una imagen fuente (128) que tiene una pluralidad de elementos de imagen (130), en donde los valores para al menos un parámetro de imagen se asignan a la pluralidad de elementos de imagen (130).), en donde la al menos una modulación espacial (132) en la al menos una imagen (120) se genera de manera que los valores del al menos un parámetro de imagen de la pluralidad de elementos de imagen (130) determinan los valores de al menos al menos un parámetro de modulación de la al menos una modulación espacial (132) en la al menos una imagen (120). El método (210) y el dispositivo (110) permiten determinar el error refractivo de al menos un ojo (112) del usuario (114) de una manera que se puede aplicar a escala global a todo tipo de usuarios (114). , incluidos niños, ancianos o personas discapacitadas, de modo que se puedan evitar en la medida de lo posible las dificultades de comunicación o de cumplimiento. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Método y dispositivo para determinar un error de refracción
Campo de la invención
La presente invención se refiere a un método, a un dispositivo y a un producto de programa informático para determinar un error de refracción de al menos un ojo de un usuario, así como a un método relacionado para producir al menos una lente para gafas para el al menos un ojo del usuario.
Técnica relacionada
Se conocen diversos métodos, dispositivos y productos de programas informáticos para determinar el error de refracción de al menos un ojo de un usuario. En el presente documento, los términos "refracción" o "refractivo" se refieren a una desviación de la luz incidente que entra al interior del ojo a través de la pupila. Para determinar un valor para el error de refracción del ojo, habitualmente se aplica un enfoque subjetivo en el que un optometrista o un oftalmólogo realiza una prueba interactiva con el usuario. En el presente documento, los símbolos, en particular en forma de números, letras o logotipos, se proporcionan en un tablero, tal como una cartulina, en un folleto o en una pantalla para el usuario que, consecutivamente, ve a través de una pluralidad de lentes ópticas que tienen refracción óptica diferente hasta que se determina una lente para gafas por la que el usuario puede reconocer mejor los símbolos más pequeños. Posteriormente, este procedimiento se repite con gafas de medición que tienen una refracción cilíndrica diferente. Como alternativa o, además, se puede usar un enfoque objetivo, en el que el optometrista o el oftalmólogo usa un dispositivo autorrefractivo. De esta manera, los valores para las proporciones esférica y cilíndrica del error de refracción se pueden obtener independientemente del enfoque realmente aplicado.
Sin embargo, los enfoques conocidos requieren tanto la presencia de un optometrista o un oftalmólogo como una comunicación satisfactoria entre el optometrista o el oftalmólogo, por un lado, y el usuario, por otro lado, lo que no siempre es posible, en particular debido a una edad joven o mayor del usuario, o como consecuencia de diferencias de idioma entre el usuario y el optometrista o el oftalmólogo o una enfermedad, respectivamente. Además, como se indicó anteriormente, el aparato sofisticado que, habitualmente, se usa para el enfoque objetivo requiere altos gastos de inversión, mantenimiento y operación que no se pueden permitir en todos los lugares, visto a escala global.
El documento US 2012/0019779 A1 desvela un método para medir la función de la vía retiniana o visual que comprende estimular el nistagmo optocinético presentando un estímulo visual a un paciente; modificar un primer parámetro del estímulo visual; modificar un segundo parámetro del estímulo visual; y usar el estímulo visual modificado para determinar un estímulo umbral para el nistagmo optocinético; en donde el primer y segundo parámetros se seleccionan de un grupo de parámetros que comprende un patrón para el estímulo visual, una anchura del estímulo visual, una distancia entre el estímulo visual y el paciente, una frecuencia espacial del estímulo visual, una tasa de cambio o frecuencia temporal de la imagen de prueba del estímulo visual, y un contraste entre los elementos del estímulo visual.
El documento US 2013/0176534 A1 desvela un método para determinar de forma adaptativa un modelo de rendimiento visual de un sujeto de prueba que comprende la etapa de exponer un sujeto de prueba a una pluralidad de ensayos. Cada ensayo comprende las etapas de identificar el patrón de estímulo para probar, generar un patrón de estímulo en una pantalla, determinar si el patrón de estímulo generó un OKR, actualizar el modelo para incorporar los resultados de OKR y determinar si el modelo actualizado es aceptable. Los ensayos pueden repetirse iterativamente hasta que el modelo de rendimiento visual sea aceptable.
El documento EP 3329837 A1 desvela un método para mostrar representaciones de optotipos para evaluar al menos uno de un error de refracción o una sensibilidad al contraste del sistema visual de una persona de prueba que comprende proporcionar una pluralidad de optotipos, que comprenden un patrón base y una o más versiones de dicho patrón base, en donde un contorno de dicho patrón base está definido por una curva cerrada y dichas una o más versiones moduladas de dicho patrón base tienen contornos que están definidos por versiones moduladas de dicha curva cerrada; proporcionar un sistema de prueba para medir al menos uno de un error de refracción o una sensibilidad al contraste del sistema visual de una persona de prueba; y mostrar representaciones de dicha pluralidad de optotipos a través de un dispositivo de visualización de dicho sistema de prueba. Además, se proporciona una representación de optotipo y su uso en una prueba de sistema visual, un sistema de prueba y un producto de programa informático.
La solicitud de patente europea 19 170558.1, presentada el 23 de abril de 2019, desvela un método, un dispositivo y un programa informático para determinar un error de refracción del ojo de un usuario, así como un método para producir una lente para gafas para el ojo del usuario. En el presente documento, el método comprende presentar un símbolo en una pantalla, en donde se cambia un parámetro del símbolo mostrado en la pantalla; registrar una reacción del usuario dependiendo del símbolo mostrado en la pantalla; detectar un punto de tiempo en el que se indica un umbral de percepción del usuario por una reacción del usuario al símbolo mostrado en la pantalla; y determinar un valor para el error de refracción del ojo del usuario del parámetro en el punto en el tiempo, en donde el símbolo mostrado en la pantalla es un patrón periódico, en donde el parámetro del símbolo mostrado en la pantalla comprende una frecuencia espacial, en donde el valor del error de refracción se determina de la frecuencia espacial en el punto en el tiempo.
Torsten Strasser, Hana Langrová, Laura Kuehlewein, Annette Werner, Anne Kurtenbach and Eberhart Zrenner,THEY CAN DISAPPEAR - Can the panda illusion be used to test visual acuity?,ARVO Annual Meeting Abstract, Investigative Ophthalmology & Visual Science (IOVS) 58 (8), junio de 2017, describe que la artista Ilja Klemencov reveló la obra de arte "They can disappear" en 2016, señalando el peligro de extinción del oso panda. La ilustración muestra el logotipo de WWF, un panda, escondido detrás de líneas en zigzag en blanco y negro. Muchas personas luchan por detectar al oso a primera vista. Sin embargo, dar un paso atrás o quitarse las gafas revela al panda. Los autores encontraron una correlación significativa entre una frecuencia espacial limitante y la agudeza visual de un usuario. Sin embargo, la variabilidad de una agudeza visual prevista es bastante amplia. Es posible que la ilusión no se explique por completo solo con la agudeza visual. Otros factores contribuyentes pueden ser la función de dispersión de puntos o el hacinamiento visual. Sin embargo, la aplicación contraria a la intuición de esta ilusión y la simplicidad de la prueba pueden hacerla útil para estimar la agudeza visual.
Torsten Strasser, Bettina Spieth, Eberhart Zrenner, Dorothea Besch y Carina Kelbsch,Can youseethe panda? Visual acuity assessment using the pandacuity test in children - preliminary results,ARVO Annual Meeting Abstract, IOVS 59(9), julio de 2018, indica que las pruebas de agudeza visual en niños en edad preescolar o con retraso en el desarrollo pueden ser un desafío y dependen en gran medida de la cooperación del niño. Los gráficos de agudeza que se utilizan habitualmente con optotipos sencillos pueden aburrir al niño, lo que dificulta distinguir entre la no cooperación y la disminución de la agudeza visual. Los autores desarrollaron una prueba depandacuidadusando un libro animado con una imagen similar a la ilusión de un panda con una puntuación de agudeza visual decreciente en cada página creada basándose en la relación lineal como se describe en Torsten Strasser, IOVS 58 (8), véase anteriormente. Descubrieron que la prueba depandacuidades rápida, sencilla y bien aceptada, lo que la convierte en un complemento adecuado a las pruebas de agudeza convencionales para la evaluación clínica de la agudeza visual en niños.
Problema a resolver
En particular con respecto a la divulgación de la solicitud de patente europea 19170558.1, presentada el 23 de abril de 2019, es por lo tanto un objetivo de la presente invención proporcionar un método, un dispositivo y un producto de programa informático para determinar un error de refracción de al menos un ojo de un usuario, así como un método relacionado para producir al menos una lente para gafas para al menos un ojo del usuario, que resuelve al menos parcialmente los problemas mencionados anteriormente del estado de la técnica.
Es un objetivo particular de la presente invención poder determinar valores para las proporciones esférica y cilíndrica del error de refracción aplicando un enfoque sencillo y fácil de usar. Por lo tanto, es deseable poder determinar los valores deseados sin requerir que un optometrista, un oftalmólogo, un juego de gafas de medición y/o un aparato sofisticado, tal como un dispositivo autorrefractivo, estén designados para este propósito. En particular, es deseable determinar el error de refracción de al menos un ojo del usuario de manera que pueda aplicarse a escala global a todo tipo de usuarios, incluyendo niños, ancianos o discapacitados, por lo que pueden evitarse en la medida de lo posible las dificultades de comunicación o la cooperación.
Sumario de la invención
Este problema se resuelve mediante un método, un dispositivo y un producto de programa informático para determinar un error de refracción de al menos un ojo de un usuario, así como un método relacionado para producir al menos una lente para gafas para al menos un ojo del usuario con las características de las reivindicaciones independientes. Las realizaciones preferidas, que pueden realizarse de forma aislada o en cualquier combinación arbitraria, se enumeran en las reivindicaciones dependientes.
Como se usa a continuación, los términos "tiene", "comprende" o "incluye" o cualquier variación gramatical arbitraria de los mismos se usan de manera no exclusiva. Por lo tanto, estos términos pueden referirse tanto a una situación en la que, además de la característica introducida por estos términos, no hay otras características presentes en la entidad descrita en este contexto como a una situación en la que están presentes una o más características adicionales. A modo de ejemplo, las expresiones "A tiene B", "A comprende B" y "A incluye B" pueden referirse ambas a una situación en la que, además de B, ningún otro elemento está presente en A (es decir, una situación en la que A únicamente y exclusivamente consiste en B) y a una situación en la que, además de B, uno o más elementos adicionales están presentes en la entidad A, tal como el elemento C, los elementos C y D o incluso elementos adicionales.
Además, como se usa a continuación, los términos "preferentemente", "más preferentemente", "particularmente", "más particularmente" o términos similares se usan junto con características opcionales, sin restringir las posibilidades alternativas. Por lo tanto, las características introducidas por estos términos son características opcionales y no pretenden restringir el alcance de las reivindicaciones de ninguna manera. Como reconocerá el experto en la materia, la invención puede llevarse a cabo usando características alternativas. De manera similar, las características introducidas por "en una realización de la invención" o expresiones similares pretenden ser características opcionales, sin ninguna restricción con respecto a las realizaciones alternativas de la invención, sin ninguna restricción con respecto al alcance de la invención y sin ninguna restricción con respecto a la posibilidad de combinar las características introducidas de esta manera con otras características de la invención.
En un primer aspecto, la presente invención se refiere a un método para determinar al menos un error de refracción de al menos un ojo de un usuario. Como ya se indicó anteriormente, los términos "refracción" o "refractivo" se refieren a una curvatura de la luz incidente que entra al interior del ojo a través de la pupila. En lugar del término "usuario", también puede ser aplicable un término diferente, tal como "sujeto", "persona", "persona de prueba" o "portador de gafas". En el presente documento, el método se puede usar para determinar individualmente el error de refracción de cada ojo de un usuario de forma consecutiva o simultánea.
El método de acuerdo con la presente invención comprende las características de la reivindicación 1.
El punto de tiempo en el que se indica un umbral de percepción del usuario mediante una reacción del usuario de acuerdo con la etapa c) mencionada anteriormente puede detectarse por un asistente o una tercera persona o un dispositivo de medición. La reacción del usuario puede provocarse preferentemente mediante al menos una variación de la al menos una modulación espacial a lo largo del tiempo. La reacción del usuario puede ser, por ejemplo, una reacción fisiológica, tal como, por ejemplo, una reacción pupilar o una reacción verbal. La reacción del usuario puede detectarse, por ejemplo, mediante un método de monitorización electrofisiológico, tal como la electroencefalografía (EEG), usando un dispositivo de medición configurado para monitorizar el comportamiento del usuario, tal como una cámara de vídeo, en donde la reacción del usuario puede observarse mediante la visualización del vídeo o, como alternativa, o además, mediante el procesamiento de imágenes o usando un dispositivo de medición configurado para monitorizar los movimientos oculares del usuario. El comportamiento del usuario o los movimientos oculares pueden indicar el umbral de percepción del usuario como se describe a continuación. Como alternativa, la reacción fisiológica del usuario puede ser una reacción involuntaria, especialmente provocada por un reflejo.
En general, el método de acuerdo con la presente invención se puede realizar de manera manual en la que un asistente que soporta al usuario puede mostrar la al menos una imagen al usuario y puede variar la modulación espacial en la al menos una imagen a lo largo del tiempo como se describe a continuación con más detalle, en donde la al menos una imagen puede proporcionarse en forma impresa, en particular en un tablero, tal como una cartulina, o en un folleto, en donde la imagen de origen y la correspondiente modulación espacial de la misma pueden haberse generado de antemano usando un dispositivo configurado para este fin, tal como una impresora, en donde un valor que está relacionado con la al menos una modulación espacial en la al menos una imagen, adicionalmente, puede imprimirse en el tablero, tal como la cartulina, o en el folleto, preferentemente en un margen del mismo, evitando por lo tanto una perturbación de la al menos una imagen.
Sin embargo, en una realización particular, el método de acuerdo con la presente invención puede ser un método implementado por ordenador. Como se usa generalmente, la expresión "método implementado por ordenador" se refiere a un método que implica un aparato programable, en particular, una unidad de evaluación, específicamente un ordenador, una red de ordenadores o un medio legible que lleva un programa informático, por lo que al menos una de las características del método se realiza usando al menos un programa informático. En el presente documento, el código del programa informático puede proporcionarse en un medio de almacenamiento de datos o en un dispositivo separado, tal como un medio de almacenamiento óptico, por ejemplo, en un disco compacto, directamente en un ordenador o una unidad de procesamiento de datos, en particular un dispositivo de comunicación móvil, específicamente un teléfono inteligente o una tableta, o a través de una red, tal como una red interna o Internet. Por lo tanto, el presente método puede realizarse en un aparato programable que está configurado para este fin, tal como proporcionando un programa informático particular.
El presente método para determinar al menos un error de refracción de al menos un ojo de un usuario, preferentemente, puede usarse en un método para producir al menos una lente para gafas para el al menos un ojo del usuario como se describe a continuación con más detalle. Basándose en la norma ISO 13666: 2019, también denominada en el presente documento "estándar", sección 3.5.2, la expresión "lentes para gafas" se refiere a una lente óptica que se usa en el marco de la presente invención para determinar y/o corregir una visión defectuosa de un usuario, en donde la lente óptica se lleva delante del ojo del usuario, evitando de esta manera un contacto directo con el ojo. Además, el término "gafas" se refiere a un elemento arbitrario que comprende dos cristales de gafas individuales y una montura de gafas, en donde cada cristal de gafas está preparado para ser recibido por la montura de gafas seleccionada por el usuario.
En particular, la determinación del al menos un error de refracción de al menos un ojo de un usuario puede comprender determinar una lente esferocilíndrica que, en general, se usa como una lente para gafas para corregir el al menos un error de refracción del al menos un ojo del usuario. Para describir la lente esferocilíndrica, son posibles diversos enfoques. Como se define en el estándar, sección 3.6.6, la expresión "lente esferocilíndrica" se refiere a una lente para gafas que tiene una superficie esférica y una superficie cilíndrica. Además, la lente esferocilíndrica se define, de acuerdo con la sección 3.13.1, como una lente para gafas que combina un haz de luz paralelo y paraxial en dos líneas focales individuales mutuamente perpendiculares, por lo que la lente para gafas tiene un poder refractivo en el vértice únicamente en las dos secciones principales. Además, la expresión "poder refractivo del vértice" se define, de acuerdo con la sección 3.10.7, como un valor recíproco de la anchura de la sección paraxial. Como se define además en la sección 3.13.2, la expresión "sección principal" se refiere a uno de dos meridianos perpendiculares de la lente para gafas que tiene un efecto astigmático y es paralelo a las dos líneas focales. En el presente documento, la expresión "efecto astigmático" corresponde a una "diferencia astigmática" que se define en la sección 3.13.6 como una diferencia entre el valor del poder refractivo del vértice en la segunda sección principal y el valor del poder refractivo del vértice en la primera sección principal. Además, la "potencia cilíndrica" se refiere, de acuerdo con la sección 3.13.7, a una diferencia algebraica entre los valores de refracción de las secciones principales, en donde el valor de refracción de una sección principal en particular que se usa como referencia se resta del valor de refracción de la otra sección principal, mientras que el "eje de cilindro" indica de acuerdo con la sección 3.13.8 la dirección de la sección principal de la lente para gafas cuyo índice de refracción del vértice se usa como la referencia.
Como alternativa, L. N. Thibos, W. Wheeler y D. Horner (1997), Power Vectors: An Application of Fourier Analysis to the Description and Statistical Analysis of Refractive Error, Optometry and Vision Science 74 (6), S. 367-375, proponen enfocar la descripción de una lente esferocilíndrica desde el punto de vista del análisis de Fourier de un perfil de potencia. Muestran que la conocida ley del seno cuadrado conduce de forma natural a una representación en serie de Fourier con exactamente tres coeficientes de Fourier, que representan los parámetros naturales de una lente delgada. En el presente documento, un término constante corresponde a una potencia equivalente esférica media (MSE), mientras que la amplitud y la fase del armónico corresponden a la potencia y el eje de una lente de cilindro cruzado de Jackson (JCC), respectivamente. Expresar la serie de Fourier en forma rectangular conduce a la representación de una lente esferocilíndrica arbitraria como la suma de una lente esférica y dos cilindros cruzados, uno en el eje 0° y el otro en el eje 45°. La potencia de estas lentes de tres componentes puede interpretarse como coordenadas (x, y, z) de una representación vectorial del perfil de potencia. La representación del vector de potencia de una lente esferocilíndrica se puede usar para el análisis numérico y gráfico de datos optométricos para problemas que implican combinaciones de lentes, comparación de diferentes lentes y distribución estadística de errores de refracción.
De acuerdo con la etapa a), se muestra al menos una imagen a un usuario, en donde la al menos una imagen comprende al menos una modulación espacial. Como se usa generalmente, el término "imagen" se refiere a una representación bidimensional de al menos uno de un objeto o una idea abstracta, tal como un número, una letra o un logotipo, indicado en el presente documento por el término "símbolo", que puede modificarse dentro de la imagen de manera arbitraria, en donde la imagen visualizada o un cambio de la misma a lo largo del tiempo puede actuar como un estímulo para al menos un ojo o para los ojos del usuario como se describe a continuación con más detalle. Con respecto particular a la presente invención, la al menos una imagen, por lo tanto, comprende una imagen de origen, preferentemente seleccionada de una grabación o un dibujo de un objeto, preferentemente de un objeto que el usuario puede reconocer y denominar fácilmente, incluyendo un niño, un anciano o una persona discapacitada, en donde la al menos una modulación espacial se genera modificando la imagen de origen de una manera predefinida. Para este propósito, la imagen de origen puede ser, en principio, una imagen arbitraria siempre que ilustre un objeto que es fácil de reconocer e indicar para el usuario, preferentemente, seleccionado entre un simple logotipo, un animal, un juguete, un objeto natural tal como una casa o una fruta.
De acuerdo con la presente invención, la al menos una imagen, por lo tanto, comprende una imagen de origen, donde la imagen de origen tiene una pluralidad de elementos de imagen. Como se usa generalmente, la expresión "elemento de imagen" y el término "píxel" se refieren a una porción de una imagen que se puede tratar individualmente, tal como en una representación de la imagen en un tablero, tal como cartulina, en un folleto o en una pantalla. En este caso, se asigna un valor para al menos un parámetro de imagen a cada elemento de imagen, en donde, además de una imagen completamente uniforme, el valor para el al menos un parámetro de imagen puede variar entre diferentes elementos de imagen, en particular, entre elementos de imagen adyacentes. Como se usa en el presente documento, la expresión "parámetro de imagen" se refiere a una cantidad que es reconocible visualmente por un usuario que está asociada con un elemento de imagen, en donde la cantidad puede, preferentemente, seleccionarse de al menos uno de: una intensidad del elemento de imagen, una escala de grises del elemento de imagen, un color del elemento de imagen, una polarización del elemento de imagen, una variación temporal del elemento de imagen. Sin embargo, también pueden ser factibles otros tipos de parámetros de imagen. Como resultado de esta asignación, el valor del al menos un parámetro de imagen se designa para describir al menos uno de la intensidad del elemento de imagen, una escala de grises del elemento de imagen, un color del elemento de imagen, una polarización del elemento de imagen, o una variación temporal del elemento de imagen.
Además, de acuerdo con la presente invención, la modulación espacial en la al menos una imagen se genera modulando los elementos de imagen en la imagen de origen, por lo que se crea al menos una imagen. Como se usa en el presente documento, los términos "modular" o "modulación" se refieren a una modificación de la imagen de origen que comprende una modificación de los valores del al menos un parámetro de imagen de los elementos de imagen dentro de la imagen de origen de manera repetitiva. Por lo tanto, las expresiones "modulación espacial" o "modular de manera espacial" se refieren a una modulación de la imagen en el espacio que puede mantenerse constante en el tiempo. Como resultado, se puede asignar una frecuencia espacial a la modulación espacial, en donde la expresión "frecuencia espacial" se refiere a un valor recíproco de una distancia espacial que refleja un período espacial de repetición de un patrón dentro de la imagen, en donde la expresión "periodo espacial" que corresponde a un valor recíproco de la frecuencia especial también podrá sustituirse por el término "ciclo". Por lo tanto, se puede especificar un valor de una frecuencia espacial usando un número acompañado de una unidad de 1/m o, como alternativa, de "por grado". Sin embargo, los valores absolutos del período espacial y la frecuencia espacial dependen de una distancia entre la imagen que comprende la modulación espacial y el usuario que ve la modulación espacial. En consecuencia, la alteración de esta distancia da como resultado una alteración en la que la imagen aparece al menos a un ojo o a los ojos del usuario, por lo que se modifican los valores absolutos tanto del período espacial como de la frecuencia espacial. A modo de ejemplo, la al menos una imagen puede comprender una imagen de origen que puede ser un dibujo esquemático de un símbolo, en donde la modulación espacial en la al menos una imagen puede generarse superponiendo franjas en la imagen de origen, en donde una distancia o un intervalo angular entre franjas adyacentes indica la frecuencia espacial.
De acuerdo con la presente invención, la modulación espacial en la al menos una imagen se genera modulando los elementos de imagen de la imagen de origen de una manera particular, en concreto, de manera que el valor del al menos un parámetro de imagen del elemento de imagen determina el valor de al menos un parámetro de modulación de al menos una modulación espacial del elemento de imagen. Como se usa en el presente documento, la expresión "parámetro de modulación" se refiere a un rasgo característico de la modulación que, además de la frecuencia espacial de la modulación, introduce un tipo de modulación adicional de manera que cada período espacial definido por la frecuencia espacial puede conformarse de manera individual sin influir en absoluto en el valor de la frecuencia espacial. La frecuencia espacial que queda sin afectar por el otro tipo de modulación, por lo tanto, corresponde a una "frecuencia portadora" de la modulación, ya que está configurada para ser superpuesta por el al menos un tipo adicional de modulación. En el presente documento, un "ciclo de trabajo" así denominado se refiere a una porción de un período espacial particular durante el que se aplica la modulación, en donde un valor del ciclo de trabajo puede variar entre períodos espaciales adyacentes, por lo que la frecuencia espacial queda sin afectar.
En una realización particularmente preferida de la presente invención, el tipo de modulación de la al menos una modulación espacial se puede seleccionar de al menos una modulación de anchura de pulso, una modulación de amplitud, una modulación de frecuencia. Como se usa generalmente, la expresión "modulación de anchura de pulso" se refiere a un tipo de modulación que comprende un ciclo de trabajo como se ha definido anteriormente como el al menos un parámetro de modulación. Como se describe a continuación con más detalle, se determina un valor para el ciclo de trabajo dentro de un período espacial en la modulación de anchura de pulso basándose en el valor del al menos un parámetro de imagen del elemento de imagen correspondiente. A modo de ejemplo, el ciclo de trabajo dentro de un período espacial particular puede asumir un valor de "ALTO" si el color del elemento de imagen correspondiente comprendido por ese período espacial particular puede ser "negro", y un valor de "BAJO" si el color del elemento de imagen correspondiente puede ser "blanco". Sin embargo, son concebibles diversos ejemplos adicionales.
Como se usa generalmente, la expresión "modulación de amplitud" se refiere a un tipo de modulación en el que se determina un valor para la amplitud de la modulación dentro de un período espacial usando el valor del al menos un parámetro de imagen del elemento de imagen correspondiente. A modo de ejemplo, la amplitud dentro de un período espacial particular puede asumir un valor de "ALTA" si la escala de grises del elemento de imagen correspondiente comprendido por el período espacial puede presentar una intensidad baja, y un valor de "BAJA" si la escala de grises del elemento de imagen correspondiente puede mostrar una intensidad alta. De nuevo, la frecuencia portadora de la modulación de amplitud queda sin afectar. Sin embargo, son posibles diversos ejemplos adicionales.
Como se usa generalmente, la expresión "modulación de frecuencia" se refiere a un tipo de modulación en el que se determina un valor para una frecuencia adicional superpuesta de la modulación dentro del período espacial considerando el valor del al menos parámetro de imagen de un elemento de imagen correspondiente. A modo de ejemplo, la frecuencia adicional superpuesta dentro de un período espacial particular puede asumir un valor de "ALTA" si la intensidad relativa del elemento de imagen correspondiente ubicado dentro del período espacial puede ser "ALTA" y un valor de "BAJO" si la intensidad relativa del elemento de imagen correspondiente ubicado dentro del período espacial puede ser "BAJA". También en este punto, la frecuencia portadora de la modulación queda sin afectar por este tipo de modulación. Sin embargo, son factibles diversos ejemplos adicionales.
Sin embargo, en una realización particular, una fase de la al menos una frecuencia portadora puede modularse adicionalmente, en particular de forma sinusoidal, generando de esta manera un patrón de zigzag característico en la imagen. Para más detalles, se puede hacer referencia a la descripción de las realizaciones que se presentan a continuación con más detalles.
De acuerdo con la etapa b), se puede registrar a lo largo del tiempo una reacción del usuario a al menos una variación de la al menos una modulación espacial en la al menos una imagen. En el presente documento, la al menos una modulación espacial en la imagen se puede variar con el tiempo en al menos una forma, preferentemente, seleccionada de
(i) variar al menos una frecuencia espacial de la al menos una modulación espacial;
(ii) variar una distancia entre la al menos una imagen y el al menos un ojo del usuario;
(iii) girar la al menos una imagen en un plano perpendicular con respecto a una dirección de visión del usuario.
En consecuencia, la al menos una modulación espacial se puede variar usando una o más de las realizaciones (i) a (iii).
En el presente documento, al menos una variación de la al menos una frecuencia espacial de la modulación espacial de acuerdo con la realización (i) se puede realizar de forma manual mostrando un tablero diferente, tal como una cartulina, o una página diferente de un folleto que ilustra un imagen diferente que muestra una frecuencia espacial diferente de la modulación espacial al usuario, en donde las diferentes imágenes que muestran las diferentes frecuencias espaciales pueden presentarse en un orden predeterminado, tal como cartulinas consecutivas o páginas siguientes en un folleto. Como alternativa, la variación de la al menos una frecuencia espacial de la modulación espacial de acuerdo con la realización (i) se puede lograr mostrando una imagen diferente en una pantalla que muestra las diferentes frecuencias espaciales deseadas de la modulación espacial al usuario, en donde las diferentes imágenes que muestran las diferentes frecuencias espaciales pueden haberse generado usando una unidad de procesamiento de datos.
Además, la variación de la distancia entre la al menos una imagen y el al menos un ojo del usuario de acuerdo con la realización (ii) se puede realizar de forma manual alterando una posición de la cartulina que ilustra la misma al menos una imagen, pero dando como resultado mostrar una frecuencia espacial diferente de la modulación espacial al usuario por la distancia alterada entre la al menos una imagen y el al menos un ojo del usuario. Como alternativa, la variación de la distancia entre la imagen y el al menos un ojo del usuario de acuerdo con la realización (ii) se puede lograr moviendo al menos una de las pantallas y el usuario con respecto entre sí, mostrando de esta manera la misma en al menos una imagen en la pantalla, por lo que se muestra una frecuencia espacial diferente de la modulación espacial al usuario. En esta realización, se puede emplear, preferentemente, un medidor de distancia o al menos una cámara, en donde el medidor de distancia y la al menos una cámara están configurados, respectivamente, para determinar una distancia entre la al menos una imagen y el al menos un ojo del usuario. Para más detalles con relación a la determinación de la distancia entre la al menos una imagen y el al menos un ojo del usuario, se puede hacer referencia a la solicitud de patente europea 19170558.1, presentada el 23 de abril de 2019,
Además, una rotación de la al menos una imagen dentro de un plano perpendicular a una dirección de visión del usuario de acuerdo con la realización (iii) se puede realizar de forma manual girando el tablero, tal como la cartulina, que ilustra la misma al menos una imagen dentro de un plano que es perpendicular con respecto a la dirección de visión del usuario, manteniendo de esta manera la distancia entre la cartulina y el al menos un ojo del usuario, lo que da como resultado mostrar una frecuencia espacial diferente de la modulación espacial a la usuario debido a al giro de la al menos una imagen dentro del plano perpendicular a la dirección de visión del usuario. Como alternativa, el giro de la al menos una imagen en un plano perpendicular a una dirección de visión del usuario de acuerdo con la realización (iii) puede lograrse girando digitalmente la al menos una imagen en la pantalla sin cambiar un parámetro adicional de la imagen o de la pantalla. Como resultado, el usuario reconoce un valor diferente para la frecuencia espacial de la modulación espacial debido a una alteración en la que aparece al menos una imagen del usuario.
Independientemente de la forma de variación de la modulación espacial en la al menos una imagen, al menos una de las imágenes o la variación de la modulación espacial en la al menos una imagen actúa como un estímulo para al menos un ojo o para los ojos del usuario, iniciando de esta manera una respuesta del uso, en donde la respuesta del usuario se denomina, generalmente, por el término "reacción". Como se usa generalmente, el término "registro" se refiere a cualquier tipo de reconocimiento de la reacción del usuario, ya sea observando el comportamiento del usuario o, como alternativa o, además, monitorizando una señal de medición, en particular una señal electrónica, que puede proporcionarse por al menos uno de un dispositivo de medición o una unidad de entrada designada para este propósito. En particular, la señal de medición puede proporcionarse a una unidad de evaluación que está configurada para detectar el punto de tiempo en el que se indica un umbral de percepción de la al menos una imagen para el usuario por la reacción del usuario a la variación de la modulación espacial en la al menos una imagen de acuerdo con la etapa c). En particular, la reacción del usuario se puede registrar simultáneamente para ambos ojos o, como alternativa o, además, de forma consecutiva. Para la última, uno de los ojos del usuario puede estar cubierto, por ejemplo, en particular, iniciado por un supervisor o un menú correspondiente en el dispositivo de medición.
Como ya se mencionó, la reacción del usuario se puede registrar usando una unidad de entrada, en donde la unidad de entrada está configurada para registrar una reacción de un usuario a una variación de una modulación espacial en al menos una imagen a lo largo del tiempo. Como se usa generalmente, la expresión "unidad de entrada" se refiere a un dispositivo que está configurado para monitorizar la ocurrencia de un evento proporcionando o interrumpiendo una señal de medición en un punto de tiempo en el que ocurre el evento. En particular, la unidad de entrada puede ser un teclado, que puede comprender al menos una tecla que ha de presionarse por el usuario para expresar la reacción. En el presente documento, el teclado puede ser al menos uno de un teclado real o un teclado virtual, tal como el comprendido por una pantalla táctil. Como alternativa o, además, la unidad de entrada puede comprender al menos un micrófono configurado para recibir un sonido producido por el usuario para indicar la reacción deseada.
Como una alternativa adicional o, además, la reacción del usuario puede registrarse usando un dispositivo de medición, en donde el dispositivo de medición está configurado para monitorizar el comportamiento del usuario. En particular, se puede usar una cámara de vídeo para grabar un vídeo del usuario, en donde puede observarse la reacción del usuario visualizando el vídeo o, como alternativa o, además, mediante el procesamiento de imágenes. Como una alternativa adicional o, además, el dispositivo de medición se puede configurar para monitorizar los movimientos oculares del usuario. Como se usa generalmente, la expresión "movimientos oculares" se refiere a un movimiento de uno o ambos ojos de un usuario que se puede registrar, en particular, empleando un rastreador ocular, en donde el rastreador ocular está configurado para registrar datos de rastreo monocular o, preferentemente, datos de rastreo binocular. Además de los movimientos oculares espontáneos, el movimiento de los ojos de un usuario puede desencadenarse por un estímulo que puede iniciarse en este punto por la al menos una imagen, o por la variación de la modulación espacial en la al menos una imagen. En el presente documento, los movimientos oculares que van a registrarse pueden seleccionarse de los movimientos oculares de persecución. Como se usa generalmente, la expresión "movimientos oculares de persecución" se refiere a un movimiento del ojo iniciado por un estímulo, en donde al menos un ojo sigue, o los ojos siguen el estímulo o una variación a lo largo del tiempo del mismo, en donde los movimientos oculares se vuelven aleatorios si el estímulo no es visible por el usuario. Por tanto, el movimiento del ojo iniciado por un estímulo puede usarse para registrar la reacción del usuario.
Como una alternativa adicional, la reacción del usuario de acuerdo con la etapa c) puede indicarse usando un dispositivo de medición, en donde el dispositivo de medición está configurado para monitorizar el comportamiento del usuario. En particular, se puede usar una cámara de vídeo para grabar un vídeo del usuario, en donde puede observarse la reacción del usuario visualizando el vídeo o, como alternativa o, además, mediante el procesamiento de imágenes. Como una alternativa adicional o, además, el dispositivo de medición se puede configurar para monitorizar los movimientos oculares del usuario. Además de los movimientos oculares espontáneos, el movimiento de los ojos de un usuario puede desencadenarse por un estímulo que se inicia en este punto por la al menos una imagen, o la variación de la modulación espacial en la al menos una imagen. En el presente documento, los movimientos oculares que van a registrarse pueden seleccionarse de los movimientos oculares de persecución. Para una definición de las expresiones "movimientos del ojo" y "movimientos del ojo de persecución", se puede hacer referencia a la descripción anterior. Por lo tanto, el movimiento del al menos un ojo iniciado por un estímulo puede usarse como la indicación del punto de tiempo para el umbral de percepción del usuario sin requerir registrar la reacción del usuario a al menos una variación de la al menos una modulación espacial en el tiempo de acuerdo con la etapa b). En el presente documento, el umbral de percepción del usuario puede corresponder, preferentemente, a ese punto de tiempo antes de que el movimiento del al menos un ojo se vuelva aleatorio.
De acuerdo con la etapa c), se detecta un punto de tiempo en el que se indica un umbral de percepción del usuario mediante una reacción del usuario a la variación de la modulación espacial en la al menos una imagen. Como se usa generalmente, la expresión "umbral de percepción" se define como un umbral por encima del cual el usuario puede reconocer un estímulo, en particular la variación de la modulación espacial en la al menos una imagen. En particular, la expresión "umbral de percepción" comprende un primer evento en el que el usuario en primer lugar puede reconocer el estímulo y un evento adicional en el que el usuario solo puede reconocer el estímulo antes de que desaparezca. En consecuencia, se puede detectar el punto en el tiempo que está relacionado con el primer evento o el evento adicional, indicando de esta manera el umbral de percepción. En una primera realización, la modulación espacial en la al menos una imagen como se muestra al usuario de acuerdo con la presente invención puede aumentar, impidiendo de esta manera cada vez más el reconocimiento del estímulo por el usuario hasta que el usuario ya no pueda reconocer la imagen en absoluto. En una realización adicional, la modulación espacial en la al menos una imagen que se muestra al usuario de acuerdo con la presente invención puede reducir, facilitando de esta manera cada vez más el reconocimiento del estímulo por el usuario hasta que el usuario pueda reconocer en primer lugar la al menos una imagen. En otra realización en la que el al menos un parámetro de imagen de los elementos de la imagen puede seleccionarse de al menos uno de una intensidad, una escala de grises, un color, una polarización o una variación temporal de los elementos de la imagen, el umbral de percepción puede seleccionarse, además, de al menos uno de un umbral de contraste, un umbral de color, un umbral de polarización o un umbral temporal. En particular, el umbral de contraste puede usarse cuando el al menos un parámetro de imagen de los elementos de imagen puede comprender una variación de intensidad y/o de escala de grises. Además, el umbral de color se puede usar cuando al menos un parámetro de imagen de los elementos de imagen puede comprender una variación de color. Además, el umbral de polarización se puede usar cuando al menos un parámetro de imagen de los elementos de imagen puede comprender una variación de polarización. Además, el umbral temporal se puede usar cuando al menos un parámetro de imagen de los elementos de imagen puede comprender una variación temporal.
Por la presente, se puede usar una unidad de evaluación que está configurada para detectar el punto de tiempo en el que se indica un umbral de percepción de la al menos una imagen para el usuario por la reacción del usuario a la variación de la modulación espacial en la al menos una imagen. Sin embargo, como se indicó anteriormente, un asistente puede mostrar al menos una imagen al usuario y variar la modulación espacial en la al menos una imagen a lo largo del tiempo de forma manual, en donde la al menos una imagen puede proporcionarse en forma impresa en un tablero, tal como una cartulina, en donde un valor que está relacionado con la al menos una modulación espacial en la imagen, adicionalmente, puede imprimirse en el tablero, tal como en un margen del tablero, esto, evitando una perturbación de la al menos una imagen. En el presente documento, la al menos una imagen particular o una característica particular relacionada con la al menos una imagen, por lo tanto, puede usarse para determinar el valor deseado relacionado con la al menos una modulación espacial en la imagen.
De acuerdo con la etapa d), se determina un valor para al menos un error de refracción del al menos un ojo del usuario de un valor de al menos un parámetro de modulación de la al menos una modulación espacial en al menos una imagen en el punto en el tiempo. Como se usa generalmente, el término "determinar" se refiere a un proceso de generar al menos un resultado representativo, tal como una pluralidad de resultados representativos, en particular aplicando el método de acuerdo con la presente invención. Por la presente, se puede usar una unidad de evaluación que está configurada además para determinar un valor para al menos un error de refracción del al menos un ojo del usuario usando el punto de tiempo detectado durante la etapa c), en donde el punto de tiempo indica un umbral de percepción de la al menos una imagen para el usuario.
Detectando el punto en el tiempo que corresponde al umbral de percepción del usuario de acuerdo con la etapa c), se ha determinado además un valor que corresponde a la modulación espacial en la al menos una imagen en este punto en el tiempo. Independientemente de la manera de la variación de la modulación espacial en la al menos una imagen, como se ha descrito anteriormente con más detalle, se determina el valor de la modulación espacial en la al menos una imagen en este punto en una forma reconocida realmente por el usuario de esta manera. Sin girar la al menos una imagen de acuerdo con la realización (iii) como se ha definido anteriormente, se puede determinar, por lo tanto, un valor de refracción de un único meridiano de la lente esferocilíndrica necesaria para corregir esta parte del error de refracción del usuario. El giro de al menos una imagen permite además determinar la potencia cilíndrica que se refiere, como se ha definido anteriormente, a una diferencia algebraica entre los valores de refracción de diferentes meridianos y el eje del cilindro que indica, como se ha definido anteriormente, la dirección del meridiano de la lente para gafas o del ojo del usuario donde la curvatura de la superficie es máxima. Sin embargo, son posibles diferentes definiciones.
En una realización particularmente preferida de la presente invención, se puede determinar un valor para el error de refracción del al menos un ojo del usuario demodulando la al menos una imagen que, previamente, ha sido modulada durante la etapa a) por el tipo de modulación usando el parámetro de modulación. Teniendo en cuenta el valor del parámetro de modulación en el punto en el tiempo, una demodulación de la al menos una imagen puede considerarse como filtrar óptica o analíticamente la al menos una imagen en el punto de tiempo. Como consecuencia de lo mismo, se puede usar un filtro, en particular una función de filtro, para la demodulación de la al menos una imagen, por lo que se puede derivar información adicional relacionada con el punto de tiempo. En particular, una frecuencia que se usa para modular la imagen de origen puede considerarse como proporcional a una potencia de la función de filtro que es, por lo tanto, proporcional a un valor para el error de refracción del usuario.
En una realización particularmente preferida, el filtro que se usa para la demodulación, habitualmente, comprende una función de filtro de paso bajo que está configurada para retirar porciones de alta frecuencia de la al menos una imagen. En el presente documento, el filtro puede retirar al menos parcialmente la modulación espacial de la al menos una imagen, por lo que la imagen de origen puede reanudarse en gran medida. Dado que la imagen comprende, como se indicó anteriormente, una representación bidimensional, se aplica, preferentemente, un filtro de paso bajo bidimensional para este propósito, en donde el filtro de paso bajo bidimensional se indica, generalmente, por una de las expresiones "filtro de Gauss" o "filtro Sinc2". Para poder determinar la potencia cilíndrica y el eje del cilindro como se ha definido anteriormente, se puede usar más de un filtro para diferentes ejes de la al menos una imagen.
Como alternativa o, además, se puede usar un filtro óptico para el mismo propósito. Como se usa en el presente documento, la expresión "filtro óptico" se refiere a una lente para gafas simulada que tiene una corrección visual predefinida, tal como se indica en ± dioptrías. En esta realización particular, el filtro óptico se puede superponer, en particular, mediante el dispositivo de evaluación, a la al menos una imagen para producir una imagen corregida. Mediante la superposición consecutiva de diferentes filtros ópticos, en donde cada filtro óptico corresponde a una lente para gafas diferente simulada que tiene un valor diferente para la corrección visual, se puede obtener una imagen corregida que puede corresponder al valor deseado para el error de refracción del al menos un ojo del usuario.
A modo de ejemplo, se solicita a un usuario que vea una imagen según se proporciona en una pantalla de acuerdo con la etapa a) del presente método y para indicar de acuerdo con la etapa b) si él o ella puede reconocer la imagen de origen o no. Posteriormente, la imagen se modifica usando al menos un filtro que puede al menos uno de
- variar al menos una frecuencia espacial de la modulación espacial de acuerdo con la realización (i) o (ii) como se ha definido anteriormente o
- girar la imagen en un plano perpendicular con respecto a una dirección de visión del usuario de acuerdo con la realización (iii) como se ha definido anteriormente.
Como consecuencia, la imagen de origen, por lo tanto, puede modularse con un tipo diferente de modulación espacial a lo largo del tiempo para poder detectar errores refractivos esféricos y meridionales del usuario. En el presente documento, puede preferirse un procedimiento particular para determinar el al menos un error de refracción del al menos un ojo del usuario que combina potencia y orientación del filtro con potencia y orientación de la imagen. Preferentemente, al menos un parámetro de filtro que puede proporcionarse aplicando la demodulación en el punto en el tiempo puede, posteriormente, correlacionarse con un error de refracción del al menos un ojo del usuario. En particular, un parámetro 2D del filtro de demodulación puede proporcionar información acerca de un componente astigmático del error de refracción del al menos un ojo del usuario. Sin embargo, también puede ser factible un tipo diferente de procedimiento.
En otro aspecto, la presente invención se refiere a un producto de programa informático que comprende instrucciones ejecutables para realizar el método para determinar un error de refracción de al menos un ojo de un usuario de acuerdo con la presente invención. Para este propósito, un programa informático comprende instrucciones proporcionadas por medio de un código de programa informático que pueden realizar todas las etapas de los métodos como se describe en cualquier otra parte del presente documento y, por lo tanto, para establecer la determinación del error de refracción del al menos un ojo de un usuario cuando se implementa en un ordenador o en una unidad de procesamiento de datos.
El código del programa informático se proporciona en un medio de almacenamiento de datos o en un dispositivo separado, tal como un medio de almacenamiento óptico, por ejemplo, en un disco compacto, directamente en un ordenador o una unidad de procesamiento de datos, en particular un dispositivo de comunicación móvil, específicamente un teléfono inteligente o una tableta, o a través de una red, tal como una red interna o Internet.
Para detalles adicionales con respecto al producto del programa informático, se puede hacer referencia al método de acuerdo con la presente invención como se desvela en cualquier otra parte del presente documento.
En un aspecto adicional, la presente invención se refiere a un dispositivo para determinar un error de refracción de al menos un ojo de un usuario.
En el presente documento, el dispositivo comprende al menos:
- una pantalla, en donde la unidad de pantalla está configurada para mostrar al menos una imagen y al menos una variación de al menos una modulación espacial en la al menos una imagen a un usuario;
- una unidad de evaluación, en donde la unidad de evaluación está configurada para detectar un punto de tiempo en el que una reacción del usuario indica un umbral de percepción del usuario, y para determinar un valor para el al menos un error de refracción del al menos un ojo del usuario de la al menos una modulación espacial en la al menos una imagen en el punto en el tiempo,
en donde la al menos una imagen comprende una imagen de origen que tiene una pluralidad de elementos de imagen, en donde se asignan valores para al menos un parámetro de imagen a la pluralidad de elementos de imagen, en donde la unidad de evaluación está configurada además para generar la al menos una modulación espacial en la al menos una imagen de manera que los valores del al menos un parámetro de imagen de la pluralidad de elementos de imagen determinan los valores de al menos un parámetro de modulación de la al menos una modulación espacial en la al menos una imagen.
En el presente documento, una unidad de entrada, en general, puede no requerirse ya que el umbral de percepción del usuario puede indicarse por una reacción del usuario, en donde la reacción del usuario puede ser, preferentemente, al menos una reacción fisiológica. En particular, la al menos una reacción fisiológica se puede seleccionar de al menos una de las reacciones fisiológicas como se ha indicado anteriormente. Como alternativa, el dispositivo comprende al menos:
- una pantalla, en donde la unidad de pantalla está configurada para mostrar al menos una imagen y al menos una variación de al menos una modulación espacial en la al menos una imagen a un usuario;
- una unidad de entrada, en donde la unidad de entrada está configurada para registrar una reacción del usuario a la al menos una variación de la al menos una modulación espacial en la imagen a lo largo del tiempo; - una unidad de evaluación, en donde la unidad de evaluación está configurada para detectar un punto de tiempo en el que una reacción del usuario indica un umbral de percepción del usuario, y para determinar un valor para el al menos un error de refracción del al menos un ojo del usuario de la al menos una modulación espacial en la al menos una imagen en el punto en el tiempo,
en donde la al menos una imagen comprende una imagen de origen que tiene una pluralidad de elementos de imagen, en donde se asignan valores para al menos un parámetro de imagen a la pluralidad de elementos de imagen, en donde la unidad de evaluación está configurada además para generar la al menos una modulación espacial en la al menos una imagen de manera que los valores del al menos un parámetro de imagen de la pluralidad de elementos de imagen determinan los valores de al menos un parámetro de modulación de la al menos una modulación espacial en la al menos una imagen.
Además, cada dispositivo de acuerdo con la presente invención puede comprender, además, al menos uno de: - una unidad de procesamiento, en donde la unidad de procesamiento está configurada para generar la al menos una imagen y la variación de la modulación espacial en la al menos una imagen;
- un medidor de distancia, en donde el medidor de distancia está configurado para determinar una distancia entre la al menos una imagen y el al menos un ojo del usuario.
En una realización particularmente preferida de la presente invención, al menos uno de la pantalla, la unidad de procesamiento y la unidad de evaluación pueden estar integrados en un casco de realidad virtual. Como alternativa, la pantalla, la unidad de evaluación, la unidad de procesamiento y el medidor de distancia pueden estar comprendidos, al menos parcialmente, por un dispositivo de comunicación móvil, específicamente un teléfono inteligente o una tableta, que se comunica con el casco de realidad virtual. Como se usa generalmente, la expresión "casco de realidad virtual" se refiere a un dispositivo montado en la cabeza que está diseñado para proporcionar realidad virtual o aumentada para el usuario que lleva el casco de realidad virtual. En general, el casco de realidad virtual comprende una pantalla montada en la cabeza estereoscópica que puede proporcionar imágenes separadas para cada ojo; sonido estéreo; sensores de rastreo del movimiento de la cabeza, tal como un giroscopio, un acelerómetro o un sistema de luz estructurada; y un sensor de rastreo ocular. Tal como se usa generalmente, la expresión "dispositivo de comunicación móvil" se refiere a un dispositivo de comunicación móvil que comprende un sistema operativo móvil designado para facilitar el uso de software, Internet y funcionalidades multimedia. En particular, el dispositivo de comunicación móvil puede comprender al menos una cámara y al menos un sensor, en particular, seleccionado de un giroscopio, un acelerómetro, un sensor de proximidad, un magnetómetro o un barómetro, y puede soportar protocolos de comunicaciones inalámbricas tales como wifi o Bluetooth. En el presente documento, al menos una cámara y la unidad de procesamiento del dispositivo de comunicación móvil pueden configurarse conjuntamente para determinar una distancia entre la al menos una imagen y el al menos un ojo del usuario y, por lo tanto, pueden emplearse como medidor de distancia.
En una realización alternativa, la pantalla puede estar integrada en gafas inteligentes mientras que la unidad de evaluación puede estar comprendida por un dispositivo de comunicación móvil que está, preferentemente, en comunicación con las gafas inteligentes. Como se usa generalmente, la expresión "gafas inteligentes" se refiere a gafas que son llevables por un usuario y que están diseñadas para superponer información en un campo de visión del usuario. Además, las gafas inteligentes pueden estar diseñadas para cambiar las propiedades ópticas cuando son llevadas por el usuario. Para estos propósitos, podrán usarse gafas inalámbricas integradas con una pantalla frontal transparente o una superposición de realidad aumentada (AR) que, por un lado, permiten una recepción visual habitual por el usuario y, por otro lado, están diseñadas para proyectar Imágenes digitales proporcionadas por aplicaciones integradas.
Como alternativa o, además, son concebibles realizaciones adicionales con respecto al dispositivo de acuerdo con la presente invención.
Para detalles adicionales con respecto al dispositivo para determinar un error de refracción de al menos un ojo de un usuario, se puede hacer referencia al dispositivo de método para determinar un error de refracción de al menos un ojo de un usuario como se desvela en cualquier otra parte en el presente documento.
En una escala global, la aparición de visión defectuosa no correctiva constituye el caso más frecuente de deficiencia visual baja o avanzada. Para determinar el error de refracción de al menos un ojo de un usuario, el método y el dispositivo de acuerdo con la presente invención muestran diversas ventajas con respecto a la técnica anterior. En particular, el método y el dispositivo permiten determinar valores para las proporciones esféricas y cilíndricas del error de refracción, usando de esta manera un enfoque sencillo y fácil de usar, en particular sin requerir al menos uno de: un optometrista, un oftalmólogo, un conjunto de gafas de medición o un aparato sofisticado, tal como un dispositivo autorrefractivo, designado para este propósito. En consecuencia, el método y el dispositivo proporcionan una herramienta poderosa para determinar valores para el error de refracción que incorpora una fácil aplicabilidad y duraciones de prueba cortas. En el presente documento, se diseña una implementación del hardware, así como una incorporación del software para hacer que la herramienta sea aplicable incluso para usuarios o personal no entrenado.
Por lo tanto, puede determinarse el error de refracción de al menos un ojo del usuario de manera que sea aplicable a escala global a todo tipo de usuarios, incluyendo niños, ancianos o discapacitados, por lo que pueden evitarse en la medida de lo posible las dificultades de comunicación o la cooperación. Además, el presente método y dispositivo para determinar el error de refracción están adaptados para proporcionar una medida objetiva, en donde las mediciones de diferentes realizaciones pueden almacenarse y compararse fácilmente, permitiendo por lo tanto una evaluación del desarrollo a largo plazo del al menos un error de refracción en al menos un ojo o los ojos de un usuario.
Además, el método y el dispositivo presentes pueden incluso aplicarse en el hogar como una herramienta de detección, implementándose potencialmente incluso en realidad aumentada o en un dispositivo de comunicación móvil. De esta manera, la presente invención puede usarse como una herramienta de detección mediante la que se puede determinar la deficiencia visual de forma regular. Como resultado de lo mismo, la degradación gradual de la función visual de un usuario puede detectarse antes y tratarse de forma mucho más eficaz.
Breve descripción de las figuras
Las características y realizaciones opcionales adicionales de la presente invención se desvelan con más detalle en la siguiente descripción de las realizaciones preferidas, preferentemente junto con las reivindicaciones dependientes. En la misma, las características opcionales respectivas se pueden realizar de forma aislada, así como en cualquier combinación factible arbitraria, como se dará cuenta el experto en la materia. Se destaca en este punto que el alcance de la invención no está restringido por las realizaciones preferidas.
En las figuras:
La Figura 1 ilustra una realización preferida de un dispositivo para determinar un error de refracción de al menos un ojo de un usuario de acuerdo con la presente invención;
La Figura 2 ilustra una realización preferida de un método para determinar un error de refracción de al menos un ojo de un usuario de acuerdo con la presente invención;
Las Figuras 3A a 3D ilustran diversos tipos de imágenes según se usan en el método para determinar un error de refracción de al menos un ojo de un usuario de acuerdo con la presente invención; y Las Figuras 4A a 4E ilustran variaciones de valores de escala de grises que corresponden a las imágenes mostradas en las Figuras 3A a 3D.
Descripción detallada de las realizaciones
La Figura 1 ilustra una realización preferida de un dispositivo 110 para determinar un error de refracción de al menos un ojo 112 de un usuario 114. Como se muestra esquemáticamente, el ejemplo de dispositivo 110 de la Figura 1 comprende - sin limitar el alcance de la invención - un dispositivo electrónico 116 que tiene una pantalla 118 que está configurada para mostrar una imagen 120 al usuario 114. En el presente documento, el dispositivo electrónico 116, preferentemente, puede seleccionarse entre un monitor, un teléfono inteligente o una tableta; sin embargo, también pueden ser factibles otros tipos de dispositivos electrónicos 116. En una realización alternativa (no representada en este punto), la imagen 120, como se ha descrito anteriormente, puede mostrarse al usuario 114, por ejemplo, por un asistente que soporta el usuario 114, usando una cartulina en la que puede imprimirse la imagen. Sin embargo, también pueden ser factibles otras alternativas.
En el ejemplo de realización, como se muestra en la Figura 1, el dispositivo electrónico 116 que comprende la pantalla 118 está ubicado en un lugar fijo, en donde el usuario 114 puede moverse para alterar una distancia 122 entre la imagen 120 y el al menos un ojo 112 del usuario 114. Como alternativa (no representada aquí), la pantalla 118 puede ser móvil, permitiendo por lo tanto una modificación de la distancia 122 entre la imagen 120 y el al menos un ojo 112 del usuario 114. Para determinar un valor para la distancia 122 entre la imagen 120 y el al menos un ojo 112 del usuario 114, el dispositivo 110, como se representa además esquemáticamente en la Figura 1, puede comprender un medidor de distancia 124 que está configurado para determinar la distancia 122 entre la imagen 120 y el al menos un ojo 112 del usuario 114.
Además, el dispositivo 110 puede estar configurado para girar la pantalla 118 que muestra la imagen 120 dentro de un plano que es perpendicular con respecto a una dirección de visión 126 del usuario 114. En el ejemplo de dispositivo 110, como se ilustra en la Figura 1, sin embargo, el giro de la pantalla es prescindible ya que un giro de la imagen 120 en un plano que es perpendicular a la dirección de visión 126 del usuario 114 se puede realizar fácilmente girando digitalmente la imagen 120 en la pantalla 118. Sin embargo, la imagen 120, en la realización alternativa (no representada en este punto) como se ha descrito anteriormente, puede girarse, por ejemplo, por el asistente, dentro del plano que es perpendicular a la dirección de visión 126 del usuario 114 girando la cartulina en una manera respectiva, por lo que se mantiene la distancia 122 entre la cartulina y el al menos un ojo 112 del usuario 114. Sin embargo, también son concebibles otras formas de girar la imagen 120.
Como se ilustra además en las Figuras 1 y 3A, la imagen 120 comprende una imagen de origen 128 que tiene una pluralidad de elementos de imagen 130 que se indican esquemáticamente en la Figura 3A mediante diversas porciones seleccionadas de la imagen de origen 128 que pueden tratarse individualmente. La imagen de origen 128, como se usa en el presente documento, constituye un dibujo esquemático de un logotipo sencillo que únicamente comprende secciones en blanco y negro, como se representa además en la Figura 3A. Sin embargo, otros tipos de otros logotipos sencillos, animales, juguetes, objetos naturales tales como una casa o una fruta, también podrían usarse para este propósito. En consecuencia, se puede asignar un valor de "negro" o de "blanco" a cada elemento de imagen 130 de la imagen de origen 128, dependiendo de si el elemento de imagen 130 está ubicado predominantemente en la sección negra o en la sección blanca del dibujo, respectivamente. Con respecto a la presente invención, puede usarse un parámetro de imagen que se puede indicar con el término "sombra", en donde se asigna un valor para el parámetro de imagen "sombra" al elemento de imagen 130. En el ejemplo de realización de la Figura 3A, el parámetro de imagen "sombra" de cada elemento de imagen 130 de la imagen de origen 128, por lo tanto, puede asumir el valor de "negro" o el valor de "blanco".
Como se muestra en las Figuras 1 y 3B, la imagen 120 comprende una modulación espacial 132 en forma de franjas alternas en blanco y negro 134, en donde la modulación espacial 132 se genera modulando individualmente los elementos de imagen 130. Como se representa allí, la modulación espacial 132 comprende una frecuencia espacial que, normalmente, se define como un valor recíproco de una distancia espacial 136 que refleja un período espacial 138 de repetición de un patrón dentro de la imagen 120. Con el propósito de generar la modulación espacial 132, el valor del al menos un parámetro de imagen del elemento de imagen 130 determina, de acuerdo con la presente invención, un valor para al menos un parámetro de modulación de la al menos una modulación espacial 132 del elemento de imagen 130. En el ejemplo de realización de las Figuras 1, 3A y 3B, el valor del parámetro de imagen "sombra" del elemento de imagen 130 como se ha descrito anteriormente se usa, por lo tanto, para determinar el valor del al menos un parámetro de modulación de la al menos una modulación espacial 132 del elemento de imagen 130.
La modulación espacial 132 usada para generar la imagen 120 como se representa en las Figuras 1 y 3, es una modulación de anchura de pulso, que se refiere a un tipo de modulación que comprende una frecuencia portadora que se modula por el denominado "ciclo de trabajo" dentro de cada período espacial 138. Por lo tanto, el ciclo de trabajo actúa como el parámetro de modulación como se indicó anteriormente mientras que la frecuencia espacial en la imagen 120 corresponde a la frecuencia portadora de la modulación de anchura de pulso. Como se definió anteriormente, el "ciclo de trabajo" se refiere a una porción de un período espacial particular 138 durante el que se aplica la modulación, que se puede describir en este ejemplo particular por la anchura de las franjas alternas en blanco y negro 134. En la realización de las Figuras 1 y 3, el valor del parámetro de modulación dentro de cada período espacial 138 corresponde al valor del ciclo de trabajo dentro de cada período espacial 138, en donde se puede asignar un valor de aproximadamente "0,6" o de aproximadamente "0,4" a cada elemento de imagen 130. Como se ilustra allí, el valor de "0,6" da como resultado franjas negras gruesas 134 en la imagen 120, mientras que el valor de "0,4" da como resultado franjas negras gruesas 134 en la imagen 120, por lo que el valor del período espacial 138 que corresponde a la frecuencia portadora de la modulación de anchura de pulso permanece constante en toda la imagen 120.
De acuerdo con la presente invención, el valor para el parámetro de imagen "sombra" de los elementos de imagen 130 dentro del período espacial 138, por lo tanto, determina si se usa el valor de "0.6" o de "0.4" para el ciclo de trabajo dentro del período espacial 138. Por lo tanto, el ciclo de trabajo asume el valor de "0,6" en las secciones negras de la imagen de origen 128, mientras que el ciclo de trabajo asume el valor de "0,4" en las secciones blancas de la imagen de origen 128. Como resultado, la imagen 120 tiene, por un lado, primeras áreas que comprenden las secciones negras de la imagen de origen 128 y las franjas negras gruesas 134 que tienen el valor de "0,6" para el ciclo de trabajo y, por otro lado, segundas áreas que comprenden las secciones blancas de la imagen de origen 128 y las franjas negras finas 134 que tienen el valor de "0,4" para el ciclo de trabajo. Por lo tanto, el valor del ciclo de trabajo puede variar entre períodos espaciales adyacentes 138, por lo que la duración del período espacial 138, sin embargo, no se ve afectada.
Además, la imagen 120, como se ilustra en las Figuras 1 y 3B, comprende un patrón en zigzag 140 que se genera, adicionalmente, modulando una fase de la frecuencia espacial perpendicular a las franjas alternas en blanco y negro 134 de forma sinusoidal. Como resultado de lo mismo, una inclinación de las franjas alternas en blanco y negro 134 varía entre filas adyacentes 142 de forma alterna, como se muestra en las Figuras 1 y 3B, entre una dirección hacia la izquierda y una dirección hacia la derecha. Sin embargo, pueden concebirse diversos otros ejemplos para la modulación en la imagen 120.
Como alternativa o, además, se puede usar al menos otro tipo de modulación (no representado en este punto) para la al menos una modulación espacial 132, en donde el otro tipo de modulación, particularmente, puede seleccionarse de una modulación de amplitud o una modulación de frecuencia. El uso de la modulación de amplitud, por un lado, como se representa adicionalmente en las Figuras 4A a 4D, da como resultado una variación de la intensidad de las franjas alternas en blanco y negro 134 dependiendo del valor del parámetro de imagen "sombra" de los elementos de la imagen 130 dentro del período espacial 138, por lo que la anchura de las franjas alternas en blanco y negro 134 y la longitud del período espacial 138 permanecerían constantes. El uso de la modulación de frecuencia, por otro lado, daría como resultado una variación de un número de franjas alternas en blanco y negro 134 dentro del período espacial 138, de nuevo dependiendo del valor del parámetro de imagen "sombra" de los elementos de imagen 130 dentro del período espacial 138, por lo que la duración del período espacial 138, de nuevo, permanecería constante. Son factibles otros ejemplos.
Como se ilustra adicionalmente en la Figura 1, el dispositivo 110 para determinar el error de refracción del al menos un ojo 112 de un usuario 114 comprende una unidad de entrada 144, en donde la unidad de entrada 144 está configurada para registrar una reacción del usuario 114 a la variación de la modulación espacial 132 en la imagen 120 a lo largo del tiempo. Para variar la modulación espacial 132 en la imagen 120 a lo largo del tiempo, se puede seleccionar al menos una de las siguientes realizaciones:
(i) variar la frecuencia espacial de la modulación espacial 132;
(ii) variar la distancia 122 entre la imagen 120 y el al menos un ojo 112 del usuario 114;
(iii) girar la imagen 120 en un plano perpendicular con respecto a la dirección de visión 126 del usuario 114.
Como se indicó anteriormente, la frecuencia espacial de la modulación espacial 132 se puede variar, ya sea de manera directa de acuerdo con la realización (i), mostrando una imagen diferente 120 que tenga una frecuencia espacial diferente para el usuario 114 o, de manera indirecta de acuerdo con la realización (ii), variando la distancia 122 entre la imagen 120 y el al menos un ojo 112 del usuario 114. Como se indicó anteriormente, la imagen 120 se puede girar en un plano que es perpendicular a la dirección de visión 126 del usuario 114 de acuerdo con la realización (iii) usando una unidad giratoria configurada para girar físicamente la imagen 120. Sin embargo, la imagen 120 también se puede girar en un plano que es perpendicular a la dirección de visión 126 del usuario 114 de manera virtual girando la imagen 120 como se muestra en la pantalla 118. Además, también son concebibles otras formas de girar la imagen 120.
Como se muestra en la Figura 1, la unidad de entrada 144 puede comprender un teclado 146 que tiene uno o más botones que se pueden presionar con un dedo 148 del usuario 114 para indicar la reacción deseada del usuario 114.
Sin embargo, también pueden ser factibles otros tipos de unidades de entrada 144, tal como uno o más micrófonos (no representados en este punto) configurados para recibir un sonido producido por el usuario 114 para indicar la reacción deseada. Como alternativa adicional o, además, la reacción del usuario 114 puede grabarse usando un dispositivo de medición, tal como una cámara de vídeo (no representada en este punto) configurada para grabar un vídeo del usuario 114, en donde la reacción del usuario 114 puede observarse visualizando el vídeo o, como alternativa o, además, mediante el procesamiento de imágenes. Como alternativa adicional, o además, el dispositivo de medición puede ser o comprender un rastreador del ojo configurado para monitorizar los movimientos del ojo del usuario 114, preferentemente seleccionado entre los movimientos del ojo de persecución de los ojos 112 del usuario 114.
Como se ilustra además en la Figura 1, el dispositivo 110 comprende una unidad de evaluación 150, que estar conectada a al menos uno de la pantalla 118, el medidor de distancia 124 y la unidad de entrada 144, de forma inalámbrica, por ejemplo, usando conexión Bluetooth (no representada en este punto), o de forma unida por cable usando una o más conexiones directas 152, por ejemplo, una o más conexiones USB. En este punto, la unidad de evaluación 150 puede ser o comprender una unidad de procesamiento (no representada en este punto), en donde la unidad de procesamiento puede estar configurada para generar la imagen 120 y la variación de la modulación espacial 132 en la imagen 120.
De acuerdo con la presente invención, la unidad de evaluación está configurada para detectar un punto del tiempo en el que se indica un umbral de percepción de la imagen 120 para el usuario 114 por la reacción del usuario 114 a la imagen 120, en particular, a la variación de la modulación espacial 132 en la imagen 120 a lo largo del tiempo. Como se ha definido anteriormente, el umbral de percepción puede referirse a un primer evento, en el que el usuario puede reconocer la imagen de origen 128 dentro de la imagen 120, o a un evento adicional, en el que el usuario aún puede reconocer la imagen de origen 128 antes de que la imagen de origen 128 desaparezca de la imagen 120 reconocida por el usuario 114.
En consecuencia, el umbral de percepción se puede usar para determinar el punto en el tiempo en el que puede ocurrir el primer evento o el evento adicional. Sin embargo, al conocer el punto en el tiempo como se deduce de esta manera, se pueden derivar valores respectivos para el al menos un parámetro de modulación de la modulación espacial 132 en la imagen 120 en el punto en el tiempo, por un lado, y, debido a la relación entre el parámetro de modulación usado para generar la modulación espacial 132 en la imagen 120 y el al menos un parámetro de imagen que inicia la modulación espacial 132 en la imagen 120, para el al menos un parámetro de imagen en el punto en el tiempo, por otro lado. De acuerdo con la presente invención, una deducción de este tipo se puede usar para determinar un valor para el al menos un error de refracción del al menos un ojo 112 del usuario 114. El valor del al menos un error de refracción del al menos un ojo 112 del usuario 114, posteriormente, puede informarse al menos a uno de los usuarios 114 o al asistente, preferentemente, a través de la pantalla 118 después de que finalice la visualización de la una o más imágenes 120 al usuario 114. Sin embargo, son concebibles formas adicionales para informar el valor del al menos un error de refracción del al menos un ojo 112 del usuario 114.
En particular, variando la frecuencia espacial de la modulación espacial 132, ya sea de acuerdo con la realización (i) o la realización (ii), sin girar la imagen 120 de acuerdo con la realización (iii) como se ha definido anteriormente, por lo tanto, puede determinarse, por un lado, un valor de refracción de una única sección principal de una lente esferocilíndrica que puede requerirse para corregir esta parte del error de refracción del usuario 114. Por otra parte, el giro de la imagen 120 de acuerdo con la realización (iii) permite determinar una potencia cilíndrica que se refiere, como se ha definido anteriormente, a una diferencia algebraica entre los valores de refracción de las secciones principales y el eje del cilindro que indica la dirección de la sección principal de la lente para gafas cuyo índice de refracción en el vértice se usa como referencia.
En una realización particularmente preferida, el valor deseado para el error de refracción del al menos un ojo del usuario 114 puede determinarse demodulando la imagen que, previamente, se ha modulado por el al menos un tipo de modulación usando el al menos un parámetro de modulación. En este punto, una demodulación de la imagen 120 puede considerarse como filtrar la imagen en el punto de tiempo, por lo que un filtro que puede usarse para la demodulación de la imagen 10 puede comprender, por lo tanto, información adicional relacionada con el punto de tiempo. En particular, una frecuencia que se usa para modular la imagen de origen 128 puede considerarse proporcional a una potencia del filtro que es, por lo tanto, proporcional al valor deseado para el error de refracción del usuario 114.
Como ya se ha descrito anteriormente, el filtro que se usa para la demodulación, habitualmente, comprende un filtro de paso bajo, en particular, el equivalente bidimensional del filtro de paso bajo que, generalmente, se indica por las expresiones "filtro de Gauss" o "filtro seno2", que está configurado para retirar porciones de alta frecuencia de la imagen 120. Como se representa esquemáticamente en la Figura 3C, el filtro puede retirar al menos parcialmente la modulación espacial 132 de la imagen 120, por lo que la imagen de origen 128 puede reconstruirse en gran medida como se indica por el signo de referencia 154, mientras que la modulación espacial 132 que comprende las franjas en blanco y negro 134 aún es visible en hasta una medida considerable. Para poder determinar la potencia cilíndrica y el eje del cilindro como se ha definido anteriormente, se puede usar más de un filtro para diferentes ejes de la imagen.
Como alternativa o, además, se puede usar un filtro óptico para el mismo propósito con una eficiencia similar como se ilustra en la Figura 3D. Como se indicó anteriormente, un filtro óptico se refiere a una lente para gafas simulada que tiene una corrección visual predefinida, tal como se indica en ± dioptrías. En el presente documento, puede superponerse una serie de diferentes filtros ópticos, en donde cada filtro óptico corresponde a una lente para gafas diferente simulada que tiene un valor diferente para la corrección visual, en particular usando el dispositivo de evaluación 150, sobre la imagen 120 para producir una imagen corregida. El resultado de aplicar un ejemplo de filtro óptico que tiene 1,0 dioptrías se ha representado esquemáticamente en la Figura 3D, que muestra una reconstrucción adicional 156 de la imagen de origen 128 mientras que la modulación espacial 132 que comprende las franjas en blanco y negro 134 también es visible en este punto hasta una medida considerable.
En correspondencia con cada una de las Figuras 3A a 3D, las Figuras 4A a 4D ilustran esquemáticamente los valores de escala de grises 160 respectivos. Para este propósito, en cada una de las Figuras 4A a 4D, el eje horizontal se refiere a una ubicación 162 mientras que el eje vertical se refiere al valor de escala de grises 160 en la ubicación correspondiente 162. En el presente documento, la Figura 4A ilustra un curso 164 de los valores de escala de grises 160 sobre áreas en blanco y negro de la imagen de origen 128. Además, la Figura 4B muestra la imagen 120 que comprende la modulación espacial 132 de los valores de escala de grises 160. Además, las Figuras 4C y 4D ilustran el curso 164 de los valores de escala de grises 160 sobre la imagen de origen 128 y el curso demodulado resultante 166 de la variación de los valores de escala de grises 160.
La Figura 2 ilustra esquemáticamente una realización preferida de un método 210 para determinar un error de refracción de al menos un ojo 112 de un usuario 114 de acuerdo con la presente invención.
En una etapa de visualización 212 de acuerdo con la etapa a), la imagen 120 se muestra al usuario 114, en donde la imagen 120 comprende la al menos una modulación espacial 132 como se ha descrito anteriormente con más detalle.
En una etapa de grabación 214 de acuerdo con la etapa b), la reacción del usuario 114 a la variación de la modulación espacial 132 en la imagen 120 puede grabarse a lo largo del tiempo. En el presente documento, la modulación espacial 132 en la imagen 120 se puede variar, preferentemente usando al menos una de las realizaciones (i) a (iii) como se ha indicado anteriormente con más detalle. En el presente documento, la etapa de grabación 214 se puede repetir con diferentes imágenes 120 que muestran al menos uno de un valor diferente de la modulación espacial 132 o una orientación diferente de la modulación espacial 132 en un plano perpendicular a la dirección de visión 126 del usuario 114 hasta que se detecta el punto de tiempo en una etapa de detección 216.
En la etapa de detección 216 de acuerdo con la etapa c), se detecta el punto de tiempo en el que el umbral de percepción del usuario 114 se indica mediante una reacción del usuario 114 a la imagen particular 120 tal como se muestra actualmente al usuario 114. Para este propósito, se puede usar la unidad de entrada 144 como se ha descrito anteriormente con más detalle, sin embargo, también pueden ser factibles otros tipos de unidades de entrada. En una realización alternativa, el umbral de percepción del usuario 114 puede indicarse por una reacción del usuario 114 sin requerir una unidad de entrada, en donde la reacción del usuario 114 puede ser, preferentemente, al menos una reacción fisiológica, en particular, seleccionada de al menos una de las reacciones fisiológicas descritas anteriormente con más detalle. En esta realización alternativa, realizar la etapa de grabación 214 de acuerdo con la etapa b) puede ser prescindible.
En una etapa de determinación 218 de acuerdo con la etapa d), el valor de al menos un parámetro de modulación de la al menos una modulación espacial 132 en la imagen 120 en el punto en el tiempo según se detecta en la etapa de detección 216 se usa para determinar un valor deseado 220 para el al menos un error de refracción del al menos un ojo 112 del usuario 114. Para detalles relacionados con la etapa de determinación 218, se puede hacer referencia a la descripción anterior.
Lista de signos de referencia
110 dispositivo
112 ojos
114 usuario
116 dispositivo electrónico
118 pantalla
120 imagen
122 distancia
124 medidor de distancia
126 dirección de visión
128 imagen de origen
130 elemento de imagen
132 modulación espacial
134 franjas
136 distancia espacial
138 periodo espacial
patrón de zigzag
fila
unidad de entrada
teclado
dedo
unidad de evaluación
conexión
imagen de origen reconstruida
imagen de origen reconstruida
valor de escala de grises
ubicación
curso
curso
método
etapa de visualización
etapa de grabación
etapa de detección
etapa de determinación
valor del error de refracción

Claims (16)

REIVINDICACIONES
1. Un método (210) para determinar al menos un error de refracción de al menos un ojo (112) de un usuario (114), comprendiendo el método (210) las siguientes etapas:
a) mostrar al menos una imagen (120) a un usuario (114) usando una pantalla (118), en donde la al menos una imagen (120) comprende al menos una modulación espacial (132);
c) detectar un punto de tiempo en el que se indica un umbral de percepción del usuario (114) mediante una reacción del usuario (114) usando una unidad de evaluación (150); y
d) determinar un valor (220) para el al menos un error de refracción del al menos un ojo (112) del usuario (114) de la al menos una modulación espacial (132) en la al menos una imagen (120) en el punto en el tiempo usando la unidad de evaluación (150),
caracterizado por que
la al menos una imagen (120) comprende una imagen de origen (128) que tiene una pluralidad de elementos de imagen (130), en donde los valores para al menos un parámetro de imagen se asignan a la pluralidad de elementos de imagen (130), en donde la al menos una modulación espacial (132) en la al menos una imagen (120) se genera de manera que los valores del al menos un parámetro de imagen de la pluralidad de elementos de imagen (130) determinan los valores de al menos un parámetro de modulación de la al menos una modulación espacial (132) en la al menos una imagen (120).
2. El método (210) de acuerdo con la reivindicación anterior, que comprende además la siguiente etapa: b) registrar la reacción del usuario (114) a al menos una variación de la al menos una modulación espacial (132) a lo largo del tiempo usando una unidad de entrada (144).
3. El método (210) de acuerdo con una cualquiera de las reivindicaciones anteriores, en donde el al menos un parámetro de imagen de los elementos de imagen (130) se selecciona de al menos uno de una intensidad, una escala de grises, un color, una polarización o una variación temporal de los elementos de imagen (130).
4. El método (210) de acuerdo con una cualquiera de las reivindicaciones anteriores, en donde el umbral de percepción se selecciona de al menos uno de un umbral de contraste, un umbral de color, un umbral de polarización o un umbral temporal.
5. El método (210) de acuerdo con una cualquiera de las reivindicaciones anteriores, en donde un tipo de la al menos una modulación espacial se selecciona de al menos una modulación de anchura de pulso, una modulación de frecuencia, una modulación de amplitud.
6. El método (210) de acuerdo con una cualquiera de las reivindicaciones anteriores, en donde la al menos una modulación espacial (132) comprende al menos una frecuencia espacial (134), en donde la al menos una frecuencia espacial (134) corresponde a al menos una frecuencia portadora de la modulación.
7. El método (210) de acuerdo con la reivindicación anterior, en donde se modula adicionalmente una fase de la al menos una frecuencia portadora.
8. El método (210) de acuerdo con una cualquiera de las reivindicaciones anteriores, en donde la al menos una variación de la al menos una modulación espacial (132) en la al menos una imagen (120) a lo largo del tiempo se selecciona de al menos uno de:
(i) variar al menos una frecuencia espacial (134) de la al menos una modulación espacial (132);
(ii) variar una distancia (122) entre la al menos una imagen (120) y el al menos un ojo (112) del usuario (114); (iii) girar la al menos una imagen (120) en un plano perpendicular con respecto a una dirección de visión (126) del usuario (114).
9. El método (210) de acuerdo con la reivindicación anterior, en donde el giro de la al menos una imagen (120) en el plano que es perpendicular con respecto a la dirección de visión (126) del usuario (114) se realiza después, antes, o simultáneamente mismo tiempo con al menos una de la variación de la al menos una frecuencia espacial (134) de la al menos una modulación espacial (132) o la variación de la distancia (122) entre la al menos una imagen (120) y el al menos un ojo (112) del usuario (114).
10. El método (210) de acuerdo con una cualquiera de las reivindicaciones anteriores, en donde la variación del al menos un tiempo de modulación espacial (132) se realiza hasta que se indica el umbral de percepción del usuario (114) para la imagen de origen (128) tal como está comprendida por la al menos una imagen (120) mediante la reacción del usuario (114).
11. El método (210) de acuerdo con una cualquiera de las reivindicaciones anteriores, en donde el valor (220) para el error de refracción del al menos un ojo (112) del usuario (114) se determina demodulando la al menos una imagen (120).
12. El método (210) de acuerdo con la reivindicación anterior, en donde se usa al menos un filtro para demodular la al menos una imagen (120).
13. Un producto de programa informático que comprende instrucciones ejecutables para realizar un método (210) para determinar un error de refracción de al menos un ojo (112) de un usuario (114) de acuerdo con una cualquiera de las reivindicaciones anteriores.
14. Un medio legible por ordenador que lleva un programa informático que comprende instrucciones que, cuando son ejecutadas por un ordenador, hacen que el ordenador lleve a cabo las características del método de una cualquiera de las reivindicaciones de método anteriores usando al menos dicho programa informático.
15. Un método para producir al menos una lente para gafas para el al menos un ojo (112) del usuario (114), en donde la producción de la lente para gafas comprende
- procesar una lente en bruto, en donde el procesamiento de la lente en bruto está basado en instrucciones configuradas para compensar al menos un error de refracción del al menos un ojo (112) del usuario (114); y - determinar el error de refracción del al menos un ojo (112) del usuario (114) realizando las siguientes etapas:
a) mostrar al menos una imagen (120) a un usuario (114) usando una pantalla (118), en donde la al menos una imagen (120) comprende al menos una modulación espacial (132);
c) detectar un punto de tiempo en el que se indica un umbral de percepción del usuario (114) mediante una reacción del usuario (114) usando una unidad de evaluación (150); y
d) determinar un valor (220) para el al menos un error de refracción del al menos un ojo (112) del usuario (114) de la al menos una modulación espacial (132) en la al menos una imagen (120) en el punto en el tiempo usando la unidad de evaluación (150),
caracterizado por que
la al menos una imagen (120) comprende una imagen de origen (128) que tiene una pluralidad de elementos de imagen (130), en donde los valores para al menos un parámetro de imagen se asignan a la pluralidad de elementos de imagen (130), en donde la al menos una modulación espacial (132) en la al menos una imagen (120) se genera de manera que los valores del al menos un parámetro de imagen de la pluralidad de elementos de imagen (130) determinan los valores de al menos un parámetro de modulación de la al menos una modulación espacial (132) en la al menos una imagen (120).
16. Un dispositivo (110) para determinar un error de refracción de al menos un ojo (112) de un usuario (114), comprendiendo el dispositivo (110):
- una pantalla (118), en donde la pantalla (118) está configurada para mostrar al menos una imagen (120) y al menos una variación de al menos una modulación espacial (132) en la al menos una imagen (120) a un usuario (114);
- una unidad de evaluación (150), en donde la unidad de evaluación (150) está configurada para detectar un punto de tiempo en el que se indica un umbral de percepción del usuario (114) mediante una reacción del usuario (114), y para determinar un valor (220) para el al menos un error de refracción del al menos un ojo (112) del usuario (114) de la al menos una modulación espacial (132) en la al menos una imagen (120) en el punto en el tiempo,
caracterizado por que
la al menos una imagen (120) comprende una imagen de origen (128) que tiene una pluralidad de elementos de imagen (130), en donde los valores para al menos un parámetro de imagen se asignan a la pluralidad de elementos de imagen (130), en donde la unidad de evaluación (150) está configurada además para generar la al menos una modulación espacial (132) en la al menos una imagen (120) de manera que los valores del al menos un parámetro de imagen de la pluralidad de elementos de imagen (130) determinan los valores de al menos un parámetro de modulación de la al menos una modulación espacial (132) en la al menos una imagen (120).
ES21721125T 2020-04-29 2021-04-28 Método y dispositivo para determinar un error de refracción Active ES2967660T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP20172146.1A EP3903664A1 (en) 2020-04-29 2020-04-29 Method and device for determining a refractive error
PCT/EP2021/061148 WO2021219728A1 (en) 2020-04-29 2021-04-28 Method and device for determining a refractive error

Publications (1)

Publication Number Publication Date
ES2967660T3 true ES2967660T3 (es) 2024-05-03

Family

ID=70480148

Family Applications (1)

Application Number Title Priority Date Filing Date
ES21721125T Active ES2967660T3 (es) 2020-04-29 2021-04-28 Método y dispositivo para determinar un error de refracción

Country Status (9)

Country Link
US (2) US20230064322A1 (es)
EP (2) EP3903664A1 (es)
JP (1) JP2023515716A (es)
KR (1) KR102570392B1 (es)
CN (1) CN115996664B (es)
AU (1) AU2021263957B2 (es)
BR (1) BR112022021659A2 (es)
ES (1) ES2967660T3 (es)
WO (1) WO2021219728A1 (es)

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07299034A (ja) * 1994-04-30 1995-11-14 Canon Inc 自覚屈折測定装置
JPH08168466A (ja) * 1994-12-19 1996-07-02 Canon Inc 検眼装置
JPH09253045A (ja) * 1996-03-25 1997-09-30 Canon Inc 眼屈折計
JPH09271461A (ja) * 1996-04-05 1997-10-21 Canon Inc 検眼装置
JPH11225959A (ja) * 1998-02-13 1999-08-24 Canon Inc 自覚検眼装置
JP2000079096A (ja) * 1998-09-07 2000-03-21 Canon Inc 検眼装置
CN1994217A (zh) * 2000-09-26 2007-07-11 卡尔豪恩视觉公司 可调节透镜的屈光力修正
JP3709921B2 (ja) * 2001-03-26 2005-10-26 英二 志水 眼疾患者への映像付与方法及び映像付与装置
US7918558B1 (en) 2010-07-22 2011-04-05 Preventive Ophthalmics System and method for testing retinal function
US8992019B2 (en) 2012-01-06 2015-03-31 Baylor College Of Medicine System and method for evaluating ocular health
AU2013202694B2 (en) * 2012-04-05 2014-08-21 Brien Holden Vision Institute Lenses, Devices, Methods and Systems for Refractive Error
EP3329837A1 (en) * 2016-12-02 2018-06-06 Carl Zeiss Vision International GmbH Method for presentation of new optotypes, which discrimination require global information integration by the human visual system, test system for measuring refractive error and contrast sensitivity, and computer program product
EP3592204B1 (en) 2017-03-05 2024-05-08 Virtuoptica Ltd. Eye examination method and apparatus therefor
EP3730036A1 (de) 2019-04-23 2020-10-28 Carl Zeiss Vision International GmbH Bestimmung eines refraktionsfehlers eines auges
US11651486B2 (en) 2020-04-03 2023-05-16 Wisconsin Alumni Research Foundation Apparatus for detection of early-stage glaucoma and other optic nerve diseases

Also Published As

Publication number Publication date
WO2021219728A1 (en) 2021-11-04
CN115996664B (zh) 2024-04-09
KR102570392B1 (ko) 2023-08-24
JP2023515716A (ja) 2023-04-13
EP4142570A1 (en) 2023-03-08
AU2021263957A1 (en) 2022-12-01
EP4142570B1 (en) 2023-09-13
EP3903664A1 (en) 2021-11-03
CN115996664A (zh) 2023-04-21
KR20230003034A (ko) 2023-01-05
BR112022021659A2 (pt) 2022-12-20
US12016627B2 (en) 2024-06-25
US20240122467A1 (en) 2024-04-18
US20230064322A1 (en) 2023-03-02
EP4142570C0 (en) 2023-09-13
AU2021263957B2 (en) 2023-01-05

Similar Documents

Publication Publication Date Title
KR102669685B1 (ko) 광 필드 프로세서 시스템
US10610093B2 (en) Method and system for automatic eyesight diagnosis
JP2018520820A (ja) 視覚の様相を検査する方法及びシステム
CN107592798A (zh) 用于确定用户视力的方法和设备
TWI832976B (zh) 測量視力功能的裝置及方法
ES2936644T3 (es) Procedimiento y dispositivo para determinar un umbral de sensibilidad al contraste
US9055887B1 (en) System for clinical examination of visual functions using lenticular optics or programmable displays
US11730357B2 (en) Method and system for measuring or assessing human visual field
ES2967660T3 (es) Método y dispositivo para determinar un error de refracción
US9131838B1 (en) System for clinical examination of visual functions using lenticular optics or programmable displays
Koessler et al. Focusing on an illusion: Accommodating to perceived depth?
Shen et al. Evaluation of visual acuity measurement based on the mobile virtual reality device
CN117295447A (zh) 与智能手机配合使用的眼部检查设备
KR20240093840A (ko) 광 필드 프로세서 시스템
Broschart Peripheral Dynamic Stereovision–A Novel Stereoscopic Test