ES2965618T3 - Técnica para determinar un indicador de riesgo de miopía - Google Patents

Técnica para determinar un indicador de riesgo de miopía Download PDF

Info

Publication number
ES2965618T3
ES2965618T3 ES19184427T ES19184427T ES2965618T3 ES 2965618 T3 ES2965618 T3 ES 2965618T3 ES 19184427 T ES19184427 T ES 19184427T ES 19184427 T ES19184427 T ES 19184427T ES 2965618 T3 ES2965618 T3 ES 2965618T3
Authority
ES
Spain
Prior art keywords
distance
distance value
sensor
user
portable device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19184427T
Other languages
English (en)
Inventor
Pavel Zakharov
Daniel Ian Flitcroft
Michael Mrochen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vivior AG
Original Assignee
Vivior AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivior AG filed Critical Vivior AG
Application granted granted Critical
Publication of ES2965618T3 publication Critical patent/ES2965618T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0091Fixation targets for viewing direction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/112Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/117Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes
    • A61B3/1173Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes for examining the eye lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/10Electronic devices other than hearing aids
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C2202/00Generic optical aspects applicable to one or more of the subgroups of G02C7/00
    • G02C2202/24Myopia progression prevention

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Ophthalmology & Optometry (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Dentistry (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)
  • Eyeglasses (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Rehabilitation Tools (AREA)

Abstract

Se proporciona un sistema para determinar un indicador de riesgo de miopía. El sistema comprende un dispositivo portátil configurado para acoplarse al cuerpo de un usuario. El dispositivo portátil comprende al menos un sensor de distancia configurado para determinar al menos un primer valor de distancia indicativo de una distancia entre el dispositivo portátil y un objeto ubicado en una zona de visión central del usuario y un segundo valor de distancia indicativo de una distancia entre el dispositivo portátil. dispositivo y un objeto situado en una zona de visión periférica del usuario. El sistema comprende además una unidad de control configurada para determinar, en base al primer valor de distancia y al segundo valor de distancia, un indicador de riesgo de miopía. Además, se proporcionan un método y un producto de programa informático. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Técnica para determinar un indicador de riesgo de miopía
Campo técnico
La presente descripción se relaciona con el campo de la oftalmología. Más precisamente, la presente descripción está dirigida a una técnica para determinar un indicador de riesgo de miopía. En particular, el indicador de riesgo puede indicar un riesgo de aparición y/o progresión de la miopía. La técnica puede realizarse en al menos un sistema y/o al menos un procedimiento.
Antecedentes
Se sabe que la miopía, en particular en los niños, puede deberse al crecimiento de los ojos. En este caso, el crecimiento del ojo hace que el ojo sea demasiado grande, de modo que la imagen no se forma en la retina (como debería ser), sino delante de la retina, es decir, dentro del ojo.
Se sabe además que un fenómeno llamado "desenfoque hipermétrope", en el que la imagen se forma detrás de la retina del ojo, puede provocar un crecimiento del ojo que podría provocar miopía. Se describen más detalles sobre la miopía en general y sobre el fenómeno mencionado anteriormente, por ejemplo, en Flitcroft, D.I. (2012): "The Complex Interactions of Retinal, Optical, and Environmental Factors in Myopia Aetiology", Progress in Retinal and Eye Research, 31(6), 622-660.
El error de acomodación o retraso de acomodación es una falta de coincidencia entre el estado de enfoque del ojo (respuesta de acomodación) y la distancia al objeto que se está viendo (demanda de acomodación). Por lo general, el ojo no se adapta bien a los objetos cercanos y cuanto más cercana es la distancia, mayor es el grado de mala acomodación o "retraso de acomodación". Este retraso es una fuente de desenfoque hipermétrope en la parte posterior del ojo (la mácula). El desenfoque hipermétrope también puede resultar de la forma de la parte posterior del ojo, ya que los ojos miopes a menudo muestran una hipermetropía periférica relativa, de modo que cuando se corrige la visión a distancia y se ve un objeto lejano, la retina periférica queda expuesta al desenfoque hipermétrope. También puede resultar de la estructura del entorno visual, donde los objetos en el campo periférico están a una distancia diferente del objeto que se ve centralmente porque el sistema de acomodación del ojo solo se ajusta a las demandas de enfoque en el campo visual central.
Los detalles que describen estos fenómenos y el crecimiento ocular causado por estos fenómenos se describirán más adelante.
Actualmente se conocen varias técnicas para corregir errores refractivos como la miopía y la hipermetropía en el ojo humano. Estas técnicas incluyen, por ejemplo, gafas graduadas, lentes de contacto e intervenciones que cambian las propiedades ópticas del cristalino del ojo, como procedimientos quirúrgicos refractivos, como queratectomía fotorrefractiva (PRK) y queratomileusis in situ asistida por láser (LASIK).
Sin embargo, existe la necesidad de una técnica para determinar si una persona en particular tiene un mayor riesgo de desarrollar miopía, en particular, miopía causada por el crecimiento de los ojos. En caso de que se pueda determinar un "indicador de riesgo" que indique un riesgo de desarrollar miopía, se pueden tomar medidas tempranas para prevenir la progresión de la miopía.
El documento US 2015/277145 describe una determinación de un riesgo de miopía basada en diversas mediciones de un individuo.
Resumen
Por lo tanto, un objeto de la presente descripción es proporcionar una técnica para determinar un indicador de riesgo para la miopía y, en particular, para la miopía causada por el crecimiento del ojo. El indicador de riesgo puede usarse para determinar el riesgo de aparición y/o progresión de la miopía.
Según un primer aspecto, se proporciona un sistema para determinar un indicador de riesgo de miopía, el sistema comprende un dispositivo portátil configurado para sujetarse al cuerpo de un usuario (en particular, a la cabeza del usuario). El dispositivo portátil comprende al menos un sensor de distancia configurado para determinar al menos un primer valor de distancia indicativo de una distancia entre el dispositivo portátil y un objeto ubicado en una zona de visión central del usuario y un segundo valor de distancia indicativo de una distancia entre el dispositivo portátil y un objeto situado en una zona de visión periférica del usuario. El sistema comprende además una unidad de control configurada para determinar, en base al primer valor de distancia y al segundo valor de distancia, un indicador de riesgo de miopía.
El dispositivo portátil puede acoplarse al cuerpo del usuario en el significado más amplio posible. En particular, el dispositivo portátil puede acoplarse a la cabeza del usuario. Por ejemplo, se puede proporcionar al menos un miembro de fijación para fijar el dispositivo portátil a la cabeza u otra parte del cuerpo. Por ejemplo, el miembro de fijación puede proporcionarse en forma de uno o más auriculares configurados para descansar sobre una oreja del usuario, similar a las piezas laterales de unas gafas y/o similar a un auricular. El dispositivo portátil puede incorporarse permanentemente a las gafas que usa un usuario. Además, el miembro de fijación puede proporcionarse en forma de uno o más medios de sujeción configurados para sujetarse a un auricular de gafas que lleva el usuario. De esta manera, la "cabeza del usuario" puede entenderse como una cabeza de usuario que incluye gafas (por ejemplo, gafas graduadas o gafas de sol) que lleva el usuario. Si bien es preferible fijarlo a la cabeza del usuario, el dispositivo portátil o una parte del mismo también puede fijarse a cualquier otra ubicación del cuerpo del usuario. Por ejemplo, el dispositivo portátil se puede fijar al pecho del usuario. En este caso, el/los sensor(es) del dispositivo pueden estar orientados hacia delante.
El sensor de distancia puede funcionar según una técnica conocida para determinar una distancia. Por ejemplo, el sensor de distancia puede comprender un sensor de distancia láser, un sensor de distancia ultrasónico, un sensor de proximidad infrarrojo, un radar, un sensor de imágenes, una cámara o cualquier otro medio adecuado para determinar el valor de distancia indicativo de la distancia entre el dispositivo portátil y el objeto situado delante de la cabeza del usuario. Una cámara puede ser una cámara de imágenes bidimensional (2d ) estándar o una cámara de imágenes de alcance, que proporciona imágenes de las distancias a los objetos. Por ejemplo, los valores de distancia se pueden estimar a partir de imágenes 2D reconociendo objetos con dimensiones geométricas conocidas y calculando la distancia a partir de las dimensiones de la imagen. Una cámara de imágenes de alcance puede implementar triangulación estéreo, triangulación de lámina de luz, decodificación de iluminación de luz estructurada, mediciones de tiempo de vuelo, imágenes interferométricas o apertura codificada, entre otras. La cámara puede ser una cámara de campo luminoso capaz de detectar una dirección de luz junto con su intensidad. El valor de la distancia puede ser, por ejemplo, una longitud proporcionada en la unidad de metros, centímetros o milímetros. El valor de distancia puede indicar, por ejemplo, una distancia entre el ojo del usuario y el objeto. En este caso, el valor de distancia es indicativo de la distancia entre el dispositivo portátil y el objeto en caso de que se conozca la relación espacial entre el dispositivo portátil y el ojo del usuario. El valor de distancia puede indicar, por ejemplo, un valor de infinito en caso de que no haya ningún objeto presente delante de la cabeza del usuario o en caso de que el siguiente objeto delante de la cabeza del usuario esté más lejos que un valor umbral predefinido.
En una o más realizaciones, el sensor de distancia puede configurarse para medir una distancia de visión del usuario en función de un esfuerzo de acomodación de los ojos. El sensor de distancia se puede adaptar además como un sensor de movimiento ocular capaz de detectar movimientos (y/o un cambio de tamaño) de las pupilas. Cuando los ojos humanos enfocan un objeto, realizan ajustes coordinados en la vergencia, la forma de la lente para cambiar la potencia óptica y, en consecuencia, la distancia focal y el tamaño de la pupila. Por ejemplo, la monitorización de las posiciones de ambos ojos puede permitir la detección de la vergencia (convergencia y divergencia), que es un movimiento simultáneo de ambos ojos en dirección opuesta para obtener o mantener la visión binocular. Los ojos se mueven uno hacia el otro mientras enfocan los objetos cercanos y se alejan mientras enfocan los objetos distantes. Los cambios de la forma de la lente se pueden controlar siguiendo los reflejos de la luz de sondeo desde las superficies de la lente (por ejemplo, analizando las imágenes de Purkinje P3 y P4). Al enfocar un objeto cercano, las pupilas se contraen para minimizar la borrosidad de la imagen. El tamaño de la pupila se puede medir mediante imágenes o cualquier otro procedimiento adecuado. El sistema puede detectar la acomodación mediante la detección de cambios en el tamaño de la pupila. Durante la detección de la acomodación, el sistema puede compensar los efectos en el tamaño de la pupila debido al brillo que puede medirse con el sensor de luz ambiental.
Además, la distancia a los objetos en el campo visual periférico de un usuario se puede medir con diferentes sensores alineados en diferentes direcciones o con dispositivos capaces de escanear múltiples direcciones.
La unidad de control puede comprender al menos un procesador y al menos una memoria para almacenar instrucciones que debe ejecutar el procesador. La unidad de control puede configurarse para recibir el valor de distancia desde al menos un sensor de distancia. En la presente descripción, cuando se dice que un segundo valor se "determina en base a" un primer valor, eso significa que se proporciona un algoritmo o una regla de cálculo que utiliza el primer valor como parámetro de entrada. En otras palabras, el resultado de la determinación, es decir, el segundo valor, está influenciado por el primer valor. En el caso del indicador de riesgo y los valores de distancia primero y segundo, eso significa que el primer valor de distancia y el segundo valor de distancia tienen una influencia sobre el indicador de riesgo (por ejemplo, sobre un valor del indicador de riesgo). Sin embargo, los valores de distancia primero y segundo no son necesariamente los únicos valores o parámetros que influyen en el indicador de riesgo.
El indicador de riesgo puede ser, por ejemplo, un valor numérico, en el que un valor más alto indica un riesgo más alto de miopía. Alternativamente, el indicador de riesgo puede ser un valor binario ("0" o "1"), en el que un "0" indica que existe un riesgo de miopía (por ejemplo, un riesgo de desarrollar miopía en un período de tiempo predeterminado de, por ejemplo, 1 año o 2 años) está por debajo de un valor umbral predefinido y un "1" indica que el riesgo de miopía está por encima de un valor umbral predefinido. Por lo tanto, un "1" podría indicar que se deben considerar medidas tempranas para prevenir la miopía. En toda la presente descripción, el "riesgo de miopía" puede indicar un riesgo de progresión de la miopía y/o un riesgo de aparición de miopía. Por ejemplo, se puede utilizar un mismo valor numérico para determinar un riesgo de aparición de miopía y un riesgo de progresión de miopía. Según otras realizaciones, se puede generar un valor para el riesgo de aparición de miopía y se puede generar un valor diferente para el riesgo de progresión de la miopía. En otras palabras, el indicador de riesgo puede ser un indicador de riesgo multidimensional (por ejemplo, bidimensional).
El al menos un sensor de distancia puede configurarse para determinar valores de distancia separados/resueltos en el tiempo. En otras palabras, cada sensor de distancia del sistema puede configurarse para registrar una serie temporal de valores de distancia d(t). La serie temporal puede grabarse y/o almacenarse en una memoria de manera que se pueda asignar una hora (por ejemplo, fecha y hora) de registro del valor de distancia respectivo al valor de distancia correspondiente, por ejemplo, en forma de una marca de tiempo.
En particular, para una configuración de sensor de distancia único (es decir, el sistema comprende solo un sensor de distancia), el sensor de distancia tiene que proporcionar mediciones separadas en el tiempo, para proporcionar una secuencia de mediciones de distancia (es decir, una serie temporal de valores de distancia). La frecuencia de las mediciones de distancia debería ser suficiente para obtener múltiples mediciones durante cada episodio de actividad visual con el fin de facilitar el análisis estadístico de los datos. Hoy en día, la capacidad de atención humana se reduce significativamente debido al uso de dispositivos móviles. Sería normal que el usuario cambiara de una actividad a otra varias veces por minuto. Por lo tanto, es aconsejable muestrear los sensores de distancia con una frecuencia inferior a un segundo. Al mismo tiempo, debido a la velocidad física limitada del movimiento de la cabeza y el cuerpo humanos, apenas es necesario muestrear con frecuencia por encima de 100 Hz. Por tanto, el intervalo óptimo de frecuencia de muestreo de un sensor de distancia puede estar entre 1 y 100 Hz. Esto se podrá aplicar a cada sensor de distancia del sistema y, en particular, en caso de que el sistema sólo tenga un sensor de distancia.
Cuando se recopila una variedad de parámetros, se puede analizar la frecuencia de patrones de buen comportamiento (es decir, que reducen el riesgo de miopía) y patrones de mal comportamiento (es decir, que aumentan el riesgo de miopía) para proporcionar recomendaciones específicas sobre cambios de comportamiento para minimizar el riesgo de progresión o aparición de la miopía.
El dispositivo portátil y la unidad de control del sistema no se proporcionan necesariamente en la misma ubicación física y/o dentro de la misma carcasa. Por ejemplo, la unidad de control puede ser parte del dispositivo portátil. El dispositivo portátil puede proporcionarse en forma de gafas. En este caso, el dispositivo portátil puede comprender una unidad de salida (por ejemplo, en forma de una unidad de visualización) configurada para emitir el indicador de riesgo.
Alternativamente, la unidad de control puede proporcionarse en forma de un dispositivo separado configurado para recibir valores de salida del dispositivo portátil y, en particular, configurado para recibir los valores de distancia determinados y registrados por el dispositivo portátil. Por ejemplo, el dispositivo portátil puede configurarse para registrar los valores de distancia durante un período predefinido y para almacenar los valores de distancia en la memoria del dispositivo portátil. El dispositivo portátil puede comprender una interfaz configurada para enviar los valores de distancia registrados a la unidad de control. La unidad de control puede comprender una unidad de entrada para recibir los valores de distancia desde la unidad de control. La unidad de control puede configurarse entonces para determinar y, opcionalmente, emitir el indicador de riesgo.
En una o más realizaciones, la unidad de control puede ser parte de una nube. En otras palabras, la unidad de control puede estar ubicada en uno o más servidores de red a los que puede acceder el dispositivo portátil. Se puede acceder a uno o más servidores de red a través de Internet, por ejemplo, a través de una conexión cifrada. Por lo tanto, la evaluación de los valores de distancia medidos puede ser realizada por la unidad de control como una unidad de control central ubicada en uno o más dispositivos de computación en la nube. Una vez que la unidad de control ha determinado el indicador de riesgo, el indicador de riesgo puede enviar una señal al usuario, por ejemplo, al dispositivo portátil. Además, el indicador de riesgo puede derivarse de la unidad de control a través de una interfaz de red (por ejemplo, una página de Internet asegurada mediante un procedimiento de inicio de sesión), de modo que el usuario y/o un médico puedan tener acceso al indicador de riesgo. El indicador de riesgo también puede señalarse exclusivamente a un médico (por ejemplo, un médico tratante del usuario).
A continuación, se describen detalles sobre un modelo para la determinación del indicador de riesgo por parte de la unidad de control.
El error de acomodación se puede integrar para crear una métrica que refleje el riesgo de aparición y/o progresión de la miopía. En general, una mayor prevalencia de errores de acomodación conduce a un mayor riesgo, por lo que el modelo más simple podría tomar alguna métrica estadística de la distribución del error de acomodación y relacionarla con el riesgo. La métrica requerida se puede calcular a partir del error de acomodación (es decir, a partir de una discrepancia entre el primer valor de distancia y el segundo valor de distancia) en tiempo real o el sistema puede almacenar el historial de errores de acomodación y, por lo tanto, las métricas se pueden calcular en función de los datos históricos. Por ejemplo, se puede utilizar el error de acomodación medio en una ventana de tiempo de interés, donde la ventana de tiempo puede ser una hora, un día, una semana, un mes, un año, etc. El almacenamiento del historial de parámetros relevantes permite al usuario o proveedor de atención médica seleccionar diferentes intervalos para el análisis de datos y explorar la periodicidad de los datos, por ejemplo, consultando las estadísticas en momentos específicos del día, días de la semana o estaciones.
La métrica también puede ser una mediana o cualquier otro percentil. Como medida más simplista, se puede utilizar el tiempo absoluto o relativo con error de acomodación por encima de un umbral predefinido (crítico). Por ejemplo, el sistema se puede configurar para informar el número de horas por semana con un error de adaptación fuera del intervalo normal. En otro ejemplo, el sistema puede informar el tiempo en relación con el período de tiempo absoluto o el tiempo de uso/uso del dispositivo portátil, por ejemplo, el sistema puede configurarse para informar el porcentaje de tiempo con desenfoque/error anormal por intervalo seleccionado.
En el siguiente nivel de aproximación, se pueden incluir en el modelo los factores adicionales que influyen en el riesgo, como la luz ambiental, el tiempo pasado en interiores/ exteriores, las distancias de visualización/ lectura, el tiempo dedicado a diferentes actividades, la geometría del ojo, la demografía y la historia de miopía en la familia. Estos factores pueden entrar en el modelo de forma independiente o pueden atenuar la contribución de otros factores, como el desenfoque periférico. Por ejemplo, se espera que la exposición a un alto nivel de luz ambiental reduzca el efecto del error de acomodación debido al aumento de la profundidad de campo de la óptica del ojo, mientras que las condiciones de poca luz maximizarían el impacto del error de acomodación.
De manera similar, la información sobre la geometría del ojo obtenida con otro procedimiento permite dar cuenta de las diferencias en la forma del ojo. Por ejemplo, el desenfoque hipermétrope periférico se amplifica en el ojo alargado, por el contrario, en el ojo corto el desenfoque en la periferia se reduce.
El efecto del desenfoque periférico también puede variar con los ritmos circadianos, en particular con los ritmos diurnos. Por ejemplo, las variaciones periódicas de la longitud axial del ojo y el grosor coroideo están influyendo en el impacto de la hipermetropía periférica, con la geometría del ojo más larga amplificando y el efecto de amortiguación ocular más corto del desenfoque periférico. Como resultado, el ojo es más sensible al desenfoque hipermétrope temprano en la mañana y menos durante la noche. Los ritmos circadianos se pueden tener en cuenta en el modelo introduciendo un reloj en tiempo real en el dispositivo y la información horaria en el modelo.
El modelo del efecto acumulativo del riesgo de miopía podría incluir un mecanismo de reinicio. Se ha demostrado en estudios con animales que un breve período de ausencia del error de acomodación hipermétrope (visión clara) puede neutralizar el efecto acumulado del desenfoque hipermétrope. Este efecto se puede tener en cuenta mediante la introducción de una ventana de integración, por ejemplo, en forma de un integrador con fugas que se carga lentamente con desenfoque hipermétrope y se descarga relativamente más rápido en ausencia de desenfoque hipermétrope. En una implementación, una puntuación de riesgo puede ser una variable acumuladora R con valor de número entero no negativo que se incrementa en el primer valor (por ejemplo, 1) después de cada minuto completo de desenfoque hipermétrope sostenido (D) por encima de un primer umbral definido (D1). Al mismo tiempo, cada minuto de desenfoque hipermétrope por debajo de un segundo umbral definido D2 (inferior al primer umbral D1 > D2) da como resultado una disminución de la variable acumuladora R en un segundo valor, que se espera que sea mayor en valor absoluto que el primer valor (por ejemplo, 5). Esto supone que el desenfoque está firmado con el valor positivo correspondiente al desenfoque hipermétrope y negativo al miope.
Dado que R no es negativo, disminuirlo solo puede llevarlo al valor mínimo de cero, por lo que un período sostenido de visión clara o desenfoque miope solo mantiene el R acumulador al mínimo, lo que implica ausencia de efecto preventivo de visión clara o desenfoque miope.
En una implementación del integrador de riesgos, la variable R tiene un valor real y no negativo y se ajusta en cada etapa de tiempo i según la siguiente regla:
R(i) = f(D(¡)) R(l-l), donde R > o
R (i) es una variable acumuladora de riesgo en la etapa de tiempo i, R (i-1) es la misma variable en la etapa de tiempo anterior, D (i) es el desenfoque hipermétrope de valor real y f (D) es una función de respuesta.
La función de respuesta puede tener la forma de una función escalonada:
f(D) = A para D > D1 (carga de desenfoque hipermétrope) y
f(D) = -B para D < D2 (visión clara y descarga de desenfoque miope),
f(D) = 0 para D2 < D < D1 (zona de indeterminación/insensibilidad),
dónde
D2 < D1 son valores umbral predefinidos y
A,B > 0 (valores predefinidos).
La función de respuesta puede ser más elaborada para incluir dependencia lineal y saturación:
f(D) = A para D1' < D (saturación de carga de desenfoque hipermétrope)
f(D) = a(D-D0) para D0 < D < D1' (carga de desenfoque hipermétrope lineal)
f(x) = - p(D-D0) para D2' < D < D0 (visión clara lineal/descarga de desenfoque miope),
f(x) = -B para D < D2' (visión clara de saturación/descarga de desenfoque miope), donde
D2' < D0 < D1' son valores umbral predefinidos y
a,p,A,B > 0 y A = a(D1'-D0) y B = - P(D2'-D0).
La función de respuesta puede incluir dependencia lineal, zona de saturación e insensibilidad:
f(D) = A para D1' < D (saturación de carga de desenfoque hipermétrope)
f(D) = a(D-D1) para D1 < D < D1' (carga de desenfoque hipermétrope lineal)
f(D) = 0 para D1 < D < D2 (zona de indeterminación/insensibilidad),
f(x) = - p(D-D2) para D2'< D < D2 (visión clara lineal/descarga de desenfoque miope),
f(x) = -B para D < D2' (visión clara de saturación/descarga de desenfoque miope), donde
D2' < D2 < D1 < D1' son valores umbral y
a,p,A,B > 0 y A = a(D1'-D1) y B = - P(D2'-D2).
La función de respuesta puede tener una forma de función sigmoidea/logística, tangente hiperbólica, unidad lineal rectificada, etc. o cualquier combinación.
La unidad de control puede configurarse para determinar el indicador de riesgo de manera que una mayor discrepancia entre el primer valor de distancia y el segundo valor de distancia conduzca a un indicador de riesgo que indique un mayor riesgo de miopía. En otras palabras, un modelo matemático empleado por la unidad de control puede considerar una discrepancia entre el primer valor de distancia y el segundo valor de distancia y en caso de que esta discrepancia sea alta (por ejemplo, tenga un valor por encima de un valor umbral predefinido), el indicador de riesgo indicará un alto riesgo de miopía. Se podrá determinar si el desajuste está por encima de un valor umbral predefinido durante un número mínimo de veces y/o durante un período mínimo de tiempo y, en este caso, se podrá incrementar el indicador de riesgo.
El dispositivo portátil puede comprender un primer sensor de distancia dirigido en una dirección central hacia la zona de visión central del usuario, en el que el primer sensor de distancia está configurado para determinar el primer valor de distancia, y un segundo sensor de distancia dirigido en una dirección periférica hacia la zona periférica. zona de visión del usuario, en el que el segundo sensor de distancia está configurado para determinar el segundo valor de distancia.
Por ejemplo, en el caso anterior, el sistema puede ser capaz de realizar muestreos en una pluralidad de direcciones sin depender del movimiento del dispositivo (es decir, sin tener que depender de la salida del sensor de uno o más sensores que indiquen un movimiento del dispositivo portátil). Esto se puede conseguir con al menos un sensor de distancia adicional (es decir, el segundo sensor de distancia) orientado de forma diferente al primer sensor de distancia, por ejemplo, hacia abajo. Esto también se puede conseguir con el sensor individual con varias zonas de detección resueltas espacial o angularmente, como conjunto de detectores o como cámara (ver más abajo). El sensor único podría tener una pluralidad de fuentes de señal de sondeo, p.ej., láseres dirigidos en varias direcciones para el caso de sensores de tiempo de vuelo. El sensor puede diseñarse para variar la dirección de la fuente y/o el detector para sondear la distancia en diferentes direcciones (escáner activo). El muestreo de las diferentes direcciones se puede realizar simultáneamente, como en la configuración de la cámara, o de forma secuencial (configuración del escáner). La capacidad de obtener mediciones con sensores adicionales puede permitir aumentar la densidad del entorno muestreado, especialmente fuera del intervalo de movimientos de la cabeza.
Además de la distancia a los objetos en el espacio, el sistema podría incorporar otros parámetros medidos asociados con la misma orientación y/o posición. Por ejemplo, al incluir la amplitud de la señal reflejada es posible mejorar los datos para aumentar la precisión de la clasificación de objetos y actividades. Por ejemplo, la superficie de la pantalla del ordenador podría tener una reflectividad mayor en comparación con la superficie del escritorio y, por lo tanto, se puede diseñar un algoritmo de clasificación para tener en cuenta los requisitos de reflectividad del objeto. Adicional o alternativamente, el dispositivo portátil puede comprender un sensor de intensidad de luz como parte del sensor de distancia o un sensor separado codirigido con el sensor de distancia y usado para detectar la intensidad de la luz y el contenido espectral en la dirección de visión. Por ejemplo, los dispositivos móviles portátiles, tales como teléfonos móviles u ordenadores/tabletas portátiles, ordenadores, terminales, televisores, etc., suelen utilizar pantallas iluminadas activamente. El sensor de intensidad de luz se puede configurar para reconocer la luz emitida por esos objetos a partir de su intensidad, contenido espectral, patrón de parpadeo (frecuencia e intensidad) u otras propiedades de la luz. Las mediciones del sensor de intensidad de luz pueden alinearse con mediciones de orientación y/o posición y mapearse en la representación del entorno para respaldar la clasificación de las actividades realizadas por el usuario y el reconocimiento del entorno (como interior o exterior). La combinación de mediciones de propiedades de la luz con mediciones de distancia puede mejorar aún más la clasificación. En términos generales, se puede usar una salida de un sensor de intensidad de luz para determinar el indicador de riesgo (es decir, puede tener una influencia en la determinación del indicador de riesgo).
El sensor de distancia puede comprender una cámara que tiene un campo de visión que incluye la zona de visión central y la zona de visión periférica, en la que el sensor de distancia está configurado para determinar el primer valor de distancia y el segundo valor de distancia basándose en una o más imágenes capturadas por la cámara. Por ejemplo, la unidad de control puede configurarse para analizar una serie temporal de imágenes capturadas por la cámara y para determinar, basándose en la serie temporal, el primer valor de distancia y el segundo valor de distancia. La cámara puede comprender una pluralidad de subcámaras, cada una de las cuales tiene un subcampo de visión, en la que un campo de visión combinado (es decir, una combinación de los subcampos de visión) incluye la zona de visión central y la zona de visión periférica.
El sensor de distancia puede comprender un sensor de actividad ocular capaz de medir distancias de visión a partir del esfuerzo de acomodación de los ojos, por ejemplo, del movimiento ocular de convergencia, ajustes de pupila y/o cambios de lentes, entre otros. En este caso, el primer valor de distancia y el segundo valor de distancia pueden determinarse a partir de la serie temporal de distancias de visualización. Por ejemplo, la distancia de visualización determinada durante los períodos de fijación puede corresponder a la zona de visión central (primer valor de distancia), mientras que la distancia de visualización durante los períodos fuera de la fijación puede corresponder a la zona de visión periférica (segundo valor de distancia). Adicional o alternativamente, las zonas de visión pueden identificarse desde la dirección de los ojos. La dirección de la mirada se puede derivar combinando la dirección de los ojos con la orientación de la cabeza estimada a partir de sensores de orientación. Combinando las mediciones de la distancia de visión con la dirección de la mirada es posible reconstruir la geometría del entorno en relación con la cabeza del usuario y con esta estimación del desenfoque periférico.
En el caso de que se proporcione una pluralidad de sensores de distancia, cada sensor de distancia puede, al mismo tiempo, proporcionar un valor de distancia, por ejemplo, indicando una distancia entre el sensor de distancia respectivo y un objeto al que se dirige el sensor de distancia. En el caso de que un sensor de distancia determine una pluralidad de valores de distancia, este sensor de distancia puede configurarse para escanear un rayo láser en un intervalo angular predefinido o este sensor de distancia puede comprender una cámara para proporcionar una imagen bidimensional con capacidad de procesamiento de la imagen bidimensional para determinar la pluralidad de valores de distancia. Además, el sensor de distancia puede comprender al menos dos cámaras para determinar una imagen bidimensional mediante cada cámara, en la que las imágenes bidimensionales se procesan para determinar la pluralidad de valores de distancia. La dirección periférica puede tener un ángulo de al menos 5°, al menos 10°, al menos 20°, al menos 30° o al menos 45° con respecto a la dirección central. Por ejemplo, la dirección periférica puede estar dirigida hacia abajo y/o hacia un lado con respecto a la dirección central.
En caso de que se determine más de un segundo valor de distancia, se pueden considerar más direcciones, lo que puede aumentar la precisión del sistema. Por ejemplo, se puede determinar al menos un segundo valor de distancia vertical para una dirección que se aleja verticalmente de la primera dirección y se puede determinar al menos un segundo valor de distancia horizontal para una dirección que se aleja horizontalmente de la primera dirección.
Analizando el primer valor de distancia y el segundo valor de distancia, se puede determinar la probabilidad de aparición de un desenfoque periférico y/o un grado de desenfoque periférico.
La unidad de control puede configurarse para identificar el primer valor de distancia durante un período de fijación, cuando una variabilidad de las mediciones de distancia del sensor de distancia está por debajo de un primer umbral predefinido durante intervalos de tiempo que exceden un segundo umbral predefinido y el segundo valor de distancia se identifica fuera del período de fijación.
La variabilidad puede comprender o puede corresponder a al menos una de varias veces que el valor de distancia medido cambia de un valor por debajo de un primer valor umbral predefinido a un valor por encima de un segundo valor umbral predefinido dentro de un período predefinido, varias veces por vez la derivada del valor de la distancia medida cambia su signo dentro de un período predefinido, una diferencia entre un valor máximo del valor de la distancia medida y un valor mínimo del valor de la distancia medida dentro de un período predefinido, y un máximo de una derivada en el tiempo del valor de la distancia medida dentro de un período predefinido.
Sin embargo, la variabilidad temporal no debe limitarse a los ejemplos anteriores, que representan una lista de formas matemáticas y claramente definidas de determinar la variabilidad temporal. Pueden existir otras formas de determinar la variabilidad temporal, que también están cubiertas por la presente descripción.
Como se describió anteriormente, la unidad de control puede configurarse para identificar períodos de fijación, es decir, cuando el usuario se enfoca en un objeto principal de actividad visual, típicamente alineado en la zona de visión central, e identificar desviaciones de las actividades visuales principales, que producen distancias a los objetos circundantes, que de otro modo se encuentran en la zona de visión periférica. Por ejemplo, cuando el usuario está mirando televisión, se espera que la fijación del usuario esté en el televisor y el sensor de distancia informará principalmente las distancias a la pantalla del televisor. Sin embargo, debido al movimiento natural de la cabeza o a las distracciones, el usuario ocasionalmente giraría su cabeza hacia los objetos en la periferia (es decir, en la zona de visión periférica), por ejemplo, objetos en las manos del usuario, como un bocadillo o un control remoto. En otro ejemplo, un usuario que trabaja en un ordenador personal de escritorio se concentraría principalmente en la pantalla del ordenador y ocasionalmente giraría la cabeza hacia un teclado u otros objetos en el escritorio. El algoritmo implementado por la unidad de control puede configurarse para diferenciar estadísticamente un período de fijación como un período de baja variabilidad de las mediciones de distancia, identificado por ejemplo por una desviación estándar por debajo de un umbral predefinido y, correspondientemente, asociar mediciones caídas fuera del intervalo como valores atípicos, asociados con objetos fuera de la actividad visual principal (es decir, objetos en la zona de visión periférica).
El sensor de distancia puede ser capaz de proporcionar métricas adicionales asociadas con la señal de distancia, por ejemplo, la amplitud de la señal y/u otra métrica de calidad. En este caso, las métricas adicionales también se pueden usar para diferenciar las mediciones de los objetos primarios de la actividad visual (es decir, objetos en la zona de visión central) y objetos en el entorno visual (es decir, objetos en la zona de visión periférica). Por ejemplo, las mediciones de distancia podrían basarse en la detección y caracterización del pulso enviado hacia los objetos y reflejado (como sensores ultrasónicos y sensores láser de tiempo de vuelo). En este caso, el sensor de distancia también puede ser capaz de medir una amplitud de un impulso reflejado. En el ejemplo anterior, las reflexiones de la pantalla del ordenador pueden producir una amplitud de pulso diferente de la amplitud de las reflexiones del entorno, que pueden incluirse en el análisis de la señal.
Además, el dispositivo portátil puede comprender un sensor de movimiento, y la unidad de control puede configurarse para identificar períodos de fijación como períodos con un movimiento por debajo de un primer umbral predefinido durante intervalos de tiempo que exceden un segundo umbral predefinido y para identificar el primer valor de distancia durante uno de los periodos de fijación e identificar el segundo valor de distancia fuera de los periodos de fijación. Por lo tanto, una salida del sensor de movimiento puede definir cuáles de los valores de distancia medidos (por ejemplo, de una serie temporal d(t)) de un sensor de distancia son primeros valores de distancia y cuáles de los valores de distancia medidos son segundos valores de distancia.
El dispositivo portátil puede incluir exactamente un sensor de distancia para determinar exactamente un valor de distancia en un momento dado, de modo que exactamente un sensor de distancia esté configurado para determinar el primer valor de distancia y el segundo valor de distancia en momentos diferentes.
Por ejemplo, exactamente un sensor de distancia puede dirigirse en una sola dirección y, por lo tanto, solo puede determinar una distancia entre el dispositivo portátil y un objeto colocado en dicha dirección. La expresión "exactamente un valor de distancia en un momento determinado" significa que no se determinan simultáneamente más de un valor de distancia. Sin embargo, se pueden determinar diferentes valores de distancia en diferentes momentos. Por ejemplo, se puede proporcionar un dispositivo portátil que solo incluya un sensor de distancia que apunte en una dirección de un eje central del dispositivo portátil. Alternativamente, exactamente un sensor de distancia puede apuntar en una dirección alejada del eje central del dispositivo portátil, hacia el área de visión periférica.
La unidad de control puede configurarse para determinar, basándose en una salida de exactamente un sensor de distancia, el primer valor de distancia y al menos un segundo valor de distancia.
La unidad de control puede configurarse para determinar una duración acumulada en la que el desajuste entre el primer valor de distancia y el segundo valor de distancia está por encima de un valor umbral predefinido dentro de un período predeterminado, y para determinar el indicador de riesgo de manera que una duración acumulada más alta conduzca a un indicador de riesgo que indica un mayor riesgo de miopía.
De esta manera, se puede determinar una fracción de tiempo en la que existe un desenfoque periférico. Cuanto mayor sea esta fracción de tiempo, mayor será el riesgo de miopía.
El dispositivo portátil puede comprender al menos un sensor adicional configurado para emitir datos de sensor adicionales, en el que la unidad de control está configurada para determinar, basándose en los datos de sensor adicionales y basándose en una salida de al menos un sensor de distancia, el primer valor de distancia y el segundo valor de distancia. El sensor adicional puede comprender al menos uno de un sensor de orientación para determinar una orientación del dispositivo portátil, un dispositivo sensor de posición para determinar una posición del dispositivo portátil y un sensor de aceleración para determinar una aceleración del dispositivo portátil.
El sensor de aceleración puede configurarse para detectar una cantidad de movimiento del usuario. Por lo tanto, el sensor de aceleración también puede denominarse sensor de medición de movimiento. Durante los períodos de fijación, es típico que el usuario reduzca la cantidad de movimiento del cuerpo y la cabeza para mantener la calidad óptima de la imagen percibida por los ojos. Por otro lado, los episodios de distracciones se caracterizan por la desviación de la dirección de fijación original, que se refleja en una señal de movimiento del sensor de aceleración. De este modo, los datos adicionales del sensor y en particular la señal de movimiento pueden servir como señal adicional o primaria para la identificación de los periodos de fijación y desviación. En otras palabras, la unidad de control puede configurarse para determinar un período de fijación basándose en los datos adicionales del sensor.
También se entiende que en caso de mover una diana visual, por ejemplo, mientras observa objetos que pasan, el usuario tiende a mover la cabeza durante la fijación. Esto se puede tener en cuenta en el procesamiento de señales diferenciando la distancia de persecución y/o el movimiento de la cabeza y las señales de desviación.
Adicional o alternativamente, el dispositivo portátil puede incorporar al menos uno de entre un sensor de orientación y un sensor de posición. La combinación de dichos sensores con mediciones de distancia permite mapear las distancias medidas con la geometría del entorno. En el ejemplo anterior, mientras se fija en la pantalla del ordenador, el usuario mantendrá una primera dirección del sensor y durante las desviaciones intermitentes hacia la superficie del escritorio u otros objetos circundantes, la cabeza del usuario se inclinará naturalmente hacia abajo o hacia los lados, lo que puede detectarse mediante el sensor de orientación. La unidad de control se puede configurar para detectar una orientación primaria del sistema (por ejemplo, directa durante la fijación en la pantalla del ordenador) y diferenciarla de orientaciones secundarias durante la desviación de la actividad de visión primaria (por ejemplo, mientras se mira hacia abajo). Dicha detección se puede realizar con procesamiento estadístico de la señal de orientación y detección de episodios de orientación estable cuando la dispersión/variación estadística de la orientación está por debajo del umbral predefinido. La dispersión estadística se puede cuantificar con varianza, desviación estándar, intervalo intercuartil, intervalo interpercentil, intervalo estadístico (entre mínimo y máximo), diferencia absoluta de medias o cualquier otra medida estadística de dispersión. La orientación primaria se puede detectar con medidas estadísticas de tendencia central de la distribución de la orientación, como la media aritmética, la mediana, la moda u otra medida. Las mediciones de distancia obtenidas en la orientación del sistema correspondiente a la orientación primaria están asociadas con la zona de visión central y son principalmente responsables de la respuesta de acomodación. Los episodios de desviación pueden detectarse como períodos en los que la orientación se desvía significativamente del centro de distribución, por ejemplo, cuando la diferencia absoluta entre la orientación actual y la orientación primaria está por encima del límite predefinido. Las distancias medidas durante tales episodios corresponden a la zona de visión periférica y, por tanto, normalmente corresponden a la demanda de acomodación de la visión periférica.
Con una cantidad suficiente de muestreos debido al movimiento natural de la cabeza y el cuerpo del usuario, puede ser posible obtener escaneos a distancia del entorno a partir de mediciones tomadas en una variedad de direcciones diferentes en relación con la posición de la cabeza. Por ejemplo, las mediciones del acelerómetro permiten relacionar la orientación del dispositivo con un campo gravitacional (ángulo de inclinación). El uso de un magnetómetro permite relacionar la orientación con un campo magnético (ángulos de guiñada y cabeceo), que puede estar relacionado, con una correcta calibración, con el campo magnético de la Tierra. Una combinación de estos sensores y, opcionalmente, un sensor giroscópico, permite estimar una orientación absoluta del sensor en el espacio tridimensional. Esta combinación de acelerómetro de tres ejes, magnetómetro de tres ejes y giroscopio de tres ejes se denomina sensor de orientación absoluta.
De manera similar a la detección de orientación descrita anteriormente, el dispositivo portátil puede estar equipado con al menos un sensor de posición para detectar el desplazamiento transversal del dispositivo portátil y relacionarlos con las mediciones de distancia para diferenciar los períodos de fijación y desviación. El sensor de posición en combinación con mediciones de distancia permite escanear el entorno debido al movimiento natural del usuario. El sensor de posición se puede implementar midiendo la aceleración detectada por un acelerómetro para estimar un desplazamiento relativo o se puede implementar a partir de mediciones de distancia a nodos de anclaje cercanos con posición fija conocida, como dispositivos emisores de radiofrecuencia, como teléfonos móviles, internet. puntos de acceso o balizas Bluetooth. El sensor de posición puede ser un sensor de geolocalización.
El sensor de posición se puede combinar con un sensor de orientación para mejorar aún más el escaneo del entorno representado como una nube de puntos, es decir, un conjunto de puntos de datos en el espacio. La nube de puntos se puede utilizar para reconocer objetos en el espacio y/o reconocer las actividades del usuario para separar la distancia a los objetos en la zona de visión central de las distancias a los objetos en la zona de visión periférica y así calcular el desenfoque periférico y el indicador de riesgo.
Por ejemplo, se puede detectar un movimiento de la cabeza del usuario, por ejemplo, mediante un sensor de movimiento (por ejemplo, un acelerómetro, un giroscopio y/o un magnetómetro). A partir de una salida del sensor de movimiento se puede derivar una dirección hacia la que se dirige la cabeza del usuario. En base a esta dirección, se puede determinar si un valor de distancia detectado actualmente corresponde a un primer valor de distancia (por ejemplo, apuntando en una dirección central del dispositivo portátil) o a un segundo valor de distancia (por ejemplo, apuntando en una dirección periférica del dispositivo portátil). Con base en el sensor de movimiento, se puede determinar que el usuario solo ha girado y no ha trasladado la cabeza a otra ubicación.
La unidad de control puede configurarse para determinar el indicador de riesgo haciendo uso de información biométrica indicativa de la forma de un ojo del usuario, en el que la información biométrica se usa para determinar una cantidad de desenfoque periférico de haces de luz provenientes de la segunda dirección.
Por ejemplo, un ojo más alargado puede sufrir un mayor desenfoque periférico ya que la diferencia (es decir, la distancia) entre las zonas central y periférica es mayor dentro de un ojo más alargado en comparación con, por ejemplo, un ojo que tiene una forma sustancialmente esférica. Este conocimiento podrá considerarse adecuadamente en el procedimiento de determinación del indicador de riesgo.
El primer valor de distancia se puede medir a lo largo de un eje central del dispositivo portátil y el segundo valor de distancia se puede medir a lo largo de una dirección periférica con respecto al eje central.
El eje central del dispositivo portátil puede estar alineado con la dirección de visión del ojo del usuario cuando el usuario mira hacia adelante. En otras palabras, el eje central del dispositivo portátil puede estar alineado con la dirección de visión del ojo del usuario cuando el usuario mira un punto en el horizonte que está colocado directamente frente a él. En caso de que el dispositivo portátil comprenda patillas, el eje central puede ser sustancialmente paralelo a una dirección de extensión de las patillas. La dirección periférica puede ser una dirección inclinada hacia abajo y/o hacia un lado con respecto al eje central.
El dispositivo portátil puede comprender un dispositivo de seguimiento ocular para determinar la dirección de visión de un ojo del usuario. La unidad de control puede configurarse para determinar, basándose en la dirección de visión determinada y basándose en una salida de al menos un sensor de distancia, el primer valor de distancia para indicar una distancia a un objeto ubicado en un eje óptico del ojo y el segundo Valor de distancia para indicar una distancia a un objeto ubicado en una dirección periférica que forma un ángulo predefinido mayor que cero con respecto al eje óptico del ojo.
Por lo tanto, en caso de que se utilice un dispositivo de seguimiento ocular, la unidad de control no se basa en la suposición de que la primera dirección del dispositivo portátil corresponde a la dirección de visión del usuario sino que se puede considerar la dirección de visión real del usuario para determinar el valor de la primera distancia y el valor de la segunda distancia.
El dispositivo portátil puede comprender además un sensor de luz para determinar una intensidad y/o contenido espectral de la luz, y la unidad de control puede configurarse para determinar el indicador de riesgo en función de la intensidad y/o contenido espectral de la luz.
El dispositivo portátil puede incorporar el sensor de luz y/o un sensor de color codirigido con el sensor de distancia. Se pueden utilizar mediciones de luz para mejorar una clasificación de objetos y/o actividades. Por ejemplo, las pantallas de dispositivos móviles, pantallas de ordenador y paneles de visualización en general suelen estar tapados activamente y actúan como fuentes de luz. La capacidad de detectar la luz de esos dispositivos permite aumentar la sensibilidad y especificidad de la clasificación. Por ejemplo, incluir el sensor de luz codirigido con el sensor de distancia puede ayudar a diferenciar la lectura de un libro o la lectura desde una tableta, ya que esta última comprendería una fuente de luz mientras que la primera no. La capacidad de obtener muestreos periódicos de la intensidad de la luz permite adaptar el sistema para detectar un componente temporal de la iluminación, que puede usarse para diferenciar los tipos de medios presentados en una pantalla. Por ejemplo, los medios dinámicos, como vídeos o juegos, tendrían intensidad y contenido espectral variables debido a los cambios frecuentes en las imágenes mostradas del color y la intensidad del contenido se puede utilizar para reconocer dicho contenido. Por el contrario, un lector de libros electrónicos o una aplicación de libros tendría una representación visual relativamente estable entre vueltas de página, ya que cualquier cambio dinámico interferiría con la actividad de lectura. Por tanto, la unidad de control puede configurarse para determinar una actividad basándose en una salida del sensor de luz.
Adicional o alternativamente, el dispositivo portátil podría incorporar un sensor de luz ambiental diseñado para medir la intensidad y/o el contenido de color de la luz ambiental. Puede orientarse en la misma dirección que el sensor de distancia o en otra dirección, por ejemplo, hacia arriba. El sensor de luz ambiental dirigido hacia arriba podría medir la luz de fuentes de luz, que normalmente están ubicadas sobre la cabeza del usuario, como el sol, el cielo, celulares, relámpagos, farolas, etc. El sensor de luz ambiental podría tener un canal diseñado para detectar luz ultravioleta. Las condiciones de luz ambiental pueden tener una influencia importante en el riesgo de progresión de la miopía. Una condición de alta iluminación provoca la constricción de la pupila del usuario, lo que aumenta la profundidad de campo de la imagen en la retina y reduce el efecto de desenfoque periférico. Por el contrario, una iluminación baja provoca una pupila dilatada y una profundidad de campo reducida de la imagen, maximizando así el efecto del desenfoque periférico. Por lo tanto, las condiciones de iluminación pueden incluirse en el modelo para determinar el indicador de riesgo, de modo que el indicador de riesgo indique un mayor riesgo de miopía en caso de que el sensor de luz detecte una menor cantidad de iluminación.
El sensor de luz, por ejemplo, en forma de sensor de luz ambiental, se puede utilizar para diferenciar entornos interiores y exteriores. Esta diferenciación es un factor importante en el riesgo de miopía, ya que se ha demostrado que pasar tiempo al aire libre tiene un efecto protector contra la progresión de la miopía.
Dado que el nivel de iluminación interior rara vez alcanza el nivel de luz exterior durante el día, la detección más simple se puede realizar comparando el nivel de luz ambiental con un umbral predefinido e informando el contexto exterior cuando la luz ambiental está por encima del umbral y en el interior, en caso contrario. Se espera que un sensor sensible en la región espectral ultravioleta sea más específico debido a la ausencia típica de fuentes de luz ultravioleta artificiales en el ambiente interior normal, mientras que es inevitable en los entornos exteriores diarios. El umbral también se puede ajustar según la hora del día, la estación y la geolocalización: longitud, latitud y altitud para tener en cuenta la variación de las condiciones de iluminación exterior esperadas. Por ejemplo, durante las horas nocturnas la lógica basada en el umbral de iluminación no funcionaría debido a la ausencia del sol como fuente de luz, lo que se tendría en cuenta mediante la información sobre la fase del sol estimada a partir de la ubicación y la fecha/hora. De este modo, se puede determinar si una salida del sensor de luz está por encima de un valor umbral predefinido y, en base a esto, se puede decidir si el usuario se encuentra en un entorno interior o exterior.
Otra implementación puede utilizar una detección de luz parpadeante. Se sabe que la luz de las pantallas y de algunas fuentes de luz artificiales modernas es modulada. Con el dispositivo capaz es posible detectar fluctuaciones periódicas de intensidad y con esto detectar la presencia de fuentes de luz artificial y con esto reconocer el contexto interior/exterior.
Por lo tanto, el sensor de luz puede usarse para identificar un tipo de actividad del usuario y/o un entorno en el que se encuentra actualmente el usuario.
Se pueden utilizar otros sensores para diferenciar los entornos exterior/interior, por ejemplo, el sensor de distancia. Dado que el intervalo de distancias de visualización en un entorno interior típico está limitado por las paredes y el techo, es posible detectar el entorno interior a partir de las estadísticas de las distancias de visualización, por ejemplo, comparándolo con un umbral. Las distancias entre las paredes pueden tener una gran variabilidad, mientras que la distancia al techo en un edificio típico es más consistente. Por lo tanto, es beneficioso incluir un sensor de orientación para detectar la presencia del techo y la distancia al mismo cuando el sistema está dirigido hacia arriba. En una implementación, el dispositivo portátil podría incluir un sensor de distancia inclinado hacia arriba o completamente orientado verticalmente hacia arriba. Con este dispositivo se puede detectar de forma fiable la presencia de un techo y atribuirlo al ambiente interior.
En una implementación, las características del desenfoque periférico, que es una desviación de las distancias central y periférica, se pueden utilizar para la detección de un entorno interior. Se sabe que el ambiente interior típico induce un desenfoque periférico mucho mayor en comparación con el ambiente exterior y, por lo tanto, las mediciones del desenfoque periférico pueden usarse como una señal para diferenciar los entornos interior/exterior por separado o en combinación con otras señales.
Para resumir lo anterior, por ejemplo, un nivel de iluminación más alto puede llevar a suponer que se reduce el tamaño de la pupila de un ojo del usuario, lo que reduce la extensión del desenfoque periférico debido a la mayor profundidad de enfoque causada por el tamaño menor de la pupila. tamaño. Por lo tanto, el indicador de riesgo podría determinarse de tal manera que un nivel de iluminación más alto durante un período de tiempo mayor conduzca a un indicador de riesgo que indique un riesgo menor de miopía. Una implementación más elaborada puede incluir el modelado del tamaño de la pupila en función de la luminancia de la escena medida o del nivel de iluminación general. El tamaño de la pupila se puede incluir en el modelo de cálculo del desenfoque periférico en el modelo de ojo mediante trazado de rayos.
La unidad de control puede configurarse además para determinar el indicador de riesgo en función de un tipo de actividad detectada por el dispositivo portátil.
Los posibles tipos de actividades pueden incluir, entre otros, deportes, leer un libro o un periódico, mirar la pantalla de un ordenador, mirar la pantalla de un teléfono inteligente, etc. Estas actividades pueden determinarse mediante uno o más sensores adecuados, por ejemplo, el al menos un sensor de distancia. Adicional o alternativamente, se pueden proporcionar uno o más sensores adicionales para determinar el tipo de actividad, tales como, por ejemplo, una cámara y/o un sensor de movimiento (tal como un acelerómetro) o una combinación de múltiples sensores.
Las actividades visuales detectadas con el sistema revelado pueden servir como factor en la estimación del riesgo de miopía. Por ejemplo, el tiempo dedicado a trabajar con dispositivos de visualización electrónicos ("tiempo de pantalla") puede entrar directamente en el modelo como un factor que contribuye al aumento del riesgo de progresión de la miopía. Como otra implementación, la biblioteca/base de datos de desenfoque periférico/error de acomodación durante las actividades se puede utilizar para estimar el valor acumulado del desenfoque periférico. Por ejemplo, al detectar períodos de trabajo en el ordenador personal, el sistema puede utilizar un modelo típico de entorno visual para el ordenador personal y estimar indirectamente el desenfoque periférico. Esto también se puede hacer en combinación con las mediciones reales del medio ambiente para enriquecer los datos. La distancia de visión medida con el sensor de distancia también se puede incluir en el modelo de riesgo. Por ejemplo, las distancias de trabajo cortas, como ocurre con los teléfonos pequeños, o la lectura de cerca son un factor de riesgo reconocido. Por lo tanto, el indicador de riesgo podría determinarse de manera que una métrica estadística (media, mediana, impulso, tiempo, etc.) de las distancias de trabajo empleadas por el usuario correspondiente a una distancia de trabajo más corta durante un período de tiempo mayor conduzca a un indicador de riesgo que indique un mayor riesgo de progresión de la miopía.
La unidad de control también se puede configurar para evaluar la validez del entorno/contexto/actividad actualmente muestreado. Por ejemplo, el sistema podría haber muestreado suficientemente el entorno mientras el usuario estaba trabajando en un ordenador y es capaz de diferenciar orientaciones y/o ubicaciones primarias y secundarias. Cuando el usuario cambia a otra actividad, como, por ejemplo, voltearse hacia un colega y participar en la discusión o ponerse de pie y caminar hacia una máquina de café, el entorno cambia por completo y es posible que sea necesario restablecer la representación algorítmica. El sistema se puede configurar para evaluar la validez comparando la medición durante la fijación y/o durante la desviación. Por ejemplo, arriba, cuando el usuario se aleja de la pantalla del ordenador hacia el colega, la distancia principal cambiará de la distancia estándar de la pantalla del ordenador (por ejemplo, 0,6-0,8 m) a la distancia hacia la contraparte, que normalmente está en el intervalo de distancia social entre compañeros, que parte de 1,2 m. Al detectar un cambio repentino de distancia primaria, es posible detectar un cambio de contexto e iniciar un reinicio de las estadísticas recopiladas. El cambio de contexto también se puede detectar con la ayuda de sensores adicionales, como un sensor de orientación y/o posición, detectando un cambio significativo en la orientación o posición del dispositivo portátil. Un sensor de movimiento puede servir como disparador de restablecimiento del contexto al detectar un movimiento repentino y significativo del sistema; por ejemplo, cuando el usuario se levanta y se aleja, se asocia con un cambio significativo en la firma del movimiento. Como se mencionó anteriormente, la fijación visual generalmente se asocia con la reducción del movimiento de la cabeza y el cuerpo, ya que el movimiento puede distorsionar la función visual.
El dispositivo portátil puede comprender la unidad de control. En este caso, el sistema puede estar materializado por un dispositivo portátil, en el que tanto la detección del valor de la distancia como el procesamiento adicional de los valores de la distancia se realizan dentro de un mismo dispositivo. En este caso, el dispositivo portátil puede comprender una interfaz de salida para emitir el indicador de riesgo determinado. El indicador de riesgo puede enviarse, por ejemplo, al usuario y/o al médico tratante del usuario. Basándose en el indicador de riesgo generado, el médico puede decidir si son necesarias medidas concretas para prevenir la aparición o progresión de la miopía.
Según un segundo aspecto, se proporciona un procedimiento para determinar un indicador de riesgo de miopía. El procedimiento comprende determinar al menos un primer valor de distancia indicativo de una distancia entre un dispositivo portátil unido a un cuerpo de un usuario (en particular, a la cabeza de un usuario) y un objeto ubicado en una zona de visión central del usuario y un segundo valor de distancia indicativo de una distancia entre el dispositivo portátil y un objeto ubicado en una zona de visión periférica del usuario. El procedimiento comprende además determinar, basándose en el primer valor de distancia y el segundo valor de distancia, un indicador de riesgo de miopía.
Cada uno de los detalles descritos anteriormente con respecto al sistema del primer aspecto también puede aplicarse al procedimiento del segundo aspecto. Más precisamente, el procedimiento del segundo aspecto puede implicar uno o más de los pasos/capacidades adicionales descritos con respecto al sistema del primer aspecto discutido anteriormente.
Según un tercer aspecto, se proporciona un producto de programa informático. El producto de programa informático comprende partes de código de programa para realizar las etapas del procedimiento del segundo aspecto cuando el producto de programa informático se ejecuta en uno o más dispositivos de procesamiento.
El producto del programa informático puede almacenarse en un medio de grabación legible por ordenador. En otras palabras, se puede proporcionar un medio de grabación legible por ordenador que comprenda el producto de programa informático del tercer aspecto.
Breve descripción de los dibujos
A continuación, se describen realizaciones de la técnica presentada en el presente documento con referencia a los dibujos adjuntos, en los que:
Fig. 1 muestra una sección transversal esquemática de un ojo de un usuario para explicar diferentes causas potenciales de miopía con respecto a tres puntos focales;
Fig. 2 muestra una sección transversal esquemática de un ojo para explicar el efecto del desenfoque periférico;
Fig. 3 muestra una sección transversal esquemática de tres ojos que tienen diferentes formas y el efecto de un desenfoque periférico en estos ojos;
Fig. 4 muestra una sección transversal esquemática de un ojo con un tamaño de pupila reducido y el efecto del tamaño de pupila reducido sobre el desenfoque periférico;
Fig. 5 muestra una primera realización de un dispositivo portátil con un sensor de distancia para determinar un indicador de riesgo de miopía;
Fig. 6 muestra una segunda realización de un dispositivo portátil con una pluralidad de sensores de distancia para determinar un indicador de riesgo de miopía;
Fig. 7 muestra una estructura lógica de una unidad de control de una realización de la presente descripción;
Fig. 8 muestra un ejemplo de resultados de medición de los dos sensores de distancia mostrados en la Fig. 6 y una discrepancia calculada correspondiente;
Fig. 9 muestra un concepto de integrador de riesgos que puede ser empleado por la unidad de control; y
Figs. 10 a 13 Se muestran diferentes ejemplos de funciones de respuesta que pueden ser utilizadas por la unidad de control para determinar el indicador de riesgo.
A continuación, pero sin limitación, se exponen detalles específicos para dar una comprensión completa de la presente descripción. Sin embargo, está claro para los expertos en la técnica que la presente invención se puede utilizar en otras realizaciones, que pueden diferir de los detalles expuestos a continuación.
La Fig. 1 muestra una representación esquemática de una sección transversal de un ojo 2 de un usuario. A continuación, se analizarán las posibles causas de la miopía con referencia al ojo 2 mostrado en la Fig. 1. Cabe señalar que la representación de la Fig. 1 no muestra necesariamente un momento particular en el tiempo, sino que se indican diferentes situaciones dentro de la misma figura con fines explicativos.
Como se muestra en la Fig. 1, los rayos de luz 4 ingresan al ojo 2 desde el lado izquierdo. Los rayos de luz 4 pasan por la pupila del ojo 2 y son enfocados por el cristalino del ojo 2 (tanto la pupila como el cristalino no se muestran en la Fig. 1). En un caso ideal, es decir, para obtener una imagen nítida, los rayos de luz 4 se enfocan en la retina 6 del ojo 2. Este caso se muestra en la Fig. 1 con respecto a los rayos de luz 4a que forman un punto focal 8 en la retina 6. En caso de que una distancia focal del cristalino del ojo 2 sea demasiado corta (o el cristalino del ojo 2 esté actualmente desenfocado o enfocado en otro objeto), los rayos de luz 4 se enfocan en una región delante de la retina 6 y, por tanto, dentro del ojo 2, como se muestra en el punto focal 9 en la Fig. 1 con respecto a los rayos de luz 4b. El punto focal 9 también se denomina desenfoque miope o puede verse como resultado de un desenfoque miope del ojo 2. En caso de que la distancia focal de la lente del ojo 2 sea demasiado larga (o la lente del ojo 2 esté actualmente desenfocada o enfocada en otro objeto), los rayos de luz 4 se enfocan en una región detrás de la retina 6 y, por tanto, fuera del ojo 2, como se muestra en el punto focal 10 en la Fig. 1 con respecto a los rayos de luz 4c. El punto focal 10 también se denomina desenfoque hipermétrope o puede verse como resultado de un desenfoque hipermétrope del ojo 2.
Con respecto a la Fig. 1, se pueden explicar las causas de la miopía (miopía). La siguiente discusión es particularmente relevante para los niños y para la miopía causada por el crecimiento del ojo 2. Cuando el ojo 2 es demasiado grande (es decir, ha crecido demasiado), la imagen se forma delante de la retina 6 como se analizó anteriormente con respecto a al desenfoque miope 8. Sin embargo, el crecimiento del ojo se desencadena por la existencia de un desenfoque hipermétrope 10 (es decir, cuando la imagen se forma detrás de la retina 6), ver Fig. 1.
Como se explica a continuación, existen mecanismos por los que se desencadena un crecimiento ocular continuo, aunque el ojo 2 ya haya crecido demasiado y, por lo tanto, el ojo 2 ya sea miope. Un efecto que podría causar este fenómeno se denomina en el presente documento "componente espacial".
Componente espacial: un mecanismo de control de acomodación está diseñado para enfocar la imagen en la zona central alrededor de la fóvea de la retina 6. Obviamente, una imagen en la retina 6 se forma también en una zona periférica que rodea la zona central. Hay datos que muestran que el desenfoque periférico 10 también está provocando el crecimiento de los ojos. En el ambiente interior moderno, si una persona (en particular, un niño) está mirando un objeto lejano, por ejemplo, una pantalla de televisión, hay muchas posibilidades de que, al mismo tiempo, haya otros objetos colocados cerca (como un escritorio)., una pantalla, un libro, etc.) que están colocados en direcciones periféricas y que se proyectan detrás de la retina 6 formando un desenfoque hipermétrope 10 ya que el ojo 2 no está acomodado con respecto a estos objetos. Además, este desenfoque hipermétrope 10 puede desencadenar el crecimiento de los ojos, lo que podría provocar miopía.
El desenfoque hipermétrope 10 ha sido identificado como uno de los mayores riesgos para el desarrollo de la miopía. Como se explicó anteriormente, mientras que el ojo 2 enfoca la imagen en una zona central, la zona periférica (que rodea la zona central) podría no estar enfocada. Este efecto podría exagerarse con el crecimiento del ojo, que alarga el ojo 2. En este caso, la zona periférica está incluso más cerca del cristalino que la zona central y, por lo tanto, la imagen está en desenfoque hipermétrope (o "desenfoque periférico"). El ojo 2 puede responder al desenfoque hipermétrope, lo que podría conducir en primer lugar a un adelgazamiento de la coroides seguido del crecimiento (alargamiento) del ojo, lo que a su vez conduce a una mayor falta de coincidencia entre las imágenes en las zonas central y periférica. Esto puede crear un círculo vicioso de crecimiento ocular. Algunos investigadores indican que la zona periférica es incluso un desencadenante más fuerte del crecimiento del ojo que la zona central.
Los factores ambientales que afectan al desenfoque periférico son la presencia inevitable de objetos en la periferia de la visión de las personas. Si bien una persona puede estar enfocando objetos en distancias lejanas o intermedias, a menudo hay otros objetos ubicados más cerca de la cabeza de la persona. Esos objetos, aunque no se encuentren en la zona de visión central, se enfocarían detrás de la retina 6 y provocarían así un desenfoque hipermétrope.
Como se muestra en la Fig. 1, el mecanismo anterior desencadena el crecimiento del ojo indicado por la flecha gruesa 12. Como resultado de este crecimiento del ojo, aumenta el error de refracción miope como lo indica la flecha de doble cara 14 en la Fig. 1.
Para resumir lo anterior, un desenfoque hipermétrope (es decir, la imagen se forma detrás de la retina 6) puede estimular el crecimiento ocular (en particular, en los ojos en crecimiento de los niños).
El desenfoque hipermétrope suele ser causado por una acomodación insuficiente del cristalino natural del ojo 2. Un mecanismo natural estimula el crecimiento del ojo, que mueve la retina 6 hacia atrás y enfoca la imagen en la retina 6. En una situación ideal, cuando el ojo 2 ya es miope, el desenfoque es miope y, por tanto, no desencadena el crecimiento del ojo. Sin embargo, como se ha comentado anteriormente, hay situaciones en las que este mecanismo se activa incluso en ojos miopes, lo que provoca el efecto no deseado de un mayor crecimiento del ojo. Como se ha explicado anteriormente, un efecto está dirigido al desenfoque en una zona periférica del ojo 2 (falta de homogeneidad espacial o componente espacial).
Por lo tanto, puede ser importante comprender el entorno de vida y de trabajo de un usuario para caracterizar el riesgo de desarrollo y progresión de la miopía en función de los factores del desenfoque periférico (hipermétrope). Según la presente descripción, un "desenfoque periférico" se refiere a un desenfoque hipermétrope en una región periférica de la retina 6 del ojo 2.
La Fig. 2 muestra una representación similar a la Fig. 1, en la que se muestra la aparición de un desenfoque hipermétrope 10. La representación de la Fig. 2 muestra una sección transversal a través de un plano vertical y, por tanto, una vista lateral del ojo 2. La lente 16 del ojo 2 está enfocada sobre un objeto (no mostrado) dispuesto a una distancia d<o>(distancia central), que también podría ser, por ejemplo, infinito. Como se muestra en la Fig. 2, se forma una imagen del objeto lejano en un punto focal regular 8 de la retina. Sin embargo, otro objeto (cercano) 18 está presente delante de la cabeza del usuario a una distancia d<p>(distancia periférica), que es una vela en el ejemplo mostrado en la Fig. 2. Dado que la lente 16 del ojo 2 no está acomodada al objeto cercano 18, se forma una imagen del objeto cercano 18 en un punto de desenfoque hipermétrope 10, es decir, en una región detrás de la retina. Por lo tanto, un objeto 18 colocado cerca del ojo 2, mientras otro objeto colocado lejos es enfocado por la lente 16, puede causar un desenfoque hipermétrope y por lo tanto miopía (en caso de que esta situación ocurra con frecuencia y/o durante un período prolongado).
La Fig. 3 muestra cómo la forma del ojo 2 puede influir en la apariencia de un desenfoque hipermétrope 10. En la parte izquierda de la Fig. 3, se muestra un ojo 2a que tiene una longitud acortada a lo largo de su eje óptico. En la parte central de la Fig. 3 se muestra un ojo 2b que tiene una longitud normal. La parte derecha de la Fig. 3 muestra un ojo alargado 2c que puede ser el resultado de un crecimiento ocular demasiado fuerte. Como se muestra con respecto al ojo 2c, una zona central 20 (es decir, una zona donde un eje óptico del ojo 2c cruza la retina) está relativamente lejos de una zona periférica 22 de la retina que tiene una distancia angular predefinida con respecto al eje central (eje horizontal que pasa por el centro de la lente 16 en la Fig. 3). Por ejemplo, la zona periférica 22 del ojo 2c puede estar en una región donde los haces de luz 4c cruzan la retina. Como puede verse en una comparación de los ojos 2a y 2c, en el ojo alargado 2c, una zona central 20 y una zona periférica 22 están relativamente alejadas entre sí, lo que realza el efecto de desenfoque periférico.
En la Fig. 4, se muestra el efecto de un tamaño de pupila reducido sobre la aparición de un desenfoque periférico. Como se muestra en la Fig. 4, una gran cantidad de luz ambiental hace que el iris 24 del ojo 2 reduzca el tamaño de la pupila. Debido a la mayor profundidad de enfoque, se reduce el alcance del desenfoque periférico.
A continuación, se describirán ejemplos de cómo se utilizan las observaciones anteriores mediante la técnica de la presente descripción para determinar un indicador de riesgo de miopía.
La Fig. 5 muestra un dispositivo portátil 50 según una primera realización de la presente descripción. El dispositivo portátil 50 está unido a la cabeza 52 de un usuario. Más precisamente, el dispositivo portátil 50 está unido a una armadura 58 de gafas graduadas usadas por el usuario, por ejemplo, mediante medios de sujeción mediante los cuales el dispositivo portátil 50 se sujeta a una patilla de la armadura 58. Sin embargo, también la combinación del dispositivo portátil 50 y la armadura 58 pueden considerarse dispositivos portátiles según la presente descripción, en la que, según este punto de vista, el dispositivo portátil 50, 58 está unido a la cabeza 52 del usuario por medio de las patillas de la armadura 58. En lugar de gafas graduadas, la armadura 58 puede ser una armadura de gafas de sol, una armadura con lentes planas sin potencia óptica o una armadura "vacía" sin lentes.
El dispositivo portátil 50 comprende un sensor de distancia 54 para medir de forma dependiente del tiempo un primer valor de distancia d(t) que representa una distancia entre el dispositivo portátil 50 y un objeto 56. Cuando la presente descripción establece que se mide un valor de distancia dependiente del tiempo, es decir, se miden varios valores individuales (d(t=t-<i>), d(t=t<2>), d(t=t<3>), etc.), uno tras otro, y se almacenan, opcionalmente asociados con una marca de tiempo. Por lo tanto, se implementa un muestreo adecuado del sensor de distancia 54. Una frecuencia de muestreo de las mediciones de distancia debería ser suficiente para obtener múltiples mediciones durante cada episodio de actividad visual con el fin de facilitar el análisis estadístico de los datos. Hoy en día, la capacidad de atención humana se reduce significativamente debido al uso de dispositivos móviles. Sería normal que el usuario cambiara de una actividad a otra varias veces por minuto. Por tanto, es aconsejable muestrear el o los sensores de distancia 54 con una frecuencia inferior a un segundo. Al mismo tiempo, debido a la velocidad física limitada del movimiento de la cabeza y el cuerpo humanos, apenas es necesario muestrear con frecuencia por encima de 100 Hz. Por tanto, el intervalo óptimo de frecuencia de muestreo de un sensor de distancia puede estar entre 1 y 100 Hz. Esto se puede aplicar al sensor de distancia 54 de la presente realización, pero también a los otros sensores de distancia de los dispositivos portátiles descritos en el presente documento.
Para medir el valor de distancia d(t), el dispositivo portátil 50 puede emplear una técnica conocida, tal como un medidor de distancia láser, un medidor de distancia ultrasónico, etc.
Como se muestra en la Fig. 5, el sensor de distancia 54 apunta en la primera dirección, es decir, está dirigido a la primera dirección. En otras palabras, el sensor de distancia 54 está configurado para medir un valor de distancia d(t) a lo largo de la primera dirección (indicada por la línea en la Fig. 5) hasta un objeto 56 ubicado a lo largo de la primera dirección. El valor de distancia d(t) se mide de manera que indica una distancia entre el dispositivo portátil 50 y el objeto 56, en el que también es posible medir el valor de distancia entre el objeto 56 y un punto de referencia arbitrario que tiene una relación espacial fija con el dispositivo portátil 50 (por ejemplo, un punto de referencia donde normalmente se encuentra uno de los ojos 2 del usuario).
Como se muestra en la Fig. 5, la primera dirección, en la que se mide el valor de distancia d(t), corresponde a una dirección central a lo largo de un eje central del dispositivo portátil 50. El eje central puede definirse como una dirección a lo largo de una dirección de vista de los ojos 2 del usuario, cuando el dispositivo portátil 50 se usa en la cabeza 52 del usuario y cuando el usuario mira hacia adelante (por ejemplo, en un punto en el horizonte). La dirección central corresponde sustancialmente a una dirección de extensión de las patillas de la armadura 58.
En la realización de la Fig. 5 se supone que la primera dirección corresponde a una dirección de visión del usuario. Esta suposición es una buena aproximación ya que se ha demostrado que los usuarios normalmente giran la cabeza 52 en la dirección de visión, de modo que la dirección de visión y el eje central de los ojos normalmente se corresponden entre sí.
El sensor de distancia 54 mide un valor de distancia d(t) dependiente del tiempo. El valor de distancia d(t) representa una distancia a lo largo del eje central de los ojos 2 del usuario hacia el objeto 56. Cuando el usuario gira su cabeza durante la medición, el sensor de distancia 54 mide más valores de distancia, que puede indicar distancias a diferentes objetos, tales como el objeto 60 colocado frente a la cabeza 52 del usuario, en caso de que el usuario dirija su cabeza en la dirección del objeto 60.
El dispositivo portátil 50 comprende una memoria para almacenar los valores de distancia medidos. En la realización de la Fig. 5, el dispositivo portátil 50 comprende además una unidad de control para procesar adicionalmente los valores de distancia medidos. Sin embargo, también es posible que el dispositivo portátil 50 simplemente mida y registre el valor de la distancia y que el procesamiento adicional de los valores de la distancia se lleve a cabo en una unidad de control externa. Por ejemplo, esta unidad de control externa puede ser un ordenador de uso general o cualquier otra unidad de control adecuada configurada para recibir los valores de distancia. La unidad de control externa puede estar ubicada en una nube, es decir, en uno o más servidores de red accesibles a través de una conexión de red. Por ejemplo, el dispositivo portátil 50 puede comprender una interfaz (por ejemplo, una interfaz cableada o una interfaz inalámbrica) para generar los valores de distancia medidos d(t). La unidad de control (externa) puede comprender una interfaz (por ejemplo, una interfaz cableada o una interfaz inalámbrica) para ingresar los valores de distancia medidos emitidos a través de la interfaz del dispositivo portátil 50.
En la realización de la Fig. 5, el dispositivo portátil es un dispositivo independiente con una unidad de control integrada. Sin embargo, como se mencionó anteriormente, son posibles otras realizaciones, que también están cubiertas por la presente descripción, según las cuales la unidad de control está prevista como un dispositivo externo. La combinación del dispositivo portátil 50 y la unidad de control también se denomina sistema para determinar un indicador de riesgo de miopía.
La unidad de control recibe los valores de distancia medidos y realiza un procesamiento adicional de los valores de distancia para determinar un indicador de riesgo de miopía.
Más precisamente, la unidad de control deriva, a partir de la serie temporal medida de valores de distancia d(t), al menos un primer valor de distancia indicativo de una distancia entre el dispositivo portátil (50) y un objeto ubicado en un área de visión central del usuario. (por ejemplo, el objeto 56 mostrado en la Fig. 5) y un segundo valor de distancia indicativo de una distancia entre el dispositivo portátil (50) y un objeto ubicado en un área de visión periférica del usuario (por ejemplo, el objeto 60 mostrado en la Fig. 5).
Una forma de distinguir entre los primeros valores de distancia y los segundos valores de distancia es determinar una variabilidad temporal de los valores de distancia d(t).
En este caso, la unidad de control determina a partir del valor de distancia d(t) medido en función del tiempo una variabilidad temporal del valor de distancia. La variabilidad temporal puede comprender o puede corresponder a al menos una de varias veces que el valor de la distancia cambia de un valor por debajo de un primer valor umbral predefinido a un valor por encima de un segundo valor umbral predefinido dentro de un período predefinido, un número de veces que la derivada en el tiempo del valor de la distancia cambia de signo dentro de un período predefinido, una diferencia entre un valor máximo del valor de la distancia y un valor mínimo del valor de la distancia dentro de un período predefinido, y un máximo de una derivada en el tiempo del valor de la distancia dentro de un período predefinido. La variabilidad temporal es indicativa de un grado de cambios de distancia focal y/o una frecuencia de cambios de distancia focal de los ojos 2 del usuario.
Basándose en la variabilidad temporal, la unidad de control determina si existe un período de fijación. Cuando la variabilidad temporal de los valores de distancia medidos está por debajo de un primer valor umbral predefinido durante intervalos de tiempo que exceden un segundo valor umbral predefinido, existe un período de fijación y los valores de distancia dentro de este período se identifican como primeros valores de distancia. Los valores de distancia fuera de los períodos de fijación son segundos valores de distancia. Estos valores de distancia primero y segundo se analizan para determinar un indicador de riesgo de miopía. Según la presente realización, el indicador de riesgo se determina de tal manera que una mayor discrepancia entre el primer valor de distancia y el segundo valor de distancia conduce a un indicador de riesgo que indica un mayor riesgo de miopía. En este caso se puede suponer que se produce una situación de desenfoque periférico.
Por ejemplo, como se muestra en la Fig. 5, el usuario puede girar su cabeza 52 desde el objeto lejano 56 hacia un objeto cercano 60 para mirar el objeto 60. Por lo tanto, las lentes 16 de los ojos 2 del usuario tienen que cambiar su distancia focal a una distancia focal más corta para enfocar el objeto 60. En caso de que el usuario gire su cabeza 52 hacia el objeto 56, la distancia focal debe volver a cambiarse a una distancia focal más larga. En este caso se supone que un periodo de fijación es un periodo en el que el usuario dirige sus ojos 2 hacia la zona central (a lo largo de una dirección central), es decir, al objeto 56. Fuera de los periodos de fijación, los ojos 2 del usuario deambula por la zona periférica, por ejemplo, hacia el objeto 60.
Según una o más realizaciones, el dispositivo portátil 50 puede comprender un sensor de movimiento (por ejemplo, un acelerómetro y/o un giroscopio) para detectar un movimiento de la cabeza del usuario. A partir de una salida del sensor de movimiento se deriva una dirección hacia la que se dirige la cabeza 52 del usuario. Basándose en esta dirección y basándose en los valores de distancia medidos d(t), se puede determinar un primer valor de distancia (en la dirección en la que se gira la cabeza 52 del usuario) y un segundo valor de distancia (periférico). El primer valor de distancia y el segundo valor de distancia pueden entonces ser procesados por la unidad de control de forma similar al procesamiento del primer valor de distancia d<o>(t) y el segundo valor de distancia d<p>(t) se describe a continuación con respecto a la segunda realización.
La Fig. 6 muestra un dispositivo portátil 50 según una segunda realización de la presente descripción. El dispositivo portátil 50 de la segunda realización es similar al dispositivo portátil 50 de la primera realización. Por tanto, se utilizan los mismos signos de referencia en las Figs. 5 y 6 para indicar las mismas características. A continuación, sólo se explicarán las diferencias y características adicionales de la segunda realización, mientras que las otras características son las mismas que las descritas anteriormente con respecto a la primera realización.
El dispositivo portátil 50 de la segunda realización comprende dos sensores de distancia 54a y 54b. El primer sensor de distancia 54a está dirigido a lo largo del eje central, similar al sensor de distancia 54 de la primera realización descrita anteriormente. El primer sensor de distancia 54a mide en función del tiempo un primer valor de distancia d<o>(t) (distancia central) que indica una distancia entre el dispositivo portátil 50 y un objeto 56 colocado a lo largo del eje central. El segundo sensor de distancia 54b mide en función del tiempo un segundo valor de distancia d<p>(t) (distancia periférica) a lo largo de una dirección que no es idéntica al eje central. En otras palabras, la dirección a lo largo de la cual el segundo valor de distancia d<p>(t) se mide, forma un ángulo predefinido con respecto a la primera dirección. En la realización de la Fig. 6, la dirección en la que el segundo valor de distancia d<p>(t) se mide (también denominada "dirección periférica") y se gira hacia un lado con respecto al eje central, de modo que ambas direcciones estén sustancialmente dentro de un plano horizontal. Según otras realizaciones, el segundo valor de distancia d<p>(t) también podría medirse en una dirección que apunta hacia abajo con respecto al eje central (es decir, con respecto a la primera dirección d<o>) o en una dirección que apunte tanto hacia abajo como hacia un lado con respecto a la primera dirección d<o>. En cada caso, la segunda dirección, periférica, es diferente de la primera dirección, central. Por tanto, se obtienen dos valores de distancia diferentes, concretamente un primer valor de distancia d<c>(t) (distancia central) relativa a la primera dirección y un segundo valor de distancia d<p>(t) (distancia periférica) relativa a la segunda dirección se miden y se registran (se almacenan).
Más precisamente, el dispositivo portátil 50 realiza una medición dependiente del tiempo de los valores de distancia d<C>(t) y d<p>(t). La unidad de control del dispositivo portátil 50 recibe y procesa el primer valor de distancia d<C>(t) y el segundo valor de distancia d<p>(t) y determina un indicador de riesgo de miopía basándose en el primer valor de distancia d<p>(t) y en el segundo valor de distancia d<C>(t).
La unidad de control del dispositivo portátil 50 calcula una disparidad (es decir, una falta de coincidencia) entre el primer valor de distancia d<C>(t) y el segundo valor de distancia d<p>(t) (más precisamente, un valor de disparidad dependiente del tiempo). La unidad de control determina una duración acumulada en la que la diferencia (es decir, la diferencia dependiente del tiempo) está por encima de un valor umbral predefinido dentro de un período predeterminado. La unidad de control determina además el indicador de riesgo de manera que una mayor duración acumulada conduce a un indicador de riesgo que indica un mayor riesgo de miopía.
Si se da la geometría del ojo (dimensiones), es posible calcular directamente la cantidad de desenfoque periférico inducido de la imagen del objeto ubicado a la distancia d<p>(t), suponiendo que el ojo está orientado y enfocado en el objeto ubicado a la distancia d<C>(t). Esto se puede hacer siguiendo los rayos de luz a través de los elementos ópticos del ojo. Si no se proporciona la geometría del ojo, el cálculo puede asumir la forma del ojo estándar/predeterminada. La elección de la geometría del ojo predeterminada puede basarse en los datos demográficos del usuario, como edad, sexo, origen étnico u otras medidas fisiológicas/anatómicas, como prescripción, altura, longitud de los ojos, curvatura de la córnea, tamaño de la pupila, etc. En caso de que el paciente/usuario sea utilizando corrección refractiva, como gafas, lentes de contacto, etc., estos elementos ópticos también se pueden tener en cuenta en el cálculo del desenfoque hipermétrope periférico.
En otra implementación, se puede derivar un modelo matemático que vincula las distancias dependientes del tiempo d<p>(t) y d<C>(t) al desenfoque hipermétrope. El modelo aproximado de la cantidad de desenfoque se puede derivar basándose en procedimientos de aprendizaje automático con o sin cálculos explícitos del sistema óptico del ojo.
En otra implementación más, se puede derivar un modelo matemático para el riesgo de progresión de la miopía a partir de señales dependientes del tiempo d<C>(t) y/o d<p>(t). El modelo podría utilizar cálculos físicos explícitos del desenfoque periférico. El modelo podría usar otras señales recopiladas con el dispositivo portátil, como la intensidad de la luz ambiental dependiente del tiempo y el contenido espectral, cantidad de movimiento, postura del usuario, etc. El modelo podría usar la información de la geometría/forma/ dimensiones del ojo del usuario. El modelo podría utilizar medidas demográficas y fisiológicas/anatómicas del usuario. El modelo podría utilizar la historia genética de las enfermedades oculares (historia de miopía en la familia). El modelo podría incluir otros factores de riesgo conocidos de progresión de la miopía para mejorar la predicción.
El modelo se puede derivar en base a los datos históricos/de seguimiento de la progresión de la miopía y las mediciones de las señales dependientes del tiempo d<C>(t) y/o d<p>(t). Por ejemplo, el modelo podría identificar las estadísticas de d<C>(t) y/o d<p>(t) o señales de desenfoque derivadas que normalmente conducen a la progresión de la miopía.
El modelo se puede derivar basándose en conocimientos teóricos del mecanismo de la miopía, en las estadísticas de datos de observación recopilados por otros medios, en las estadísticas de datos de observación recopilados por el dispositivo portátil (divulgado) o cualquier combinación.
Una mayor duración acumulada significa que hay períodos de tiempo más largos dentro del período predeterminado, en el que la diferencia entre el primer valor de distancia d<C>(t) y el segundo valor de distancia d<p>(t) es mayor que el valor umbral predefinido. En estos periodos de tiempo, es probable que el usuario mire un objeto a una distancia mayor (tal como el objeto 56 mostrado en la Fig. 6) mientras, al mismo tiempo, un objeto diferente que tiene una distancia más corta con respecto a los ojos. del usuario (tal como el objeto 60 mostrado en la Fig. 6) provoca un desenfoque periférico como se explicó anteriormente. Como se explicó anteriormente, estas situaciones pueden ser un factor que influya en la aparición de la miopía. Por lo tanto, el indicador de riesgo es mayor en el caso de que tales situaciones ocurran con más frecuencia y/o durante un período más largo.
En condiciones normales en estado de vigilia, el cuerpo y la cabeza humanos se encuentran en un estado de movimiento permanente. No todos los movimientos están asociados con las actividades visuales, por ejemplo, al caminar los movimientos de la cabeza no son necesarios para alinear la mirada con el objeto. Para poder investigar más correctamente los cambios de enfoque, puede ser necesario un procesamiento que implicaría la interpretación del origen y el propósito de los movimientos de la cabeza. Este procesamiento puede basarse en las señales de distancia d<C>(t) y d<p>(t) y también puede basarse o combinarse con señales de otros sensores, como sensores de movimiento (como acelerómetro, giroscopio, magnetómetro, etc.), sensores de posición (como GPS de geoposicionamiento, GLONASS, etc.) y otros sensores de contexto. Estos sensores de contexto pueden formar parte del dispositivo portátil.
Por ejemplo, caminar tiene un patrón de aceleración bien definido, que puede ser reconocido por acelerómetros/giroscopios y, en consecuencia, compensado en señales d<C>(t) y d<p>(t) para estimar los cambios de enfoque reales.
Alternativamente, durante las tareas que exigen atención y visión, los humanos intentan suprimir los movimientos innecesarios del cuerpo y la cabeza. Así, los períodos de atención/enfoque pueden identificarse a partir de las estadísticas de d<C>(t) y d<p>(t), como por ejemplo variaciones reducidas de distancias en el intervalo de tiempo específico. Los períodos de enfoque también se pueden identificar mediante sensores adicionales (como movimiento, rotación, posición, etc.). Por ejemplo, el sensor acelerómetro se puede utilizar para detectar los períodos de enfoque como períodos de movimiento/aceleración reducidos.
La presente descripción no se limita a las realizaciones anteriores. En lugar de uno o dos sensores de distancia puede estar prevista una cámara o un escáner de distancia tridimensional para determinar en función del tiempo un primer valor de distancia (central) y varios segundos valores de distancia diferentes que apuntan en diferentes direcciones periféricas. Además, se pueden proporcionar uno o más sensores que detecten simultáneamente una pluralidad de sensores de distancia en diferentes direcciones sin escanear, empleando muestreo de resolución espacial. Además, según una o más realizaciones, se proporciona un dispositivo de seguimiento ocular que determina una dirección de visión de los ojos del usuario. En combinación con un escáner de distancia tridimensional se puede decidir, basándose en una salida del dispositivo de seguimiento ocular, cuál de entre varios valores de distancia medidos es un valor de distancia central con respecto a la dirección de visión y qué valores de distancia son valores de distancia periférica con respecto a la dirección de visión. La unidad de control puede entonces utilizar la dirección central como primera dirección y una o más de las direcciones periféricas como segunda dirección para la determinación del indicador de riesgo. Una ventaja de utilizar un dispositivo de seguimiento ocular puede ser que los resultados del indicador de riesgo sean más precisos ya que se puede considerar la dirección de visión real del usuario.
Como se puede deducir de la descripción anterior de las realizaciones, el dispositivo portátil 50 de las realizaciones puede permitir mediciones del desenfoque periférico muestreando una o más distancias alrededor del usuario. El dispositivo portátil 50 puede estar destinado a medir la distancia en una zona central (primer valor de distancia) y en una zona periférica (segundo valor de distancia). Si bien podría ser relativamente sencillo equipar al usuario con un rastreador ocular (dispositivo de seguimiento ocular) y mapear las distancias desde un equipo de medición tridimensional (como una cámara o un escáner 3D) hasta la dirección de visión desde el rastreador ocular, como se describe anteriormente, podría ser más fácil y económico proporcionar uno o más sensores de distancia que apunten en direcciones fijas, como se muestra en las realizaciones de las Figs. 5 y 6.
Por lo tanto, un enfoque se basa en las direcciones fijas de los sensores en relación con el dispositivo portátil y, por tanto, en relación con la cabeza del usuario. Se sabe que durante períodos prolongados de actividad visual o para tareas visuales desafiantes, las personas tienden a alinear la cabeza con la dirección de la mirada. Por tanto, el enfoque se basa en dicha alineación y puede utilizar algoritmos para poder identificar períodos de alineaciones, así como períodos de desalineaciones.
Esto se puede hacer analizando señales de múltiples sensores, por ejemplo, de sensores inerciales proporcionados en el dispositivo portátil. La distancia en la zona de visión central (primer valor de distancia) se mide con el sensor dirigido al centro (primer sensor de distancia), mientras que las zonas periféricas se pueden palpar con uno o más sensores orientados hacia los lados (segundo valor de distancia). En otra implementación, las zonas periféricas se pueden muestrear con el mismo sensor, utilizando el movimiento natural de la cabeza del usuario.
El dispositivo portátil 50 de una o más realizaciones mide la disparidad de las distancias cercanas y lejanas experimentadas por el usuario (portador) en las diferentes direcciones (parte de la retina).
El procesamiento puede incluir estimar la potencia óptica en la zona central y la potencia óptica en la periferia y luego determinar la diferencia. El dispositivo portátil puede 50 caracterizar la variabilidad de las distancias en el entorno del usuario.
La Fig. 7 muestra la estructura lógica de una unidad de control 70 según una realización de la presente descripción. Por ejemplo, la unidad de control 70 puede proporcionarse como parte del dispositivo portátil 50 de la realización de la Fig. 5 o la Fig. 6. La Fig. 7 muestra una pluralidad de componentes 72, 74, 76, 78. Cada uno de estos componentes puede proporcionarse en forma de hardware o software.
Un primer componente 72 está configurado para realizar el cálculo geométrico del desenfoque. Los parámetros de entrada para el primer componente 72 son el primer valor de distancia t dependiente del fc(t) y el segundo valor de distancia t dependiente del t<p>(t). Los parámetros de entrada opcionales para el primer componente 72 son parámetros que definen la geometría del ojo (tal como la forma del ojo 2) y parámetros emitidos por un sensor de contexto del dispositivo portátil 50. Estos parámetros pueden estar relacionados con la luz ambiental l(t) medida por un sensor de luz ambiental del dispositivo portátil 50. Basándose en los parámetros de entrada antes mencionados, la primera unidad 72 determina un desenfoque dependiente del tiempo.
El desenfoque dependiente del tiempo se envía a un segundo componente 74 que realiza estadísticas de desenfoque. En otras palabras, el segundo componente 74 observa el desenfoque dependiente del tiempo y analiza estadísticamente el desenfoque. Los parámetros de salida del segundo componente 74 son indicativos de las estadísticas de desenfoque.
Se proporciona un tercer componente 76, que recibe las estadísticas de desenfoque y aplica un modelo a las estadísticas de desenfoque. Los parámetros de entrada opcionales para el tercer componente 73 son factores adicionales, como la luz ambiental, las distancias de trabajo, la genética, etc. Estos factores pueden influir en el riesgo de miopía. Por ejemplo, un factor genético puede indicar que un usuario en particular tiene un mayor riesgo de miopía. Esto podría conducir a un indicador de mayor riesgo.
En un cuarto componente 78, el indicador de riesgo se determina basándose en la salida del tercer componente 76. Como se muestra en la Fig. 7, el indicador de riesgo se determina basándose en el primer valor de distancia t<e>(t) y el segundo valor de distancia d<p>(t). Además, los parámetros opcionales discutidos anteriormente pueden tener una influencia en la determinación del indicador de riesgo, tal como la geometría del ojo, los parámetros de salida del sensor de contexto y/o los factores adicionales. Los detalles sobre la determinación del indicador de riesgo se describen anteriormente con respecto a las otras realizaciones.
A continuación, se describen ejemplos y detalles del modelo empleado en la unidad de control con referencia a las Figuras 8 a 13.
La Fig. 8 ilustra la supervisión del desajuste de acomodación con un sistema de sensor de distancia doble como se describe con respecto a la realización de la Fig. 6. El primer sensor de distancia 54a está dirigido hacia adelante y alineado con la visión central, el segundo sensor de distancia 54b está dirigido 30 grados hacia abajo y monitorea la demanda de visión periférica. En otras palabras, el primer valor de distancia d<e>(t) también se denomina "respuesta de acomodación" y el segundo valor de distancia d<p>(t) también se denomina "demanda de acomodación". El ejemplo de la Fig. 8 muestra un episodio de trabajo con un ordenador de escritorio con una distancia para monitorear alrededor de 0,8 a 1,0 metros. El segundo sensor de distancia 54b normalmente mide la distancia al mismo monitor, lo que da como resultado un error de acomodación de referencia de 0,2-0,3 D; sin embargo, también detecta distancias a los objetos en las manos del usuario, o escritorio, lo que da como resultado errores que alcanzan hasta a 10 dioptrías, que se integran para producir una estimación del riesgo de progresión de la miopía. Cabe señalar que, en el presente ejemplo, el error de acomodación (o falta de coincidencia entre el primer valor de distancia y el segundo valor de distancia) se indica en dioptrías (1/m).
La Fig. 9 describe el concepto de un integrador de riesgos que puede ser empleado por cualquiera de las unidades de control descritas en el presente documento (en particular, por una unidad de control de los dispositivos mostrados en la Fig. 5 y/o la Fig. 6). Según la Fig. 9, el modelo de efecto acumulativo del riesgo de miopía incluye un mecanismo de reinicio. Se ha demostrado en estudios con animales que un breve período de ausencia del error de acomodación hipermétrope (visión clara) puede neutralizar el efecto acumulado del desenfoque hipermétrope. Este efecto se puede tener en cuenta mediante la introducción de una ventana de integración, por ejemplo, en forma de un integrador con fugas que se carga lentamente con desenfoque hipermétrope y se descarga relativamente más rápido en ausencia de desenfoque hipermétrope.
En una implementación, una puntuación de riesgo puede ser una variable acumuladora R con valor de número entero no negativo que se incrementa en un primer valor (por ejemplo, 1) después de cada minuto completo de desenfoque hipermétrope sostenido (D) por encima de un primer umbral definido (D1). Al mismo tiempo, cada minuto de desenfoque hipermétrope por debajo de un segundo umbral definido D2 (inferior al primer umbral D1 > D2) da como resultado una disminución de la variable acumuladora R en un segundo valor, que se espera que sea mayor en valor absoluto que el primer valor (por ejemplo, 5). Esto supone que el desenfoque está firmado con el valor positivo correspondiente al desenfoque hipermétrope y negativo al miope.
Dado que R no es negativa, disminuirla solo puede llevarla al valor mínimo de cero, por lo que un período sostenido de visión clara o desenfoque miope solo mantiene la R acumuladora al mínimo, lo que implica ausencia de efecto preventivo de visión clara o desenfoque miope.
En otra implementación de la variable integradora de riesgos, R tiene un valor real y no negativo y se ajusta en cada paso de tiempo i según la siguiente regla:
donde R > 0
R (i) es una variable acumuladora de riesgo en el paso de tiempo i, R (i-1) es la misma variable en el paso de tiempo anterior, D (i) es el desenfoque hipermétrope de valor real y f (D) es una función de respuesta.
La función de respuesta puede tener la forma de una función escalonada como se muestra en la Fig. 10:
f(D) = A para D > D1 (carga de desenfoque hipermétrope) y
f(D) = -B para D < D2 (visión clara y descarga de desenfoque miope),
f(D) = 0 para D2 < D < D1 (zona de indeterminación/insensibilidad),
donde
D2 < D1 son valores umbral predefinidos y
A,B > 0 (valores predefinidos).
La función de respuesta puede ser más elaborada para incluir una dependencia lineal y una saturación como se muestra en la Fig. 11:
f(D) = A para D1' < D (saturación de carga de desenfoque hipermétrope)
f(D) = a(D-D0) para D0 < D < D1' (carga de desenfoque hipermétrope lineal)
f(x) = - p(D-D0) para D2' < D < D0 (visión clara lineal/descarga de desenfoque miope),
f(x) = -B para D < D2' (visión clara de saturación/descarga de desenfoque miope), donde
D2'<D0 < D1' son valores umbral y
a,p,A,B > 0 y A = a(D1'-D0) y B = - P(D2'-D0).
La función de respuesta puede incluir dependencia lineal, saturación y zona de insensibilidad como se muestra en la Fig. 12:
f(D) = A para D1' < D (saturación de carga de desenfoque hipermétrope)
f(D) = a(D-D1) para D1 < D < D1' (carga de desenfoque hipermétrope lineal)
f(D) = 0 para D1 < D < D2 (zona de indeterminación/insensibilidad),
f(x) = - p(D-D2) para D2' < D < D2 (visión clara lineal/descarga de desenfoque miope),
f(x) = -B para D < D2' (visión clara de saturación/descarga de desenfoque miope), donde
D2' < D2 < D1 < D1' son valores umbral y
a,p,A,B > 0 y A = a(D1'-D1) y B = - P(D2'-D2).
La función de respuesta puede tener una forma de función sigmoidea/logística, tangente hiperbólica, unidad lineal rectificada, etc. o cualquier combinación. Un ejemplo de una función sigmoidea se muestra, por ejemplo, en la Fig. 13. En la descripción anterior y en las figuras, se utilizan los mismos números de referencia para características o unidades correspondientes de diferentes realizaciones. Sin embargo, los detalles expuestos con respecto a una de estas características o unidades también son válidos para las características de otras realizaciones que tienen el mismo signo de referencia. Además, la presente invención no se limita a las realizaciones descritas anteriormente, que son meros ejemplos de cómo podría llevarse a cabo la presente invención. La técnica de la descripción anterior y, en particular, los componentes de la unidad de control 70 también pueden realizarse en forma de un producto de programa informático.

Claims (13)

REIVINDICACIONES
1. Un sistema para determinar un indicador de riesgo de miopía, comprendiendo el sistema:
un dispositivo portátil (50) configurado para acoplarse al cuerpo de un usuario, comprendiendo el dispositivo portátil (50) al menos un sensor de distancia (54; 54a, 54b) configurado para determinar al menos un primer valor de distancia indicativo de una distancia entre el dispositivo portátil (50) y un objeto ubicado en una zona de visión central del usuario y un segundo valor de distancia indicativo de una distancia entre el dispositivo portátil (50) y un objeto ubicado en una zona de visión periférica del usuario;
una unidad de control (70) configurada para determinar, basándose en el primer valor de distancia y el segundo valor de distancia, un indicador de riesgo de miopía, de manera que una mayor disparidad entre el primer valor de distancia y el segundo valor de distancia conduce a un indicador de riesgo que indica un mayor riesgo de miopía.
2. El sistema según la reivindicación 1, en el que el dispositivo portátil (50) comprende un primer sensor de distancia dirigido en una dirección central hacia la zona de visión central del usuario, en el que el primer sensor de distancia está configurado para determinar el primer valor de distancia, y un segundo sensor de distancia dirigido en una dirección periférica hacia la zona de visión periférica del usuario, en el que el segundo sensor de distancia está configurado para determinar el segundo valor de distancia.
3. El sistema según la reivindicación 1, en el que el sensor de distancia comprende una cámara que tiene un campo de visión que incluye la zona de visión central y la zona de visión periférica, en la que el sensor de distancia está configurado para determinar el primer valor de distancia y el segundo valor de distancia basándose en una o más imágenes capturadas por la cámara.
4. El sistema según la reivindicación 1, en el que la unidad de control (70) está configurada para identificar el primer valor de distancia durante un período de fijación, cuando una variabilidad de las mediciones de distancia del sensor de distancia (54; 54a) está por debajo de un primer umbral predefinido durante intervalos de tiempo que superan un segundo umbral predefinido y el segundo valor de distancia se identifica fuera del período de fijación.
5. El sistema según la reivindicación 1, en el que el dispositivo portátil (50) comprende un sensor de movimiento, y en el que la unidad de control (70) está configurada para identificar períodos de fijación como períodos con un movimiento por debajo de un primer umbral predefinido durante intervalos de tiempo que exceden un segundo umbral predefinido e identificar el primer valor de distancia durante uno de los períodos de fijación y para identificar el segundo valor de distancia fuera de los períodos de fijación.
6. El sistema según cualquiera de las reivindicaciones 1, 4 o 5, en el que el dispositivo portátil (50) incluye exactamente un sensor de distancia (54) para determinar exactamente un valor de distancia en un momento dado, de modo que exactamente un sensor de distancia (54) esté configurado para determinar el primer valor de distancia y el segundo valor de distancia en momentos diferentes.
7. El sistema según la reivindicación 1, en el que la unidad de control (70) está configurada para determinar una duración acumulada en la que la disparidad entre el primer valor de distancia y el segundo valor de distancia está por encima de un valor umbral predefinido dentro de un período predeterminado, y para determinar el indicador de riesgo tal que una mayor duración acumulada conduce a un indicador de riesgo que indica un mayor riesgo de miopía.
8. El sistema según cualquiera de las reivindicaciones 1 a 7, en el que el dispositivo portátil (50) comprende al menos un sensor adicional configurado para generar datos de sensor adicionales.
en el que la unidad de control (70) está configurada para determinar, basándose en los datos del sensor adicional y basándose en una salida del al menos un sensor de distancia (54; 54a, 54b), el primer valor de distancia y el segundo valor de distancia, y, opcionalmente,
en el que el sensor adicional comprende al menos uno de un sensor de orientación para determinar una orientación del dispositivo portátil (50), un dispositivo sensor de posición para determinar una posición del dispositivo portátil (50) y un sensor de aceleración para determinar una aceleración del dispositivo portátil (50).
9. El sistema según cualquiera de las reivindicaciones 1 a 8, en el que el dispositivo portátil (50) comprende un dispositivo de seguimiento ocular para determinar una dirección de visión de un ojo (2) del usuario y, opcionalmente,
en el que la unidad de control (70) está configurada para determinar, basándose en la dirección de visión determinada y basándose en una salida del al menos un sensor de distancia (54; 54a, 54b), el primer valor de distancia para indicar una distancia a un objeto ubicado en un eje óptico del ojo (2) y el segundo valor de distancia para indicar una distancia a un objeto ubicado en una dirección periférica que forma un ángulo predefinido mayor que cero con respecto al eje óptico del ojo (2).
10. El sistema según cualquiera de las reivindicaciones 1 a 9, en el que
el dispositivo portátil (50) comprende además un sensor de luz para determinar una intensidad y/o contenido espectral de la luz, y
la unidad de control (70) está configurada para determinar el indicador de riesgo en función de la intensidad y/o el contenido espectral de la luz.
11. El sistema según cualquiera de las reivindicaciones 1 a 10, en el que la unidad de control (70) está configurada además para determinar el indicador de riesgo en función de un tipo de actividad detectada por el dispositivo portátil (50).
12. El sistema según cualquiera de las reivindicaciones 1 a 11, en el que el dispositivo portátil (50) comprende la unidad de control (70).
13. Un producto de programa informático que comprende partes de código de programa para hacer que el sistema según la reivindicación 1 ejecute las siguientes etapas:
determinar al menos el primer valor de distancia indicativo de la distancia entre el dispositivo portátil (50) unido al cuerpo del usuario y el objeto ubicado en la zona de visión central del usuario y el segundo valor de distancia indicativo de la distancia entre el dispositivo portátil (50) y el objeto ubicado en la zona de visión periférica del usuario;
determinar, basándose en el primer valor de distancia y el segundo valor de distancia, el indicador de riesgo de miopía, de modo que una mayor disparidad entre el primer valor de distancia y el segundo valor de distancia conduce a un indicador de riesgo que indica un mayor riesgo de miopía.
ES19184427T 2019-07-04 2019-07-04 Técnica para determinar un indicador de riesgo de miopía Active ES2965618T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP19184427.3A EP3760102B1 (en) 2019-07-04 2019-07-04 Technique for determining a risk indicator for myopia

Publications (1)

Publication Number Publication Date
ES2965618T3 true ES2965618T3 (es) 2024-04-16

Family

ID=67180652

Family Applications (1)

Application Number Title Priority Date Filing Date
ES19184427T Active ES2965618T3 (es) 2019-07-04 2019-07-04 Técnica para determinar un indicador de riesgo de miopía

Country Status (7)

Country Link
US (1) US20220354436A1 (es)
EP (1) EP3760102B1 (es)
JP (1) JP2022539261A (es)
KR (1) KR20220053544A (es)
CN (1) CN114080179A (es)
ES (1) ES2965618T3 (es)
WO (1) WO2021001120A1 (es)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230081566A1 (en) * 2021-09-03 2023-03-16 Johnson & Johnson Vision Care, Inc. Systems and methods for predicting myopia risk
CN115137314B (zh) * 2022-09-02 2022-11-15 首都医科大学附属北京同仁医院 近视风险评估方法、装置及穿戴设备
CN115547497B (zh) * 2022-10-09 2023-09-08 湖南火眼医疗科技有限公司 基于多源数据的近视防控系统及方法
CN117095821B (zh) * 2023-10-20 2024-02-20 京东方艺云(杭州)科技有限公司 一种近视风险等级的预测方法、装置、电子设备及介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI588560B (zh) * 2012-04-05 2017-06-21 布萊恩荷登視覺協會 用於屈光不正之鏡片、裝置、方法及系統
US9541773B2 (en) * 2012-10-17 2017-01-10 Brien Holden Vision Institute Lenses, devices, methods and systems for refractive error
KR102256992B1 (ko) * 2013-04-25 2021-05-27 에씰로 앙터나시오날 착용자에게 적응된 헤드 장착형 전자-광학 장치를 제어하는 방법

Also Published As

Publication number Publication date
JP2022539261A (ja) 2022-09-07
KR20220053544A (ko) 2022-04-29
CN114080179A (zh) 2022-02-22
WO2021001120A1 (en) 2021-01-07
EP3760102B1 (en) 2023-11-08
US20220354436A1 (en) 2022-11-10
EP3760102A1 (en) 2021-01-06

Similar Documents

Publication Publication Date Title
ES2965618T3 (es) Técnica para determinar un indicador de riesgo de miopía
US11561615B2 (en) Multimodal eye tracking
US10307053B2 (en) Method for calibrating a head-mounted eye tracking device
US10690945B2 (en) Method for optimizing an optical lens equipment for a wearer
JP6106684B2 (ja) 高分解能視線検出のためのシステムおよび方法
ES2774906T3 (es) Dispositivo y método para medir distancias
JP6159263B2 (ja) 照射特性を調整可能にして少なくとも1つの眼における少なくとも1つのパラメータを捕捉する光学的測定装置及び方法
CN103091843B (zh) 透视显示器亮度控制
US10599215B2 (en) Off-axis eye tracker
JP6631951B2 (ja) 視線検出装置及び視線検出方法
WO2018184072A1 (en) Systems, devices and methods for slowing the progression of a condition of the eye and/or improve ocular and/or other physical conditions
US20220280035A1 (en) Device and method for mapping of visual scene onto projection surface
US10163014B2 (en) Method for monitoring the visual behavior of a person
US20210235987A1 (en) Ocular biometry systems and methods
ES2444542A1 (es) Aparato para la medición de la topografía y espesor de la córnea y procedimiento de medida empleado