ES2877350T3 - Procedimientos para la detección de afecciones cognitivas y del desarrollo - Google Patents

Procedimientos para la detección de afecciones cognitivas y del desarrollo Download PDF

Info

Publication number
ES2877350T3
ES2877350T3 ES14721043T ES14721043T ES2877350T3 ES 2877350 T3 ES2877350 T3 ES 2877350T3 ES 14721043 T ES14721043 T ES 14721043T ES 14721043 T ES14721043 T ES 14721043T ES 2877350 T3 ES2877350 T3 ES 2877350T3
Authority
ES
Spain
Prior art keywords
subject
data
fixation
eye
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14721043T
Other languages
English (en)
Inventor
Ami Klin
Warren Jones
Peter Lewis
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Childrens Healthcare of Atlanta Inc
Original Assignee
Childrens Healthcare of Atlanta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Childrens Healthcare of Atlanta Inc filed Critical Childrens Healthcare of Atlanta Inc
Application granted granted Critical
Publication of ES2877350T3 publication Critical patent/ES2877350T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/005Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0083Apparatus for testing the eyes; Instruments for examining the eyes provided with means for patient positioning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0091Fixation targets for viewing direction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Developmental Disabilities (AREA)
  • Pathology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Educational Technology (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

Un procedimiento para recopilar datos de equipos de rastreo ocular, comprendiendo el procedimiento: causar la visualización de una primera imagen visual; después de que se muestra la primera imagen visual, provocar la visualización de un objetivo de fijación en lugar de la primera imagen visual; recibir datos del equipo de seguimiento ocular que indican el movimiento ocular de un sujeto con respecto al objetivo de fijación mostrado; y en respuesta a recibir los datos que indican el movimiento ocular del sujeto, provocar la visualización de una segunda imagen visual en lugar del objetivo de fijación.

Description

DESCRIPCIÓN
Procedimientos para la detección de afecciones cognitivas y del desarrollo
Referencia cruzada a solicitud relacionada
[0001] La presente solicitud reivindica el beneficio de la solicitud provisional estadounidense N.° 61/775.880, copendiente y comúnmente cedida, presentada el 11 de marzo de 2013.
Antecedentes
[0002] Los trastornos del desarrollo como los trastornos del espectro autista (TEA) afectan a casi el 14 % de los niños en los Estados Unidos. Los procedimientos de diagnóstico para afecciones como el TEA varían considerablemente, e incluso el uso de herramientas de «mejores prácticas» proporciona una sensibilidad y una especificidad bastante pobres a las afecciones. El diagnóstico tardío de discapacidades del desarrollo reduce la efectividad de los tratamientos y a menudo produce malos resultados. Además, los proveedores de tratamiento (por ejemplo, pediatras u otros profesionales médicos) carecen de herramientas adecuadas para medir la evolución en estas afecciones.
Resumen
[0003] La invención se define por la reivindicación independiente, a la cual debe hacerse referencia. Las características preferidas se establecen en las reivindicaciones dependientes. Los presentes sistemas, dispositivos y procedimientos se refieren generalmente a la detección de afecciones cognitivas o de desarrollo, que incluyen TEA, en sujetos que utilizan el análisis de datos de seguimiento ocular generados en respuesta a la visualización de estímulos visuales predeterminados específicos (por ejemplo, uno o más vídeos) del sujeto. Además, tales sistemas, dispositivos y procedimientos pueden aplicarse para medir cuantitativamente y monitorizar la sintomatología de la afección o afecciones respectivas y, en ciertos casos, proporcionar información prescriptiva más precisa y pertinente a pacientes, familias y prestadores de servicios. Según aspectos adicionales, los sistemas, dispositivos y procedimientos descritos se pueden usar para predecir el resultado en sujetos con autismo (proporcionando así poder prescriptivo) mientras que también proporcionan medidas diagnósticas y prescriptivas similares para discapacidades de desarrollo globales.
[0004] Según un aspecto, se proporciona un procedimiento para recopilar datos del equipo de seguimiento ocular, el procedimiento comprende provocar la visualización de una primera imagen visual, después de que se muestra la primera imagen visual, provocar la visualización de un objetivo de fijación en lugar de la primera imagen visual, recibir datos del equipo de seguimiento ocular que indican el movimiento ocular de un sujeto con respecto al objetivo de fijación mostrado, y en respuesta a recibir los datos que indican el movimiento ocular del sujeto, provocar la visualización de una segunda imagen visual en lugar del objetivo de fijación. En determinadas implementaciones, el objetivo de fijación desencadena el movimiento ocular reflexivo del sujeto. En determinadas implementaciones, el movimiento ocular del sujeto se provoca sin instrucción verbal. El procedimiento puede incluir además identificar una fijación a partir de los datos que indican el movimiento ocular del sujeto, calcular una coordenada de ubicación de fijación para la fijación y determinar si la coordenada de ubicación de fijación está dentro de un umbral de proximidad de una coordenada de ubicación objetivo conocida para el objetivo de fijación mostrado. En determinadas implementaciones, los datos que indican el movimiento ocular del sujeto se rechazan con fines de calibración si la coordenada de ubicación de fijación no está dentro del umbral de proximidad. El procedimiento puede incluir además recibir una indicación manual de un operador que identifique la fijación a partir de una fijación observada por el operador. El procedimiento puede incluir además recibir una indicación manual de un operador que corrobore la fijación identificada con una fijación observada por el operador.
[0005] En determinadas implementaciones, el procedimiento incluye además determinar si los datos recibidos indican cualquiera de un parpadeo, sacudida ocular o movimiento fino de seguimiento durante el movimiento ocular del sujeto con respecto al objetivo de fijación mostrado. Los datos que indican el movimiento ocular del sujeto pueden rechazarse con fines de calibración, al menos en parte, si los datos recibidos indican cualquiera de un parpadeo, sacudida o movimiento fino de seguimiento durante el movimiento ocular del sujeto con respecto al objetivo de fijación mostrado. En determinadas implementaciones, los datos que indican el movimiento ocular del sujeto se rechazan con fines de calibración si los datos no incluyen una fijación. En determinadas implementaciones, la primera imagen visual es diferente de la segunda imagen visual. En determinadas implementaciones, la primera imagen visual es la misma que la segunda imagen visual.
[0006] En determinadas implementaciones, el procedimiento incluye además provocar la visualización de uno o más objetivos de fijación posteriores en lugar de la segunda imagen visual. En determinadas implementaciones, se muestra una imagen visual respectiva después de que se muestra cada objetivo de fijación posterior respectivo. Cada imagen visual respectiva puede ser diferente de la primera y segunda imágenes visuales, o cada imagen visual respectiva puede ser igual que la primera y segunda imágenes visuales. En determinadas implementaciones, cada objetivo de fijación posterior respectivo tiene una coordenada de ubicación objetivo respectiva. En determinadas implementaciones, el objetivo de fijación se muestra en respuesta a una indicación manual de un operador que observa el sujeto. En determinadas implementaciones, la imagen visual se selecciona con base en un atributo del sujeto. El atributo puede ser una edad del sujeto. En determinadas implementaciones, la primera y segunda imágenes visuales son imágenes visuales dinámicas. En determinadas implementaciones, el procedimiento se utiliza para la evaluación, detección, monitorización o diagnóstico de afecciones cognitivas o de desarrollo en el sujeto.
[0007] Las variaciones y modificaciones de estas realizaciones se les ocurrirán a los expertos en la materia después de revisar esta descripción. Las características y aspectos anteriores pueden implementarse, en cualquier combinación y subcombinación (incluidas múltiples combinaciones y subcombinaciones dependientes), con una o más características adicionales descritas en esta invención. Las diversas características descritas o ilustradas en esta invención, que incluyen cualquiera de sus componentes, pueden combinarse o integrarse en otros sistemas. Además, ciertas características pueden omitirse o no implementarse.
Breve descripción de los dibujos
[0008] Lo anterior y otros objetivos y ventajas serán evidentes al considerar la siguiente descripción detallada, tomada junto con los dibujos adjuntos, en los que caracteres de referencia similares se refieren a partes similares en todo momento, y en los que:
la figura 1 muestra un diagrama de bloques de un sistema ilustrativo que incluye un dispositivo e infraestructura de datos de soporte para la entrega de un resultado de diagnóstico o prescriptivo según determinadas realizaciones de la presente descripción;
la figura 2 muestra vistas en perspectiva delantera y trasera, respectivamente, de un dispositivo ilustrativo para la evaluación, detección, monitorización o diagnóstico de afecciones cognitivas o de desarrollo en un sujeto; las figuras 3A a 3F muestran vistas en perspectiva de realizaciones alternativas del dispositivo de la figura 2 según determinadas realizaciones de la presente descripción;
la figura 4 muestra un diagrama de flujo ilustrativo para la recopilación de datos según determinadas realizaciones de la presente descripción;
las figuras 5A a 5L muestran una serie de pantallas de visualización ilustrativas que se presentan a un operador durante la recopilación de datos según determinadas realizaciones de la presente descripción;
la figura 6 muestra un diagrama de flujo ilustrativo con funciones implementadas por ordenador para calibrar los datos de seguimiento ocular según determinadas realizaciones de la presente descripción;
la figura 7 muestra un diagrama de flujo ilustrativo con funciones implementadas por ordenador para validar los datos de seguimiento ocular según determinadas realizaciones de la presente descripción;
la figura 8 muestra un diagrama de flujo ilustrativo con funciones implementadas por ordenador para detectar si un punto de calibración potencial incluye una fijación según determinadas realizaciones de la presente descripción; las figuras 9 y 10 muestran imágenes representativas de evaluación y corrección de inexactitudes de calibración basadas en funciones y criterios implementados por ordenador según determinadas realizaciones de la presente descripción;
la figura 11 muestra un diagrama de bloques de un sistema ilustrativo para transferir datos recopilados según determinadas realizaciones de la presente descripción;
la figura 12 muestra un diagrama de flujo ilustrativo para respaldar las etapas de recopilación y procesamiento y análisis de datos utilizando una base de datos centralizada según determinadas realizaciones de la presente descripción;
la figura 13 muestra un diagrama de flujo ilustrativo para procesar los datos recopilados según determinadas realizaciones de la presente descripción:
la figura 14 muestra un diagrama de bloques de un sistema ilustrativo para proporcionar resultados del análisis de datos según determinadas realizaciones de la presente descripción; y
la figura 15 muestra representaciones ilustrativas de datos generados por ordenador de la evolución cognitiva o del desarrollo de un sujeto con respecto a otros perfiles cognitivos o de desarrollo según determinadas realizaciones de la presente descripción.
Descripción detallada
[0009] Para proporcionar una comprensión general de los sistemas, dispositivos y procedimientos descritos en esta invención, se describirán determinadas realizaciones ilustrativas. Aunque las realizaciones y características en esta invención se describen específicamente para su uso en relación con la recopilación y análisis de datos de seguimiento ocular de sujetos para la evaluación, detección, monitorización o diagnóstico de trastornos del espectro autista (TEA), se entenderá que los sistemas, dispositivos y procedimientos también pueden aplicarse a otros trastornos cognitivos o del desarrollo, así como otras afecciones, que incluyen, de modo no taxativo, trastornos del lenguaje, discapacidades intelectuales, discapacidades del desarrollo con o sin la presencia de trastornos genéticos conocidos, así como trastorno por déficit de atención con hiperactividad (TDAH), trastorno por déficit de atención (TDA), trastorno por estrés postraumático (TEPT), traumatismo craneal, conmoción cerebral, lesiones deportivas y demencia. Se entenderá que tales datos, si no indican medidas para un trastorno, pueden proporcionar una medida del grado de tipicidad del desarrollo normativo, proporcionando una indicación de variabilidad en el desarrollo típico. Además, todos los componentes y otras características descritas a continuación pueden combinarse entre sí de cualquier manera adecuada y pueden adaptarse y aplicarse a sistemas fuera del diagnóstico médico. Por ejemplo, los estímulos visuales interactivos de la presente descripción se pueden utilizar como una herramienta terapéutica. Además, los datos recopilados pueden proporcionar medidas de ciertos tipos de estímulos visuales a los que los sujetos atienden preferentemente. Tales medidas de preferencia tienen aplicaciones tanto dentro como fuera de los campos del diagnóstico médico y el tratamiento, incluso, por ejemplo, publicidad u otras industrias donde los datos relacionados con la preferencia de estímulos visuales son de interés.
[0010] En caso de conflicto, prevalecerá la presente memoria descriptiva, incluidas sus definiciones específicas. A lo largo de esta memoria descriptiva, se entenderá que el término «comprender» o variaciones tales como «comprende» o «que comprende», implican la inclusión de un número entero indicado (o componentes) o grupo de números enteros (o componentes), pero no la exclusión de cualquier otro número entero (o componente) o grupo de números enteros (o componentes). Las formas singulares «un», «una» y «el/la» incluyen los plurales, a menos que el contexto indique claramente lo contrario. Además, los términos «paciente», «participante» y «sujeto» se usan indistintamente a lo largo de esta descripción. Tal como se usa en esta invención, una «fijación» es una forma corta para la fijación visual. Una fijación visual es un tipo de movimiento ocular utilizado para estabilizar la información visual en la retina.
[0011] Los sistemas, dispositivos y procedimiento descritos en esta invención para la detección de afecciones cognitivas o de desarrollo, que incluyen TEA, pueden usarse junto con otras técnicas para procesar y analizar los datos de seguimiento ocular recopilados, incluidos los descritos, por ejemplo, en la patente estadounidense n.° 7.922.670, presentada el 23 de febrero de 2006, y titulada «System and Method for Quantifying and Mapping Visual Salience», y la solicitud de patente estadounidense n.° 14/103.640, presentada el 11 de diciembre de 2013, y titulada «Systems and Methods for Detecting Blink Inhibition as a Marker of Engagement and Perceived Stimulus Salience».
[0012] La figura 1 muestra un diagrama de bloques de un sistema 10 que incluye un dispositivo 100 e infraestructura de datos de soporte para la entrega de un resultado de diagnóstico o prescriptivo según determinadas realizaciones. Como se ilustra, el sistema 10 generalmente se divide en cuatro partes (a veces también denominadas sistemas en esta invención) relacionadas con la recopilación de datos 20, el almacenamiento de datos 30, el procesamiento y análisis de datos 40 y los resultados de datos 50. En determinadas realizaciones, el sistema 10 se usa para diagnosticar afecciones cognitivas o de desarrollo, tales como TEA, en sujetos o pacientes. En particular, el sistema 10 permite el diagnóstico de TEA a una edad relativamente temprana, incluidos niños pequeños y bebés de tan solo seis meses o menos. En particular, los sistemas, dispositivos y procedimientos pueden recopilar de manera confiable datos de pacientes de cualquier edad, desde recién nacidos hasta ancianos, y usar esos datos recopilados para el diagnóstico de TEA u otras afecciones cognitivas o de desarrollo. Generalmente, el sistema 10 recopila y posteriormente analiza datos de seguimiento ocular para determinar el nivel de funcionamiento social de un sujeto. El sistema 10 no es invasivo. El procedimiento (también denominado «sesión») asociado con la recopilación de datos de seguimiento ocular puede ejecutarse durante cualquier cantidad de tiempo adecuada (por ejemplo, 15 minutos) e implica cuatro etapas principales correspondientes a las cuatro partes del sistema 10 mostradas en la figura 1 (es decir, el sistema de recopilación de datos 20, el sistema de almacenamiento de datos 30, el sistema de procesamiento y análisis de datos 40 y el sistema de resultados de datos 50).
[0013] Como descripción general, los primeros datos de seguimiento ocular se recopilan de un sujeto mientras ve estímulos visuales dinámicos (por ejemplo, películas) que representan interacciones sociales comunes (normalmente interacciones diádicas o triádicas) (recopilación de datos 20). Los estímulos mostrados al sujeto con fines de recopilación de datos pueden ser cualquier imagen visual adecuada (ya sea estática o dinámica), incluidas películas o vídeos, así como imágenes fijas o cualquier otro estímulo visual. Se entenderá que las películas o vídeos se mencionan únicamente a modo de ejemplo y que cualquier exposición de este tipo también se aplica a otras formas de estímulos visuales. Según el procedimiento, los datos de seguimiento ocular, así como cualquier otra información adecuada (por ejemplo, una lista de las películas que el sujeto vio), se transfieren a una base de datos segura (almacenamiento de datos 30). La base de datos está preferentemente alejada del dispositivo, para alojar y agregar datos recopilados de muchos dispositivos, pero se apreciará que en algunas realizaciones la base de datos puede encontrarse en el dispositivo. Después de esa transferencia, los datos se transfieren nuevamente a un ordenador de procesamiento central (alejado o en la misma zona que la base de datos y/o el dispositivo) y se procesan usando software personalizado escrito en cualquier lenguaje de programación adecuado (por ejemplo, Matlab) (procesamiento y análisis de datos 40). En esa etapa de procesamiento, los datos de un sujeto individual se comparan con un modelo estadístico. Esa comparación produce una medida (por ejemplo, una puntuación) del funcionamiento social basado en el propio punto de vista único del sujeto durante las películas que él o ella vio (resultados de datos 50). Esa puntuación se compara con el corte predeterminado u otros valores del modelo estadístico. En algunas realizaciones, el resultado de esa comparación es una determinación del diagnóstico de ese sujeto de una afección cognitiva o de desarrollo, que incluye TEA, así como un nivel de gravedad de la afección. En algunas realizaciones, el resultado de esa comparación es una medida de las habilidades cognitivas verbales o no verbales de un sujeto. En algunas realizaciones, el resultado de esa comparación es una medida del grado de tipicidad del desarrollo normativo, que proporciona una indicación de variabilidad en el desarrollo característico. Además, los resultados pueden usarse para monitorizar la efectividad del tratamiento a lo largo del tiempo de los sujetos afectados por TEA u otras afecciones cognitivas o del desarrollo. Los resultados del análisis y los propios archivos procesados se cargan posteriormente a una base de datos. Normalmente, los resultados se ponen a disposición del médico (por ejemplo, un pediatra u otro profesional médico) u otro cuidador del sujeto.
[0014] En algunas realizaciones, el sistema de recopilación de datos 20 incluye una mezcla de componentes de hardware y software. Estos componentes juntos presentan estímulos visuales y auditivos a los sujetos y recopilan datos de seguimiento ocular alineados temporalmente. El dispositivo 100 utilizado para la recopilación de datos está diseñado para promover la ubicación adecuada del sujeto (por ejemplo, con respecto al monitor del sujeto y la unidad de seguimiento ocular) mientras que también minimiza las distracciones visuales del campo de visión del sujeto. Determinados detalles de sistemas y dispositivos ejemplares para realizar los procedimientos de la presente descripción se describirán con referencia a las figuras indicadas a continuación.
[0015] La figura 2 muestra vistas en perspectiva delantera y trasera, respectivamente, del dispositivo 100 de la figura 1 según determinadas realizaciones. El dispositivo 100 se usa para la evaluación, detección, monitorización o diagnóstico de afecciones cognitivas o de desarrollo en un sujeto, incluido TEA. En algunas realizaciones, el dispositivo 100 se asienta sobre ruedas o rueditas 108 para una movilidad eficaz a través de una variedad de superficies. Cualquier componente adecuado con ruedas u otros componentes que faciliten el movimiento se puede usar en lugar de, o además de, las rueditas 108 para proporcionar movilidad. El dispositivo 100 está diseñado para moverse a través de pasillos y puertas estándar en las rueditas 108 y preferentemente tiene un peso (por ejemplo, aproximadamente 250 libras o menos) que permite la maniobrabilidad para operadores de todo tamaño y fuerza. Las rueditas 108 pueden incluir frenos para asegurar el dispositivo en su lugar cuando no se mueve.
[0016] El dispositivo 100 también incluye un asiento cómodo 101 (o dispositivo de soporte) para el sujeto, que tiene un sistema de posicionamiento o retención (por ejemplo, un cinturón de seguridad) para evitar la eyección involuntaria del asiento 101 durante la prueba. Se puede usar cualquier dispositivo de soporte adecuado para ubicar o sentar al sujeto durante el procedimiento, incluidos asientos de automóvil o sillas altas para bebés y niños pequeños, u otros tipos de dispositivos de soporte tales como sillas personalizadas para niños mayores y adultos. El dispositivo tiene un monitor o dispositivo de visualización 103 para ser visto por el sujeto de estímulos de prueba (incluidas imágenes visuales y objetivos de calibración/fijación) y un altavoz u otra fuente de estímulo de audio 106 para reproducir audio asociado con los estímulos de prueba. En algunas realizaciones, los altavoces están integrados con el monitor, aunque los componentes pueden proporcionarse por separado. La posición del monitor puede ser ajustable con respecto a cualquier eje del monitor (por ejemplo, ajuste vertical, ajuste horizontal y ajuste hacia o lejos del sujeto).
[0017] Tal como se muestra, el dispositivo 100 incluye además una unidad de seguimiento ocular o sensor 104 para detectar movimientos oculares de un sujeto en respuesta a un estímulo mostrado por el dispositivo de visualización 103, controles del operador 110 y un deflector o tabique 107 para una separación visual suficiente del sujeto de las distracciones en el campo de visión del sujeto. Los controles del operador 110 se proporcionan junto con un monitor del operador o dispositivo de visualización 109 que permite al operador observar al sujeto durante todo el procedimiento a través de una alimentación de una cámara de vídeo 105 que muestra al sujeto y se muestra en el monitor del operador 109. Por lo tanto, en algunas realizaciones, el operador puede estar ubicado de forma remota (por ejemplo, en una parte diferente de la misma habitación o en una habitación completamente diferente) del sujeto. El dispositivo 100 está provisto de un ordenador de control 111 para la recolección de seguimiento ocular y la presentación de estímulos y una unidad de suministro de energía 112 para alimentar los componentes del dispositivo 100. El dispositivo 100 es configurable para conectarse a una red en el consultorio o clínica del médico mediante conexión directa o inalámbrica. En determinadas realizaciones, el dispositivo 100 permite solo la comunicación de datos salientes para evitar la introducción de malware. En algunas realizaciones, el dispositivo 100 puede formarse usando una carcasa o estructura de marco que soporta los diversos componentes del dispositivo expuestos anteriormente.
[0018] El dispositivo de soporte o asiento 101 del dispositivo 100 puede ajustarse para ubicar al sujeto en una orientación con respecto al dispositivo de visualización 103 y el sensor de seguimiento ocular 104 que permite la recopilación de datos de movimiento ocular. Y el asiento 101, una vez ubicado, puede confinar al sujeto a esa orientación particular. Esto permite que el asiento funcione en posiciones repetibles (ya sea de sujeto a sujeto o para múltiples sesiones con el mismo sujeto). Por ejemplo, en algunas realizaciones, el dispositivo 100 funciona en dos modos (un «modo infantil» y un «modo niño pequeño») de modo que la orientación del monitor 103 y del asiento 101 pueda alojar niños pequeños (que, al igual que los adultos, prefieren sentarse en posición vertical) y bebés (que prefieren estar reclinados). Las posiciones dobles para bebés o niños pequeños/adultos se muestran en el inserto 15 para el sistema de recopilación de datos 20 de la figura 1. Debido a que hay muchas posiciones posibles que se pueden utilizar y que se pueden repetir de sujeto a sujeto, se entenderá que el asiento puede tener cualquier cantidad adecuada de «modos» y puede ser además posicionable/ajustable. Por ejemplo, el dispositivo 100 tiene un mecanismo giratorio 102 para la entrada/salida del sujeto que también puede usarse para orientar al sujeto con respecto al dispositivo de visualización 103 y la unidad de seguimiento ocular.
[0019] El dispositivo 100 de la figura 2 puede utilizarse para la recopilación de datos 20, descrita anteriormente, de modo que (1) un sujeto se siente frente a una pantalla de visualización (por ejemplo, un monitor informático) en la que se reproducen diversos vídeos dinámicos y otros estímulos para el sujeto, (2) un operador pueda controlar un software que (a) calibrará una unidad de seguimiento ocular para el sujeto, (b) validará que la calibración sea precisa y (c) recopilará datos de seguimiento ocular del sujeto mientras observa los vídeos dinámicos u otros estímulos visuales. Después de esta parte del procedimiento, denominada «recopilación de datos», los datos del sujeto pueden transferirse a una base de datos segura. La base de datos está preferentemente alejada del dispositivo, para alojar y agregar datos recopilados de muchos dispositivos, pero se apreciará que en algunas realizaciones una base de datos puede encontrarse en el dispositivo. En algunas realizaciones, la recepción de los datos recopilados por la base de datos inicia un procedimiento de procesamiento y análisis implementado por software automático en el que los datos individuales del sujeto se comparan con modelos de datos de seguimiento ocular que se generaron previamente a partir de datos de seguimiento ocular históricos. El resultado de la comparación es una medida diagnóstica y/o prescriptiva del funcionamiento del desarrollo del sujeto. Esos resultados pueden condensarse en un informe diagnóstico para uso por parte del médico del sujeto.
[0020] El operador del dispositivo (por ejemplo, un asistente médico u otro profesional médico) solo necesita una capacitación mínima para operar el dispositivo. El dispositivo está diseñado para permitir la ubicación adecuada repetible del sujeto frente a un dispositivo de visualización (por ejemplo, el dispositivo de visualización 103 de la figura 2). Después de introducir la información del operador y el sujeto en la plataforma de software personalizada que se ejecuta en el dispositivo, el software selecciona estímulos específicos para la edad (por ejemplo, películas) e instruye al operador que ubique el dispositivo de visualización delante del sujeto en la orientación adecuada. A continuación, se realiza un procedimiento de calibración para calibrar el sujeto al dispositivo de seguimiento ocular (por ejemplo, dispositivo de seguimiento ocular 104 de la figura 2). Después de una calibración válida (determinada por el software), el software comienza el procedimiento de recopilación de datos seleccionando vídeos que se reproducen para el sujeto a través del dispositivo de visualización, y se recopilan datos en bruto de seguimiento ocular (del sujeto moviendo los ojos en respuesta a películas predeterminadas u otros estímulos visuales). Tanto los datos de seguimiento ocular como la información relacionada con los estímulos (por ejemplo, una lista de los estímulos vistos por el sujeto) a continuación se transfieren a una base de datos segura para su procesamiento.
[0021] Las películas que se muestran a un sujeto pueden depender de la edad del sujeto. En algunas realizaciones, el dispositivo mide la cantidad de tiempo de fijación que un sujeto (ubicado en el asiento) pasa mirando los ojos, la boca o el cuerpo de un actor, y la cantidad de tiempo que el sujeto pasa mirando las áreas de fondo en el vídeo. Las escenas de vídeo, mostradas al sujeto a través del dispositivo de visualización, pueden representar escenas de interacción social (por ejemplo, un actor que mira directamente a la cámara, tratando de involucrar al sujeto de visualización, por ejemplo, o escenas de niños jugando). En algunas realizaciones, las escenas de vídeo pueden incluir otros estímulos adecuados que incluyen, por ejemplo, animaciones y tareas de visualización preferenciales. Las medidas del tiempo de fijación con respecto a ubicaciones particulares en el vídeo se relacionan con el nivel de desarrollo social y/o cognitivo de un sujeto. Por ejemplo, los niños entre 12 y 15 meses muestran una fijación bucal creciente y alternan entre la fijación ocular y bucal, como resultado de su etapa de desarrollo del lenguaje.
[0022] El análisis de los patrones de visualización del sujeto (durante las películas mostradas) se realiza para el diagnóstico y monitorización de afecciones cognitivas o de desarrollo, incluido el TEA. Durante este período de recopilación de datos, el sistema muestra periódicamente objetivos de calibración o fijación (que pueden estar animados) al sujeto. Estos datos se utilizan más adelante para verificar la exactitud. La metodología de prueba depende de que el sujeto esté despierto y mirando la pantalla. Tanto durante la calibración como durante los procedimientos de recopilación de datos, se presentan películas predeterminadas y/u otros estímulos visuales al sujeto a través del dispositivo de visualización. Estas películas y/u otros estímulos visuales pueden incluir actores humanos o animados que realizan movimientos manuales/faciales/corporales.
[0023] Cualquier unidad de rastreo ocular adecuada y software asociado se puede utilizar con los sistemas, dispositivos y procedimientos de la presente descripción. Por ejemplo, se pueden usar varias unidades de rastreo ocular disponibles comercialmente, incluidas aquellas unidades de rastreo ocular disponibles comercialmente de SensoMotoric Instruments (por ejemplo, modelo RED-m), IS- CAN Inc. (por ejemplo, modelo RK-464) y Tobii Technology (por ejemplo, modelo X60), o cualquier otra unidad de rastreo ocular adecuada de otros fabricantes. En determinadas realizaciones, el código de software maestro tal como el desarrollado por los solicitantes de los sistemas, dispositivos y procedimientos descritos en esta invención se usa para supervisar o controlar las etapas del software de seguimiento ocular y se utiliza adicionalmente para realizar otras funciones. Los ejemplos de tales funciones incluyen presentar una interfaz al operador que muestra el nombre del sujeto, la fecha de nacimiento, etc., información relacionada con los estímulos (por ejemplo, películas) que se muestran al sujeto y similares. En algunas realizaciones, el código de software maestro interactúa con el software de seguimiento ocular a través de un kit de desarrollo de software (SDK).
[0024] Según algunas realizaciones, el ordenador que facilita la sesión de prueba diagnóstica es un ordenador de propósito especial con altas capacidades de procesamiento (por ejemplo, debido al volumen relativamente alto de vídeo involucrado en el procedimiento de prueba). Los datos de seguimiento ocular son recopilados por el ordenador y almacenados en un archivo de datos (por ejemplo, como archivos .idf) que a continuación se transmiten a través de una conexión de red segura desde el consultorio del médico a una base de datos central y un ordenador de procesamiento para su análisis. En la instalación de procesamiento, el análisis fuera de línea de los datos se puede realizar mediante el análisis de los datos de seguimiento ocular (recibidos de un sujeto evaluado en el consultorio del médico) en relación con un modelo creado a partir de datos históricos (por ejemplo, utilizando datos recopilados previamente de sujetos que consta que tienen TEA u otras afecciones cognitivas o de desarrollo y también controles saludables). Tal como se expone a lo largo de esta descripción, sin embargo, se entenderá que en algunas realizaciones las etapas de procesamiento y análisis pueden ser realizadas en tiempo real durante la sesión por un ordenador que se encuentra en el dispositivo.
[0025] Hay muchas modificaciones o alteraciones posibles que se pueden hacer al dispositivo 100 sin afectar la manera en que se recopilan, almacenan, analizan y procesan los datos de seguimiento ocular. En cada caso, el dispositivo modificado o alterado proporciona la recopilación de datos y la ubicación adecuada del sujeto (por ejemplo, con respecto al monitor del sujeto y la unidad de seguimiento ocular) mientras que minimiza las distracciones visuales del campo de visión del sujeto. Las figuras 3A a 3F muestran vistas en perspectiva de realizaciones alternativas (A) a (F) del dispositivo 100 de la figura 2. Por ejemplo, en algunas realizaciones, el dispositivo está estacionario (es decir, el dispositivo no es móvil). El dispositivo puede estar asegurado permanente o semipermanentemente al suelo (por ejemplo, fijado en su lugar en uso), o el dispositivo puede no incluir rueditas o ruedas, y el peso del dispositivo lo mantiene así en su lugar. Como se muestra en las figuras 3A a 3E, los dispositivos respectivos no incluyen rueditas o ruedas. En algunas realizaciones, el dispositivo de soporte (por ejemplo, el asiento 101 de la figura 2) puede separarse de su dispositivo respectivo (independientemente de que el dispositivo en sí sea móvil o estacionario). Por ejemplo, el asiento en el que se ubica el sujeto puede ajustarse de forma deslizable a través de un mecanismo de rodadura. Como se muestra en la figura 3E, el dispositivo 240 es estacionario, pero el dispositivo de soporte 242 es móvil. Como otro ejemplo, en la figura 3F, el dispositivo 250 es móvil y el dispositivo de soporte 252 también es móvil.
[0026] Según determinadas realizaciones, cualquiera de los dispositivos de la presente descripción, incluidos los descritos anteriormente en las figuras 3A a 3F, puede incluir (1) un asiento para el sujeto que se puede ajustar en función de la edad del sujeto, (2) un mecanismo para girar el asiento hacia o lejos del dispositivo, (3) un dispositivo de visualización (que, manualmente o usando un motor eléctrico, se puede ajustar para diferentes alturas del sujeto) para mostrarle películas al sujeto u otros estímulos visuales, (4) una unidad de seguimiento ocular que enfoca una cámara en los ojos del sujeto y los ilumina con una cantidad segura de energía infrarroja u otra energía electromagnética, (5) una cámara para uso del operador para monitorizar el bienestar general y el cumplimiento del sujeto, (6) uno o más altavoces que producen sonido, (7) un sistema mecánico (opcionalmente alimentado eléctricamente) para ubicar el dispositivo de visualización, la unidad de seguimiento ocular y cualquier otro componente, (8) rueditas giratorias con frenos, (9) un monitor (por ejemplo, pantalla táctil) para un operador que opera el dispositivo, (10) un teclado y un ratón para el operador, (11) un ordenador de control con software personalizado, (12) una fuente de alimentación para suministrar energía a los diversos componentes del dispositivo y (13) un marco mecánico soldado y recubierto para mantener todos los componentes juntos.
[0027] En algunas realizaciones, los componentes anteriores (1)-(13) están alineados en un marco de referencia común (por ejemplo, el marco mecánico recubierto y soldado mencionado anteriormente o cualquier otra carcasa o recinto adecuado) de modo que puedan colocarse o transportarse juntos. Este marco de referencia puede ser una estructura de soporte metálica estática diseñada a medida. En algunas realizaciones, la estructura de soporte metálica comprende miembros tubulares soldados dispuestos vertical, horizontal y/o angularmente para crear el marco de soporte y la región de prueba; el asiento se coloca dentro de la región de prueba con el sujeto ubicado cerca del dispositivo de visualización, pero protegido por la mayoría de las distracciones externas mediante un deflector o tabique. El operador del dispositivo puede permanecer fuera del marco en una posición como para supervisar al sujeto a través de un ordenador del operador y observar al sujeto a través de la cámara de monitorización. El sujeto (ubicado en el dispositivo de soporte) preferentemente no puede ver al operador porque la vista del sujeto está obstruida por el tabique. El tabique puede estar formado de un material similar al plástico que es fácil de limpiar y que se moldea térmicamente al marco metálico. Tal como se muestra en las figuras 3A a 3F, por ejemplo, los dispositivos tienen marcos que soportan todos o algunos de los componentes del dispositivo respectivo.
[0028] La figura 4 muestra un diagrama de flujo 300 para la recopilación de datos según determinadas realizaciones. La recopilación de datos se logra usando una aplicación de software desarrollada a medida implementada con cualquiera de los dispositivos, tal como el dispositivo 100 de la figura 2, de la presente descripción. Determinadas etapas del procedimiento son funciones implementadas por ordenador implementadas en código de software asociado con un ordenador que opera el dispositivo descrito (por ejemplo, el ordenador 111 de la figura 2). Las figuras 5A a 5L muestran una serie de pantallas de visualización que se presentan a un operador (por ejemplo, a través del monitor del operador 109 de la figura 2) durante la recopilación de datos según determinadas realizaciones y se hará referencia a estas junto con la exposición de las etapas del procedimiento 300. Se entenderá que las etapas de los diagramas de flujo de la presente descripción son meramente ilustrativas. Cualquiera de las etapas de los diagramas de flujo puede modificarse, omitirse o reorganizarse, se pueden combinar dos o más de las etapas o se puede agregar cualquier etapa adicional, sin apartarse del alcance de la presente descripción.
[0029] En determinadas realizaciones, una aplicación de software desarrollada a medida permite al operador del dispositivo (a) asociar un procedimiento de prueba con un sujeto específico, (b) calibrar el equipo de recopilación de datos de seguimiento ocular al sujeto, (c) presentar estímulos de vídeo y audio en el monitor de estímulo del sujeto y los altavoces, y (d) recopilar datos de seguimiento ocular (por ejemplo, coordenadas x,y de la mirada) del sujeto en relación con el estímulo visual y de audio. En algunas realizaciones, al final de la sesión, los datos recopilados se transfieren a una base de datos central (por ejemplo, el procedimiento 1000 de la figura 12) para procesamiento y análisis adicionales (por ejemplo, el procedimiento 1050 de la figura 13).
[0030] El procedimiento 300 comienza en la etapa 302, donde se ingresa la información del operador (por ejemplo, a través de los controles del operador 110 de la figura 2). La información puede ser cualquier información adecuada que permita la identificación del operador. Por ejemplo, se puede registrar el nombre y apellido del operador. El nombre y el apellido pueden asociarse a un nombre de usuario con el fin de iniciar sesión en el sistema, así como para identificar al operador. En algunas realizaciones, la información del operador se consulta en una base de datos (por ejemplo, base de datos 35 de la figura 1) para monitorizar la utilización del sitio y las variaciones de calidad de datos dependientes del operador (aunque se espera que esto sea bajo). Como se muestra en la figura 5A, una pantalla de visualización 400a incluye una superposición 460 que permite al operador iniciar sesión en el sistema usando un nombre de usuario y una contraseña. La pantalla 400a también incluye una barra de banner 410 con varios botones (por ejemplo, Animación, Deshacer Último, Siguiente Película, Película Activa, Volumen, Finalizar Sesión, Cerrar Sesión) disponibles durante toda la sesión para navegar a través de partes de la sesión o controlar otras funciones de la sesión. También se presentan en la parte inferior de la pantalla 400a los botones contextuales 450 (por ejemplo, Reproducir próximo objetivo. ¡Mirando el objetivo!, ¡Regresar a la película!) que se relacionan con las funciones disponibles para un modo particular de la aplicación actualmente en sesión (por ejemplo, la pantalla 400a tiene botones contextuales 450 diferentes a los de la pantalla 400j).
[0031] En la etapa 304 se introduce la información del sujeto. La información puede ser cualquier información adecuada que permita la identificación del sujeto y cualquier otra información pertinente para los fines del procesamiento y análisis de datos. Por ejemplo, se puede ingresar el nombre y apellido del sujeto, la fecha de nacimiento, el género y el idioma principal. La información del sujeto se utiliza para vincular los datos de una sesión dada a un registro individual en la base de datos. Como se muestra en la figura 5b , una pantalla de visualización 400b incluye una superposición 462 que permite al operador ingresar información del sujeto en diversos campos, incluidos los descritos anteriormente. También se muestra en la superposición 462 un «ID de sesión» que permite indexar los datos recopilados en la base de datos según las sesiones asociadas con los sujetos respectivos.
[0032] En la etapa 306, se reproducen estímulos apropiados para la edad o específicos para la edad (por ejemplo, películas) en un monitor. Esta pantalla atrae la atención del sujeto hacia el monitor (por ejemplo, el dispositivo de visualización 103 de la figura 2) y permite que el operador o el cuidador del sujeto, en la etapa 308, amarre el sujeto a la silla. En determinadas realizaciones, la aplicación instruye al operador para (a) ajustar el ángulo del monitor y la silla en función de la edad del sujeto, (b) colocar al sujeto en la silla y abrochar de forma segura el cinturón de seguridad, y (c) confirmar que el rastreador ocular puede identificar los ojos del sujeto. Como se muestra en la figura 5C, una pantalla de visualización 400c incluye una superposición 464 para observar la posición del sujeto (usando la ventana de vídeo 466) y confirmar que los ojos del sujeto están siendo identificados por el rastreador de ojos (usando la ventana de vídeo 468). La ventana de vídeo 466 muestra una alimentación de vídeo del sujeto y representa la ubicación donde se mostrarán los objetivos de fijación con respecto a la posición del sujeto. La ventana de vídeo 468 muestra si los ojos del sujeto han sido identificados por el rastreador de ojos y proporciona retroalimentación (elementos 468a y 468b) sobre la clasificación de posición actual. En algunas realizaciones, la clasificación de posición está codificada por color para representar posiciones excelentes, moderadas o malas.
[0033] En la etapa 310, el sistema de seguimiento ocular se calibra para el sujeto. El operador mantiene una monitorización visual constante del sujeto a través de una alimentación de cámara. En determinadas realizaciones, cuando los objetivos de calibración, también llamados objetivos de fijación, se presentan al sujeto, tanto el operador como la unidad de seguimiento ocular (por ejemplo, la unidad de seguimiento ocular 104 de la figura 2) confirman que el sujeto está fijándose. Los objetivos capturan reflexivamente la atención del sujeto y dan como resultado una sacudida ocular y fijación hacia una ubicación objetivo conocida. El objetivo provoca fijaciones de forma fiable a una ubicación finita; por ejemplo, un objetivo radialmente simétrico que abarca menos de 0,5 grados de ángulo visual. Otros ejemplos incluyen patrones concéntricos, formas o estímulos de contracción que, incluso si inicialmente son de mayor tamaño, provocan fijaciones confiables a ubicaciones objetivo fijas. Como se muestra en la figura 5D, una pantalla de visualización 400d incluye una ventana de vídeo 440 que muestra que el operador mantiene una monitorización visual constante del sujeto, que es monitorizado a través de una alimentación de cámara en la ventana 420. Sobre la alimentación de la cámara en la ventana 420 se superponen las ubicaciones de los objetivos de calibración, u objetivos de fijación, que se presentan secuencialmente al sujeto. El operador puede confirmar visualmente, mirando la ventana de vídeo 420, que el sujeto se está fijando en un objetivo mostrado y a continuación indicar manualmente la fijación observada usando un dispositivo de entrada. La ventana de vídeo 430 tiene objetivos que se superponen sobre una fuente que representa información del equipo de seguimiento ocular. Cualquier ícono adecuado se puede usar como objetivo de calibración o fijación, y los objetivos pueden ser estáticos o dinámicos. Por ejemplo, como se muestra en la pantalla 400e de la figura 5E, la selección del botón «Animación» de la barra de banner 410 da como resultado la visualización de una lista de posibles animaciones que se pueden usar como objetivos de fijación. Los objetivos de fijación dinámica o animada pueden causar reflexivamente señales exógenas por parte del sujeto sin necesidad de mediación verbal o instrucción por parte del operador. Por ejemplo, el operador no necesita dar instrucciones para mirar el objetivo dinámico porque el objetivo en sí capta la atención del sujeto.
[0034] En la etapa 312, se emiten coordenadas de mirada continua (x,y) desde el equipo de seguimiento ocular (por ejemplo, el dispositivo de seguimiento ocular 104 de la figura 2). Después de registrar un número suficiente de fijaciones hacia objetivos de calibración, se emite una corriente continua de coordenadas de posición de la mirada (x,y), por ejemplo, a 120 Hz o cualquier otra velocidad adecuada. Como se muestra en la figura 5F, la pantalla 400f incluye una coordenada de posición de mirada 442 en la ventana de vídeo de seguimiento ocular 440. A medida que el sujeto continúa observando el dispositivo de visualización (antes, durante o después de la visualización de un estímulo), el equipo de seguimiento ocular emite una coordenada de posición de mirada continua para el procesamiento y análisis de datos posteriores.
[0035] La exactitud de los datos de seguimiento ocular recopilados se puede evaluar a través de la presentación de estímulos visuales que capturan reflexivamente la atención y dan como resultado una sacudida ocular hacia, y la fijación sobre, una ubicación objetivo conocida. El objetivo provoca fijaciones de forma fiable a una ubicación finita; por ejemplo, un objetivo radialmente simétrico que abarca menos de 0,5 grados de ángulo visual. Otros ejemplos incluyen patrones concéntricos, formas o estímulos de contracción que, incluso si inicialmente son de mayor tamaño, provocan fijaciones confiables a ubicaciones objetivo fijas. Tales estímulos pueden ensayarse en el marco de la recopilación de datos con apoyacabezas para garantizar que provocan fijaciones de forma fiable en circunstancias de ensayo ideales; a continuación, su uso se puede ampliar para incluir la recopilación de datos sin restricciones de cabeza.
[0036] Para garantizar que los datos recopilados sean precisos, en la etapa 314, se valida la calibración del seguimiento ocular. Esta etapa puede ocurrir inmediatamente después de la calibración inicial, o esta etapa puede ocurrir después de que se haya presentado un estímulo al sujeto (por ejemplo, después de que se hayan mostrado varias películas). En algunas realizaciones, se muestran objetivos de fijación adicionales al sujeto y los datos de seguimiento ocular producidos se comparan con la ubicación objetivo conocida para evaluar la precisión de los datos. La aplicación de software puede instruir al operador que vuelva a calibrar si la calidad de los datos no es suficiente. Por ejemplo, como se muestra en la pantalla 400g de la figura 5G, se validaron menos de tres (de cinco) objetivos y se le instruye al operador que intente una calibración de dos puntos o finalice la sesión. Como se muestra en la pantalla ilustrativa 400h de la figura 5H, se validaron cuatro de cinco objetivos y se le instruye al operador que intente validar los puntos restantes o que proceda (o continúe con) la visualización del estímulo. Como se muestra en la pantalla ilustrativa 400i de la figura 5i, se validaron cinco de cinco objetivos y se le instruye al operador que proceda con la recopilación de datos. Se entenderá que se puede mostrar cualquier cantidad adecuada de objetivos y se puede usar para la calibración y/o validación del dispositivo de seguimiento ocular. Por ejemplo, en algunas realizaciones, se puede utilizar la calibración y validación de dos puntos para la recopilación de datos confiables de seguimiento ocular.
[0037] En la etapa 316, el estímulo se muestra al sujeto y se registra una corriente de coordenadas de mirada. En determinadas realizaciones, la secuencia de coordenadas de mirada incluye datos muestreados a una frecuencia dada (por ejemplo, 60 Hz, 120 Hz, 512 Hz, 1000 Hz o cualquier otra frecuencia adecuada) que indica las coordenadas instantáneas de posición de mirada del sujeto con respecto a una pantalla (por ejemplo, pantalla 103 de la figura 2) durante un período de tiempo dado (por ejemplo, duración de un estímulo visual). Después de la validación exitosa (en la etapa 314), se presentan al sujeto estímulos (por ejemplo, películas que representan interacciones sociales diádicas y triádicas comunes). Las coordenadas de posición de la mirada se registran temporalmente en asociación con la presentación de estímulos. Por ejemplo, como se muestra en la pantalla 400j de la figura 5J, una ventana 470 indica la «Película activa» actual y la «Película siguiente» que se muestra al sujeto. Otra ventana 472 tiene información sobre la sesión actual, que incluye el porcentaje de finalización 472a, el tiempo transcurrido 472b, el número de películas mostradas 472c y el número de puntos validados 472d. Los botones contextuales 450, como se indicó anteriormente, son diferentes de los que se muestran en las pantallas anteriores, y dan al operador la opción de saltar a la siguiente película, así como indicar el número de películas hasta la siguiente verificación de calibración. Tal como se discutió anteriormente con respecto a la etapa 314, la validación de la calibración de seguimiento ocular puede ocurrir inmediatamente después de la calibración inicial y/o la validación puede ocurrir después de que se haya presentado un estímulo al sujeto. En la pantalla 400k de la FIG. 5K, se realiza una verificación de calibración después de que se ha presentado un estímulo al sujeto (en este caso, después de que se mostraron nueve películas). Se muestra una superposición 480 que incluye ventanas similares a las expuestas anteriormente con respecto a la figura 5F. Los botones contextuales 450 indican que el objetivo activo actual es el objetivo «Superior derecho».
[0038] En la etapa 318, la sesión finaliza cuando se han recopilado datos suficientes o si el sujeto se pone quisquilloso o no coopera de otra manera (por ejemplo, dado que los sujetos a menudo son niños en edad escolar, niños pequeños y bebés). Se puede registrar el motivo del final del procedimiento y se le indica al operador que retire al sujeto (o que el cuidador del sujeto retire al sujeto). Como se muestra en la pantalla 4001 de la figura 5L, se genera una superposición 490 que hace varias preguntas al operador, incluido el motivo del final de la sesión y un cuestionario con clasificaciones para varios eventos durante la sesión. También se muestra un resumen 492 de diversas estadísticas para la sesión actual, que incluye el porcentaje de requisitos de datos cumplidos, el tiempo transcurrido, las películas mostradas, las verificaciones de calibración mostradas y el número de objetivos de calibración validados. Se puede mostrar cualquier otra métrica adecuada relacionada con la sesión.
[0039] Según determinadas realizaciones, los sistemas, dispositivos y procedimientos descritos en esta invención no requieren mediación verbal para instruir al sujeto sobre qué hacer durante una sesión dada. Es decir, el sistema de seguimiento ocular no requiere una persona cumplidora que pueda seguir instrucciones para recopilar datos provechosos. Para registrar datos provechosos sin mediación verbal, los sistemas, dispositivos y procedimientos se basan en indicaciones reflexivas o exógenas de atención visual (ya sea para la calibración, validación de la calibración o visualización de otros estímulos visuales) y pueden usar estímulos naturalistas (por ejemplo, escenas de vídeo de interacción social en el mundo real) o estímulos cuasinaturalistas (por ejemplo, animaciones de vídeo) para recopilar datos y, en última instancia, dar un diagnóstico. Los estímulos naturalistas y cuasinaturalistas son eficaces porque, incluso cuando un sujeto no sigue o no puede seguir instrucciones, los estímulos (por ejemplo, vídeos) naturalmente captan la atención del sujeto y se pueden registrar datos provechosos. Por lo tanto, el sujeto no necesita ser consciente de que se están recopilando datos de seguimiento ocular para que se recopilen esos datos de seguimiento ocular.
[0040] Hay varias maneras de realizar la calibración según las realizaciones de la presente descripción. La figura 6 muestra un diagrama de flujo con funciones implementadas por ordenador para calibrar los datos de seguimiento ocular según determinadas realizaciones. Se puede obtener una calibración adecuada de sujetos que no pueden seguir instrucciones verbales (por ejemplo, debido a la edad o el nivel cognitivo de funcionamiento). El procedimiento 500 permite que el operador tenga el poder discrecional de decidir cuándo mostrar estímulos para atraer la atención de los sujetos. Por lo tanto, los sistemas, dispositivos y procedimientos de seguimiento ocular de la presente descripción son eficaces con estas poblaciones porque, según dicho poder discrecional del operador, la calibración no debe obtenerse solo si el sujeto sigue un conjunto de estímulos objetivo que aparecen con duración y tiempo preespecificados (aunque en algunas realizaciones, la calibración puede obtenerse de esta manera). En algunas realizaciones, las etapas de calibración del procedimiento 500 pueden realizarse como parte de la etapa 310 de la figura 4.
[0041] Al iniciar el procedimiento de calibración 500, se muestra una película de desensibilización para el sujeto en la etapa 510. Los datos generalmente no se registran durante la visualización de la película de desensibilización; en su lugar, la película se muestra para llamar la atención del sujeto. La película puede causar reflexivamente señales exógenas por parte del sujeto sin necesidad de mediación verbal ni instrucción por parte del operador. Por ejemplo, el operador no necesita dar instrucciones de mirar el dispositivo de visualización (por ejemplo, el dispositivo de visualización 103 de la figura 2) porque la película en sí capta la atención del sujeto. Cuando el sujeto está atento, se muestra un objetivo de calibración o fijación en la etapa 520. El objetivo de calibración o fijación captura de forma reflexiva la atención del sujeto y produce una sacudida ocular hacia, y una fijación sobre, una ubicación objetivo conocida. El objetivo provoca fijaciones de forma fiable a una ubicación finita; por ejemplo, un objetivo radialmente simétrico que abarca menos de 0,5 grados de ángulo visual. Otros ejemplos incluyen patrones concéntricos, formas o estímulos de contracción que, incluso si inicialmente son de mayor tamaño, provocan fijaciones confiables a ubicaciones objetivo fijas.
[0042] Cuando el operador observa que el sujeto mira el objetivo (etapa 522), el operador indica manualmente (etapa 524) la fijación observada usando un dispositivo de entrada (por ejemplo, presionando un botón de «punto de aceptación»). Si el sujeto no está mirando el objetivo, el operador puede continuar mostrando el objetivo o provocar la visualización de otra película de desensibilización. En determinadas realizaciones en lugar de, o además de, que el operador acepte manualmente que un sujeto está mirando un objetivo de calibración, el dispositivo (por ejemplo, el dispositivo 100) incluye software u otra lógica capaz de determinar automáticamente que un sujeto está mirando el objetivo (por ejemplo, identificar una mirada dentro de una región espacial predeterminada alrededor del objetivo). En la etapa 530, el rastreador ocular (por ejemplo, el dispositivo de rastreo ocular 104 de la figura 2) determina si se detecta una fijación. Si no se detecta ninguna fijación, el operador puede permitir la visualización continua del objetivo e intentar aceptar el objetivo nuevamente, o se puede indicar al procedimiento 500 que regrese a la etapa 510 y se muestre de nuevo una película de desensibilización al sujeto. Si se detecta una fijación, en la etapa 540, se determina si todos los puntos se han calibrado. Cualquier cantidad adecuada de puntos se puede usar en las etapas de calibración de la presente descripción. Preferentemente, se calibran al menos dos puntos, aunque se pueden usar puntos adicionales (por ejemplo, cinco) o menos puntos (por ejemplo, sin incluir puntos). Si no se han calibrado todos los puntos, el procedimiento se prepara para mostrar el siguiente objetivo no calibrado en la etapa 550 mostrando primero una película de desensibilización en la etapa 510. Si todos los puntos se han calibrado en la etapa 540, el procedimiento procede a la etapa 560 donde se validan los puntos calibrados.
[0043] La figura 7 muestra un diagrama de flujo con funciones implementadas por ordenador para validar los datos de seguimiento ocular según determinadas realizaciones. De manera similar al procedimiento 500 descrito en la figura 6, el operador puede tener el poder discrecional para decidir cuándo mostrar estímulos para atraer la atención de los sujetos. Cuando el operador informa al software que un sujeto está mirando un objetivo, se calcula la información de coordenadas de la mirada registrada a partir de ese momento y se compara con la ubicación real del objetivo mostrado. Las validaciones iniciales con diferentes niveles de éxito (por ejemplo, número de puntos validados) indicarán automáticamente al operador (1) recalibrar el rastreador ocular, (2) revalidar aquellos objetivos que no pudieron validarse o (3) aceptar la calibración y continuar con el estado de «mostrar estímulo y registrar la secuencia de coordenadas de mirada» del software de recopilación de datos (por ejemplo, la etapa 316 de la figura 4). De manera similar a la calibración, debe tenerse en cuenta que los sistemas, dispositivos y procedimientos actuales permiten al operador tener poder discrecional en el momento de mostrar los puntos objetivo y los estímulos de desensibilización (por ejemplo, películas). En algunas realizaciones, las etapas de validación del procedimiento 570 se pueden realizar como parte de la etapa 314 de la figura 4.
[0044] El procedimiento de validación 570 puede comenzar después de la etapa 560 del procedimiento de calibración 500. En algunas realizaciones, sin embargo, el procedimiento de validación 570 puede realizarse (una o más veces) después de que se hayan mostrado estímulos (por ejemplo, películas) al sujeto con el fin de evaluar la precisión de los datos durante el transcurso de la recopilación de datos. En la etapa 580 se muestra una película de desensibilización al sujeto. Los datos generalmente no se registran durante la visualización de la película de desensibilización; en su lugar, la película se muestra para llamar la atención del sujeto. La película puede causar reflexivamente señales exógenas por parte del sujeto sin necesidad de mediación verbal ni instrucción por parte del operador. Por ejemplo, el operador no necesita dar instrucciones de mirar el dispositivo de visualización (por ejemplo, el dispositivo de visualización 103 de la figura 2) porque la película en sí capta la atención del sujeto. Cuando el sujeto está atento, se muestra un objetivo de calibración o fijación en la etapa 590 y se registran los datos relacionados con las coordenadas de posición de la mirada del sujeto. El objetivo de calibración o fijación captura de forma reflexiva la atención del sujeto y produce una sacudida ocular hacia, y una fijación sobre, una ubicación objetivo conocida. El objetivo provoca fijaciones de forma fiable a una ubicación finita; por ejemplo, un objetivo radialmente simétrico que abarca menos de 0,5 grados de ángulo visual. Otros ejemplos incluyen patrones concéntricos, formas o estímulos de contracción que, incluso si inicialmente son de mayor tamaño, provocan fijaciones confiables a ubicaciones objetivo fijas.
[0045] Cuando el operador observa que el sujeto mira el objetivo (etapa 592), el operador indica manualmente (etapa 594) la fijación observada usando un dispositivo de entrada (por ejemplo, presionando un botón de «punto de aceptación»). Si el sujeto no está mirando el objetivo, el operador puede continuar mostrando el objetivo o provocar la visualización de otra película de desensibilización. En determinadas realizaciones en lugar de, o además de, que el operador acepte manualmente que un sujeto está mirando un objetivo de calibración, el dispositivo (por ejemplo, el dispositivo 100) incluye software u otra lógica capaz de determinar automáticamente que un sujeto está mirando el objetivo (por ejemplo, identificar una mirada dentro de una región espacial predeterminada alrededor del objetivo). En la etapa 600, el rastreador ocular (por ejemplo, el dispositivo de rastreo ocular 104 de la figura 2) determina si se detecta una fijación. Si no se detecta ninguna fijación, el operador puede permitir la visualización continua del objetivo e intentar aceptar el objetivo nuevamente, o se puede indicar al procedimiento 570 que regrese a la etapa 580 y se muestre de nuevo una película de desensibilización al sujeto. Si se detecta una fijación, en la etapa 610, se calcula una ubicación de fijación para la fijación y se determina, en la etapa 620, si la fijación cae dentro de un umbral de proximidad especificado de una coordenada de ubicación conocida para el objetivo. En la etapa 630, si la fijación no está dentro del umbral de proximidad especificado, la fijación se rechaza como un punto de validación. De lo contrario, en la etapa 630, si la fijación está dentro del umbral de proximidad especificado, la fijación se acepta como un punto de validación.
[0046] Después de la aceptación o rechazo de la fijación, en la etapa 640, se determina si se han mostrado todos los puntos disponibles (correspondientes al número de puntos calibrados). Si no se han mostrado todos los puntos, el procedimiento se prepara para mostrar el siguiente objetivo en la etapa 650 mostrando primero una película de desensibilización en la etapa 580. Si se han mostrado todos los puntos, el procedimiento continúa en la etapa 660, donde se determina si se aceptaron tres o cuatro puntos de validación. En caso afirmativo, el procedimiento se repite en la etapa 650 para mostrar puntos adicionales. Si se aceptaron menos de tres puntos de validación (etapa 670), el sistema elimina la calibración en la etapa 680 y vuelve al procedimiento de calibración (por ejemplo, el procedimiento 500 de la figura 6). La única alternativa restante indica, en la etapa 690, que los cinco puntos de validación han sido aceptados. En esta etapa finaliza el procedimiento de validación 570. La exposición anterior supone que se están validando cinco puntos de calibración. En algunas realizaciones, la validación puede ser aceptable cuando solo se aceptan cuatro de cinco, o en algunos casos tres de cinco, puntos de calibración. Además, se apreciará que se puede utilizar cualquier cantidad adecuada de puntos de calibración, incluidos en algunas realizaciones cero puntos de calibración, y que el procedimiento de validación 570 (en particular las etapas 660, 670, 690) se puede actualizar en consecuencia.
[0047] Tanto en los procedimientos de calibración como de validación descritos anteriormente, se incluye una etapa para determinar si el rastreador ocular detecta una fijación (etapas 530 y 600). La figura 8 muestra un diagrama de flujo con funciones implementadas por ordenador para detectar si un punto de calibración potencial incluye una fijación según determinadas realizaciones. En algunas realizaciones, las etapas del procedimiento 700 se pueden realizar como parte de la etapa 530 de la figura 6 y/o la etapa 600 de la figura 7. Después de que el operador indique una fijación observada, el sistema puede confirmar o negar esa fijación indicada utilizando las etapas del procedimiento 700. El software de recopilación de datos de seguimiento ocular determina si las coordenadas de posición de la mirada en los datos registrados en, o cerca de, el momento en el que el operador indicó una fijación observada realmente indican una fijación en el objetivo. En algunos casos, puede haber un retraso en el tiempo en que el operador observa una fijación y el tiempo en que realmente ocurre una fijación. Por lo tanto, el software de recopilación de datos de seguimiento ocular y/o el dispositivo de seguimiento ocular pueden considerar un intervalo de veces en o cerca del momento en que el operador indicó una fijación observada. Por ejemplo, se puede analizar una ventana de dos segundos con respecto a la fijación observada (un segundo antes y un segundo después del tiempo de la fijación observada). Si no hay fijación durante esa ventana, se determina que el punto de datos no incluye una fijación y puede ser rechazado para fines de calibración y/o validación. Si hay una fijación en esa ventana, se determina que el punto de datos incluye una fijación y puede aceptarse a efectos de calibración y/o validación.
[0048] En la etapa 710, el rastreador ocular determina si se identifican los ojos del sujeto. Si no se identifican los ojos, se determina que el punto de datos no incluye una fijación en la etapa 720 y puede rechazarse para fines de calibración y/o validación. Si se identifican los ojos, entonces en la etapa 730 se determina si los ojos están a una distancia adecuada del dispositivo de seguimiento ocular. Se puede utilizar cualquier distancia adecuada para recopilar datos del sujeto y, en algunas realizaciones, la distancia adecuada puede depender de uno o más atributos del sujeto en particular (por ejemplo, la edad) o del dispositivo de rastreo ocular en sí. Si los ojos no están a la distancia adecuada del rastreador ocular, se determina que el punto de datos no incluye una fijación en la etapa 720 y puede rechazarse para fines de calibración y/o validación. Si los ojos están a la distancia adecuada, a continuación, en la etapa 740 se determina si el movimiento ocular indica una fijación constante. Por ejemplo, incluso cuando los datos incluyen una fijación, cualquiera de sacudidas oculares, movimientos finos de seguimiento o parpadeos también pueden estar presentes en la ventana de tiempo que se analiza. Si existe tal movimiento ocular (por ejemplo, sacudidas oculares, movimientos finos de seguimiento, parpadeos, etc.), los datos pueden no ser deseables para fines de calibración o validación. Se pueden emplear diversas técnicas para detectar una fijación constante en la etapa 740. En algunas realizaciones, puede ocurrir una indicación de fijación cuando el movimiento ocular es menor que una velocidad o aceleración dada durante una duración dada. Por ejemplo, puede ocurrir una indicación de fijación cuando el movimiento ocular es menor que aproximadamente cinco grados/segundo durante alrededor de 100 ms o más. Se entenderá que cualquier otro evento puede definirse para determinar la ocurrencia de una fijación constante. Si ese evento no ocurre, se determina que el punto de datos no incluye una fijación en la etapa 720 y puede ser rechazado para fines de calibración y/o validación. Si ese evento ocurre, a continuación, en la etapa 750 se determina que el punto de datos incluye una fijación y puede aceptarse para fines de calibración y/o validación.
[0049] Además de la validación y la verificación de errores de los datos de calibración que se lleva a cabo durante la sesión de recopilación de datos, la validación y verificación de errores de los datos de calibración pueden ocurrir después de completarse una sesión dada. La exactitud de los datos de seguimiento ocular es una característica que limita potencialmente la validez de los análisis posteriores. La exactitud depende, entre otras cosas, de la precisión de la calibración inicial del sujeto (normalmente realizada al comienzo de una sesión de recopilación de datos), de cualquier movimiento de la cabeza que pueda producirse a lo largo de la recopilación de datos del período, y de la variación natural y esperada entre sujetos en la calidad y precisión de los datos. Si se restringe el movimiento de la cabeza, se puede mantener la precisión de la calibración inicial: si el movimiento de la cabeza no se restringe, como es preferible, es probable que la precisión varíe durante la sesión de recopilación de datos (por ejemplo, puede producirse un sesgo en los puntos de datos o una desviación en la precisión de la calibración inicial, como resultado del movimiento de la cabeza durante la sesión de recopilación de datos). A continuación, se expone un algoritmo para evaluar y corregir la inexactitud espacial en los datos de seguimiento ocular recopilados y con referencia a las figuras 9 y 10. Este algoritmo utiliza puntos de fijación representativos durante las instancias de recalibración dentro de un procedimiento de prueba. Tales puntos de fijación representativos pueden usarse a continuación en una transformación post hoc (es decir, después del procedimiento de prueba) para corregir puntos de datos sesgados. En algunas realizaciones, la transformación puede ocurrir en tiempo real a medida que se recopilan los datos. Las figuras muestran imágenes representativas de evaluación y corrección de inexactitudes de calibración basadas en funciones y criterios implementados por ordenador según determinadas realizaciones.
[0050] Se puede evaluar la exactitud de los datos de seguimiento ocular recopilados, como se expuso anteriormente, a través de la presentación de estímulos visuales que capturan reflexivamente la atención y dan como resultado una sacudida ocular y fijación hacia una ubicación objetivo conocida. El objetivo provoca fijaciones de forma fiable a una ubicación finita; por ejemplo, un objetivo radialmente simétrico abarca menos de 0,5 grados de ángulo visual. Otros ejemplos incluyen patrones concéntricos, formas o estímulos de contracción que, incluso si inicialmente son de mayor tamaño, provocan fijaciones confiables a ubicaciones objetivo fijas. Tales estímulos pueden ensayarse en el marco de la recopilación de datos con apoyacabezas para garantizar que provocan fijaciones de forma fiable en circunstancias de ensayo ideales; a continuación, su uso se puede ampliar para incluir la recopilación de datos sin restricciones de cabeza.
[0051] En algunas realizaciones, la evaluación numérica de la exactitud de los datos de seguimiento ocular recopilados puede incluir las siguientes etapas: (1) presentar un objetivo de fijación que provoca de manera confiable la fijación a un área pequeña de la unidad de presentación visual; (2) registrar los datos de seguimiento ocular a lo largo de la presentación objetivo: (3) identificar fijaciones en los datos de seguimiento ocular recopilados; (4) calcular una diferencia entre las coordenadas de ubicación de fijación y las coordenadas de ubicación objetivo; (5) almacenar la diferencia calculada entre las coordenadas de ubicación de fijación y las coordenadas de ubicación objetivo como datos vectoriales (dirección y magnitud) para tan pocos como un objetivo o para tantos objetivos como sea posible (normalmente cinco o nueve, pero puede ser más); y (6) aplicar la transformación espacial para alinear las coordenadas de ubicación de fijación con las coordenadas de ubicación objetivo reales, mediante estrategias que incluyen, de modo no taxativo, (a) interpolación trilineal, (b) interpolación lineal en coordenadas baricéntricas, (c) transformación afina y (d) transformación polinómica fragmentaria.
[0052] Como se muestra en la figura 9, los datos de seguimiento ocular registrados 810 se envían a un archivo 820 (o múltiples archivos) que contiene datos de seguimiento ocular e información relacionada con los estímulos (por ejemplo, una lista de películas vistas por el sujeto). Los datos brutos recopilados se representan visualmente en la figura como una pantalla 830 con ejes 830a, 830b que corresponden a una resolución de imagen (esta resolución puede ser la resolución real de la pantalla de visualización o puede ser una resolución reducida para reducir los tiempos de procesamiento). Como se puede observar en la pantalla 830, los datos en bruto indican que determinadas coordenadas de ubicación de fijación (por ejemplo, puntos 832) son generalmente coherentes entre sí, pero se desvían de sus respectivas coordenadas de posición objetivo conocidas (por ejemplo, objetivo 834). La pantalla 840 muestra el resultado de la transformación espacial para alinear las coordenadas de ubicación de fijación 832' con la coordenada de ubicación objetivo 834. Otros detalles sobre la transformación se muestran en la progresión de las pantallas 850 en la figura 10. La primera pantalla 860 muestra que los datos de fijación se extraen de los datos brutos recopilados. La segunda pantalla 870 muestra que se determina una mediana de los datos de fijación, y a continuación en la tercera pantalla 880, la mediana de los datos de fijación se compara con un umbral de ubicación de fijación respectivo. En algunas realizaciones, se ignoran los puntos que están fuera del umbral (puntos 884). Alternativa o adicionalmente, tales puntos pueden ponderarse, de manera probabilística, según su proximidad para calcular una estimación ponderada de la tendencia central (por ejemplo, mediana) sin depender (o además de depender) de un umbral fijo. En algunas realizaciones, los puntos que están dentro del umbral (puntos 882) se utilizan como puntos aceptables para transformar los datos en el resultado mostrado en la pantalla 890. Se entenderá y apreciará que la exactitud de la detección de TEA, así como otras afecciones cognitivas o de desarrollo depende de la exactitud de los datos de seguimiento ocular recibidos de la unidad de seguimiento ocular en el dispositivo descrito.
[0053] Volviendo ahora a la figura 1, después de que el sistema de recopilación de datos 20 recopila datos, esos datos se transfieren al sistema de almacenamiento de datos 30, que incluye una base de datos segura 35 con coincidencia de sujetos. La base de datos es preferentemente remota del dispositivo 100, para alojar y agregar datos recopilados de muchos dispositivos, pero se apreciará que en algunas realizaciones una base de datos puede encontrarse en el dispositivo. Una vez que se completa la recopilación de datos, los datos se transfieren manual o automáticamente (por ejemplo, de forma periódica, como por hora o por noche) a una base de datos en línea a través de una conexión de red segura. Después de recibir los datos en la base de datos en línea, se analizan los datos. Generalmente, el análisis implica comparar el comportamiento de un sujeto en particular con el comportamiento de otros sujetos que han visto películas similares mientras se les hace un seguimiento ocular. Según determinadas realizaciones, los resultados del procesamiento y análisis de datos indican la probabilidad de que un sujeto tenga (o desarrolle) sintomatología de TEA. En algunas realizaciones, los resultados indican una medida del grado de tipicidad del desarrollo normativo, proporcionando una indicación de variabilidad en el desarrollo típico.
[0054] Los resultados del análisis generalmente se entregan al médico de cada sujeto u otro cuidador a través de un portal seguro basado en la web. En algunas realizaciones, puede haber un portal del operador y un portal del médico. Por ejemplo, se proporciona una interfaz personalizada del portal del operador para que los operadores accedan a la base de datos a través de uno o más dispositivos electrónicos. En algunas realizaciones, el uno o más dispositivos electrónicos no tienen acceso recíproco a la red (es decir, los datos solo se pueden distribuir a los dispositivos, no recibirse de los dispositivos). En algunas realizaciones, a través de este portal, los usuarios pueden (a) ingresar información de admisión para nuevos sujetos, (b) acceder a manuales de usuario y tarjetas de referencia rápidas, y (c) acceder a información sobre la experiencia pasada de un sujeto con el dispositivo (por ejemplo, notas sobre sesiones anteriores, etc.). El portal del médico permite a los médicos acceder a los resultados de la prueba de un sujeto, una vez que los datos brutos han sido procesados. El portal suele ser accesible desde un dispositivo habilitado para internet.
[0055] La figura 11 muestra un diagrama de bloques de un sistema 900 para transferir datos recopilados (por ejemplo, desde el sistema de recopilación de datos 20 de la figura 1) según determinadas realizaciones de la presente descripción. La disposición del sistema 900 puede incorporarse como el sistema de almacenamiento de datos 30 y el sistema de procesamiento y análisis de datos 40 de la figura 1. Según determinadas realizaciones, la base de datos 930 en la instalación de procesamiento 920 proporciona almacenamiento de datos centralizado e interfaces con otros componentes tales como un sistema de recopilación de datos 20 y el sistema de procesamiento y análisis de datos 40, y generalmente proporciona información específica del sujeto tanto a los operadores del dispositivo como a los médicos y/o especialistas que usan el dispositivo. El sistema de almacenamiento de datos 30 puede estar alejado del sistema de procesamiento y análisis de datos 40 o los dos sistemas pueden ser parte del mismo sistema informático. Por ejemplo, como se muestra en la figura 9, la instalación de procesamiento 920 incluye sistemas de almacenamiento de datos 930 y de procesamiento y análisis de datos 935.
[0056] En algunas realizaciones, la base de datos es un servidor SQL y está emparejada con herramientas escritas en cualquier lenguaje de programación adecuado (por ejemplo, Python, Matlab), lo que permite la interfaz basada en URL y la consulta a la base de datos. Además, la base de datos puede ser compatible con lenguajes de programación (por ejemplo, Python, Matlab) utilizados para transferir datos del sistema de recopilación de datos a la base de datos y de la base de datos al ordenador de procesamiento central. Por ejemplo, cuando el dispositivo (por ejemplo, el dispositivo 100 de la figura 1) está ubicado en una instalación médica 910, la recopilación de datos ocurre en esa instalación 910 y los datos se transfieren entre la base de datos 930 de la instalación de procesamiento 920 y la instalación médica 910. La base de datos es segura, cumple con la HIPAA y está protegida por un sistema de copia de seguridad redundante.
[0057] En determinadas realizaciones, la base de datos está diseñada para permitir (a) la admisión de nueva información del sujeto, (b) el almacenamiento de archivos de datos en bruto (por ejemplo, incluidos datos de seguimiento ocular), (c) la transferencia automatizada y segura de archivos entre el dispositivo de recopilación de datos, el ordenador de procesamiento de datos y la base de datos, (d) la tabulación y consulta de datos con el fin de evaluar la utilización del dispositivo y otras métricas de calidad de datos, y e) el acceso a los resultados del procesamiento por parte de los médicos. Las funciones ejemplares de la base de datos se representan en la figura 12 como un diagrama de flujo 1000 para respaldar la recopilación de datos de etapas de procesamiento y análisis de datos usando una base de datos centralizada según determinadas realizaciones. Las funciones adicionales de la base de datos para el procesamiento de datos se representan en la figura 13 como un diagrama de flujo 1050 para procesar los datos recopilados según determinadas realizaciones. Los diagramas de flujo representan funciones implementadas por ordenador implementadas en código de software asociado con una base de datos que almacena datos en bruto de sujetos, así como archivos generados a través del procesamiento y análisis de datos.
[0058] En la etapa 1002, se realiza la admisión del sujeto. Antes de recopilar datos, el operador u otro usuario capacitado puede agregar el sujeto a la base de datos (por ejemplo, base de datos 35 de la figura 1) usando un portal del operador o cualquier otra herramienta segura adecuada basada en la web para ingresar y ver información de admisión. En la etapa 1004, los datos en bruto se cargan a la base de datos. Después de que se completa una sesión de recopilación de datos usando un dispositivo (por ejemplo, el dispositivo 100 de la figura 1), se cargan dos archivos a la base de datos, uno que contiene coordenadas de posición de la mirada de rastreo ocular en bruto y otro que contiene información relacionada con los estímulos (por ejemplo, una lista o lista de reproducción de esas películas vistas por el sujeto). Si un intento de sesión no tuvo éxito, una lista de reproducción vacía con los identificadores del sujeto aún puede cargarse como un registro.
[0059] En la etapa 1006, los datos se almacenan en el archivo del sujeto. Los datos cargados (y los identificadores dentro de la lista de reproducción) se verifican contra el registro de admisión y (si coinciden) se vinculan al registro del sujeto. Si hay un desajuste, los datos se almacenan en una tabla de errores para la reconciliación manual. En la etapa 1008, los datos se descargan al procesamiento de datos. Las consultas programadas regularmente indican datos en bruto que aún no se han procesado y envían esos datos en bruto a un equipo de procesamiento central. El procesamiento de datos en la etapa 1010 implica procesar y a continuación analizar los archivos de datos en bruto, proporcionando información de diagnóstico sobre el sujeto. En determinadas realizaciones, se generan tres archivos, uno que contiene datos ET procesados, uno que contiene estadísticas resumidas de seguimiento ocular y uno que contiene información de diagnóstico. Más adelante se exponen detalles adicionales del procesamiento de datos con respecto al procedimiento 1050 de la figura 13. En la etapa 1012, el archivo procesado se almacena. Los tres archivos generados a través del procesamiento en la etapa 1010 se cargan posteriormente en la base de datos y se asocian con el sujeto. En la etapa 1014, los datos se tabulan en una tabla de sesión. La información resumida de seguimiento ocular (por ejemplo, muestras de fijación/película, etc.) se lee del archivo ET de resumen del procedimiento y se tabula en la base de datos para una consulta posterior. Los valores de resumen (por ejemplo, fijación de porcentaje/película, etc.) a continuación se calculan dentro de la base de datos.
[0060] En la etapa 1016, los resultados se tabulan en una tabla de resultados. Los datos de diagnóstico resumidos se leen de los archivos procesados de resumen de diagnóstico y posteriormente se visualizan dentro de la base de datos para ser revisados por el médico. En la etapa 1018, se pueden consultar los datos. La base de datos permite realizar consultas basadas en URL (por ejemplo, para aquellos con funciones administrativas) a través de múltiples variables. Por ejemplo, la variable puede incluir sujetos/dispositivos, eventos adversos, etc. En la etapa 1020, un portal del médico (por ejemplo, una interfaz basada en web) permite que los médicos vean los resultados de las pruebas. Se puede proporcionar un curso de acción escrito previamente basado en los resultados de la prueba (por ejemplo, buscar una evaluación adicional). Se entenderá que las etapas de los diagramas de flujo de la presente descripción son meramente ilustrativas. Cualquiera de las etapas de los diagramas de flujo puede modificarse, omitirse o reorganizarse, se pueden combinar dos o más de las etapas o se puede agregar cualquier etapa adicional, sin apartarse del alcance de la presente descripción.
[0061] Tal como se mencionó anteriormente, la figura 13 muestra un diagrama de flujo 1050 para procesar los datos recopilados según determinadas realizaciones. En la etapa 1052, los datos en bruto se leen en la base de datos (por ejemplo, la base de datos 35 de la figura 1). Por ejemplo, se puede usar un script de software escrito en cualquier lenguaje de programación adecuado (por ejemplo, Python, Matlab) usado para transferir archivos de datos en bruto y no procesados de la base de datos a un ordenador para su procesamiento. Este ordenador generalmente procesa y analiza los datos entrantes. Se pueden leer dos archivos en un programa para su análisis, uno que contiene datos de seguimiento ocular que incluyen coordenadas de posición de la mirada (x,y), el otro que contiene información relacionada con los estímulos (por ejemplo, una lista de las películas vistas por el sujeto). La información relevante se separa y se combina. En la etapa 1054, los datos se vuelven a muestrear para tener en cuenta cualquier variación en el tiempo entre las muestras. Los datos se vuelven a muestrear utilizando cualquier técnica de interpolación adecuada. En la etapa 1056, los datos se convierten en una resolución adecuada para su análisis (por ejemplo, 640 x 480 píxeles). Los datos en bruto se recopilan típicamente a una resolución más alta (por ejemplo, 1024 x 768 píxeles) que la utilizada para el procesamiento (por ejemplo, reescalados a 640 x 480 píxeles). Se entenderá que se puede usar cualquier resolución adecuada para el procesamiento de datos, incluida cualquier resolución original especificada de los datos recopilados.
[0062] En la etapa 1058, se identifican fijaciones, sacudidas oculares, parpadeos y puntos de datos fuera de pantalla o fallidos. Los algoritmos identifican automáticamente los momentos en los que el sujeto estaba fijando, sacudiendo, parpadeando o los momentos en los que el sujeto no estaba mirando la pantalla. En una realización ejemplar, la aplicación de procesamiento de datos es un ejecutable automatizado escrito en un lenguaje de programación tal como Matlab, aunque se puede usar cualquier otro lenguaje de programación adecuado. Generalmente, el software extrae información pertinente de los archivos en bruto generados durante la sesión de prueba de un sujeto, y utiliza esa información para derivar un diagnóstico a través del análisis estadístico. El programa, en un aspecto, identifica automáticamente eventos oculomotores básicos (fijaciones, sacudidas oculares, parpadeos, datos fuera de pantalla o faltantes, etc.) y se ajusta para detectar aberraciones en las estimaciones de la posición de la mirada como salida por el equipo de seguimiento ocular. Por ejemplo, en la etapa 1060, se corrige la calibración. Con los datos de los tiempos durante los cuales se mostraron objetivos de calibración adicionales, se corrigen las discrepancias en la posición de la mirada. Algunas discrepancias mayores pueden excluir ciertos datos del análisis posterior. En la etapa 1062 se realiza la comprobación de errores. Los datos de películas pueden excluirse del análisis posterior si (a) el sujeto se fija en la pantalla durante menos del 20 % (o cualquier otro porcentaje adecuado) de la duración de la película o (b) las películas no se mostraron durante toda su duración. En una o ambas de las etapas 1060 y 1062, se puede usar la evaluación y corrección de datos expuesta anteriormente con respecto a las figuras 9 y 10.
[0063] En la etapa 1064 se realiza el análisis de datos. Los datos individuales de los sujetos se comparan con casos de diferencia significativa en la posición de la mirada para los sujetos (por ejemplo, bebés y niños pequeños) a través de distintos niveles de funcionamiento social, cognitivo o de desarrollo. El análisis de los datos puede revelar el nivel de funcionamiento social por comparación. Dentro de esta etapa de procesamiento, se puede usar un análisis estadístico de los datos de seguimiento ocular del sujeto para determinar si a ese sujeto se le diagnostica una afección cognitiva o de desarrollo que incluye TEA. Como se describió anteriormente en la patente estadounidense n.° 7.922.670, los datos de seguimiento ocular procesados se comparan con los modelos de datos existentes para determinar un nivel de una afección cognitiva o de desarrollo. La puntuación generada se compara a continuación con el corte predeterminado u otros valores para determinar el diagnóstico de TEA de ese sujeto, así como un nivel de gravedad de la afección.
[0064] En la etapa 1066 se realiza un recuento. Las coordenadas de posición de la mirada se comparan con regiones de interés predeterminadas en cada fotograma de la película que se muestra. En la etapa 1068, se resumen las estadísticas pertinentes. Se registran estadísticas resumidas para cada película, incluido el tiempo de fijación en la pantalla y cada región de interés, así como el tiempo dedicado a las sacudidas oculares, parpadeo o a no interactuar de otro modo con la pantalla. También se resumen los resultados del análisis del funcionamiento social. Por último, en la etapa 1070, los datos procesados se transfieren de nuevo a la base de datos. Se transfieren dos archivos a la base de datos, uno que contiene estadísticas resumidas y otro que contiene información compartida con el seguimiento de cada etapa del procesamiento y análisis. De manera similar al script de descarga de datos en bruto expuesto anteriormente en la etapa 1052, se puede usar cualquier script adecuado para transferir todos los archivos de datos procesados a la base de datos. Como se expuso anteriormente, se puede acceder a los resultados de diagnóstico del procesamiento a través del portal del médico. Se entenderá que las etapas de los diagramas de flujo de la presente descripción son meramente ilustrativas. Cualquiera de las etapas de los diagramas de flujo puede modificarse, omitirse o reorganizarse, se pueden combinar dos o más de las etapas o se puede agregar cualquier etapa adicional, sin apartarse del alcance de la presente descripción.
[0065] El resultado de diagnóstico o prescriptivo, basado en el procesamiento y análisis de datos, se puede presentar al médico u otro cuidador de cualquier manera adecuada. Por ejemplo, la figura 14 muestra un diagrama de bloques del sistema 900 de la figura 11 utilizado para proporcionar resultados del procesamiento y análisis de datos según determinadas realizaciones. Esta disposición del sistema 900 incluye la instalación médica 910 y la base de datos 930 de la instalación de procesamiento 920. La instalación de procesamiento 920, a través de la base de datos 930, puede entregar un informe de diagnóstico/hoja de resultados 940 como se muestra. El informe 940 incluye información bibliográfica y otra información pertinente 950 relacionada con la recopilación de datos, los resultados de la prueba 960, representados como una puntuación de diagnóstico, y comentarios y recomendaciones 970. Se entenderá que se puede usar cualquier formato adecuado para proporcionar el resultado de diagnóstico o prescriptivo al médico u otro cuidador. En algunas realizaciones, el dispositivo puede estar provisto de una impresora para entregar los resultados de la prueba directamente.
[0066] Por ejemplo, con referencia ahora a la figura 15, se muestran representaciones de datos generados por ordenador de la evolución cognitiva o del desarrollo de un sujeto con respecto a otros perfiles cognitivos o de desarrollo. Las tablas de crecimiento de diagnóstico 1100 indican el desarrollo social de varios sujetos ilustrativos en comparación con las normas históricas para sujetos generalmente desarrollados y aquellos que consta que tienen TEA. Por ejemplo, los gráficos 1110(a) y 1120(a) se refieren a sujetos que muestran un desarrollo típico con respecto a aquellos con TEA basado en un único punto de datos 1110 o en múltiples puntos de datos 1120 tomados a lo largo del tiempo. Los gráficos 1110(b) y 1120(b) se refieren a sujetos que muestran diversos niveles de TEA basados en un único punto de datos 1110 o en múltiples puntos de datos 1120 tomados a lo largo del tiempo.
[0067] Con base de las exposiciones anteriores, se entenderá que los sistemas, dispositivos y procedimientos descritos en esta invención pueden implementarse en circuitos electrónicos digitales, en hardware informático, firmware, software o en combinaciones de estos. El aparato de la descripción se puede implementar en un producto de programa informático materializado de forma tangible en un dispositivo de almacenamiento legible por máquina o legible por ordenador no transitorio para su ejecución por un procesador programable. Un procesador programable que ejecuta un programa de instrucciones para realizar funciones de la descripción puede realizar el procedimiento o las etapas del procedimiento de la descripción funcionando según los datos de entrada y generando datos de salida. Los sistemas, dispositivos y procedimientos pueden implementarse usando uno o varios programas informáticos que pueden ejecutarse en un sistema programable, que incluye al menos un procesador programable acoplado para recibir datos de, y transmitir datos a, un sistema de almacenamiento, al menos un dispositivo de entrada y al menos un dispositivo de salida, respectivamente. Los programas informáticos pueden implementarse en un lenguaje de programación de alto nivel u orientado a objetos, y/o en código de ensamblaje o máquina, o cualquier otro lenguaje o código adecuado. El idioma o código puede ser un idioma o código compilado o interpretado. Los procesadores pueden incluir microprocesadores de uso general y especial. Un procesador recibe instrucciones y datos de las memorias. Los dispositivos de almacenamiento adecuados para incorporar de forma tangible instrucciones y datos de programas informáticos incluyen formas de memoria no volátil, que incluyen, a modo de ejemplo, dispositivos de memoria semiconductores, tales como EPROM, EEPROM y dispositivos de memoria flash; discos magnéticos tales como discos duros internos y discos extraíbles; discos magneto-ópticos; y disco compacto. Cualquiera de los anteriores puede complementarse o incorporarse en ASIC (circuitos integrados específicos de la aplicación).
[0068] 100921 Lo que antecede es meramente ilustrativo de los principios de la descripción, y los sistemas, dispositivos y procedimientos se pueden poner en práctica mediante realizaciones distintas a las descritas, que se presentan con fines ilustrativos y no taxativos. Aunque las realizaciones y características en esta invención se describen específicamente para su uso en relación con la recopilación y análisis de datos de seguimiento ocular de sujetos para la evaluación, detección, monitorización o diagnóstico de trastornos del espectro autista (TEA), se entenderá que los sistemas, dispositivos y procedimientos también pueden aplicarse a otros trastornos cognitivos o del desarrollo, así como otras afecciones, que incluyen, de modo no taxativo, trastornos del lenguaje, discapacidades intelectuales, discapacidades del desarrollo con o sin la presencia de trastornos genéticos conocidos, así como trastorno por déficit de atención con hiperactividad (TDAH), trastorno por déficit de atención (TDA), trastorno por estrés postraumático (TEPT), traumatismo craneal, conmoción cerebral, lesiones deportivas y demencia. Se entenderá que tales datos, si no indican medidas para un trastorno, pueden proporcionar una medida del grado de tipicidad del desarrollo normativo, proporcionando una indicación de variabilidad en el desarrollo típico. Además, todos los componentes y otras características descritas a continuación pueden combinarse entre sí de cualquier manera adecuada y pueden adaptarse y aplicarse a sistemas fuera del diagnóstico médico. Por ejemplo, los estímulos visuales interactivos de la presente descripción se pueden utilizar como una herramienta terapéutica. Además, los datos recopilados pueden proporcionar medidas de ciertos tipos de estímulos visuales a los que los sujetos atienden preferentemente. Tales medidas de preferencia tienen aplicaciones tanto dentro como fuera de los campos del diagnóstico médico y el tratamiento, incluso, por ejemplo, publicidad u otras industrias donde los datos relacionados con la preferencia de estímulos visuales son de interés.

Claims (11)

REIVINDICACIONES
1. Un procedimiento para recopilar datos de equipos de rastreo ocular, comprendiendo el procedimiento: causar la visualización de una primera imagen visual;
después de que se muestra la primera imagen visual, provocar la visualización de un objetivo de fijación en lugar de la primera imagen visual;
recibir datos del equipo de seguimiento ocular que indican el movimiento ocular de un sujeto con respecto al objetivo de fijación mostrado; y
en respuesta a recibir los datos que indican el movimiento ocular del sujeto, provocar la visualización de una segunda imagen visual en lugar del objetivo de fijación.
2. El procedimiento de la reivindicación 1, en el que el objetivo de fijación desencadena el movimiento ocular reflexivo del sujeto preferentemente, en el que el movimiento ocular del sujeto se provoca sin instrucción verbal.
3. El procedimiento de la reivindicación 1 o 2 que comprende, además:
identificar una fijación a partir de los datos que indican el movimiento ocular del sujeto;
calcular una coordenada de ubicación de fijación para la fijación; y
determinar si la coordenada de ubicación de fijación está dentro de un umbral de proximidad de una coordenada de ubicación objetivo conocida para el objetivo de fijación mostrado preferentemente, en el que los datos que indican el movimiento ocular del sujeto se rechazan con fines de calibración si la coordenada de ubicación de fijación no está dentro del umbral de proximidad.
4. El procedimiento de la reivindicación 3, que comprende además (i) recibir una indicación manual de un operador que identifica la fijación a partir de una fijación observada por el operador o (ii) recibir una indicación manual de un operador que corrobora la fijación identificada con una fijación observada por el operador.
5. El procedimiento de cualquiera de las reivindicaciones 1 a 4, que comprende además determinar si los datos recibidos indican cualquiera de un parpadeo, sacudida ocular o movimiento fino de seguimiento durante el movimiento ocular del sujeto con respecto al objetivo de fijación mostrado preferentemente, en el que los datos que indican el movimiento ocular del sujeto se rechazan con fines de calibración, al menos en parte, si los datos recibidos indican cualquiera de un parpadeo, sacudida ocular o movimiento fino de seguimiento durante el movimiento ocular del sujeto con respecto al objetivo de fijación mostrado.
6. El procedimiento de la reivindicación 1 o 2, en el que los datos que indican el movimiento ocular del sujeto se rechazan con fines de calibración si los datos no incluyen una fijación.
7. El procedimiento de cualquiera de las reivindicaciones 1 a 6, en el que la primera imagen visual es diferente de la segunda imagen visual, o en el que la primera imagen visual es la misma que la segunda imagen visual.
8. El procedimiento de cualquiera de las reivindicaciones 1 a 7, que comprende además provocar la visualización de uno o más objetivos de fijación posteriores en lugar de la segunda imagen visual preferentemente, en el que se muestra una imagen visual respectiva después de que se muestra cada objetivo de fijación posterior respectivo, y en el que cada imagen visual respectiva es diferente de la primera y segunda imágenes visuales o en el que cada imagen visual respectiva es la misma que la primera y segunda imágenes visuales preferentemente, en el que cada objetivo de fijación posterior respectivo tiene una coordenada de ubicación objetivo respectiva.
9. El procedimiento de cualquiera de las reivindicaciones 1 a 8, en el que el objetivo de fijación se muestra en respuesta a una indicación manual de un operador que observa al sujeto.
10. El procedimiento de cualquiera de las reivindicaciones 1 a 9, en el que la imagen visual se selecciona con base en un atributo del sujeto preferentemente, en el que el atributo es la edad del sujeto.
11. El procedimiento de cualquiera de las reivindicaciones 1 a 10, en el que la primera y segunda imágenes visuales son imágenes visuales dinámicas.
ES14721043T 2013-03-11 2014-03-11 Procedimientos para la detección de afecciones cognitivas y del desarrollo Active ES2877350T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361775880P 2013-03-11 2013-03-11
PCT/US2014/023644 WO2014164858A1 (en) 2013-03-11 2014-03-11 Systems and methods for detection of cognitive and developmental conditions

Publications (1)

Publication Number Publication Date
ES2877350T3 true ES2877350T3 (es) 2021-11-16

Family

ID=50630989

Family Applications (1)

Application Number Title Priority Date Filing Date
ES14721043T Active ES2877350T3 (es) 2013-03-11 2014-03-11 Procedimientos para la detección de afecciones cognitivas y del desarrollo

Country Status (15)

Country Link
US (3) US9265416B2 (es)
EP (1) EP2967314B1 (es)
JP (1) JP6462657B2 (es)
KR (1) KR102179931B1 (es)
CN (2) CN109124657B (es)
AU (1) AU2014248925B2 (es)
BR (1) BR112015022523A2 (es)
CA (1) CA2904346C (es)
ES (1) ES2877350T3 (es)
HK (1) HK1220597A1 (es)
IL (1) IL241256B (es)
MX (1) MX363272B (es)
NZ (1) NZ712214A (es)
SG (1) SG11201507147VA (es)
WO (1) WO2014164858A1 (es)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013105114A2 (en) * 2011-12-05 2013-07-18 Gautam Singh A computer implemented system and method for statistically assessing co-scholastic skills of a user
US9642522B2 (en) 2012-03-26 2017-05-09 New York University Methods and kits for assessing central nervous system integrity
JP6462657B2 (ja) * 2013-03-11 2019-01-30 チルドレンズ ヘルスケア オブ アトランタ, インコーポレイテッド 認知状況および発達状況の検出のためのシステムおよび方法
AU2014281725B2 (en) 2013-06-17 2019-10-10 New York University Methods and kits for assessing neurological and ophthalmic function and localizing neurological lesions
EP3041402A4 (en) 2013-09-04 2017-08-23 Joseph Michael Lawless Kelly Methods and systems for the detection of disease
EP3057508B1 (en) 2013-10-17 2020-11-04 Children's Healthcare Of Atlanta, Inc. Methods for assessing infant and child development via eye tracking
US9804753B2 (en) * 2014-03-20 2017-10-31 Microsoft Technology Licensing, Llc Selection using eye gaze evaluation over time
US9465981B2 (en) 2014-05-09 2016-10-11 Barron Associates, Inc. System and method for communication
CN117084624A (zh) 2014-08-04 2023-11-21 纽约大学 用于诊断、评价或量化药物使用、药物滥用和麻醉的方法和试剂盒
KR20160049273A (ko) * 2014-10-27 2016-05-09 삼성전자주식회사 의료 영상 장치
US9782069B2 (en) * 2014-11-06 2017-10-10 International Business Machines Corporation Correcting systematic calibration errors in eye tracking data
RU2582180C1 (ru) * 2015-03-20 2016-04-20 Виктор Маркович Шкловский Аппаратно-программный комплекс для обеспечения физической, профессиональной или когнитивной терапии пациентов с нарушением высших психических функций
WO2017003719A2 (en) 2015-06-30 2017-01-05 3M Innovative Properties Company Illuminator
CN105069304B (zh) * 2015-08-18 2019-04-05 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于机器学习的评估预测asd的装置
CA2901477C (en) 2015-08-25 2023-07-18 Evolution Optiks Limited Vision correction system, method and graphical user interface for implementation on electronic devices having a graphical display
US11972336B2 (en) 2015-12-18 2024-04-30 Cognoa, Inc. Machine learning platform and system for data analysis
CN105534483B (zh) * 2016-02-03 2018-05-04 中国科学院昆明动物研究所 触屏多功能非人灵长类动物认知功能测试方法
EP3493728A4 (en) 2016-08-02 2020-05-20 New York University METHOD AND KITS FOR ASSESSING THE NEUROLOGICAL FUNCTION AND LOCALIZING NEUROLOGICAL LESIONS
US10863902B2 (en) 2016-10-03 2020-12-15 Oculogica Inc. Method for detecting glaucoma
JP6771162B2 (ja) * 2016-10-07 2020-10-21 パナソニックIpマネジメント株式会社 認知機能評価装置、認知機能評価方法及びプログラム
EP3539033A4 (en) * 2016-11-14 2020-06-03 Cognoa, Inc. METHOD AND DEVICE FOR EVALUATING DEVELOPMENT FAULTS AND CHECKING COVERAGE AND RELIABILITY
CA3045768A1 (en) * 2016-12-07 2018-06-14 Auckland Uniservices Limited Stimulus and eye tracking system
FR3062307B1 (fr) * 2017-01-30 2022-01-21 Herve Harounian Dispositif et procede de stimulation cognitive d'un patient
US11141095B2 (en) 2017-02-17 2021-10-12 Oculogica Inc. Method and system for detecting concussion
CN110573061B (zh) * 2017-03-05 2022-08-26 沃缇奥普特蔻有限公司 眼科检查方法及仪器
US10950346B2 (en) 2017-04-28 2021-03-16 International Business Machines Corporation Utilizing artificial intelligence for data extraction
CN109276228B (zh) * 2017-07-21 2020-12-25 成都集思鸣智科技有限公司 一种检测大脑功能的系统及其装置
CN107397527B (zh) * 2017-07-26 2019-04-30 武汉爱尔眼科医院有限公司 一种眼睛视力测量装置
US10599682B2 (en) * 2017-08-08 2020-03-24 International Business Machines Corporation User interaction during ground truth curation in a cognitive system
WO2019055504A1 (en) * 2017-09-13 2019-03-21 Oculogica Inc. EYE TRACKING SYSTEM
CA3086037A1 (en) * 2017-11-30 2019-06-06 Viewmind S.A. System and method for detecting neurological disorders and for measuring general cognitive performance
WO2019157053A1 (en) * 2018-02-07 2019-08-15 RightEye, LLC Systems and methods for assessing user physiology based on eye tracking data
EP3591664A1 (en) 2018-07-05 2020-01-08 Université Libre de Bruxelles (ULB) Method for evaluating a risk of neurodevelopmental disorder with a child
EP3591665A1 (en) 2018-07-05 2020-01-08 Universite Libre De Bruxelles Method for evaluating a risk of neurodevelopmental disorder with a child
US11406257B2 (en) 2018-07-27 2022-08-09 Welch Allyn, Inc. Vision screening device and methods
CN109259775A (zh) * 2018-08-30 2019-01-25 清华大学 一种人脸刺激范式生成方法及自闭症分析系统
US11966507B2 (en) 2018-10-22 2024-04-23 Evolution Optiks Limited Light field vision testing device, adjusted pixel rendering method therefor, and vision testing system and method using same
US11327563B2 (en) 2018-10-22 2022-05-10 Evolution Optiks Limited Light field vision-based testing device, adjusted pixel rendering method therefor, and online vision-based testing management system and method using same
US11500460B2 (en) 2018-10-22 2022-11-15 Evolution Optiks Limited Light field device, optical aberration compensation or simulation rendering
CN109620258A (zh) * 2018-12-04 2019-04-16 北京大学 基于眼动技术测量孤独症重复刻板行为的测试装置
CN109589122B (zh) * 2018-12-18 2022-02-15 中国科学院深圳先进技术研究院 一种认知能力测评系统及方法
CN109464151B (zh) * 2018-12-29 2021-09-07 中国科学院深圳先进技术研究院 注意抑制能力获取方法、装置、设备及存储介质
US11789531B2 (en) 2019-01-28 2023-10-17 Evolution Optiks Limited Light field vision-based testing device, system and method
US11500461B2 (en) 2019-11-01 2022-11-15 Evolution Optiks Limited Light field vision-based testing device, system and method
CN109770921B (zh) * 2019-02-03 2020-12-08 清华大学 自闭症儿童早期语言与认知能力筛查的方法及装置
CN109758166A (zh) * 2019-03-06 2019-05-17 西安市儿童医院 消毒式儿童智力测试专用桌
JP7215246B2 (ja) * 2019-03-08 2023-01-31 株式会社Jvcケンウッド 表示装置、表示方法、及び表示プログラム
US11635617B2 (en) 2019-04-23 2023-04-25 Evolution Optiks Limited Digital display device comprising a complementary light field display or display portion, and vision correction system and method using same
KR102255399B1 (ko) * 2019-06-17 2021-05-24 김도훈 하이브리드 카시트 장치, 이를 이용한 영유아 안전 제공 시스템 및 방법
US11902498B2 (en) 2019-08-26 2024-02-13 Evolution Optiks Limited Binocular light field display, adjusted pixel rendering method therefor, and vision correction system and method using same
CN114599266A (zh) * 2019-08-26 2022-06-07 艾沃鲁什奥普提克斯有限公司 光场基于视力的测试设备、用于其的经调整的像素渲染方法、以及使用其的在线基于视力的测试管理系统和方法
CN110547756A (zh) * 2019-09-17 2019-12-10 广州智伴人工智能科技有限公司 一种视力测试方法、装置和系统
CN110652281B (zh) * 2019-10-25 2023-02-24 北京机械设备研究所 一种基于虚拟现实技术的视野计及视野检测方法
US11823598B2 (en) 2019-11-01 2023-11-21 Evolution Optiks Limited Light field device, variable perception pixel rendering method therefor, and variable perception system and method using same
US11487361B1 (en) 2019-11-01 2022-11-01 Evolution Optiks Limited Light field device and vision testing system using same
KR102281927B1 (ko) * 2019-11-27 2021-07-26 고큐바테크놀로지 주식회사 다양한 상태의 눈을 위한 동공 추적 방법 및 이를 이용한 건강 진단 시스템
CN111568367B (zh) * 2020-05-14 2023-07-21 中国民航大学 一种识别和量化眼跳入侵的方法
CN111939422A (zh) * 2020-08-13 2020-11-17 深圳市艾利特医疗科技有限公司 一种用于自闭症儿童的基于听觉训练的康复装置
KR102529240B1 (ko) * 2020-11-24 2023-05-04 (주)싱스웰 사용자 맞춤형 서비스를 제공하는 캡슐형 스마트 쉘터
CN113274021B (zh) * 2021-04-25 2023-11-28 阿呆科技(北京)有限公司 基于惊反射诱发的创伤后应激障碍诊断评估系统
JP2023006771A (ja) * 2021-06-30 2023-01-18 キヤノン株式会社 制御装置およびその制御方法
KR102377135B1 (ko) * 2021-08-19 2022-03-21 의료법인 명지의료재단 노인의 인지 기능 측정 방법 및 시스템
US11556174B1 (en) * 2022-03-30 2023-01-17 Motorola Mobility Llc Monitoring system having contextual gaze-detection-based selection/triggering of caregiver functions
US11903711B2 (en) 2022-06-09 2024-02-20 EarliTec Diagnostics, Inc. Assessing developmental disorders via eye tracking
EP4331470A1 (en) * 2022-08-30 2024-03-06 DIVE Medical SL Validation of eye tracking data

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4474186A (en) 1979-07-17 1984-10-02 Georgetown University Computerized electro-oculographic (CEOG) system with feedback control of stimuli
JPH0655203B2 (ja) * 1992-07-09 1994-07-27 株式会社エイ・ティ・アール視聴覚機構研究所 視線検出を用いた医療診断装置
JP3821259B2 (ja) * 1998-02-12 2006-09-13 独立行政法人科学技術振興機構 眼球運動観察用装着具、視標投影装置、及びこれらを用いた平衡機能検査装置
JP2002513176A (ja) 1998-04-29 2002-05-08 カーネギー−メロン ユニバーシティ 2つの異なる波長の光を用いて対象者の眼を監視する装置および方法
US6106119A (en) 1998-10-16 2000-08-22 The Board Of Trustees Of The Leland Stanford Junior University Method for presenting high level interpretations of eye tracking data correlated to saved display images
CA2298515A1 (en) 1999-02-11 2001-08-10 Queen's University At Kingston Method and apparatus for detecting eye movement
JP2002253509A (ja) * 2000-12-28 2002-09-10 Matsushita Electric Works Ltd 脳機能検査方法とその装置、脳機能検査システム、脳機能検査サービス方法及びそのプログラムと装置
WO2002064031A2 (en) 2001-02-09 2002-08-22 Sensomotoric Instruments Gmbh Multidimensional eye tracking and position measurement system
US6752498B2 (en) * 2001-05-14 2004-06-22 Eastman Kodak Company Adaptive autostereoscopic display system
GB0210288D0 (en) * 2002-05-04 2002-06-12 Univ Nottingham Ocular display apparatus for assessment and measurement of and for treatment of ocular disorders, and methods therefor
US6896655B2 (en) * 2002-08-05 2005-05-24 Eastman Kodak Company System and method for conditioning the psychological state of a subject using an adaptive autostereoscopic display
US7892180B2 (en) * 2002-11-18 2011-02-22 Epley Research Llc Head-stabilized medical apparatus, system and methodology
US7533989B2 (en) 2003-12-25 2009-05-19 National University Corporation Shizuoka University Sight-line detection method and device, and three-dimensional view-point measurement device
US7819818B2 (en) 2004-02-11 2010-10-26 Jamshid Ghajar Cognition and motor timing diagnosis using smooth eye pursuit analysis
JP2006087833A (ja) * 2004-09-27 2006-04-06 Matsushita Electric Works Ltd 認知機能検査方法、認知機能検査プログラム、認知機能検査装置
US7922670B2 (en) * 2005-02-24 2011-04-12 Warren Jones System and method for quantifying and mapping visual salience
JP4892742B2 (ja) * 2005-03-31 2012-03-07 国立大学法人 東京大学 視野計及び視野計測方法
GB0709405D0 (en) * 2007-05-16 2007-06-27 Univ Edinburgh Testing vision
US7556377B2 (en) * 2007-09-28 2009-07-07 International Business Machines Corporation System and method of detecting eye fixations using adaptive thresholds
US8529463B2 (en) * 2008-04-14 2013-09-10 The Johns Hopkins University Systems and methods for testing vestibular and oculomotor function
EP2334226A4 (en) * 2008-10-14 2012-01-18 Univ Ohio COGNITION AND LINGUISTIC TESTING BY EYE TRIAL
US8808195B2 (en) 2009-01-15 2014-08-19 Po-He Tseng Eye-tracking method and system for screening human diseases
EP2470061A1 (en) 2009-08-26 2012-07-04 Ecole Polytechnique Fédérale de Lausanne (EPFL) Wearable systems for audio, visual and gaze monitoring
US8371693B2 (en) 2010-03-30 2013-02-12 National University Corporation Shizuoka University Autism diagnosis support apparatus
US8885877B2 (en) * 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
JP6462657B2 (ja) * 2013-03-11 2019-01-30 チルドレンズ ヘルスケア オブ アトランタ, インコーポレイテッド 認知状況および発達状況の検出のためのシステムおよび方法
US9301675B2 (en) * 2013-03-15 2016-04-05 Neuro Kinetics, Inc Method and apparatus for validating testing procedures in objective ophthalmic eye testing for eye evaluation applications requiring subject compliance with eye fixation to a visual target
KR102224932B1 (ko) * 2014-02-19 2021-03-08 삼성전자주식회사 비전 센서를 이용한 사용자 입력 처리 장치 및 사용자 입력 처리 방법
US10120413B2 (en) * 2014-09-11 2018-11-06 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data

Also Published As

Publication number Publication date
JP6462657B2 (ja) 2019-01-30
IL241256B (en) 2019-09-26
BR112015022523A2 (pt) 2017-07-18
KR102179931B1 (ko) 2020-11-18
SG11201507147VA (en) 2015-10-29
CN105163648B (zh) 2018-08-28
CN109124657A (zh) 2019-01-04
IL241256A0 (en) 2015-11-30
JP2016515017A (ja) 2016-05-26
US20180289259A1 (en) 2018-10-11
EP2967314B1 (en) 2021-06-02
AU2014248925B2 (en) 2018-07-12
US9265416B2 (en) 2016-02-23
US20160262612A1 (en) 2016-09-15
AU2014248925A1 (en) 2015-10-01
CA2904346A1 (en) 2014-10-09
MX363272B (es) 2019-03-19
US10022049B2 (en) 2018-07-17
HK1220597A1 (zh) 2017-05-12
EP2967314A1 (en) 2016-01-20
CA2904346C (en) 2021-09-28
WO2014164858A1 (en) 2014-10-09
NZ712214A (en) 2019-03-29
MX2015012061A (es) 2016-07-05
KR20150141957A (ko) 2015-12-21
CN109124657B (zh) 2021-11-23
US20140253876A1 (en) 2014-09-11
US10702150B2 (en) 2020-07-07
CN105163648A (zh) 2015-12-16

Similar Documents

Publication Publication Date Title
ES2877350T3 (es) Procedimientos para la detección de afecciones cognitivas y del desarrollo
ES2848833T3 (es) Métodos para valorar el desarrollo de bebés y niños por medio de seguimiento de ojos
Kassem et al. A smart spirometry device for asthma diagnosis
US11666259B1 (en) Assessing developmental disorders via eye tracking
Vieira et al. A gamified application for assessment of balance and fall prevention
US20230363637A1 (en) Remote subjective refraction techniques