MXPA06011168A - Biosensores, comunicadores, y controladores que verifican el movimiento del ojo y metodos para utilizarlos. - Google Patents

Biosensores, comunicadores, y controladores que verifican el movimiento del ojo y metodos para utilizarlos.

Info

Publication number
MXPA06011168A
MXPA06011168A MXPA06011168A MXPA06011168A MXPA06011168A MX PA06011168 A MXPA06011168 A MX PA06011168A MX PA06011168 A MXPA06011168 A MX PA06011168A MX PA06011168 A MXPA06011168 A MX PA06011168A MX PA06011168 A MXPA06011168 A MX PA06011168A
Authority
MX
Mexico
Prior art keywords
eye
camera
person
user
processor
Prior art date
Application number
MXPA06011168A
Other languages
English (en)
Inventor
William C Torch
Original Assignee
William C Torch
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by William C Torch filed Critical William C Torch
Publication of MXPA06011168A publication Critical patent/MXPA06011168A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/112Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements

Abstract

Se proporcionan aparatos de biosensores, comunicadores y/o controladores, sistemas y metodos para verificar el movimiento del ojo de una persona. El aparato incluye un dispositivo configurado para ser usado en la cabeza de un usuario, una fuente de luz para dirigir luz hacia uno o ambos ojos del usuario, una o mas guias de imagen en el dispositivo para ver uno o ambos ojos del usuario, y una o mas camaras llevadas en el dispositivo y acopladas a las guias de imagen para adquirir imagenes de los ojos y/o los alrededores del usuario. El aparato puede incluir un cable y/o un transmisor para transmitir datos de imagen de la camara a una ubicacion remota, por ejemplo, a un procesador y/o presentacion para analizar y/o presentar los datos de imagen. Un sistema que incluye el aparato puede ser utilizado para verificar uno o mas parametros oculometricos, por ejemplo, respuesta de pupila, y/o para controlar una computadora utilizando los ojos del usuario en lugar de un raton (mouse).

Description

BIOSENSORES, CO UNICADORES. Y CONTROLADORES QUE VERIFICAN EL MOVIMIENTO DEL OJO Y MÉTODOS PARA UTILIZARLOS CAMPO DE LA INVENCIÓN La presente invención se refiere en general a aparatos, sistemas, y métodos para verificar el movimiento de un ojo humano, por ejemplo, para verificar fatiga, comunicación intencionada, y/o controlar dispositivos basándose en el movimiento de un ojo, parpado, y/u otros componentes del ojo u ojos de una persona.
ANTECEDENTES Se ha sugerido utilizar el movimiento del ojo humano para verificar condiciones involuntarias, tales como insomnio o somnolencia de una persona. Por ejemplo, la Patente de EUA No. 3, 863,243 describe un dispositivo que hace sonar una alarma para alertar a la persona que utiliza el dispositivo de que está comenzando a quedarse dormida. El dispositivo incluye un armazón similar a un juego de lentes sobre los cuales se monta una fibra óptica y una fotocelda que son dirigidas hacia el ojo de usuario cuando el armazón se está usando. La fotocelda detecta la intensidad de luz reflejada del ojo del usuario, es decir, ya sea por el parpado cuando el ojo está cerrado o la superficie del ojo cuando el ojo está abierto. Un cronómetro distingue entre parpadeos regulares, y un periodo extendido de tiempo durante el cual el ojo está cerrado, es decir, un periodo que puede indicar que la persona se está durmiendo. Cuando transcurre un umbral de tiempo, suena una alarma para notificar y/o despertar al usuario. Otro dispositivo es el Monitor de Estado de Alerta por MTl Research inc. , el cual puede ser montado en lentes de seguridad, y emite un rayo de luz infrarrojo continuo a lo largo del eje del parpado en una posición estratégica en donde el rayo no puede ser separado por las pestañas excepto durante un parpadeo, proporcionándole la habilidad de medir la frecuencia de parpadeo. Otros dispositivos tales como aquellos descritos en las Patentes de EUA Nos. 5,469, 143 y 4,359,724, directamente acoplan el parpado o ceja de un usuario para detectar el movimiento del ojo y activar una alarma cuando se detecta una condición de somnolencia. Dichos dispositivos pueden incluir dispositivos mecánicos, por ejemplo, un brazo mecánico, o una película piezoeléctrica contra el parpado. Se ha sugerido montar cámaras u otros dispositivos a un tablero de instrumentos, techo u otra ubicación en un vehículo para verificar la conciencia de un conductor. Sin embargo, dichos dispositivos requieren que el usuario mantenga un contacto constante del ojo con la cámara. Además, no verifican el movimiento del parpado si el usuario gira su cabeza lateralmente o hacia abajo, la rodea, sale del vehículo, si el usuario remueve alrededor de esto rápidamente, o si la cámara se mueve con relación al individuo.
Además, dichas cámaras pueden violar la privacidad y/o tener problemas con la visión a través de los lentes, lentes para sol, o aún lentes de contacto, y pueden no operar efectivamente en la luz solar.
BREVE DESCRIPCIÓN DE LA INVENCIÓN La presente invención está dirigida a aparatos, sistemas, y métodos para verificar el movimiento de uno o más ojos, parpados, y/o pupilas de un sujeto. Generalmente, los seres humanos parpadean alrededor de aproximadamente 5-30 veces por minutos, o alrededor de 7,000-43,000 veces por día. Cada parpadeo reflexivo-involuntario dura aproximadamente 200-300 milisegundos, generalmente promediando alrededor de 250 milisegundos, representando alrededor de 1 ,750-10,800 segundos por día del cierre del ojo debido al parpadeo involuntario. A medida que ocurra el cansancio o somnolencia, el parpadeo puede ser más largo y más lento y/o la velocidad de parpadeo puede variar, y/o los parpados pueden comenzar a caer con pequeños parpadeos en la amplitud del parpado, por ejemplo, hasta que los ojos comienzan a cerrarse durante "microsueños" de corta duración. Es decir, condiciones del dormir que duran entre aproximadamente 3-5 segundos o más, o durante un sueño prolongado. Además, las pupilas pueden contraerse más lentamente, mostrar fluctuación inestable en el tamaño, encogerse progresivamente en el diámetro, y/o mostrar respuestas retrazadas a los destellos de luz (es decir, latencia de respuesta de pupila retrazada) a medida que la somnolencia y fatiga progresan. Además, pueden ocurrir otras manifestaciones oculares de somnolencia, tales como respuestas de rastreos de ojo de forma saltona lentas o retrazadas, es decir, a un estímulo (es decir, latencia de respuesta de manera saltona retrazada), ya sea con un sobre-disparo o bajo disparo del objetivo, y/o una pérdida de mirada fija dirigida con o sin vergencia o divergencia binocular, desviación del ojo, o esoforia. En una modalidad, se proporciona un aparato para verificar el parpado, pupila, y/o movimiento del ojo que incluye un dispositivo configurado para ser usado en la cabeza de una persona, una fuente de luz para dirigir luz hacia ios ojos de la persona cuando se está usando el dispositivo, y primero y segundo haces de fibra óptica acoplados al dispositivo, el primer haz colocado para ver un primer ojo de la persona que está usando el dispositivo, el segundo haz colocado para ver un segundo ojo de la persona que está usando el dispositivo. El aparato también puede incluir una cámara acoplada a los primeros y segundos haces para adquirir imágenes de los primer y segundo ojos. Opcionalmente, el aparato también puede incluir un tercer haz de fibra óptica orientado lejos de usuario, por ejemplo, para ver una región hacia la cual se gira la cabeza del usuario. Además o alternativamente, el aparato puede llevar uno o más sensores espaciales. La cámara puede ser acoplada a los primer y segundos haces para adquirir imágenes de los primer y segundo ojos, así como al tercer haz para adquirir imágenes del área hacia fa cual se dirigen la cabeza y/u ojos del ojos del usuario. Los sensores espaciales permiten la medición o rastreo simultáneo del movimiento de la cabeza del usuario, por ejemplo, con relación a los movimientos del ojo del usuario. Además, las disposiciones de emisores y/o sensores acoplados a la cámara pueden permitir la medición de una variedad de parámetros oculométricos de uno o ambos ojos, tales como la velocidad del parpado, aceleración y desaceleración, frecuencia de parpadeo del ojo, "PERCLOS" (porcentaje de tiempo en el que permanece el parpado abierto), la altura vertical de la fisura palpebral (es decir, la región entre los parpados que no cubren la pupila), por ejemplo, como una distancia o porcentaje relacionado con un ojo completamente abierto, o similares. En otra modalidad, se proporciona un dispositivo independiente para detectar el movimiento del parpado de una persona, que incluye un dispositivo adaptado para ser usado en la cabeza de la persona, un emisor en el dispositivo para dirigir luz hacia el ojo de una persona cuando el dispositivo de está usando, y una cámara para detectar la luz del emisor. El sensor produce una señal de salida indicando cuando el ojo está abierto o cerrado, y un emisor en el armazón está acoplado al censor para la transmisión inalámbrica de la señal de salida a una ubicación remota. El armazón también puede incluir un procesador para comparar la señal de salida con un umbral predeterminado para detectar el movimiento del parpado inducido por somnolencia. Similar a las modalidades previas, ei emisor y el sensor pueden ser un dispositivo biosensor de estado sólido para emitir y detectar luz infrarroja, o alternativamente una disposición o arreglo, por ejemplo, un arreglo unidimensional o bidimensional, de emisores y/o sensores en una configuración predeterminada en el armazón, por ejemplo, en una disposición vertical, horizontal, diagonal, u otra disposición lineal o geométrica de más de un emisor y/o sensor orientado hacia uno o ambos ojos. En particular, una disposición de emisores y/o sensores puede permitir la medición de parámetros oculométricos, tales como aquellos identificados aqui en cualquier parte. El emisor y/o sensores pueden ser fijados en cualquier número de puntos en el armazón, por ejemplo, alrededor del lente y/o en el puente de la nariz, o alternativamente en cualquier parte a lo largo del armazón, incluyendo cerca o en la porción nasal del armazón, la unión de una pieza de sien del armazón, y/o una superficie montada en el lente de de unos anteojos. Alternativamente, el emisor y/o sensor pueden ser embebidos en un lente de unos anteojos, o de otra manera tal que operan a través del lente. De esta manera, el emisor(es) y/o sensor(es) puede ser fijado en un armazón de ojo de manera que se mueven con los movimientos de la cabeza del usuario, y continuamente enfocan los ojos del usuario en cualquier posición del cuerpo, si el usuario está en un vehículo, en el exterior, o en cualquier otro ambiente. En otra modalidad más se proporciona un sistema para el movimiento del ojo de una persona. El sistema incluye un dispositivo configurado para ser usado en la cabeza de una persona, uno o más emisores en el dispositivo para dirigir luz hacia el ojo de la persona cuando el dispositivo se está usando, y una cámara, por ejemplo, un dispositivo CCD o CMOS. El emisor(es) puede ser configurado para proyectar un armazón de referencia hacia el ojo. La cámara puede ser orientada hacia el ojo para verificar el movimiento del ojo con relación al armazón de referencia. La cámara puede ser provista en el dispositivo o puede ser provista lejos del dispositivo, pero en una cercanía relativamente estrecha al usuario. La luz del emisor(es) puede ser emitida hacia el ojo de un usuario que lleva el dispositivo para iluminar el ojo(s) del usuario, mientras proyecta un armazón de referencia sobre el ojo. El emisor(es) puede proyectar luz "invisiblemente" al usuario, es decir, fuera de la escala escotópica (visión nocturna) o fotópica (visión de día) de la visión normal, por ejemplo, en la escala de luz infrarroja, de manera que la iluminación y/o armazón de referencia no interfiere sustancialmente con la visión de usuario. La cámara puede formar imágenes con la luz producida por los emisores, por ejemplo, en la escala de luz infrarroja, detectando así la luz proyectada como un punto de luz, banda de luz u otra "mirada fija". El movimiento del ojo con relación al armazón de referencia puede ser verificado con la cámara. La salida gráfica del movimiento verificado por la cámara, por ejemplo, con relación a un armazón de referencia proyectado en el ojo puede ser verificada. Por ejemplo, la luz infrarroja de los emisores puede ser relejada fuera de la retina como un "relejo rojo" bajo luz blanca, como una pupila blanca u oscura bajo luz infrarroja, incluyendo la imagen de una pupila oscura utilizando métodos de sustracción conocidos en al técnica. Un procesador, por ejemplo, que utiliza uno o más de estos métodos, puede detectar el movimiento de la pupila del ojo, por ejemplo, midiendo el movimiento con relación al armazón de referencia. Este movimiento puede ser gráficamente presentado, mostrando el movimiento de la pupila del ojo con relación al armazón de referencia. Opcionalmente, la señal de salida de uno o más sensores puede ser correlacionada con señales de video producidas por la cámara que verifica el movimiento del ojo con relación al armazón de referencia, por ejemplo, para determinar el nivel de somnolencia de la persona, o estado cognoscitivo físico-o neuro-fisiológico, emocional y/o relacionado con el aspecto de aleta de la mente. En otra modalidad más, se proporciona un método para controlar a un dispositivo de cómputo u otro dispositivo electrónico o electro-mecánico (por ejemplo, radio, televisión, silla de ruedas, teléfono, sistema de alarma, sistema de alerta audible, visible o táctil, etc. ,) utilizando un dispositivo usado en la cabeza de un usuario. El dispositivo puede incluir uno o más componentes similares a otras modalidades aquí descritas, incluyendo una cámara que tiene por lo menos un lente objetivo dirigido hacía por lo menos un ojo del usuario. El dispositivo de computadora puede incluir una presentación a pantalla que incluye un indicador presentado en la pantalla. La presentación a pantalla puede incluir una presentación de cabeza arriba o cabeza abajo unido al dispositivo usado en la cabeza del usuario o de otra manera unido o dispuesto en la cabeza del usuario, un monitor de computadora de escritorio que pueda ser dispuesto enfrente del usuario, una imagen digitalmente proyectada sobre una pantalla (por ejemplo, como en un simulador de conducción o de vuelo), y similares. El movimiento del ojo(s) del usuario puede ser verificado utilizando la cámara, y el movimiento del ojo(s) puede ser correlacionado con relación al indicador en la presentación para hacer que el indicador siga el movimiento del ojo(s), por ejemplo, similar a un ratón de computadora. Opcionalmente, la cámara puede verificar el ojo puede verificar el ojo(s) del usuario para actividades predeterminadas del ojo, por ejemplo, parpadeos durante lapsos predeterminados de tiempo, que pueden corresponder a instrucciones para ejecutar uno o más comandos identificados con el indicador sobre la presentación, por ejemplo, similar a "doble-o presión" en un ratón de computadora. Otros aspectos y características de la presente invención serán evidentes tomando en cuenta la siguiente descripción junto con los dibujos anexos.
BREVE DESCRIPCIÓN DE LOS DIBUJOS La Figura 1 es una vista en perspectiva de un paciente en un hospital que está usando una modalidad de un aparato para verificar al paciente basándose en el movimiento del ojo y/o parpado del paciente. La Figura 2 es una vista en perspectiva agrandada de la modalidad de la Figura 1 , incluyendo un dispositivo de detección y una caja de procesamiento. La Figura 3 es un dibujo esquemático de una modalidad ilustrativa del sistema de circuito para transmitir una señal una de salida que corresponde a una secuencia de movimientos del parpado.
La Figura 4 es un dibujo esquemático de una modalidad ilustrativa del sistema de circuito para controlar el equipo en respuesta a una señal de salida que corresponde a una secuencia de movimientos del parpado. La Figura 5 es un dibujo esquemático de una modalidad ilustrativa de un sistema de circuito para detectar el movimiento del parpado. Las Figuras 6A-6C son vistas en sección y frontales de modalidades alterna de un dispositivo para emitir luz hacia y detectar luz reflejada de una superficie de un ojo abierto. Las Figuras 7A-7C son vistas en sección y frontales de los dispositivos de las Figuras 6A-6C, respectivamente, emitiendo luz hacia y detectando la luz reflejada de un parpado cerrado. La Figura 8 es una vista en perspectiva y un diagrama de bloque de otra modalidad de un sistema para verificar a un usuario con base en el movimiento del ojo y/o parpado del usuario. La Figura 9 es un diagrama de bloque de los componentes de otra modalidad más de un sistema para verificar a un usuario con base en el movimiento del ojo y/o parpado del usuario. La Figura 10A es una vista en perspectiva de otra modalidad más de un sistema para verificar a un usuario con base en el movimiento del ojo y/o parpado del usuario. La Figura 10B es detalle esquemático de una porción del sistema de la Figura 10A. La Figura 10C es un detalle de una disposición o arreglo ilustrativo de emisores y sensores que pueden se provistos en un puente de nariz de un armazón de ojo, tal como aquel de la Figura 10A. La Figura 10D es una vista en sección de la disposición o arreglo de emisores y sensores de la Figura 10C que emiten luz y detectan luz reflejada de un ojo. La Figura 1 1A es una vista esquemática de un sistema para controlar selectivamente un número de dispositivos a partir de una ubicación remota con base en el movimiento del parpado. La Figura 1 1 B es una vista esquemática del dispositivos adicionales que pueden ser controlados por el sistema de la Figura 1 1 B. La Figura 12A es una tabla que muestra la relación entre la activación de una disposición de sensores, tal como aquella mostrada en las Figuras 10A-10D y un ojo que está siendo verificado por la disposición, a medida que el ojo progresa entre las condiciones abierta y cerrada.
La Figura 12B es una gráfica que muestra una corriente de datos provistos por una disposición de sensores, tal como aquellas mostradas en las Figuras 10A-10D, indicando el porcentaje de cobertura del ojo como una función del tiempo ("PERCLOS"). La Figura 12C es una presentación gráfica de un número de parámetros fisiológicos, incluyendo PERCLOS, de una persona que está siendo verificada por un sistema que incluye un dispositivo tal como aquel mostrado en las Figuras 10A-10D. La Figura 12D es una tabla que muestra la relación entre la activación de disposiciones bidtmensionales de sensores y un ojo que está siendo verificado, a medida que el ojo progresa entre las condiciones abierta y cerrada. La Figura 13 es una vista en perspectiva de otro sistema para verificar a un usuario con base en el movimiento del ojo y/o parpado del usuario. La Figura 14 es un detalle de una cámara en el armazón de la Figura 13. Las Figuras 15A-15I son presentaciones gráficas de varios parámetros que pueden ser verificados con el sistema de la Figura 13. La Figura 16 es un detalle de salida de video de una cámara en el armazón de la Figura 13. La Figura 17 es una vista esquemática que muestra una modalidad ilustrativa del sistema de circuito para procesar señales a partir de una disposición de sensor de cinco elementos. Las Figuras 18A y 18B muestran otra modalidad de un aparato para verificar el movimiento del ojo incorporado en un casco de aviador. La Figura 19 es una vista esquemática de una cámara que puede ser incluida en los aparatos de las Figuras 18A y 18B. Las Figuras 20A y 20B son imágenes gráficas, mostrando salidas simultáneas de múltiples cámaras, mostrando el abrir y cerrar de los ojos del usuario, respectivamente. Las Figuras 21 A-21 C son presentaciones gráficas, mostrando una gráfica elíptica que ha sido creada para identificar un perímetro de una pupila para facilitar la verificación del movimiento del ojo. La Figura 22 es un diagrama de flujo, mostrando un método para la prueba de vigilancia de un usuario que usa un aparato para verificar el movimiento de los ojos del usuario. La Figura 23 es un diagrama de flujo, que muestra un método para controlar un dispositivo de cómputo basándose en el movimiento de un ojo. Las Figuras 24A y 24B son vistas frontales y laterales, respectivamente, de un aparato para transmitir transcutáneamente luz hacia un ojo y detectar la luz emitida que sale de la pupila del ojo.
DESCRIPCIÓN DETALLADA DE LAS MODALI DADES PREFERIDAS Regresando a los dibujos, la Figura 1 muestra un paciente 10 en una cama 12 que lleva un dispositivo de detección 30 para detectar el movimiento del ojo y/o parpado del paciente 10. El dispositivo de detección 30 puede incluir cualquiera de los dispositivos de biosensor descritos aquí, los cuales pueden ser utilizados para verificar el movimiento voluntario del ojo, por ejemplo, para comunicación intencionada, para verificación del movimiento involuntario del ojo, por ejemplo, somnolencia y otras condiciones, y/o para controlar uno o más dispositivos electrónicos (no mostrados). El dispositivo de detección 30 puede ser acoplado a una caja de procesamiento 130 que convierte el movimiento del ojo y/o parpado detectado a una corriente de datos, un mensaje que se puede entender, y/o a otra información, que puede ser comunicada, por ejemplo utilizando una presentación de video 50, a un proveedor del cuidado de la salud 40. Volviendo a las Figuras 2, 6A, y 7A, se muestran una modalidad ilustrativa de un aparato o sistema 14 que incluye un dispositivo de detección 30 dirigible y que se puede enfocar que se puede unir a un par convencional de lentes 20. Los lentes 20 incluyen un par de lentes 21 unidos a un armazón 22, que incluye un puente de trabajo 24 que se extiende entre los lentes 21 , y miembros laterales o piezas de sien 25 que llevan piezas de oreja 26, todas estas son convencionales. Alternativamente, ya que ios lentes 21 pueden ser no necesarios, el armazón 22 también puede ser provisto sin los lentes 21 . El dispositivo de detección incluye un sujetador u otro mecanismo 27 para unirse a uno de los miembros laterales 25 y un brazo ajustable 31 sobre el cual se monta uno o más emisores 32 y sensores 33 (uno mostrado). El emisor 32 y el sensor 33 están montados en una relación predeterminada, de manera que el emisor 32 puede emitir una señal hacia un ojo 300 de una persona que lleva los lentes 20 y el sensor 33 puede detectar ia señal reflejada de la superficie del ojo 300 y parpado 302. En la modalidad ilustrativa mostradas en las Figuras 6A y 7A, el emisor 32 y sensor 33 pueden ser montados adyacentes uno al otro. Alternativamente, como se muestra en las Figuras 6A y 7B, el emisor 32' y el sensor 33' pueden ser montados sobre el armazón en forma separada lejos uno del otro, por ejemplo, de manera que el emisor 32' y el sensor 33' quedan dispuestos sustancialmente en forma lateral con respecto uno al otro. En una alternativa adicional, mostrados en las Figuras 6C y 7C, el emisor 32" y el sensor 33" pueden ser montados a través del ojo 300 en alineación axial con el otro. A medida que el parpado 302 se cierra, puede rom per el haz 340 que se está detectando por el sensor 33". En una modalidad, el emisor 32 y el sensor 33 producen y detectan luz continua y pulsada, respectivamente, por ejemplo, dentro de la escala infrarroja para reducir al m ínimo la distracción o interferencia con la visión normal de usuario. El emisor 32 puede emitir luz en pulsos a una frecuencia predeterminada y el sensor 33 está configurado para detectar pulsos de luz a la frecuencia predeterminada. Esta operación pulsada puede reducir el consumo de energ ía por el emisor 32 y/o puede reducir ai mínimo la interferencia con otras fuentes de luz. Alternativamente, otras escalas de frecuencia predeterminada de luz más allá o dentro del espectro visible, tal como luz ultravioleta, u otras formas de energía, tales como ondas de radio, ondas sónicas, y similares, pueden ser utilizadas. La caja de procesamiento 130 está acoplada al dispositivo de detección 30 a través de un cable 34 que ¡ncluye uno o más cables o alambres en el mismo (no mostrado). Como se m uestra en la Figura 9, la caja de procesamiento 130 puede incluir una unidad de procesamiento central (CPU) 140 y/u otro sistema de circuito, tal como el sistema de circuito ilustrativo mostrado en las Fig uras 3-5, para recibir y/o procesar una señal de salida 142, tal como una señal de intensidad de luz, del sensor 33. La caja de procesamiento 130 también puede incluir el sistema de circuito de control 141 para controlar el emisor 32 y/o el sensor 33, o la CPU 140 puede incluir un sistema de circuito de control interno. Por ejemplo, en una modalidad, el sistema de circuito de control 141 puede controlar al emisor 32 para producir una señal infrarroja titilante pulsada a una frecuencia predeterminada, tanto como miles de pulsos por segundo a tan poco como aproximadamente 4-5 pulsos por segundo, por ejemplo, por lo menos alrededor de 5-20 pulsos por segundo, facilitando así la detección de parpadeos no intencionados o intencionados tan cortos como aproximadamente 200 milisegundos por parpadeo. El sensor 33 puede ser controlado para detectar pulso de luz solamente a la frecuencia predeterminada, específica a la frecuencia de titileo del emisor 32. De esta manera, al sincronizar el emisor 32 y el sensor 33 a la frecuencia predeterminada, el sistema 10 puede ser utilizada bajo una variedad de condiciones ambientales sin que la señal de salida 142 sea sustancialmente afectada por, por ejemplo, luz solar brillante, oscuridad total, fondos de luz infrarrojas en ambientes, u otros emisores que operan a diferentes frecuencias de titileo. La frecuencia de titileo puede ser ajustada para incrementar al máximo la medición eficiente del número de parpadeos por unidad de tiempo (por ejemplo, alrededor de diez a aproximadamente veinte parpadeos por minuto), la duración de cada parpadeo (por ejemplo, a aproximadamente 200 milisegundos a aproximadamente 300 milisegundos), y/o PERCLOS (es decir, el porcentaje de tiempo en el que el parpado está completa o parcialmente cerrado), o para incrementar al máximo la eficiencia del sistema, mientras se mantienen un consumo de energ ía a un mí. El sistema de circuito de control 141 y/o la caja de procesamiento 130 pueden incluir controles manuales y/o de software (no mostrados) para ajustar la frecuencia, foco o intensidad de la luz emitida por el emisor 32, para encender y apagar el emisor 32, para ajustar la sensibilidad de umbral del sensor 33, y/o para permitir el auto enfoque con una reflexión infrarroja máxima de un parpado cerrado, como se apreciará por aquellos expertos en la técnica. Además, la caja de procesamiento 130 también puede incluir una fuente de energía 160 para proporcionar energía al emisor 32, el sensor 33, la CPU 144, y/u otros componentes en la caja de procesamiento 130. La caja de procesamiento 130 puede ser accionada por una batería DC convencional, por ejemplo, una batería de nueve voltios o una batería generada por litio, cadmio, o hidrógeno recargable, y/o mediante celdas solares unidas a o construidas dentro del sistema 14. Alternativamente, se puede conectar un adaptador (no mostrado) a la caja de procesamiento 130, tal como un adaptador AC convencional o un adaptador más ligero de automóvil de doce voltios. El CPU 140 puede incluir un sistema de circuito de cronómetro 146 para comparar la longitud de elementos individuales de la señal de salida 142 con un umbral predeterminado para distinguir entre parpadeos normales y otros movimientos del parpado. El sistema de circuito de cronómetro 146 puede ser componentes discretos separados o puede ser provisto internamente dentro del CPU 140, como se apreciará por aquellos expertos en la técnica. El CPU 140 puede convertir la señal de salida 142 a una corriente de datos 144, que puede ser usada para comunicarse con otras personas o equipo. Por ejemplo, la corriente de datos 144 producida por el CPU 140 puede ser una señal binaria, tal como un código Morse o código ASCI . Alternativamente, el CPU 140 puede ser capaz de producir otras salidas, por ejemplo, señales de voz sintetizadas, señales de control para equipos, o representaciones pictóricas. Para facilitar la comunicación, la caja de procesamiento 130 puede incluir una variedad de dispositivos de salida para utilizar la corriente de datos 144. Por ejemplo, se puede proporcionar una bocina interna 150 que puede producir un sonido de alarma o una voz sintetizada. Un puerto de salida 148 puede ser provisto, al cual una variedad de equipo, tal como la presentación de video 50 mostrada en la Figura 1 , puede ser directamente acoplada mediante conexiones de cableado duro. Además o alternativamente, la caja de procesamiento 130 puede incluir un transmisor 152 acoplado al CPU 144 para comunicación inalámbrica de la corriente de datos 144 hacia una ubicación remota. Por ejemplo, como se muestra en la Figura 9, el sistema 14 puede incluir una unidad de recepción y procesamiento 154, tal como una computadora u otro sistema de control o presentación. El transmisor 152 puede ser un transmisor de radio frecuencia ("RF") capaz de producir una señal de escala corta, por ejemplo, alcanzando tanto como aproximadamente 30.48 metros o más, o alternativamente alrededor de 13.71 metros a 15.24 metros, aún a través de paredes u obstáculos. Alternativamente, se pueden proporcionar otros transmisores, por ejemplo, un transmisor infrarrojo. El transmisor 153 también puede ser acoplado a un amplificador (no mostrado) para permitir que la corriente de datos sea transmitida cientos o miles de metros o más, por ejemplo, utilizando protocolos de Bluetooth u otros protocolos RF. Por ejemplo, el amplificador y trasmisor 152 pueden comunicarse a través de líneas de comunicación telefónica, satélites y similares, para transmitir la corriente de datos a una ubicación remota muy lejos del sistema, en donde los datos pueden ser verificados, analizados en tiempo real, o almacenados (por ejemplo, como en un registro de "caja negra" de camión o avión) para análisis futuro o retrospectivo. El sistema puede incluir o puede ser acoplado a un sistema de colocación global (GPS) para verificar la ubicación, movimiento, y/o estado de alerta cognoscitiva, insomnio, somnolencia, o rendimiento emocional/de comportamiento y/o seguridad de un usuario que lleva el dispositivo de detección 30. La unidad de recepción y procesamiento 154 puede incluir un receptor 156, por ejemplo, un receptor de radiofrecuencia, para recibir señales 153, incluyendo la corriente de datos, transmitida por el transmisor 152. Un procesador 158 está acoplado al receptor 156 para traducir, almacenar, y/o utilizar la información en la corriente de datos, el procesador 158 estando acoplado al sistema de circuito de memoria 160, un dispositivo de comunicación 162, y/o un sistema de control 164. Por ejemplo, la unidad de recepción y procesamiento 154 puede incluir el sistema de circuito de memoria 160 en él, en donde el procesador 158 simplemente puede almacenar al corriente de datos para recuperación y análisis subsecuentes. El procesador 158 puede interpretar la corriente de datos, por ejemplo, convirtiendo un código binario en la corriente de datos a un mensaje que e puede entender, es decir, una serie de letras, palabras y/o comandos, y/o puede utilizar dispositivos de comunicación en aumento o software (tal como KE.NX o Words Plus) Para facilitar la comunicación. El mensaje resultante puede ser presentado en el dispositivo de comunicación 162, el cual puede incluir una presentación de video para presentar textos, imágenes y/o símbolos, un módulo de voz sintetizada para proporcionar lenguaje electrónico, y similares. Alternativamente, la corriente de datos puede ser presentada gráficamente en una pantalla de video de computadora u otro dispositivo de presentación electrónica como una señal de mensaje "en tiempo real" o numéricamente (por ejemplo, presentando la velocidad de parpadeo, duración del parpadeo, PERCLOS, etc.), o presentarse gráficamente similar a un rastreo EKG o EEG. Además, como se muestra en la Figura 12C, la corriente de datos puede ser presentada junto con otros datos fisiológicos, tales como conductancia de la piel, temperatura del cuerpo, datos cardiovasculares, (por ejemplo, ritmo cardiaco, presión sanguínea), datos respiratorios (por ejemplo, velocidad de respiración, niveles de oxigeno y dióxido de carbono en sangre), datos electromiográficos (EMG) y/o datos actigráficos (es decir, movimiento del cuerpo, posición) , y/u otras variables y los polisomnográficas (PSG) o electroencefalográficas (EEG) del dormir. Alternativamente, la corriente de datos puede ser integrada con controladores que verifican funciones de automóvil o mecánica (por ejemplo, velocidad del vehículo, aceleración, funciones de frenado, par de torsión, oscilación o inclinación, velocidad del motor o máquina, etc.) para hacer decisiones inteligentes con respecto a la desaceleración o aceleración del vehículo, dependiendo de las condiciones de la carretera y/o vehículo, así como funciones que se relacionan con el estado de conciencia, insomnio, atención, y/o respuestas de vigilancia de funcionamiento en tiempo real del operador de máquina o conductor. Además, el mensaje puede ser interpretado por el procesador 158 para dirigir el sistema de control 164 para controlar una o más piezas de maquinaria o equipo. Por ejemplo, la corriente de datos puede incluir un comando para dirigir el sistema de control 164 para controlar interruptores de relee u otros dispositivos para apagar y encender un dispositivo eléctrico, tal como un aparato domestico, silla de ruedas eléctrica, motor, luz, alarma, teléfono, televisión, computadora, un asiento de vibración táctil, y similares, o para operara un ratón de computadora activado por los ojos u otro controlador. Alternativamente, el procesador 158 puede utilizar la corriente de datos para controlar PC, I BM, Macintosh, y otras computadoras, y/o software y/o hardware de computadora compatible, por ejemplo, para interactuar con una computadora similar a un ratón, una tecla de "regreso", y/o una "palanca de juego". Por ejemplo, la corriente de datos puede incluir comandos para activar una serie de menús a partir de los cuales se pueden seleccionar sub-menús o artículos individuales, como se utiliza en software de uso general y juego de computadora comercialmente disponible, así como software de comunicaciones especial tal como WORDS-PLUS o Ke: NX. El procesador 158 entonces puede controlar, desplazar o seleccionar artículos de programas de software de computadora, operar una impresora, u otro dispositivo periférico (por ejemplo, seleccionar una fuente, párrafo, tabulación u otro operador de símbolo, seleccionar comandos, tales como "editar", "encontrar", "formatear", "insertar", "ayuda", o controlar operaciones de CD-ROM o de unidad de disco, y/u otras funciones de Windows y que no son de Windows). Alternativamente, el receptor 156 puede ser acoplado directamente a una variedad de dispositivos (no mostrados), tales como controles de radio o televisión, lámparas, ventiladores, calentadores, motores, asientos vibro-táctiles, vehículos de control remoto, dispositivo de verificación o control de vehículo, computadores, impresoras, teléfonos, unidades de línea de vida, juguetes electrónicos o sistemas de comunicación en aumento, para proporcionar una interfase directa entre el usurario y los dispositivos. Durante el uso, el dispositivo de detección 30 puede ser colocado en la cabeza de un usuario, es decir, colocando los lentes 20 como se muestra en la Figura. 1. El brazo ajustable 31 y/o el sujetador 27 puede ser ajustados para orientar óptimamente el emisor 32 y al sensor 33 hacia el ojo 300 del usuario (mostrado en las Figuras 6A-6C y 7A-7C). El emisor 32 puede ser activado y un haz de luz 340 dirigirse del emisor 32 hacia el ojo 300. La intensidad y/o frecuencia del emisor 32 y/o la sensibilidad umbral el sensor 33 u otro foco entonces pueden ser ajustados (por ejemplo, manual u automáticamente utilizando accesorios de auto-ajuste). Debido a la diferencia en las características de reflexión de la superficie del mismo ojo 300 y el parpado 302, la intensidad de la luz reflejada del ojo 300 depende de si el ojo 300 está abierto o cerrado. Por ejemplo, las Figuras 6A y 6B ilustran una condición de ojo abierto, en donde un rayo de luz 340 producido por el emisor 32 choca con la superficie del mismo ojo 300 y consecuentemente es difundida, como se muestra por los rayos 350. De esta manera, la intensidad de luz resultante detectada por el sensor 33 es relativamente baja, es decir, el sensor 33 puede no recibir ninguna señal de regreso sustancial. En las Figuras 7A y 7B, el ojo 300 se muestra con el parpado 302 cerrado como puede ocurrir durante parpadeos normales, momentos de somnolencia, parpadeos intencionales, y otros movimientos del parpado. Ya que la luz 340 choca con el parpado 302, esta es sustancialmente reflejada de regreso al sensor 33, como se muestra por el rayo 360, dando como resultado una intensidad de luz relativamente alta que es detectada por el sensor 33. Alternativamente, como se muestra en la Figura 7C, el haz de luz 340 puede ser dividido o cortado por el parpado 302 cuando el ojo 300 está cerrado. El sensor 33 consecuentemente produce una señal de intensidad de luz que indica cuando el ojo 300 está abierto o cerrado, es decir, que corresponde al tiempo durante el cual la luz reflejada no es detectada o detectada, respectivamente, por el sensor 33. En general, la intensidad de la luz infrarroja reflejada de la superficie del parpado no se ve sustancialmente afectada por la pigmentación de la piel. Sí se desea ajustar la intensidad de luz reflejada del parpado, se pueden aplicar hojas, brillo, cremas humectantes reflectivas, y similares, para incrementar la capacidad de reflexión, o delineador de ojo negro, crema de absorción o de deflexión y similares, que también se pueden aplicar para reducir la capacidad de reflexión. Regresando a la Figura 9, la intensidad de luz detectada por el sensor 33 da como resultado una señal de salida 142 que incluye una serie de señales de intensidad de luz dependientes de tiempo (como se muestra, por ejemplo, en la Figura 12B). La señal de salida 142 es recibida por el CPU 140 acoplado al sensor 33, que compara la duración de tiempo de cada señal de intensidad de luz 142, por ejemplo, que corresponde a una condición de ojo cerrado, con un umbral predeterminado. El sistema de circuito de cronómetro 146 puede proporcionar un tiempo umbral para que el CPU 140 distinga parpadeos normales de movimiento del parpado intencional y/o no intencional, en donde el CPU 140 después puede filtrar la señal de salida 142. El CPU 140 después produce una corriente de datos 144 que se puede utilizar para comunicación voluntaria y/o involuntaria. En una aplicación útil, el dispositivo de detección 30 puede ser utilizado para detectar somnolencia de bloqueo o "microsueños" (es decir, intrusiones de sueño en insomnio que duran pocos segundos) de un usuario, la caja de procesamiento 130 activando un aviso para alertar al usuario, otros en su presencia, o verificar el equipo del inicio de somnolencia. El umbral del sistema de circuito de cronómetro 146 puede ser ajustado de manera que el CPU 140 detecta periodos relativamente largo de cierre de ojo, como puede ocurrir cuando una persona se queda dormida. Por ejemplo, ya que los parpadeos normales son relativamente cortos, el umbral puede ser fijado a una escala de tiempo de cerca de cero segundos hasta varios segundos, por ejemplo, entre doscientos y trescientos milisegundos (200-300 ms), o in otra modalidad, aproximadamente doscientos cincuenta milisegundos (250 ms), por ejemplo, para distinguir parpadeos normales de movimiento de papado inducido por somnolencia. Cuando el CPU 140 detecta una condición de somnolencia, es decir, detecta una señal de intensidad de luz alta que excede el tiempo de umbral predeterminado, puede activar un dispositivo de aviso. El dispositivo de aviso puede ser incluido dentro de la caja de procesamiento 130, tal como la bocina 150, o alternativamente en el armazón, por ejemplo, montando una luz de aviso (no mostrada) o una bocina de alarma (no mostrada en la Figura 9, ver Figura 10C) en el armazón. En otra alternativa, el dispositivo de aviso puede ser un dispositivo táctil, por ejemplo, un asiento vibrador, y similares, como se describe aquí. Alternativamente, el dispositivo de detección 30 puede ser utilizado para registrar o verificar no obstructivamente el movimiento del parpado inducido por somnolencia, el CPU 140 produce una corriente de datos 144 que el transmisor 152 puede transmitir a la unidad de recepción y de procesamiento 154 (Figura 9). Por ejemplo, el dispositivo 30 puede se utilizado junto con un sistema de seguridad de vehículo para verificar el nivel de conciencia o atención de un conductor. La corriente de datos 144 puede ser transmitida a una unidad de recepción y procesamiento 154 montada en un vehículo, el cual puede almacenar datos sobre la somnolencia del conductor y/o puede utilizar los datos para tomar decisiones mediante respuestas algorítmicas predeterminadas para controlar el vehículo, por ejemplo, ajustar la velocidad del vehículo o aún apagar el motor del vehículo. De esta manera, el dispositivo de detección 30 puede ser utilizado para verificar conductores de camiones, conductores de taxis, pilotos de barcos o aviones, conductores o ingenieros de trenes, operadores de torre de control de radar o de aeropuerto, operadores de equipo pesado o maquinaria, buzos, estudiantes, astronautas, participantes, u observadores de entretenimientos, y similares. El dispositivo de detección 30 y el sistema 14 también se pueden utilizar en un diagnóstico médico, terapéutico, de investigación o determinación profesional para verificar el insomnio, patrones del dormir, y/o efectos simpatéticos y parasimpatéticos de condiciones estresantes o fármacos de alerta (por ejemplo, cafeína, nicotina, dextro-anfetamina, metilfenidato, modafanil), fármacos sedantes, (por ejemplo, benzoldiazapina, Ambien), o efectos de alteración de ritmo circadianos de luz y oscuridad o melatonina, que pueden afectar la velocidad de parpadeo, el régimen de parpadeo, la duración del parpadeo, o PERCLOS de un paciente u operador de vehículo. Las señales pueden ser almacenadas y analizadas en tiempo real para incitar cambios medidos con el tiempo para pronosticar efectos de somnolencia de individuos que utilizan el dispositivo. Similar al método ahora descrito, de CPU 140 puede producir una corriente de datos 144 los cuales pueden ser enviados por el transmisor a una unidad de recepción y de procesamiento remota 154. La unidad de recepción y de procesamiento 154 puede almacenar la corriente de datos 144 en el circuito de memoria 160 para posterior recuperación y análisis por parte de investigadores, profesionales médicos, o personal de seguridad, (por ejemplo, similar a la forma en la cual los datos del registro de vuelo pueden ser almacenados en un registro de "caja negra" del avión). La unidad de recepción y de procesamiento 154 también puede resaltar la corriente de datos 144, por ejemplo, en una estación de enfermeras, como un parámetro adicional para continuamente verificar una condición física, mental o emocional de un paciente. La unidad 154 puede almacenar y/o producir una señal, por ejemplo, a través de una serie de algoritmos que pueden ser respondidos dentro de un tiempo predeterminado (por ejemplo, verificación de vigilancia de rendimiento) para evitar positivos y negativos falsos.
Se puede verificar un número de condiciones médicas a través del dispositivo de detección 30 y el sistema 14, tal como epilepsia leve, en donde lo ojos revolotean a una velocidad de aproximadamente tres ciclos por segundo, ataques graves o fisicométricos, en donde los ojos pueden fijar la vista o cerrarse repetitivamente en una forma inestable, ataques mioclónicos, en donde los parpados pueden abrirse y cerrarse en una forma inestable, o tics, u otros movimientos del ojo, tales como encontrados en las personas con el síndrome de Tourette. El sistema puede ser utilizado para verificar g-LOC (pérdida de conciencia) de pilotos, causad por efectos de la fuerza g positivos o negativos, hipoxemia de pasajeros o de la tripulación en el avión debido a pérdidas en la presión en la cabina, narcosis de nitrógeno o "parálisis o embolias" en los buzos", los efectos de gases, químicos, fármacos, y/o agentes biológicos en personal militar u otros individuos. El sistema también se puede utilizar apara verificar situaciones sicológicas, por ejemplo, para detectar estrés o cuando una persona se acuesta (por ejemplo, al cerrar o de otra manera al mover sus ojos cuando se acuesta), durante hipnosis, para verificar la atención, para medir uno o más de: los efectos laterales "negativos" y/o efectos terapéuticos "positivos" de fármacos o farmacéuticos en condiciones en donde las funciones oculares se ven comprometidas (por ejemplo, L-dopa para mejorar regímenes o velocidades de parpadeo en la enfermedad de Parkinson; fármacos utilizados para tratar tics oculares o trastornos neuromusculares tal como ALS o miastenia grave); niveles de fármaco o alcohol basándose en medidas oculares correlativa (por ejemplo, nistagmus o respuesta de pupila dilatada de destellos de luz); los efectos terapéuticos y laterales de anti-convulsívos, fármacos, alcohol, toxinas, o los efectos de hipoxia o ventilación, y similares. La condiciones neurológicas en pacientes de todas la edades también pueden ser verificadas cuando la inervación o función mecánica del ojo o parpado pueden verse afectadas, tales como en la enfermedad de Parkinson, enfermedades de músculos, por ejemplo, miotonia, distrofia muscular miotónica, blefarospasmo, fotofobia o sensibilidad a la luz, encefalopatía, ataques, parálisis de Bell o en donde la condición pueda producir pérdida de la visión (por ejemplo, degeneración macular), caída o ptosis del parpado, tal como parálisis del tercer nervio craneal, lesiones del vastago del cerebro o ataques, tumores, infecciones, enfermedades metabólicas, trauma, condiciones degenerativa, por ejemplo, esclerosis múltiple, esclerosis lateral amiotrófica, polineuropatía, miastenia grave, botulismo, tétanos, tetania, disquinesia tardía, encefalitis del tallo del cerebro, y otras condiciones del parpado primarias, tales como exoftalmos, tirotoxicosisi u otras condiciones de tiroides. En una forma similar, el dispositivo de detección puede ser usado en una forma amuiatoria para estudiar la progresión y/o regresión de cualquiera de los trastornos neuro-oftalmológicos y oftalmológicos anteriores.
Similarmente, el dispositivo de detección 30 puede ser utilizado en aplicaciones de biorrealimentación, por ejemplo, en terapias de biorrealimentación, hipnosis o sicológicas de ciertas condiciones (por ejemplo, trastornos de tics) . El dispositivo de detección 30 puede producir un estímulo, por ejemplo, activando una luz o bocina, y verificar el movimiento del parpado de un usuario con anticipación al recibir una respuesta, por ejemplo, una secuencia específica de parpadeos, reconociendo el estímulo durante un periodo predeterminado, Si el usuario falla al responder, el procesador puede almacenar la respuesta, por ejemplo, incluyendo el tiempo de respuesta, y/o automáticamente puede transmitir una señal, tal como una señal de alarma. Además, del dispositivo de detección 30 puede ser utilizado para verificar individuos en establecimientos no médicos, tales como durante en al actividad normal en al cada del usuario o en cualquier parte. Por ejemplo, los individuos con condiciones médicas involuntarias, tales como epilepsia o narcolepsia, pueden ser verificados, u otros individuos, tales como bebes y niños, prisioneros, pacientes dementes, (por ejemplo, con ia enfermedad de Alzheimer) personal del gobierno, personal militar, gerentes de bancos, cajeros, trabajadores de casinos, estudiantes, trabajadores del turno de la tarde o del turno de media noche, y similares, pueden ser verificados. Se pueden aplicar aplicaciones similares en un laboratorio del dormir durante procedimientos polisomnográficos (por ejemplo, PSG, MSLT o MWT) para verificar pacientes dormidos para medir parámetros tales como el inicio del sueño, la duración del sueño, tiempo de cierre y abertura del parpado, tiempo de insomnio durante la noche, etc. , o para investigación animal. En donde el parpadeo de los ojos, cambios de pupila, y/o movimiento lento o rápido del ojo pueden ser un factor para ser estudiado, o para funciones oculares neuro-desarrollo de bebés. El dispositivo de detección 30 puede ser utilizado para estudiar o verificar la somnolencia, insomnio o efectos de alerta de farmacéuticos prescritos, (por ejemplo, estimulantes) alcohol u otros fármacos ilícitos, toxinas, venenos, así como otras técnicas o dispositivos de relajación, sedantes, o de alerta. Similarmente, el funcionamiento y habilidades de vigilancia del usuario pueden ser probados y analizados como una función directa de, o en relación con, PERCLOS. Cuando el CPU 140 detecta la presencia del movimiento del parpado particular, tal como un periodo extendido de cierre del ojo, el cual puede ocurrir, por ejemplo, durante un ataque epiléptico, un episodio de sincope, un episodio narcoléptico, o cuando se adormece mientras se está buceando o trabajando, El CPU 140 puede producir una señal de salida que activa un alarma. Alternativamente, el transmisor 152 puede enviar una señal de salida para detener el equipo que se está utilizando para notificar al personal médico, tal como activando automáticamente un teléfono para marcar servicios de emergencia, para enviar señales a sitios remotos, tales como estaciones de policías, ambulancias, centros de control de vehículo, guardias, y similares. El sistema 14 también puede encontrar aplicación útil para comunicación voluntaria. Un usuario que use el dispositivo de detección 30 intencionalmente puede parpadear en un patrón predeterminado, por ejemplo, en el código de Morse u otro código de parpadeo, para comunicar un mensaje que se puede entender a personas o equipo (por ejemplo, para anunciar una emergencia). El CPU 140 puede convertir una señal de intensidad de luz 142 recibida el sensor 33 y correspondiente al código de parpadeo en una corriente de datos 144, o posiblemente en forma directa a un mensaje que se puede entender incluyendo letras, palabras y/o comandos. La corriente de datos 144 después puede ser presentada en una presentación de video 50 (ver Figura 1 ) acoplada al puerto de salida 148, o emitirse como lenguaje sintetizado en la bocina interna 150. La corriente de datos 144 puede ser transmitida mediante el transmisor 152 a través de la señal 153 hacia la unidad de recepción y procesamiento 154 para presentar mensajes, o para controlar equipo, tal como dispositivos domésticos, conectados al sistema de control 164. Además de establecimientos residenciales, el sistema 14 puede ser utilizado por individuos en forma hospitalizada o bajo el cuidado de enfermeras, por ejemplo, por pacientes entubados, ventilados, restringidos, paralizados o débiles, para comunicar al personal médico que atiende y/o para dar señal consciente a una estación de enfermeras. Estos incluyen todos la pacientes quienes no tienen habilidad física para comunicarse verbalmente, pero quienes retienen la habilidad para comunicarse utilizando el parpadeo de los ojos de un o ambos ojos, (por ejemplo, pacientes con esclerosis lateral amiotrófica, mielitis transversal, síndrome bloqueado, ataque cerebrovasculares, distrofia muscular terminal, y aquellos entubados en ventilación). El dispositivo puede ser utilizado en cualquier ambiente o dominio, por ejemplo, a través de agua y otros fluidos sustancialmente transparentes. Además, el dispositivo 30 también puede ser utilizado como una notificación de emergencia y/o herramienta de seguridad discreta. Una persona que puede ser capaz de hablar en forma normal puede utilizar el dispositivo 30 en el caso de circunstancias bajo las cuales la comunicación normal, es decir, el habla no sea una opción viable. Por ejemplo, un empleado de banco o de alguna tienda quien ha sido robado o de otra manera está presente durante el acontecimiento de un crimen puede ser capaz de parpadear en forma diferente para producir un alarma pre-programada para notificar a la seguridad o para llamar a la fuerza legal. Alternativamente, una persona con ciertas condiciones médicas puede utilizar el dispositivo en el caso en que en el cual esté físicamente incapacitado, es decir, no puedan moverse para llamar a cuidado médico de emergencia, pero siguen siendo capaces de mover voluntariamente sus ojos. En tales casos o, un mensaje pre-grabado o datos identificación (por ejemplo, nombre del usuario, su ubicación, la naturaleza de la emergencia, etc.) se puede transmitir a un sitio remoto a través de un grupo específico de códigos de parpadeo de ojos o mensajes pre-programado. De esta manera, el dispositivo de detección 30 puede ser utilizado para verificar pacientes en un establecimiento ICU, pacientes en ventiladores, prisioneros, personas de edad avanzadas o incapacitadas, operadores de equipo pesado, conductores de camiones, motociclistas, pilotos de barcos y aviones, ingenieros de tren, operadores de torre de control de radar o de aeropuerto, o como una herramienta no verbal o subliminal para comunicación a través de guardias militares, trabajadores policías de bancos, cajeros, conductores de taxis y similares. El dispositivo de detección 30 también puede ser utilizado como un dispositivo de recreo, por ejemplo, como un juguete para niños similar a un intercomunicador o para operar un control remoto de un vehículo juguete. Además, puede ser deseable tener el CPU 140 realizando una comparación de umbral adicional para asegurar el uso continuo del dispositivo de detección 30. Por ejemplo, el sistema de circuito de cronómetro adicional puede ser acoplado al CPU 140, de manera que el CPU 140 puede comparar las señales de intensidad de luz recibida del sensor 33 con un segundo umbral predeterminado provisto por el sistema de circuito de cronómetro. El segundo umbral predeterminado puede corresponder a un periodo de tiempo durante el cual una persona podría normalmente parpadear. Si el CPU 140 falla al detectar un parpadeo normal dentro de este periodo o si el usuario falla al responder a un estímulo predeterminado (por ejemplo, al parpadear por una luz o sonido), el CPU 140 puede producir una señal, activar la bocina 150 o transmitir un alarma o aviso utilizando el transmisor 152. Esto puede ser útil, por ejemplo, si el dispositivo de detección 30 es removido a través de un perpetrador durante la realización de un crimen, falla debido al inicio de un episodio médico, así como para prevenir "falsas alarmas", o para medir el "estado de atención" del usuario. Alternativamente, se pueden requerir de tareas de vigilancia de realización del usuario para determinar si la señal transmitida es una señal poderosa o de "falsa alarma", y también para medir los niveles de atención o somnolencia para propósitos de bio-realimentación, y también para medir la comodidad del usuario que porta el dispositivo. Alternativamente, la polaridad de la señal de salida 142 puede ser invertida, de manera que se produce una corriente de datos solamente cuando el ojo está abierto, por ejemplo, cuando se verifican pacientes en un laboratorio del dormir para medir el inicio del dormir, la latencia del dormir, el tiempo de cierre del parpado, etc. , o para verificar prisioneros que estén durmiendo. Para tales casos, el CPU 140 puede activar una alarma solamente cuando se detecta una condición de ojo abierto, como se apreciará por aquellos expertos en la técnica. Volviendo a la Figura 8, se muestra otra modalidad del dispositivo de detección 30, en esta modalidad, el emisor y sensor son un dispositivo biosensor 132 para emitir y detectar luz en estado sólido individual, que se monta directamente en los anteojos 20. El dispositivo biosensor 132, el cual puede producir y detectar luz infrarroja, también puede ser tan pequeño Gomo dos milímetros por cuatro milímetros (2 mm x 4 mm) y pesar solamente algunos gramos, mejorando así la conveniencia, comodidad y/o discreción del dispositivo de detección 30. Debido al pequeño tamaño, el dispositivo biosensor 133 puede ser montado directamente en el lente 21 , como se muestra en la Figura 8, sobre una superficie externa o interna del lente 21 , en el puente 24 o en otra ubicación en el armazón 22 que puede facilitar la detección del movimiento del ojo. El dispositivo biosensor 132 puede medir menos de aproximadamente cinco milímetros por cinco milímetros de área se superficie y puede pesar tan poco como aproximadamente veintiocho punto treinta y cinco gramos, proporcionando así una combinación de emisor/sensor que puede ser poco llamativa a la visión, portátil, y convenientemente se puede incorporar a un armazón para ojos de peso ligero. Ya que todo el sistema puede ser independientemente en el armazón, se mueve con el usuario no importando a que dirección mira y puede operar en una variedad de ambientes o dominios, día o noche, bajo el agua, etc. Hamamatsu fabrica una variedad de dispositivos de emisor y detector infrarrojos que se pueden utilizar para el dispositivo biosensor 132, tales como los Nos. de Modelos L1909, L1915-01 , L2791 -02, L2792-02, L2959, y 5482-1 1 , o alternativamente, un emisor infrarrojo Radio Shack Modelo No. 274-142, también se puede utilizar. Múltiples disposiciones de elementos, por ejemplo, disposiciones de sensor de exploración ópticos lineales, apropiados para utilizarse, pueden estar disponibles de Texas Advanced Optoelectronic Solutions, Inc. (TAOS) de Plano, TX, tales como los Modelos Nos. TSL 201 (64 pixels x 1 pixel), TSL 202 (128x1 ), TSL 208 (512x1 ), TSL 2301 (102x1 ). Estos sensores pueden ser utilizados en combinación con disposiciones de lente para facilitar el enfoque de la luz detectada, tal como la disposición del lente Selfoc para aplicaciones de exploración en línea hecho pro NSG America, Inc. De Irving , CA. Además, se puede proporcionar múltiples dispositivos biosensores 132 en los anteojos 20, por ejemplo, se puede proporcionar un par de dispositivos biosensores 132, como se muestra en la Figura 8, para detectar el movimiento del parpado para cada ojo del usuario (no mostrado) . Un cable 134 puede extenderse desde cada dispositivos biosensores 132 hacia una caja de procesamiento 130, similar a la caja de procesamiento 130 descrita anteriormente. El CPU 140 de la caja de procesamiento 130 (no mostrada en la Figura 8) puede recibir y comparar la señal de salida de cada dispositivos biosensores 132 para aumentar más los parpadeos normales de distinción de otro movimiento del parpado. El par de dispositivos biosensores 132 puede permitir el uso de más códigos sofisticados por el usuario, por ejemplo, al parpadear cada ojo individualmente o en conjunto para comunicarse más efectivamente o más convenientemente, como será apreciado por aquellos expertos en la técnica. En una forma, un parpadeo de un ojo puede corresponder a un "punto", y el otro ojo a un "guión" para facilitar el uso del código Morse. Las señales de salida de cada ojo después pueden ser interpretadas por el CPU 140 y convertirse a un mensaje que se puede entender. En otra forma, un parpadeo del ojo derecho (o series de parpadeos) puede ocasionar que una silla de rueda eléctrica se mueva hacia la derecha, el parpadeo de un ojo izquierdo (o series de parpadeos) puede moverla hacia la izquierda, dos parpadeos simultáneos del ojo derecho e izquierdo pueden ocasionar que la silla de ruedas se mueva hacia adelante, y/o cuatro parpadeos del ojo derecho e izquierdo simultáneos pueden ocasionar que la silla de ruedas se mueva hacía atrás. Combinaciones so secuencias similares de parpadeos de ojos pueden ser utilizadas para controlar la función de encendido/apagado, o controlar el volumen o canal de una televisión, radio AM/FM, VCR, grabadora u otros dispositivos electrónicos o electromecánicos, cualesquiera comunicaciones en aumento o dispositivo de control, o cualquier dispositivo que pueda operar a través de simples interruptores de "encendido/apagado" (por ejemplo, unidades de control de televisión de interruptor individual de controles remotos de televisión inalámbricos, controladores remotos universales, unidades de aparatos múltiples de interruptor individual con salida de enchufe/pared AC, o módulos de interruptor de pared, adaptadores de entrada de computadora, timbre eléctrico de señalización con luz o cajas de señal de vibración, módulos de interrupción de todos tipos, módulos de interrupción de controlador de entretenimiento de videojuegos, y juguetes electrónicos controlados con un interruptor). En alternativas adicionales, se puede proporcionar uno o más lentes o filtros para controlar la luz emitida y/o detectada por el dispositivo biosensor, un emisor individual, y/o detector. Por ejemplo, el ángulo de la luz emitida puede ser cambiado con un prisma u otro lente, o la luz puede formarse en columnas o enfocarse a través de una ranura para crear un rayo de luz configurado predeterminado dirigido al ojo o para recibir la luz reflejada por el sensor. Se puede proporcionar una disposición de lentes que sean ajustables para controlar la forma, por ejemplo, la anchura, etc. , del rayo de luz emitido o para ajustar la sensibilidad del sensor. Los lentes pueden ser empacados juntos con el emisor en plásticos y similares, o provistos como un accesorio separado como se apreciará por aquellos expertos en la técnica. Volviendo a la Figura 10A, se muestra otra modalidad de un sistema 414 que incluye un armazón 422 incluyendo un dispositivo biosensor 432 con un sistema de circuito de procesador y trasmisor asociados 430 provisto directamente en el armazón 422, por ejemplo, para mejorar la conveniencia y discreción del sistema 414. El armazón 422 puede incluir una pieza de puente 424 sobre la cual ei dispositivo biosensor 432 puede ser montado fijamente, deslizablemente, y/o ajustablemente, y un par de soportes 423, 425 para las orejas.
Uno de los soportes 423 puede tener un tamaño más grande comparado con el otro soporte 425, por ejemplo, para recibir al sistema de circuito de procesador y transmisor 430 embebido o de otra manera montado al mismo. Un procesador 440, similar al CPU 140 en la caja de procesamiento 130 previamente descrita, puede ser provisto en el armazón 422, y una fuente de energía, tal como una batería de litio 460 puede ser insertada o fijada al soporte 423. Se proporciona un transmisor de radio frecuencia u otro transmisor 452 (por ejemplo, utilizando Bluetooth u otros protocolos) sobre el soporte 423. Incluyendo una antena 453, la cual puede ser embebida o de otra manera sujetada a lo largo del soporte 423 de oreja, en la pieza de plantilla o en cualquier parte en el armazón 422. El sistema 414 también puede incluir controles manuales (no mostrados) en el soporte 423 de oreja o en cualquier parte en el armazón 422, por ejemplo, para el apagado y encendido, o para ajustar la intensidad y/o el umbral del dispositivo biosensor 432. De esta manera, el sistema 414 puede ser sustancialmente independiente en el armazón 422, el cual puede o no incluir lentes (no mostrados) similares a los anteojos. Los cables o alambres externos pueden ser eliminados, proporcionando así un sistema más conveniente y cómodo para la comunicación y/o verificación de un usuario. En otra alternativa, mostradas en las Figuras 10B, 10C, y 10D, se puede proporcionar una disposición lineal 530 de emisores 532 y emisores 533, por ejemplo, en una disposición vertical montada sobre un puente de nariz 524 de un armazón de ojos 522. Un CPU 540, batería 460, antena transmisora 543, e indicador de aviso 550 también puede ser provisto en el armazón 522, por ejemplo, en la pieza de plantilla 525, similar a las modalidades previamente descritas. Un LED 542 o dispositivo de estímulo similar también puede ser provisto en una ubicación predeterminada en el armazón 522 del ojo para permitir respuestas de biorrealimentación de rutina por parte del usuario. Además se puede proporcionar un receptor 544 para recibir la corriente de datos creados por el CPU 540 y transmitidos por el transmisor 543. Como se muestra en particular en la Figura 10C, cada uno de los sensores 533 y el emisor 532 puede ser acoplado al CPU 540 u otro sistema de circuito de control para controlar al emisor 532 y/o para procesar las señales de intensidad de luz producidas por los sensores 532. De esta manera, el CPU 540 puede ciclar a través de los sensores 533 en la disposición 530 y secuencialmente procesar la señal de cada uno de los sensores 533, similar a los procesadores descritos aquí. Como se muestra en la Figura 10D, el emisor 532 incluye un lente 534 para enfocar un rayo de luz (indicado por los rayos individuales 360a, 360b) sobre el ojo 300, por ejemplo, hacia la pupila 301. Los sensores 533 están embebidos dentro del puente de nariz 524 y se proporciona una ranura 535 para cada uno, ia ranura 535 teniendo un tamaño predeterminado para controlar la luz reflejada detectada por cada sensor 533. De esta manera, cada sensor 535 puede detectar el movimiento del parpado 302 más allá de una porción particular del ojo 300, por ejemplo, para medir PERCLOS, como se muestra en la Figura 12A. Los sensores o emisores pueden tener lentes o dispositivos columnares para enfocar luz emitida o reflejada. La disposición lineal 530 puede facilitar la medición de parámetros adicionales relacionados con el movimiento del parpado además del mero cierre del ojo, por ejemplo, para medir la velocidad de la abertura o cierre del parpado, es decir la velocidad del cierre del ojo, el CPU 540 puede comparar el retrazo de tiempo entre la activación de los sensores sucesivos 533. Además, las señales de salida de los sensores 553 puede ser procesada para medir el porcentaje de cobertura de la pupila del parpado 302, por ejemplo, debido al cierre parcial del ojo, como una función de tiempo, por ejemplo, para verificar cuando el ojo está parcial, pero no completamente cerrado, y/o para verificar el porcentaje de tiempo que el ojo está cerrado, (PERCLOS), como se muestra en las Figuras 12A-12C, por ejemplo, comparado con la línea de base del usuario de la abertura máxima del ojo. Volviendo a la Figura 12D, en otra modalidad, se puede proporcionar una disposición bidimensional de sensores. Aunque se muestran una disposición 633 de 5x5 y una disposición 733 de 9x1 1 como modalidades ilustrativas, se pueden proporcionar otras disposiciones, incluyendo cualquier número de elementos en la disposición. Por ejemplo, como se describe más adelante, los sensores pueden estar en la forma de un dispositivo CMOS o CCD incluyendo cientos o miles de píxeles en una rejilla o en otro patrón. Los sensores 633, 733 entonces pueden ser utilizados para medir la capacidad de reflexión de luz de área de superficie del emisor 632, es decir, el procesador (no mostrado) puede procesar las señales de cada sensor en la disposición 633, 733 para crear una corriente de datos indicando el porcentaje de área de superficie del ojo 300 cubierta por el parpado 302 y/o posición relativa de la pupila. Los sensores en la disposición 633, 733, pueden ser suficientemente sensibles o tener una suficiente resolución, de manera que pueden detectar "el reflejo rojo" o la reflexión de la "pupila brillante" infrarroja equivalente debido a la reflexión de luz fuera de la retina a través de ia pupila 301 . De esta manera, los sensores pueden producir una señal de intensidad de luz que incluye un valor sustancialmente de cero, que no indica ningún reflejo rojo o pupila brillante, una baja salida, indicando un relejo rojo o reflejo de pupila blanca, y una alta salida, indicando la reflexión de un parpado cerrado 302. La reflexión roja puede aparecer como una pupila de luz blanca brillante (que resulta de la luz infrarroja del emisor(s) que se refleja fuera de retina cuando el parpado está abierto, o como una "pupila negra" u oscura si el procesador utiliza algoritmos de substracción). El procesador puede procesar las señales de intensidad de luz para detectar cuando la pupila 301 está cubierta por el parpado 302, es decir, en qué punto el usuario no puede ver, aunque sus ojos 300 pueden no estar completamente cubiertos por el parpado 302, generalmente, un valor de PERCLOS de aproximadamente 50-75% en una mirada fija primaria. Alternativamente, a medida que el parpado, ojo y pupila descienden, el sensor(s) puede detectar un reflejo rojo o pupila brillante aunque la medición del PERCLOS pueda ser tan grande como 75-80% más, por ejemplo, cuando el ojo puede seguir viendo a través de una fisura palpebral de tipo ranura estrecha que opera en una mirada fija descendente. En otra alternativa, el sistema de circuito de procesador y/o transmisor (tal como el CPU 140 en la caja de procesamiento 130 en la Figura 2, o los CPU 440, 540 de las Figuras 10A y 10B) puede incluir un sistema de circuito de identificación (no mostrado), ya sea como un circuito cerrado de memoria discreto u otro elemento de circuito, o dentro del mismo CPU. El sistema de circuito de identificación puede ser preprogramado con un código de identificación dijo, o puede ser programable, por ejemplo, para incluir información de identificación seleccionada, tal como la identidad del usuario, la ubicación del usuario, medidas biométricas específicas del usuaria, (por ejemplo, patrones únicos de iris o de retina, huellas dactilares, identificación de voz) un código de identificación para el dispositivo de detección individual, y similares.
El CPU selectivamente puede agregar la información de identificación a la corriente de datos transmitida 553, o la información de identificación puede ser automática o periódicamente, continua o discontinuamente incluida en la corriente de datos 553, permitiendo así que la corriente de datos 553 quede asociada con un dispositivo de detección particular, usuario individual, y/o una ubicación específica. La información de identificación puede ser utilizada por el procesador, por ejemplo, en un sitio remoto, para distinguir entre corrientes de datos recibidas de un número de dispositivo de detección, que se pueden almacenar, después, presentar, etc. , como se describió previamente. De esta manera el dispositivo de detección puede no requerir que los usuarios comuniquen conscientemente cierta información de identificación u otra información estándar cuando el sistema se utilice. Como se muestra en la Figura 1 1 A, el receptor 544 puede permitir que el usuario controle uno o más dispositivos acoplados al receptor 544 a través de una unidad de de control de aparatos múltiples de interruptor individual 550. La unidad de control 550 incluye su propio transmisor adaptado para transmitir/no transmitir u otras señales de control que puede ser recibida por módulos de control individuales 552a-552f. El usuario 10 puede parpadear para crear una corriente de datos 553 transmitida que incluye comandos para apagar y encender, o de otra manera controlar artículos seleccionados que utilizan la unidad de control 550 y módulos de control 552a-552f, tales como, un radio 554, una televisión 556, una luz 558a, una luz 562 controlada por un interruptor de parad 560, un ventilador 566 conectado a un receptáculo de pared 564, y similares.
Alternativamente, como se muestra en la Figura 1 1 B, el receptor 554 puede ser acoplado a otros sistemas, tales como una computadora 570 e impresora 572, un sistema de integración de vehículo 574, una unidad de línea de vida 576, un GPS u otro transmisor de satélite 578, y similares. La corriente de datos 553 transmitida puede ser procesada sola o junto con datos adicionales, tales como otra información de sensor de vehículo 573, y/o factores humanos (por ejemplo, EKG, EEG, EOG, pulso, presión sanguínea, ritmo respiratorio, oximetría, actigrafía, posición de la cabeza, análisis de voz, temperatura del cuerpo, conductancia de la piel, medidas auto-determinantes y respuesta de vigilancia de funcionamiento, observación por otros a través de un sistema de cámara montada a un visor o tablero que no se puede portar fija, etc. ,), para mejorar más la verificación de un usuario, tal como un conductor de camiones de largo trayecto. Regresando a la Figura 13, se muestra otra modalidad más de un sistema 810 para verificar el movimiento de los ojos. En general, el sistema 810 incluye un armazón 812 que puede incluir una pieza de puente 814 y un par de soporte 816 para la oreja, uno o más emisores 820, uno o más sensores 822, y/o una o más cámaras 830, 840. El armazón 812 puede incluir un par de lente (no mostrados), tales como lentes de prescripción, de sombra o protectores, aunque pueden ser omitidos. Alternativamente, el sistema puede ser provisto en otros dispositivos que puede ser usados en la cabeza de un usuario, tal como una máscara de oxigeno de piloto, engranaje protector de los ojos, ventilador del paciente, una máscara para nadar o bucear, un casco, un gorro, una banda para la cabeza, un viso para la cabeza un engranaje protector para la cabeza, o dentro de trajes cerrados que protegen la cabeza y/o cara, y similares (no mostrados). Los componentes del sistema pueden ser provistos en una variedad de ubicaciones en el dispositivo que generalmente reducen al mínimo la interferencia con la visión del usuario y/o uso normal del dispositivo. Como se muestra, se proporciona una disposición de emisores 820, en el armazón 812, por ejemplo, en una disposición vertical 820a y una posición horizontal 820b. Además o alternativamente, los emisores 820 pueden ser provistos en otras configuraciones, tales como una disposición circular (no mostrada), y pueden o no incluir filtros ligeros y/o difusores (no mostrados también). En una modalidad ilustrativa, los emisores 820 son emisores infrarrojos configurados para emitir pulso a una frecuencia predeterminada, similares a otras modalidades descritas aquí. Los emisores 820 pueden ser dispuestos en el armazón, de manera que proyectan un armazón de referencia 850 sobre una región de la cara del usuario, incluyendo uno de los ojos del usuario. Como se muestra, el armazón de referencia incluye un par de bandas cruzadas 850a, 850b dividiendo la región en cuatro cuadrantes. En una modalidad ilustrativa, la intersección de bandas cruzadas puede ser dispuesta en una ubicación que corresponde sustancialmente a la pupila del ojo durante una mira fija primaria, es decir, cuando el usuario está mirando generalmente en forma recta. Alternativamente, se pueden proporcionar otros armazones de referencia, por ejemplo, incluyendo componentes verticales y horizontales, componentes angulares y radiales, u otros componentes ortogonales. Opcionalmente, aún uno o dos puntos de referencia que permanecen sustancialmente fijos pueden proporcionar un armazón de referencia suficiente para determinar el movimiento relativo del ojo, como se explica más adelante. Una disposición de sensores 822 también puede ser provista en el armazón 812 para detectar la luz de los emisores 820 que es reflejada fuera del parpado del usuario. Los sensores 822 pueden generar señales de salida que tienen una intensidad que identifica si el parpado está cerrado o abierto, similar a otras modalidades descritas aquí. Los sensores 822 pueden ser dispuestos adyacente a emisores 820 respectivos para detectar la luz reflejada fuera de las porciones respectivas del papado. Alternativamente, los sensores 822 pueden solamente ser provistos en una disposición vertical, por ejemplo, a lo largo de la pieza de puente 814, para verificar el movimiento del cierre del parpado, similar a las modalidades descritas aquí. En una modalidad alternativa, los emisores 820 y sensores 822 pueden ser biosensores de estado sólido (no mostrado) que proporcionan funciones tanto de emisión como de percepción en un dispositivo individual. Opcionalmente, los emisores 820 y/o sensores 822 pueden ser eliminados, por ejemplo, si las cámaras 830, 840 proporcionan suficiente información, como se explica más adelante. Se puede proporcionar un sistema de circuito y/o software para medir el PERCLOS u otros parámetros utilizando las señales generadas por la disposición de sensores. Por ejemplo, la Figura 17 muestra una vista esquemática ilustrativa que puede ser utilizada para procesar señales de una disposición de cinco elementos, por ejemplo, para obtener mediciones de PERCLOS u otros parámetros de estado de alerta. Regresando a la Figura 13, el sistema 810 también incluye una o más cámaras 830 orientadas generalmente hacia uno o ambos de los ojos del usuario. Cada cámara 830 puede incluir un haz de fibra óptica 832 incluyendo un primer extremo montado a o adyacente a la pieza de puente 814 (o en cualquier parte en el armazón 812, por ejemplo, en una ubicación que reduce al mínimo las interferencias con la visión del usuario), y un segundo extremo 837 que está acoplado a un detector 838, por ejemplo, un sensor CCD o CMOS, que puede convertir imágenes a señales de video digital. Un lente objetivo 834 puede ser provisto en el primer extremo de haz de fibra óptica 832, como se muestra en la Figura 14, por ejemplo, para enfocar imágenes en el haz de fibra óptica 832. Opcionalmente, el haz de fibra óptica puede incluir una o más fibras de iluminación que pueden terminar adyacentes al lente 834 para proporcionar los emisores 836, también como se muestra en la Figura 14. La fibra(s) de iluminación puede ser acoplada a una fuente de luz (no mostrada), por ejemplo, similar a la modalidad mostrada en la Figura 22 y como se describe más adelante. Aunque solamente se muestra una cámara 830 en la Figura 13 (por ejemplo, para verificar el ojo izquierdo del usuario), se apreciará que se puede proporcionar otra cámara (no mostrada) en una configuración simétrica para verificar el otro de los ojos del usuario (por ejemplo, el ojo derecho), incluyendo componentes similares, por ejemplo, un haz de fibra óptica, lente, emisor(es) y/o detector (aunque, opcionalmente, las cámaras pueden compartir un detector común, como se explica más adelante). Opcionalmente, puede ser deseable tener múltiples cámaras (no mostradas) dirigidas hacia cada ojo, por ejemplo, a partir de diferentes ángulos que miran al ojo(s). Opcionalmente, estas cámaras pueden incluir extensiones de fibra óptica, lentes prismáticos y/o espejos de reflexión (por ejemplo, que retejan luz infrarroja), superficies de espejo impenetrables o bloqueadoras sobre el lado de los lentes que mira a los ojos, y similares. Dichos accesorios pueden ser provistos para flexionar, girar, reflejar o invertir las imágenes de los ojos transmitidas a las cámaras en una forma deseada. La cámara(s) 830 puede ser configurada para detectar la frecuencia de la luz emitida por los emisores 820 y/o 836, por ejemplo, luz infrarroja u otra luz más allá de la escala visible. Opcionalmente, si el haz de fibra óptica 832 incluye una o más fibras de iluminación para los emisores 836, los emisores 820 en el armazón 812 pueden ser eliminados. En esta modalidad, también puede ser posible eliminar los sensores 822, y utilizar la cámara(s) 830 para verificar el movimiento del ojo(s) del usuario, por ejemplo, como se explica más adelante. Opcionalmente, el sistema 810 puede incluir una segunda cámara 840 orientada lejos de la cabeza del usuario, por ejemplo, para verificar lo que rodea al usuario, tal como un área directamente enfrente de la cara del usuario. La cámara 840 puede incluir componentes similares para la cámara 830, por ejemplo, un haz de fibra óptica 841 , lentes (no mostrados), y/o emisor(es) (tampoco mostrado). Opcionalmente, la cámara 830 suficientemente puede ser sensible para generar imágenes bajo condiciones de luz ambiental, y los emisores pueden ser omitidos. La cámara 830 puede ser acoplada a un detector separado 839, como se muestra en la Figura 13, o puede compartir el detector 838 con la cámara(s) 830, como se explica más adelante. Cada uno de los haces de fibra óptica 832, 841 puede incluir, por ejemplo, entra aproximadamente cinco mil y cien mil (5,000-100,000) fibras ópticas que llevan luz con píxeles, o entre aproximadamente diez mil y cincuenta mil (10,000-50,000) fibras. El número de fibras puede depender de las necesidades particulares de una aplicación dada, por ejemplo, para proporcionar una resolución óptica deseada en las imágenes obtenidas del ojo(s) del usuario (es decir, para las fibras de "endocámaras"), así como del ambiente circundante (es decir, para las fibras "exocámara"). Opcionalmente, las fibras para los haces puede incluir una o más fibras de iluminación. En modalidades ilustrativas, los haces puede ser utilizados teniendo cinco mil fibras (5,000) (proporcionan una resolución de 75 x 75 píxeles), diez mil fibras (10,000) (proporcionando una resolución de 100 x 100 píxeles), cincuenta mil fibras (50,000) (proporcionando una resolución de 224 x 224 píxeles), y cien mil fibras (100,000) (proporcionando una resolución de 316 x 316 píxeles). El haz de fibra óptica resultante 832, 841 puede tener un diámetro, por ejemplo, de entre aproximadamente tres a cinco milímetros (3-5 mm), con o sin revestimiento metálico. Los hace de fibra óptica 832, 841 pueden ser asegurados a lo largo del armazón 812 o pueden ser provistos dentro del armazón 812. Por ejemplo, el armazón 812 puede formado con una o más páginas, por ejemplo, extendiéndose desde la pieza de puente 814 hacia los soportes 816 de oreja, para recibir los haces de fibra óptica 832, 841 a través de los mismos. Alternativamente, los haces de fibra óptica 832, 841 pueden ser moldeados, fusionados, o de otras maneras embebidas en el armazón 812, por ejemplo, cuando se hace el armazón 812. Opcionalmente, los haces de fibra óptica 832, 841 pueden extenderse desde el armazón 812 hacia un detector y/o procesador (no mostrados) separados del armazón 812, similar a las modalidades descritas más adelante con referencia a las Figuras 18A y 18b. Uno o ambos de los soportes 816 para la oreja puede incluir un panel 818 para montar uno o más componentes, por ejemplo, un controlador o procesador, tal como un procesador 842 ilustrativo, un transmisor 844, una antena 845, detector(es) 838, 839, y/o una batería 846. El procesador 840 puede ser acoplado a los emisores 820, los sensores 822, y/o las cámaras 830, 840 (por ejemplo, al detector(es) 838, 839) para controlar su operación. El transmisor 844 puede ser acoplado al procesador 842 y/o detector(es) 838, 839 para recibir las señales de salida de los sensores 822 y/o cámaras 830, 840, por ejemplo, para transmitir las señales a una ubicación remota, como se describe más adelante. Alternativamente, el transmisor 844 puede ser acoplado directamente a conductores de salida de los sensores 822 y/o las cámaras 830, 840. El armazón 812 también puede incluir controles manuales (no mostrados), por ejemplo, en el soporte 816 para oreja, por ejemplo, para encender y apagar, o para ajustar la intensidad y/o umbral de los emisores 820, los sensores 822 y/o las cámaras 830, 840. Si se desea, el sistema 810 también puede incluir uno o más sensores adicionales en el armazón 812, por ejemplo, sensores fisiológicos, por ejemplo, para los propósitos de integración y correlación cruzada de datos adicionales bio-o neuro-fisiológicos con relación al estado cognoscitivo, emocional y/o de comportamiento del usuario. Los sensores pueden ser acoplados al procesador 842 y/o al transmisor 844, de manera que las señales de los sensores pueden ser verificadas, registradas, y/o transmitida a una ubicación remota. Por ejemplo, uno o más sensores de posición 852a, 852b pueden ser provistos, por ejemplo, para determinar la orientación espacial del armazón 812, y consecuentemente la cabeza del usuario. Por ejemplo, se pueden proporcionar sensores actigráficos para medir ia inclinación o movimiento de la cabeza, por ejemplo, para verificar si la cabeza del usuario se cae hacia delante o se inclina hacia un lado. Se pueden proporcionar sensores acústicos, por ejemplo, un micrófono 854, para detectar ruido ambiental o sonidos producidos pro el usuario. Además o alternativamente, el armazón 812 puede incluir uno o más sensores para medir una o más características físicas del usuario, por ejemplo, con el propósito de integración y/o correlación cruzada de sistemas fisiológicos. Por ejemplo, se pueden proporcionar electrodos EEG 856 en el soporte 816 para oreja, por arriba o por abajo del nasion (parte de la nariz), en el mastoides, sobre el área occipital, y/u otra región que pueda estar en contacto con la piel de usuario, (por ejemplo, electrodos de contacto de superficie húmeda), o pueden no hacer contacto con la piel de usuario (por ejemplo, electrodos inalámbricos secos) para medir y transmitir la actividad del cerebro (por ejemplo, el despertar, adormecido, u otra actividad del cerebro relacionada con el dormir), por ejemplo, de diferentes frecuencias que varía de aproximadamente de uno a quinientos Hercios (1 -500 Hz) para análisis visual o dependencia espacial y/o temporal a largo plazo o a corto plazo (por ejemplo, Fast Fourier o análisis espectral). Se puede proporcionar un electrodo EKG (no mostrado) que es capaz de medir la actividad cardiaca a través de un sitio de contacto de la piel. Se puede utilizar un sensor de pulso (no mostrado) para medir pulsaciones cardiovasculares, o se puede utilizar un sensor de oximetría 858 para medir los niveles de saturación de oxígeno. Un termistor u otro sensor pueden medir el flujo de aire respiratorio, por ejemplo, a través de la nariz del usuario. Se puede proporcionar un termistor, termopar, u otro sensor de temperatura (no mostrado) para medir la temperatura de la piel de usuario. Se puede proporcionar un detector de transpiración (no mostrado) para medir la humedad en la piel del usuario, y/o se puede anexar un micrófono u otro sensor acústico (tampoco mostrado) al armazón 812 para detectar sonidos bocales o de respiración del usuario. Se puede proporcionar uno o más electrodos electro-aculográficos (EOG) que estén en contacto con la piel de usuario en áreas deseadas para medir las fluctuaciones en potenciales eléctricos durante el movimiento de los ojos. Además, el sistema 810 puede incluir uno o más dispositivos de realimentación en el armazón 812. Estos dispositivos pueden proporcionar realimentación al usuario, por ejemplo, para alertar y/o despertar al usuario, cuando se detecte una condición predeterminada, por ejemplo, un estado de somnolencia o la falta de conciencia. Los dispositivos de realimentación pueden ser acoplados al procesador 842, que pueden controlar su activación. Por ejemplo, se pueden proporcionar un dispositivo vibrador mecánico 860 en un sitio que puede tener contacto con el usuario, por ejemplo, en el soporte 816 para oreja que puede proporcionar estímulos de vibración táctiles a través del contacto con la piel. Se puede proporcionar un electrodo (no mostrado) que puede producir estímulos eléctricos de energía relativamente baja Se puede proporcionar un emisor de luz blanca o de color visible, tal como uno o más LEDs en ubicaciones deseadas, por ejemplo, por arriba de la pieza de puente 814. Alternativamente, se pueden proporcionar dispositivos de audio 862, tales como un zumbador u otra alarma, similares a otras modalidades descritas aquí. En una alternativa adicional, se puede proporcionar emisores de aroma en el armazón 810, por ejemplo, sobre o adyacente a la pieza de puente 814. Además o alternativamente, se pueden proporcionar uno o más dispositivos de realimentación separados del armazón 812. Pero ubicados en una forma capaz de proporcionar una respuesta de realimentación al usuario. Por ejemplo, se puede proporcionar emisores de audio, visuales, táctiles (por ejemplo, asiento vibrador), u olfatorios cerca del usuario, tales como cualquiera de los dispositivos descritos aquí. En una modalidad alternativa, se pueden proporcionar dispositivos generadores de calor o de frío q ue son capaces de producir estímulos térmicos al usuario, por ejemplo, un ventilador remotamente controlado o unidad de acondicionamiento de aire. El sistema 810 también puede incluir componentes que están lejos del armazón 812, similar a otras modalidades descritas aquí. Por ejemplo, el sistema 810 puede incluir un receptor, un procesador, y/o una presentación (no mostrada) en una ubicación remota o lejos del armazón 812, por ejemplo, en el mismo cuarto, en una estación de verificación cercana, o en una ubicación más lejana. El receptor puede recibir señales transmitidas por el transmisor 842, incluyendo señales de salidas de los sensores 822, cámaras 830, 840, o cualquiera de los otros sensores provistos en el armazón 812. Un procesador puede ser acoplado al receptor para analizar señales de los componentes en el armazón 812, por ejemplo, para preparar las señales para presentación gráfica. Por ejemplo, el procesador puede preparar las señales de los sensores 822 y/o cámara 830, 840 para presentarse en un monitor, permitiendo así que el usuario sea verificado pro otros. Simultáneamente, se pueden presentar otros parámetros, ya sea en presentaciones individuales o separadas. Por ejemplo, las Figuras 15A-15I muestran señales que indican la salida de varios sensores que pueden estar en el armazón 812, que pueden presentarse a lo largo de un eje de tiempo común o de otra manera correlacionarse, por ejemplo, con el movimiento del ojo del usuario y/o nivel de somnolencia. El procesador puede súperimponer o de otra manera simultáneamente presentar las señales de video junto con los otros parámetros percibidos para permitir que un médico u otro individuo verifique y personalmente correlaciones estos parámetros con el comportamiento del usuario. En una alternativa más, el procesador automáticamente procesa las señales para verificar y/o estudiar el comportamiento del usuario. Por ejemplo, el procesador puede utilizar las señales de salida para verificar varios parámetros oculares relacionados con el movimiento del ojo, tales como duración del parpadeo del ojo (EBD), frecuencia del parpadeo del ojo, velocidad del parpadeo del ojo, aceleración del parpadeo del ojo, duración entre parpadeos (IBD), PERCLOS, PEROP (porcentaje en el que permanece abierto el parpado), fluctuaciones de tamaño de pupila, mirada fija del ojo y movimientos del globo ocular, y similares, tales como aquellos descritos en la Patente de EUA No. 6,542,081 , incorporada aquí por referencia. Las señales de video de la cámara 830 pueden ser procesadas para verificar varios parámetros del ojo, tales como tamaño de pupila, ubicación, por ejemplo, dentro del cuarto cuadrante definido por las bandas cruzadas 850, movimiento de seguimiento del ojo, distancia de mirada fija del ojo, y similares. Por ejemplo, ya que la cámara(s) 830 puede ser capaz de detectar la luz emitida por lo emisores 822, la cámara(s) 830 puede detectar un marco de referencia proyectado sobre la región del ojo del usuario mediante los emisores. La Figura 16 muestra una salida de video ilustrativa de una cámara incluida en un sistema que tiene 20 emisores dispuestos en una disposición vertical. La cámara puede detectar 20 regiones discretas de luz dispuesta como una banda vertical. La cámara también puede detectar un punto de "destello", G, y/o una pupila brillante en movimiento, P. De esta manera, el movimiento de la pupila puede ser verificado con relación al punto de destello, G, y/o con relación a ia banda vertical 1 -20. Ya que los emisores 822 están fijos al armazón 812, el marco de referencia 850 puede mantenerse sustancialmente fijo con relación al usuario. De esta manera, el procesador puede determinar la ubicación de la pupila en términos de coordenadas ortogonales (por ejemplo, x-y p ángulo-radio) con relación al marco de referencia 850. Alternativamente, si el marco de referencia es eliminado, la ubicación de la pupila puede ser determina con relación a cualquier punto de "destello" fijo en el ojo del usuario u otro punto de referencia predeterminado. Por ejemplo, la misma cámara 830 puede proyectar un punto de luz sobre el ojo que puede ser reflejado y detectado por la cámara. Este punto de "destello" puede permanecer sustancialmente fijo, ya que la cámara 830 está fijada al marco 812, proporcionando así el punto de referencia deseado a partir del cual se puede determinar el movimiento relativo del ojo. Además, las señales de video de una cámara lejana separada del marco 812 pueden formar imágenes de la cara del usuario a partir de una distancia (por ejemplo, en el tablero de un carro, un auto, vuelo, u otro simulador, o en una estación de sonido, rada, y otra estación de verificación), por ejemplo, para verificar varias medidas faciales, tales como la expresión facial, la frecuencia de bostezos, y similares, además de o en forma alternativa al marco de referencia de luz proyectada desde los emisores. Además o alternativamente, los parámetros de los otros sensores pueden ser procesados y correlacionados, tales como orientación de la cabeza, inclinación, movimiento del cuerpo, parámetros fisiológicos, y similares. En una modalidad, el procesador puede correlacionar dos o más de estos varios parámetros para generar un índice de fatiga compuesto ("COFI"). Por ejemplo, cuando los parpadeos del ojo o cobertura de pupila por el parpado exceden a una duración de umbral, el procesador puede verificar la posición de los sensores para detectar la inclinación de la cabeza y/o los sensores fisiológicos para la actividad del cerebro probablemente para indicar que el usuario se está quedando dormido o de otra manera ya está siendo incapaz de conducir u operar un equipo. El procesador puede asignar valores numéricos a estos parámetros utilizando un algoritmo empírico almacenado en memoria y agregar o de otra manera correlacionar los parámetros para asignar un COFI numérico a la condición actual o real del usuario. Cuando se excede un umbral de COFI predeterminado, el sistema 810 puede activar un alarma o de otra manera notificar al usuario y/u otra parte en un sitio lejano. De esta manera, el sistema 810 puede proporcionar una forma más efectiva de verificar la fatiga del usuario, somnolencia, estado de alerta, estado mental, y similares. En una alternativa adicional, el sistema 810 puede ser utilizado para generar salidas predeterminadas, por ejemplo, para activar o desactivar un equipo, tal como un vehículo que se está operando por el usuario cuando se determina una condición predeterminada, por ejemplo, el valor de COFI , por el sistema 810. Alternativamente, el procesador puede ser provisto en el marco 812, por ejemplo, como parte del procesador 842, para verificar los parámetros de un evento predeterminado que ocurre, tal como exceder un umbral de COFI predeterminado. En una modalidad alternativa, los parámetros de seguimiento del ojo descritos anteriormente pueden ser verificados por una cámara remota, Por ejemplo, en una posición fija en frente el usuario, tal como el tablero de un vehículo, y similares. La cámara remota puede se acoplada al procesador, ya sea directamente o a través de su propio transmisor, que también puede estar integrado en la determinación de COFI y/o verificarse por terceras partes junto con mediciones de respuestas algorítmicamente definidas. Información adicional sobres los varios aparatos, sistemas y métodos para utilizar éstos se describen en las Patentes de EUA Nos. 6, 163,281 , emitida el 19 de diciembre de 2000, 6,246,344 emitida el 12 de junio de 2001 , y 6,542,081 , emitido ei primero de abril de 2003, las descripciones totales de las cuales se incorporan aquí por referencia en forma expresa. Haciendo referencia a la Figura 13, en una modalidad alternativa, las cámaras 832, 840 pueden ser acopladas a un detector individual (no mostradas), similar a la configuración mostrada en la Figura 22, Los haces de fibra óptica 832, 841 pueden ser acoplados a uno o más lentes para suministrar y/o enfocar imágenes de las cámaras 830, 840 sobre regiones respectivas del detector. El detector puede ser un circuito integrado de CCD o CMOS que tiene un área de formación de imagen activa, por ejemplo, entre aproximadamente cinco y diez milímetros (5-10 mm) en sección transversal. En modalidades ilustrativas, el área de formación de imagen activa del detector puede ser cuadrada, rectangular, redonda, elíptica siempre que sea un área suficiente para recibir imágenes simultáneas de ambas cámaras, 830 y 840. Las salidas ilustrativas que presentan imágenes de video simultáneas de las cámaras 830, 840 se muestran en las Figuras 20A y 20B, y se describen más adelante. En esta alternativa, con suficiente resolución y procesamiento, puede ser posible eliminar los emisores 820 y/o sensores 822 del sistema 810. Regresando a las Figuras 18A y 18B, se muestra otra modalidad de un aparato 910 para verificar el movimiento del parpado de un individuo que porta el aparato 910. Como se describe aquí, el aparato 910 puede ser utilizado como un biosensor, un comunicador, y/o un controlador, y/o puede ser incluido en un sistema, por ejemplo, para verificar el movimiento voluntario/intencional y/o involuntario/no intencional de uno o ambos de los ojos del usuario. Como se muestra, el aparato 910 incluye un casco 912 que puede ser usado en la cabeza de un usuario, y un ensamble de biosensor 920. El casco 912 puede ser un casco de aviador estándar, tal como aquel utilizado por pilotos de helicópteros o de aeronaves, por ejemplo, incluyendo un par de tubos de visión nocturna y otras gafas 914 montadas en el mismo. Opcionalmente, el casco 912 puede incluir una o más presentaciones superiores, por ejemplo, LCDs de panel plano pequeñas montadas en frente de o adyacente a uno o ambos ojos. Alternativamente, el casco 912 puede ser reemplazado con un marco (no mostrado, ver por ejemplo, Figura 13) incluyendo una pieza de puente, un aro que se extiende por arriba o alrededor de cada ojo, y/o un par de soportes para orejas, similares a las otras modalidades aquí descritas. El marco puede incluir un par de lentes (tampoco mostrados), tales como lentes de prescripción, de sol y/o protectores, aunque no necesariamente sean para la operación del aparato. Alternativamente, uno o ambos lentes pueden ser reemplazados con presentaciones, por ejemplo, por ejemplo, LCDs de panel plano relativamente pequeñas, las cuales pueden ser utilizadas como un simulador y/o dispositivo de recreo, como se explica más adelante. En otras modalidades, el aparato 910 puede incluir otros dispositivos que pueden ser usados sobre la cabeza de un usuario, tales como un sombrero, gorra, banda para la cabeza, visor para la cabeza, engranaje protector de ojos y cabeza, máscara para la cara, máscara de oxigeno, máscara ventiladora, máscara de buceo o para nadar, y similares (no mostrados). Los componentes del aparato 910 pueden ser provistos en una variedad de ubicaciones sobre el casco 912 (u otro dispositivo que se use en la cabeza), por ejemplo, para reducir al mínimo en general la interferencia con la visión del usuario y/o actividad normal, mientras se está usando el aparato 910. Como se muestra, el ensamble de biosensor 920 incluye una cámara 922 montada sobre la parte superior del casco 912, por ejemplo, utilizando Velero, cintas, y/u otros conectores temporales o removibles (no mostrados). Esto puede permitir que la cámara 922 sea removida cuando no se está usando. Alternativamente, la cámara 922 puede ser sustancial y permanentemente conectada al casco 912, incorporada directamente en el casco 912 (u otro marco) conectada a una televisión montada en la cabeza, monitor LCD, u otra presentación digital, y similares, igual que otras modalidades aquí descritas. El ensamble de biosensor 920 también incluye uno o más haces de fibra óptica 924 que se extienden desde la cámara 922 hacia al parte frontal del casco 912 para proporcionar una o más "endocámaras" para formar imágenes del ojo del usuario. Como se muestra, un para de haces de fibra óptica 924 que se extienden desde la cámara 922 a tubos respectivos de ias gafas 914. En la modalidad ilustrativa, los haces de fibra óptica 924 pueden ser suficientemente largos para extenderse desde la cámara 922 hacia las gafas 914, por ejemplo, entre aproximadamente treinta punto cuarenta y ocho y cuarenta y cinco punto setenta y dos centímetros de largo, aunque alternativamente, los haces de fibra óptica 924 pueden ser más largos, por ejemplo, de entre aproximadamente cero punto sesenta noventa y seis y uno punto veintiuno metros de largo, o más cortos, dependiendo de la ubicación de la cámara 922 sobre el casco 910 (o si la cámara 922 está provista en forma separada del casco 910). Los extremos 926 de los haces de fibra óptica 924 pueden ser permanente o removiblemente unidos a las gafas 914, por ejemplo, a mensuras 916 conectadas a o de otra manera extendiéndose desde las gafas 914. Alternativamente, los haces de fibra óptica 924 pueden ser mantenidos temporal o sustancialmente en forma permanente sobre las gafas 914 utilizando abrazaderas, sujetadores, adhesivos, y similares (no mostrados). Como se muestra, los extremos 926 de los haces de fibra óptica 924 están montados por debajo de las gafas 914 y se angulan hacia arriba hacia los ojos del usuario. El ángulo de los extremos 926 puede ser ajustable, por ejemplo, aproximadamente quince grados arriba o abajo desde un ángulo base de aproximadamente cuarenta y cinco grados. Alternativamente, los extremos 926 de los haces de fibra óptica 924 pueden ser provistos en otras ubicaciones sobre el casco 912 y/o gafas 914, y dirigirse hacia los ojos del usuarios. Con referencia adicional a la Figura 19, cada haz de fibra óptica 924 puede incluir una guía de imagen de fibra óptica 928, es decir, un haz de fibra óptica formadoras de imagen, y un haz de fibra de iluminación 930, por ejemplo, empaquetada en una tubería de encogimiento (no mostrada), extendiéndose entre la cámara 922 y los extremos 926 del haz de fibra óptica 924. Cada haz de fibra de iluminación 930 puede incluir una o más fibras ópticas acopladas a una fuente de luz, por ejemplo, dentro de la cámara 922. Por ejemplo, la cámara 922 puede incluir un alojamiento 932 de diodo emisor de luz (LED) incluyendo uno o más LEDs 934 (uno mostrado para simplicidad), y los haces de fibra de iluminación 930 pueden ser acoplados al alojamiento de LED 932 para suministrar luz al extremo(s) 926. La luz emitida por la fuente de luz 934 puede estar fuera de la escala de la visión humana normal, por ejemplo, en la escala infrarroja, es decir, con un longitud de onda de salida nominal de entre aproximadamente ochocientos cuarenta y ochocientos ochenta nanómetros (840-880 nm), de manera que la luz emitida no interfiere sustancialmente con la visión normal del usuario. La fuente de luz puede generar luz sustancialmente en forma continua o pulso de luz a una frecuencia desea, similar a las modalidades descritas aquí.
Alternativamente, se pueden proporcionar otras fuentes de luz para iluminar la cara y/o uno o ambos ojos de usuarios, en lugar del haz de fibra de iluminación 930. Por ejemplo, similar a las modalidades descritas aquí, se pueden proporcionar uno o más emisores (no mostrados), por ejemplo, una disposición de emisores colocada a lo largo de una o más regiones del casco 912 y/o gafas 914. El extremo 926 de cada haz de fibra óptica 924 puede incluir uno o más lentes, por ejemplo, un lente objetivo 936 (mostrado en la Figura 18A) que puede enfocar la guía de imagen 928 en una forma deseada, por ejemplo, hacia el ojo de un usuario. Cada guía de imagen 928 puede tener una línea delantera de visión (cero grados (0°) como campo de visión) y el lente objetivo 936 puede proporcionar un campo de visión más ancho, por ejemplo, aproximadamente 45 grados (45°). Opcionalmente, la línea de visión puede ser ajustable, por ejemplo, entre aproximadamente treinta y sesenta grados (30-60°) ajustando el lente objetivo 936. Además, el lente objetivo 936 puede optimizar la distancia de visión (por ejemplo, a aproximadamente cinco punto cero ocho centímetros, mejorando así el foco del ojo(s) de un usuario. De esta manera, la guía(s) de imagen 928 puede llevar imágenes del ojo(s) del usuario a través del los haces de fibra óptica 924 hacia la cámara 922. Como se muestra en la Figura 19, la cámara 922 puede incluir uno o más lentes, por ejemplo, una sección de amplificación 938, para suministrar y/o enfocar imágenes desde la guía(s) de imagen 928 (y/o cámara 944) sobre el área activa 942 del disposit ivo formador de imágenes 940. El dispositivo formador de imágenes 940 puede ser una variedad de dispositivos conocidos que proporcionan un área activa bidimensional para recibir imágenes, por ejemplo, un detector de CMOS o CCD. En una modalidad ilustrativa, el dispositivo formador de imágenes 940 puede ser un dispositivo CMOS, tal como aquel hecho por Sensovation, Modelo cmos SamBa HR-130, o Fast Camera 13 hecha por Micron Imaging, Modelo M l-MV13. La sección de amplificación 938 puede ser mecánicamente coincidente con la cámara 922 a través de un montaje con forma de C u otra conexión (no mostrada). En una modalidad ilustrativa, cada guía de imagen 928 puede ser capaz de proporcionar tantos como de diez mil a cincuenta mil (10,000 a 50,000) píxeles de datos de imagen, por ejemplo, similar a los haces de fibra óptica descritos aquí, que se pueden proyectar sobre el área activa 942 del dispositivo formador de imágenes 940. Para el aparato 910 mostrado en las Figuras 18A y 18B, las imágenes de ambos haces de fibra óptica 924 son proyectadas sobre un dispositivo formador de imágenes individual 940, como e muestra en la Figura 19, es decir, de manera que las imágenes de cada uno de los ojos del usuarios ocupa menos de la mitad del área activa 942. Opcionalmente, el aparato 910 puede incluir una "exocámara" 944 orientada lejos de la cabeza del usuario, por ejemplo, para verificar los puntos circundantes del usuario, similar a las modalidades descritas aquí. Por ejemplo, como se muestra en la Figura 18A, se puede proporcionar otro haz de fibra óptica 945 que se extiende desde la cámara 922. Como se muestra, el haz de fibra óptica 945 está orientado "hacia delante", es decir, generalmente en la misma dirección como cuando el usuario mira en forma directa, y termina en un microlente 946. Este haz de fibra óptica 945 puede ser relativamente corto y/o sustancialmente rígido, de manera que su campo de visión sustancialmente se fija con relación al casco 912. Alternativamente, la exocámara 944 puede ser provista en otras ubicaciones en el casco 912 y/o gafas 914, por ejemplo, incluyendo un haz de fibra óptica flexible, similar a la exocámara 840 descrita anteriormente. De esta manera, la exocámara 944 puede proporcionar imágenes lejos del usuario, por ejemplo, hacia delante en forma recta de la cara del usuario. La exocámara 944 puede o no incluir una o más fibras de iluminación, pero puede incluir una guía de imagen que puede ser acoplada al dispositivo formador de imágenes 940, por ejemplo, a través de la sección de amplificación 938 o en forma separada. De esta manera, las imágenes de la exocámara 944 pueden ser suministradas en la misma área activa 942 como las imágenes de cada uno de los ojos del usuario recibidas de las guías de imágenes 928, similar a otras modalidades aquí descritas. Esta configuración puede permitir o facilitar la sincronización temporal y/o espacial, permitiendo la cobertura o superimposición de imagen(es) de endocámara sobre imágenes de exocámara, o a través de "mediciones de triangulación" u otros algoritmos para propósitos de seguimiento del ojo para identificar "donde", "que", y/o "cuanto" (duración de mirada fija) los ojos del usuario están mirando en una forma relativa a la posición direccional de la cabeza del usuario. De esta manera, la cámara 922 simultáneamente puede capturar imágenes de una o más "endocámaras", es decir, de haces de fibra óptica 924 y de la exocámara 944. Esto puede asegurar que las imágenes capturadas por cada dispositivo son sincronizadas entre sí, es decir, enlazadas conjuntamente en tiempo de manera que una imagen de un ojo tomada en un tiempo específico corresponde a una imagen del otro tomada sustancialmente al mismo tiempo. Además, estas imágenes pueden ser sustancialmente sincronizadas con datos de otros sensores, por ejemplo, uno o más sensores fisiológicos, los cuales pueden mejorar la habilidad de verificar y/o diagnosticar al usuario, y/o pronosticar el comportamiento del usuario. Debido a esta sincronización, los datos de imagen pueden ser capturados relativamente a altas velocidades, por ejemplo, entre aproximadamente quinientos y setecientos cincuenta marcos por segundo o Hertzios (500-750 Hz). Alternativamente, se pueden proporcionar detectores separados, los cuales capturan datos de imagen que pueden ser sincronizados, por ejemplo, a través de un procesador que recibe los datos. En esta alternativa, se pueden utilizar velocidades de captura más bajas, por ejemplo, entre aproximadamente treinta y sesenta Hertzios (30-60 Hz), para facilitar la sincronización a través de un procesador u otro dispositivo subsecuente para la captura. Opcionalmente, la cámara 922 y/o procesador asociado puede ser capaz de capturar oculometría lenta relativa, por ejemplo, velocidades de entre aproximadamente quince y sesenta (15-60) marcos por segundo. Las Figuras 20A y 20B ilustran salidas ilustrativas de una cámara que reciben señales de imagen simultáneas de dos endocámaras 2010 y una exocámara 2020 (o de un dispositivo que compila imágenes de cámaras separadas y/o detectores). Como tal, una endocámara es dirigida hacia cada uno de los ojos de usuario, y la exocámara es dirigida hacia fuera en los puntos circundantes del usuario (es decir, generalmente recto en frente de la cara del usuario) . En la Figura 20A, ambos de los ojos del usuario, 2010L, 2010R están abiertos y la imagen de exocámara 2020 muestra una vista horizontal del cuarto en frente del usuario. En contraste, en la Figura 20B, uno de los ojos del usuario 2010L está completamente cerrado, y el otro ojo 2010R está parcialmente cerrado de manera que el parpado cubre la mayor parte de la pupila. La imagen de la exocámara 2020 muestra que la cabeza del usuario ha comenzado a inclinarse hacia la izquierda y cae hacia delante. Opcionalmente, se puede presentar y/o almacenar información adicional junto con estas imágenes, tal como datos en tiempo real de otros sensores en el aparato 910, similar a aquél mostrado en las Figuras 12A-12C o Figuras 15A-15I . Haciendo referencia a las Figuras 18A, 18B, y 19, las imágenes de la cámara 922 (y/o cámara 944) pueden ser transferidas del aparato 910 a través del cable 948 (mejor visto en la Figura 18A). Por ejemplo, el dispositivo formador de imágenes 940 puede convertir las imágenes ópticas del área activa 942 a imágenes eléctricas que pueden ser llevadas a través del cable 948 a uno o más procesadores y/o controladores (no mostrado), similar a otras modalidades descritas aquí. Alternativamente, las imágenes de los haces de fibra óptica 924 y/o exocámara 944 pueden ser llevadas del aparato 910 a uno o más dispositivos remotos, por ejemplo, cámara, detector, y/o procesador (no mostrado), similar a otras modalidades aquí descritas. En esta alternativa, los haces 924 pueden tener una longitud de aproximadamente cero punto sesenta noventa y seis y uno punto ochenta y dos metros, por ejemplo, proporcionando una longitud suficiente para permitir que el usuario se mueva normalmente permaneciendo aún acoplado al dispositivo(s) remoto. Alternativamente o además, el aparato 910 puede incluir un transmisor inalámbrico, (no mostrado) tal como un transmisor de radio frecuencia (RF) de amplitud corta o larga, por ejemplo, utilizando Bluetooth u otros protocolos, que puedan se acoplados a la cámara 922. El transmisor puede ser ubicado en la cámara 922 o en cualquier parte en el casco 912. El transmisor puede transmitir señales de imágenes representando los datos de imagen a un receptor en una ubicación remota, similar a otras modalidades aquí descritas. En otra alternativa, el aparato 910 puede incluir una memoria (tampoco mostrada) para almacenar los datos de imagen, más bien en lugar de o además del transmisor y/o cable 948. Por ejemplo, los datos pueden ser almacenados en un dispositivo de grabación, por ejemplo, similar a un registro de "caja negra" utilizada en un avión, de manera que el registro puede ser recuperado en un tiempo posterior, por ejemplo, para el análisis después de un accidente vehicular, incidente médico, y similares. Opcionalmente, el aparato 910 puede incluir uno o más controladores (no mostrados), por ejemplo, dentro de la cámara 922, y/o sobre o en el casco 912 para controlar varios componentes del aparato 910. Por ejemplo, se puede acoplar un controlador a uno o más LEDs 934 de manera que los LEDs 934 emiten pulso a una frecuencia predeterminada, por ejemplo, para reducir el consumo de energía del aparato 910. Además, el aparato 910 puede incluir una o más fuentes de energía, por ejemplo, baterías, y/o cables, para proporcionar energía eléctrica a uno o más componentes del aparato 910. Por ejemplo, se pueden proporcionar una o más baterías (no mostradas) en la cámara 922 para proporcionar energía al dispositivo formador de imágenes 940 y/o los LED(s) 934. Si se desea, el aparato 910 también puede incluir uno o más sensores adicionales (no mostrados), por ejemplo, en el casco 910. Los sensores pueden se acoplados al ensamble de biosensor 920, cable 948, y/o transmisor inalámbrico (no mostrado) si se incluyeron, de manera que las señales de los sensores pueden ser verificadas, registradas y/o transmitidas a una ubicación remota. Por ejemplo, se pueden proporcionar uno o más sensores de posición, por ejemplo, para determinar la orientación espacial del casco 912, y consecuentemente la cabeza del usuario, como e describe aquí.
Además o alternativamente, el aparato 910 puede incluir uno o más sensores fisiológicos (no mostrados), por ejemplo, para medir una o más características físicas del usuario, tales como uno o más electrodos EEG, electrodos EKG, electrodos EOG, sensores de pulso, sensores de oximetría, termistores, termopares, u otros sensores de temperatura, por ejemplo, para medir la temperatura de la piel del usuario, detectores de transpiración para medir la humedad en la piel del usuario, y/o sensores para medir el flujo de aire respiratorio, por ejemplo, a través de la nariz del usuario. Además, el aparato 910 puede incluir uno o más dispositivos de realimentación (tampoco mostrados) por ejemplo, para alertar y/o despertar al usuario, tal como un dispositivo vibrador mecánico que puede proporcionar estímulos vibradores táctiles a través de contacto con la piel, uno o más electrodos que puede producir estímulos eléctricos de energía relativamente baja, uno o más emisores de luz, tales como LEDs, dispositivo de audio, emisores de aroma, y similares. Alternativamente se pueden proporcionar dispositivos de realimentación separados del aparato 910, pero localizados en una forma capaz de proporcionar una respuesta de realimentación al usuario. Por ejemplo, se pueden proporcionar emisores de audio, visuales, táctiles, (por ejemplo, un asiento vibrador), o de aroma, cerca del usuario, tal como cualquiera de los dispositivos descritos anteriormente. En una alternativa adicional, se pueden proporcionar dispositivo generadores de calor o frío, que son capaces de producir estímulos térmicos al usuario, Por ejemplo, un ventilador remotamente controlado o unidad acondicionadora de aire.
Un sistema que incluye el aparato 910, puede incluir componentes que están lejos del aparato 910, similares a las otras modalidades descritas aquí. Por ejemplo, el sistema puede incluir uno o más receptores, procesadores, y/o presentaciones (no mostrados) en una ubicación remota el aparato 910, por ejemplo, en el mismo cuarto, en una estación de verificación cercana, o en una ubicación más distante. El receptor puede recibir señales transmitida por un transmisor en el aparato 910, incluyendo señales de imagen de la cámara 922 y/o señales de otros sensores en el aparato 910. Un procesador puede ser acoplado ai receptor para analizar señales del aparato 910, por ejemplo, para preparar las señales para presentación gráfica. Por ejemplo, el procesador puede preparar las señales de video de la cámara 922 para presentarse en un monitor, similar a las imágenes mostradas en las Figuras 20A y 20B, permitiendo así que el usuario sea verificado por terceras partes, por ejemplo, profesionales médicos, supervisores, y otros colaboradores, y similares. Simultáneamente, se pueden presentar otros parámetros, ya sea en un monitor individual o en presentaciones separada, similar a otras modalidades aquí descritas. El procesador puede súperimponer o de otra manera simultáneamente presentar señales de video de los ojos del usuario y/o imágenes de exocámara, sólo o junto con los otros parámetros percibidos, para permitir que un médico u otro individuo verifique y personalmente correlaciones estos parámetros con en comportamiento del usuario.
En una alternativa más, el procesador automáticamente puede procesar las señales para verificar o estudiar el comportamiento del usuario. Por ejemplo, el procesador puede utilizar las señales de salida para verificar varios parámetros relacionados con el movimiento de los ojos, tales como la duración del parpadeo del ojo (EBD), frecuencia del parpadeo de ojos, velocidad del parpadeo del ojo, aceleración del parpadeo del ojo, duración entre parpadeos (1 BD), PERCLOS, PEROP (porcentaje del parpado cuando está abierto) y similares. Las señales de video de la cámara 922 pueden ser procesadas para continua o discontinuamente y/o secuencialmente verifiquen parámetros del ojo o múltiples, en cualquier combinación o patrón de adquisición, tal como tamaño de pupila, ubicación relativa, seguimiento del movimiento del ojo, distancia de mirada fija del ojo, y similares, como se describe aquí. De esta manera, el aparato 910, y/o sistema puede verificar uno o más valores oculométricos u otros parámetros, tales como aquellos descritos en la Patente de EUZ No. 6,542,081 , incorporada aquí por referencia. Para facilitar la verificación del tamaño de pupila (por ejemplo, dilatación, constricción, y/o excentricidad) y/o el movimiento del ojo, el sistema puede incluir un procesador que se comunica con la cámara 922 para procesar las señales de video e identificar una pupila del ojo de las señales de video. Por ejemplo, con cámara de resolución más alta, tales como detectores CMOS y CCD el procesador es capaz de identificar los bordes, y consecuentemente la circunferencia, diámetro, y/ área transversal de la pupila. Una presentación puede ser acoplada al procesador para presentar imágenes de video del ojo a partir de las señales de video procesadas por el procesador. Además, regresando a las Figuras 21A-21 C, un procesador puede superimponer un gráfico en la presentación, por ejemplo, en las imágenes de video para facilita la identificación y/o verificación de la pupila 301 de un ojo 300. Como se muestra, debido al contraste entre el borde de la pupila 301 y el iris circundante 304, el procesador puede aproximarse a este límite, y crear un halo gráfico, elipse, u otro gráfico 306 que puede hacer superimpuesto en los datos de imagen de uno o ambos ojos, (solamente se muestra un ojo 300 en las Figuras 21A-21 C por simpleza). Un observador puede utilizar este gráfico 306 para facilitar ia verificación del usuario del aparato 910. Además o alternativamente, el procesador automáticamente puede analizar la información con respecto al tamaño y/o forma de la pupila 301 (o el gráfico 306), correlacionando así las señales de video para determinar el nivel de somnolencia de la persona u otra condición física y/o mental. Este análisis puede incluir verificar la ubicación relativa de la pupila, el tamaño de la pupila, y/o una excentricidad de la pupila, por ejemplo, con el tiempo. Por ejemplo, el procesador puede verificar el diámetro de la pupila 300 con el tiempo, que puede ser presentado en forma de diagrama, por ejemplo, como se muestra en la Figura 15E, almacenada en memoria como una función del tiem po, y/o superimpuesta sobre imágenes del ojo, por ejemplo, en tiempo real. Por ejemplo, la Figura 21 A puede mostrar la pupila 301 en un estado relajado bajo condiciones ambientales, por ejemplo, que corresponde al gráfico 306 que tiene un diámetro "d- Como se muestra en la Figura 21 B, si el usuario parpadea o cierra el ojo 300 , la pupila 301 puede dilatarse, de manera que la pupila 301 inicialmente es dilatada cuando el ojo 300 se vuelve abrir, como se representa por el gráfico 306 que tiene un diámetro "d2". El procesador puede comparar cambios en diámetro del gráfico 306 o la misma pupila 301 para determinar el retrazo de la pupila 301 para regresar al diámetro "d después de un parpadeo u otro cierre del ojo. Este retraso o pérdida de reactividad a centelleos de luz visible o no visible por lo menos parcialmente puede indicar un nivel de somnolencia, un nivel de daño, por ejemplo, intoxicación , y/o el inicio de u n evento médico, incluyendo eventos letales o term inales tales como daño cerebral o muerte cerebral debido a hipoxemia, hipoglicemia, ataqué, infarto al miocardio, toxinas, venenos, y similares. Además o alternativamente, el procesador puede determinar la excentricidad aproximadamente de la pupila, por ejemplo, a medida q ue parcialmente es cubierta por el parpado 302. Por ejem plo, como se m uestra en la Fig ura 21 C, cuando el parpado 302 es parcialmente cerrado, el halo 306 superimpuesto en las imágenes puede adaptar una forma elíptica que corresponde a la anchura "w" y a la altura °h" de la porción expuesta de la pupila 301. La altura "h" puede estar relacionada con el diámetro "d^, la relación de la altura "h" al diámetro "d^ puede ser igual o menor que uno (h/di=l ), como un indicador del grado que el parpado 302 cubre a la pupila 301. Por ejemplo, es relación puede reducirse de uno a cero uno vez que la pupila 301 completamente está cubierta por el parpado 302. Similarmente, la anchura "w" también puede estar relacionada con el diámetro "di" (w/Zd^l ), como un indicador del grado en el que el parpado 302 cubre la pupila 301 , por ejemplo, a medida que el parpado 302 comienza a cubrir más de la mitad de la pupila 301 . Además o alternativamente, una relación de la altura y anchura (h/w=1 ) puede relacionar información sobre excentricidad de la pupila 301 , por ejemplo, basándose en la cobertura por el parpado 302. Dichos parámetros pueden ser analizados individualmente, colectivamente, y/o junto con otros parámetros oculométricos y/o fisiológicos para verificar, analizar y/o pronosticar el comportamiento futuro del usuario. Los datos pueden se comparados con datos empíricos u otros datos retenidos o accesado por el procesador para proporcionar información con respecto a la condición del usuario, por ejemplo, un valor de COFI , como se describe aquí. Si, por ejemplo, el análisis de la pupila del usuario da como resultado una determinación de que el nivel de estado de alerta del usuario ha caído por debajo de un nivel predeterminado, se puede proporcionar un aviso al usuario y/o a una o más terceras persona, similar a otras modalidades descritas aquí. Dichos métodos también pueden ser útiles para determinar si el usuario está siendo afectado por fármacos, alcohol y/o condiciones médicas como se explica aquí. Además, como un umbral y/o para probar la vigilancia del usuario, un aparato o sistema, tal como cualquiera de los descritos aquí, puede probar la respuesta de la pupila del usuario. Dicha prueba puede confirmar que un paciente está activo, es decir, no está dormido, aún muerto, mientras siga usando el aparato. Por ejemplo, si una fuente de luz proporciona centelleos durante un término predeterminado y/o frecuencia de pulso en el ojo el usuario, la pupila del usuario puede dilatarse brevemente de su estado relajado (basándose en la luz del ambiente), y después restringirse al estado relajado dentro de un periodo de tiempo pronosticable. Regresando a la Figura 22A, se muestra un método ilustrativo para probar la vigilancia de un usuario de cualquiera de los aparados y sistemas aquí descritos. Por ejemplo, un usuario puede usar el aparato 810 mostrado en la Figura 18 verificando uno o ambos de los ojos del usuario, como se describe anteriormente. En el paso 2210, se puede determinar una base o parámetros del ojo(s) del usuario bajo un estado relacionado. Por ejemplo, el diámetro relajado de la pupila se puede medir o de otra manera verificar bajo condiciones ambientales. En el paso 2220, uno o más pulsos de luz pueden ser emitidos hacia el ojo(s) que puede ocasionar que el ojo(s) se dilate y/o restrinja el estado relajado, por ejemplo, a la misma frecuencia como la frecuencia de los centelleos de luz pulsada. Por ejemplo, uno o más emisores en el aparato 810 pueden ser activados en una secuencia predeterminada para hacer que el ojo(s) se dilate. Después, en el paso 2230, el ojo(s) del usuario puede ser verificado, por ejemplo, subconsciente o inconscientemente con la cámara 830 o sensores 822, para determinar el tiempo de reacción del ojo para regresar al estado relajado. El tiempo de reacción puede ser comparado con una base de datos empírica u otros datos para confirmar que el usuario está consciente, despierto y/o vivo. Si se desea, los pasos 2220 y 2230 pueden se repetidos una o más veces para confirmar el tiempo de reacción y/o proporcionar un tiempo de reacción promedio, si se desea, por ejemplo, para determinar determinaciones negativas falsas. Si la fuente de luz está fuera del rango de luz visible, por ejemplo, dentro de la escala infrarroja, la pupila puede seguir reaccionando a los centelleos de luz de esta manera. Una ventaja de utilizar luz infrarroja es que puede no distraer o molestar al usuario, ya que ei usuario conscientemente no observará la luz. Aún más, la pupila puede seguir reaccionando a tales centelleos suficientemente que un sistema que verifica el ojo puede identificar cuando la pupila se dilata y se restringe en respuesta a tales centelleos. Puede ser suficiente, por ejemplo, durante una prueba de umbral generar un centello individual de luz y verificar la respuesta de la pupila. Alternativamente, se puede utilizar una serie de centelleos para verificar la respuesta de la pupila con el tiempo, por ejemplo, para estudiar tendencias o eliminar datos falsos que puedan surgir de un solo centelleo. Para una serie de centelleos, la velocidad de pulso debe ser mayor que el tiempo que toma a la pupila regresar naturalmente a sus estado relajado después de dilatarse en respuesta a un centelleo de luz, por ejemplo, por lo menos entre aproximadamente cincuenta y cien milisegundos (50-100 ms). Alternativamente, los pulsos de luz, por ejemplo, luz casi infrarroja (teniendo longitudes de onda de entre aproximadamente 640-700 nanómetros) pueden ser dirigidos ai ojo(s) del usuario. El sistema puede detectar fluctuaciones rítmicas en la respuesta de la pupila. Dichas respuestas pueden resultar de una respuesta oculométrica primitiva, posiblemente a la visión nocturna, por ejemplo, "vistas" en la oscuridad o percibir fuente de luz infrarroja en la oscuridad. Dicha prueba de respuesta de pupila también se puede utilizar para identificar positivos falsos, por ejemplo, cuando un usuario ha muerto, aún el sistema falla para detectar cualquier cierre y/o movimiento del ojo. Similarmente la prueba de respuesta de pupila también puede ser capaz de determinar si un usuario está dormido o inconsciente. Además, la prueba de respuesta de pupila puede ser utilizada para determinar si un usuario está bajo la influencia de alcohol, fármacos, y similares, lo cual puede afecta el régimen al cual la pupila se restringe a su estado relajado después de dilatarse en respuesta a centelleo de luz. Además o alternativamente, la prueba de respuesta de pupila también se puede utilizar para determinar la concentración de sangre o cantidad de fármaco o alcohol en el cuerpo del usuario, dependiendo de la correlación o medidas oculométricas y niveles de sangre científicamente determinados, correspondiente. Regresando a la Figura 22B, se muestra otro método para probar la vigilancia de umbral. Este método generalmente involucra proporcionar estímulos que instruyen al usuario a mover deliberadamente sus ojos en una forma deseada, en el paso 2240, y verificar el ojo en el paso 2250, por ejemplo, para deliberar el movimiento que confirma que el usuario ha seguido las instrucciones y movió sus ojos en la forma deseada. Cualquiera de los aparatos descritos aquí puede incluir uno o más dispositivos de estímulo, por ejemplo, bocina, luces, dispositivos vibradores u otros dispositivos táctiles. Alternativamente, dichos dispositivos pueden ser provistos remotamente del usuario, por ejemplo, en el tablero de comandos de un vehículo, una presentación de video, y similares. Por ejemplo, se le puede decir al usuario que cierre sus ojos durante un tiempo predeterminado si se activa una luz visible en el aparato, una vez que se activa la luz, el sistema puede verificar el ojo(s) para confirmar que el usuario responde dentro de un marco de tiempo predeterminado y/o en una forma predeterminada (por ejemplo, uno o más parpadeos en una secuencia predeterminada). Alternativamente, otros estímulos pueden ser provistos en lugar de centelleo de luz, tales como instrucciones visibles en una presentación (o separado del aparato) señales audibles (por ejemplo, comandos verbales de una bocina en o cerca del dispositivo) señales táctiles, y similares. En estas modalidades, ei usuario puede ser instruido para realizar una serie de acciones, por ejemplo, mirar hacia arriba o hacia abajo, derecha o izquierda, parpadear en una secuencia deseada, cerrar sus ojos hasta obtener la instrucción, seguir un señalador en una presentación, y similares. Dicha prueba puede ser útil para, por ejemplo, si un sujeto de prueba está despierto, alerta, y/o consciente durante una serie de pruebas o mientras realiza varias actividades. En otra modalidad, se pueden utilizar aparatos y sistemas tales como aquellos descritos aquí, para controlar un sistema de computadora, por ejemplo, similar a un ratón de computadora, palanca de mandos, y similares. Por ejemplo, con referencia al aparato 810 mostrado y descrito con referencia a la Figura 13, la cámara(s) 830 puede ser utilizada para verificar la ubicación de la pupila(s) del usuario para dirigir y/o activar un señalador de ratón en una pantalla de computadora u otra presentación. Un procesador que recibe los datos de imagen de la cámara 922 puede analizar los datos de imagen para determinar la ubicación relativa de ia pupila(s) dentro del área activa 942 del detector 940. Opcionalmente, una o más presentaciones pueden ser fijadas con relación al marco 812 dispuesto en frente de o dentro del campo de visión de uno o ambos de los ojos del usuario. Por ejemplo, se puede montar un LCD u otra presentación (no mostrada) al marco 812 en lugar de los lentes. Dicho aparato puede ser utilizado para simulaciones, por ejemplo, dentro de una instalación médica u otra instalación de investigación, para uso de recreo, por ejemplo, como una consola de video juegos, y similares. Regresando a la Figura 23, se muestra un método ilustrativo para controlar un dispositivo de cómputo basándose en el movimiento detectado del ojo utilizando cualquiera de los aparatos o sistemas descritos aquí. Por ejemplo, el aparato 910 mostrado en la Figura 18A, puede ser utilizado e influye un haz de fibra óptica 924 para formar imágenes de uno o ambos de los ojos del usuario. Opcionalmente, como se explica más adelante, el aparato también puede llevar una o más exocámaras, por ejemplo, dispuestas adyacentes a uno o ambos ojos del usuario que pueden ser orientados hacia fuera a lo largo de la vista delantera del usuario. Primero, en el paso 2310, puede ser deseable inicializar un sistema que incluye dicho aparato, es decir, establecer un marco ce referencia, tal como una base o ubicación de referencia, un marco de referencia con componentes ortogonales, y similares. Por ejemplo, el usuario puede ser instruido para mirar a un señalador u otra ubicación predeterminada en la pantalla, manteniendo así el ojo(s) del usuario, y consecuentemente la pupila(s) de usuario sustancialmente fijos. El procesador puede analizar los datos de imagen de la cámara 830, mientras que el ojo(s) del usuario está sustancialmente fijo, por ejemplo, para determinar la ubicación de la pupila en las imágenes que corresponden al punto de referencia o "ubicación base". Por ejemplo, el señalador o ubicación base puede ser localizado sustancialmente recto en rente de la pupila del usuario. Opcionalmente, el usuario puede ser instruido para mirar secuencialmente en dos o más ubicaciones identificada en la presentación, proporcionando así una escala para el movimiento relativo del ojo del usuario. En esta alternativa, puede ser deseable tener al usuario mirando en esquinas opuestas de la presentación, por ejemplo, para identificar los límites del movimiento apropiado del ojo con relación a la presentación. Una vez que se completa la inicialización, el usuario está libre de mover sus ojo(s), por ejemplo, izquierda y derecha, arriba y abajo, por ejemplo, con relación al señalador y/o al resto de la presentación. En el paso 2320, el sistema puede verificar dicho movimiento del ojo, es decir, el procesador puede analizar los datos de imagen para determinar la ubicación relativa de la pupila(s) del usuario a partir de la ubicación(es) base. Por ejemplo, si el usuario mueve sus ojos arriba y a la derecha de la ubicación base, es decir, arriba y a la derecha con relación al señalador en la pantalla de computadora, el procesador puede determinar esta movimiento, en respuesta, en el paso 2330, el procesador puede mover el señalador arriba y a la derecha, es decir, siguiendo así la mirada fija del usuario. Cuando el usuario detiene el movimiento de sus ojos, el procesador puede detener el señalador una vez que llega a la ubicación en donde el usuario en realidad está mirando en la presentación. Opcionalmente, en el paso 2340, el usuario puede ser capaz de ejecutar un comando una vez que el señalador se ha movido a una ubicación deseada en la presentación, por ejemplo, similar a activar un botón en un ratón. Por ejemplo, el procesador puede verificar los datos de imagen para una señal del usuario, por ejemplo, uno o más parpadeos intencionales en una secuencia predeterminada. Esto puede ser tan simple como un parpadeo individual en un término predeterminado, por ejemplo, de varios segundos de duración, a una serie más complicada de parpadeos, por ejemplo, incluyendo uno o ambos de los ojos del usuario. Alternativamente, la señal puede ser un periodo predeterminado sin parpadeos, por ejemplo, una duración de tres, cinco, o más segundos. Cuando el procesador identifica la señal, el procesador puede activar el comando, por ejemplo, Por ejemplo, el usuario puede detener el movimiento de sus ojos cuando llega a un icono, comando de palabra, y similares en la presentación, y el procesador puede mover el punto hasta que cubre o de otra manera queda localizado en el icono o comando. El usuario después puede parpadear o actuar, como se explicó anteriormente, similar a una "doble opresión" de un botón de un ratón de computadora, instruyendo así al procesador completar el comando seleccionado o comunicar el comando seleccionado a un destino deseado. Por ejemplo, el comando seleccionado puede dar como resultado la ejecución de un programa de computadora, o una pieza dei equipo u otros dispositivos que se active o desactive o de otra manera controlarse en una forma deseada. De esta forma, el sistema puede ser utilizado para completar una variedad de tareas, a partir del control de un dispositivo de computadora copiado al procesador y/o presentación, a apagar o encender un interruptor de luz o vehículo. Dichos aparatos y/o sistemas de esta forma pueden proporcionar métodos para utilizar una computadora de manos libres, es decir, utilizando solamente el movimiento de los ojos del usuario. Por ejemplo, en una aplicación, el sistema puede ser utilizado para operar un vehículo, tal como un helicóptero, avión, u otra aeronave, por ejemplo, para activar o de otra manera controlar armas, sistemas de navegación, u otros sistemas abordo. En otra aplicación, el sistema puede ser utilizado en video juegos u otra simulación, por ejemplo, para mejorar la inmersión de realidad virtual. Por ejemplo, el sistema puede permitir que un usuario navegue rápidamente a través de múltiples menús, escenas, u otras actividades, mientras se dejan las manos libres del usuario para realizar otras funciones, por ejemplo, realizar otras actividades además de o simultáneamente con funciones controladas con el ojo, que pueden permitir tareas mucho más complicadas al mismo tiempo.
Además, se pueden utilizar una o más exocámaras para mejorar y/o de otra manera facilitar el movimiento del ojo con relación ai señalador en la presentación. Por ejemplo, se puede proporcionar una exocámara adyacente a por lo menos un ojo, por ejemplo, a una distancia predeterminada u otra relación del ojo, que está orientado hacia la presentación. De esta manera la exocámara puede proporcionar imágenes de la presentación, por ejemplo, mostrando el movimiento del señalador en tiempo real que puede sincronizarse con el movimiento del ojo verificado con la endocámara. El procesador puede relacionar estos datos utilizando triangulación u otros algoritmos para mejorar la exactitud del seguimiento del señalador con el movimiento del ojo. Esto puede asegurar la exactitud de que, cuando el usuario intenta ejecutar un comando parpadeando con el señalador en un comando, el comando pretendido en realidad es seleccionado, por ejemplo, cuando la presentación muestra múltiples comandos disponibles. Además, dichos sistemas y métodos pueden ser utilizados en procedimientos médicos u otros procedimientos de diagnósticos, tales como prueba de vigilancia. Por ejemplo, el procesador puede analizar datos de las endocámaras y exocámaras para correlacionar el movimiento de los ojos con relación a imágenes en la presentación para estudiar una variedad de parámetros oculométricos, tales como un lento movimiento de enrollamiento del ojo, una pobre fijación del ojo y/o seguimiento, mirada fija vaga, parpadeo incrementado del ojo, mirada fija hipnótica, caídas prolongadas del parpado o parpadeo, abertura y cierre del parpado de baja velocidad, velocidades de abertura del parpado en mirada fija, cambios constrictivos de pupila a largo plazo, diámetros inestables de la pupila, reacciones de pupila evocados por visión oscurecida, y/u otros parámetros discutidos aquí. Estos procedimiento pueden ser utilizados para estudiar una respuesta del individuo que mira a varias condiciones ambientales, el alcohol o inducidos por fármaco y/u otras condiciones.
Regresando a la Figura 24, en otra modalidad, el aparato 2410 puede ser provisto para centellear transcutáneamente un ojo 300 de un usuario que lleva el aparato 2410. El aparato 2410 generalmente puede ser similar a cualquiera de las modalidades aquí descrita, tal como el marco 812, mostrado en la Figura 13. Como se muestra, el aparato 2410 puede incluir uno o más emisores u otras fuentes de luz 2422 que están en contacto con la cabeza 308 del usuario, Por ejemplo, la sien(es) del usuario adyacente a uno o ambos ojos 300 (se muestra sólo una por simplicidad). Además, el aparto 2410 puede incluir uno o más sensores, tales como haces de fibra óptica 2430, por ejemplo, terminando en un lente 2434 para adquirir imágenes del ojo 300 del usuario. En una modalidad ilustrativa, un emisor infrarrojo 2422 puede ser fija o ajustablemente montado sobre una o ambas piezas 2422 para oreja de un marco 2412 de manera que el emisor 2422 hace contacto y transmite luz hacia la piel del usuario. Por ejemplo, el emisor 2422 puede incluir una pluralidad de LEDs los cuales pueden emitir luz infrarroja no coherente (que no es de láser) colimada. El emisor 2422 puede ser orientado generalmente hacia el ojo 300, de manera que la luz del emisor 2422 puede viajar a través de o a lo largo de la cabeza 308 del usuario hacia el ojo 300, como está representado por las flechas desvanecidas 2450. Por ejemplo, se ha encontrado que la piel y otro tejido puede ser por lo menos translúcido a ciertas frecuencias de luz, tal como luz infrarroja. De esta maneas, por lo menos algo de la luz del emisor(es) 2422 puede transmitirse transcutáneamente a lo largo de o a través de la piel del usuario y/u otro tejido hasta que por lo menos algo de la luz entre al ojo 300. La luz puede ser reflejada fuera de la retina (no mostrado) dentro del ojo 300, de manera que al menos algo de la luz se escapa fuera de la pupila 301 , como se representa por las flechas 2452. El lente 2434 y el haz de fibra óptica 2430 pueden transmitir imágenes del ojo a un detector (no mostrado) similar a otras modalidades aquí descritas, que pueden identificar la pupila 301 como un punto brillante sobre las imágenes debido a la luz 2452. Un procesador u otro dispositivo acoplado al detector puede verificar la pupila 301 , tal como su ubicación relativa sobre las imágenes, tamaño y/o forma, similares a otras modalidades aquí descritas, por ejemplo, utilizando las técnicas de "pupila blanca" o "pupila oscura" descritas aquí. Además o alternativamente, la luz transcutánea puede iluminar a todo el ojo 300, especialmente la retina, la cual puede ser observada desde la parte de enfrente de la cara del usuario, por ejemplo, como una esfera reductora de luz u otra forma con la pupila 301 mostrándose como un punto brillante rodeada por la forma del reductor de luz. Esta modalidad puede tener la ventaja de que uno o más emisores no tienen que ser colocados en frente del ojo del usuario, los cuales parcialmente pueden obstruir o distraer el campo de visión del usuario. Además, ya que este sistema utiliza cámara de percepción infrarrojas y/o detectores que operan independientemente del ángulo de incidencia de luz infrarroja, esta modalidad puede eliminar dificultades técnicas que surgen de una perdida de una orientación apropiadas de emisores a detectores. Además, sin los emisores enfrente del ojo, se pueden eliminar la mirada fija u otras reflexiones fuera del ojo, que pueden facilitar el análisis de los datos de imagen. Se apreciará que los varios componentes y características descritas con modalidades preferidas pueden ser agregados, eliminados, y/o sustituidos con las otras modalidades, dependiendo del uso destinados de las modalidades. Por ejemplo, los apéndices A y B de la solicitud provisional Serie No. 60/559, 135, incorporada aquí por referencia, proporcionan información adicional sobre posibles características estructurales, y/o métodos para utilizar los aparatos y sistemas descritos aquí. Las descripciones completas de los apéndices A y B se incorporan expresamente aquí por referencia.
Aunque la invención es susceptible a varias modificaciones, y varias alternativas, sus ejemplos específicos han sido mostrados en los dibujos y se describen aquí con detalle. Se debe entender que la ¡nvención no debe ser limitada a las formas particulares o métodos descritos, sino de lo contrario, la invención es para cubrir todas las modificaciones, equivalentes y alternativas que caen dentro del alcance de las reivindicaciones anexas.

Claims (10)

REIVINDICACIONES
1 . Un aparato para verificar el movimiento de los ojos de una persona, que comprende: un dispositivo configurado para ser usado en la cabeza de una persona; una fuente de luz para dirigir la luz hacia los ojos de la persona cuando se está usando el dispositivo; primera y segunda guía de imagen que comprende primeros extremos fijados en el dispositivo, la primera guía de imagen colocada para ver un primer ojo de la persona que lleva el dispositivo, la segunda guía de imagen colocada para ver un segundo ojo de la persona que lleva el dispositivo; y una cámara acoplada a los primeros y segundos haces para adquirir imágenes de los primero y segundo ojos.
2. El aparato de acuerdo con la reivindicación 1 , en donde la cámara comprende un detector de CCD o CMOS y en donde las imágenes de las primeras y segundas guías de imagen son simultáneamente recibidas en un área activa del detector.
3. El aparato de acuerdo con la reivindicación 1 , en donde la fuente de luz comprende uno o más emisores infrarrojos configurados para emitir luz infrarroja.
4. El aparato de acuerdo con la reivindicación 1 , en donde la fuente de luz comprende primera y segunda fibras de iluminación llevadas por las primeras y segundas guías de imagen, respectivamente.
5. El aparato de acuerdo con la reivindicación 1 , que comprende además un cable acoplado a la cámara para suministrar señales de salida que representan las imágenes de los primer y segundo ojos lejos del aparato.
6. El aparato de acuerdo con la reivindicación 1 , que comprende además un transmisor en el dispositivo para transmitir inalámbricamente señales de salida de la cámara a una ubicación remota.
7. El aparato de acuerdo con la reivindicación 1 , que comprende además primer y segundo lentes en los primeros extremos de las primera y segunda guías de imagen, respectivamente, para enfocarse en los primer y segundo ojos, respectivamente.
8. El aparato de acuerdo con la reivindicación 1 , en donde el dispositivo comprende por lo menos uno de un armazón de anteojos, un gorro, un casco, un visor, y una máscara.
9. El aparato de acuerdo con la reivindicación 1 , en donde el dispositivo comprende un casco que comprende un par de gafas, la cámara está montada al casco, y los primeros extremos de la primera y segunda guías de imagen están unidos a las gafas.
10. El aparato de acuerdo con la reivindicación 1 , que comprende además una tercera guía de imagen que comprende un primer extremo colocado en el dispositivo lejos de la persona, la tercera guía de imagen acoplada a la cámara para adquirir imágenes de los puntos que rodena a la persona. 1 1. El aparato de acuerdo con la reivindicación 1 , que comprende además uno o más sensores en el dispositivo para medir una o más características fisiológicas del usuario. 12. El aparato de acuerdo con la reivindicación 1 1 , que comprende además una presentación acoplada a la cámara y el uno o más sensores para presentar simultáneamente imágenes de los primer y segundo ojos y la una o más características fisiológicas del usuario. 13. El aparato de acuerdo con la reivindicación 1 , que comprende además un transmisor acoplado a la cámara para transmitir señales que comprende las imágenes de los primer y segundo ojos a una ubicación remota. 14. Un aparato para verificar el movimiento de los ojos de una persona, que comprende: un dispositivo configurado para ser usado en la cabeza de una persona; una fuente de luz para dirigir la luz hacia los ojos de la persona cuando se está usando el dispositivo; primer y segundo lente en el dispositivo, el primer lente dirigido hacia el primer ojo de la persona que lleva el dispositivo, el segundo lente dirigido a un segundo ojo de la persona que lleva el dispositivo; un tercer lente en el dispositivo orientado lejos de la persona que lleva el dispositivo para adquirir imágenes de los aspectos circundantes de ia persona; y una cámara acoplada a los primeros, segundos y terceros lentes para adquirir simultáneamente imágenes de los primeros y segundos ojos a partir de los primeros y segundos lentes e imágenes de los terceros lentes. 15. El aparato de acuerdo con la reivindicación 14, en donde la cámara comprende un detector de CCD o CMOS y en donde las imágenes de las primeras y segundas guías de imagen son simultáneamente recibidas en un área activa del detector. 16. El aparato de acuerdo con la reivindicación 14, en donde la fuente de luz comprende uno o más emisores infrarrojos configurados para emitir luz infrarroja. 17. El aparato de acuerdo con la reivindicación 14, en donde los primer y segundo lentes están acoplados a la cámara mediante las primera y segunda guías de imagen, respectivamente. 18. El aparato de acuerdo con la reivindicación 17, en donde la fuente de luz comprende primera y segunda fibras de iluminación llevadas por las primeras y segundas guías de imagen, respectivamente. 19. Un aparato para verificar ei movimiento de los ojos de una persona, que comprende: un dispositivo configurado para ser usado en la cabeza de una persona; primeros y segundos haces de fibra óptica que comprenden primeros extremos fijados en el dispositivo, el primer haz de fibra óptica colocado para ver un primer ojo de la persona que lleva el dispositivo, el segundo haz de fibra óptica colocado para ver un segundo ojo de la persona que lleva el dispositivo; y una cámara acoplada a los primeros y segundos haces de fibra óptica para adquirir simultáneamente imágenes de los primer y segundo ojos de los primer y segundo haces de fibra óptica. 20. El aparato de acuerdo con la reivindicación 19, que comprende además una exocámara en el dispositivo orientada lejos de la persona que lleva el dispositivo para adquirir imágenes de los puntos circundantes de la persona, la exocámara acoplada a ia cámara para adquirir simultáneamente imágenes de la exocámara con las imágenes de los primeros y segundos haces de fibra óptica. 21 . Un sistema para verificar el movimiento del ojo de una persona, que comprende: un dispositivo configurado para ser usado en la cabeza de una persona; una fuente de luz para dirigir luz hacia un ojo de la persona cuando se está usando el dispositivo; una cámara en ei dispositivo para verificar el movimiento del ojo, la cámara configurada para generar señales de video que representan imágenes de video adquiridas por la cámara del ojo; un procesador que se comunica con la cámara para procesar las señales de video e identificar una pupila del ojo a partir de las señales de video; y una presentación acoplada al procesador para presentar imágenes de video del ojo a partir de las señales de video procesadas por el procesador, la presentación súperimponiendo un gráfico en las imágenes de video para identificar la pupila. 22. El sistema de acuerdo con la reivindicación 21 , en donde el procesador además está configurado para correlacionar las señales de video para determinar el estado físico o mental de la persona basándose por lo menos parcialmente en el análisis de la pupila identificada por el procesador. 23. El sistema de acuerdo con la reivindicación 22, en donde el procesador está configurado para analizar las señales de video para verificar por lo menos una de una ubicación relativa de la pupila, un tamaño de la pupila, y un excentricidad de la pupila. 24. Ei sistema de acuerdo con ia reivindicación 21 , en donde la cámara comprende un detector de CCD o CMOS, y por io menos un haz de fibra óptica que incluye un primer extremo montado en el dispositivo, de manera que el primer extremo está orientado hacia un ojo de la persona cuando el dispositivo se usa. 25. El sistema de acuerdo con la reivindicación 24, en donde la fuente de luz comprende por lo menos una fibra de iluminación llevada por el haz de fibra óptica. 26. El sistema de acuerdo con la reivindicación 21 , que comprende además un transmisor en el dispositivo para transmitir inalámbricamente señales de salida de la cámara hacia una ubicación remota. 27. El sistema de acuerdo con la reivindicación 26, en donde el procesador está ubicado en una ubicación lejos del dispositivo, el procesador está acoplado a un receptor para recibir las señales de salida transmitidas por el transmisor. 28. El sistema de acuerdo con la reivindicación 21 , en donde el procesador está provisto en el dispositivo. 29. El sistema de acuerdo con la reivindicación 21 , que comprende además uno o más sensores en el dispositivo para medir una o más características fisiológicas de la persona, el procesador acoplado a uno o más de los sensores para correlacionar la una o más características fisiológicas con las señales de video para determinar el estado físico o mental de la persona. 30. El aparato de acuerdo con la reivindicación 21 , que comprende además uno o más sensores en el dispositivo para medir una o más características fisiológicas del usuario, el procesador acoplado a uno o más de los sensores para presentar una o más características fisiológicas en la presentación junto con imágenes de video. 31. Un método para verificar el movimiento del ojo de una persona utilizando un ensamble de biosensor incluyendo una fuente de luz para dirigir luz hacia un ojo de la persona cuando el ensamble de biosensor es usado, y una cámara orientada hacia el ojo, el método comprende: emitir luz de la fuente de luz hacia el ojo; verificar el movimiento del ojo con la cámara para generar imágenes de video del ojo; y generar una salida gráfica del movimiento verificado por la cámara, la salida gráfica comprende una imagen artificial súperimpuesta en las imágenes de video del ojo para identificar una pupila del ojo. 32. Un método para verificar el ojo de una persona utilizando un ensamble de biosensor, que comprende una fuente de luz que dirige luz hacia el ojo de la persona y una cámara orientada hacia el ojo de la persona, el método comprende: emitir uno o más pulsos de luz a partir de la fuente de luz, ocasionando que el ojo se dilate a partir de su estado relajado; y verificar el ojo con la cámara para determinar el tiempo de reacción del ojo para regresar a su estado relajado. 33. Un sistema para controlar un dispositivo de cómputo, que comprende: un dispositivo configurado para ser usado en la cabeza de una persona; una cámara en el dispositivo para verificar el movimiento de por lo menos el ojo de una persona, la cámara configurada para generar señales que representan imágenes de video del ojo adquiridas por la cámara; una presentación dispuesta adyacente al dispositivo, de manera que un señalador en el dispositivo puede ser visto por la persona que lleva el dispositivo; y un procesador acoplado a la cámara para procesar las señales para verificar el movimiento del ojo con relación a un marco de referencia en la presentación, el procesador acoplado a la presentación para hacer que el señalador se mueva en la presentación basándose en el movimiento del ojo con relación al marco de referencia. 34. El sistema de acuerdo con la reivindicación 33, en donde la presentación es una presentación de cabeza hacia arriba asegurada al dispositivo, de manera que la presentación queda dispuesta a una distancia predeterminada en frente del ojo de la persona que lleva el dispositivo. 35. El sistema de acuerdo con la reivindicación 33, en donde el procesador está acoplado a la cámara para verificar las señales de las imágenes de video que indican que la persona que lleva el dispositivo está mirando a una ubicación específica en la presentación, el procesador configurado para mover el señalador a la ubicación específica. 36. El sistema de acuerdo con la reivindicación 35, en donde el procesador se configura para verificar las señales para detectar imágenes de video indicando que la persona que lleva el dispositivo ha parpadeado en una secuencia predeterminada mientras mira a la ubicación específica para solicitar la ejecución de un comando, el procesador configurado para ejecutar el comando en el dispositivo de cómputo basándose en la detección de las imágenes de video. 37. El sistema de acuerdo con la reivindicación 33, que comprende además una fuente de luz para dirigir luz hacia un ojo de la persona cuando el dispositivo se está usando. 38. El sistema de acuerdo con la reivindicación 37, en donde la fuente de luz está configurada para proyectar el marco de referencia en el ojo de la persona que lleva el dispositivo. 39. El sistema de acuerdo con la reivindicación 33, en donde el procesador está configurado para presentar una imagen en una ubicación base en la presentación, el procesador además está configurado para verificar las señales para detectar imágenes de video indicando que la persona que lleva el dispositivo está mirando a la ubicación base para proporcionar el marco de referencia para el movimiento subsecuente del ojo con relación a la ubicación base. 40. Un método para controlar un dispositivo de cómputo que utiliza un dispositivo usado en la cabeza de un usuario, el dispositivo comprende una cámara que tiene un lente objetivo dirigido hacia por lo menos un ojo del usuario, el dispositivo de cómputo comprendiendo una presentación que incluye un señalador presentado en la presentación, el método comprende: verificar el movimiento de por lo menos un ojo utilizando la cámara; y correlacionar el movimiento de por lo menos un ojo con relación al señalador en la presentación para hacer que el señalador siga el movimiento de al menos un ojo. 41. El método de acuerdo con la reivindicación 40, que comprende además determinar una ubicación base de al menos un ojo en un área activa de la cámara cuando por lo menos un ojo mira al señalador, y donde el movimiento de por lo menos un ojo está correlacionado al determinar un cambio en la ubicación de por lo menos un ojo en el área activa con relación a la ubicación base para hacer que el señalador se mueva en respuesta al cambio en la ubicación. 42. El método de acuerdo con la reivindicación 40, que comprende además verificar por lo menos un ojo durante una secuencia predeterminada del movimiento del ojo, proporcionando una señal para activar un comando identificada por el señalador en la presentación.
MXPA06011168A 2004-04-01 2005-04-01 Biosensores, comunicadores, y controladores que verifican el movimiento del ojo y metodos para utilizarlos. MXPA06011168A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US55913504P 2004-04-01 2004-04-01
PCT/US2005/011104 WO2005094667A2 (en) 2004-04-01 2005-04-01 Biosensors, communicators, and controllers monitoring eye movement and methods for using them

Publications (1)

Publication Number Publication Date
MXPA06011168A true MXPA06011168A (es) 2007-04-16

Family

ID=34972808

Family Applications (1)

Application Number Title Priority Date Filing Date
MXPA06011168A MXPA06011168A (es) 2004-04-01 2005-04-01 Biosensores, comunicadores, y controladores que verifican el movimiento del ojo y metodos para utilizarlos.

Country Status (12)

Country Link
US (3) US7515054B2 (es)
EP (1) EP1755441B1 (es)
JP (4) JP2007531579A (es)
KR (1) KR101049605B1 (es)
CN (3) CN102068237A (es)
AU (1) AU2005229076B2 (es)
CA (2) CA2967756C (es)
IL (3) IL178374A0 (es)
MX (1) MXPA06011168A (es)
RU (1) RU2395228C2 (es)
WO (1) WO2005094667A2 (es)
ZA (1) ZA200608191B (es)

Families Citing this family (614)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120105740A1 (en) 2000-06-02 2012-05-03 Oakley, Inc. Eyewear with detachable adjustable electronics module
US8482488B2 (en) 2004-12-22 2013-07-09 Oakley, Inc. Data input management system for wearable electronically enabled interface
DE10103922A1 (de) * 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
US7013009B2 (en) 2001-06-21 2006-03-14 Oakley, Inc. Eyeglasses with wireless communication features
US10123732B2 (en) 2002-04-22 2018-11-13 Geelux Holdings, Ltd. Apparatus and method for measuring biologic parameters
US8328420B2 (en) 2003-04-22 2012-12-11 Marcio Marc Abreu Apparatus and method for measuring biologic parameters
US7187960B2 (en) * 2002-04-22 2007-03-06 Marcio Marc Abreu Apparatus and method for measuring biologic parameters
US7612686B1 (en) * 2003-11-03 2009-11-03 Michael John Bustamante Emergency underwater notification device
US20080177197A1 (en) * 2007-01-22 2008-07-24 Lee Koohyoung Method and apparatus for quantitatively evaluating mental states based on brain wave signal processing system
US10227063B2 (en) 2004-02-26 2019-03-12 Geelux Holdings, Ltd. Method and apparatus for biological evaluation
ZA200608191B (en) * 2004-04-01 2008-07-30 William C Torch Biosensors, communicators, and controllers monitoring eye movement and methods for using them
EP1853167A2 (en) * 2005-02-18 2007-11-14 Koninklijke Philips Electronics N.V. Automatic control of a medical device
JP4046121B2 (ja) * 2005-03-24 2008-02-13 セイコーエプソン株式会社 立体画像表示装置及び方法
US9943372B2 (en) 2005-04-18 2018-04-17 M.S.T. Medical Surgery Technologies Ltd. Device having a wearable interface for improving laparoscopic surgery and methods for use thereof
CA2622365A1 (en) * 2005-09-16 2007-09-13 Imotions-Emotion Technology A/S System and method for determining human emotion by analyzing eye properties
US11428937B2 (en) * 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US7733224B2 (en) 2006-06-30 2010-06-08 Bao Tran Mesh network personal emergency response appliance
US7420472B2 (en) * 2005-10-16 2008-09-02 Bao Tran Patient monitoring apparatus
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
KR101370985B1 (ko) 2005-10-24 2014-03-10 마시오 마크 아우렐리오 마틴스 애브리우 생물학적 파라미터들을 측정하기 위한 장치 및 방법
JP4497081B2 (ja) * 2005-10-31 2010-07-07 トヨタ自動車株式会社 人の状態検出装置
WO2007062367A2 (en) * 2005-11-21 2007-05-31 The Curators Of The University Of Missouri Light sensitivity meter and uses thereof
JP4795002B2 (ja) * 2005-11-25 2011-10-19 株式会社レクザム 眼科測定装置
US9248047B2 (en) * 2006-01-23 2016-02-02 Ziemer Holding Ag System for protecting tissue in the treatment of eyes
US8403480B2 (en) * 2006-01-24 2013-03-26 University Of Tennessee Research Foundation Adaptive photoscreening system
US7786977B2 (en) * 2006-01-30 2010-08-31 Wacom Co., Ltd. Position input device, remote control device, computer system and electronic equipment
AU2007219703B2 (en) * 2006-03-01 2010-02-11 Sdip Holdings Pty Ltd Incapacity monitor
US20070255127A1 (en) * 2006-03-20 2007-11-01 Frederick Mintz Mobile electroencephalograph data collection and diagnosis system
JP5044237B2 (ja) * 2006-03-27 2012-10-10 富士フイルム株式会社 画像記録装置、画像記録方法、および画像記録プログラム
EP2020922A4 (en) * 2006-05-01 2009-09-16 Eye Diagnostics Pty Ltd PORTABLE OCULAR MONITORING DEVICE AND METHODS OF USE THEREOF
WO2008011075A2 (en) * 2006-07-18 2008-01-24 Barry Katz A response scoring system for verbal behavior within a behavioral stream with a remote central processing system and associated handheld communicating devices
WO2008013937A2 (en) * 2006-07-28 2008-01-31 Second Sight Medical Products, Inc. Visual prosthesis
US20080096643A1 (en) * 2006-08-10 2008-04-24 Shalini Venkatesh System and method for using image analysis of user interface signals for program control
US7976380B2 (en) * 2006-08-10 2011-07-12 Avago Technologies General Ip (Singapore) Pte. Ltd. System and method for using wavelet analysis of a user interface signal for program control
US20080058681A1 (en) * 2006-08-30 2008-03-06 Casali Henry Eloy S Portable system for monitoring the position of a patient's head during videonystagmography tests (VNG) or electronystagmography (ENG)
US20080097176A1 (en) * 2006-09-29 2008-04-24 Doug Music User interface and identification in a medical device systems and methods
KR101484930B1 (ko) * 2006-10-13 2015-01-21 러트거스, 더 스테이트 유니버시티 청각 처리에서 결함들을 나타내는 유아들의 검사 및 치료 방법들 및 시스템들
US8577446B2 (en) * 2006-11-06 2013-11-05 Bobby Kyle Stress detection device and methods of use thereof
US20100073202A1 (en) * 2008-09-25 2010-03-25 Mazed Mohammad A Portable internet appliance
US20110066067A1 (en) * 2006-12-07 2011-03-17 Deborah Zelinsky Methods for Diagnosis and Treatment of Processing Difficulties, Integration Problems, Imbalances and Abnormal Postures
WO2008076774A2 (en) 2006-12-14 2008-06-26 Oakley, Inc. Wearable high resolution audio visual interface
JP5056067B2 (ja) * 2007-02-26 2012-10-24 株式会社デンソー 居眠り警報装置
US7995794B2 (en) * 2007-03-02 2011-08-09 Sony Ericsson Mobile Communications Ab Remote control of an image capturing unit in a portable electronic device
US20080243005A1 (en) * 2007-03-30 2008-10-02 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Computational user-health testing
US20090119154A1 (en) * 2007-11-07 2009-05-07 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Determining a demographic characteristic based on computational user-health testing of a user interaction with advertiser-specified content
US20090118593A1 (en) * 2007-11-07 2009-05-07 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Determining a demographic characteristic based on computational user-health testing of a user interaction with advertiser-specified content
US20090005654A1 (en) * 2007-03-30 2009-01-01 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Computational user-health testing
US20090024050A1 (en) * 2007-03-30 2009-01-22 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Computational user-health testing
US20080319276A1 (en) * 2007-03-30 2008-12-25 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Computational user-health testing
US20080242952A1 (en) * 2007-03-30 2008-10-02 Searete Llc, A Limited Liablity Corporation Of The State Of Delaware Effective response protocols for health monitoring or the like
US20080242948A1 (en) * 2007-03-30 2008-10-02 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Effective low-profile health monitoring or the like
US20080242947A1 (en) * 2007-03-30 2008-10-02 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Configuring software for effective health monitoring or the like
US20080242951A1 (en) * 2007-03-30 2008-10-02 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Effective low-profile health monitoring or the like
US20090018407A1 (en) * 2007-03-30 2009-01-15 Searete Llc, A Limited Corporation Of The State Of Delaware Computational user-health testing
US20090005653A1 (en) * 2007-03-30 2009-01-01 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Computational user-health testing
US20080243543A1 (en) * 2007-03-30 2008-10-02 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Effective response protocols for health monitoring or the like
US20080242949A1 (en) * 2007-03-30 2008-10-02 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Computational user-health testing
EP1982747B1 (en) * 2007-04-18 2010-09-01 Valkee Oy Portable device
TWI321227B (en) * 2007-04-18 2010-03-01 Univ Nat Yang Ming Sun glass type sleep detecting and preventing device
US7744219B2 (en) 2007-05-26 2010-06-29 Andrew Peter Davis Binocular indirect ophthalmoscope fixation light
JP4883580B2 (ja) * 2007-06-05 2012-02-22 独立行政法人産業技術総合研究所 精神的疲労の検出方法、装置及びプログラム
US8156434B2 (en) * 2007-06-30 2012-04-10 Lenovo (Singapore) Pte. Ltd. Methods and arrangements for managing computer messages
DE102007030972B3 (de) * 2007-07-04 2009-01-29 Siemens Ag MR-kompatibles Videosystem
AU2008282223B2 (en) 2007-07-30 2014-07-03 Contour Ip Holding, Llc Components of a portable digital video camera
US20090054802A1 (en) * 2007-08-22 2009-02-26 National Yang-Ming University Sunglass type sleep detecting and preventing device
JP4650468B2 (ja) * 2007-09-26 2011-03-16 株式会社デンソー 経路探索装置
US8206325B1 (en) 2007-10-12 2012-06-26 Biosensics, L.L.C. Ambulatory system for measuring and monitoring physical activity and risk of falling and for automatic fall detection
JP2009134276A (ja) * 2007-11-05 2009-06-18 Panasonic Corp 表示装置、表示方法、表示プログラム、集積回路、眼鏡型ヘッドマウントディスプレイ、自動車、単眼鏡、及び据置型ディスプレイ
US10064548B2 (en) * 2007-11-09 2018-09-04 The Australian National University Method and apparatus for sensory field assessment
TW200924719A (en) * 2007-12-06 2009-06-16 Univ Nat Central Inspection device and method for irregular bone defects of dental implant
US8167614B2 (en) * 2007-12-06 2012-05-01 National Central University Apparatus and method of irregular bone defect detection of dental implant
US20100185113A1 (en) * 2009-01-21 2010-07-22 Teledyne Scientific & Imaging, Llc Coordinating System Responses Based on an Operator's Cognitive Response to a Relevant Stimulus and to the Position of the Stimulus in the Operator's Field of View
US9662977B2 (en) * 2008-01-02 2017-05-30 Hi Tech Robotic Systemz Ltd. Driver state monitoring system
US9158116B1 (en) 2014-04-25 2015-10-13 Osterhout Group, Inc. Temple and ear horn assembly for headworn computer
US8571643B2 (en) 2010-09-16 2013-10-29 Flint Hills Scientific, Llc Detecting or validating a detection of a state change from a template of heart rate derivative shape or heart beat wave complex
US11272874B2 (en) * 2008-01-25 2022-03-15 Flint Hills Scientific, Llc Contingent cardio-protection for epilepsy patients
US8337404B2 (en) 2010-10-01 2012-12-25 Flint Hills Scientific, Llc Detecting, quantifying, and/or classifying seizures using multimodal data
US8382667B2 (en) * 2010-10-01 2013-02-26 Flint Hills Scientific, Llc Detecting, quantifying, and/or classifying seizures using multimodal data
US20090237492A1 (en) * 2008-03-18 2009-09-24 Invism, Inc. Enhanced stereoscopic immersive video recording and viewing
WO2009134784A2 (en) * 2008-04-28 2009-11-05 University Of Southern California Real time system for readiness monitoring of dismounted soldiers
US8687844B2 (en) 2008-06-13 2014-04-01 Raytheon Company Visual detection system for identifying objects within region of interest
US20100004518A1 (en) 2008-07-03 2010-01-07 Masimo Laboratories, Inc. Heat sink for noninvasive medical sensor
US20100010370A1 (en) 2008-07-09 2010-01-14 De Lemos Jakob System and method for calibrating and normalizing eye data in emotional testing
US20100152565A1 (en) * 2008-07-15 2010-06-17 Thomas Gordon A Non-invasive tonometer
RU2011106031A (ru) * 2008-07-18 2012-08-27 Опталерт Пти Лтд (Au) Чувствительное устройство активного состояния
US8630691B2 (en) 2008-08-04 2014-01-14 Cercacor Laboratories, Inc. Multi-stream sensor front ends for noninvasive measurement of blood constituents
US8136944B2 (en) 2008-08-15 2012-03-20 iMotions - Eye Tracking A/S System and method for identifying the existence and position of text in visual media content and for determining a subjects interactions with the text
JP4406705B1 (ja) * 2008-09-11 2010-02-03 独立行政法人産業技術総合研究所 精神的疲労の測定機能を有する携帯端末装置、そのプログラムおよびサーバコンピュータ
JP4561914B2 (ja) * 2008-09-22 2010-10-13 ソニー株式会社 操作入力装置、操作入力方法、プログラム
US8405610B1 (en) * 2008-10-24 2013-03-26 Sprint Communications Company L.P. Electrooculographical control for a mobile device
WO2010051037A1 (en) * 2008-11-03 2010-05-06 Bruce Reiner Visually directed human-computer interaction for medical applications
CA2745638C (en) * 2008-12-02 2018-06-26 Purdue Research Foundation Radio transparent sensor implant package
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9366867B2 (en) 2014-07-08 2016-06-14 Osterhout Group, Inc. Optical systems for see-through displays
EP2384227B1 (en) * 2008-12-30 2014-11-05 Koninklijke Philips N.V. System for administering light therapy
JP5259429B2 (ja) * 2009-01-05 2013-08-07 株式会社東芝 表示装置
US9782068B2 (en) * 2009-02-02 2017-10-10 The Johns Hopkins University System for diagnosis and therapy of gaze stability
KR101511193B1 (ko) * 2009-02-27 2015-04-10 파운데이션 프로덕션, 엘엘씨 헤드셋 기반 원격통신 플랫폼
WO2010100567A2 (en) 2009-03-06 2010-09-10 Imotions- Emotion Technology A/S System and method for determining emotional response to olfactory stimuli
JP4651720B2 (ja) * 2009-03-12 2011-03-16 尚治 北島 眼振記録装置及びこれを用いた眼振検査システム
GB2468731A (en) * 2009-06-26 2010-09-22 Nokia Corp Users gaze direction controlled antenna
CN102356371B (zh) 2009-03-16 2015-11-25 诺基亚公司 数据处理装置和相关联的用户接口和方法
FR2943901B1 (fr) 2009-04-01 2017-11-17 E(Ye)Brain Procede et systeme de detection d'anomalies oculomotrices.
JP2012524636A (ja) * 2009-04-24 2012-10-18 アドバンスド ブレイン モニタリング,インコーポレイテッド 適応的行動トレーナー
AU2010201693A1 (en) * 2009-04-28 2010-11-11 Monsive Jr., Michael G Portable traffic monitoring system and methods for use
JP5399777B2 (ja) * 2009-05-27 2014-01-29 浜松ホトニクス株式会社 瞬目計測装置及び瞬目計測方法
WO2011002837A2 (en) * 2009-06-30 2011-01-06 University Of Pittsburgh - Of The Commonwealth System Of Higher Education System for at-home eye movement monitoring
US8434869B2 (en) 2009-07-03 2013-05-07 Andrew P. Davis Automated locking apparatus for a slit lamp
US8100532B2 (en) * 2009-07-09 2012-01-24 Nike, Inc. Eye and body movement tracking for testing and/or training
WO2011008793A1 (en) * 2009-07-13 2011-01-20 Emsense Corporation Systems and methods for generating bio-sensory metrics
FR2948205B1 (fr) * 2009-07-16 2011-08-05 Eric Clement Guitteaud Dispositif de montage d'une camera pour systeme de suivi du regard
US9728006B2 (en) * 2009-07-20 2017-08-08 Real Time Companies, LLC Computer-aided system for 360° heads up display of safety/mission critical data
US8025401B2 (en) * 2009-08-05 2011-09-27 Sis Ag, Surgical Instrument Systems Ophthalmological measuring device and measurement method
TWI397865B (zh) * 2009-08-12 2013-06-01 Utechzone Co Ltd Security personnel to monitor the degree of focus monitoring system
WO2011018655A2 (en) * 2009-08-13 2011-02-17 Bae Systems Plc Head up display system
US8323216B2 (en) * 2009-09-29 2012-12-04 William Fabian System and method for applied kinesiology feedback
CA2776223A1 (en) * 2009-09-30 2011-04-07 Lions Eye Institute Limited Imager, module for an imager, imaging system and method
KR101051433B1 (ko) * 2009-09-30 2011-07-22 전자부품연구원 눈 영상을 통해 판단한 사용자 상태에 반응하는 게임기 및 그의 게임 제공방법
US9610029B2 (en) * 2009-11-19 2017-04-04 The Cleveland Clinic Foundation System and method to facilitate analysis of brain injuries and disorders
JP5578603B2 (ja) * 2009-12-04 2014-08-27 国立大学法人佐賀大学 視線制御装置、視線制御方法、及びそのプログラム
US9373123B2 (en) * 2009-12-30 2016-06-21 Iheartmedia Management Services, Inc. Wearable advertising ratings methods and systems
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US20120194553A1 (en) * 2010-02-28 2012-08-02 Osterhout Group, Inc. Ar glasses with sensor and user action based control of external devices with feedback
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US20120200601A1 (en) * 2010-02-28 2012-08-09 Osterhout Group, Inc. Ar glasses with state triggered eye control interaction with advertising facility
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US20120242698A1 (en) * 2010-02-28 2012-09-27 Osterhout Group, Inc. See-through near-eye display glasses with a multi-segment processor-controlled optical layer
US20110213664A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
WO2011106797A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US8890946B2 (en) 2010-03-01 2014-11-18 Eyefluence, Inc. Systems and methods for spatially controlled scene illumination
US8979665B1 (en) 2010-03-22 2015-03-17 Bijan Najafi Providing motion feedback based on user center of mass
US8908043B2 (en) * 2010-04-12 2014-12-09 Symbol Technologies, Inc. System and method for location-based operation of a head mounted display
US8831732B2 (en) 2010-04-29 2014-09-09 Cyberonics, Inc. Method, apparatus and system for validating and quantifying cardiac beat data quality
US8562536B2 (en) 2010-04-29 2013-10-22 Flint Hills Scientific, Llc Algorithm for detecting a seizure from cardiac data
US8649871B2 (en) 2010-04-29 2014-02-11 Cyberonics, Inc. Validity test adaptive constraint modification for cardiac data used for detection of state changes
KR101045776B1 (ko) * 2010-05-12 2011-07-04 김기문 카메라가 구비된 진동시트
WO2011143655A1 (en) 2010-05-14 2011-11-17 Advitech, Inc. System and method for prevention and control of the effects of spatial disorientation
US20110298912A1 (en) * 2010-06-02 2011-12-08 Honeywell International Inc. Wavefront sensing for biometric imaging
EP2405662B1 (en) * 2010-07-08 2012-12-26 Advanced Digital Broadcast S.A. An interactive glasses system
US8641646B2 (en) 2010-07-30 2014-02-04 Cyberonics, Inc. Seizure detection using coordinate data
US20120050142A1 (en) * 2010-08-25 2012-03-01 Border John N Head-mounted display with eye state detection
US9030294B2 (en) * 2010-09-20 2015-05-12 Pulsar Informatics, Inc. Systems and methods for collecting biometrically verified actigraphy data
RU2444275C1 (ru) * 2010-09-30 2012-03-10 Федеральное государственное бюджетное учреждение "Национальный исследовательский центр "Курчатовский институт" Способ и устройство определения пространственного положения глаз для вычисления линии взгляда
US8684921B2 (en) 2010-10-01 2014-04-01 Flint Hills Scientific Llc Detecting, assessing and managing epilepsy using a multi-variate, metric-based classification analysis
US9400384B2 (en) * 2010-10-26 2016-07-26 Bae Systems Plc Display assembly, in particular a head mounted display
US20120150387A1 (en) * 2010-12-10 2012-06-14 Tk Holdings Inc. System for monitoring a vehicle driver
US9104909B2 (en) * 2010-12-15 2015-08-11 Canon Kabushiki Kaisha Image processing apparatus and method of processing image
JP2012139272A (ja) * 2010-12-28 2012-07-26 Tottori Univ 顔表面の運動機能の測定装置及び測定方法並びに測定用補助具
US9946334B2 (en) * 2010-12-30 2018-04-17 Denso International America, Inc. Method to determine driver workload function and usage of driver workload function for human-machine interface performance assessment
US8753275B2 (en) * 2011-01-13 2014-06-17 BioSensics LLC Intelligent device to monitor and remind patients with footwear, walking aids, braces, or orthotics
US20120212345A1 (en) * 2011-02-18 2012-08-23 Polly Harman Device for the treatment of sleep-related conditions
US20130338738A1 (en) * 2011-03-02 2013-12-19 Koninklijke Philips N.V. Device and method for cognitive enhancement of a user
ES2387782B1 (es) * 2011-03-04 2013-05-24 Davalor Consultoria Estrategica Y Tecnologica S.L. Equipo y procedimiento para exploracion, diagnostico o ayuda al diagnostico y terapia de problemas funcionales de la vision
CN102654644A (zh) * 2011-03-04 2012-09-05 中兴通讯股份有限公司 一种多功能投影眼镜及应用该眼镜的系统
US9504390B2 (en) 2011-03-04 2016-11-29 Globalfoundries Inc. Detecting, assessing and managing a risk of death in epilepsy
US9013264B2 (en) 2011-03-12 2015-04-21 Perceptive Devices, Llc Multipurpose controller for electronic devices, facial expressions management and drowsiness detection
US10895917B2 (en) * 2011-03-12 2021-01-19 Uday Parshionikar Multipurpose controllers and methods
US9033502B2 (en) 2011-03-18 2015-05-19 Sensomotoric Instruments Gesellschaft Fur Innovative Sensorik Mbh Optical measuring device and method for capturing at least one parameter of at least one eye wherein an illumination characteristic is adjustable
EP2499964B1 (en) * 2011-03-18 2015-04-15 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Optical measuring device and system
US9081416B2 (en) * 2011-03-24 2015-07-14 Seiko Epson Corporation Device, head mounted display, control method of device and control method of head mounted display
US8663125B2 (en) 2011-03-30 2014-03-04 Sharp Laboratories Of America, Inc. Dual path noise detection and isolation for acoustic ambulatory respiration monitoring system
US8663124B2 (en) 2011-03-30 2014-03-04 Sharp Laboratories Of America, Inc. Multistage method and system for estimating respiration parameters from acoustic signal
US8725239B2 (en) 2011-04-25 2014-05-13 Cyberonics, Inc. Identifying seizures using heart rate decrease
TWI446890B (zh) * 2011-04-28 2014-08-01 Crystalvue Medical Corp 攜帶式的眼底檢測裝置
US9402550B2 (en) 2011-04-29 2016-08-02 Cybertronics, Inc. Dynamic heart rate threshold for neurological event detection
WO2012154938A1 (en) * 2011-05-10 2012-11-15 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US8795173B2 (en) 2011-05-17 2014-08-05 Massachusetts Institute Of Technology Methods and apparatus for assessment of atypical brain activity
US8885877B2 (en) 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
US8911087B2 (en) * 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils
US20140303690A2 (en) * 2011-05-26 2014-10-09 Felice Eugenio Agro Anti-sleep glasses
JP5915000B2 (ja) * 2011-06-13 2016-05-11 ソニー株式会社 情報処理装置及びプログラム
US20130012795A1 (en) * 2011-07-05 2013-01-10 Collar Id Llc Apparatus and methods for sensing a parameter with a restraint device
US10866783B2 (en) * 2011-08-21 2020-12-15 Transenterix Europe S.A.R.L. Vocally activated surgical control system
US11561762B2 (en) * 2011-08-21 2023-01-24 Asensus Surgical Europe S.A.R.L. Vocally actuated surgical control system
US9757206B2 (en) 2011-08-21 2017-09-12 M.S.T. Medical Surgery Technologies Ltd Device and method for assisting laparoscopic surgery—rule based approach
US9204939B2 (en) 2011-08-21 2015-12-08 M.S.T. Medical Surgery Technologies Ltd. Device and method for assisting laparoscopic surgery—rule based approach
US9354445B1 (en) 2011-09-16 2016-05-31 Google Inc. Information processing on a head-mountable device
US9795282B2 (en) 2011-09-20 2017-10-24 M.S.T. Medical Surgery Technologies Ltd Device and method for maneuvering endoscope
US10206591B2 (en) 2011-10-14 2019-02-19 Flint Hills Scientific, Llc Seizure detection methods, apparatus, and systems using an autoregression algorithm
US8976110B2 (en) 2011-10-27 2015-03-10 Tobii Technology Ab Power management in an eye-tracking system
EP3666352B1 (en) 2011-10-28 2021-12-01 Magic Leap, Inc. Method and device for augmented and virtual reality
US8970452B2 (en) 2011-11-02 2015-03-03 Google Inc. Imaging method
US8929589B2 (en) * 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
KR101258025B1 (ko) 2011-11-21 2013-04-25 동아대학교 산학협력단 자동 안약 투여장치
US20130137076A1 (en) * 2011-11-30 2013-05-30 Kathryn Stone Perez Head-mounted display based education and instruction
CN102496005A (zh) * 2011-12-03 2012-06-13 辽宁科锐科技有限公司 基于眼球特征的审讯辅助研判分析系统
TW201330827A (zh) * 2012-01-19 2013-08-01 Utechzone Co Ltd 依據駕駛反射動作之注意力偵測裝置及其方法
US20130194389A1 (en) * 2012-01-31 2013-08-01 Ben Vaught Head-mounted display device to measure attentiveness
US9076368B2 (en) * 2012-02-06 2015-07-07 Battelle Memorial Institute Image generation systems and image generation methods
US9705605B2 (en) 2012-02-09 2017-07-11 N2 Imaging Systems, LLC Intrapersonal data communication system
US9042736B2 (en) 2012-02-09 2015-05-26 N2 Imaging Systems, LLC Intrapersonal data communication systems
WO2014150076A1 (en) 2013-03-14 2014-09-25 N2 Imaging Systems, LLC Intrapersonal data communication system
JP2015515638A (ja) 2012-02-17 2015-05-28 オークリー インコーポレイテッド 眼鏡類に電子デバイスを取り外し可能に連結するためのシステムおよび方法
JP6114495B2 (ja) 2012-02-20 2017-04-12 キヤノン株式会社 画像表示装置及び画像表示方法、撮影システム
KR101919009B1 (ko) * 2012-03-06 2018-11-16 삼성전자주식회사 안구 동작에 의한 제어 방법 및 이를 위한 디바이스
US8988519B2 (en) * 2012-03-20 2015-03-24 Cisco Technology, Inc. Automatic magnification of data on display screen based on eye characteristics of user
US9116545B1 (en) 2012-03-21 2015-08-25 Hayes Solos Raffle Input detection
CA2867866C (en) 2012-03-26 2022-06-21 New York University Methods and kits for assessing central nervous system integrity
US9171198B1 (en) 2012-04-02 2015-10-27 Google Inc. Image capture technique
US9128522B2 (en) 2012-04-02 2015-09-08 Google Inc. Wink gesture input for a head-mountable device
US9201512B1 (en) 2012-04-02 2015-12-01 Google Inc. Proximity sensing for input detection
US9072465B2 (en) * 2012-04-03 2015-07-07 Johnson & Johnson Vision Care, Inc. Blink detection system for electronic ophthalmic lens
US9659336B2 (en) 2012-04-10 2017-05-23 Bags, Inc. Mobile baggage dispatch system and method
HK1160574A2 (en) * 2012-04-13 2012-07-13 King Hei Francis Kwong Secure electronic payment system and process
US10448839B2 (en) 2012-04-23 2019-10-22 Livanova Usa, Inc. Methods, systems and apparatuses for detecting increased risk of sudden death
US9681836B2 (en) 2012-04-23 2017-06-20 Cyberonics, Inc. Methods, systems and apparatuses for detecting seizure and non-seizure states
US9545197B2 (en) 2012-05-04 2017-01-17 Tearscience, Inc. Apparatuses and methods for determining tear film break-up time and/or for detecting lid margin contact and blink rates, particulary for diagnosing, measuring, and/or analyzing dry eye conditions and symptoms
IL219907A (en) * 2012-05-21 2017-08-31 Lumus Ltd Integrated head display system with eye tracking
JP5661067B2 (ja) * 2012-05-29 2015-01-28 株式会社ジェイアイエヌ アイウエア
TWI482610B (zh) * 2012-06-05 2015-05-01 Utechzone Co Ltd Two - way communication system
DE102012209667A1 (de) * 2012-06-08 2013-12-12 Oculus Optikgeräte GmbH Verfahren und Analysegerät zur Messung einer Hornhaut
US8724662B2 (en) * 2012-06-25 2014-05-13 Johnson & Johnson Vision Care, Inc. Wireless communication protocol for low power receivers
EP2690838A1 (en) * 2012-07-23 2014-01-29 Alcatel Lucent Authentification system preserving secret data confidentiality
US9298020B1 (en) * 2012-07-26 2016-03-29 Verily Life Sciences Llc Input system
CN103576340A (zh) * 2012-08-03 2014-02-12 刘淼 一种具有鼠标功能的眼镜
US10010270B2 (en) * 2012-09-17 2018-07-03 Verily Life Sciences Llc Sensing system
EP2709060B1 (en) * 2012-09-17 2020-02-26 Apple Inc. Method and an apparatus for determining a gaze point on a three-dimensional object
CN103654715B (zh) * 2012-09-24 2016-04-06 荣晶生物科技股份有限公司 图像检测装置及图像检测方法
KR101273461B1 (ko) * 2012-09-25 2013-06-11 아이피티앤드에이 주식회사 집중력 향상 안경, 단말 및 방법
JP5888205B2 (ja) * 2012-11-02 2016-03-16 ソニー株式会社 画像表示装置並びに情報入力装置
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US10025379B2 (en) 2012-12-06 2018-07-17 Google Llc Eye tracking wearable devices and methods for use
US9039180B2 (en) 2012-12-11 2015-05-26 Elwah LLC Self-aligning unobtrusive active eye interrogation
US9039179B2 (en) 2012-12-11 2015-05-26 Elwha Llc Unobtrusive active eye interrogation
US9101297B2 (en) 2012-12-11 2015-08-11 Elwha Llc Time-based unobtrusive active eye interrogation
US20140163329A1 (en) * 2012-12-11 2014-06-12 Elwha Llc Unobtrusive Active Eye Interrogation with Gaze Attractor
CN103699213A (zh) * 2012-12-19 2014-04-02 苏州贝腾特电子科技有限公司 虚拟鼠标双击的控制方法
KR101465020B1 (ko) * 2012-12-20 2014-11-27 한국과학기술연구원 인공 의수 제어 장치
CN103902024A (zh) * 2012-12-25 2014-07-02 苏州薇思雨软件科技有限公司 一种基于视觉的新型鼠标
CN103908293B (zh) * 2012-12-28 2018-03-27 通用电气公司 用于测量医学图像的医学成像系统和方法
CN103914130A (zh) * 2013-01-05 2014-07-09 鸿富锦精密工业(武汉)有限公司 显示装置及调整显示装置观测距离的方法
WO2014110575A1 (en) * 2013-01-14 2014-07-17 Massachusetts Eye & Ear Infirmary Facial movement and expression detection and stimulation
US20140204334A1 (en) * 2013-01-18 2014-07-24 William Anthony Stoll Bio-sensors in eyeglasses
US10220211B2 (en) 2013-01-22 2019-03-05 Livanova Usa, Inc. Methods and systems to diagnose depression
US9576316B2 (en) * 2013-02-09 2017-02-21 Todd Christopher Adelmann Dynamic menus
CN103110462B (zh) * 2013-02-21 2014-10-08 河海大学常州校区 自然环境下视觉调节及生物电与行为记录的装置与方法
US9778492B2 (en) * 2013-02-28 2017-10-03 Johnson & Johnson Vision Care, Inc. Electronic ophthalmic lens with lid position sensor
US9035874B1 (en) 2013-03-08 2015-05-19 Amazon Technologies, Inc. Providing user input to a computing device with an eye closure
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9418617B1 (en) 2013-03-13 2016-08-16 Google Inc. Methods and systems for receiving input controls
CN105142498B (zh) * 2013-03-15 2022-10-11 感知技术有限公司 增强光学和感知数字护目镜
WO2014143896A2 (en) * 2013-03-15 2014-09-18 Simon Adam J System and signatures for the multi-modal physiological stimulation and assessment of brain health
CN205177388U (zh) 2013-03-15 2016-04-20 奥克利有限公司 目镜系统
US9213403B1 (en) 2013-03-27 2015-12-15 Google Inc. Methods to pan, zoom, crop, and proportionally move on a head mountable display
US9311789B1 (en) 2013-04-09 2016-04-12 BioSensics LLC Systems and methods for sensorimotor rehabilitation
US9226707B2 (en) * 2013-04-26 2016-01-05 Chiming Huang Device and system to reduce traumatic brain injury
US8961440B2 (en) * 2013-04-26 2015-02-24 Chiming Huang Device and system to reduce traumatic brain injury
WO2014179507A1 (en) * 2013-04-30 2014-11-06 White Chester Body impact bracing apparatus
BR112015027598A2 (pt) * 2013-05-01 2017-09-19 Musc Found For Res Dev Dispositivo para mediar o reflexo de piscada em um indivíduo humano
KR102187837B1 (ko) * 2013-05-16 2020-12-07 삼성전자 주식회사 컴퓨터의 입력 장치 및 이를 이용한 입력 방법과 그 시스템
KR101487802B1 (ko) * 2013-05-30 2015-02-05 여태운 졸음 검출 장치
CN103293673B (zh) * 2013-06-03 2015-04-01 卫荣杰 集成显示器和眼动仪和虹膜识别仪的帽子
DE102013210588A1 (de) * 2013-06-07 2014-12-11 Bayerische Motoren Werke Aktiengesellschaft Anzeigensystem mit Datenbrille
GB201310379D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-mountable apparatus and systems
WO2014201213A1 (en) 2013-06-12 2014-12-18 Oakley, Inc. Modular heads-up display system
CN105764407A (zh) 2013-06-17 2016-07-13 纽约大学 用于评估神经系统和眼科功能以及定位神经系统病变的方法和试剂盒
CN104238726B (zh) * 2013-06-17 2017-07-18 腾讯科技(深圳)有限公司 智能眼镜控制方法、装置及一种智能眼镜
US10025378B2 (en) * 2013-06-25 2018-07-17 Microsoft Technology Licensing, Llc Selecting user interface elements via position signal
US9146618B2 (en) 2013-06-28 2015-09-29 Google Inc. Unlocking a head mounted device
US9668646B2 (en) 2013-06-28 2017-06-06 Verily Life Sciences Llc Devices and methods for a contact lens with an inward facing light source
CN103356164B (zh) * 2013-07-12 2016-07-27 北京阳明智道光电科技有限公司 一种视觉健康舒适度的测量系统及测量方法
US9996151B2 (en) * 2013-07-19 2018-06-12 Sony Corporation Detecting eye movement based on a wearable detection apparatus
TWI505260B (zh) * 2013-07-30 2015-10-21 Univ Nat Chiao Tung 頭戴式人眼追蹤系統
US9665901B2 (en) * 2013-08-20 2017-05-30 Ricoh Company, Ltd. Mobile information gateway for private customer interaction
US10089684B2 (en) * 2013-08-20 2018-10-02 Ricoh Company, Ltd. Mobile information gateway for customer identification and assignment
US9286726B2 (en) 2013-08-20 2016-03-15 Ricoh Company, Ltd. Mobile information gateway for service provider cooperation
US11199906B1 (en) 2013-09-04 2021-12-14 Amazon Technologies, Inc. Global user input management
US10095833B2 (en) 2013-09-22 2018-10-09 Ricoh Co., Ltd. Mobile information gateway for use by medical personnel
US9763071B2 (en) 2013-09-22 2017-09-12 Ricoh Company, Ltd. Mobile information gateway for use in emergency situations or with special equipment
KR20150037251A (ko) * 2013-09-30 2015-04-08 엘지전자 주식회사 착용형 컴퓨팅 디바이스 및 사용자 인터페이스 방법
SG10201802473TA (en) * 2013-10-08 2018-05-30 Tokai Optical Co Ltd Evaluation method for evaluating an eyeglass lens, design method for designing an eyeglass lens using the evaluation method, and calculation method for calculating characteristics of subject’s visual perception when viewing an object through the lens
US9226705B2 (en) * 2013-10-11 2016-01-05 David G. Austin Human performance enhancement method and apparatus
WO2015054681A1 (en) 2013-10-11 2015-04-16 Marcio Marc Abreu Method and apparatus for biological evaluation
US11089984B2 (en) * 2013-10-11 2021-08-17 David G. Austin Human performance enhancement method and apparatus using wave of electrical stimuli
US9736373B2 (en) * 2013-10-25 2017-08-15 Intel Corporation Dynamic optimization of light source power
WO2015069477A1 (en) * 2013-11-08 2015-05-14 The Curators Of The University Of Missouri Device to measure pupillary light reflex in infants and toddlers
WO2015073664A2 (en) * 2013-11-15 2015-05-21 Tearscience, Inc. Apparatuses and methods for detecting lid margin contact and blink rates, particularly for diagnosing, measuring, and/or analyzing dry eye conditions and symptoms
US20150139486A1 (en) * 2013-11-21 2015-05-21 Ziad Ali Hassan Darawi Electronic eyeglasses and method of manufacture thereto
JP6462209B2 (ja) * 2013-12-03 2019-01-30 浜松ホトニクス株式会社 計測装置及び計測方法
RU2572749C2 (ru) * 2013-12-09 2016-01-20 Общество с ограниченной ответственностью "Восприятие"-центр исследования и коррекции зрения Устройство для исследования, установления, восстановления, развития функций бинокулярного зрения и повышения остроты зрения
JP6227996B2 (ja) * 2013-12-18 2017-11-08 浜松ホトニクス株式会社 計測装置及び計測方法
JP6929644B2 (ja) * 2013-12-31 2021-09-01 グーグル エルエルシーGoogle LLC 注視によるメディア選択及び編集のためのシステム並びに方法
WO2015106202A1 (en) * 2014-01-10 2015-07-16 Carleton Life Support Systems, Inc. Reduced cognitive function detection and alleviation system for a pilot
AU2015204638A1 (en) 2014-01-10 2016-07-21 Marcio Marc Abreu Device for measuring the infrared output of the Abreu brain thermal tunnel
CA2936235A1 (en) 2014-01-10 2015-07-16 Marcio Marc Abreu Devices to monitor and provide treatment at an abreu brain tunnel
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US20150228119A1 (en) 2014-02-11 2015-08-13 Osterhout Group, Inc. Spatial location presentation in head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
WO2015107681A1 (ja) 2014-01-17 2015-07-23 任天堂株式会社 情報処理システム、情報処理サーバ、情報処理プログラム、および情報提供方法
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US9811159B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9529199B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9532715B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US10238847B2 (en) 2014-01-22 2019-03-26 Geelux Holdings, Ltd. Devices and methods for transdermal drug delivery
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US20160018652A1 (en) 2014-01-24 2016-01-21 Osterhout Group, Inc. See-through computer display systems
US9211064B2 (en) 2014-02-11 2015-12-15 Welch Allyn, Inc. Fundus imaging system
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9237847B2 (en) 2014-02-11 2016-01-19 Welch Allyn, Inc. Ophthalmoscope device
US20150241964A1 (en) 2014-02-11 2015-08-27 Osterhout Group, Inc. Eye imaging in head worn computing
CN103777759A (zh) * 2014-02-18 2014-05-07 马根昌 电子眼镜动作识别系统
CN104850217A (zh) * 2014-02-19 2015-08-19 联想(北京)有限公司 一种人眼动作监测装置、方法及设备
US9895099B2 (en) 2014-02-28 2018-02-20 Board Of Regents, The University Of Texas System System for acceleration measurements and traumatic brain injury detection
US10758121B2 (en) 2014-02-28 2020-09-01 Board Of Regents, The University Of Texas System System for traumatic brain injury detection using oculomotor tests
KR101567194B1 (ko) * 2014-03-04 2015-11-06 현대자동차주식회사 착탈식 차량 정보 인디케이터 및 이를 이용한 차량 정보 인디케이팅 방법
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
DE102014206626A1 (de) * 2014-04-07 2015-10-08 Bayerische Motoren Werke Aktiengesellschaft Müdigkeitserkennung mithilfe von Datenbrillen (HMD)
RU2551799C1 (ru) * 2014-04-09 2015-05-27 Алексей Леонидович УШАКОВ Составное носимое устройство электросвязи
KR20150119636A (ko) * 2014-04-16 2015-10-26 엘지전자 주식회사 노티피케이션을 제공하는 hmd 디바이스 및 그 제어 방법
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US20160137312A1 (en) 2014-05-06 2016-05-19 Osterhout Group, Inc. Unmanned aerial vehicle launch system
US10564714B2 (en) 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
AU2015297035B2 (en) 2014-05-09 2018-06-28 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
US20170202624A1 (en) * 2014-06-08 2017-07-20 M.S.T. Medical Surgery Technologies Ltd Device and method for assisting laparoscopic surgery utilizing a touch screen
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
EP3157426B1 (de) * 2014-06-20 2018-06-20 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Vorrichtung, verfahren und computerprogramm zur detektion eines sekundenschlafs
US9411456B2 (en) * 2014-06-25 2016-08-09 Google Technology Holdings LLC Embedded light-sensing component
CN104079972B (zh) * 2014-06-30 2018-12-07 惠州Tcl移动通信有限公司 一种检测用户在睡眠状态下自动关闭电视的方法及系统
US9961307B1 (en) * 2014-06-30 2018-05-01 Lee S. Weinblatt Eyeglass recorder with multiple scene cameras and saccadic motion detection
WO2016001902A1 (en) 2014-07-04 2016-01-07 Libra At Home Ltd Apparatus comprising a headset, a camera for recording eye movements and a screen for providing a stimulation exercise and an associated method for treating vestibular, ocular or central impairment
US11013441B2 (en) 2014-08-04 2021-05-25 New York University Methods and kits for diagnosing, assessing or quantitating drug use, drug abuse and narcosis, internuclear ophthalmoplegia, attention deficit hyperactivity disorder (ADHD), chronic traumatic encephalopathy, schizophrenia spectrum disorders and alcohol consumption
US10182716B2 (en) * 2014-08-22 2019-01-22 Brien Holden Vision Institute Systems, methods and devices for monitoring eye movement to test a visual field
KR102367550B1 (ko) * 2014-09-02 2022-02-28 삼성전자 주식회사 생체 신호를 이용한 카메라 모듈의 제어
US11918375B2 (en) 2014-09-05 2024-03-05 Beijing Zitiao Network Technology Co., Ltd. Wearable environmental pollution monitor computer apparatus, systems, and related methods
US10448867B2 (en) 2014-09-05 2019-10-22 Vision Service Plan Wearable gait monitoring apparatus, systems, and related methods
US10617342B2 (en) 2014-09-05 2020-04-14 Vision Service Plan Systems, apparatus, and methods for using a wearable device to monitor operator alertness
FR3025711B1 (fr) * 2014-09-15 2020-12-25 Acep France Dispositif de mesure des caracteristiques physiologiques de l'oeil, pour un patient porteur de lunettes a verres teintes
US9946339B2 (en) * 2014-10-08 2018-04-17 Microsoft Technology Licensing, Llc Gaze tracking through eyewear
ES2632494T3 (es) * 2014-10-13 2017-09-13 MY E.G. Services Berhad Procedimiento y sistema para mejorar la seguridad vial
DE102014222355A1 (de) * 2014-11-03 2016-05-04 Bayerische Motoren Werke Aktiengesellschaft Müdigkeitserkennung mit Sensoren einer Datenbrille
CN105617504A (zh) * 2014-11-07 2016-06-01 英业达科技有限公司 助眠系统及其助眠方法
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
US10188311B2 (en) * 2015-12-04 2019-01-29 Chiming Huang Device to reduce traumatic brain injury
US11298040B2 (en) * 2014-12-05 2022-04-12 Chiming Huang Device to reduce traumatic brain injury
US10729370B2 (en) * 2014-12-10 2020-08-04 Rosalind Franklin University Of Medicine And Science Mobile sensor system and methods for use
WO2016092563A2 (en) * 2014-12-11 2016-06-16 Indian Institute Of Technology Gandhinagar Smart eye system for visuomotor dysfuntion diagnosis and its operant conditioning
CN104539932B (zh) * 2014-12-18 2017-10-10 青岛歌尔声学科技有限公司 一种3d眼镜相机
WO2016103877A1 (ja) * 2014-12-26 2016-06-30 ソニー株式会社 制御装置
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US9489817B2 (en) * 2015-01-29 2016-11-08 Vigo Technologies, Inc. Infrared sensing of eye and eyelid movements to detect drowsiness
US10215568B2 (en) 2015-01-30 2019-02-26 Vision Service Plan Systems and methods for tracking motion, performance, and other data for an individual such as a winter sports athlete
US10878775B2 (en) 2015-02-17 2020-12-29 Mentor Acquisition One, Llc See-through computer display systems
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US11045088B2 (en) 2015-02-27 2021-06-29 Welch Allyn, Inc. Through focus retinal image capturing
US10799115B2 (en) 2015-02-27 2020-10-13 Welch Allyn, Inc. Through focus retinal image capturing
WO2016145215A1 (en) 2015-03-10 2016-09-15 Marcio Marc Abreu Devices, apparatuses, systems, and methods for measuring temperature of an abtt terminus
US11883101B2 (en) 2015-03-10 2024-01-30 Eyefree Assisting Communication Ltd. System and method for enabling communication through eye feedback
JP6887953B2 (ja) * 2015-03-16 2021-06-16 マジック リープ,インコーポレイティド 健康を損う疾病を診断して治療する方法及びシステム
CN104699250B (zh) * 2015-03-31 2018-10-19 小米科技有限责任公司 显示控制方法及装置、电子设备
CN104794438A (zh) * 2015-04-08 2015-07-22 天脉聚源(北京)教育科技有限公司 一种人物状态监测方法及装置
DE102015207337A1 (de) * 2015-04-22 2016-10-27 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Unterhaltung mindestens eines Insassen eines Kraftfahrzeugs
US9848075B1 (en) * 2015-05-14 2017-12-19 Invoy Technologies, Llc Communication system for pairing user devices with medical devices
US9891077B2 (en) 2015-05-19 2018-02-13 Magic Leap, Inc. Dual composite light field device
CN107710050A (zh) 2015-06-30 2018-02-16 3M创新有限公司 照明器
EP3113134B1 (en) * 2015-07-01 2019-03-06 Essilor International A user fatigue level analysis component
US10139966B2 (en) 2015-07-22 2018-11-27 Osterhout Group, Inc. External user interface for head worn computing
US11003246B2 (en) 2015-07-22 2021-05-11 Mentor Acquisition One, Llc External user interface for head worn computing
US10136804B2 (en) 2015-07-24 2018-11-27 Welch Allyn, Inc. Automatic fundus image capture system
US10413182B2 (en) * 2015-07-24 2019-09-17 Johnson & Johnson Vision Care, Inc. Biomedical devices for biometric based information communication
MX2018001537A (es) * 2015-08-07 2018-04-24 Koninklijke Philips Nv Dispositivo y sistema para monitorear un ojo de un sujeto.
CN105093919A (zh) * 2015-08-13 2015-11-25 小米科技有限责任公司 闹钟管理方法及装置、电子设备
KR20180057693A (ko) * 2015-09-24 2018-05-30 토비 에이비 눈 추적 가능한 웨어러블 디바이스들
KR101698961B1 (ko) * 2015-10-26 2017-01-24 (주)미래컴퍼니 수술 로봇 시스템 및 그 복강경 조작 방법
CN105380590B (zh) * 2015-10-27 2017-11-07 杭州镜之镜科技有限公司 一种具有眼位检测功能的设备及其实现方法
US10506165B2 (en) 2015-10-29 2019-12-10 Welch Allyn, Inc. Concussion screening system
US9676395B2 (en) 2015-10-30 2017-06-13 Ford Global Technologies, Llc Incapacitated driving detection and prevention
US10772495B2 (en) 2015-11-02 2020-09-15 Welch Allyn, Inc. Retinal image capturing
US10113837B2 (en) 2015-11-03 2018-10-30 N2 Imaging Systems, LLC Non-contact optical connections for firearm accessories
CA3006968A1 (en) * 2015-12-04 2017-06-08 University Of Iowa Research Foundation Apparatus, systems and methods for predicting, screening and monitoring of encephalopathy/delirium
CN106900824B (zh) * 2015-12-23 2021-02-26 迈因食品加工有限公司 家禽检验及从其中分离内脏包的流水线和方法
KR101725712B1 (ko) 2016-01-04 2017-04-10 연세대학교 원주산학협력단 휴대용 안진 검사장치
WO2017120217A1 (en) 2016-01-07 2017-07-13 Welch Allyn, Inc. Infrared fundus imaging system
CN106214118A (zh) * 2016-01-28 2016-12-14 北京爱生科贸有限公司 一种基于虚拟现实的眼球运动监测系统
CN105640488B (zh) * 2016-01-28 2017-12-08 北京爱生科贸有限公司 一种用于眼球运动监测的虚拟目镜装置
CN105748250B (zh) * 2016-01-29 2019-05-21 上海威炫医疗器械有限公司 人体晕眩治疗装置
US10367927B2 (en) * 2016-02-01 2019-07-30 Logitech Europe, S.A. Wearable device with an antenna system
US10169560B2 (en) * 2016-02-04 2019-01-01 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Stimuli-based authentication
US10591728B2 (en) 2016-03-02 2020-03-17 Mentor Acquisition One, Llc Optical systems for head-worn computers
US10850116B2 (en) 2016-12-30 2020-12-01 Mentor Acquisition One, Llc Head-worn therapy device
US11164596B2 (en) 2016-02-25 2021-11-02 Samsung Electronics Co., Ltd. Sensor assisted evaluation of health and rehabilitation
US10362998B2 (en) 2016-02-25 2019-07-30 Samsung Electronics Co., Ltd. Sensor-based detection of changes in health and ventilation threshold
CN105607284A (zh) * 2016-02-25 2016-05-25 侯绪华 一种液晶眼镜
US10420514B2 (en) 2016-02-25 2019-09-24 Samsung Electronics Co., Ltd. Detection of chronotropic incompetence
US10172517B2 (en) * 2016-02-25 2019-01-08 Samsung Electronics Co., Ltd Image-analysis for assessing heart failure
US10667981B2 (en) 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
US9880441B1 (en) 2016-09-08 2018-01-30 Osterhout Group, Inc. Electrochromic systems for head-worn computer systems
US9826299B1 (en) 2016-08-22 2017-11-21 Osterhout Group, Inc. Speaker systems for head-worn computer systems
US10089453B2 (en) 2016-03-07 2018-10-02 Magic Leap, Inc. Blue light adjustment for biometric identification
CN109155837A (zh) * 2016-03-18 2019-01-04 南澳大利亚大学 一种情绪感知的可穿戴的电话会议系统
US10206620B2 (en) * 2016-03-23 2019-02-19 Intel Corporation User's physiological context measurement method and apparatus
JP6728863B2 (ja) * 2016-03-25 2020-07-22 富士ゼロックス株式会社 情報処理システム
US10582908B2 (en) * 2016-04-01 2020-03-10 Intel Corporation Sleep management device and methods for operation
US10466491B2 (en) 2016-06-01 2019-11-05 Mentor Acquisition One, Llc Modular systems for head-worn computers
RU171527U1 (ru) * 2016-05-17 2017-06-05 Ярослав Валерьевич Голуб Устройство для обнаружения признаков засыпания водителей транспортных средств
CN105934028B (zh) * 2016-05-25 2017-11-10 北京易迈医疗科技有限公司 一种自适应照明调节系统以及医用头盔
TWI597049B (zh) * 2016-06-01 2017-09-01 清弘生醫股份有限公司 可穿戴式眼溫監測裝置及其系統
US11122972B2 (en) 2016-06-16 2021-09-21 Hadasit Medical Research Services And Development Ltd. Device and method for determination of pupil size in a subject having closed eyelids
US10395204B2 (en) 2016-06-17 2019-08-27 Predictive Safety Srp, Inc. Interlock control system and method
KR102491130B1 (ko) * 2016-06-20 2023-01-19 매직 립, 인코포레이티드 시각적 프로세싱 및 지각 상태들을 포함하는 신경학적 상태들의 평가 및 수정을 위한 증강 현실 디스플레이 시스템
US9736810B1 (en) * 2016-06-24 2017-08-15 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Systems and methods for managing user notifications based on user interaction with a computing device
JP6753173B2 (ja) * 2016-06-30 2020-09-09 オムロン株式会社 異常処理システム
CN106027988A (zh) * 2016-07-05 2016-10-12 珠海爱司马特数码科技有限公司 一种无线监控系统
CA3032606A1 (en) 2016-08-02 2018-02-08 New York University Methods and kits for assessing neurological function and localizing neurological lesions
CN106419832B (zh) * 2016-08-22 2018-03-02 宁波远志立方能源科技有限公司 智能眼疾检测眼镜
US10067565B2 (en) * 2016-09-29 2018-09-04 Intel Corporation Methods and apparatus for identifying potentially seizure-inducing virtual reality content
US10602926B2 (en) 2016-09-29 2020-03-31 Welch Allyn, Inc. Through focus retinal image capturing
US10285589B2 (en) 2016-09-30 2019-05-14 Welch Allyn, Inc. Fundus image capture system
EP3305176A1 (en) 2016-10-04 2018-04-11 Essilor International Method for determining a geometrical parameter of an eye of a subject
DE112017005146B4 (de) 2016-10-11 2023-06-15 Chubu University Educational Foundation Augenbewegungs-Messeinrichtung und Augenbewegungs-Analysesystem
US10925479B2 (en) * 2016-10-13 2021-02-23 Ronald Michael Kurtz Networked system of mobile communication platforms for nonpharmacologic constriction of a pupil
GB2570829B (en) * 2016-10-14 2021-12-01 Facense Ltd Detecting physiological responses based on thermal asymmetry of the face
KR101709911B1 (ko) * 2016-10-17 2017-02-27 (주)미래컴퍼니 수술 로봇 시스템 및 그 복강경 조작 방법
KR101706994B1 (ko) * 2016-10-17 2017-02-17 (주)미래컴퍼니 수술 로봇 시스템 및 그 복강경 조작 방법
US20180125406A1 (en) * 2016-11-08 2018-05-10 International Business Machines Corporation Mental state estimation using relationship of pupil dynamics between eyes
US10660517B2 (en) 2016-11-08 2020-05-26 International Business Machines Corporation Age estimation using feature of eye movement
US20180125405A1 (en) * 2016-11-08 2018-05-10 International Business Machines Corporation Mental state estimation using feature of eye movement
CN108078570A (zh) * 2016-11-21 2018-05-29 南通九诺医疗科技有限公司 一种内置加速度传感器的动态血糖监测电路及其控制方法
US10757328B2 (en) 2016-12-23 2020-08-25 Microsoft Technology Licensing, Llc Eye tracking using video information and electrooculography information
US10182755B2 (en) 2017-01-06 2019-01-22 Jacques Ohayon Pupil distortion measurement and psychiatric diagnosis method
CA2953752A1 (en) 2017-01-06 2018-07-06 Libra At Home Ltd Virtual reality apparatus and methods therefor
CN106901692A (zh) * 2017-01-11 2017-06-30 广东小天才科技有限公司 虚拟现实设备
WO2018138714A1 (en) 2017-01-28 2018-08-02 Lumus Ltd. Augmented reality imaging system
JP7113599B2 (ja) * 2017-02-16 2022-08-05 住友重機械工業株式会社 ショベル
DE102017202659A1 (de) 2017-02-20 2018-08-23 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zur Erkennung der Müdigkeit eines Fahrzeugführers
IL292456B (en) 2017-02-22 2022-08-01 Lumus Ltd Optical assembly of a light guide
GB2561537B (en) 2017-02-27 2022-10-12 Emteq Ltd Optical expression detection
GB2604076B (en) * 2017-02-27 2022-12-28 Emteq Ltd Optical flow sensor muscle detection
KR102551780B1 (ko) 2017-03-30 2023-07-04 매직 립, 인코포레이티드 비차단 이중 드라이버 이어폰들
US10977858B2 (en) 2017-03-30 2021-04-13 Magic Leap, Inc. Centralized rendering
RU181997U1 (ru) * 2017-04-03 2018-07-31 Евгения Анатольевна Филиппова Коммуникатор для людей с нарушениями речи
US11452444B2 (en) * 2017-04-03 2022-09-27 Hewlett-Packard Development Company, L.P. Moving image rendering using eye-tracking sensor signal
WO2018186046A1 (ja) * 2017-04-04 2018-10-11 国立大学法人福井大学 映像生成装置及び映像生成方法
IL269861B2 (en) 2017-04-14 2023-11-01 Magic Leap Inc Multimodal eye tracking
US9910298B1 (en) 2017-04-17 2018-03-06 Vision Service Plan Systems and methods for a computerized temple for use with eyewear
US10765380B2 (en) * 2017-04-20 2020-09-08 Bradford R Everman Systems and methods for measuring physiological parameters
US11559252B2 (en) 2017-05-08 2023-01-24 Starkey Laboratories, Inc. Hearing assistance device incorporating virtual audio interface for therapy guidance
US11079522B1 (en) 2017-05-31 2021-08-03 Magic Leap, Inc. Fiducial design
US10578869B2 (en) 2017-07-24 2020-03-03 Mentor Acquisition One, Llc See-through computer display systems with adjustable zoom cameras
US10422995B2 (en) 2017-07-24 2019-09-24 Mentor Acquisition One, Llc See-through computer display systems with stray light management
US11409105B2 (en) 2017-07-24 2022-08-09 Mentor Acquisition One, Llc See-through computer display systems
US10969584B2 (en) 2017-08-04 2021-04-06 Mentor Acquisition One, Llc Image expansion optic for head-worn computer
JP7252438B2 (ja) * 2017-08-17 2023-04-05 テイ・エス テック株式会社 異常検知装置及びシート
US11607142B2 (en) 2017-08-15 2023-03-21 Ts Tech Co., Ltd. Biosensor arrangement structure
EP3684463A4 (en) 2017-09-19 2021-06-23 Neuroenhancement Lab, LLC NEURO-ACTIVATION PROCESS AND APPARATUS
US10809796B2 (en) * 2017-09-29 2020-10-20 Apple Inc. Monitoring a user of a head-wearable electronic device
CN107518871A (zh) * 2017-10-09 2017-12-29 中山大学中山眼科中心 眼组织测量装置及系统
CA3078420A1 (en) 2017-10-17 2019-04-25 Magic Leap, Inc. Mixed reality spatial audio
US11717686B2 (en) 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
IL275071B1 (en) 2017-12-07 2024-02-01 Eyefree Assisting Communication Ltd Communication system and method
CN108245748A (zh) 2017-12-21 2018-07-06 北京怡和嘉业医疗科技股份有限公司 面罩、呼吸机系统及该呼吸机系统执行的方法
US11318277B2 (en) 2017-12-31 2022-05-03 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to enhance emotional response
KR102066737B1 (ko) * 2018-01-25 2020-01-16 한국과학기술연구원 양안 경쟁을 이용한 뇌 기능 평가 장치, 그 방법, 및 이를 수록한 기록 매체
WO2019154509A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
WO2019154511A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters using a neural network
US11393251B2 (en) 2018-02-09 2022-07-19 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
EP3524135A1 (en) * 2018-02-13 2019-08-14 Essilor International (Compagnie Generale D'optique) Wearable binocular optoelectronic device for measuring light sensitivity threshold of a user
IL276511B2 (en) 2018-02-15 2024-01-01 Magic Leap Inc Musical instruments in mixed reality
CN114679677B (zh) 2018-02-15 2024-02-20 奇跃公司 用于混合现实的双听者位置
JP2021514081A (ja) 2018-02-15 2021-06-03 マジック リープ, インコーポレイテッドMagic Leap,Inc. 複合現実仮想反響音
DE102018103879B4 (de) * 2018-02-21 2021-01-21 Stellar Data Broadcast Services Gmbh Fahrtüchtigkeitstestgerät
FR3078410B1 (fr) * 2018-02-28 2020-03-13 Universite De Lorraine Dispositif d'exploration du systeme visuel
WO2019173106A1 (en) * 2018-03-09 2019-09-12 Children’S Hospital & Research Center At Oakland Method of detecting and/or predicting seizures
CN108549838B (zh) * 2018-03-13 2022-01-14 心科(上海)网络科技有限公司 一种基于视觉系统的辅助监督方法
US11240057B2 (en) * 2018-03-15 2022-02-01 Lenovo (Singapore) Pte. Ltd. Alternative output response based on context
WO2019190174A1 (en) 2018-03-26 2019-10-03 Samsung Electronics Co., Ltd. Electronic device for monitoring health of eyes of user and method for operating the same
US11237639B2 (en) 2018-03-27 2022-02-01 Iowa Adaptive Technologies, Inc. Method and system for electronic communication by persons with disabilities
US11364361B2 (en) 2018-04-20 2022-06-21 Neuroenhancement Lab, LLC System and method for inducing sleep by transplanting mental states
US10367931B1 (en) 2018-05-09 2019-07-30 Fuvi Cognitive Network Corp. Apparatus, method, and system of cognitive communication assistant for enhancing ability and efficiency of users communicating comprehension
US10753709B2 (en) 2018-05-17 2020-08-25 Sensors Unlimited, Inc. Tactical rails, tactical rail systems, and firearm assemblies having tactical rails
IL259518B2 (en) 2018-05-22 2023-04-01 Lumus Ltd Optical system and method for improving light field uniformity
US10958830B2 (en) 2018-05-24 2021-03-23 Magna Electronics Inc. Vehicle vision system with infrared LED synchronization
US11096574B2 (en) 2018-05-24 2021-08-24 Welch Allyn, Inc. Retinal image capturing
US10667072B2 (en) 2018-06-12 2020-05-26 Magic Leap, Inc. Efficient rendering of virtual soundfields
DE102018209440A1 (de) * 2018-06-13 2019-12-19 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Beeinflussung von Systemen zur Aufmerksamkeitsüberwachung
CN112534498A (zh) 2018-06-14 2021-03-19 奇跃公司 混响增益归一化
WO2019241760A1 (en) 2018-06-14 2019-12-19 Magic Leap, Inc. Methods and systems for audio signal filtering
JP2021528001A (ja) 2018-06-18 2021-10-14 マジック リープ, インコーポレイテッドMagic Leap,Inc. 双方向オーディオ環境のための空間オーディオ
US11854566B2 (en) 2018-06-21 2023-12-26 Magic Leap, Inc. Wearable system speech processing
WO2020006275A1 (en) * 2018-06-27 2020-01-02 Cortexxus Inc. Wearable system for brain health monitoring and seizure detection and prediction
US10645348B2 (en) 2018-07-07 2020-05-05 Sensors Unlimited, Inc. Data communication between image sensors and image displays
US11079202B2 (en) 2018-07-07 2021-08-03 Sensors Unlimited, Inc. Boresighting peripherals to digital weapon sights
US11201953B2 (en) 2018-07-24 2021-12-14 Magic Leap, Inc. Application sharing
US10722128B2 (en) 2018-08-01 2020-07-28 Vision Service Plan Heart rate detection system and method
CN109192275A (zh) * 2018-08-06 2019-01-11 百度在线网络技术(北京)有限公司 人物精神状态的确定方法、装置及服务器
US10742913B2 (en) 2018-08-08 2020-08-11 N2 Imaging Systems, LLC Shutterless calibration
CN110603513B (zh) * 2018-08-27 2023-08-29 深圳市汇顶科技股份有限公司 一种眼睛跟踪设备及利用光学成像跟踪眼睛的方法
WO2020042843A1 (en) 2018-08-27 2020-03-05 Shenzhen GOODIX Technology Co., Ltd. Eye tracking based on imaging eye features and assistance of structured illumination probe light
US10719127B1 (en) * 2018-08-29 2020-07-21 Rockwell Collins, Inc. Extended life display by utilizing eye tracking
US10921578B2 (en) 2018-09-07 2021-02-16 Sensors Unlimited, Inc. Eyecups for optics
WO2020056418A1 (en) 2018-09-14 2020-03-19 Neuroenhancement Lab, LLC System and method of improving sleep
WO2020061274A1 (en) * 2018-09-19 2020-03-26 Avedro, Inc. Systems and methods for eye tracking during eye treatment
US11245831B2 (en) * 2018-09-21 2022-02-08 R.F. Wireless Systems Inc. Wireless camera system
US11094127B2 (en) 2018-09-25 2021-08-17 Magic Leap, Inc. Systems and methods for presenting perspective views of augmented reality virtual object
CN116249053A (zh) 2018-10-05 2023-06-09 奇跃公司 用于双耳音频渲染的耳间时间差交叉渐变器
US11122383B2 (en) 2018-10-05 2021-09-14 Magic Leap, Inc. Near-field audio rendering
CN113168526A (zh) 2018-10-09 2021-07-23 奇跃公司 用于虚拟和增强现实的系统和方法
CN109350005B (zh) * 2018-10-23 2023-11-24 中国科学院苏州生物医学工程技术研究所 用于双目疲劳度测量装置的光学系统
US11487316B2 (en) 2018-10-24 2022-11-01 Magic Leap, Inc. Asynchronous ASIC
US11122698B2 (en) 2018-11-06 2021-09-14 N2 Imaging Systems, LLC Low stress electronic board retainers and assemblies
US10801813B2 (en) 2018-11-07 2020-10-13 N2 Imaging Systems, LLC Adjustable-power data rail on a digital weapon sight
TWM642752U (zh) 2018-11-08 2023-06-21 以色列商魯姆斯有限公司 用於將圖像顯示到觀察者的眼睛中的顯示器
US10796860B2 (en) 2018-12-12 2020-10-06 N2 Imaging Systems, LLC Hermetically sealed over-molded button assembly
US11277697B2 (en) 2018-12-15 2022-03-15 Starkey Laboratories, Inc. Hearing assistance system with enhanced fall detection features
CN109646784A (zh) * 2018-12-21 2019-04-19 华东计算技术研究所(中国电子科技集团公司第三十二研究所) 基于沉浸式vr的失眠障碍心理治疗系统和方法
JP2022516074A (ja) 2018-12-27 2022-02-24 マジック リープ, インコーポレイテッド 仮想および拡張現実のためのシステムおよび方法
EP3903290A1 (en) 2018-12-27 2021-11-03 Starkey Laboratories, Inc. Predictive fall event management system and method of using same
CN111387933B (zh) * 2019-01-02 2023-05-05 见臻科技股份有限公司 监控视觉疲劳的方法和光学系统
US11143838B2 (en) 2019-01-08 2021-10-12 N2 Imaging Systems, LLC Optical element retainers
US11537202B2 (en) 2019-01-16 2022-12-27 Pupil Labs Gmbh Methods for generating calibration data for head-wearable devices and eye tracking system
TWI683132B (zh) * 2019-01-31 2020-01-21 創新服務股份有限公司 人臉眼睛定位系統在顯微鏡的應用
JP2022522748A (ja) 2019-03-01 2022-04-20 マジック リープ, インコーポレイテッド 発話処理エンジンのための入力の決定
CN109965843B (zh) * 2019-03-14 2022-05-24 华南师范大学 一种基于滤波传像的眼动系统
CN110101387A (zh) * 2019-04-30 2019-08-09 华南师范大学 一种护目镜控制器
US11600109B2 (en) 2019-05-20 2023-03-07 Barry Katz Smart eyeglasses for special needs children and adults
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
JP7336266B2 (ja) * 2019-06-04 2023-08-31 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記憶媒体
US11676422B2 (en) 2019-06-05 2023-06-13 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
WO2020247863A1 (en) 2019-06-06 2020-12-10 Magic Leap, Inc. Photoreal character configurations for spatial computing
US11443570B2 (en) * 2019-06-11 2022-09-13 Raytheon Technologies Corporation Data storage in a helmet system
US11328740B2 (en) 2019-08-07 2022-05-10 Magic Leap, Inc. Voice onset detection
US11704874B2 (en) 2019-08-07 2023-07-18 Magic Leap, Inc. Spatial instructions and guides in mixed reality
IL268575B2 (en) * 2019-08-07 2023-02-01 Eyefree Assisting Communication Ltd A system and method for monitoring a patient
US10821886B1 (en) 2019-08-13 2020-11-03 International Business Machines Corporation Sensor-based acknowledgments between road traffic participants
CN114502059A (zh) * 2019-08-28 2022-05-13 拜尔崔林公司 用于评估瞳孔反应的系统和方法
EP4046138A4 (en) 2019-10-18 2022-12-07 Magic Leap, Inc. GRAVITY ESTIMATION AND BUNDLE ADJUSTMENT FOR VISUAL INERTIAL ODOMETRY
US11304017B2 (en) 2019-10-25 2022-04-12 Magic Leap, Inc. Reverberation fingerprint estimation
WO2021081442A1 (en) 2019-10-25 2021-04-29 Magic Leap, Inc. Non-uniform stereo rendering
US11959997B2 (en) 2019-11-22 2024-04-16 Magic Leap, Inc. System and method for tracking a wearable device
EP4070159A4 (en) 2019-12-04 2023-01-18 Magic Leap, Inc. VARIABLE PITCH COLOR EMISSION DISPLAY DEVICE
CN115380311A (zh) 2019-12-06 2022-11-22 奇跃公司 环境声学持久性
US11269181B2 (en) 2019-12-09 2022-03-08 Magic Leap, Inc. Systems and methods for operating a head-mounted display system based on user identity
JP7330507B2 (ja) * 2019-12-13 2023-08-22 株式会社Agama-X 情報処理装置、プログラム、及び、方法
US11337023B2 (en) 2019-12-20 2022-05-17 Magic Leap, Inc. Physics-based audio and haptic synthesis
KR102349805B1 (ko) * 2019-12-20 2022-01-11 순천향대학교 산학협력단 뇌졸중 진단 시스템 및 방법
EP4104456A4 (en) 2020-02-14 2023-07-19 Magic Leap, Inc. AUDIO PLAYBACK WITH MULTIPLE APPLICATIONS
JP2023514572A (ja) 2020-02-14 2023-04-06 マジック リープ, インコーポレイテッド セッションマネージャ
EP4104002A4 (en) 2020-02-14 2023-08-09 Magic Leap, Inc. 3D OBJECT ANNOTATION
US11494528B2 (en) 2020-02-14 2022-11-08 Magic Leap, Inc. Tool bridge
US11778410B2 (en) 2020-02-14 2023-10-03 Magic Leap, Inc. Delayed audio following
JP2023515886A (ja) 2020-03-02 2023-04-14 マジック リープ, インコーポレイテッド 没入型のオーディオプラットフォーム
US20210287560A1 (en) * 2020-03-10 2021-09-16 Honeywell International Inc. Systems and methods providing assist-to-land and emergency land functions
US11917384B2 (en) 2020-03-27 2024-02-27 Magic Leap, Inc. Method of waking a device using spoken voice commands
AU2020100831B4 (en) * 2020-05-24 2020-10-01 Gao, Jianqun MR A wearable pair of glasses for detecting Parkinson’s disease
WO2021243103A1 (en) 2020-05-29 2021-12-02 Magic Leap, Inc. Determining angular acceleration
US11636843B2 (en) 2020-05-29 2023-04-25 Magic Leap, Inc. Surface appropriate collisions
DE102020206822A1 (de) * 2020-06-02 2021-12-02 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Betreiben einer Datenbrille
DE102020208459A1 (de) 2020-07-07 2022-01-13 Attila Kis Vorrichtung zur Benetzung des menschlichen Auges mit einer Flüssigkeit sowie ein Verfahren zum Betrieb einer solchen Vorrichtung
TWI746066B (zh) * 2020-07-20 2021-11-11 陳皓雲 以近接感測器檢測眨眼之方法及系統
CN112102831A (zh) * 2020-09-15 2020-12-18 海南大学 跨数据、信息、知识模态的内容编解码方法及组件
WO2022093247A1 (en) * 2020-10-29 2022-05-05 Hewlett-Packard Development Company, L.P. Facial gesture mask
US11803237B2 (en) 2020-11-14 2023-10-31 Facense Ltd. Controlling an eye tracking camera according to eye movement velocity
WO2022109858A1 (zh) * 2020-11-25 2022-06-02 中国科学院深圳先进技术研究院 一种眼动追踪装置及方法
CN112766050B (zh) * 2020-12-29 2024-04-16 富泰华工业(深圳)有限公司 着装及作业检查方法、计算机装置及存储介质
CN116829070A (zh) * 2021-01-29 2023-09-29 穆罕默德·迈赫迪·达瓦里 用于生物特征识别研究的头套
EP4071545A1 (en) * 2021-04-07 2022-10-12 Essilor International Eyewear device with photosensitive sensors arranged on temples
US20220351545A1 (en) * 2021-05-03 2022-11-03 NeuraLight Ltd. Obtaining high-resolution oculometric parameters
WO2022234383A1 (ja) * 2021-05-07 2022-11-10 株式会社半導体エネルギー研究所 電子機器
KR102406823B1 (ko) * 2021-05-27 2022-06-10 성균관대학교산학협력단 망막 질환 및 치매 진단용 스마트 리모컨 장치 및 이를 이용한 자가 진단 방법
WO2023002488A1 (en) * 2021-07-22 2023-01-26 Eyefree Assisting Communication Ltd. A system for communication with a patient based on the determined sedation state
WO2023023226A2 (en) * 2021-08-18 2023-02-23 Diagnosys LLC System comprising integrated dichoptic flash and pupillometry monitoring, and method for using the same
CA3231733A1 (en) * 2021-09-13 2023-03-16 Benjamin Simon Thompson System and method for monitoring human-device interactions
CN113925716B (zh) * 2021-10-22 2023-08-04 河南省中医院(河南中医药大学第二附属医院) 中医神经内科用多功能护理架及控制方法
US20230284974A1 (en) * 2022-03-09 2023-09-14 Weneuro Inc. Systems and methods for diagnosing, assessing, and quantifying sedative effects
WO2023187819A1 (en) * 2022-03-26 2023-10-05 Tvs Motor Company Limited A headgear
US11806078B1 (en) 2022-05-01 2023-11-07 Globe Biomedical, Inc. Tear meniscus detection and evaluation system

Family Cites Families (91)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3689135A (en) * 1971-01-26 1972-09-05 Laurence R Young Method for monitoring movement of a subject{40 s eyes
US3863243A (en) * 1972-01-19 1975-01-28 Max Skolnick Sleep inhibiting alarm
US3798599A (en) 1972-02-24 1974-03-19 H Kafafian Single input controller for a communication system
US3966310A (en) * 1974-02-15 1976-06-29 Larson Merlin D Pupillometer and method of use thereof
US4102564A (en) * 1975-04-18 1978-07-25 Michael Henry L Portable device for the accurate measurement of eye movements both in light and obscurity
US4359724A (en) 1980-04-28 1982-11-16 Ronald R. Zimmerman Eyelid movement detector
JPS6332624A (ja) * 1986-07-28 1988-02-12 Canon Inc 情報処理装置
EP0280124A1 (en) * 1987-02-12 1988-08-31 Omron Tateisi Electronics Co. Doze detector
US4850691A (en) * 1987-03-18 1989-07-25 University Of Illinois Method and apparatus for determining pupillary response parameters
US4815839A (en) * 1987-08-03 1989-03-28 Waldorf Ronald A Infrared/video electronystagmographic apparatus
US4836670A (en) * 1987-08-19 1989-06-06 Center For Innovative Technology Eye movement detector
JPH01312902A (ja) * 1988-06-13 1989-12-18 Konan Camera Kenkyusho:Kk 眼球運動検査装置
US4852988A (en) * 1988-09-12 1989-08-01 Applied Science Laboratories Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system
JPH02164335A (ja) * 1988-12-16 1990-06-25 Konan Camera Kenkyusho:Kk 眼球運動解析装置
JPH02309925A (ja) * 1989-05-26 1990-12-25 Natsuku:Kk 眼球検査装置
US5231674A (en) * 1989-06-09 1993-07-27 Lc Technologies, Inc. Eye tracking method and apparatus
GB8916206D0 (en) * 1989-07-14 1989-11-08 Marconi Gec Ltd Helmet systems
US4967186A (en) * 1989-08-18 1990-10-30 Ariold Ludmirsky Method and apparatus for fatigue detection
US5778893A (en) * 1991-04-01 1998-07-14 President And Fellows Of Harvard College Method of diagnosing and monitoring a treatment for Alzheimer's disease
US5189512A (en) * 1991-07-01 1993-02-23 Camair Research, Inc. Helmet integrated display system
US5183512A (en) * 1991-08-29 1993-02-02 Aquotech, Inc. Method of cleaning semiconductor wafer and computer disks by purified water treated with electric AC signal
WO1995018565A1 (en) * 1991-09-26 1995-07-13 Sam Technology, Inc. Non-invasive neurocognitive testing method and system
US5214456A (en) * 1991-10-09 1993-05-25 Computed Anatomy Incorporated Mapping of corneal topography with display of pupil perimeter
US5293187A (en) * 1992-02-05 1994-03-08 Biocontrol Systems, Inc. Method and apparatus for eye tracking for convergence and strabismus measurement
US5468239A (en) * 1992-04-13 1995-11-21 Sorenson Laboratories, Inc. Apparatus and methods for using a circumferential light-emitting surgical laser probe
US5341181A (en) * 1992-11-20 1994-08-23 Godard Roger R Systems and methods for capturing and presentng visual information
US5345281A (en) * 1992-12-17 1994-09-06 John Taboada Eye tracking system and method
US5402109A (en) 1993-04-29 1995-03-28 Mannik; Kallis H. Sleep prevention device for automobile drivers
US5478239A (en) * 1993-12-21 1995-12-26 Maximum Performance, Inc. Dynamic visual acuity training method and apparatus
US5481622A (en) * 1994-03-01 1996-01-02 Rensselaer Polytechnic Institute Eye tracking apparatus and method employing grayscale threshold values
JP3293308B2 (ja) * 1994-03-10 2002-06-17 三菱電機株式会社 人物状態検出装置
JPH086708A (ja) 1994-04-22 1996-01-12 Canon Inc 表示装置
US5617872A (en) * 1994-07-25 1997-04-08 Beth Israel Hospitcal Assoc. Inc. Hypersensitive constriction velocity method for diagnosing Alzheimer's disease in a living human
US5469143A (en) * 1995-01-10 1995-11-21 Cooper; David E. Sleep awakening device for drivers of motor vehicles
US5583795A (en) * 1995-03-17 1996-12-10 The United States Of America As Represented By The Secretary Of The Army Apparatus for measuring eye gaze and fixation duration, and method therefor
US5566067A (en) 1995-03-23 1996-10-15 The President And Fellows Of Harvard College Eyelid vigilance detector system
US5689241A (en) 1995-04-24 1997-11-18 Clarke, Sr.; James Russell Sleep detection and driver alert apparatus
US5570698A (en) * 1995-06-02 1996-11-05 Siemens Corporate Research, Inc. System for monitoring eyes for detecting sleep behavior
SE506303C2 (sv) * 1995-06-13 1997-12-01 Ericsson Telefon Ab L M Anordning och förfarande avseende avstämbara anordningar
US5682144A (en) 1995-11-20 1997-10-28 Mannik; Kallis Hans Eye actuated sleep prevention devices and other eye controlled devices
JPH09163192A (ja) * 1995-12-08 1997-06-20 Sony Corp 遠隔監視装置
US6003991A (en) * 1996-02-17 1999-12-21 Erik Scott Viirre Eye examination apparatus and method for remote examination of a patient by a health professional
US6373961B1 (en) * 1996-03-26 2002-04-16 Eye Control Technologies, Inc. Eye controllable screen pointer
US5726916A (en) * 1996-06-27 1998-03-10 The United States Of America As Represented By The Secretary Of The Army Method and apparatus for determining ocular gaze point of regard and fixation duration
US5861936A (en) * 1996-07-26 1999-01-19 Gillan Holdings Limited Regulating focus in accordance with relationship of features of a person's eyes
US5689619A (en) * 1996-08-09 1997-11-18 The United States Of America As Represented By The Secretary Of The Army Eyetracker control of heads-up displays
US6542081B2 (en) 1996-08-19 2003-04-01 William C. Torch System and method for monitoring eye movement
US6163281A (en) 1996-08-19 2000-12-19 Torch; William C. System and method for communication using eye movement
US6246344B1 (en) * 1996-08-19 2001-06-12 William C. Torch Method and apparatus for voluntary communication
US5748113A (en) * 1996-08-19 1998-05-05 Torch; William C. Method and apparatus for communication
JP3651204B2 (ja) * 1996-12-18 2005-05-25 トヨタ自動車株式会社 立体画像表示装置、立体画像表示方法及び記録媒体
US5790235A (en) * 1997-03-26 1998-08-04 Carl Zeiss, Inc. Method and apparatus to measure pupil size and position
US5867587A (en) 1997-05-19 1999-02-02 Northrop Grumman Corporation Impaired operator detection and warning system employing eyeblink analysis
AU8259498A (en) * 1997-06-19 1999-01-04 Bioprobes, Inc. System and method for screening for dementia
US6007202A (en) * 1997-10-23 1999-12-28 Lasersight Technologies, Inc. Eye illumination system and method
WO1999023524A1 (en) * 1997-10-30 1999-05-14 The Microoptical Corporation Eyeglass interface system
JP3361980B2 (ja) * 1997-12-12 2003-01-07 株式会社東芝 視線検出装置及びその方法
US6088470A (en) * 1998-01-27 2000-07-11 Sensar, Inc. Method and apparatus for removal of bright or dark spots by the fusion of multiple images
DE19803158C1 (de) * 1998-01-28 1999-05-06 Daimler Chrysler Ag Vorrichtung zur Vigilanzzustandsbestimmung
JPH11225964A (ja) * 1998-02-16 1999-08-24 Canon Inc 眼科検査装置
JPH11282617A (ja) * 1998-03-27 1999-10-15 Shimadzu Corp 視線入力装置
US6091378A (en) * 1998-06-17 2000-07-18 Eye Control Technologies, Inc. Video processing methods and apparatus for gaze point tracking
JP2000347596A (ja) * 1998-08-31 2000-12-15 Semiconductor Energy Lab Co Ltd 携帯情報処理システム
US6867752B1 (en) * 1998-08-31 2005-03-15 Semiconductor Energy Laboratory Co., Ltd. Portable information processing system
US6087941A (en) 1998-09-01 2000-07-11 Ferraz; Mark Warning device for alerting a person falling asleep
JP2000194490A (ja) * 1998-12-24 2000-07-14 Canon Inc 視線検出装置
JP2000201289A (ja) * 1999-01-07 2000-07-18 Sony Corp 映像入出力装置及び映像取得方法
US7120880B1 (en) * 1999-02-25 2006-10-10 International Business Machines Corporation Method and system for real-time determination of a subject's interest level to media content
US6090051A (en) * 1999-03-03 2000-07-18 Marshall; Sandra P. Method and apparatus for eye tracking and monitoring pupil dilation to evaluate cognitive activity
US6299308B1 (en) * 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6247813B1 (en) * 1999-04-09 2001-06-19 Iritech, Inc. Iris identification system and method of identifying a person through iris recognition
US20020024633A1 (en) * 1999-04-09 2002-02-28 Daehoon Kim Pupil evaluation system
US6820979B1 (en) * 1999-04-23 2004-11-23 Neuroptics, Inc. Pupilometer with pupil irregularity detection, pupil tracking, and pupil response detection capability, glaucoma screening capability, intracranial pressure detection capability, and ocular aberration measurement capability
US6116736A (en) * 1999-04-23 2000-09-12 Neuroptics, Inc. Pupilometer with pupil irregularity detection capability
JP2001004906A (ja) * 1999-06-17 2001-01-12 Canon Inc 視線検出機能付き光学機器及びカメラ
KR20030014348A (ko) * 1999-12-21 2003-02-17 스크램 테크놀러지스 인코포레이티드 디스플레이 패널용 옵티칼 시스템
GB2360603A (en) * 2000-03-20 2001-09-26 Cambridge 3D Display Ltd Planar optical waveguide and float glass process
JP2002007053A (ja) * 2000-06-22 2002-01-11 Canon Inc 視線検出機能付き装置
US7068813B2 (en) * 2001-03-28 2006-06-27 Koninklijke Philips Electronics N.V. Method and apparatus for eye gazing smart display
CN1197517C (zh) * 2001-09-07 2005-04-20 昆明利普机器视觉工程有限公司 数字视频眼动分析仪
US6997556B2 (en) * 2001-10-01 2006-02-14 Ernst Pfleger Method for detecting, evaluating, and analyzing look sequences
AUPR872301A0 (en) * 2001-11-08 2001-11-29 Sleep Diagnostics Pty Ltd Alertness monitor
JP2003279882A (ja) * 2002-03-22 2003-10-02 Victor Co Of Japan Ltd ヘッドマウントディスプレイ装置
US20040061680A1 (en) 2002-07-10 2004-04-01 John Taboada Method and apparatus for computer control
SE524003C2 (sv) * 2002-11-21 2004-06-15 Tobii Technology Ab Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel
US6637883B1 (en) * 2003-01-23 2003-10-28 Vishwas V. Tengshe Gaze tracking system and method
US7347551B2 (en) * 2003-02-13 2008-03-25 Fergason Patent Properties, Llc Optical system for monitoring eye movement
US6842670B2 (en) * 2003-05-02 2005-01-11 Chung Shan Institute Of Science And Technology Eye-tracking driving system
US7731360B2 (en) * 2003-11-07 2010-06-08 Neuro Kinetics Portable video oculography system
ZA200608191B (en) * 2004-04-01 2008-07-30 William C Torch Biosensors, communicators, and controllers monitoring eye movement and methods for using them
MX2007010513A (es) 2005-03-04 2008-01-16 Sleep Diagnostics Pty Ltd Medicion de estado de alerta.

Also Published As

Publication number Publication date
IL178374A0 (en) 2007-02-11
EP1755441A2 (en) 2007-02-28
US20090058660A1 (en) 2009-03-05
US20090018419A1 (en) 2009-01-15
JP2012050837A (ja) 2012-03-15
WO2005094667A3 (en) 2006-06-01
CA2967756C (en) 2018-08-28
CN1960670B (zh) 2011-02-23
US7488294B2 (en) 2009-02-10
CN102670163B (zh) 2016-04-13
JP6184989B2 (ja) 2017-08-23
IL207804A0 (en) 2010-12-30
JP2007531579A (ja) 2007-11-08
RU2006138622A (ru) 2008-05-10
EP1755441B1 (en) 2015-11-04
AU2005229076B2 (en) 2011-09-15
US20070273611A1 (en) 2007-11-29
CN102670163A (zh) 2012-09-19
JP2013027718A (ja) 2013-02-07
JP2015109984A (ja) 2015-06-18
IL207805A0 (en) 2010-12-30
KR20070027541A (ko) 2007-03-09
US7515054B2 (en) 2009-04-07
AU2005229076A1 (en) 2005-10-13
CN102068237A (zh) 2011-05-25
CA2967756A1 (en) 2005-10-13
KR101049605B1 (ko) 2011-07-14
CA2561287C (en) 2017-07-11
WO2005094667A2 (en) 2005-10-13
CA2561287A1 (en) 2005-10-13
ZA200608191B (en) 2008-07-30
CN1960670A (zh) 2007-05-09
RU2395228C2 (ru) 2010-07-27

Similar Documents

Publication Publication Date Title
JP6184989B2 (ja) 目の動きをモニターするバイオセンサ、コミュニケーター及びコントローラー並びにそれらの使用方法
US10039445B1 (en) Biosensors, communicators, and controllers monitoring eye movement and methods for using them
US20110077548A1 (en) Biosensors, communicators, and controllers monitoring eye movement and methods for using them
USRE39539E1 (en) System and method for monitoring eye movement
US6542081B2 (en) System and method for monitoring eye movement
EP2710515B1 (en) Systems and methods for measuring reactions of head, eyes, eyelids and pupils
JP6664512B2 (ja) アイブレインインターフェースシステムのキャリブレーション方法、及びシステム内のスレーブデバイス、ホストデバイス
US6163281A (en) System and method for communication using eye movement
US11602296B2 (en) Non-invasive systems and methods for detecting mental impairment
US20230210442A1 (en) Systems and methods to measure ocular parameters and determine neurologic health status

Legal Events

Date Code Title Description
FG Grant or registration