ES2327633T3 - Instalacion para ver y seguir un ojo y la direccion de la mirada del mismo. - Google Patents

Instalacion para ver y seguir un ojo y la direccion de la mirada del mismo. Download PDF

Info

Publication number
ES2327633T3
ES2327633T3 ES03776116T ES03776116T ES2327633T3 ES 2327633 T3 ES2327633 T3 ES 2327633T3 ES 03776116 T ES03776116 T ES 03776116T ES 03776116 T ES03776116 T ES 03776116T ES 2327633 T3 ES2327633 T3 ES 2327633T3
Authority
ES
Spain
Prior art keywords
eye
image
light
detector
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES03776116T
Other languages
English (en)
Inventor
John Elvesjo
Marten Skogo
Gunnar Elvers
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tobii AB
Original Assignee
Tobii Technology AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=20289646&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2327633(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Tobii Technology AB filed Critical Tobii Technology AB
Application granted granted Critical
Publication of ES2327633T3 publication Critical patent/ES2327633T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Eye Examination Apparatus (AREA)
  • Burglar Alarm Systems (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Una instalación para la detección de ojos que comprende: una o más fuentes (2, 3) de luz para emitir luz en direcciones hacia la cabeza de un usuario, un detector (4) para recibir luz desde la cabeza de un usuario y para captar repetidamente imágenes de la misma, y una unidad (6) de evaluación conectada al detector (4) para determinar la posición y/o dirección de mirada de un ojo, y dispuesta para determinar, en una imagen captada por el detector (4), un área en la que estén localizadas una imagen de un ojo o unas imágenes de ojos. caracterizada porque la unidad (6) de evaluación está dispuesta para, tras haber determinado el área, controlar el detector (4) para enviar a la unidad (6) de evaluación la información acerca de las imágenes sucesivas que sólo corresponde al área determinada de la imagen captada por el detector (4), y el detector (4) está dispuesto para leer información únicamente de la porción de la superficie del detector (4) que corresponde al área determinada, y por lo tanto los datos que luego han de ser enviados a la unidad (6) de evaluación.

Description

Instalación para ver y seguir un ojo y la dirección de la mirada del mismo.
Campo técnico
La presente invención se refiere a una instalación para detectar y seguir los ojos y los ángulos/direcciones de la mirada. Tal sistema puede usarse por ejemplo para observar o determinar la posición en un monitor o pantalla que un usuario de ordenador está mirando.
Antecedentes
La monitorización o el seguimiento de movimientos del ojo y puntos de la mirada pueden usarse en muchos contextos diferentes. La información acerca de la posición hacia la que una persona está mirando puede usarse para analizar el comportamiento y la conciencia de la persona. Puede usarse tanto para evaluar el objeto al que la persona está mirando como para evaluar a la persona respectiva. Los campos de utilización son muchos y pueden mencionarse entre ellos estudios sobre la usabilidad de software y diferentes tipos de interfaces, evaluaciones de páginas principales, publicidad y anuncios, medios para educar a pilotos en entornos de simulación, investigación en psicología, ciencias del comportamiento y percepción humana y diagnosis de varios tipos de defectos visuales y enfermedades.
Adicionalmente a estas aplicaciones existen también aplicaciones interactivas que emplean información acerca del lugar al que una persona está mirando para responder o reaccionar de formas distintas. Una persona físicamente discapacitada puede, por ejemplo, interactuar con un ordenador por el procedimiento por el cual se activan esos objetos en el monitor del ordenador al cual está mirando. En un juego de máquinas recreativas puede aumentarse mucho la experiencia del juego mediante el procedimiento por el que se hace que aquellos objetos a los que una persona mire queden centrados en la imagen, o por el procedimiento por el que se permite a la persona apuntar un arma usando sus ojos. De la misma manera el anuncio o pantalla en el escaparate de una tienda en Navidad puede reaccionar al hecho de que una persona esté mirándolo. Las interfaces para, por ejemplo, un ordenador podrían utilizar información continua acerca de la posición a la que un usuario está mirando para mejorar la capacidad de mostrar visualmente el objeto en el que un usuario está interesado, y para adaptar de una forma inteligente diferentes comportamientos del usuario. Un automóvil que recibe información acerca de la posición a la que el conductor está mirando podría disparar una alarma en el caso de que el conductor esté cansado, distraído o intoxicado. También se han desarrollado aplicaciones militares para apuntar armas o para conducir vehículos usando movimientos oculares. Este es sólo un pequeño número de campos de utilización que pueden ser de interés para una instalación que pueda detectar y seguir ojos y ángulos de mirada.
Existen muchas tecnologías diferentes que pueden usarse para seguir un ojo y el ángulo de la mirada en el mismo. Una primera tecnología consiste en usar un fotosensor y una fuente de luz, cuya luz se refleja en la córnea y en el cristalino de un ojo y provoca en los mismos cuatro reflejos diferentes. El reflejo de éstos con la intensidad de luz más fuerte es el reflejo de la córnea externa o glint, también llamado el primer reflejo de Purkinje. Después siguen el segundo, el tercer y el cuarto reflejo de Purkinje, que corresponden a reflejos en la superficie interna de la córnea, la superficie externa de el cristalino y la superficie interna del cristalino. El primer y cuarto reflejos de Purkinje están localizados en el mismo plano focal y la relación de las posiciones de estos dos reflejos varía con la rotación del ojo.
Una segunda tecnología para seguir un ojo y el ángulo de la mirada en el mismo es detectar, usando algún tipo de fotosensor, la línea de demarcación entre el blanco o esclera y el iris de un ojo. Una tercera tecnología consiste en detectar la cara de una persona usando una cámara y deducir indirectamente, mediante la observación de cómo se mueven los ojos en relación a la cara, la dirección en la que la persona está mirando. Una cuarta tecnología consiste en aprovechar que la córnea y la retina tienen potenciales eléctricos diferentes para medir la rotación en un ojo. Una quinta tecnología consiste en usar una lente de contacto dotada de dispositivos adecuados capaces de medir cómo gira la lente y por lo tanto también el ojo. Una sexta tecnología consiste en medir, usando un fotosensor, la elipticidad de la pupila o del iris cuando el ojo gira. Una séptima tecnología consiste en usar un diodo y dos o más transistores ópticos montados en un par de gafas. Cuando la luz procedente del diodo se refleja en la córnea incide luego sobre un transistor óptico, las señales proporcionadas por el transistor varían de acuerdo a la distancia recorrida por la luz desde el diodo a través de la córnea y hasta el transistor. Una octava tecnología consiste en usar un fotosensor para detectar el reflejo de una fuente de luz en la córnea, y entonces observar cómo está relacionada la posición de la misma con el centro de la pupila o iris. Puede hacerse en este caso que la pupila sea más fácilmente observable usando unos dispositivos de iluminación, montados cerca del fotosensor, que iluminan la retina del ojo y causan por lo tanto un efecto brillante en el ojo, o mediante la iluminación del ojo de modo que el iris se vuelva brillante mientras que la pupila permanece oscura.
En el documento de patente estadounidense 5,861,940 se describe un sistema para detectar ojos y para seguir los ángulos de la mirada. El sistema incluye fuentes de luz que comprenden un láser infrarrojo de tipo 2 que está provisto de un sistema óptico adecuado y que emite un rayo de luz convergente con un foco enfrente del ojo, y dos láseres infrarrojos o diodos de infrarrojos de tipo 9, 10 que emiten alternativamente rayos de luz divergentes. Mediante la detección del reflejo en la retina usando un detector sensitivo de posición se obtiene información sobre la posición del ojo. Mediante la detección de los reflejos en la córnea de una pluralidad de fuentes de luz se determina la distancia entre el ojo y la videocámara. Los dos láseres infrarrojos anteriores están colocados en el borde de la base de un monitor 1 de ordenador. Otros sistemas están descritos en los documentos de patente estadounidenses 6,079,829, 6,152,563 y 6,246,779.
Específicamente, en la patente estadounidense 6,152,563 está descrito un seguidor de dirección de la mirada que incluye una fuente de luz infrarroja, una cámara, una pantalla de ordenador y un ordenador. Se provee un software en el ordenador para evaluar las fotos tomadas por la cámara.
En sistemas automáticos que emplean una videocámara puede ser difícil determinar las posiciones en una imagen captada, en la que están situados los reflejos de las fuentes de luz en los ojos de un usuario. Esto depende entre otras cosas del hecho de que el usuario puede mover la cabeza, desplazarla lateralmente o colocarla a menor o mayor distancia de la cámara. El sistema automático puede contener rutinas complejas de procesado de imagen y reconocimiento de imagen para determinar aquellas áreas en donde están localizadas imágenes de ojos. Por lo tanto existe la necesidad de procedimientos para facilitar tales determinaciones de áreas en una imagen captada en la que están localizados reflejos e imágenes de ojos. Adicionalmente, al determinar el punto de interés en una superficie tal que un monitor, siempre debe determinarse la distancia entre los ojos del usuario y el monitor y por lo tanto se requieren procedimientos eficientes para tal determinación.
Resumen de la invención
Un objetivo de la invención, que se define en la reivindicación 1, consiste en proveer una instalación eficiente para detectar y seguir ojos y ángulos/direcciones de la mirada.
En un dispositivo para detectar ojos y ángulos/direcciones de la mirada se usa un fotosensor tal como una unidad CCD o CMOS provistas de un sistema óptico adecuado o una videocámara, una o más fuentes de luz y una unidad de cálculo y control. Para determinar la posición por ejemplo en un monitor, a la que una persona está mirando, deben conocerse la posición de los ojos de la persona, tanto en la dirección en profundidad como en las direcciones laterales, vistas desde el monitor, y la dirección en la que está mirando el ojo. Si sólo se conocen el ángulo y la posición bidimensional, aparecerá una distorsión de paralaje cuando el ojo se mueva en la dirección en profundidad. Esta distorsión de paralaje es a menudo significativamente mayor de lo aceptable en muchas aplicaciones.
Para determinar la posición de un ojo, es decir, la posición del mismo con respecto a un fotosensor o un monitor, se ilumina el ojo usando dos o más fuentes de luz dispuestas a una distancia entre sí. Las imágenes de los reflejos de estas fuentes de luz en la córnea de la persona sobre el fotosensor dependerán entonces del lugar, en el campo de visión del fotosensor, en el que esté situada la persona. Las imágenes de los reflejos sobre el fotosensor proveen toda la información requerida para determinar exactamente el lugar en el que está localizada la persona en el campo de visión del fotosensor. Si se asume que la córnea del ojo es esférica, esta función está definida inequívocamente y es reversible incluso en el caso en que el número de fuentes de luz sea sólo de dos, pero usando hipótesis más avanzadas también se obtiene una buena precisión y fiabilidad en la determinación del lugar en el que están localizados los ojos mediante la evaluación de todo el patrón formado por los reflejos de una pluralidad de fuentes de luz, es decir, las posiciones de los reflejos en relación entre sí y con la foto completa. En un caso sencillo sólo se determinan el tamaño del patrón y la posición del mismo en la imagen captada.
Por lo tanto, se usan un fotosensor para crear una imagen bidimensional de la realidad y generalmente una o más fuentes de luz. La/s fuente/s de luz iluminan los posibles ojos dentro del campo visual del fotosensor, de modo que las superficies reflectantes difusas se vuelven más fácilmente observables para el fotosensor, y de modo que la luz de la/s fuente/s de luz que alcanza las córneas causa reflejos que son interpretados por el fotosensor como puntos brillantes discretos.
La imagen bidimensional creada por el fotosensor se analiza usando un procesamiento de imagen complejo para determinar la posición en la imagen en la que están localizados posibles ojos y reflejos. Se usa entonces esta información para determinar dónde están localizados los ojos y/o en qué dirección están mirando, lo que a su vez puede usarse por ejemplo, para determinar la posición en un monitor a la que está mirando un usuario de ordenador.
Se buscan pupilas y/o irises en la imagen bidimensional. Puede hacerse la imagen de la pupila más fácilmente observable iluminándola con una o más fuentes de luz. La luz de la/s fuente/s de luz puede colocarse a cierta distancia del sistema óptico que enfoca la imagen bidimensional en el fotosensor. Esto significa que sólo una pequeña porción de la luz que ilumina entra en el ojo y por lo tanto que la pupila aparece más oscura que la cara circundante. De esta manera la línea de demarcación entre la pupila y el iris puede detectarse más fácilmente que en el caso de no usar iluminación.
Una alternativa a la iluminación mencionada anteriormente comprende colocar la/s fuente/s de luz en el, o muy cerca del, sistema óptico que enfoca la imagen bidimensional sobre el fotosensor. El campo difuso de la/s fuente/s de luz corresponde entonces al campo de visión del fotosensor, y para un ojo que esté localizado dentro del campo de visión del fotosensor el punto de la retina que está iluminado por la/s fuente/s de luz será el mismo, o al menos parcialmente el mismo punto que está reproducido en el fotosensor. Esto significa que la pupila parece ser más brillante que los alrededores de la misma. El fenómeno es el mismo que hace que los ojos en las imágenes parezcan tener un color rojizo.
Para conseguir el efecto de ojo más brillante posible se montan la/s fuente/s de luz lo más cerca posible del eje visual del fotosensor sin interferir con el campo de visión del sensor. La porción de la retina de un ojo que ve el fotosensor coincide entonces en gran parte con la porción de la retina que está iluminada por la/s fuente/s de luz. Teniendo en cuenta que la/s fuente/s de luz han de colocarse enfrente del sistema óptico que enfoca la imagen sobre el fotosensor, un fuente de luz que tenga un agujero central de la misma forma que el fotosensor es una buena manera de colocar la/s fuente/s de luz lo más cerca del eje visual del fotosensor sin interferir con el campo visual del mismo. Cuanto más lejos del sistema óptico se coloque la fuente de, mayor ha de ser el agujero para no interferir con el campo visual del fotosensor. Por lo tanto es deseable poder colocar la fuente de luz tan cerca del sistema óptico como sea posible en el caso en que se pretenda un efecto de brillo de ojo.
Usar un efecto de brillo de ojo para determinar la dirección de los ojos, al mismo tiempo que se determinan las posiciones de los ojos usando una pluralidad de fuentes de luz reflejadas, puede causar problemas. El efecto de brillo de ojo se consigue usando un dispositivo de iluminación/fuente de luz colocado tan cerca del fotosensor como sea posible. Un dispositivo de iluminación colocado a cierta distancia de esta fuente de luz iluminará todo, además de la pupila del ojo que está colocada dentro del campo visual del fotosensor, y por lo tanto reduce el contraste entre la pupila y el iris en las imágenes captadas por el fotosensor. Adicionalmente hay una alta probabilidad de que el reflejo de esta fuente de luz adicional sobre la imagen estará localizado precisamente en la línea de demarcación entre la pupila y el iris, lo cual hace aún más difícil la búsqueda de esta transición. Visto desde la perspectiva opuesta, de donde debe determinarse la posición del ojo, el efecto de brillo de ojo que se usa para destacar o aumentar la pupila hace que el contraste de la región de transición de la imagen, entre la pupila y un reflejo de la córnea enfrente de la pupila, disminuye en comparción con el caso en el que la pupila no se iluminó la pupila usando el efecto de brillo de ojo. Por lo tanto, existe el riesgo de que podría ser difícil observar reflejos localizados en imágenes de la pupila iluminada. Para evitar estos problemas pueden alternarse entre sí dos disposiciones de luz, una para determinar la dirección y otra para determinar la posición, de modo que sólo una está activa por cada imagen captada. Esto implica que no pueden ser determinadas a un mismo tiempo la dirección y la posición en cada imagen, pero por otro lado aumenta la robustez del sistema.
Si por el contrario se coloca/n la/s fuente/s de luz a una distancia del eje óptico del fotosensor, se obtiene una pupila oscura mientras que la cara de alrededor se vuelve más brillante cuanto más fuerte irradia/n la/s fuente/s de luz. Se prefiere esta disposición de luz en el caso en que haya de encontrarse el iris, y también tiene la ventaja de que la luz difusa de los alrededores no disminuye o empeora el contraste entre la pupila y el iris como es el caso en un sistema basado en el efecto de brillo de ojo.
Para no molestar a la persona que es iluminada por la/s fuente/s de luz puede/n usarse la/s fuente/s de luz para emitir luz que tenga una longitud de onda que no sea visible para el ojo humano pero que pueda ser detectada por el fotosensor. Por ejemplo, puede usarse luz de rango NIR (NIR=infrarrojo próximo) es decir, luz que tiene una longitud de onda algo más larga que la que puede ser percibida por el ojo humano. Tal luz puede ser detectada por casi todos los fotosensores diseñados para detectar luz visible.
El fotosensor utilizado puede ser ventajosamente del tipo de alta resolución/definición. Esto significa que se obtiene una gran cantidad de información cuando está expuesta la totalidad del fotosensor. Para reducir los recursos usados en el procesamiento, pueden seleccionarse los datos a procesar en una sóla área concreta de interés (AOI). Por lo tanto, para reducir la carga sobre el enlace de comunicación entre el fotosensor y la unidad de cálculo, la unidad de cálculo puede seleccionar solicitar al fotosensor que provea sólo aquella información que viene de la actual AOI. De esta manera, tanto los recursos de cálculo como los de comunicación pueden liberarse para otros propósitos. Para poder seleccionar una AOI adecuada para una exposición del fotosensor se utiliza ventajosamente la información sobre las posiciones en las que estaba localizado el ojo en las imágenes inmediatamente precedentes.
La ventaja máxima se obtiene si se descarta la mayor cantidad posible de la información innecesaria de la imagen y lo antes posible durante el procedimiento. Si se hace que el fotosensor sólo exponga o envíe a la unidad de evaluación una parte de la información de la superficie del sensor, aparecen nuevas posibilidades que no eran posibles previamente. De esta manera pueden usarse fotosensores de muy alta resolución sin provocar la ralentización del procedimiento. En vez de interfaces de cámara que son avanzados, difíciles de iniciar y costosos, pueden usarse buses de pc estandarizados para obtener una tasa de transmisión suficiente desde el fotosensor a la unidad de evaluación. También la simple exposición y la lectura de datos del fotosensor requiere en muchas ocasiones un periodo más corto de tiempo si sólo se expone una parte seleccionada del sensor. Esto significa que puede obtenerse una mayor velocidad en la determinación del punto de mirada para el ojo que se sigue. Esto es valioso en muchas aplicaciones tal como, por ejemplo, en estudios de psicología.
En la siguiente descripción se establecerán objetivos y ventajas adicionales de la invención, y serán en parte obvios a partir de la descripción, o pueden aprenderse mediante la práctica de la invención.
Breve descripción de los dibujos
Aunque la invención está definida en las reivindicaciones adjuntas, puede obtenerse un completo entendimiento de la invención, tanto en organización como en contenido, así como de las características anteriores y otras, y la invención será mejor apreciada a partir de una consideración de la siguiente descripción detallada de realizaciones no limitantes presentadas a continuación con referencia a los dibujos adjuntos, en los cuales:
- La Fig. 1 es una imagen esquemática frontal de una realización de una instalación para detectar y seguir ojos y ángulos de mirada,
- La Fig. 2 es un diagrama esquemático de la dependencia, en una imagen bidimensional captada por un fotosensor, de la distancia entre dos fuentes de luz reflejadas en una córnea con respecto a la distancia de la córnea hasta el fotosensor,
- Las Figs. 3a y 3b son imágenes esquemáticas frontales de un ejemplo de una realización de un dispositivo de iluminación que es coaxial con el campo visual del fotosensor para lograr un efecto de brillo de ojo cuando se encienden y se apagan distintos diodos,
- La Fig. 4a es una imagen de un ojo capturada usando un fotosensor e iluminada para hacer posible la determinación del ángulo de mirada del ojo y el lugar en el cual está localizada sobre el sistema de coordenadas bidimensionales del fotosensor,
- La Fig. 4b es una imagen obtenida usando análisis de líneas de demarcación de la imagen de la Fig. 4a,
- La Fig. 5a es una imagen de un ojo similar a la Fig. 4a pero iluminada para hacer posible la determinación de la distancia del ojo hasta el fotosensor,
- La Fig. 5b es una imagen obtenida usando análisis de líneas de demarcación de la imagen de la Fig. 5a,
- La Fig. 6 es un diagrama de secuencias que ilustra etapas de procesamiento de la información acerca de los ojos encontrados en una imagen bidimensional para determinar cuál es el ojo derecho y el izquierdo de un usuario, y
- La Fig. 7 es un diagrama de secuencias del procedimiento completo que se ejecuta en una instalación para determinar la dirección de la mirada y la posición de un ojo.
Descripción detallada
En la Fig. 1 se muestra una instalación para determinar el punto de un monitor al que está mirando/observando un usuario de un ordenador. La determinación es ejecutada mediante el seguimiento de los ojos del usuario y en particular mediante la determinación de los ángulos de mirada de los ojos y la distancia de los ojos al monitor. La instalación incluye el monitor 1, tres fuentes idénticas 2 de luz montadas a lo largo de una línea recta en el borde superior del monitor 1, un fotosensor 4 colocado en el centro del borde inferior del monitor y provisto de un sistema óptico adecuado, no mostrado, que está localizado en frente del fotosensor para filtrar la luz indeseada y a la vez enfocar una imagen sobre la superficie sensible a la luz del fotosensor, y una fuente 3 de luz colocada coaxialmente al eje óptico del fotosensor, es decir colocada alrededor y a todos los lados de la superficie sensible a la luz del fotosensor. La superficie sensible a la luz puede, como se ha mostrado, tener una forma rectangular. La fuente 1 de luz coaxial incluye, véanse las Figs. 3a y 3b, una pluralidad de elementos 3', 3'' emisores de luz, dispuestos en dos grupos, un primer grupo interior y un segundo grupo exterior. En el grupo interior los elementos 3' emisores de luz están colocados cerca de los bordes o lados de la superficie sensible a la luz. En la realización mostrada que incluye un área sensible a la luz rectangular, se colocan tres elementos en cada lado largo de la forma rectangular y dos elementos en cada lado corto del mismo. En el grupo exterior los elementos 3'' emisores de luz están colocados a una distancia mayor del área sensible a la luz, por fuera de los elementos del grupo interior según se mire desde el centro del área sensible a la luz. En la realización mostrada hay tantos elementos en el grupo exterior como en el grupo interior y cada elemento del grupo exterior está colocado entre dos elementos del grupo interior según se mire desde el centro del área sensible a la luz.
En una realización práctica de la instalación de acuerdo a la Fig. 1, las tres fuentes idénticas 2 de luz comprenden cada una siete diodos NIR, HSDL 4230, que incluyen seis diodos dispuestos simétricamente alrededor de un diodo central. Los mismos tipos de diodos se usan como elementos 3', 3'' emisores de luz en la unidad 3 de iluminación diseñada de acuerdo a las Figs. 3a y 3b.
Adicionalmente a estos componentes sólo se provee una unidad coordinadora de cálculo y control, indicada por un 6, para llevar a cabo el control y evaluación correspondientes y los cálculos. Por lo tanto, la unidad de cálculo y control controla el encendido y apagado de las fuentes de luz. Adicionalmente lleva a cabo el procesamiento de las imágenes captadas por el fotosensor 4, en particular la determinación de líneas de demarcación, es decir, las líneas entre los campos de las imágenes que tienen diferentes colores o intensidades en la escala de grises. En la imagen de un ojo se determina entre otras cosas la línea de demarcación que delimita la pupila y a partir de la misma se obtiene el centro de la pupila. Esto último puede hacerse, por ejemplo, mediante la adaptación de un círculo o elipse a la línea de demarcación que se ha decidido para delimitar la pupila. La unidad 6 de cálculo y control puede también controlar, como se describirá a continuación, la salida de datos desde el fotosensor 4, es decir, determinar los elementos de una imagen captada para los que se va a enviar información desde el fotosensor a la unidad de cálculo y control.
En las Figs. 3a y 3b se ve cómo los elementos de la fuente 3 de luz están colocados alrededor del fotosensor 4 para poder iluminar el ojo de dos maneras distintas, encendiendo o apagando los elementos emisores de luz del grupo interior o exterior. Una disposición de luz, que se ve en la Fig. 3, y en la que sólo están encendidos los elementos del grupo interior, causa un efecto de brillo de ojo fácilmente observable en la pupilas que son detectadas por el fotosensor, mientras que la otra disposición, que se muestra en la Fig. 3b y en la que sólo están encendidos los elementos del grupo exterior, causa reflejos en las córneas sin causar ningún efecto de brillo de ojo fácilmente observable.
Cuando la instalación de la Fig. 1 está funcionando, alterna entre las dos disposiciones de luz. La disposición (i) de luz es provista para determinar la dirección en la que un usuario está mirando. En la disposición (ii) de luz se determina la distancia de los ojos del usuario hasta el fotosensor. En ambas posiciones de ajuste de luz también se obtiene información acerca del sitio en el que están colocados el ojo u ojos del usuario, tal como se ve en el sistema de coordenadas bidimensional.
Cuando la instalación está en la disposición (i) de luz los elementos 3' interiores de la fuente 3 de luz, que están dispuestos coaxialmente con el campo de visión del fotosensor 4, están encendidos en la disposición que se muestra en la Fig.3a y crea un fuerte efecto de brillo de ojo en todas las pupilas dentro del campo de visión del fotosensor. En esta disposición de luz las tres fuentes 2 de luz colocadas sobre el monitor 1 están apagadas, es decir, sólo los elementos del grupo interior están encendidos. La imagen de una pupila dentro del campo visual del fotosensor 2 tendrá el aspecto con el que aparece en la Fig. 4a en la que la pupila 5, comparada con la Fig. 4b, está iluminada debido al efecto de brillo de ojo y el reflejo de la fuente 3 de luz en la córnea se ve como un reflejo 3'a en forma de punto. La imagen captada es analizada por la unidad 6 de cálculo y las líneas de demarcación son determinadas de acuerdo con la Fig. 4b. En la imagen captada para el efecto de brillo de ojo hay un contraste particularmente grande entre los campos de imagen que corresponden a la pupila y el iris, en comparación con la Fig. 5a que está captada usando una iluminación diferente, y por lo tanto la línea de demarcación entre esos dos campos puede ser calculada con una buena precisión. Esta línea de demarcación determinada con precisión delimita la pupila, y a partir de ella puede determinarse entonces el centro de la pupila, consecuentemente también con una buena precisión. Para la determinación del centro, como se ha mencionado anteriormente, puede adaptarse una elipsis a la línea de demarcación, lo cual es de particular importancia en el caso de que la pupila sea visible sólo parcialmente en la foto. Adicionalmente, se determinan en la imagen la posición de un reflejo 3'a y particularmente el centro del reflejo. Finalmente se calcula el vector desde el centro del reflejo 3'a hasta el centro de la pupila 5.
Para determinar la dirección de la mirada, es decir, la dirección en la cual está mirando el usuario, se usa el vector determinado de acuerdo a la descripción anterior. La dirección de este vector indica la dirección en la que el usuario está mirando, tomada desde el eje óptico de la cámara, y la magnitud del vector indica el ángulo en el que mira el usuario, también interpretado con relación al eje óptico de la cámara. Adicionalmente, el centro del reflejo 3'a provee información acerca de la posición del ojo del usuario vista en dos dimensiones.
Cuando el sistema está en la disposición (ii) de luz, los elementos 3'' del grupo exterior de la fuente 3 de luz, que es coaxial con el campo visual del fotosensor, se encuentran en la disposición de luz de acuerdo a la Fig. 3b, que no produce ningún efecto de brillo de ojo claramente observable. Al mismo tiempo las tres fuentes 2 de luz colocadas en el borde superior del monitor están encendidas en esta disposición de luz. La Fig. 5a ilustra cómo un ojo puede ser reflejado en el fotosensor 4 en esta disposición con un contraste relativamente bajo entre los campos de imagen que corresponden a diferentes porciones del ojo. También se analiza esta imagen para obtener líneas de demarcación, tal como se ilustra en la Fig. 5b, y la precisión de las lineas de demarcación determinadas de los campos correspondientes a diferentes porciones del ojo puede ser más baja que la de la linea que delimita la pupila de acuerdo a la Fig. 4b. Sin embargo, en la imagen de acuerdo a la Fig. 5b los diferentes reflejos aparecen muy claramente. En 3'b, véase la imagen analizada en la Fig. 5b, se ilustra por lo tanto el reflejo en la córnea de la fuente 3 de luz, que está encendida de acuerdo con el caso que aparece en la Fig. 3b, y en 2' se muestran los reflejos en la córnea de las fuentes 2 de luz colocadas en el extremo superior del monitor. Se determinan en la imagen las posiciones de, y las distancias entre, los diferentes reflejos y esta determinación puede ser hecha entonces con una buena precisión. Se evalúa el patrón de los cuatro reflejos, es decir, principalmente las posiciones de los diferentes reflejos en relación entre sí, para determinar la distancia del ojo al fotosensor 4. El tamaño del patrón formado por los cuatro reflejos en 2', 3'b depende particularmente de la distancia del ojo al fotosensor. Cuanto más lejos del fotosensor está situado el ojo, más pequeñas son las dimensiones del patrón. De esa manera se obtiene una medida de la distancia a la que está el monitor 1 del ojo del usuario. En este caso también se obtiene información bidimensional acerca del lugar en el que está colocado el ojo del usuario, a partir del reflejo de la fuente coaxial 3 de luz en 3'b.
Por lo tanto, cuando el sistema de la Fig. 1 está operativo, alterna entre la disposición (i) de luz y la disposición (ii) de luz. Se requiere información de estas dos posiciones de ajuste de luz para poder indicar la posición en un monitor al que está mirando un usuario. En la disposición (i) de luz se detecta la dirección de la mirada del usuario y en la disposición (ii) de luz se detecta la posición del usuario. En un usuario de ordenador los movimientos oculares son normalmente significativamente mucho más rápidos que los movimientos de la cabeza. Esto significa que es más importante tener información actualizada recientemente acerca del ángulo de mirada del usuario que acerca de la posición del usuario en la dirección de profundidad del fotosensor 4, para obtener una buena precisión en la determinación del punto del monitor al que está mirando un usuario. Ciertos experimentos indican que se obtiene un sistema que con una buena precisión cuando se analizan cuatro imágenes captadas en la disposición (i) de luz, por cada imagen captada en la posición (ii) de ajuste de luz. Para determinar el punto de mirada siempre se usa información de la última imagen captada en la disposición de luz (i) y de la última imagen captada en la disposición (ii) de luz.
En la Fig. 2 se ilustra esquemáticamente cómo la distancia entre las imágenes de los reflejos de dos fuentes de luz depende de la distancia de la superficie reflectante hasta las fuentes de luz y el detector, que supuestamente están localizados en el mismo plano. La distancia entre la superficie reflectante y el plano que pasa por las fuentes de luz es aproximadamente inversamente proporcional a la raíz cuadrada de la distancia entre las imágenes. Tal relación o una relación algo más exacta, como aparece en la Fig. 2, puede usarse, junto a los valores absolutos obtenidos en una calibración individual de la instalación de cada usuario, para dar una determinación de la distancia suficientemente precisa, por ejemplo, para controlar un cursor en el monitor cuando la cabeza del usuario está moviéndose.
El fotosensor usado en la instalación descrita anteriormente es del tipo de alta resolución. De esta manera se permite al usuario tener una mayor movilidad de la cabeza sin producir una degradación en la precisión. Para reducir la carga en la unidad de cálculo y aumentar la velocidad de muestreo del sistema, no se usan datos del fotosensor más que cuando es necesario. La unidad de cálculo usa información acerca de las posiciones en que se han encontrado los ojos en fotos anteriores para seleccionar la porción de la superficie sensible a la luz del fotosensor que vaya a exponerse antes de captar cada nueva imagen que va a usarse, o en cada nueva imagen, y controla el fotosensor de acuerdo a la misma. Si se encuentran los ojos del usuario en la imagen precedente sólo se usa una pequeña porción de los elementos de imagen de la superficie sensible a la luz del fotosensor. Sólo en el caso de no haberse encontrado ningún ojo se usan los datos de todos los elementos de imagen de la superficie sensible a la luz, o en algún caso los datos que representen toda la superficie de imagen, obtenidos, por ejemplo, por una baja operación de muestreo de datos de todo el área de imagen. De esa manera se obtiene un sistema que es relativamente lento en la detección de los ojos y de la distancia de los ojos en la dirección en profundidad, pero que puede seguir los ojos y en particular la dirección de la mirada a una gran velocidad una vez que se han encontrado los ojos.
Un ojo tiene características físicas únicas que, junto a la posición del ojo y la dirección de la mirada, controlan qué aspecto tendrá una imagen, como se muestra en las Fig. 4a o 5a. Para poder determinar la posición a la que una persona está mirando a partir de los datos que pueden obtenerse de estas imágenes, el sistema puede calibrarse individualmente, si se requiere, para la persona que está sentada enfrente del monitor. Adicionalmente el sistema ha de saber cuál es cada ojo, es decir, si las líneas de demarcación calculadas de acuerdo a las Figs. 4b y 5b están asociadas al ojo izquierdo o al derecho del usuario.
Cuando los dos ojos de un usuario son visibles para el fotosensor 4 es fácil decir qué ojo es el izquierdo y qué ojo es el derecho, pero en el caso en que sólo se haya encontrado un ojo se requiere otro procedimiento para determinar qué ojo es. Tal procedimiento se describirá a continuación y las diferentes etapas del mismo están también ilustradas en el diagrama de secuencias de la Fig. 6.
En la Fig. 7 se muestra un diagrama de secuencias de las distintas etapas que se llevan a cabo para determinar y seguir los ojos y la dirección de la mirada de una persona. En una primera etapa 71 se capta una imagen con la iluminación en la disposición (i) de luz, es decir cuando sólo los elementos 3' están encendidos. Se determinan en la imagen las pupilas, es decir sus lineas de demarcación, y los descartes de la fuente de luz. En el siguiente bloque 73 se ejecuta el procedimiento de acuerdo a la Fig. 6 para determinar cuál es cada ojo. Entonces en la etapa 75 se decide si se han encontrado dos ojos en la imagen. Si es así, se ejecuta un bloque 77 en el que se capta una imagen con la iluminación en la disposición (ii), es decir con los elementos 3'' encendidos y los diodos 2 activados. De esta imagen sólo se envía información a la unidad 6 acerca de las áreas alrededor de los ojos. Se determinan los reflejos y por tanto las imágenes de los ojos en la imagen. A continuación, en un bloque 79 se ejecuta nuevamente el procedimiento de acuerdo a la Fig. 6 para determinar cuál es cada ojo. En la siguiente etapa 83 se lleva a cabo en la unidad 6 un cálculo del punto observado por los ojos. Entonces se ejecuta un bloque 85 en el que se capta una imagen con la iluminación en la disposición (i) de luz, es decir con sólo los elementos 3' encendidos. De la imagen captada sólo se transmite información a la unidad 6 de las áreas alrededor de los ojos encontrados. Se determinan las pupilas y los reflejos de la fuente de luz a partir de la información de imagen restringida, de la misma manera que en la etapa 71. Entonces en un bloque 87 se ejecuta otra vez el procedimiento de acuerdo a la Fig. 6 para determinar cuál es cada ojo. En la siguiente etapa 89 se decide si se han encontrado dos ojos en la imagen. De ser así, en un bloque 91 se ejecuta un cálculo del punto observado o mirado por los ojos, de la misma manera que en el bloque 83. A continuación en un bloque 93 se decide si las últimas cuatro imágenes captadas fueron captadas con la iluminación en la disposición (ii) de luz. De no ser así, se ejecuta otra vez el bloque 85 y de lo contrario el bloque 77. Si se determina en cualquiera de los bloques 75, 81 y 89 que no se han encontrado dos ojos se ejecuta otra vez el bloque 71.
Aunque se han descrito e ilustrado realizaciones específicas de la invención, se reconoce que a los expertos en la técnica se les ocurrirán fácilmente numerosas ventajas adicionales, modificaciones y cambios. Por lo tanto, la invención en sus aspectos más amplios no está limitada a los detalles específicos, dispositivos representativos y ejemplos ilustrados, mostrados y descritos aquí. En consecuencia, pueden hacerse diversas modificaciones sin alejarse del alcance de la invención tal como está definido por las reivindicaciones adjuntas.

Claims (10)

  1. \global\parskip0.960000\baselineskip
    1. Una instalación para la detección de ojos que comprende:
    una o más fuentes (2, 3) de luz para emitir luz en direcciones hacia la cabeza de un usuario,
    un detector (4) para recibir luz desde la cabeza de un usuario y para captar repetidamente imágenes de la misma, y
    una unidad (6) de evaluación conectada al detector (4) para determinar la posición y/o dirección de mirada de un ojo, y dispuesta para determinar, en una imagen captada por el detector (4), un área en la que estén localizadas una imagen de un ojo o unas imágenes de ojos.
    caracterizada porque
    la unidad (6) de evaluación está dispuesta para, tras haber determinado el área, controlar el detector (4) para enviar a la unidad (6) de evaluación la información acerca de las imágenes sucesivas que sólo corresponde al área determinada de la imagen captada por el detector (4), y
    el detector (4) está dispuesto para leer información únicamente de la porción de la superficie del detector (4) que corresponde al área determinada, y por lo tanto los datos que luego han de ser enviados a la unidad (6) de evaluación.
  2. 2. La instalación de detección de ojos de acuerdo a la reivindicación 1, caracterizada porque en el caso en que la unidad (6) de evaluación no pueda ejecutar la determinación a partir de la información enviada, esté dispuesta la unidad (6) de evaluación para controlar el detector (4) para que envíe, de la siguiente imagen, información acerca de una porción mayor del detector (4) alrededor del área determinada previamente.
  3. 3. La instalación de detección de ojos de acuerdo a cualquiera de las reivindicaciones 1 ó 2, caracterizada porque la unidad (6) de evaluación está dispuesta:
    para decidir dentro de una imagen actual captada por el detector (4) si la imagen contiene imágenes de los dos ojos de un usuario, y
    en el caso en que la unidad (6) de evaluación decida que existe una imagen de sólo un ojo en la imagen actual, para determinar que este ojo tiene una posición en la imagen actual que es suficientemente cercana a la posición de la imagen del ojo en la imagen captada anteriormente.
  4. 4. La instalación de detección de ojos de acuerdo a la reivindicación 3, caracterizada porque en el caso en que la unidad (6) de evaluación decida que existe una imagen de sólo un ojo en la imagen actual, que la posición de la imagen del ojo en la imagen actual no corresponde o no está suficientemente cercana a la posición de cualquier ojo en una o más imágenes captadas previamente, y que la posición de la imagen del ojo en la imagen actual es tal que la distancia lateral desde un extremo de la imagen actual es menor que una distancia correspondiente a la distancia entre los ojos del usuario, pero la distancia lateral desde el otro extremo es mayor, la unidad (6) de evaluación está dispuesta para considerar al ojo, del que existe una imagen en la imagen actual, como el ojo que significa que una imagen del otro ojo del usuario estaría localizada fuera de la imagen actual.
  5. 5. La instalación de detección de ojos de acuerdo a cualquiera de las reivindicaciones 1 a 4, caracterizada porque
    al menos dos fuentes (2, 3) de luz se proveen y son colocadas a una distancia entre sí para emitir al menos dos rayos de luz que se reflejen en la córnea de un ojo de un usuario, y
    la unidad (6) de evaluación está dispuesta para usar las posiciones de las imágenes de los reflejos de las fuentes (2, 3) de luz en una imagen captada para determinar la localización del ojo con respecto al detector (4).
  6. 6. La instalación de detección de ojos de acuerdo a la reivindicación 5, caracterizada porque la unidad (6) de evaluación está dispuesta para determinar en una imagen captada la distancia entre las imágenes de los reflejos de las fuentes (2, 3) de luz para determinar a partir de ahí la distancia del ojo al detector.
  7. 7. La instalación de detección de ojos de acuerdo con la reivindicación 5, caracterizada porque se proveen al menos tres fuentes (2, 3) de luz en un patrón definido, estando la unidad (6) de evaluación dispuesta para determinar las posiciones de las imágenes de los reflejos de las fuentes (2, 3) de luz y para usar todas las posiciones determinadas para determinar la localización del ojo con respecto al detector (4).
  8. 8. La instalación de detección de ojos de acuerdo con la reivindicación 5, caracterizada porque las fuentes (2, 3) de luz están divididas en grupos, un primer grupo (3) que está dispuesto para emitir luz adecuada para determinar, en imágenes captadas sólo con iluminación de este grupo (3), la dirección de mirada del ojo, y un segundo grupo (2) que está dispuesto para emitir luz adecuada para determinar, en imágenes captadas sólo con iluminación de este grupo (2), la distancia del ojo al detector (4), estando la unidad de control dispuesta para encender bien uno o ambos de estos grupos al captar cada imagen.
    \global\parskip1.000000\baselineskip
  9. 9. La instalación de detección de ojos de acuerdo a la reivindicación 5, caracterizada porque una de las fuentes (2, 3) de luz está dispuesta para emitir luz en un rayo de luz coaxial con el eje óptico del detector (4).
  10. 10. La instalación de detección de ojos de acuerdo a la reivindicación 5, caracterizada porque las fuentes (2, 3) de luz están divididas en dos grupos, un primer grupo (3) que se ha dispuesto para emitir luz que causa un efecto de brillo de ojo y por lo tanto es adecuado para determinar, a partir de imágenes captadas sólo con iluminación de este grupo (3), la dirección de mirada del ojo, y un segundo grupo (2) que se ha dispuesto para emitir luz adecuada para determinar, a partir de imágenes captadas sólo con iluminación de este grupo(2), la distancia del ojo al detector (4), estando dispuesta la unidad de control para activar bien uno o ambos de estos grupos captados en cada imagen.
ES03776116T 2002-11-21 2003-11-21 Instalacion para ver y seguir un ojo y la direccion de la mirada del mismo. Expired - Lifetime ES2327633T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
SE0203457A SE524003C2 (sv) 2002-11-21 2002-11-21 Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel
SE2002103457 2002-11-21

Publications (1)

Publication Number Publication Date
ES2327633T3 true ES2327633T3 (es) 2009-11-02

Family

ID=20289646

Family Applications (1)

Application Number Title Priority Date Filing Date
ES03776116T Expired - Lifetime ES2327633T3 (es) 2002-11-21 2003-11-21 Instalacion para ver y seguir un ojo y la direccion de la mirada del mismo.

Country Status (12)

Country Link
US (1) US7572008B2 (es)
EP (1) EP1562469B1 (es)
JP (2) JP4783018B2 (es)
CN (1) CN100421614C (es)
AT (1) ATE432038T1 (es)
AU (1) AU2003284816A1 (es)
DE (1) DE60327798D1 (es)
DK (1) DK1562469T3 (es)
ES (1) ES2327633T3 (es)
PT (1) PT1562469E (es)
SE (1) SE524003C2 (es)
WO (1) WO2004045399A1 (es)

Families Citing this family (208)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7963652B2 (en) 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
EP1691670B1 (en) * 2003-11-14 2014-07-16 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
JP4500992B2 (ja) * 2004-01-14 2010-07-14 国立大学法人静岡大学 三次元視点計測装置
ZA200608191B (en) * 2004-04-01 2008-07-30 William C Torch Biosensors, communicators, and controllers monitoring eye movement and methods for using them
US10039445B1 (en) 2004-04-01 2018-08-07 Google Llc Biosensors, communicators, and controllers monitoring eye movement and methods for using them
US7322696B2 (en) * 2004-04-19 2008-01-29 Shamir Optical Industry Customized lens, and system and method of producing thereof
DK1607840T3 (da) 2004-06-18 2015-02-16 Tobii Technology Ab Øjenstyring af et computerapparat
CN1293446C (zh) * 2005-06-02 2007-01-03 北京中星微电子有限公司 一种非接触式目控操作系统和方法
EP1928296B1 (en) 2005-09-27 2011-05-04 Penny AB A device for controlling an external unit
JP2009512009A (ja) 2005-10-10 2009-03-19 トビイ テクノロジー アーベー 広範囲の動作距離を有するアイトラッカー
CN101336089A (zh) * 2006-01-26 2008-12-31 诺基亚公司 眼睛跟踪器设备
WO2007101690A1 (en) * 2006-03-09 2007-09-13 Tobii Technology Ab Eye determination apparatus
US8775252B2 (en) 2006-05-04 2014-07-08 National Ict Australia Limited Electronic media system
US8197539B2 (en) 2006-05-05 2012-06-12 University Of Southern California Intraocular camera for retinal prostheses
US20080147488A1 (en) * 2006-10-20 2008-06-19 Tunick James A System and method for monitoring viewer attention with respect to a display and determining associated charges
KR100850357B1 (ko) * 2006-12-06 2008-08-04 한국전자통신연구원 시선 위치 추적 방법 및 그 장치
ES2316272B1 (es) * 2007-02-16 2009-11-30 Iriscom Sistemas, S.L . Sistema de seguimiento ocular para el gobierno de un ordenador.
GB0709405D0 (en) * 2007-05-16 2007-06-27 Univ Edinburgh Testing vision
CA2685976C (en) 2007-05-23 2013-02-19 The University Of British Columbia Methods and apparatus for estimating point-of-gaze in three dimensions
DE102008006090A1 (de) 2008-01-25 2009-07-30 Claudius Zelenka Verfahren zur störungsfreien Erkennung der Position der Augen
US8494229B2 (en) 2008-02-14 2013-07-23 Nokia Corporation Device and method for determining gaze direction
JP5163982B2 (ja) * 2008-06-16 2013-03-13 国立大学法人神戸大学 視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ
TWI432172B (zh) * 2008-10-27 2014-04-01 Utechzone Co Ltd Pupil location method, pupil positioning system and storage media
US20100118199A1 (en) * 2008-11-10 2010-05-13 Kabushiki Kaisha Toshiba Video/Audio Processor and Video/Audio Processing Method
WO2010083853A1 (en) * 2009-01-26 2010-07-29 Tobii Technology Ab Detection of gaze point assisted by optical reference signals
CN101807110B (zh) * 2009-02-17 2012-07-04 由田新技股份有限公司 瞳孔定位方法及系统
EP2238889B1 (en) 2009-04-01 2011-10-12 Tobii Technology AB Adaptive camera and illuminator eyetracker
WO2010118292A1 (en) * 2009-04-09 2010-10-14 Dynavox Systems, Llc Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods
US8320623B2 (en) * 2009-06-17 2012-11-27 Lc Technologies, Inc. Systems and methods for 3-D target location
US9507418B2 (en) 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
TWI497247B (zh) * 2010-01-28 2015-08-21 Chi Mei Comm Systems Inc 實現亮度調節的資料處理設備及方法
US20110205148A1 (en) * 2010-02-24 2011-08-25 Corriveau Philip J Facial Tracking Electronic Reader
JP5529660B2 (ja) * 2010-07-20 2014-06-25 パナソニック株式会社 瞳孔検出装置及び瞳孔検出方法
US9760123B2 (en) 2010-08-06 2017-09-12 Dynavox Systems Llc Speech generation device with a projected display and optical inputs
KR20120057033A (ko) * 2010-11-26 2012-06-05 한국전자통신연구원 Iptv 제어를 위한 원거리 시선 추적 장치 및 방법
US9185352B1 (en) 2010-12-22 2015-11-10 Thomas Jacques Mobile eye tracking system
US20120244935A1 (en) * 2011-03-24 2012-09-27 International Business Machines Corporation Synchronizing game character display with game player viewing detection
US8911087B2 (en) 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils
US8885877B2 (en) 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
US8885882B1 (en) 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
US20130033524A1 (en) * 2011-08-02 2013-02-07 Chin-Han Wang Method for performing display control in response to eye activities of a user, and associated apparatus
JP5912351B2 (ja) 2011-09-05 2016-04-27 国立大学法人浜松医科大学 自閉症診断支援システム及び自閉症診断支援装置
WO2013036621A1 (en) * 2011-09-09 2013-03-14 Thales Avionics, Inc. Controlling vehicle entertainment systems responsive to sensed passenger gestures
JP5661942B2 (ja) * 2011-10-06 2015-01-28 本田技研工業株式会社 警報装置
EP2587341B1 (en) 2011-10-27 2017-01-04 Tobii AB Power management in an eye-tracking system
US8976110B2 (en) 2011-10-27 2015-03-10 Tobii Technology Ab Power management in an eye-tracking system
EP2587342A1 (en) 2011-10-28 2013-05-01 Tobii Technology AB Method and system for user initiated query searches based on gaze data
US9071740B1 (en) 2011-10-28 2015-06-30 Google Inc. Modular camera system
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US8860660B2 (en) 2011-12-29 2014-10-14 Grinbath, Llc System and method of determining pupil center position
US9910490B2 (en) 2011-12-29 2018-03-06 Eyeguide, Inc. System and method of cursor position control based on the vestibulo-ocular reflex
CN102436306A (zh) * 2011-12-30 2012-05-02 四川虹欧显示器件有限公司 3d显示系统的控制方法和装置
US10394320B2 (en) 2012-01-04 2019-08-27 Tobii Ab System for gaze interaction
US10540008B2 (en) 2012-01-04 2020-01-21 Tobii Ab System for gaze interaction
US10025381B2 (en) 2012-01-04 2018-07-17 Tobii Ab System for gaze interaction
US10488919B2 (en) 2012-01-04 2019-11-26 Tobii Ab System for gaze interaction
US10013053B2 (en) 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
US9197686B1 (en) 2012-01-06 2015-11-24 Google Inc. Backfill of video stream
DE102012003283A1 (de) 2012-02-20 2013-08-22 4tiitoo AG Verfahren und Vorrichtung zur blickgestützten Steuerung
JP5926210B2 (ja) 2012-03-21 2016-05-25 国立大学法人浜松医科大学 自閉症診断支援システム及び自閉症診断支援装置
EP2696259B1 (en) 2012-08-09 2021-10-13 Tobii AB Fast wake-up in a gaze tracking system
US9575960B1 (en) * 2012-09-17 2017-02-21 Amazon Technologies, Inc. Auditory enhancement using word analysis
JP6056323B2 (ja) 2012-09-24 2017-01-11 富士通株式会社 視線検出装置、視線検出用コンピュータプログラム
US20140085198A1 (en) 2012-09-26 2014-03-27 Grinbath, Llc Correlating Pupil Position to Gaze Location Within a Scene
EP2712541B1 (en) 2012-09-27 2015-12-30 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Tiled image based scanning for head and/or eye position for eye tracking
CN103777861A (zh) * 2012-10-23 2014-05-07 韩国电子通信研究院 终端和用于在终端中控制触摸操作的方法
US20140139556A1 (en) * 2012-11-22 2014-05-22 Shanghai Powermo Information Tech. Co. Ltd. Apparatus and method for displaying software keyboards thereof
KR101417433B1 (ko) * 2012-11-27 2014-07-08 현대자동차주식회사 눈동자의 움직임을 이용한 사용자 인증 장치 및 그 방법
US9612656B2 (en) 2012-11-27 2017-04-04 Facebook, Inc. Systems and methods of eye tracking control on mobile device
US10528135B2 (en) 2013-01-14 2020-01-07 Ctrl-Labs Corporation Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display
US9921648B2 (en) * 2013-02-22 2018-03-20 University Of Seoul Industry Cooperation Foundation Apparatuses, methods and recording medium for control portable communication terminal and its smart watch
US20140247210A1 (en) 2013-03-01 2014-09-04 Tobii Technology Ab Zonal gaze driven interaction
US20140247208A1 (en) 2013-03-01 2014-09-04 Tobii Technology Ab Invoking and waking a computing device from stand-by mode based on gaze detection
US9864498B2 (en) 2013-03-13 2018-01-09 Tobii Ab Automatic scrolling based on gaze detection
US9898081B2 (en) 2013-03-04 2018-02-20 Tobii Ab Gaze and saccade based graphical manipulation
US10082870B2 (en) 2013-03-04 2018-09-25 Tobii Ab Gaze and saccade based graphical manipulation
US10895908B2 (en) 2013-03-04 2021-01-19 Tobii Ab Targeting saccade landing prediction using visual history
US11714487B2 (en) 2013-03-04 2023-08-01 Tobii Ab Gaze and smooth pursuit based continuous foveal adjustment
US9665171B1 (en) 2013-03-04 2017-05-30 Tobii Ab Gaze and saccade based graphical manipulation
GB2511868B (en) * 2013-03-15 2020-07-15 Tobii Ab Eye/gaze tracker and method of tracking the position of an eye and/or a gaze point of a subject
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US10188309B2 (en) 2013-11-27 2019-01-29 North Inc. Systems, articles, and methods for electromyography sensors
EP3036620B1 (en) 2013-08-23 2017-03-29 Tobii AB Systems and methods for providing audio to a user based on gaze input
US9143880B2 (en) 2013-08-23 2015-09-22 Tobii Ab Systems and methods for providing audio to a user based on gaze input
KR101882594B1 (ko) 2013-09-03 2018-07-26 토비 에이비 휴대용 눈 추적 디바이스
US10686972B2 (en) 2013-09-03 2020-06-16 Tobii Ab Gaze assisted field of view control
US10310597B2 (en) 2013-09-03 2019-06-04 Tobii Ab Portable eye tracking device
CN106062665B (zh) * 2013-09-11 2019-05-17 深圳市汇顶科技股份有限公司 基于用户的眼睛运动和位置的光学感测和跟踪的用户界面
US10142553B2 (en) 2013-09-16 2018-11-27 Intel Corporation Camera and light source synchronization for object tracking
KR101503159B1 (ko) * 2013-10-15 2015-03-16 (주)이스트소프트 시선의 위치를 감지하여 터치스크린을 제어하는 방법
JP6165979B2 (ja) * 2013-11-01 2017-07-19 インテル コーポレイション 注視補助型タッチスクリーン入力
KR101470243B1 (ko) * 2013-11-15 2014-12-05 현대자동차주식회사 시선 검출 장치 및 그 시선 검출 방법
US10317995B2 (en) 2013-11-18 2019-06-11 Tobii Ab Component determination and gaze provoked interaction
US10558262B2 (en) 2013-11-18 2020-02-11 Tobii Ab Component determination and gaze provoked interaction
US9817474B2 (en) 2014-01-24 2017-11-14 Tobii Ab Gaze driven interaction for a vehicle
DE102015202846B4 (de) 2014-02-19 2020-06-25 Magna Electronics, Inc. Fahrzeugsichtsystem mit Anzeige
US10409366B2 (en) 2014-04-28 2019-09-10 Adobe Inc. Method and apparatus for controlling display of digital content using eye movement
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
US9874744B2 (en) 2014-06-25 2018-01-23 Thalmic Labs Inc. Systems, devices, and methods for wearable heads-up displays
US9411417B2 (en) 2014-07-07 2016-08-09 Logitech Europe S.A. Eye gaze tracking system and method
US9678567B2 (en) 2014-07-16 2017-06-13 Avaya Inc. Indication of eye tracking information during real-time communications
GB2528446B (en) 2014-07-21 2021-08-04 Tobii Tech Ab Method and apparatus for detecting and following an eye and/or the gaze direction thereof
US20170231058A1 (en) * 2014-08-04 2017-08-10 Innosys, Inc. Lighting Systems
US9952883B2 (en) 2014-08-05 2018-04-24 Tobii Ab Dynamic determination of hardware
CN106922182B (zh) * 2014-11-14 2020-01-24 依视路国际公司 确定眼睛的显著点的位置和跟踪眼镜配戴者的注视方向的设备和方法
US9405120B2 (en) 2014-11-19 2016-08-02 Magna Electronics Solutions Gmbh Head-up display and vehicle using the same
US10242379B2 (en) 2015-01-30 2019-03-26 Adobe Inc. Tracking visual gaze information for controlling content display
EP3051386A1 (en) 2015-01-30 2016-08-03 4tiitoo GmbH Eye tracking system and method
KR20170139509A (ko) 2015-02-17 2017-12-19 탈믹 랩스 인크 웨어러블 헤드-업 디스플레이 내의 아이박스 확장을 위한 시스템, 장치, 및 방법
US10621431B2 (en) * 2015-03-27 2020-04-14 Lenovo (Singapore) Pte. Ltd. Camera that uses light from plural light sources disposed on a device
GB201507224D0 (en) * 2015-04-28 2015-06-10 Microsoft Technology Licensing Llc Eye gaze correction
US10197805B2 (en) 2015-05-04 2019-02-05 North Inc. Systems, devices, and methods for eyeboxes with heterogeneous exit pupils
US9544485B2 (en) 2015-05-27 2017-01-10 Google Inc. Multi-mode LED illumination system
AU2016267275B2 (en) 2015-05-28 2021-07-01 Google Llc Systems, devices, and methods that integrate eye tracking and scanning laser projection in wearable heads-up displays
US9454820B1 (en) 2015-06-12 2016-09-27 Google Inc. Using a scene illuminating infrared emitter array in a video monitoring camera for depth determination
US9554063B2 (en) 2015-06-12 2017-01-24 Google Inc. Using infrared images of a monitored scene to identify windows
US9235899B1 (en) 2015-06-12 2016-01-12 Google Inc. Simulating an infrared emitter array in a video monitoring camera to construct a lookup table for depth determination
US9386230B1 (en) 2015-06-12 2016-07-05 Google Inc. Day and night detection based on one or more of illuminant detection, lux level detection, and tiling
US9886620B2 (en) * 2015-06-12 2018-02-06 Google Llc Using a scene illuminating infrared emitter array in a video monitoring camera to estimate the position of the camera
JP6582604B2 (ja) * 2015-06-23 2019-10-02 富士通株式会社 瞳孔検出プログラム、瞳孔検出方法、瞳孔検出装置および視線検出システム
EP3345021A4 (en) 2015-09-04 2019-05-08 North Inc. SYSTEMS, ARTICLES AND METHOD FOR INTEGRATING HOLOGRAPHIC OPTICAL ELEMENTS IN GLASS GLASSES
US10016130B2 (en) 2015-09-04 2018-07-10 University Of Massachusetts Eye tracker system and methods for detecting eye parameters
US10061383B1 (en) 2015-09-16 2018-08-28 Mirametrix Inc. Multi-feature gaze tracking system and method
WO2017059285A1 (en) 2015-10-01 2017-04-06 Thalmic Labs Inc. Systems, devices, and methods for interacting with content displayed on head-mounted displays
US9904051B2 (en) * 2015-10-23 2018-02-27 Thalmic Labs Inc. Systems, devices, and methods for laser eye tracking
TWI627438B (zh) * 2015-11-12 2018-06-21 柯尼卡美能達股份有限公司 鏡頭單元、攝像裝置及行動機器
US10324297B2 (en) 2015-11-30 2019-06-18 Magna Electronics Inc. Heads up display system for vehicle
CN105528577B (zh) * 2015-12-04 2019-02-12 深圳大学 基于智能眼镜的识别方法
US10802190B2 (en) 2015-12-17 2020-10-13 Covestro Llc Systems, devices, and methods for curved holographic optical elements
US9785234B2 (en) 2015-12-26 2017-10-10 Intel Corporation Analysis of ambient light for gaze tracking
WO2017113018A1 (en) 2015-12-31 2017-07-06 Mirametrix Inc. System and apparatus for gaze tracking
EP3187976A3 (en) 2015-12-31 2017-09-13 Tobii AB System for gaze interaction
US10303246B2 (en) 2016-01-20 2019-05-28 North Inc. Systems, devices, and methods for proximity-based eye tracking
US10151926B2 (en) 2016-01-29 2018-12-11 North Inc. Systems, devices, and methods for preventing eyebox degradation in a wearable heads-up display
CN105763810B (zh) * 2016-03-28 2019-04-16 努比亚技术有限公司 基于人眼的拍照装置及方法
JP2017182739A (ja) * 2016-03-31 2017-10-05 富士通株式会社 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
US10594974B2 (en) 2016-04-07 2020-03-17 Tobii Ab Image sensor for vision based on human computer interaction
EP3440831B1 (en) 2016-04-07 2020-11-18 Tobii AB Mage sensor for computer vision based human computer interaction
KR20180132854A (ko) 2016-04-13 2018-12-12 탈믹 랩스 인크 레이저 프로젝터를 집속하기 위한 시스템, 장치 및 방법
US10401621B2 (en) 2016-04-19 2019-09-03 Magna Electronics Inc. Display unit for vehicle head-up display system
CN107305629A (zh) * 2016-04-21 2017-10-31 王溯 目光识别装置及方法
WO2020112986A1 (en) 2018-11-27 2020-06-04 Facebook Technologies, Inc. Methods and apparatus for autocalibration of a wearable electrode sensor system
US20190121306A1 (en) 2017-10-19 2019-04-25 Ctrl-Labs Corporation Systems and methods for identifying biological structures associated with neuromuscular source signals
EP3490433B1 (en) * 2016-07-27 2023-03-08 Tobii AB Wearable device having a display, lens, illuminator, and image sensor
US10277874B2 (en) 2016-07-27 2019-04-30 North Inc. Systems, devices, and methods for laser projectors
US10459221B2 (en) 2016-08-12 2019-10-29 North Inc. Systems, devices, and methods for variable luminance in wearable heads-up displays
US10372591B2 (en) 2016-09-07 2019-08-06 International Business Machines Corporation Applying eye trackers monitoring for effective exploratory user interface testing
CN112445339A (zh) 2016-09-20 2021-03-05 托比股份公司 基于注视和扫视的图形操纵
WO2018064141A1 (en) 2016-09-27 2018-04-05 Tobii Ab Portable eye tracking device
US10180615B2 (en) 2016-10-31 2019-01-15 Google Llc Electrochromic filtering in a camera
US10215987B2 (en) 2016-11-10 2019-02-26 North Inc. Systems, devices, and methods for astigmatism compensation in a wearable heads-up display
US10459220B2 (en) 2016-11-30 2019-10-29 North Inc. Systems, devices, and methods for laser eye tracking in wearable heads-up displays
US10663732B2 (en) 2016-12-23 2020-05-26 North Inc. Systems, devices, and methods for beam combining in wearable heads-up displays
US10437073B2 (en) 2017-01-25 2019-10-08 North Inc. Systems, devices, and methods for beam combining in laser projectors
WO2018156912A1 (en) 2017-02-27 2018-08-30 Tobii Ab System for gaze interaction
EP3545388A4 (en) * 2017-03-21 2020-07-08 Hewlett-Packard Development Company, L.P. ESTIMATES WITHIN DISPLAYS
US10460527B2 (en) * 2017-06-30 2019-10-29 Tobii Ab Systems and methods for displaying images in a virtual world environment
US10521661B2 (en) 2017-09-01 2019-12-31 Magic Leap, Inc. Detailed eye shape model for robust biometric applications
EP4011274A1 (en) 2017-09-08 2022-06-15 Tobii AB Eye tracking using eyeball center position
US11300788B2 (en) 2017-10-23 2022-04-12 Google Llc Free space multiple laser diode modules
US20240187738A1 (en) * 2017-12-28 2024-06-06 Tobii Ab Exposure time control
CN108256910A (zh) * 2018-01-10 2018-07-06 京东方科技集团股份有限公司 内容推荐方法、装置及电子设备
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US10459237B2 (en) 2018-02-01 2019-10-29 Dell Products L.P. System, head mounted device (HMD) and method for adjusting a position of an HMD worn by a user
US10342425B1 (en) 2018-03-28 2019-07-09 Tobii Ab Method and system for controlling illuminators
WO2019185136A1 (en) 2018-03-28 2019-10-03 Tobii Ab Method and system for controlling illuminators
US10705604B2 (en) * 2018-05-22 2020-07-07 Htc Corporation Eye tracking apparatus and light source control method thereof
US10324529B1 (en) 2018-05-31 2019-06-18 Tobii Ab Method and system for glint/reflection identification
US10288879B1 (en) 2018-05-31 2019-05-14 Tobii Ab Method and system for glint/reflection identification
EP3801196B1 (en) 2018-05-31 2022-06-01 Tobii AB Method and system for glint/reflection identification
CN108762511B (zh) * 2018-06-14 2020-08-25 北京七鑫易维信息技术有限公司 一种光源控制方法及装置
CN110740246A (zh) * 2018-07-18 2020-01-31 阿里健康信息技术有限公司 一种图像矫正方法、移动设备和终端设备
CN110850594B (zh) * 2018-08-20 2022-05-17 余姚舜宇智能光学技术有限公司 头戴式可视设备及用于头戴式可视设备的眼球追踪系统
US11353952B2 (en) * 2018-11-26 2022-06-07 Tobii Ab Controlling illuminators for optimal glints
US10885882B2 (en) 2018-12-06 2021-01-05 Tobii Ab Reducing aliasing artifacts in foveated rendering using cross-resolution modulation
US10775885B2 (en) 2019-02-15 2020-09-15 Dell Products L.P. Information handling system and method to improve the accuracy of eye tracking data generated by an eye tracking system
US11644897B2 (en) 2019-04-01 2023-05-09 Evolution Optiks Limited User tracking system using user feature location and method, and digital display device and digital image rendering system and method using same
WO2020201999A2 (en) 2019-04-01 2020-10-08 Evolution Optiks Limited Pupil tracking system and method, and digital display device and digital image rendering system and method using same
US10712817B1 (en) 2019-06-27 2020-07-14 Tobii Ab Image re-projection for foveated rendering
CN114041101A (zh) * 2019-07-11 2022-02-11 惠普发展公司,有限责任合伙企业 用于显示器的眼睛跟踪
US11545131B2 (en) * 2019-07-16 2023-01-03 Microsoft Technology Licensing, Llc Reading order system for improving accessibility of electronic content
CN110251799B (zh) * 2019-07-26 2021-07-20 深圳市康宁医院(深圳市精神卫生研究所、深圳市精神卫生中心) 神经反馈治疗仪
US10788893B1 (en) 2019-08-06 2020-09-29 Eyetech Digital Systems, Inc. Computer tablet augmented with internally integrated eye-tracking camera assembly
US10842430B1 (en) 2019-09-12 2020-11-24 Logitech Europe S.A. Eye fatigue detection using visual imaging
US11322113B2 (en) 2019-09-12 2022-05-03 Logitech Europe S.A. Techniques for eye fatigue mitigation
CN112578556B (zh) 2019-09-27 2023-02-21 托比股份公司 用于减少来自光学装置的不合需的反射的眼睛跟踪系统
KR20210038782A (ko) 2019-09-30 2021-04-08 삼성디스플레이 주식회사 전자 장치
WO2021073743A1 (en) 2019-10-17 2021-04-22 Huawei Technologies Co., Ltd. Determining user input based on hand gestures and eye tracking
CN112949370A (zh) 2019-12-10 2021-06-11 托比股份公司 眼睛事件检测
US10928904B1 (en) * 2019-12-31 2021-02-23 Logitech Europe S.A. User recognition and gaze tracking in a video system
US11163995B2 (en) 2019-12-31 2021-11-02 Logitech Europe S.A. User recognition and gaze tracking in a video system
US10685748B1 (en) 2020-02-12 2020-06-16 Eyetech Digital Systems, Inc. Systems and methods for secure processing of eye tracking data
US11921917B2 (en) 2020-04-07 2024-03-05 Eyetech Digital Systems, Inc. Compact eye-tracking camera systems and methods
US10996753B1 (en) * 2020-04-07 2021-05-04 Eyetech Digital Systems, Inc. Multi-mode eye-tracking with independently operable illuminators
CN111700586B (zh) * 2020-07-01 2023-09-29 业成科技(成都)有限公司 眼动追踪装置及应用其的电子装置
SE544921C2 (en) 2020-08-27 2023-01-03 Tobii Ab Eye tracking system
US20230333640A1 (en) * 2020-09-22 2023-10-19 Sterling Labs Llc Multiple gaze dependent illumination sources for retinal eye tracking
SE2051433A1 (en) 2020-12-08 2022-06-09 Tobii Ab Method and system for glint classification
US11593962B2 (en) 2020-12-29 2023-02-28 Tobii Ab Eye gaze tracking system, associated methods and computer programs
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
US11503998B1 (en) 2021-05-05 2022-11-22 Innodem Neurosciences Method and a system for detection of eye gaze-pattern abnormalities and related neurological diseases
US12002290B2 (en) 2022-02-25 2024-06-04 Eyetech Digital Systems, Inc. Systems and methods for hybrid edge/cloud processing of eye-tracking image data
US11995232B1 (en) 2022-12-09 2024-05-28 Shopify Inc. Systems and methods for responsive user interface based on gaze depth
CN115836837B (zh) * 2023-02-20 2023-05-02 潍坊医学院附属医院 眼科检测装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2739331B2 (ja) * 1988-11-16 1998-04-15 株式会社エイ・ティ・アール通信システム研究所 非接触視線検出装置
JP2541688B2 (ja) * 1990-05-21 1996-10-09 日産自動車株式会社 眼位置検出装置
JP2522859B2 (ja) * 1990-12-14 1996-08-07 日産自動車株式会社 眼位置検出装置
JPH0761314B2 (ja) * 1991-10-07 1995-07-05 コナミ株式会社 網膜反射光量測定装置及び該装置を用いた視線検出装置
JP3109230B2 (ja) * 1992-03-17 2000-11-13 日産自動車株式会社 車両運転者の眼球位置検出装置
JPH06148513A (ja) * 1992-10-30 1994-05-27 Canon Inc 視線検出装置
US5638176A (en) 1996-06-25 1997-06-10 International Business Machines Corporation Inexpensive interferometric eye tracking system
GB2315858A (en) * 1996-08-01 1998-02-11 Sharp Kk System for eye detection and gaze direction determination
US6351273B1 (en) * 1997-04-30 2002-02-26 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
DE19731301C2 (de) * 1997-07-13 2001-05-10 Smi Senso Motoric Instr Gmbh Vorrichtung zum Steuern eines Mikroskopes mittels Blickrichtungsanalyse
JPH1156782A (ja) * 1997-08-12 1999-03-02 Techno Works:Kk 二光源及び画像差分手段を用いた眼球特徴点検出方式
AUPP048097A0 (en) * 1997-11-21 1997-12-18 Xenotech Research Pty Ltd Eye tracking apparatus
US6152563A (en) * 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
JP2000163564A (ja) * 1998-12-01 2000-06-16 Fujitsu Ltd 目の追跡装置および瞬き検出装置
JP3605080B2 (ja) * 2002-02-04 2004-12-22 キヤノン株式会社 視線検出装置
US7206435B2 (en) * 2002-03-26 2007-04-17 Honda Giken Kogyo Kabushiki Kaisha Real-time eye detection and tracking under various light conditions

Also Published As

Publication number Publication date
CN100421614C (zh) 2008-10-01
AU2003284816A1 (en) 2004-06-15
ATE432038T1 (de) 2009-06-15
WO2004045399A1 (en) 2004-06-03
PT1562469E (pt) 2009-08-05
SE0203457D0 (sv) 2002-11-21
US7572008B2 (en) 2009-08-11
CN1725976A (zh) 2006-01-25
SE524003C2 (sv) 2004-06-15
EP1562469B1 (en) 2009-05-27
US20060238707A1 (en) 2006-10-26
DK1562469T3 (da) 2009-08-17
JP2011115606A (ja) 2011-06-16
JP2006507054A (ja) 2006-03-02
DE60327798D1 (de) 2009-07-09
EP1562469A1 (en) 2005-08-17
SE0203457L (sv) 2004-05-22
JP4783018B2 (ja) 2011-09-28
JP5297486B2 (ja) 2013-09-25

Similar Documents

Publication Publication Date Title
ES2327633T3 (es) Instalacion para ver y seguir un ojo y la direccion de la mirada del mismo.
ES2909057T3 (es) Seguimiento ocular que utiliza la posición del centro del globo ocular
ES2830178T3 (es) Iluminador de modo dual para formación de imágenes bajo diferentes condiciones de iluminación
JP6861628B2 (ja) 眼の不快感を軽減させるディスプレイ
US8885177B2 (en) Medical wide field of view optical tracking system
FI125445B (fi) Katseenohjausjärjestely
US8077914B1 (en) Optical tracking apparatus using six degrees of freedom
CN101816547B (zh) 基于瞳孔对称性的自动直视检测方法和系统
EP3076892B1 (en) A medical optical tracking system
ES2337311T3 (es) Dispositivo para medir un analito en un fluido ocular.
US20160073853A1 (en) Imaging a patient's interior
ES2553441T3 (es) Detección de estrabismo
US10338675B2 (en) Selective color sensing for motion tracking
ES2225826T3 (es) Mejoras en el seguimiento de la mirada en un comprobador de campo visual.
JP6631951B2 (ja) 視線検出装置及び視線検出方法
EP3542308B1 (en) Method and device for eye metric acquisition
ES2939003T3 (es) Método y sistema para estimación de posición 3D de la córnea
CN113316805A (zh) 使用红外线和可见光监视人的方法和系统
JP6360752B2 (ja) 照明撮像装置
ES2921299T3 (es) Método y sistema para la identificación de reflejos/reflexiones
JP6687195B2 (ja) 眼部画像処理装置
JP6430813B2 (ja) 位置検出装置、位置検出方法、注視点検出装置、及び画像生成装置
CN113194839A (zh) 评价装置、评价方法及评价程序
JP2005013752A (ja) 視線検出システム
JP2002017677A (ja) 輻輳角測定装置