ES2327633T3 - Instalacion para ver y seguir un ojo y la direccion de la mirada del mismo. - Google Patents
Instalacion para ver y seguir un ojo y la direccion de la mirada del mismo. Download PDFInfo
- Publication number
- ES2327633T3 ES2327633T3 ES03776116T ES03776116T ES2327633T3 ES 2327633 T3 ES2327633 T3 ES 2327633T3 ES 03776116 T ES03776116 T ES 03776116T ES 03776116 T ES03776116 T ES 03776116T ES 2327633 T3 ES2327633 T3 ES 2327633T3
- Authority
- ES
- Spain
- Prior art keywords
- eye
- image
- light
- detector
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000009434 installation Methods 0.000 title claims description 24
- 210000001508 eye Anatomy 0.000 claims abstract description 157
- 230000000694 effects Effects 0.000 claims abstract description 17
- 238000001514 detection method Methods 0.000 claims abstract 11
- 210000004087 cornea Anatomy 0.000 claims description 17
- 238000011156 evaluation Methods 0.000 claims description 17
- 230000003287 optical effect Effects 0.000 claims description 15
- 210000003128 head Anatomy 0.000 claims description 6
- 238000005286 illumination Methods 0.000 claims 4
- 210000001747 pupil Anatomy 0.000 abstract description 38
- 238000004364 calculation method Methods 0.000 abstract description 15
- 230000011514 reflex Effects 0.000 description 16
- 238000000034 method Methods 0.000 description 14
- 210000000554 iris Anatomy 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 9
- 210000001525 retina Anatomy 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000004424 eye movement Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004418 eye rotation Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 210000003786 sclera Anatomy 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Animal Behavior & Ethology (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Eye Examination Apparatus (AREA)
- Burglar Alarm Systems (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Una instalación para la detección de ojos que comprende: una o más fuentes (2, 3) de luz para emitir luz en direcciones hacia la cabeza de un usuario, un detector (4) para recibir luz desde la cabeza de un usuario y para captar repetidamente imágenes de la misma, y una unidad (6) de evaluación conectada al detector (4) para determinar la posición y/o dirección de mirada de un ojo, y dispuesta para determinar, en una imagen captada por el detector (4), un área en la que estén localizadas una imagen de un ojo o unas imágenes de ojos. caracterizada porque la unidad (6) de evaluación está dispuesta para, tras haber determinado el área, controlar el detector (4) para enviar a la unidad (6) de evaluación la información acerca de las imágenes sucesivas que sólo corresponde al área determinada de la imagen captada por el detector (4), y el detector (4) está dispuesto para leer información únicamente de la porción de la superficie del detector (4) que corresponde al área determinada, y por lo tanto los datos que luego han de ser enviados a la unidad (6) de evaluación.
Description
Instalación para ver y seguir un ojo y la
dirección de la mirada del mismo.
La presente invención se refiere a una
instalación para detectar y seguir los ojos y los
ángulos/direcciones de la mirada. Tal sistema puede usarse por
ejemplo para observar o determinar la posición en un monitor o
pantalla que un usuario de ordenador está mirando.
La monitorización o el seguimiento de
movimientos del ojo y puntos de la mirada pueden usarse en muchos
contextos diferentes. La información acerca de la posición hacia la
que una persona está mirando puede usarse para analizar el
comportamiento y la conciencia de la persona. Puede usarse tanto
para evaluar el objeto al que la persona está mirando como para
evaluar a la persona respectiva. Los campos de utilización son
muchos y pueden mencionarse entre ellos estudios sobre la
usabilidad de software y diferentes tipos de interfaces,
evaluaciones de páginas principales, publicidad y anuncios, medios
para educar a pilotos en entornos de simulación, investigación en
psicología, ciencias del comportamiento y percepción humana y
diagnosis de varios tipos de defectos visuales y enfermedades.
Adicionalmente a estas aplicaciones existen
también aplicaciones interactivas que emplean información acerca
del lugar al que una persona está mirando para responder o
reaccionar de formas distintas. Una persona físicamente
discapacitada puede, por ejemplo, interactuar con un ordenador por
el procedimiento por el cual se activan esos objetos en el monitor
del ordenador al cual está mirando. En un juego de máquinas
recreativas puede aumentarse mucho la experiencia del juego
mediante el procedimiento por el que se hace que aquellos objetos a
los que una persona mire queden centrados en la imagen, o por el
procedimiento por el que se permite a la persona apuntar un arma
usando sus ojos. De la misma manera el anuncio o pantalla en el
escaparate de una tienda en Navidad puede reaccionar al hecho de
que una persona esté mirándolo. Las interfaces para, por ejemplo, un
ordenador podrían utilizar información continua acerca de la
posición a la que un usuario está mirando para mejorar la capacidad
de mostrar visualmente el objeto en el que un usuario está
interesado, y para adaptar de una forma inteligente diferentes
comportamientos del usuario. Un automóvil que recibe información
acerca de la posición a la que el conductor está mirando podría
disparar una alarma en el caso de que el conductor esté cansado,
distraído o intoxicado. También se han desarrollado aplicaciones
militares para apuntar armas o para conducir vehículos usando
movimientos oculares. Este es sólo un pequeño número de campos de
utilización que pueden ser de interés para una instalación que
pueda detectar y seguir ojos y ángulos de mirada.
Existen muchas tecnologías diferentes que pueden
usarse para seguir un ojo y el ángulo de la mirada en el mismo. Una
primera tecnología consiste en usar un fotosensor y una fuente de
luz, cuya luz se refleja en la córnea y en el cristalino de un ojo
y provoca en los mismos cuatro reflejos diferentes. El reflejo de
éstos con la intensidad de luz más fuerte es el reflejo de la
córnea externa o glint, también llamado el primer reflejo de
Purkinje. Después siguen el segundo, el tercer y el cuarto reflejo
de Purkinje, que corresponden a reflejos en la superficie interna
de la córnea, la superficie externa de el cristalino y la superficie
interna del cristalino. El primer y cuarto reflejos de Purkinje
están localizados en el mismo plano focal y la relación de las
posiciones de estos dos reflejos varía con la rotación del ojo.
Una segunda tecnología para seguir un ojo y el
ángulo de la mirada en el mismo es detectar, usando algún tipo de
fotosensor, la línea de demarcación entre el blanco o esclera y el
iris de un ojo. Una tercera tecnología consiste en detectar la cara
de una persona usando una cámara y deducir indirectamente, mediante
la observación de cómo se mueven los ojos en relación a la cara, la
dirección en la que la persona está mirando. Una cuarta tecnología
consiste en aprovechar que la córnea y la retina tienen potenciales
eléctricos diferentes para medir la rotación en un ojo. Una quinta
tecnología consiste en usar una lente de contacto dotada de
dispositivos adecuados capaces de medir cómo gira la lente y por lo
tanto también el ojo. Una sexta tecnología consiste en medir, usando
un fotosensor, la elipticidad de la pupila o del iris cuando el ojo
gira. Una séptima tecnología consiste en usar un diodo y dos o más
transistores ópticos montados en un par de gafas. Cuando la luz
procedente del diodo se refleja en la córnea incide luego sobre un
transistor óptico, las señales proporcionadas por el transistor
varían de acuerdo a la distancia recorrida por la luz desde el diodo
a través de la córnea y hasta el transistor. Una octava tecnología
consiste en usar un fotosensor para detectar el reflejo de una
fuente de luz en la córnea, y entonces observar cómo está
relacionada la posición de la misma con el centro de la pupila o
iris. Puede hacerse en este caso que la pupila sea más fácilmente
observable usando unos dispositivos de iluminación, montados cerca
del fotosensor, que iluminan la retina del ojo y causan por lo tanto
un efecto brillante en el ojo, o mediante la iluminación del ojo de
modo que el iris se vuelva brillante mientras que la pupila
permanece oscura.
En el documento de patente estadounidense
5,861,940 se describe un sistema para detectar ojos y para seguir
los ángulos de la mirada. El sistema incluye fuentes de luz que
comprenden un láser infrarrojo de tipo 2 que está provisto de un
sistema óptico adecuado y que emite un rayo de luz convergente con
un foco enfrente del ojo, y dos láseres infrarrojos o diodos de
infrarrojos de tipo 9, 10 que emiten alternativamente rayos de luz
divergentes. Mediante la detección del reflejo en la retina usando
un detector sensitivo de posición se obtiene información sobre la
posición del ojo. Mediante la detección de los reflejos en la córnea
de una pluralidad de fuentes de luz se determina la distancia entre
el ojo y la videocámara. Los dos láseres infrarrojos anteriores
están colocados en el borde de la base de un monitor 1 de ordenador.
Otros sistemas están descritos en los documentos de patente
estadounidenses 6,079,829, 6,152,563 y 6,246,779.
Específicamente, en la patente estadounidense
6,152,563 está descrito un seguidor de dirección de la mirada que
incluye una fuente de luz infrarroja, una cámara, una pantalla de
ordenador y un ordenador. Se provee un software en el ordenador
para evaluar las fotos tomadas por la cámara.
En sistemas automáticos que emplean una
videocámara puede ser difícil determinar las posiciones en una
imagen captada, en la que están situados los reflejos de las
fuentes de luz en los ojos de un usuario. Esto depende entre otras
cosas del hecho de que el usuario puede mover la cabeza, desplazarla
lateralmente o colocarla a menor o mayor distancia de la cámara. El
sistema automático puede contener rutinas complejas de procesado de
imagen y reconocimiento de imagen para determinar aquellas áreas en
donde están localizadas imágenes de ojos. Por lo tanto existe la
necesidad de procedimientos para facilitar tales determinaciones de
áreas en una imagen captada en la que están localizados reflejos e
imágenes de ojos. Adicionalmente, al determinar el punto de interés
en una superficie tal que un monitor, siempre debe determinarse la
distancia entre los ojos del usuario y el monitor y por lo tanto se
requieren procedimientos eficientes para tal determinación.
Un objetivo de la invención, que se define en la
reivindicación 1, consiste en proveer una instalación eficiente
para detectar y seguir ojos y ángulos/direcciones de la mirada.
En un dispositivo para detectar ojos y
ángulos/direcciones de la mirada se usa un fotosensor tal como una
unidad CCD o CMOS provistas de un sistema óptico adecuado o una
videocámara, una o más fuentes de luz y una unidad de cálculo y
control. Para determinar la posición por ejemplo en un monitor, a la
que una persona está mirando, deben conocerse la posición de los
ojos de la persona, tanto en la dirección en profundidad como en
las direcciones laterales, vistas desde el monitor, y la dirección
en la que está mirando el ojo. Si sólo se conocen el ángulo y la
posición bidimensional, aparecerá una distorsión de paralaje cuando
el ojo se mueva en la dirección en profundidad. Esta distorsión de
paralaje es a menudo significativamente mayor de lo aceptable en
muchas aplicaciones.
Para determinar la posición de un ojo, es decir,
la posición del mismo con respecto a un fotosensor o un monitor, se
ilumina el ojo usando dos o más fuentes de luz dispuestas a una
distancia entre sí. Las imágenes de los reflejos de estas fuentes
de luz en la córnea de la persona sobre el fotosensor dependerán
entonces del lugar, en el campo de visión del fotosensor, en el que
esté situada la persona. Las imágenes de los reflejos sobre el
fotosensor proveen toda la información requerida para determinar
exactamente el lugar en el que está localizada la persona en el
campo de visión del fotosensor. Si se asume que la córnea del ojo es
esférica, esta función está definida inequívocamente y es
reversible incluso en el caso en que el número de fuentes de luz sea
sólo de dos, pero usando hipótesis más avanzadas también se obtiene
una buena precisión y fiabilidad en la determinación del lugar en
el que están localizados los ojos mediante la evaluación de todo el
patrón formado por los reflejos de una pluralidad de fuentes de
luz, es decir, las posiciones de los reflejos en relación entre sí y
con la foto completa. En un caso sencillo sólo se determinan el
tamaño del patrón y la posición del mismo en la imagen captada.
Por lo tanto, se usan un fotosensor para crear
una imagen bidimensional de la realidad y generalmente una o más
fuentes de luz. La/s fuente/s de luz iluminan los posibles ojos
dentro del campo visual del fotosensor, de modo que las superficies
reflectantes difusas se vuelven más fácilmente observables para el
fotosensor, y de modo que la luz de la/s fuente/s de luz que
alcanza las córneas causa reflejos que son interpretados por el
fotosensor como puntos brillantes discretos.
La imagen bidimensional creada por el fotosensor
se analiza usando un procesamiento de imagen complejo para
determinar la posición en la imagen en la que están localizados
posibles ojos y reflejos. Se usa entonces esta información para
determinar dónde están localizados los ojos y/o en qué dirección
están mirando, lo que a su vez puede usarse por ejemplo, para
determinar la posición en un monitor a la que está mirando un
usuario de ordenador.
Se buscan pupilas y/o irises en la imagen
bidimensional. Puede hacerse la imagen de la pupila más fácilmente
observable iluminándola con una o más fuentes de luz. La luz de la/s
fuente/s de luz puede colocarse a cierta distancia del sistema
óptico que enfoca la imagen bidimensional en el fotosensor. Esto
significa que sólo una pequeña porción de la luz que ilumina entra
en el ojo y por lo tanto que la pupila aparece más oscura que la
cara circundante. De esta manera la línea de demarcación entre la
pupila y el iris puede detectarse más fácilmente que en el caso de
no usar iluminación.
Una alternativa a la iluminación mencionada
anteriormente comprende colocar la/s fuente/s de luz en el, o muy
cerca del, sistema óptico que enfoca la imagen bidimensional sobre
el fotosensor. El campo difuso de la/s fuente/s de luz corresponde
entonces al campo de visión del fotosensor, y para un ojo que esté
localizado dentro del campo de visión del fotosensor el punto de la
retina que está iluminado por la/s fuente/s de luz será el mismo, o
al menos parcialmente el mismo punto que está reproducido en el
fotosensor. Esto significa que la pupila parece ser más brillante
que los alrededores de la misma. El fenómeno es el mismo que hace
que los ojos en las imágenes parezcan tener un color rojizo.
Para conseguir el efecto de ojo más brillante
posible se montan la/s fuente/s de luz lo más cerca posible del eje
visual del fotosensor sin interferir con el campo de visión del
sensor. La porción de la retina de un ojo que ve el fotosensor
coincide entonces en gran parte con la porción de la retina que está
iluminada por la/s fuente/s de luz. Teniendo en cuenta que la/s
fuente/s de luz han de colocarse enfrente del sistema óptico que
enfoca la imagen sobre el fotosensor, un fuente de luz que tenga un
agujero central de la misma forma que el fotosensor es una buena
manera de colocar la/s fuente/s de luz lo más cerca del eje visual
del fotosensor sin interferir con el campo visual del mismo. Cuanto
más lejos del sistema óptico se coloque la fuente de, mayor ha de
ser el agujero para no interferir con el campo visual del
fotosensor. Por lo tanto es deseable poder colocar la fuente de luz
tan cerca del sistema óptico como sea posible en el caso en que se
pretenda un efecto de brillo de ojo.
Usar un efecto de brillo de ojo para determinar
la dirección de los ojos, al mismo tiempo que se determinan las
posiciones de los ojos usando una pluralidad de fuentes de luz
reflejadas, puede causar problemas. El efecto de brillo de ojo se
consigue usando un dispositivo de iluminación/fuente de luz colocado
tan cerca del fotosensor como sea posible. Un dispositivo de
iluminación colocado a cierta distancia de esta fuente de luz
iluminará todo, además de la pupila del ojo que está colocada dentro
del campo visual del fotosensor, y por lo tanto reduce el contraste
entre la pupila y el iris en las imágenes captadas por el
fotosensor. Adicionalmente hay una alta probabilidad de que el
reflejo de esta fuente de luz adicional sobre la imagen estará
localizado precisamente en la línea de demarcación entre la pupila
y el iris, lo cual hace aún más difícil la búsqueda de esta
transición. Visto desde la perspectiva opuesta, de donde debe
determinarse la posición del ojo, el efecto de brillo de ojo que se
usa para destacar o aumentar la pupila hace que el contraste de la
región de transición de la imagen, entre la pupila y un reflejo de
la córnea enfrente de la pupila, disminuye en comparción con el
caso en el que la pupila no se iluminó la pupila usando el efecto de
brillo de ojo. Por lo tanto, existe el riesgo de que podría ser
difícil observar reflejos localizados en imágenes de la pupila
iluminada. Para evitar estos problemas pueden alternarse entre sí
dos disposiciones de luz, una para determinar la dirección y otra
para determinar la posición, de modo que sólo una está activa por
cada imagen captada. Esto implica que no pueden ser determinadas a
un mismo tiempo la dirección y la posición en cada imagen, pero por
otro lado aumenta la robustez del sistema.
Si por el contrario se coloca/n la/s fuente/s de
luz a una distancia del eje óptico del fotosensor, se obtiene una
pupila oscura mientras que la cara de alrededor se vuelve más
brillante cuanto más fuerte irradia/n la/s fuente/s de luz. Se
prefiere esta disposición de luz en el caso en que haya de
encontrarse el iris, y también tiene la ventaja de que la luz
difusa de los alrededores no disminuye o empeora el contraste entre
la pupila y el iris como es el caso en un sistema basado en el
efecto de brillo de ojo.
Para no molestar a la persona que es iluminada
por la/s fuente/s de luz puede/n usarse la/s fuente/s de luz para
emitir luz que tenga una longitud de onda que no sea visible para el
ojo humano pero que pueda ser detectada por el fotosensor. Por
ejemplo, puede usarse luz de rango NIR (NIR=infrarrojo próximo) es
decir, luz que tiene una longitud de onda algo más larga que la que
puede ser percibida por el ojo humano. Tal luz puede ser detectada
por casi todos los fotosensores diseñados para detectar luz
visible.
El fotosensor utilizado puede ser ventajosamente
del tipo de alta resolución/definición. Esto significa que se
obtiene una gran cantidad de información cuando está expuesta la
totalidad del fotosensor. Para reducir los recursos usados en el
procesamiento, pueden seleccionarse los datos a procesar en una sóla
área concreta de interés (AOI). Por lo tanto, para reducir la carga
sobre el enlace de comunicación entre el fotosensor y la unidad de
cálculo, la unidad de cálculo puede seleccionar solicitar al
fotosensor que provea sólo aquella información que viene de la
actual AOI. De esta manera, tanto los recursos de cálculo como los
de comunicación pueden liberarse para otros propósitos. Para poder
seleccionar una AOI adecuada para una exposición del fotosensor se
utiliza ventajosamente la información sobre las posiciones en las
que estaba localizado el ojo en las imágenes inmediatamente
precedentes.
La ventaja máxima se obtiene si se descarta la
mayor cantidad posible de la información innecesaria de la imagen y
lo antes posible durante el procedimiento. Si se hace que el
fotosensor sólo exponga o envíe a la unidad de evaluación una parte
de la información de la superficie del sensor, aparecen nuevas
posibilidades que no eran posibles previamente. De esta manera
pueden usarse fotosensores de muy alta resolución sin provocar la
ralentización del procedimiento. En vez de interfaces de cámara que
son avanzados, difíciles de iniciar y costosos, pueden usarse buses
de pc estandarizados para obtener una tasa de transmisión suficiente
desde el fotosensor a la unidad de evaluación. También la simple
exposición y la lectura de datos del fotosensor requiere en muchas
ocasiones un periodo más corto de tiempo si sólo se expone una parte
seleccionada del sensor. Esto significa que puede obtenerse una
mayor velocidad en la determinación del punto de mirada para el ojo
que se sigue. Esto es valioso en muchas aplicaciones tal como, por
ejemplo, en estudios de psicología.
En la siguiente descripción se establecerán
objetivos y ventajas adicionales de la invención, y serán en parte
obvios a partir de la descripción, o pueden aprenderse mediante la
práctica de la invención.
Aunque la invención está definida en las
reivindicaciones adjuntas, puede obtenerse un completo entendimiento
de la invención, tanto en organización como en contenido, así como
de las características anteriores y otras, y la invención será
mejor apreciada a partir de una consideración de la siguiente
descripción detallada de realizaciones no limitantes presentadas a
continuación con referencia a los dibujos adjuntos, en los
cuales:
- La Fig. 1 es una imagen esquemática frontal de
una realización de una instalación para detectar y seguir ojos y
ángulos de mirada,
- La Fig. 2 es un diagrama esquemático de la
dependencia, en una imagen bidimensional captada por un fotosensor,
de la distancia entre dos fuentes de luz reflejadas en una córnea
con respecto a la distancia de la córnea hasta el fotosensor,
- Las Figs. 3a y 3b son imágenes esquemáticas
frontales de un ejemplo de una realización de un dispositivo de
iluminación que es coaxial con el campo visual del fotosensor para
lograr un efecto de brillo de ojo cuando se encienden y se apagan
distintos diodos,
- La Fig. 4a es una imagen de un ojo capturada
usando un fotosensor e iluminada para hacer posible la determinación
del ángulo de mirada del ojo y el lugar en el cual está localizada
sobre el sistema de coordenadas bidimensionales del fotosensor,
- La Fig. 4b es una imagen obtenida usando
análisis de líneas de demarcación de la imagen de la Fig. 4a,
- La Fig. 5a es una imagen de un ojo similar a
la Fig. 4a pero iluminada para hacer posible la determinación de
la distancia del ojo hasta el fotosensor,
- La Fig. 5b es una imagen obtenida usando
análisis de líneas de demarcación de la imagen de la Fig. 5a,
- La Fig. 6 es un diagrama de secuencias que
ilustra etapas de procesamiento de la información acerca de los
ojos encontrados en una imagen bidimensional para determinar cuál es
el ojo derecho y el izquierdo de un usuario, y
- La Fig. 7 es un diagrama de secuencias del
procedimiento completo que se ejecuta en una instalación para
determinar la dirección de la mirada y la posición de un ojo.
En la Fig. 1 se muestra una instalación para
determinar el punto de un monitor al que está mirando/observando un
usuario de un ordenador. La determinación es ejecutada mediante el
seguimiento de los ojos del usuario y en particular mediante la
determinación de los ángulos de mirada de los ojos y la distancia de
los ojos al monitor. La instalación incluye el monitor 1, tres
fuentes idénticas 2 de luz montadas a lo largo de una línea recta
en el borde superior del monitor 1, un fotosensor 4 colocado en el
centro del borde inferior del monitor y provisto de un sistema
óptico adecuado, no mostrado, que está localizado en frente del
fotosensor para filtrar la luz indeseada y a la vez enfocar una
imagen sobre la superficie sensible a la luz del fotosensor, y una
fuente 3 de luz colocada coaxialmente al eje óptico del fotosensor,
es decir colocada alrededor y a todos los lados de la superficie
sensible a la luz del fotosensor. La superficie sensible a la luz
puede, como se ha mostrado, tener una forma rectangular. La fuente
1 de luz coaxial incluye, véanse las Figs. 3a y 3b, una pluralidad
de elementos 3', 3'' emisores de luz, dispuestos en dos grupos, un
primer grupo interior y un segundo grupo exterior. En el grupo
interior los elementos 3' emisores de luz están colocados cerca de
los bordes o lados de la superficie sensible a la luz. En la
realización mostrada que incluye un área sensible a la luz
rectangular, se colocan tres elementos en cada lado largo de la
forma rectangular y dos elementos en cada lado corto del mismo. En
el grupo exterior los elementos 3'' emisores de luz están colocados
a una distancia mayor del área sensible a la luz, por fuera de los
elementos del grupo interior según se mire desde el centro del área
sensible a la luz. En la realización mostrada hay tantos elementos
en el grupo exterior como en el grupo interior y cada elemento del
grupo exterior está colocado entre dos elementos del grupo interior
según se mire desde el centro del área sensible a la luz.
En una realización práctica de la instalación de
acuerdo a la Fig. 1, las tres fuentes idénticas 2 de luz comprenden
cada una siete diodos NIR, HSDL 4230, que incluyen seis diodos
dispuestos simétricamente alrededor de un diodo central. Los mismos
tipos de diodos se usan como elementos 3', 3'' emisores de luz en la
unidad 3 de iluminación diseñada de acuerdo a las Figs. 3a y 3b.
Adicionalmente a estos componentes sólo se
provee una unidad coordinadora de cálculo y control, indicada por
un 6, para llevar a cabo el control y evaluación correspondientes y
los cálculos. Por lo tanto, la unidad de cálculo y control controla
el encendido y apagado de las fuentes de luz. Adicionalmente lleva a
cabo el procesamiento de las imágenes captadas por el fotosensor 4,
en particular la determinación de líneas de demarcación, es decir,
las líneas entre los campos de las imágenes que tienen diferentes
colores o intensidades en la escala de grises. En la imagen de un
ojo se determina entre otras cosas la línea de demarcación que
delimita la pupila y a partir de la misma se obtiene el centro de
la pupila. Esto último puede hacerse, por ejemplo, mediante la
adaptación de un círculo o elipse a la línea de demarcación que se
ha decidido para delimitar la pupila. La unidad 6 de cálculo y
control puede también controlar, como se describirá a continuación,
la salida de datos desde el fotosensor 4, es decir, determinar los
elementos de una imagen captada para los que se va a enviar
información desde el fotosensor a la unidad de cálculo y
control.
En las Figs. 3a y 3b se ve cómo los elementos de
la fuente 3 de luz están colocados alrededor del fotosensor 4 para
poder iluminar el ojo de dos maneras distintas, encendiendo o
apagando los elementos emisores de luz del grupo interior o
exterior. Una disposición de luz, que se ve en la Fig. 3, y en la
que sólo están encendidos los elementos del grupo interior, causa
un efecto de brillo de ojo fácilmente observable en la pupilas que
son detectadas por el fotosensor, mientras que la otra disposición,
que se muestra en la Fig. 3b y en la que sólo están encendidos los
elementos del grupo exterior, causa reflejos en las córneas sin
causar ningún efecto de brillo de ojo fácilmente observable.
Cuando la instalación de la Fig. 1 está
funcionando, alterna entre las dos disposiciones de luz. La
disposición (i) de luz es provista para determinar la dirección en
la que un usuario está mirando. En la disposición (ii) de luz se
determina la distancia de los ojos del usuario hasta el fotosensor.
En ambas posiciones de ajuste de luz también se obtiene información
acerca del sitio en el que están colocados el ojo u ojos del
usuario, tal como se ve en el sistema de coordenadas
bidimensional.
Cuando la instalación está en la disposición (i)
de luz los elementos 3' interiores de la fuente 3 de luz, que están
dispuestos coaxialmente con el campo de visión del fotosensor 4,
están encendidos en la disposición que se muestra en la Fig.3a y
crea un fuerte efecto de brillo de ojo en todas las pupilas dentro
del campo de visión del fotosensor. En esta disposición de luz las
tres fuentes 2 de luz colocadas sobre el monitor 1 están apagadas,
es decir, sólo los elementos del grupo interior están encendidos. La
imagen de una pupila dentro del campo visual del fotosensor 2
tendrá el aspecto con el que aparece en la Fig. 4a en la que la
pupila 5, comparada con la Fig. 4b, está iluminada debido al efecto
de brillo de ojo y el reflejo de la fuente 3 de luz en la córnea se
ve como un reflejo 3'a en forma de punto. La imagen captada es
analizada por la unidad 6 de cálculo y las líneas de demarcación
son determinadas de acuerdo con la Fig. 4b. En la imagen captada
para el efecto de brillo de ojo hay un contraste particularmente
grande entre los campos de imagen que corresponden a la pupila y el
iris, en comparación con la Fig. 5a que está captada usando una
iluminación diferente, y por lo tanto la línea de demarcación
entre esos dos campos puede ser calculada con una buena precisión.
Esta línea de demarcación determinada con precisión delimita la
pupila, y a partir de ella puede determinarse entonces el centro de
la pupila, consecuentemente también con una buena precisión. Para la
determinación del centro, como se ha mencionado anteriormente,
puede adaptarse una elipsis a la línea de demarcación, lo cual es de
particular importancia en el caso de que la pupila sea visible sólo
parcialmente en la foto. Adicionalmente, se determinan en la imagen
la posición de un reflejo 3'a y particularmente el centro del
reflejo. Finalmente se calcula el vector desde el centro del
reflejo 3'a hasta el centro de la pupila 5.
Para determinar la dirección de la mirada, es
decir, la dirección en la cual está mirando el usuario, se usa el
vector determinado de acuerdo a la descripción anterior. La
dirección de este vector indica la dirección en la que el usuario
está mirando, tomada desde el eje óptico de la cámara, y la magnitud
del vector indica el ángulo en el que mira el usuario, también
interpretado con relación al eje óptico de la cámara.
Adicionalmente, el centro del reflejo 3'a provee información acerca
de la posición del ojo del usuario vista en dos dimensiones.
Cuando el sistema está en la disposición (ii) de
luz, los elementos 3'' del grupo exterior de la fuente 3 de luz,
que es coaxial con el campo visual del fotosensor, se encuentran en
la disposición de luz de acuerdo a la Fig. 3b, que no produce
ningún efecto de brillo de ojo claramente observable. Al mismo
tiempo las tres fuentes 2 de luz colocadas en el borde superior del
monitor están encendidas en esta disposición de luz. La Fig. 5a
ilustra cómo un ojo puede ser reflejado en el fotosensor 4 en esta
disposición con un contraste relativamente bajo entre los campos de
imagen que corresponden a diferentes porciones del ojo. También se
analiza esta imagen para obtener líneas de demarcación, tal como se
ilustra en la Fig. 5b, y la precisión de las lineas de demarcación
determinadas de los campos correspondientes a diferentes porciones
del ojo puede ser más baja que la de la linea que delimita la
pupila de acuerdo a la Fig. 4b. Sin embargo, en la imagen de acuerdo
a la Fig. 5b los diferentes reflejos aparecen muy claramente. En
3'b, véase la imagen analizada en la Fig. 5b, se ilustra por lo
tanto el reflejo en la córnea de la fuente 3 de luz, que está
encendida de acuerdo con el caso que aparece en la Fig. 3b, y en 2'
se muestran los reflejos en la córnea de las fuentes 2 de luz
colocadas en el extremo superior del monitor. Se determinan en la
imagen las posiciones de, y las distancias entre, los diferentes
reflejos y esta determinación puede ser hecha entonces con una buena
precisión. Se evalúa el patrón de los cuatro reflejos, es decir,
principalmente las posiciones de los diferentes reflejos en relación
entre sí, para determinar la distancia del ojo al fotosensor 4. El
tamaño del patrón formado por los cuatro reflejos en 2', 3'b
depende particularmente de la distancia del ojo al fotosensor.
Cuanto más lejos del fotosensor está situado el ojo, más pequeñas
son las dimensiones del patrón. De esa manera se obtiene una medida
de la distancia a la que está el monitor 1 del ojo del usuario. En
este caso también se obtiene información bidimensional acerca del
lugar en el que está colocado el ojo del usuario, a partir del
reflejo de la fuente coaxial 3 de luz en 3'b.
Por lo tanto, cuando el sistema de la Fig. 1
está operativo, alterna entre la disposición (i) de luz y la
disposición (ii) de luz. Se requiere información de estas dos
posiciones de ajuste de luz para poder indicar la posición en un
monitor al que está mirando un usuario. En la disposición (i) de luz
se detecta la dirección de la mirada del usuario y en la
disposición (ii) de luz se detecta la posición del usuario. En un
usuario de ordenador los movimientos oculares son normalmente
significativamente mucho más rápidos que los movimientos de la
cabeza. Esto significa que es más importante tener información
actualizada recientemente acerca del ángulo de mirada del usuario
que acerca de la posición del usuario en la dirección de profundidad
del fotosensor 4, para obtener una buena precisión en la
determinación del punto del monitor al que está mirando un usuario.
Ciertos experimentos indican que se obtiene un sistema que con una
buena precisión cuando se analizan cuatro imágenes captadas en la
disposición (i) de luz, por cada imagen captada en la posición (ii)
de ajuste de luz. Para determinar el punto de mirada siempre se usa
información de la última imagen captada en la disposición de luz
(i) y de la última imagen captada en la disposición (ii) de luz.
En la Fig. 2 se ilustra esquemáticamente cómo la
distancia entre las imágenes de los reflejos de dos fuentes de luz
depende de la distancia de la superficie reflectante hasta las
fuentes de luz y el detector, que supuestamente están localizados
en el mismo plano. La distancia entre la superficie reflectante y el
plano que pasa por las fuentes de luz es aproximadamente
inversamente proporcional a la raíz cuadrada de la distancia entre
las imágenes. Tal relación o una relación algo más exacta, como
aparece en la Fig. 2, puede usarse, junto a los valores absolutos
obtenidos en una calibración individual de la instalación de cada
usuario, para dar una determinación de la distancia suficientemente
precisa, por ejemplo, para controlar un cursor en el monitor cuando
la cabeza del usuario está moviéndose.
El fotosensor usado en la instalación descrita
anteriormente es del tipo de alta resolución. De esta manera se
permite al usuario tener una mayor movilidad de la cabeza sin
producir una degradación en la precisión. Para reducir la carga en
la unidad de cálculo y aumentar la velocidad de muestreo del
sistema, no se usan datos del fotosensor más que cuando es
necesario. La unidad de cálculo usa información acerca de las
posiciones en que se han encontrado los ojos en fotos anteriores
para seleccionar la porción de la superficie sensible a la luz del
fotosensor que vaya a exponerse antes de captar cada nueva imagen
que va a usarse, o en cada nueva imagen, y controla el fotosensor
de acuerdo a la misma. Si se encuentran los ojos del usuario en la
imagen precedente sólo se usa una pequeña porción de los elementos
de imagen de la superficie sensible a la luz del fotosensor. Sólo
en el caso de no haberse encontrado ningún ojo se usan los datos de
todos los elementos de imagen de la superficie sensible a la luz, o
en algún caso los datos que representen toda la superficie de
imagen, obtenidos, por ejemplo, por una baja operación de muestreo
de datos de todo el área de imagen. De esa manera se obtiene un
sistema que es relativamente lento en la detección de los ojos y de
la distancia de los ojos en la dirección en profundidad, pero que
puede seguir los ojos y en particular la dirección de la mirada a
una gran velocidad una vez que se han encontrado los ojos.
Un ojo tiene características físicas únicas que,
junto a la posición del ojo y la dirección de la mirada, controlan
qué aspecto tendrá una imagen, como se muestra en las Fig. 4a o 5a.
Para poder determinar la posición a la que una persona está mirando
a partir de los datos que pueden obtenerse de estas imágenes, el
sistema puede calibrarse individualmente, si se requiere, para la
persona que está sentada enfrente del monitor. Adicionalmente el
sistema ha de saber cuál es cada ojo, es decir, si las líneas de
demarcación calculadas de acuerdo a las Figs. 4b y 5b están
asociadas al ojo izquierdo o al derecho del usuario.
Cuando los dos ojos de un usuario son visibles
para el fotosensor 4 es fácil decir qué ojo es el izquierdo y qué
ojo es el derecho, pero en el caso en que sólo se haya encontrado un
ojo se requiere otro procedimiento para determinar qué ojo es. Tal
procedimiento se describirá a continuación y las diferentes etapas
del mismo están también ilustradas en el diagrama de secuencias de
la Fig. 6.
En la Fig. 7 se muestra un diagrama de
secuencias de las distintas etapas que se llevan a cabo para
determinar y seguir los ojos y la dirección de la mirada de una
persona. En una primera etapa 71 se capta una imagen con la
iluminación en la disposición (i) de luz, es decir cuando sólo los
elementos 3' están encendidos. Se determinan en la imagen las
pupilas, es decir sus lineas de demarcación, y los descartes de la
fuente de luz. En el siguiente bloque 73 se ejecuta el
procedimiento de acuerdo a la Fig. 6 para determinar cuál es cada
ojo. Entonces en la etapa 75 se decide si se han encontrado dos ojos
en la imagen. Si es así, se ejecuta un bloque 77 en el que se capta
una imagen con la iluminación en la disposición (ii), es decir con
los elementos 3'' encendidos y los diodos 2 activados. De esta
imagen sólo se envía información a la unidad 6 acerca de las áreas
alrededor de los ojos. Se determinan los reflejos y por tanto las
imágenes de los ojos en la imagen. A continuación, en un bloque 79
se ejecuta nuevamente el procedimiento de acuerdo a la Fig. 6 para
determinar cuál es cada ojo. En la siguiente etapa 83 se lleva a
cabo en la unidad 6 un cálculo del punto observado por los ojos.
Entonces se ejecuta un bloque 85 en el que se capta una imagen con
la iluminación en la disposición (i) de luz, es decir con sólo los
elementos 3' encendidos. De la imagen captada sólo se transmite
información a la unidad 6 de las áreas alrededor de los ojos
encontrados. Se determinan las pupilas y los reflejos de la fuente
de luz a partir de la información de imagen restringida, de la misma
manera que en la etapa 71. Entonces en un bloque 87 se ejecuta otra
vez el procedimiento de acuerdo a la Fig. 6 para determinar cuál es
cada ojo. En la siguiente etapa 89 se decide si se han encontrado
dos ojos en la imagen. De ser así, en un bloque 91 se ejecuta un
cálculo del punto observado o mirado por los ojos, de la misma
manera que en el bloque 83. A continuación en un bloque 93 se
decide si las últimas cuatro imágenes captadas fueron captadas con
la iluminación en la disposición (ii) de luz. De no ser así, se
ejecuta otra vez el bloque 85 y de lo contrario el bloque 77. Si se
determina en cualquiera de los bloques 75, 81 y 89 que no se han
encontrado dos ojos se ejecuta otra vez el bloque 71.
Aunque se han descrito e ilustrado realizaciones
específicas de la invención, se reconoce que a los expertos en la
técnica se les ocurrirán fácilmente numerosas ventajas adicionales,
modificaciones y cambios. Por lo tanto, la invención en sus
aspectos más amplios no está limitada a los detalles específicos,
dispositivos representativos y ejemplos ilustrados, mostrados y
descritos aquí. En consecuencia, pueden hacerse diversas
modificaciones sin alejarse del alcance de la invención tal como
está definido por las reivindicaciones adjuntas.
Claims (10)
-
\global\parskip0.960000\baselineskip
1. Una instalación para la detección de ojos que comprende:una o más fuentes (2, 3) de luz para emitir luz en direcciones hacia la cabeza de un usuario,un detector (4) para recibir luz desde la cabeza de un usuario y para captar repetidamente imágenes de la misma, yuna unidad (6) de evaluación conectada al detector (4) para determinar la posición y/o dirección de mirada de un ojo, y dispuesta para determinar, en una imagen captada por el detector (4), un área en la que estén localizadas una imagen de un ojo o unas imágenes de ojos.caracterizada porquela unidad (6) de evaluación está dispuesta para, tras haber determinado el área, controlar el detector (4) para enviar a la unidad (6) de evaluación la información acerca de las imágenes sucesivas que sólo corresponde al área determinada de la imagen captada por el detector (4), yel detector (4) está dispuesto para leer información únicamente de la porción de la superficie del detector (4) que corresponde al área determinada, y por lo tanto los datos que luego han de ser enviados a la unidad (6) de evaluación. - 2. La instalación de detección de ojos de acuerdo a la reivindicación 1, caracterizada porque en el caso en que la unidad (6) de evaluación no pueda ejecutar la determinación a partir de la información enviada, esté dispuesta la unidad (6) de evaluación para controlar el detector (4) para que envíe, de la siguiente imagen, información acerca de una porción mayor del detector (4) alrededor del área determinada previamente.
- 3. La instalación de detección de ojos de acuerdo a cualquiera de las reivindicaciones 1 ó 2, caracterizada porque la unidad (6) de evaluación está dispuesta:
- para decidir dentro de una imagen actual captada por el detector (4) si la imagen contiene imágenes de los dos ojos de un usuario, y
- en el caso en que la unidad (6) de evaluación decida que existe una imagen de sólo un ojo en la imagen actual, para determinar que este ojo tiene una posición en la imagen actual que es suficientemente cercana a la posición de la imagen del ojo en la imagen captada anteriormente.
- 4. La instalación de detección de ojos de acuerdo a la reivindicación 3, caracterizada porque en el caso en que la unidad (6) de evaluación decida que existe una imagen de sólo un ojo en la imagen actual, que la posición de la imagen del ojo en la imagen actual no corresponde o no está suficientemente cercana a la posición de cualquier ojo en una o más imágenes captadas previamente, y que la posición de la imagen del ojo en la imagen actual es tal que la distancia lateral desde un extremo de la imagen actual es menor que una distancia correspondiente a la distancia entre los ojos del usuario, pero la distancia lateral desde el otro extremo es mayor, la unidad (6) de evaluación está dispuesta para considerar al ojo, del que existe una imagen en la imagen actual, como el ojo que significa que una imagen del otro ojo del usuario estaría localizada fuera de la imagen actual.
- 5. La instalación de detección de ojos de acuerdo a cualquiera de las reivindicaciones 1 a 4, caracterizada porqueal menos dos fuentes (2, 3) de luz se proveen y son colocadas a una distancia entre sí para emitir al menos dos rayos de luz que se reflejen en la córnea de un ojo de un usuario, yla unidad (6) de evaluación está dispuesta para usar las posiciones de las imágenes de los reflejos de las fuentes (2, 3) de luz en una imagen captada para determinar la localización del ojo con respecto al detector (4).
- 6. La instalación de detección de ojos de acuerdo a la reivindicación 5, caracterizada porque la unidad (6) de evaluación está dispuesta para determinar en una imagen captada la distancia entre las imágenes de los reflejos de las fuentes (2, 3) de luz para determinar a partir de ahí la distancia del ojo al detector.
- 7. La instalación de detección de ojos de acuerdo con la reivindicación 5, caracterizada porque se proveen al menos tres fuentes (2, 3) de luz en un patrón definido, estando la unidad (6) de evaluación dispuesta para determinar las posiciones de las imágenes de los reflejos de las fuentes (2, 3) de luz y para usar todas las posiciones determinadas para determinar la localización del ojo con respecto al detector (4).
- 8. La instalación de detección de ojos de acuerdo con la reivindicación 5, caracterizada porque las fuentes (2, 3) de luz están divididas en grupos, un primer grupo (3) que está dispuesto para emitir luz adecuada para determinar, en imágenes captadas sólo con iluminación de este grupo (3), la dirección de mirada del ojo, y un segundo grupo (2) que está dispuesto para emitir luz adecuada para determinar, en imágenes captadas sólo con iluminación de este grupo (2), la distancia del ojo al detector (4), estando la unidad de control dispuesta para encender bien uno o ambos de estos grupos al captar cada imagen.
\global\parskip1.000000\baselineskip
- 9. La instalación de detección de ojos de acuerdo a la reivindicación 5, caracterizada porque una de las fuentes (2, 3) de luz está dispuesta para emitir luz en un rayo de luz coaxial con el eje óptico del detector (4).
- 10. La instalación de detección de ojos de acuerdo a la reivindicación 5, caracterizada porque las fuentes (2, 3) de luz están divididas en dos grupos, un primer grupo (3) que se ha dispuesto para emitir luz que causa un efecto de brillo de ojo y por lo tanto es adecuado para determinar, a partir de imágenes captadas sólo con iluminación de este grupo (3), la dirección de mirada del ojo, y un segundo grupo (2) que se ha dispuesto para emitir luz adecuada para determinar, a partir de imágenes captadas sólo con iluminación de este grupo(2), la distancia del ojo al detector (4), estando dispuesta la unidad de control para activar bien uno o ambos de estos grupos captados en cada imagen.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE0203457A SE524003C2 (sv) | 2002-11-21 | 2002-11-21 | Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel |
SE2002103457 | 2002-11-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2327633T3 true ES2327633T3 (es) | 2009-11-02 |
Family
ID=20289646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES03776116T Expired - Lifetime ES2327633T3 (es) | 2002-11-21 | 2003-11-21 | Instalacion para ver y seguir un ojo y la direccion de la mirada del mismo. |
Country Status (12)
Country | Link |
---|---|
US (1) | US7572008B2 (es) |
EP (1) | EP1562469B1 (es) |
JP (2) | JP4783018B2 (es) |
CN (1) | CN100421614C (es) |
AT (1) | ATE432038T1 (es) |
AU (1) | AU2003284816A1 (es) |
DE (1) | DE60327798D1 (es) |
DK (1) | DK1562469T3 (es) |
ES (1) | ES2327633T3 (es) |
PT (1) | PT1562469E (es) |
SE (1) | SE524003C2 (es) |
WO (1) | WO2004045399A1 (es) |
Families Citing this family (208)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7963652B2 (en) | 2003-11-14 | 2011-06-21 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
EP1691670B1 (en) * | 2003-11-14 | 2014-07-16 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
JP4500992B2 (ja) * | 2004-01-14 | 2010-07-14 | 国立大学法人静岡大学 | 三次元視点計測装置 |
ZA200608191B (en) * | 2004-04-01 | 2008-07-30 | William C Torch | Biosensors, communicators, and controllers monitoring eye movement and methods for using them |
US10039445B1 (en) | 2004-04-01 | 2018-08-07 | Google Llc | Biosensors, communicators, and controllers monitoring eye movement and methods for using them |
US7322696B2 (en) * | 2004-04-19 | 2008-01-29 | Shamir Optical Industry | Customized lens, and system and method of producing thereof |
DK1607840T3 (da) | 2004-06-18 | 2015-02-16 | Tobii Technology Ab | Øjenstyring af et computerapparat |
CN1293446C (zh) * | 2005-06-02 | 2007-01-03 | 北京中星微电子有限公司 | 一种非接触式目控操作系统和方法 |
EP1928296B1 (en) | 2005-09-27 | 2011-05-04 | Penny AB | A device for controlling an external unit |
JP2009512009A (ja) | 2005-10-10 | 2009-03-19 | トビイ テクノロジー アーベー | 広範囲の動作距離を有するアイトラッカー |
CN101336089A (zh) * | 2006-01-26 | 2008-12-31 | 诺基亚公司 | 眼睛跟踪器设备 |
WO2007101690A1 (en) * | 2006-03-09 | 2007-09-13 | Tobii Technology Ab | Eye determination apparatus |
US8775252B2 (en) | 2006-05-04 | 2014-07-08 | National Ict Australia Limited | Electronic media system |
US8197539B2 (en) | 2006-05-05 | 2012-06-12 | University Of Southern California | Intraocular camera for retinal prostheses |
US20080147488A1 (en) * | 2006-10-20 | 2008-06-19 | Tunick James A | System and method for monitoring viewer attention with respect to a display and determining associated charges |
KR100850357B1 (ko) * | 2006-12-06 | 2008-08-04 | 한국전자통신연구원 | 시선 위치 추적 방법 및 그 장치 |
ES2316272B1 (es) * | 2007-02-16 | 2009-11-30 | Iriscom Sistemas, S.L . | Sistema de seguimiento ocular para el gobierno de un ordenador. |
GB0709405D0 (en) * | 2007-05-16 | 2007-06-27 | Univ Edinburgh | Testing vision |
CA2685976C (en) | 2007-05-23 | 2013-02-19 | The University Of British Columbia | Methods and apparatus for estimating point-of-gaze in three dimensions |
DE102008006090A1 (de) | 2008-01-25 | 2009-07-30 | Claudius Zelenka | Verfahren zur störungsfreien Erkennung der Position der Augen |
US8494229B2 (en) | 2008-02-14 | 2013-07-23 | Nokia Corporation | Device and method for determining gaze direction |
JP5163982B2 (ja) * | 2008-06-16 | 2013-03-13 | 国立大学法人神戸大学 | 視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ |
TWI432172B (zh) * | 2008-10-27 | 2014-04-01 | Utechzone Co Ltd | Pupil location method, pupil positioning system and storage media |
US20100118199A1 (en) * | 2008-11-10 | 2010-05-13 | Kabushiki Kaisha Toshiba | Video/Audio Processor and Video/Audio Processing Method |
WO2010083853A1 (en) * | 2009-01-26 | 2010-07-29 | Tobii Technology Ab | Detection of gaze point assisted by optical reference signals |
CN101807110B (zh) * | 2009-02-17 | 2012-07-04 | 由田新技股份有限公司 | 瞳孔定位方法及系统 |
EP2238889B1 (en) | 2009-04-01 | 2011-10-12 | Tobii Technology AB | Adaptive camera and illuminator eyetracker |
WO2010118292A1 (en) * | 2009-04-09 | 2010-10-14 | Dynavox Systems, Llc | Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods |
US8320623B2 (en) * | 2009-06-17 | 2012-11-27 | Lc Technologies, Inc. | Systems and methods for 3-D target location |
US9507418B2 (en) | 2010-01-21 | 2016-11-29 | Tobii Ab | Eye tracker based contextual action |
TWI497247B (zh) * | 2010-01-28 | 2015-08-21 | Chi Mei Comm Systems Inc | 實現亮度調節的資料處理設備及方法 |
US20110205148A1 (en) * | 2010-02-24 | 2011-08-25 | Corriveau Philip J | Facial Tracking Electronic Reader |
JP5529660B2 (ja) * | 2010-07-20 | 2014-06-25 | パナソニック株式会社 | 瞳孔検出装置及び瞳孔検出方法 |
US9760123B2 (en) | 2010-08-06 | 2017-09-12 | Dynavox Systems Llc | Speech generation device with a projected display and optical inputs |
KR20120057033A (ko) * | 2010-11-26 | 2012-06-05 | 한국전자통신연구원 | Iptv 제어를 위한 원거리 시선 추적 장치 및 방법 |
US9185352B1 (en) | 2010-12-22 | 2015-11-10 | Thomas Jacques | Mobile eye tracking system |
US20120244935A1 (en) * | 2011-03-24 | 2012-09-27 | International Business Machines Corporation | Synchronizing game character display with game player viewing detection |
US8911087B2 (en) | 2011-05-20 | 2014-12-16 | Eyefluence, Inc. | Systems and methods for measuring reactions of head, eyes, eyelids and pupils |
US8885877B2 (en) | 2011-05-20 | 2014-11-11 | Eyefluence, Inc. | Systems and methods for identifying gaze tracking scene reference locations |
US8885882B1 (en) | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
US20130033524A1 (en) * | 2011-08-02 | 2013-02-07 | Chin-Han Wang | Method for performing display control in response to eye activities of a user, and associated apparatus |
JP5912351B2 (ja) | 2011-09-05 | 2016-04-27 | 国立大学法人浜松医科大学 | 自閉症診断支援システム及び自閉症診断支援装置 |
WO2013036621A1 (en) * | 2011-09-09 | 2013-03-14 | Thales Avionics, Inc. | Controlling vehicle entertainment systems responsive to sensed passenger gestures |
JP5661942B2 (ja) * | 2011-10-06 | 2015-01-28 | 本田技研工業株式会社 | 警報装置 |
EP2587341B1 (en) | 2011-10-27 | 2017-01-04 | Tobii AB | Power management in an eye-tracking system |
US8976110B2 (en) | 2011-10-27 | 2015-03-10 | Tobii Technology Ab | Power management in an eye-tracking system |
EP2587342A1 (en) | 2011-10-28 | 2013-05-01 | Tobii Technology AB | Method and system for user initiated query searches based on gaze data |
US9071740B1 (en) | 2011-10-28 | 2015-06-30 | Google Inc. | Modular camera system |
US8929589B2 (en) | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
US8860660B2 (en) | 2011-12-29 | 2014-10-14 | Grinbath, Llc | System and method of determining pupil center position |
US9910490B2 (en) | 2011-12-29 | 2018-03-06 | Eyeguide, Inc. | System and method of cursor position control based on the vestibulo-ocular reflex |
CN102436306A (zh) * | 2011-12-30 | 2012-05-02 | 四川虹欧显示器件有限公司 | 3d显示系统的控制方法和装置 |
US10394320B2 (en) | 2012-01-04 | 2019-08-27 | Tobii Ab | System for gaze interaction |
US10540008B2 (en) | 2012-01-04 | 2020-01-21 | Tobii Ab | System for gaze interaction |
US10025381B2 (en) | 2012-01-04 | 2018-07-17 | Tobii Ab | System for gaze interaction |
US10488919B2 (en) | 2012-01-04 | 2019-11-26 | Tobii Ab | System for gaze interaction |
US10013053B2 (en) | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
US9197686B1 (en) | 2012-01-06 | 2015-11-24 | Google Inc. | Backfill of video stream |
DE102012003283A1 (de) | 2012-02-20 | 2013-08-22 | 4tiitoo AG | Verfahren und Vorrichtung zur blickgestützten Steuerung |
JP5926210B2 (ja) | 2012-03-21 | 2016-05-25 | 国立大学法人浜松医科大学 | 自閉症診断支援システム及び自閉症診断支援装置 |
EP2696259B1 (en) | 2012-08-09 | 2021-10-13 | Tobii AB | Fast wake-up in a gaze tracking system |
US9575960B1 (en) * | 2012-09-17 | 2017-02-21 | Amazon Technologies, Inc. | Auditory enhancement using word analysis |
JP6056323B2 (ja) | 2012-09-24 | 2017-01-11 | 富士通株式会社 | 視線検出装置、視線検出用コンピュータプログラム |
US20140085198A1 (en) | 2012-09-26 | 2014-03-27 | Grinbath, Llc | Correlating Pupil Position to Gaze Location Within a Scene |
EP2712541B1 (en) | 2012-09-27 | 2015-12-30 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Tiled image based scanning for head and/or eye position for eye tracking |
CN103777861A (zh) * | 2012-10-23 | 2014-05-07 | 韩国电子通信研究院 | 终端和用于在终端中控制触摸操作的方法 |
US20140139556A1 (en) * | 2012-11-22 | 2014-05-22 | Shanghai Powermo Information Tech. Co. Ltd. | Apparatus and method for displaying software keyboards thereof |
KR101417433B1 (ko) * | 2012-11-27 | 2014-07-08 | 현대자동차주식회사 | 눈동자의 움직임을 이용한 사용자 인증 장치 및 그 방법 |
US9612656B2 (en) | 2012-11-27 | 2017-04-04 | Facebook, Inc. | Systems and methods of eye tracking control on mobile device |
US10528135B2 (en) | 2013-01-14 | 2020-01-07 | Ctrl-Labs Corporation | Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display |
US9921648B2 (en) * | 2013-02-22 | 2018-03-20 | University Of Seoul Industry Cooperation Foundation | Apparatuses, methods and recording medium for control portable communication terminal and its smart watch |
US20140247210A1 (en) | 2013-03-01 | 2014-09-04 | Tobii Technology Ab | Zonal gaze driven interaction |
US20140247208A1 (en) | 2013-03-01 | 2014-09-04 | Tobii Technology Ab | Invoking and waking a computing device from stand-by mode based on gaze detection |
US9864498B2 (en) | 2013-03-13 | 2018-01-09 | Tobii Ab | Automatic scrolling based on gaze detection |
US9898081B2 (en) | 2013-03-04 | 2018-02-20 | Tobii Ab | Gaze and saccade based graphical manipulation |
US10082870B2 (en) | 2013-03-04 | 2018-09-25 | Tobii Ab | Gaze and saccade based graphical manipulation |
US10895908B2 (en) | 2013-03-04 | 2021-01-19 | Tobii Ab | Targeting saccade landing prediction using visual history |
US11714487B2 (en) | 2013-03-04 | 2023-08-01 | Tobii Ab | Gaze and smooth pursuit based continuous foveal adjustment |
US9665171B1 (en) | 2013-03-04 | 2017-05-30 | Tobii Ab | Gaze and saccade based graphical manipulation |
GB2511868B (en) * | 2013-03-15 | 2020-07-15 | Tobii Ab | Eye/gaze tracker and method of tracking the position of an eye and/or a gaze point of a subject |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US11921471B2 (en) | 2013-08-16 | 2024-03-05 | Meta Platforms Technologies, Llc | Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source |
US20150124566A1 (en) | 2013-10-04 | 2015-05-07 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices employing contact sensors |
US10042422B2 (en) | 2013-11-12 | 2018-08-07 | Thalmic Labs Inc. | Systems, articles, and methods for capacitive electromyography sensors |
US10188309B2 (en) | 2013-11-27 | 2019-01-29 | North Inc. | Systems, articles, and methods for electromyography sensors |
EP3036620B1 (en) | 2013-08-23 | 2017-03-29 | Tobii AB | Systems and methods for providing audio to a user based on gaze input |
US9143880B2 (en) | 2013-08-23 | 2015-09-22 | Tobii Ab | Systems and methods for providing audio to a user based on gaze input |
KR101882594B1 (ko) | 2013-09-03 | 2018-07-26 | 토비 에이비 | 휴대용 눈 추적 디바이스 |
US10686972B2 (en) | 2013-09-03 | 2020-06-16 | Tobii Ab | Gaze assisted field of view control |
US10310597B2 (en) | 2013-09-03 | 2019-06-04 | Tobii Ab | Portable eye tracking device |
CN106062665B (zh) * | 2013-09-11 | 2019-05-17 | 深圳市汇顶科技股份有限公司 | 基于用户的眼睛运动和位置的光学感测和跟踪的用户界面 |
US10142553B2 (en) | 2013-09-16 | 2018-11-27 | Intel Corporation | Camera and light source synchronization for object tracking |
KR101503159B1 (ko) * | 2013-10-15 | 2015-03-16 | (주)이스트소프트 | 시선의 위치를 감지하여 터치스크린을 제어하는 방법 |
JP6165979B2 (ja) * | 2013-11-01 | 2017-07-19 | インテル コーポレイション | 注視補助型タッチスクリーン入力 |
KR101470243B1 (ko) * | 2013-11-15 | 2014-12-05 | 현대자동차주식회사 | 시선 검출 장치 및 그 시선 검출 방법 |
US10317995B2 (en) | 2013-11-18 | 2019-06-11 | Tobii Ab | Component determination and gaze provoked interaction |
US10558262B2 (en) | 2013-11-18 | 2020-02-11 | Tobii Ab | Component determination and gaze provoked interaction |
US9817474B2 (en) | 2014-01-24 | 2017-11-14 | Tobii Ab | Gaze driven interaction for a vehicle |
DE102015202846B4 (de) | 2014-02-19 | 2020-06-25 | Magna Electronics, Inc. | Fahrzeugsichtsystem mit Anzeige |
US10409366B2 (en) | 2014-04-28 | 2019-09-10 | Adobe Inc. | Method and apparatus for controlling display of digital content using eye movement |
US9880632B2 (en) | 2014-06-19 | 2018-01-30 | Thalmic Labs Inc. | Systems, devices, and methods for gesture identification |
US9874744B2 (en) | 2014-06-25 | 2018-01-23 | Thalmic Labs Inc. | Systems, devices, and methods for wearable heads-up displays |
US9411417B2 (en) | 2014-07-07 | 2016-08-09 | Logitech Europe S.A. | Eye gaze tracking system and method |
US9678567B2 (en) | 2014-07-16 | 2017-06-13 | Avaya Inc. | Indication of eye tracking information during real-time communications |
GB2528446B (en) | 2014-07-21 | 2021-08-04 | Tobii Tech Ab | Method and apparatus for detecting and following an eye and/or the gaze direction thereof |
US20170231058A1 (en) * | 2014-08-04 | 2017-08-10 | Innosys, Inc. | Lighting Systems |
US9952883B2 (en) | 2014-08-05 | 2018-04-24 | Tobii Ab | Dynamic determination of hardware |
CN106922182B (zh) * | 2014-11-14 | 2020-01-24 | 依视路国际公司 | 确定眼睛的显著点的位置和跟踪眼镜配戴者的注视方向的设备和方法 |
US9405120B2 (en) | 2014-11-19 | 2016-08-02 | Magna Electronics Solutions Gmbh | Head-up display and vehicle using the same |
US10242379B2 (en) | 2015-01-30 | 2019-03-26 | Adobe Inc. | Tracking visual gaze information for controlling content display |
EP3051386A1 (en) | 2015-01-30 | 2016-08-03 | 4tiitoo GmbH | Eye tracking system and method |
KR20170139509A (ko) | 2015-02-17 | 2017-12-19 | 탈믹 랩스 인크 | 웨어러블 헤드-업 디스플레이 내의 아이박스 확장을 위한 시스템, 장치, 및 방법 |
US10621431B2 (en) * | 2015-03-27 | 2020-04-14 | Lenovo (Singapore) Pte. Ltd. | Camera that uses light from plural light sources disposed on a device |
GB201507224D0 (en) * | 2015-04-28 | 2015-06-10 | Microsoft Technology Licensing Llc | Eye gaze correction |
US10197805B2 (en) | 2015-05-04 | 2019-02-05 | North Inc. | Systems, devices, and methods for eyeboxes with heterogeneous exit pupils |
US9544485B2 (en) | 2015-05-27 | 2017-01-10 | Google Inc. | Multi-mode LED illumination system |
AU2016267275B2 (en) | 2015-05-28 | 2021-07-01 | Google Llc | Systems, devices, and methods that integrate eye tracking and scanning laser projection in wearable heads-up displays |
US9454820B1 (en) | 2015-06-12 | 2016-09-27 | Google Inc. | Using a scene illuminating infrared emitter array in a video monitoring camera for depth determination |
US9554063B2 (en) | 2015-06-12 | 2017-01-24 | Google Inc. | Using infrared images of a monitored scene to identify windows |
US9235899B1 (en) | 2015-06-12 | 2016-01-12 | Google Inc. | Simulating an infrared emitter array in a video monitoring camera to construct a lookup table for depth determination |
US9386230B1 (en) | 2015-06-12 | 2016-07-05 | Google Inc. | Day and night detection based on one or more of illuminant detection, lux level detection, and tiling |
US9886620B2 (en) * | 2015-06-12 | 2018-02-06 | Google Llc | Using a scene illuminating infrared emitter array in a video monitoring camera to estimate the position of the camera |
JP6582604B2 (ja) * | 2015-06-23 | 2019-10-02 | 富士通株式会社 | 瞳孔検出プログラム、瞳孔検出方法、瞳孔検出装置および視線検出システム |
EP3345021A4 (en) | 2015-09-04 | 2019-05-08 | North Inc. | SYSTEMS, ARTICLES AND METHOD FOR INTEGRATING HOLOGRAPHIC OPTICAL ELEMENTS IN GLASS GLASSES |
US10016130B2 (en) | 2015-09-04 | 2018-07-10 | University Of Massachusetts | Eye tracker system and methods for detecting eye parameters |
US10061383B1 (en) | 2015-09-16 | 2018-08-28 | Mirametrix Inc. | Multi-feature gaze tracking system and method |
WO2017059285A1 (en) | 2015-10-01 | 2017-04-06 | Thalmic Labs Inc. | Systems, devices, and methods for interacting with content displayed on head-mounted displays |
US9904051B2 (en) * | 2015-10-23 | 2018-02-27 | Thalmic Labs Inc. | Systems, devices, and methods for laser eye tracking |
TWI627438B (zh) * | 2015-11-12 | 2018-06-21 | 柯尼卡美能達股份有限公司 | 鏡頭單元、攝像裝置及行動機器 |
US10324297B2 (en) | 2015-11-30 | 2019-06-18 | Magna Electronics Inc. | Heads up display system for vehicle |
CN105528577B (zh) * | 2015-12-04 | 2019-02-12 | 深圳大学 | 基于智能眼镜的识别方法 |
US10802190B2 (en) | 2015-12-17 | 2020-10-13 | Covestro Llc | Systems, devices, and methods for curved holographic optical elements |
US9785234B2 (en) | 2015-12-26 | 2017-10-10 | Intel Corporation | Analysis of ambient light for gaze tracking |
WO2017113018A1 (en) | 2015-12-31 | 2017-07-06 | Mirametrix Inc. | System and apparatus for gaze tracking |
EP3187976A3 (en) | 2015-12-31 | 2017-09-13 | Tobii AB | System for gaze interaction |
US10303246B2 (en) | 2016-01-20 | 2019-05-28 | North Inc. | Systems, devices, and methods for proximity-based eye tracking |
US10151926B2 (en) | 2016-01-29 | 2018-12-11 | North Inc. | Systems, devices, and methods for preventing eyebox degradation in a wearable heads-up display |
CN105763810B (zh) * | 2016-03-28 | 2019-04-16 | 努比亚技术有限公司 | 基于人眼的拍照装置及方法 |
JP2017182739A (ja) * | 2016-03-31 | 2017-10-05 | 富士通株式会社 | 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム |
US10594974B2 (en) | 2016-04-07 | 2020-03-17 | Tobii Ab | Image sensor for vision based on human computer interaction |
EP3440831B1 (en) | 2016-04-07 | 2020-11-18 | Tobii AB | Mage sensor for computer vision based human computer interaction |
KR20180132854A (ko) | 2016-04-13 | 2018-12-12 | 탈믹 랩스 인크 | 레이저 프로젝터를 집속하기 위한 시스템, 장치 및 방법 |
US10401621B2 (en) | 2016-04-19 | 2019-09-03 | Magna Electronics Inc. | Display unit for vehicle head-up display system |
CN107305629A (zh) * | 2016-04-21 | 2017-10-31 | 王溯 | 目光识别装置及方法 |
WO2020112986A1 (en) | 2018-11-27 | 2020-06-04 | Facebook Technologies, Inc. | Methods and apparatus for autocalibration of a wearable electrode sensor system |
US20190121306A1 (en) | 2017-10-19 | 2019-04-25 | Ctrl-Labs Corporation | Systems and methods for identifying biological structures associated with neuromuscular source signals |
EP3490433B1 (en) * | 2016-07-27 | 2023-03-08 | Tobii AB | Wearable device having a display, lens, illuminator, and image sensor |
US10277874B2 (en) | 2016-07-27 | 2019-04-30 | North Inc. | Systems, devices, and methods for laser projectors |
US10459221B2 (en) | 2016-08-12 | 2019-10-29 | North Inc. | Systems, devices, and methods for variable luminance in wearable heads-up displays |
US10372591B2 (en) | 2016-09-07 | 2019-08-06 | International Business Machines Corporation | Applying eye trackers monitoring for effective exploratory user interface testing |
CN112445339A (zh) | 2016-09-20 | 2021-03-05 | 托比股份公司 | 基于注视和扫视的图形操纵 |
WO2018064141A1 (en) | 2016-09-27 | 2018-04-05 | Tobii Ab | Portable eye tracking device |
US10180615B2 (en) | 2016-10-31 | 2019-01-15 | Google Llc | Electrochromic filtering in a camera |
US10215987B2 (en) | 2016-11-10 | 2019-02-26 | North Inc. | Systems, devices, and methods for astigmatism compensation in a wearable heads-up display |
US10459220B2 (en) | 2016-11-30 | 2019-10-29 | North Inc. | Systems, devices, and methods for laser eye tracking in wearable heads-up displays |
US10663732B2 (en) | 2016-12-23 | 2020-05-26 | North Inc. | Systems, devices, and methods for beam combining in wearable heads-up displays |
US10437073B2 (en) | 2017-01-25 | 2019-10-08 | North Inc. | Systems, devices, and methods for beam combining in laser projectors |
WO2018156912A1 (en) | 2017-02-27 | 2018-08-30 | Tobii Ab | System for gaze interaction |
EP3545388A4 (en) * | 2017-03-21 | 2020-07-08 | Hewlett-Packard Development Company, L.P. | ESTIMATES WITHIN DISPLAYS |
US10460527B2 (en) * | 2017-06-30 | 2019-10-29 | Tobii Ab | Systems and methods for displaying images in a virtual world environment |
US10521661B2 (en) | 2017-09-01 | 2019-12-31 | Magic Leap, Inc. | Detailed eye shape model for robust biometric applications |
EP4011274A1 (en) | 2017-09-08 | 2022-06-15 | Tobii AB | Eye tracking using eyeball center position |
US11300788B2 (en) | 2017-10-23 | 2022-04-12 | Google Llc | Free space multiple laser diode modules |
US20240187738A1 (en) * | 2017-12-28 | 2024-06-06 | Tobii Ab | Exposure time control |
CN108256910A (zh) * | 2018-01-10 | 2018-07-06 | 京东方科技集团股份有限公司 | 内容推荐方法、装置及电子设备 |
US11961494B1 (en) | 2019-03-29 | 2024-04-16 | Meta Platforms Technologies, Llc | Electromagnetic interference reduction in extended reality environments |
US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
US10459237B2 (en) | 2018-02-01 | 2019-10-29 | Dell Products L.P. | System, head mounted device (HMD) and method for adjusting a position of an HMD worn by a user |
US10342425B1 (en) | 2018-03-28 | 2019-07-09 | Tobii Ab | Method and system for controlling illuminators |
WO2019185136A1 (en) | 2018-03-28 | 2019-10-03 | Tobii Ab | Method and system for controlling illuminators |
US10705604B2 (en) * | 2018-05-22 | 2020-07-07 | Htc Corporation | Eye tracking apparatus and light source control method thereof |
US10324529B1 (en) | 2018-05-31 | 2019-06-18 | Tobii Ab | Method and system for glint/reflection identification |
US10288879B1 (en) | 2018-05-31 | 2019-05-14 | Tobii Ab | Method and system for glint/reflection identification |
EP3801196B1 (en) | 2018-05-31 | 2022-06-01 | Tobii AB | Method and system for glint/reflection identification |
CN108762511B (zh) * | 2018-06-14 | 2020-08-25 | 北京七鑫易维信息技术有限公司 | 一种光源控制方法及装置 |
CN110740246A (zh) * | 2018-07-18 | 2020-01-31 | 阿里健康信息技术有限公司 | 一种图像矫正方法、移动设备和终端设备 |
CN110850594B (zh) * | 2018-08-20 | 2022-05-17 | 余姚舜宇智能光学技术有限公司 | 头戴式可视设备及用于头戴式可视设备的眼球追踪系统 |
US11353952B2 (en) * | 2018-11-26 | 2022-06-07 | Tobii Ab | Controlling illuminators for optimal glints |
US10885882B2 (en) | 2018-12-06 | 2021-01-05 | Tobii Ab | Reducing aliasing artifacts in foveated rendering using cross-resolution modulation |
US10775885B2 (en) | 2019-02-15 | 2020-09-15 | Dell Products L.P. | Information handling system and method to improve the accuracy of eye tracking data generated by an eye tracking system |
US11644897B2 (en) | 2019-04-01 | 2023-05-09 | Evolution Optiks Limited | User tracking system using user feature location and method, and digital display device and digital image rendering system and method using same |
WO2020201999A2 (en) | 2019-04-01 | 2020-10-08 | Evolution Optiks Limited | Pupil tracking system and method, and digital display device and digital image rendering system and method using same |
US10712817B1 (en) | 2019-06-27 | 2020-07-14 | Tobii Ab | Image re-projection for foveated rendering |
CN114041101A (zh) * | 2019-07-11 | 2022-02-11 | 惠普发展公司,有限责任合伙企业 | 用于显示器的眼睛跟踪 |
US11545131B2 (en) * | 2019-07-16 | 2023-01-03 | Microsoft Technology Licensing, Llc | Reading order system for improving accessibility of electronic content |
CN110251799B (zh) * | 2019-07-26 | 2021-07-20 | 深圳市康宁医院(深圳市精神卫生研究所、深圳市精神卫生中心) | 神经反馈治疗仪 |
US10788893B1 (en) | 2019-08-06 | 2020-09-29 | Eyetech Digital Systems, Inc. | Computer tablet augmented with internally integrated eye-tracking camera assembly |
US10842430B1 (en) | 2019-09-12 | 2020-11-24 | Logitech Europe S.A. | Eye fatigue detection using visual imaging |
US11322113B2 (en) | 2019-09-12 | 2022-05-03 | Logitech Europe S.A. | Techniques for eye fatigue mitigation |
CN112578556B (zh) | 2019-09-27 | 2023-02-21 | 托比股份公司 | 用于减少来自光学装置的不合需的反射的眼睛跟踪系统 |
KR20210038782A (ko) | 2019-09-30 | 2021-04-08 | 삼성디스플레이 주식회사 | 전자 장치 |
WO2021073743A1 (en) | 2019-10-17 | 2021-04-22 | Huawei Technologies Co., Ltd. | Determining user input based on hand gestures and eye tracking |
CN112949370A (zh) | 2019-12-10 | 2021-06-11 | 托比股份公司 | 眼睛事件检测 |
US10928904B1 (en) * | 2019-12-31 | 2021-02-23 | Logitech Europe S.A. | User recognition and gaze tracking in a video system |
US11163995B2 (en) | 2019-12-31 | 2021-11-02 | Logitech Europe S.A. | User recognition and gaze tracking in a video system |
US10685748B1 (en) | 2020-02-12 | 2020-06-16 | Eyetech Digital Systems, Inc. | Systems and methods for secure processing of eye tracking data |
US11921917B2 (en) | 2020-04-07 | 2024-03-05 | Eyetech Digital Systems, Inc. | Compact eye-tracking camera systems and methods |
US10996753B1 (en) * | 2020-04-07 | 2021-05-04 | Eyetech Digital Systems, Inc. | Multi-mode eye-tracking with independently operable illuminators |
CN111700586B (zh) * | 2020-07-01 | 2023-09-29 | 业成科技(成都)有限公司 | 眼动追踪装置及应用其的电子装置 |
SE544921C2 (en) | 2020-08-27 | 2023-01-03 | Tobii Ab | Eye tracking system |
US20230333640A1 (en) * | 2020-09-22 | 2023-10-19 | Sterling Labs Llc | Multiple gaze dependent illumination sources for retinal eye tracking |
SE2051433A1 (en) | 2020-12-08 | 2022-06-09 | Tobii Ab | Method and system for glint classification |
US11593962B2 (en) | 2020-12-29 | 2023-02-28 | Tobii Ab | Eye gaze tracking system, associated methods and computer programs |
US11868531B1 (en) | 2021-04-08 | 2024-01-09 | Meta Platforms Technologies, Llc | Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof |
US11503998B1 (en) | 2021-05-05 | 2022-11-22 | Innodem Neurosciences | Method and a system for detection of eye gaze-pattern abnormalities and related neurological diseases |
US12002290B2 (en) | 2022-02-25 | 2024-06-04 | Eyetech Digital Systems, Inc. | Systems and methods for hybrid edge/cloud processing of eye-tracking image data |
US11995232B1 (en) | 2022-12-09 | 2024-05-28 | Shopify Inc. | Systems and methods for responsive user interface based on gaze depth |
CN115836837B (zh) * | 2023-02-20 | 2023-05-02 | 潍坊医学院附属医院 | 眼科检测装置 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2739331B2 (ja) * | 1988-11-16 | 1998-04-15 | 株式会社エイ・ティ・アール通信システム研究所 | 非接触視線検出装置 |
JP2541688B2 (ja) * | 1990-05-21 | 1996-10-09 | 日産自動車株式会社 | 眼位置検出装置 |
JP2522859B2 (ja) * | 1990-12-14 | 1996-08-07 | 日産自動車株式会社 | 眼位置検出装置 |
JPH0761314B2 (ja) * | 1991-10-07 | 1995-07-05 | コナミ株式会社 | 網膜反射光量測定装置及び該装置を用いた視線検出装置 |
JP3109230B2 (ja) * | 1992-03-17 | 2000-11-13 | 日産自動車株式会社 | 車両運転者の眼球位置検出装置 |
JPH06148513A (ja) * | 1992-10-30 | 1994-05-27 | Canon Inc | 視線検出装置 |
US5638176A (en) | 1996-06-25 | 1997-06-10 | International Business Machines Corporation | Inexpensive interferometric eye tracking system |
GB2315858A (en) * | 1996-08-01 | 1998-02-11 | Sharp Kk | System for eye detection and gaze direction determination |
US6351273B1 (en) * | 1997-04-30 | 2002-02-26 | Jerome H. Lemelson | System and methods for controlling automatic scrolling of information on a display or screen |
DE19731301C2 (de) * | 1997-07-13 | 2001-05-10 | Smi Senso Motoric Instr Gmbh | Vorrichtung zum Steuern eines Mikroskopes mittels Blickrichtungsanalyse |
JPH1156782A (ja) * | 1997-08-12 | 1999-03-02 | Techno Works:Kk | 二光源及び画像差分手段を用いた眼球特徴点検出方式 |
AUPP048097A0 (en) * | 1997-11-21 | 1997-12-18 | Xenotech Research Pty Ltd | Eye tracking apparatus |
US6152563A (en) * | 1998-02-20 | 2000-11-28 | Hutchinson; Thomas E. | Eye gaze direction tracker |
JP2000163564A (ja) * | 1998-12-01 | 2000-06-16 | Fujitsu Ltd | 目の追跡装置および瞬き検出装置 |
JP3605080B2 (ja) * | 2002-02-04 | 2004-12-22 | キヤノン株式会社 | 視線検出装置 |
US7206435B2 (en) * | 2002-03-26 | 2007-04-17 | Honda Giken Kogyo Kabushiki Kaisha | Real-time eye detection and tracking under various light conditions |
-
2002
- 2002-11-21 SE SE0203457A patent/SE524003C2/sv not_active IP Right Cessation
-
2003
- 2003-11-21 AT AT03776116T patent/ATE432038T1/de not_active IP Right Cessation
- 2003-11-21 EP EP03776116A patent/EP1562469B1/en not_active Expired - Lifetime
- 2003-11-21 CN CNB2003801036960A patent/CN100421614C/zh not_active Expired - Lifetime
- 2003-11-21 JP JP2004553361A patent/JP4783018B2/ja not_active Expired - Fee Related
- 2003-11-21 WO PCT/SE2003/001813 patent/WO2004045399A1/en active Application Filing
- 2003-11-21 AU AU2003284816A patent/AU2003284816A1/en not_active Abandoned
- 2003-11-21 ES ES03776116T patent/ES2327633T3/es not_active Expired - Lifetime
- 2003-11-21 DE DE60327798T patent/DE60327798D1/de not_active Expired - Lifetime
- 2003-11-21 US US10/535,227 patent/US7572008B2/en active Active
- 2003-11-21 PT PT03776116T patent/PT1562469E/pt unknown
- 2003-11-21 DK DK03776116T patent/DK1562469T3/da active
-
2011
- 2011-03-03 JP JP2011046089A patent/JP5297486B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN100421614C (zh) | 2008-10-01 |
AU2003284816A1 (en) | 2004-06-15 |
ATE432038T1 (de) | 2009-06-15 |
WO2004045399A1 (en) | 2004-06-03 |
PT1562469E (pt) | 2009-08-05 |
SE0203457D0 (sv) | 2002-11-21 |
US7572008B2 (en) | 2009-08-11 |
CN1725976A (zh) | 2006-01-25 |
SE524003C2 (sv) | 2004-06-15 |
EP1562469B1 (en) | 2009-05-27 |
US20060238707A1 (en) | 2006-10-26 |
DK1562469T3 (da) | 2009-08-17 |
JP2011115606A (ja) | 2011-06-16 |
JP2006507054A (ja) | 2006-03-02 |
DE60327798D1 (de) | 2009-07-09 |
EP1562469A1 (en) | 2005-08-17 |
SE0203457L (sv) | 2004-05-22 |
JP4783018B2 (ja) | 2011-09-28 |
JP5297486B2 (ja) | 2013-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2327633T3 (es) | Instalacion para ver y seguir un ojo y la direccion de la mirada del mismo. | |
ES2909057T3 (es) | Seguimiento ocular que utiliza la posición del centro del globo ocular | |
ES2830178T3 (es) | Iluminador de modo dual para formación de imágenes bajo diferentes condiciones de iluminación | |
JP6861628B2 (ja) | 眼の不快感を軽減させるディスプレイ | |
US8885177B2 (en) | Medical wide field of view optical tracking system | |
FI125445B (fi) | Katseenohjausjärjestely | |
US8077914B1 (en) | Optical tracking apparatus using six degrees of freedom | |
CN101816547B (zh) | 基于瞳孔对称性的自动直视检测方法和系统 | |
EP3076892B1 (en) | A medical optical tracking system | |
ES2337311T3 (es) | Dispositivo para medir un analito en un fluido ocular. | |
US20160073853A1 (en) | Imaging a patient's interior | |
ES2553441T3 (es) | Detección de estrabismo | |
US10338675B2 (en) | Selective color sensing for motion tracking | |
ES2225826T3 (es) | Mejoras en el seguimiento de la mirada en un comprobador de campo visual. | |
JP6631951B2 (ja) | 視線検出装置及び視線検出方法 | |
EP3542308B1 (en) | Method and device for eye metric acquisition | |
ES2939003T3 (es) | Método y sistema para estimación de posición 3D de la córnea | |
CN113316805A (zh) | 使用红外线和可见光监视人的方法和系统 | |
JP6360752B2 (ja) | 照明撮像装置 | |
ES2921299T3 (es) | Método y sistema para la identificación de reflejos/reflexiones | |
JP6687195B2 (ja) | 眼部画像処理装置 | |
JP6430813B2 (ja) | 位置検出装置、位置検出方法、注視点検出装置、及び画像生成装置 | |
CN113194839A (zh) | 评价装置、评价方法及评价程序 | |
JP2005013752A (ja) | 視線検出システム | |
JP2002017677A (ja) | 輻輳角測定装置 |