ES2401835T3 - Procedimiento para la medición de la percepción - Google Patents

Procedimiento para la medición de la percepción Download PDF

Info

Publication number
ES2401835T3
ES2401835T3 ES08756820T ES08756820T ES2401835T3 ES 2401835 T3 ES2401835 T3 ES 2401835T3 ES 08756820 T ES08756820 T ES 08756820T ES 08756820 T ES08756820 T ES 08756820T ES 2401835 T3 ES2401835 T3 ES 2401835T3
Authority
ES
Spain
Prior art keywords
vision
field
fixation
video
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES08756820T
Other languages
English (en)
Inventor
Ernst Pfleger
Christoph Pfleger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Application granted granted Critical
Publication of ES2401835T3 publication Critical patent/ES2401835T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state

Abstract

Procedimiento para la medición de la percepción, en especial para la medición de la atención visual individual, endonde se tratan al menos unas primeras coordenadas de visión - en especial establecidas por un sistema dedetección de visual - de un primer punto de visión (37), asociadas a una primera imagen de campo de visión de unvídeo de campo de visión, y al menos unas segundas coordenadas de visión de un segundo punto de visión (38),asociadas a una segunda imagen de campo de visión del vídeo de campo de visión, en donde la segunda imagen decampo de visión se ha tomado a continuación de la primera imagen de campo de visión, en donde se comprueba enun dispositivo de comparación si las segundas coordenadas de visión del segundo punto de visión (38) con lasprimeras coordenadas de visión del primer punto de visión (37) cumplen al menos un primer criterio de fijación (25)prefijable, en donde los primeros y los segundos puntos de visión (37, 38), en el caso de cumplirse el primer criteriode fijación (25), se asocian a una primera fijación (48) a asociar a la percepción ordenada y se marcan, en donde losprimeros y los segundos puntos de visión (37, 38), en el caso de incumplirse el primer criterio de fijación (25), seasocian a una primera sacada a asociar a la percepción desordenada y se marcan, en donde se edita el vídeo decampo de visión (9) tomado para establecer las coordenadas de visión de los puntos de visión (37, 38) mediante elsistema de detección de visual, en donde se representan en el vídeo de campo de visión (9) los puntos de visión (37,38) pertenecientes al menos a la primera fijación (48), respectivamente al menos a la primera sacada.

Description

Procedimiento para la medición de la percepción
La invención se refiere a un procedimiento para la medición de la percepción, en especial para la medición de la atención visual, conforme al preámbulo de la reivindicación 1.
Es conocido determinar mediante los llamados sistemas de detección de visual sobre qué zona, respectivamente lugar del campo de visión, reposa la visual de un observador. Los sistemas de detección de visual de este tipo establecen con ello las llamadas coordenadas de visión, por ello coordenadas en el campo de visión del observador, a las que está dirigida la visual del observador. Un procedimiento especialmente sobresaliente y exacto para establecer estas coordenadas de visión se conoce p.ej. del documento EP 1 300 018 B1.
La tarea de la invención consiste por ello en indicar un procedimiento para la medición de la percepción, en especial para la medición de la atención visual de la clase citada al comienzo, con el pueda medirse lo más exactamente posible la atención visual para determinadas zonas del entorno.
Esto se consigue conforme a la invención mediante las particularidades de la reivindicación 1.
Por medio de esto puede medirse, con base científica y razonadamente, la percepción del entorno por parte de un probador, respectivamente su atención a determinadas zonas del entorno. En el caso de p.ej. un entorno prefijable pueden determinarse exactamente las zonas que la persona de prueba percibe de forma segura y consciente, así como las zonas de una dedicación visual desordenada y solamente casual. De este modo puede valorarse, respectivamente medirse, la calidad de un entorno, p.ej. de un entorno de puesto de trabajo, sobre todo en zonas relevantes en cuanto a seguridad, respectivamente peligrosas, por ejemplo de una calle, sobre todo de curvas, zonas de obra y/o pasos de población, de una superficie de pantalla de usuario, de centrales de distribución, de un panel de control de una máquina, p.ej. de la configuración de cabina de vehículos de motor y vehículos aéreos, y/o de un medio publicitario, p.ej. de una indicación de imagen y/o texto, respectivamente de un llamado spot publicitario. Por medio de esto pueden valorarse, respectivamente medirse en cuanto a su grado de perceptibilidad, sobre todo zonas del entorno, respectivamente del medio ambiente, que representan un grave peligro para la salud y para la vida, y transformarse con vistas a una mejora de la recepción de informaciones importantes. Puede optimizarse p.ej. el recorrido de una calle, ya durante su planeamiento, con respecto a bajos riesgos de accidente; señales de tráfico importantes, p.ej. señales de stop, pueden instalarse de forma específica y con base científica en lugares en los que a las mismas se atribuye un elevado grado de atención por parte de los participantes en el tráfico viario. Los entornos de puesto de trabajo pueden configurarse específicamente de tal modo, que elementos de control, indicaciones y elementos de mando fundamentales y relevantes en cuanto a seguridad favorezcan la percepción específica por parte del usuario; y los medios publicitarios pueden adaptarse a la percepción específica del observador.
El documento US2005073136 hace patente un procedimiento conforme al preámbulo de la reivindicación 1.
Las reivindicaciones subordinadas, que al igual que la reivindicación 1 forman parte al mismo tiempo de la descripción, se refieren a otras configuraciones ventajosas de la invención.
La invención se describe con más detalle haciendo referencia a los dibujos adjuntos, en los que se han representado a modo de ejemplo solamente formas de ejecución preferidas. Con ello muestran:
la fig. 1 un esquema de conexiones en bloques de una primera forma de ejecución de la invención;
la fig. 2 un ojo humano en representación cortada;
la fig. 3 un esquema de conexiones en bloques de una segunda forma de ejecución de la invención;
la fig. 4 un esquema de conexiones en bloques de una tercera forma de ejecución de la invención;
la fig. 5 un esquema de conexiones en bloques de una cuarta forma de ejecución de la invención;
la fig. 6 una representación esquemática del comportamiento visual durante una fijación;
la fig. 7 una representación esquemática del comportamiento visual durante una secuencia de una primera fijación, de una sacada y de una segunda fijación;
la fig. 8 una forma de ejecución preferida de una edición de la primera distancia relativa;
la fig. 9 una primera edición preferida de un vídeo de campo de visión con un primer y un segundo círculo;
la fig. 10 una segunda edición preferida de un vídeo de campo de visión con un tercer círculo; la fig. 11 una tercera edición preferida de un vídeo de campo de visión con un cuarto círculo; la fig. 12 una superficie de usuario preferida de una forma de ejecución preferida implementada en ordenador de la
invención;
la fig. 13 una primera edición preferida de la frecuencia de las fijaciones establecidas en función del ángulo de fijación; la fig. 14 una primera edición preferida de la frecuencia de las sacadas establecidas en función del ángulo de
sacada;
la fig. 15 una primera edición preferida de la frecuencia de las fijaciones en función del criterio de fijación variable
como familia de curvas con primera duración de tiempo constante;
la fig. 16 una cuarta edición preferida de un vídeo de campo de visión;
la fig. 17 una quinta edición preferida de un vídeo de campo de visión;
la fig. 18 una sexta edición preferida de un vídeo de campo de visión;
la fig. 19 una séptima edición preferida de un vídeo de campo de visión;
la fig. 20 una octava edición preferida de un vídeo de campo de visión;
la fig. 21 una representación esquemática de la parte de un sistema de detección de visual unida a la cabeza de una
persona de prueba; la fig. 22 una representación esquemática de una imagen de ojo; la fig. 23 una representación esquemática de una imagen de campo de visión; la fig. 24 una novena edición preferida de un vídeo de campo de visión; la fig. 25 una décima edición preferida de un vídeo de campo de visión; la fig. 26 una undécima edición preferida de un vídeo de campo de visión; la fig. 27 una duodécima edición preferida de un vídeo de campo de visión; la fig. 28 una máscara de edición preferida en una primera vista; la fig. 29 una máscara de edición preferida en una segunda vista; la fig. 30 una primera edición preferida de la frecuencia de las fijaciones establecidas en función de la duración de
fijación;
la fig. 31 una primera edición preferida de la frecuencia de las sacadas establecidas en función de la duración de sacada; la fig. 32 una primera edición preferida de la frecuencia de los parpadeos establecidos en función de la duración de
parpadeo;
las figuras 33 y 34 un primer ejemplo de una máscara de edición preferida de una herramienta de análisis preferida; y las figuras 35 y 36 un segundo ejemplo de la máscara de edición preferida de la herramienta de análisis preferida. Las figuras 1, 3, 4 y 5 muestran en cada caso esquemas de conexiones en bloques de formas de ejecución
preferidas de un procedimiento para la medición de la percepción, en especial para la medición de la atención visual,
en donde se tratan al menos unas primeras coordenadas de visión – en especial establecidas por un sistema de
detección de visual – de un primer punto de visión 37, asociadas a una primera imagen de campo de visión, y al
menos unas segundas coordenadas de visión de un segundo punto de visión 38, asociadas a una segunda imagen de campo de visión, en donde la segunda imagen de campo de visión se ha tomado a continuación de la primera imagen de campo de visión, y se comprueba en un dispositivo de comparación si las segundas coordenadas de visión del segundo punto de visión 38 con las primeras coordenadas de visión del primer punto de visión 37 cumplen al menos un primer criterio de fijación 25 prefijable, en donde los primeros y los segundos puntos de visión 37, 38, en el caso de cumplirse el primer criterio de fijación 25, se asocian a una primera fijación 48 a asociar a la percepción ordenada y se marcan, y en donde los primeros y los segundos puntos de visión 37, 38, en el caso de incumplirse el primer criterio de fijación 25, se asocian a una primera sacada a asociar a la percepción desordenada y se marcan.
Por medio de esto puede medirse, con base científica y razonadamente, la percepción del entorno por parte de un probador, respectivamente su atención a determinadas zonas del entorno. En el caso de p.ej. un entorno prefijable pueden determinarse exactamente las zonas que el probador percibe de forma segura y consciente, así como las zonas de una dedicación visual desordenada y solamente casual. De este modo puede valorarse, respectivamente medirse, la calidad de un entorno, p.ej. de un entorno de puesto de trabajo, sobre todo en zonas relevantes en cuanto a seguridad, respectivamente peligrosas, por ejemplo de una calle, sobre todo de curvas, zonas de obra y/o pasos de población, de una superficie de pantalla de usuario, de centrales de distribución, de un panel de control de una máquina, p.ej. de la configuración de cabina de vehículos de motor y vehículos aéreos, y/o de un medio publicitario, p.ej. de una indicación de imagen y/o texto, respectivamente de un llamado spot publicitario. Por medio de esto pueden valorarse, respectivamente medirse en cuanto a su grado de perceptibilidad, sobre todo zonas del entorno, respectivamente del medio ambiente, que representan un grave peligro para la salud y para la vida, y transformarse con vistas a una mejora de la recepción de informaciones importantes. Puede optimizarse p.ej. el recorrido de una calle, ya durante su planeamiento, con respecto a bajos riesgos de accidente; señales de tráfico importantes, p.ej. señales de stop, pueden instalarse de forma específica y con base científica en lugares en los que a las mismas se atribuye un elevado grado de atención por parte de los participantes en el tráfico viario. Los entornos de puesto de trabajo pueden configurarse específicamente de tal modo, que elementos de control, indicaciones y elementos de mando fundamentales y relevantes en cuanto a seguridad favorezcan la percepción específica por parte del usuario; y medios publicitarios puedan adaptarse a la percepción específica del observador.
Las conceptualizaciones seleccionadas en la formalización del objeto con relación a primeras, segundas, terceras, etc. coordenadas de visión, puntos de visión, fijaciones, sacadas, círculos, ángulos de fijación y/o sacada, etc., no deben entenderse de forma preferida en ningún caso como limitación del desarrollo del procedimiento a solamente dos particularidades caracterizadas de este modo, respectivamente a sólo un único recorrido del procedimiento, respectivamente desarrollo del procedimiento, sino como descripción de un desarrollo aislado de un procedimiento prefijable, con frecuencia repetible.
En el procedimiento conforme a la invención se tratan datos, que se establecen mediante un llamado sistema de detección de visual. Un sistema de detección de visual de este tipo se ha representado p.ej. esquemáticamente en la fig. 21. Un sistema de detección de visual especialmente sobresaliente se describe p.ej. en el documento EP 1 300 108 A1. Un sistema de detección de visual de este tipo, que se describe a continuación brevemente, trabaja p.ej. según un procedimiento para la detección, valoración y el análisis de secuencias de visión de una persona de prueba mediante un sistema de detección de visual, en donde el campo de visión de la persona de prueba se detecta mediante una primera cámara 76, dirigida hacia adelante y unida rígidamente a la cabeza 80 de la persona de prueba, y se registra en un vídeo de campo de visión, el movimiento de la pupila de la persona de prueba se detecta mediante una segunda cámara 77, que también está unida rígidamente a la cabeza 80 de la persona de prueba, y se registra en un vídeo ocular, y el vídeo ocular y el vídeo de campo de visión 9 se registran sobre un sistema de vídeo y se sincronizan en el tiempo, en donde para cada imagen aislada del vídeo ocular, por ello para cada imagen ocular 78, se establecen las coordenadas de pupila xa,ya, sobre la imagen de campo de visión 79 del vídeo de campo de visión 9 se establece la función de correlación K entre las coordenadas de pupila xa,ya sobre el vídeo ocular y las coordenadas xb,yb del punto de visión B correspondiente, es decir del punto que fija la persona de prueba y, una vez realizada la determinación de la función de correlación K para cada imagen individual a partir de las coordenadas de pupila xa,ya sobre el vídeo ocular, se extrapolan las coordenadas xb,yb del punto de visión B correspondiente sobre el vídeo de campo de visión, en donde para establecer las coordenadas de pupila xa,ya para cada imagen aislada del vídeo ocular se registran automáticamente con un programa de reconocimiento de imágenes los contrastes de la pupila con relación al entorno, se buscan todos los puntos de la imagen aislada que son más oscuros que un grado de oscuridad ajustado, con estos puntos se detecta y delimita por completo una superficie oscura correspondiente a la pupila y se establece el baricentro de la superficie oscura, correspondiente al punto central de pupila con las coordenadas de pupila xa,ya. De forma preferida puede estar previsto con ello que se seleccione un número prefijable de puntos sobre el borde de la pupila, que puedan identificarse de forma especialmente buena y segura a causa de su contraste con el entorno, y que estos puntos se admitan como parte de una elipse, tras lo cual se calcula el baricentro, respectivamente el punto central de una elipse, sobre cuyo perímetro está situado también el número prefijable de puntos. Por medio de esto se consigue una precisión especialmente elevada, que es muy superior a los sistemas de detección de visual conocidos del estado de la técnica. Por medio de esto no tienen influencia en el resultado de medición los errores, como los que pueden producirse p.ej. a causa de reflexiones en el ojo. La fig. 22 muestra un ejemplo esquemático para una imagen ocular 78 de un vídeo ocular con las coordenadas de pupila xa,ya. La fig. 23 muestra un ejemplo esquemático para una imagen de campo de visión 79 con las coordenadas xb,yb del primer punto de visión 37. La tarea de los sistemas de detección de visual consiste en representar, con la máxima precisión posible, a qué punto del campo de visión mira una persona de prueba, es decir, a qué punto exacto está dirigido el interés, respectivamente la atención de la persona de prueba.
Con ello se detecta por un lado el campo de visión mediante una primera cámara 76, dirigida hacia adelante y unida rígidamente a la cabeza 80 de la persona de prueba. Asimismo se detecta el movimiento de la pupila de la persona de prueba mediante una segunda cámara 77, que también está unida rígidamente a la cabeza 80. Unida rígidamente significa con relación a esto que ambas cámaras 76, 77 están unidas de tal modo a la cabeza 80 de la persona de prueba que se mueven con la misma, respectivamente siguen todos los movimientos, en donde sin embargo no se limita de ningún modo la libertad de movimiento de la cabeza y de los ojos. A partir de la valoración de estas dos tomas es posible indicar, con gran precisión, a qué punto está mirando actualmente la persona de prueba. Por medio de esto son posibles declaraciones sobre aplicaciones de visual, enlaces de visual y ausencias de visual.
Tales sistemas de detección de visual se usan de forma preferida en el campo de la seguridad, en especial en el campo de la investigación de accidentes, pero también en el campo de la publicidad, del deporte o en el caso de otras investigaciones de la fisiología humana.
En total la investigación del comportamiento visual representa un importante hito para la investigación de causas fisiológicas de accidentes. Por ejemplo, mediante amplias investigaciones de la visual pueden encontrarse nuevos conocimientos para la resolución y reconstrucción de accidentes, con vistas a los límites de la capacidad humana.
De este modo pueden investigarse con sistemas de detección de visual puntos especialmente peligrosos en el tráfico viario. Una persona de prueba equipada con un sistema de detección de visual de este tipo circula con ello por el punto peligroso, en donde se registra su comportamiento visual. La suma de las visuales con ello analizadas se designa a partir de ahora como secuencia de visión. A partir del análisis del comportamiento visual puede deducirse qué indicadores de dirección o señales de tráfico no encuentran suficiente atención a causa de su posicionamiento desfavorable, o en dónde están situados en un cruce puntos poco claros, respectivamente poco observados. En el campo de la seguridad en el trabajo, por ejemplo en obras, puede investigarse qué puntos peligrosos detecta una persona de prueba demasiado tarde, y qué medidas de seguridad serían aquí necesarias. Otro campo de aplicación importante de sistemas de detección de visual reside en el análisis de carteles publicitarios
o spots publicitarios. También aquí puede detectarse con mucha precisión qué mensajes, logos de texto, etc. son fijados por la persona de prueba, durante cuánto tiempo y en qué secuencia.
La fig. 21 muestra una parte de un sistema de detección de visual para llevar a cabo un procedimiento preferido para establecer los puntos de visión, respectivamente las coordenadas de visión (SKO). El campo de visión de la persona de prueba se detecta mediante una primera cámara 76, dirigida hacia adelante y unida rígidamente a la cabeza 80 de la persona de prueba. Esta primera cámara 76 ofrece de este modo una imagen aproximada de la dirección de visión de la persona de prueba, que está definida puramente por la posición de la cabeza 80. La primera cámara 76 puede estar materializada por ejemplo por una cámara CCD de color, que registra una gran parte del campo de visión de la persona de prueba.
De forma preferida la primera cámara 76 y/o la segunda cámara 77 pueden controlarse adicionalmente mediante software y, de este modo, adaptarse a las condiciones de uso exteriores más diferentes. Esto garantiza que mediante la toma directa de la pupila no se produzca ningún tipo de distorsión de la imagen de la pupila, respectivamente que mediante la proximidad inmediata al ojo 33 se obtenga una gran reproducción y la instalación pueda mantenerse en total más pequeña. Los procedimientos existentes representan, tanto a causa del tamaño como a causa de la en general peor asociación del punto pupilar, unas causas considerables de desenfoques. Esto no sólo significa empeoramientos en el peso del sistema de detección de visual, sino también limitaciones generales en el comportamiento visual de la persona de prueba, que se evitan mediante el procedimiento conforme a la invención. Por ello el sistema de detección de visual conforme a la invención también puede ser utilizado por personas de prueba con diferentes vestimentas y medidas de protección, como por ejemplo casco, sin limitaciones. Por ello también pueden utilizarse muy fácilmente diferentes cámaras 76, 77 con diferentes objetivos, según los requisitos de la investigación.
Las cámaras que se usan en el sistema preferido, de forma preferida de alto valor cualitativo, están equipadas de forma preferida con una unidad de control que hace posible llevar a cabo un ajuste de blancos, un balance de colores y una exposición automáticos. Estos valores pueden ajustarse también de forma preferida manualmente. Mediante esta unidad de control se hace posible adaptar óptimamente la calidad de imagen a las condiciones de investigación. Por medio de esto se garantiza una calidad de imagen muy alta para un análisis ulterior. Asimismo existe de forma preferida la opción de aumentar el encuadre electrónicamente como zoom digital. Otras posibilidades de ajuste tienen normalmente sólo una influencia limitada en la imagen generada.
El movimiento de la pupila de la persona de prueba se detecta mediante una segunda cámara 77, que también está unida rígidamente a la cabeza 80 de la persona de prueba, y está dirigida a uno de los dos ojos 33 de la persona de prueba. La segunda cámara 77 puede estar materializada por ejemplo mediante una cámara CCD s/w y registrar los movimientos oculares del ojo derecho. La detección de la posición de pupila mediante la segunda cámara 77 se realiza directamente en el caso de los sistemas de detección de visual representados en las figuras, en donde la segunda cámara 77 está dirigida directamente al ojo 33 de la persona de prueba. La detección de la posición de pupila puede realizarse sin embargo también a través de sistemas desviadores ópticos como espejos o cables de fibra de vidrio, con los que la imagen se desvía desde el ojo 33 a la segunda cámara 77.
Las dos cámaras 76, 77 están colocadas por ejemplo sobre un casco, unas gafas o una instalación portante similar que pueda montarse y desmontarse de forma preferida fácilmente, que esté unida rígidamente a la cabeza 80 de la persona de prueba. Por unida rígidamente debe entenderse, como ya se ha explicado antes, que la instalación portante y las dos cámaras 76, 77 siguen todos los movimientos de la cabeza 80, en donde sin embargo la libertad de movimiento de la cabeza 80 y de los ojos 33 no se limita en modo alguno. La aplicación de las cámaras 76, 77 a unas gafas, como instalación portante que puede montarse y desmontarse fácilmente con registro directo sobre un aparato registrador móvil, hace posible una movilidad especialmente grande de la persona de prueba y permite una mucho mayor multiplicidad de ensayos que en los sistemas usuales.
Naturalmente es también posible prever varias segundas cámaras 77, por ejemplo para tomar las dos pupilas de la persona de prueba. También pueden preverse varias primeras cámaras 76, para detectar por completo el campo de visión de la persona de prueba, en el caso de que la distancia focal de una sola primera cámara 76 no sea suficiente para ello. De este modo pueden detectarse secuencias de visión aisladas y, como se describe a continuación, valorarse y analizarse. La designación secuencia de visión significa con ello la suma de las visuales tomadas y analizadas en cada caso.
Mediante las dos cámaras 76, 77 se obtienen dos señales de vídeo, designadas a continuación con vídeo ocular y vídeo de campo de visión y representadas esquemáticamente en la fig. 22, respectivamente 23, las cuales se registran sobre un sistema de vídeo. La designación sistema de vídeo comprende aquí todas las instalaciones, que son adecuadas para registrar datos de película. Pueden utilizarse materiales de película analógicos así como cintas de vídeo o medios de archivado digitales como DVDs, etc. También el almacenamiento de imágenes aisladas en memorias de un ordenador es válido como registro en el sentido de la invención. Pueden utilizarse diferentes formatos de película analógicos o digitales como DV, AVI o MPEG2. De forma preferida se registran en el caso de utilizarse cámaras CCD las dos informaciones de imagen sobre un sistema de vídeo digital, por ejemplo sobre 2 mini-grabadoras DV.
En una forma de ejecución preferida se materializa la unión entre las cámaras 76, 77 y el sistema de vídeo por enlace alámbrico o a través de una línea inalámbrica. Esto permite la transmisión inalámbrica de las señales de vídeo hasta el sistema de vídeo. Por medio de esto se hace posible ventajosamente el movimiento sin impedimentos de la persona de prueba como peatón, como ciclista en terreno abierto o también sobre determinados suplementos de trabajo, como por ejemplo sobre armazones u obras.
Es importante que las dos señales de vídeo estén sincronizadas, es decir, que para cada imagen aislada del vídeo ocular pueda encontrarse la imagen aislada correspondiente del vídeo de campo de visión 9 y a la inversa. La sincronización puede realizarse con un generador de señales periódico y time-code. De forma preferida se sincroniza el procedimiento de registro con un impulso sonoro, que también se registra sobre las respectivas trazas de audio. Este procedimiento hace posible sincronizar también simultáneamente otros aparatos externos, como por ejemplo registradores de datos UDS, sistemas GPS, etc., para poder ajustar directamente al comportamiento visual otros parámetros técnicos y médicos como la posición geográfica actual exacta o también frecuencia cardiaca, respectivamente pulsatoria, resistencia epidérmica, frecuencia respiratoria, etc. de la persona de prueba. La sincronización es importante para el tratamiento, respectivamente la valoración ulterior conforme a la invención de las dos señales de vídeo.
En el procedimiento preferido las coordenadas exactas (xa,ya) del punto central de pupila se establecen en el vídeo ocular mediante un programa de reconocimiento de imágenes. Aquí se establecen las coordenadas de pupila (xa,ya) para cada imagen aislada del vídeo ocular. Las coordenadas de pupila (xa,ya) en una imagen aislada del vídeo ocular se han esquematizado en la fig. 22. El establecimiento de las coordenadas de pupila (xa,ya) se realiza de forma preferida automáticamente con un programa de reconocimiento de imágenes. Para esto se registran para cada imagen aislada del vídeo ocular los contrastes de la pupila con relación al entorno y se buscan todos los puntos de la imagen aislada, que sean más oscuros que un grado de oscuridad ajustado. Con estos puntos se detecta y delimita por completo una superficie oscura, y después de esto se establece automáticamente el baricentro de esta superficie oscura. Debido a que la superficie oscura se corresponde con la pupila de la persona de prueba, el baricentro de la superficie oscura representa el punto central de pupila. De forma preferida el programa de reconocimiento de imágenes ofrece variantes de ajuste para los contrastes correspondientes y el grado de oscuridad, de tal modo que pueda alcanzarse un nivel de precisión especialmente alto para todas las imágenes aisladas. Como ya se ha explicado anteriormente, también puede estar previsto adicionalmente la selección de puntos sobre el borde de la pupila, los cuales puedan identificarse de forma especialmente buena y segura a causa del contraste con el entorno, y que estos puntos se tomen como parte de una elipse, tras lo cual se calcula el baricentro, respectivamente el punto central de una elipse, sobre cuyo perímetro esté situado también el número de puntos prefijable. Para cada imagen aislada puede garantizarse de este modo, para diferentes condiciones de exposición, en cada caso el mejor contraste en forma de un umbral de valores de gris, lo que en total hace posible una determinación segura de las coordenadas de pupila (xa,ya). El umbral de valores de gris es aquel valor que, por ejemplo en el caso de una forma digitalizada, es de entre 1 y 256 y define el porcentaje de negro, respectivamente blanco, en un punto de imagen. El máximo valor alcanzable se corresponde con un negro total, el valor mínimo con el blanco. Debido a que la pupila durante el registro previsiblemente no alcanza nunca el valor de negro completo, debe definirse un valor que – al menos para esta imagen – se corresponda con el gris de pupila realmente existente. El valor umbral excluye todos los puntos de imagen que sean más claros que el valor de gris definido, mientras que todas las zonas más oscuras se utilizan para encontrar el baricentro. Tres parámetros hacen posible optimizar la definición de umbral. Debido a que durante los ensayos dentro de una secuencia las condiciones de exposición con frecuencia varían mucho, esta definición de valor umbral es de forma preferida también posible individualmente para cada imagen. Todos los ajustes pueden archivarse en un fichero de forma correspondiente a los elevados requisitos para cada imagen de la secuencia. Mediante el procedimiento conforme a la invención es posible la precisión especialmente alta durante la asociación de las coordenadas de pupila (xa,ya) al campo de visión. Puede visualizarse el nivel de precisión respectivo.
Para alcanzar una precisión especialmente alta de las coordenadas de pupila establecidas y con ello un establecimiento especialmente preciso de la dedicación visual está previsto, en una forma de ejecución especialmente preferida de la invención, que estén previstas adicionalmente una corrección de defectos ópticos, en especial corrección de distorsión de objetivo, una corrección de perspectiva, una corrección de campo de visión y/o una corrección de los llamados errores de reproducción, como p.ej. de la aberración esférica, de la aberración cromática, de la dispersión, de los errores de asimetría (coma), del astigmatismo de haces oblicuos (error de doble capa), de la convexidad del campo de visión, de la curvatura de imagen, de la distorsión óptica y/o de los errores de reproducción monocromáticos.
Además de esto puede estar previsto, para la localización más precisa del punto central de pupila, un filtro de infrarrojos delante de la cámara. Mediante éste se intensifican los contrastes en el vídeo ocular. El filtro IR tiene dos funciones ventajosas: en primer lugar se realiza la iluminación del ojo 33 con diodos de luz de infrarrojos (IR-LED), que garantizan incluso con una oscuridad absoluta buenos contrastes para la cámara ocular y para el tratamiento ulterior. El filtro tiene la tarea de dejar pasar la luz emitida por el LED hasta el chip de cámara, mientras que todos los otros márgenes espectrales de la luz se atenúan de forma correspondiente a la curva de permeabilidad de filtro. En segundo lugar las reflexiones sobre la pupila causadas por la luz solar, que tienen un efecto muy negativo sobre la localización del baricentro, se presentan sobre todo en el margen espectral azul. También aquí el filtro tiene la tarea de reducir las reflexiones sobre la pupila, que son causadas por la luz solar.
En otra ejecución ventajosa del procedimiento preferido se realiza, después del establecimiento automático de las coordenadas de pupila (xa,ya), adicionalmente un control manual. Un operador puede variar manualmente los parámetros de tratamiento de imagen en el caso de un reconocimiento automático defectuoso (que se produce por ejemplo en el caso de reflejos luminosos repentinos sobre la superficie ocular, etc.). También es posible corregir directamente las coordenadas de pupila (xa,ya).
Se obtiene en total para cada imagen aislada del vídeo ocular las coordenadas de pupila (xa,ya) por ejemplo en forma de un par de valores cartesiano. Naturalmente pueden usarse también otros sistemas de coordenadas, como coordenadas polares, etc. Debido a que ambas cámaras 76, 77 están unidas rígidamente a la cabeza 80 de la persona de prueba, a una determinada posición de la pupila, respectivamente del punto central de pupila en el vídeo ocular, le corresponde siempre un punto de visión B definido en el vídeo de campo de visión 9. A partir del vídeo ocular y del vídeo de campo de visual 9 puede calcularse de este modo, a qué punto mira exactamente la persona de prueba. Para la asociación de las coordenadas de pupila (xa,ya) a las coordenadas (xb,yb) del punto de visión B correspondiente, es decir del punto que fija la persona de persona sobre el vídeo de campo de visión, es necesario establecer en primer lugar la función de correlación K entre estos dos pares de coordenadas (xa,ya) y (xb,yb). La correlación entre coordenadas de pupila (xa,ya) y punto de visión B sobre el vídeo de campo de visión se realiza a través de una serie de ensayos (calibración). Aquí la persona de prueba fija secuencialmente determinados puntos de ajuste P prefijados. La función de correlación K entre coordenadas de pupila (xa,ya) y las coordenadas (xb,yb) en el vídeo de campo de visión se crea con base en los datos aquí medidos.
En el procedimiento preferido la función de correlación K entre coordenadas de pupila (xa,ya) sobre el vídeo ocular y las coordenadas (xb,yb) del punto de visión B correspondiente sobre el vídeo de campo de visión 9 se establece de forma preferida automáticamente. Para esto se toman en primer lugar una o varias secuencias de visión de muestra de la persona de prueba sobre uno o varios determinados puntos de ajuste P prefijados. Por secuencia de visión de muestra debe entenderse una secuencia de visión que sólo se toma para la calibración, y en la que la persona de prueba mira a puntos de ajuste P prefijados. Por ejemplo puede estar marcado un determinado punto de ajuste P sobre una pared. Para obtener el mejor contraste posible puede elegirse por ejemplo una marca negra sobre una superficie por lo demás blanca como punto de ajuste P. El punto de ajuste P es normalmente una cruz o un punto luminoso, etc. A la persona de prueba se le indica que fije este punto de ajuste P, en donde el campo de visión y el ojo de la persona de prueba son tomados por las dos cámaras 76, 77. De este modo pueden definirse varios puntos de ajuste P.
Debido a que el punto de visión B se obtiene sobre el vídeo de campo de visión así tomado de la secuencia de visión de muestra mediante el punto de ajuste P conocido, en el paso siguiente puede establecerse la función de correlación K entre las coordenadas de pupila (xa,ya) sobre el vídeo ocular y las coordenadas (xb,yb) del punto de visión B correspondiente sobre el vídeo de campo de visión. Para esto se establecen para cada imagen aislada en el vídeo ocular las coordenadas de pupila (xa,ya) en el vídeo ocular, conforme al procedimiento antes descrito. Asimismo se establecen las coordenadas (xb,yb) del punto de ajuste P en la imagen aislada correspondiente sobre el vídeo de campo de visión. Esto se realiza de forma preferida con un procedimiento de reconocimiento de imágenes y/o un procedimiento de reconocimiento de muestras, el cual establece sobre el vídeo de campo de visión las coordenadas (xb,yb) del punto de ajuste P, que puede reconocerse claramente mediante su contraste. Sin embargo, también es posible determinar las coordenadas (xb,yb) del punto de ajuste P en el vídeo de campo de visión en cada caso para imagen aislada manualmente, por ejemplo mediante el procedimiento de hacer clic con el ratón. Esto permite una valoración de la secuencia de visión de muestra incluso en condiciones difíciles sobre el terreno, en las que no es posible una determinación automática de las coordenadas (xb,yb) del punto de ajuste P, por ejemplo a causa de un fondo excesivamente poco uniforme.
De este modo Las coordenadas de pupila (xa,ya) en la imagen aislada del vídeo ocular pueden asociarse a las coordenadas (xb,yb) del punto de ajuste P en la imagen aislada correspondiente del vídeo de campo de visión. Las coordenadas correspondientes en el vídeo ocular y en el de campo de visión se establecen y archivan para cada imagen aislada de la secuencia de visión de muestra. A partir de todos los juegos de datos así obtenidos se correlacionan, de forma preferida mediante regresión cuadrática, las coordenadas de pupila (xa,ya) sobre el vídeo ocular y las coordenadas (xb,yb) del punto de visión B correspondiente sobre el vídeo de campo de visión, en donde también son posibles otros procedimientos como regresión lineal o modelos estocásticos para la correlación. Se obtiene una función de correlación K: (xa,ya) -> (xb,yb), la cual asocia a un determinado juego de coordenadas de pupila (xa,ya) sobre el vídeo ocular claramente las coordenadas (xb,yb) correspondientes del punto de visión B en el vídeo de campo de visión.
Para una precisión lo mayor posible de la función de correlación K deberían utilizarse al menos 25 diferentes posiciones del punto de ajuste P. A partir de unas 100 diferentes posiciones de punto de ajuste la precisión buscada casi no aumenta, de tal modo que ya no es conveniente un aumento ulterior del número de posiciones de punto de ajuste. Con la función de correlación K así establecida pueden calcularse todas las otras secuencias de vídeo de la misma serie de ensayos, es decir, en las que no existe ninguna variación con respecto a las posiciones de cámara sobre la cabeza de la persona de prueba. Mediante la correlación numérica de los dos pares de coordenadas pueden detectarse relaciones no lineales. Después de la calibración del sistema de detección de visual pueden detectarse y analizarse seguidamente secuencias de visión aisladas. Una vez realizado el establecimiento de la función de correlación K se extrapolan aquí para cada imagen aislada, a partir de las coordenadas de pupila (xa,ya) sobre el vídeo ocular, las coordenadas (xb,yb) del punto de visión B correspondiente sobre el vídeo de campo de visión. La reunión del vídeo ocular y del vídeo de campo de visión 9 en un vídeo resultante se realiza mediante técnica de software, de tal modo que los puntos de visión B calculados se posicionan como puntos centrales de las direcciones visuales sobre el vídeo de campo de visión 9. Mediante el establecimiento analítico de las coordenadas (xb,yb), de los puntos de visión B, conforme a la invención, es posible la representación especialmente precisa del punto central de la dedicación visual. El punto de visión B puede dibujarse exactamente sobre el vídeo de campo de visión 9. De forma preferida se indica el punto de visión B sobre el vídeo de campo de visión 9 mediante una marca visualmente bien visible, por ejemplo mediante una cruz.
Mediante un procedimiento conforme a la invención puede determinarse a qué zonas del entorno presta atención visual una persona de prueba, respectivamente un probador, qué zonas del entorno son percibidas realmente por el probador y qué zonas, que aunque han sido rozadas, respectivamente sobrevoladas por visuales, lo han sido sin embargo tan brevemente, respectivamente tan alejadamente, que no ha tenido una percepción ordenada por parte del probador. Por ello, aunque la visual de un probador ha rozado una zona el probador no ha registrado sin embargo ningún contenido de esta zona. Las zonas, en las que se produce una percepción ordenada, se designan desde ahora con el término fijación. La zonas, en las que se ha producido un movimiento ocular y no se produce una percepción ordenada de este tipo, se designan desde ahora con el término sacada.
La fig. 2 muestra una representación en corte de un ojo humano 33, en donde se dibujan zonas de diferente agudeza visual. Aquí son importantes sobre todo la llamada zona foveal 34, que sólo existe en una zona muy limitada alrededor de un eje de visión central – no representado – y en la que es posible la máxima agudeza visual, y ligada a ello también una percepción ordenada del estímulo visual. Las definiciones hasta ahora usuales de la zona foveal 34 se basan en un primer ángulo de visión 41 de un radio aproximado de 1º alrededor del eje de visión. Como se explicará todavía en otro punto de este documento, el primer ángulo de visión 41 de la zona foveal 34 depende mucho sin embargo del objeto, respectivamente del entorno. La zona foveal 34 está circundada por la llamada zona parafoveal 35, en la que todavía es posible el reconocimiento de muestras en bruto. La llamada zona periférica 36 que circunda esta zona parafoveal 35 sólo es sensible al movimiento. No es posible un reconocimiento de una muestra, respectivamente de un objeto, en esta zona periférica 36.
En el procedimiento conforme a la invención se analiza, respectivamente compara, si puntos de visión 37, 38 al menos consecutivos indirectamente cumplen en un dispositivo de comparación al menos un primer criterio de fijación 25. En el caso de un dispositivo de comparación puede tratarse de cualquier dispositivo adecuado. De forma preferida están previstos dispositivos que comprendan piezas constructivas lógicas electrónicas, respectivamente unas llamadas rejillas lógicas, que hagan posible una comparación de datos de entrada como consecuencia de algoritmos de Bool. Se prefieren en especial dispositivos que comprendan piezas constructivas lógicas electrónicas de este tipo en forma integrada, en especial en forma de procesadores, microprocesadores y/o circuitos lógicos programables. De forma especialmente preferida puede estar previsto que el dispositivo de comparación esté implementado en un ordenador.
El dispositivo de comparación trata las llamadas coordenadas de visión, las cuales desde ahora también pueden abreviarse de forma corta como SKO y que pueden establecerse p.ej. como consecuencia de una función de correlación, descrita anteriormente, entre una imagen de campo de visión 79 y una imagen ocular 78, en donde pueden estar también previstos otros procedimientos, respectivamente métodos, para establecer estas SKO. En la fig. 1 se ha representado en una lista con el símbolo de referencia 2 una lista a modo de ejemplo de posibles SKO para imágenes de campo de visión aisladas – como Frm, para frame abreviadamente – como coordenadas cartesianas.
En el caso del primer criterio de fijación 25 puede tratarse de cualquier clase de criterio, el cual haga posible una diferenciación entre fijaciones y sacadas. En una forma de ejecución preferida del procedimiento conforme a la invención está previsto que el primer criterio de fijación 25 sea una primera distancia 39 prefijable alrededor del primer punto de visión 37, que se establezca la primera distancia relativa 40 entre el primer punto de visión 37 y el segundo punto de visión 38, y que si la primera distancia relativa 40 es menor que la primera distancia 39 el primer y el segundo punto de visión 37, 38 se asocien a la primera fijación 48, por lo que mientras que un segundo punto de visión 38 que sigue a un primer punto de visión 37 permanezca dentro de la zona foveal 34 del primer punto de visión 37 y, de este modo, dentro de la zona de una percepción ordenada del primer punto de visión 37, no se interrumpa la percepción ordenada y de este modo se cumpla asimismo el primer criterio de fijación 25. Se trata por ello de una primera fijación 48. En una forma de ejecución especialmente preferida del procedimiento conforme a la invención está previsto que la primera distancia 39 sea un primer ángulo de visión 41, el cual describa de forma preferida una zona 34 asociada a la visión foveal, en especial un radio de entre 0,5º y 1,5º, de forma preferida aproximadamente 1º, y que la distancia entre el primer punto de visión 37 y el segundo punto de visión 38 sea un primer ángulo relativo 42. Por medio de esto es posible, partiendo de las coordenadas de visión establecidas mediante el sistema de detección de visual, una determinación especialmente sencilla y precisa de sacadas, respectivamente fijaciones 48, 49. La fig. 6 muestra a modo de ejemplo una primera fijación 48, que está formada por una secuencia de cuatro puntos de visión 37, 38, 69, 70. En la fig. 6 se han dibujado también la primera distancia 39, el primer ángulo de visión 41, la primera distancia relativa 40 y el primer ángulo relativo 42. Alrededor de cada uno de los cuatro puntos de visión 37, 38, 69, 70 se ha dibujado en cada caso un primer círculo 43 con el radio de la primera distancia 39, con lo que se puede verse bien que el punto de visión 38, 69, 70 en cada caso siguiente está situado dentro del primer círculo 43 con el radio de la primera distancia 39 del punto de visión 37, 38, 69 previo, y de este modo se cumple el primer criterio de fijación 25 preferido. Para adaptarse a objetos a percibir de forma diferente, respectivamente a diferentes personas y/o circunstancias, en un perfeccionamiento de la invención está previsto que pueda prefijarse el primer criterio de fijación 25, en especial la primera distancia 39 y/o el primer ángulo de visión 41.
La fig. 7 ilustra una secuencia de imágenes, en la que no todos los puntos de visión 37, 38, 69, 70, 71, 72, 73, 74, 75 cumplen por sí mismos el primer criterio de fijación 25. Los cuatro primeros puntos de visión 37, 38, 69, 70 cumplen en cada caso el criterio de fijación 25 y forman juntos la primera fijación 48, mientras que los tres siguientes puntos de visión 71, 72, 73 no cumplen en cada caso el primer criterio de fijación 25. Hasta el cuarto punto de visión 74, que sigue a la fijación 28, no se cumple el primer criterio de fijación 25 con relación al tercer punto de visión 73 subsiguiente a la primera fijación 48. El tercer punto de visión 73, subsiguiente a la primera fijación 48, es de este modo el primer punto de visión 73 de la segunda fijación 49, que está formada por un total de tres puntos de visión 73, 74, 75. En las figuras 6 y 7 se trata de forma preferida de ejemplos ilustrativos, aunque en un entorno natural pueden producirse fijaciones 48, 49 con un gran número de puntos de visión aislados. La zona entre el último punto de visión 70 de la primera fijación 48 y el primer punto de visión 73 de la segunda fijación 49 forma una sacada, por ello una zona sin percepción. L ángulo entre el último punto de visión 70 de la primera fijación 48 y el primer punto de visión 73 de la segunda fijación 49 se designa como primer ángulo de sacada 52.
La fig. 1 muestra un esquema de conexiones en bloques de un procedimiento conforme a la invención, en donde en un primer paso 1 se toman mediante un sistema de detección de visual un vídeo de campo de visión 9 y un vídeo ocular. En un segundo paso de procedimiento 2 se establecen las SKO a partir del vídeo de campo de visión y del vídeo ocular, las cuales se comparan en otro paso de procedimiento 4 en el dispositivo de comparación con el primer criterio de fijación 25 fijado, archivado, legible, respectivamente prefijable. Los puntos de visión 37, 38 aislados, asociados de esta forma a una sacada, respectivamente a una fijación 48, 49, pueden editarse seguidamente para una valoración, un tratamiento, respectivamente una representación adicional. Puede estar previsto en especial que el primer y el segundo punto de visión 37, 38 se editen marcados como pertenecientes a la primera fijación 48, respectivamente a la primera sacada.
En el dispositivo de comparación se comparan dos imágenes de campo de visión – al menos indirectamente consecutivas, respectivamente las SKO asociadas a las mismas. De forma preferida está previsto con ello que la segunda imagen de campo de visión se haya tomado a continuación de la primera imagen de campo de visión, después de un primer periodo de tiempo prefijable, en especial de entre 0,005 s y 0,1 s, de forma preferida de entre 0,02 s y 0,04 s. A causa de la resolución de movimiento del ojo humano 33 en la zona foveal 34, que sólo importa unos 25 Hz, está previsto de preferida que el tiempo entre dos imágenes de campo de visión directamente consecutivas importe aproximadamente 0,04 s. Según el requisito de resolución pueden tomarse imágenes de campo de visión adicionales y, de este modo, puede reducirse el tiempo entre dos imágenes de campo de visión directamente consecutivos, con lo que se consigue una mayor resolución de movimiento, y/o puede saltarse p.ej. un número prefijable de imágenes de campo de visión, o bien tomarse con una menor resolución de tiempo, con lo que aunque se reduce la resolución de movimiento también lo hace la complejidad analítica. Mediante la comparación de las imágenes de campo de visión en cada caso directamente subsiguiente puede conseguirse tanto una elevada resolución de movimiento como una menor complejidad de sistema, ya que puede prescindirse de sistemas de selección de imágenes y de memorias intermedias.
La fig. 3 muestra un esquema de conexiones en bloques de una forma de ejecución especialmente preferida del procedimiento conforme a la invención, en donde a continuación de los pasos de procedimiento conforme al procedimiento antes descrito conforme a la fig. 1, está previsto un tratamiento ulterior de los datos establecidos, por ello si un punto de visión 37, 38 está asociado a una fijación 48, 49 o a una sacada. Con ello está previsto que la primera distancia relativa 40 se edite junto con los puntos de visión 37, 38 marcados como pertenecientes a la primera fijación 48, respectivamente a la primera sacada. Los datos se preparan aquí para la primera edición 10 en un primer diagrama 11 y/o para la segunda edición 5 sobre un vídeo de campo de visión 9, en donde está previsto de forma preferida que se edite un vídeo de campo de visión 9 tomado para establecer las coordenadas de visión de los puntos de visión 37, 38 mediante el sistema de detección de visual, y que los puntos de visión 37, 38 correspondientes al menos a la primera fijación 48, respectivamente al menos a la primera sacada se representen en el vídeo de campo de visión 9, con lo que es posible una valoración rápida y visualmente sencilla de la percepción visual.
La fig. 12 muestra un pantallazo de una superficie de usuario 55 preferida de un programa de ordenador para ejecutar un procedimiento conforme a la invención, en donde a la izquierda abajo se ha representado el vídeo de campo de visión 9 en el que, conforme al procedimiento descrito a continuación, se editan informaciones relacionadas con los puntos de visión con respecto a la pertenencia de los puntos de visión 37, 38 aislados a una fijación 48, 49, respectivamente a una sacada. A la izquierda por encima del vídeo de campo de visión 9 se edita de forma sincronizada en el tiempo con el mismo un primer diagrama 11, en donde a la derecha junto al vídeo de campo de visión 9 – también de forma sincronizada en el tiempo con el vídeo de campo de visión 9 – se edita una vista fragmentaria en detalle del primer diagrama 11. Asimismo la superficie de usuario preferida presenta una serie de medios de control y/o introducción. En el primer diagrama 11 se edita en cada caso la primera distancia relativa 40 entre dos puntos de visión 37, 38 consecutivos, respectivamente entre los dos puntos de visión 37, 38 consecutivos que se han comparado en el dispositivo de comparación en cuanto al cumplimiento del primer criterio de fijación 25, a lo largo del desarrollo en el tiempo de un vídeo de campo de visión 9. La fig. 8 muestra una forma de ejecución preferida de un primer diagrama, en donde sobre la abscisa se ha aplicado el tiempo 53, respectivamente el tiempo 54 correlativo de los frames, por ello de las imágenes de campo de visión, del vídeo de campo de visión 9, y sobre la ordenada la primera distancia relativa 40, respectivamente el primer ángulo relativo 42. La información de si esta primera distancia relativa 40 respectiva entre dos imágenes de campo de visión se ha asociado a una sacada, respectivamente a una fijación 48, 49, se edita asimismo mediante la configuración de color, respectivamente la luminosidad de las primeras distancias relativas 40 representadas, aisladas, respectivamente de los primeros ángulos relativos 42. Con base en un primer diagrama 11 de este tipo pueden comprobarse de forma rápida y sencilla los videos de campo de visión 9 en cuanto a la percepción, en especial a la atención visual. Asimismo puede estar previsto que en el primer diagrama 11 se indique un marcador, para marcar el punto que actualmente se representa en el vídeo de campo de visión 9, en donde el primer diagrama 11 se establece constantemente de nuevo con el vídeo de campo de visión correlativo y/o se indica de forma correlativa alrededor del marcador detenido como primer diagrama 11 móvil y variable.
Además de la edición de los datos, de si un punto de visión 37, 38 está asociado a una fijación 48, 49 o a una sacada, en un primer diagrama 11 puede estar previsto editar los datos correspondientes en un vídeo de campo de visión 9 adaptado especial, como se ilustra en la fig. 3 mediante los bloques 6, 7 y 8. De forma preferida están previstas tres clases de edición diferentes, en donde puede estar previsto editar en cada caso solamente una de estas tres clases de edición, aunque también puede estar previsto representar simultáneamente dos o las tres clases de edición.
La fig. 9 muestra una primera clase de edición 6 preferida, la cual también está representada en el pantallazo conforme a la fig. 12, en donde junto con un punto de visión 37, que se corresponde en cada caso con la imagen de campo de visión representada actualmente en el vídeo de campo de visión 9, se edita un primer círculo 43 fundamentalmente de forma uniforme alrededor del punto de visión 37 con el radio de la primera distancia 39 y/o, junto con un punto de visión 37, que se corresponde en cada caso con la imagen de campo de visión representada actualmente en el vídeo de campo de visión 9, se edita un segundo círculo 44 fundamentalmente de forma uniforme alrededor del punto de visión 37 con el radio de una segunda distancia prefijable, en donde la segunda distancia es de forma preferida un segundo ángulo de visión, el cual describe de forma preferida la zona 35 a asociar a la visión parafoveal, en especial con un radio de hasta 5º y más, con lo que ya durante la observación del vídeo de campo de visión pueden reconocerse las zonas en las que, a causa de la distribución de agudeza visual alrededor del eje de visual central, es en realidad posible una percepción ordenada, respectivamente desordenada. Además de esto puede estar previsto que, mediante la unión de puntos de visión 37, 38 consecutivos, se establezcan trazas de visual 45 que se representan en el vídeo de campo de visión 9 al menos temporalmente, a causa de que las trazas de visual 45 después de un periodo de tiempo prefijable se ocultan de nuevo en el vídeo de campo de visión 9, en especial por medio de que se van debilitando continuamente, con lo que puede reconocerse de forma rápida y sencilla qué zonas del vídeo de campo de visión 9 están en el recuerdo, respectivamente en la memoria a corto plazo del observador, respectivamente de la persona de prueba, durante un espacio de tiempo corto en función de la persona.
Una segunda clase de edición 7 preferida se ha representado en la fig. 10, en donde está previsto representar los puntos de imagen 37 marcados como pertenecientes al menos a la primera fijación 48 circundados fundamentalmente de forma uniforme por un tercer círculo 46, en donde el radio del tercer círculo 46 es una función de la duración de tiempo correlativa de la primera fijación 48, por lo que el tercer círculo se hace cada vez mayor conforme aumenta la duración correlativa de la respectiva fijación. Puede estar previsto además que las sacadas entre dos fijaciones 48, 49 consecutivas a lo largo de los puntos de visión se unan mediante una línea. De forma preferida las fijaciones 48, 49, respectivamente las sacadas representadas aisladamente, después de un periodo de tiempo prefijable se ocultan de nuevo en el vídeo de campo de visión 9. Para garantizar una posibilidad de diferenciación entre varias sacadas, respectivamente fijaciones 48, 49 editadas simultáneamente, puede estar previsto marcar las mismas con diferentes colores y/o valores de gris, en donde puede estar previsto marcar la secuencia de las fijaciones mediante diferentes colores, valores de gris y/o configuración de los círculos.
La fig. 11 muestra una tercera clase de edición 8 preferida de la edición del vídeo de campo de visión 9, en donde está previsto representar éste oscurecido y representar los puntos de imagen 37 marcados como pertenecientes al menos a la primera fijación 48 circundados fundamentalmente de forma uniforme por un cuarto círculo 47, en donde la superficie del cuarto círculo 47 se representa al menos temporalmente más clara con relación al vídeo de campo de visión 9 representado oscurecido. Esto representa una configuración especialmente ventajosa, ya que por medio de esto – a modo de un proyector, respectivamente de un foco – sólo se indican bien visibles las zonas que el observador también aprecia, respectivamente ha apreciado realmente de forma razonada. Todas las otras zonas se representan oscurecidas, porque éstas tampoco se han apreciado realmente.
Además de la edición del vídeo de campo de visión 9 tratado conforme a la invención, respectivamente de la edición del primer diagrama 11 (fig. 8), puede estar prevista la evaluación de una secuencia completa de una primera sección prefijable, respectivamente de todo el vídeo de campo de visión 9, en donde puede estar prevista una selección 13 (fig. 3) de una primera sección del vídeo de campo de visión 9. Para esto se asocian a una primera fijación 48 todos los puntos de visión 37, 38, 69, 70 consecutivos juntos, que cumplen en cada caso el primer criterio de fijación 25, se establece la separación angular entre el primer punto de visión 37 asociado a la primera fijación 48 y el último punto de visión 70 asociado a la primera fijación 48, y se edita como primer ángulo de fijación 51 (fig. 13). Además de esto se edita de forma preferida la separación angular entre el último punto de visión 70, asociado a la primera fijación 48 y un primer punto de visión 73, asociado a la segunda fijación 49, y se edita como primer ángulo de sacada 52 (fig. 14). Por medio de esto es posible una medición específica de la atención para determinados objetos prefijables, respectivamente de escenas de un vídeo de campo de visión 9, ya que por medio de esto además del primer resultado de medición, por ello si un punto de visión 37 está asociado a una fijación 48, respectivamente a una sacada, se establece también un segundo resultado de medición sobre la longitud en el tiempo, respectivamente local, de la fijación 48, respectivamente de la sacada. De forma preferida está previsto que para una primera sección prefijable del vídeo de campo de visión 9 se edite la frecuencia de las fijaciones 48, 49 establecidas en función del ángulo de fijación 51, y/o que para la primera sección del vídeo de campo de visión 9 se edite la frecuencia de las sacadas establecidas en función del ángulo de sacada 42, respectivamente del tiempo. De forma preferida está con ello previsto que las fijaciones 48, 49 que cumplan, respectivamente satisfagan el primer criterio de fijación 25, se editen en un primer diagrama de fijación 15, así como las sacadas establecidas con el primer criterio de fijación 25 en un primer diagrama de sacada 20. Por medio de esto puede evaluarse de forma sencilla y rápida una secuencia entera, respectivamente una primera sección prefijable. La fig. 13 muestra un primer diagrama de fijación 15 de este tipo, en donde sobre la abscisa está registrado el primer ángulo de fijación 51, y sobre la ordenada la frecuencia 56 a la que se producen las fijaciones 48, 49 con el respectivo ángulo de fijación 51. El primer diagrama de fijación 15 representado en la fig. 13 muestra con ello las oscilaciones de fijación durante un viaje en automóvil. La fig. 14 muestra un primer diagrama de sacada 20 correspondiente, en donde sobre la abscisa está registrado el primer ángulo de sacada 52, y sobre la ordenada la frecuencia 56 a la que se producen sacadas con el ángulo de sacada 52 respectivo. El primer diagrama de sacada 20 representado en la fig. 14 muestra con ello las oscilaciones de sacada durante un viaje en automóvil. De forma preferida puede estar previsto que la superficie de usuario presente medios para seleccionar una primera sección del vídeo de campo de visión 9.
También puede estar previsto que la primera sección esté configurada en forma de una ventana de tamaño de ventana prefijable a ambos lados del marcador representable en el primer diagrama 11, y que el primer diagrama de fijación 15 y/o el primer diagrama de sacada 20 estén configurados para calcular e indicar correlativamente esta primera sección de longitud constante pero de contenido variable de forma correlativa.
De forma adicional, respectivamente alternativa al primer diagrama de fijación 15 y/o al primer diagrama de sacada 20, está previsto de forma preferida que para una primera sección prefijable del vídeo de campo de visión 9 todos los puntos de visión 37, 38, 69, 70 consecutivos, que cumplan en cada caso el primer criterio de fijación 25, juntos se asocien a una primera fijación 48, y que se establezca una primera duración de fijación 103 entre el primer punto de visión 37, asociado a la primera fijación 48, y el último punto de visión 70, asociado a la primera fijación 48, y que se edite la frecuencia 56 de las fijaciones 48, 49 establecidas en función de la primera duración de fijación 103. La figura 30 muestra una clase de edición especialmente preferida en forma de un diagrama de duración de fijación 100, en donde sobre la abscisa está registrada la primera duración de fijación 103 como duración en el tiempo de una fijación 48, 49, en donde como escalamiento equivalente puede estar previsto el número de frames 106, respectivamente de las imágenes de un vídeo de campo de visión 9, y en donde sobre la ordenada está registrada la frecuencia 56 con la que se producen fijaciones 48, 49 con la respectiva duración de fijación 103 en la primera sección prefijable del vídeo de campo de visión 9.
Asimismo está previsto, de forma especialmente preferida, que para la primera sección del vídeo de campo de visión 9 se establezca una primera duración de sacada 104 entre el último punto de visión 70, asociado a la primera fijación 48, y un primer punto de visión 73, asociado a una segunda fijación 49, y que se edite la frecuencia de las sacadas establecidas en función de la primera duración de sacada 104. La fig. 31 muestra una clase de edición especialmente preferida en forma de un diagrama de duración de sacada 101, en donde sobre la abscisa está registrada la primera duración de sacada 104 como duración en el tiempo de una sacada, en donde como escalamiento equivalente puede estar previsto el número de frames 106, respectivamente de las imágenes de un vídeo de campo de visión 9, y en donde sobre la ordenada está registrada la frecuencia 56 a la que se producen sacadas con la primera duración de sacada 104 respectiva en la primera sección prefijable del vídeo de campo de visión 9. Mediante la edición de la frecuencia 56 a la que se producen sacadas, respectivamente fijaciones 48, 49, en función de la primera duración de sacada 104, respectivamente de la primera duración de fijación 103, puede analizarse de forma rápida y sencilla de qué clase, respectivamente calidad, son las dedicaciones visuales en la primera sección. De este modo pueden reconocerse de forma rápida, sencilla y clara diferencias en función del objeto y/o de la situación.
En el procedimiento conforme a la invención pueden reconocerse asimismo márgenes de tiempo automáticamente, en los que los ojos están cerrados. Estos márgenes de tiempo son provocados por un llamado parpadeo, en el que la pupila está cubierta temporalmente por el párpado. Ha quedado demostrado que es ventajoso para la valoración de condiciones fisiológicas de la visión, que se investigue también la primera duración de parpadeo 105, como duración en el tiempo de un parpadeo, así como la frecuencia a la que se producen parpadeos de una primera duración de parpadeo 105 prefijable. La fig. 32 muestra una clase de edición preferida como diagrama de parpadeo 102, en donde se edita la frecuencia 56 a la que se producen parpadeos de primera duración de parpadeo 105 prefijable. Ha quedado demostrado que de la frecuencia reducida de los parpadeos, respectivamente de la primera duración de parpadeo 105 puede deducirse un elevado grado de complejidad de una situación, respectivamente de un objeto, y a la inversa. Además de esto una menor actividad de parpadeo puede conducir a una sequedad de los ojos y ligado a ello a problemas oculares y/o de visión. Por ello de lo descrito anteriormente puede deducirse que a partir de una determinada complejidad de la situación cabe esperar una reducción de la capacidad de visión a causa del menor parpadeo.
Además de esto, en un procedimiento conforme a la figura 3, existen otras posibilidades de evaluar los datos establecidos, como p.ej. la edición como consecuencia de modos de edición 64, 65, 66, 67, 68, 87, 88, 89, 90 que se explicarán en detalle en otro punto. Asimismo puede estar también previsto sustituir el primer criterio de fijación 25 por un segundo criterio de fijación 26 y, de este modo, investigar de nuevo al menos una segunda sección prefijable del vídeo de campo de visión 9, como se ilustra mediante la unión con línea de trazos entre la selección 13 de la primera, respectivamente segunda, sección prefijable del vídeo de campo de visión 9 con relación al primer criterio de fijación 25.
Como ya se ha explicado anteriormente, y partiendo de una definición de la zona foveal 34 como la zona en la que es posible una percepción ordenada, el primer ángulo de visión 41 de la zona foveal 34 depende mucho del objeto, respectivamente del entorno. Por ejemplo los objetos conocidos en un entorno, en el que el probador cuenta con la aparición de este objeto (p.ej. una señal de stop octogonal en el tráfico viario), son percibidos, respectivamente reconocidos, muy rápidamente por el probador. Por el contrario, los objetos inesperados, respectivamente desconocidos, no se reconocen, respectivamente aprecian tan rápidamente, respectivamente claramente.
Procedimiento para medir la capacidad de reconocimiento de unidades de objeto prefijables, en donde para una tercera sección prefijable del vídeo de campo de visión 9 se agrupan todos los puntos de visión a asociar a una primera unidad de objeto prefijable en una memoria intermedia de objeto 81, y en donde el procedimiento descrito anteriormente se lleva a cabo con los puntos de visión agrupados en la primera memoria intermedia de objeto 81. Por ello para una tercera sección prefijable, respectivamente elegible, del vídeo de campo de visión 9 se selecciona al menos una unidad de objeto, de forma preferida se selecciona un número prefijable de unidades de objeto, por ejemplo como se ha representado en las figuras 4 y 5 con cinco unidades de objeto. La selección de las unidades de objeto se realiza con ello de forma preferida por parte de un usuario, en donde sin embargo también puede estar prevista una selección automática de la al menos una primera unidad de objeto. En el caso de una primera unidad de objeto puede tratarse p.ej. de una señal de stop, en el caso de una segunda unidad de objeto puede tratarse p.ej. de un automóvil, y en el caso de una tercera unidad de objeto puede tratarse p.ej. de la línea directriz de una calle. Una unidad de objeto en el sentido de la invención puede ser también una escena del vídeo de campo de visión, p.ej. una circulación en curva.
La fig. 4 muestra con ello un procedimiento en el que, después de la selección 13 de una tercera sección del vídeo de campo de visión 9, se investigan en esta tercera sección del vídeo de campo de visión 9 puntos de visión que deben asociarse a las unidades de objeto determinadas previamente, respectivamente que están asociados a las mismas. Como puntos de visión a asociar, respectivamente asociados a una primera unidad de objeto, se designan con ello todos los puntos de visión que se producen entre el primer punto de visión de una primera fijación, que afecta a la primera unidad de objeto, y el último punto de visión de una última fijación, que afecta a la primera unidad de objeto, en la tercera sección del vídeo de campo de visión. Después de la selección 13 de la tercera sección del vídeo de campo de visión 9 se buscan en ésta puntos de visión (bloque 91), que deben asociarse a la primera unidad de objeto, respectivamente están asociados a la misma. Esta búsqueda y asociación de los puntos de visión aislados a las unidades de objeto aisladas puede realizarse con ello manualmente por parte de un usuario, así como automáticamente mediante un ordenador, por ejemplo con un software para el reconocimiento automático de muestras ópticas prefijables, como p.ej. señales de stop, marcas en la calle, personas, etc.
Los puntos de visión archivados en las distintas memorias intermedias de objeto 81, 82, 83, 84, 85 se tratan y valoran después, como se ha representado en la fig. 4, en cada caso como consecuencia de un procedimiento descrito anteriormente. Después de la valoración se edita en cada caso un diagrama de fijación 15, 16, 17, 18, 19 y un diagrama de sacada 20, 21, 22, 23, 24 por cada memoria intermedia de objeto. Por ello, en el procedimiento preferido conforme a la fig. 4 se editan de forma preferida un primer diagrama de fijación 15, un segundo diagrama de fijación 16, un tercer diagrama de fijación 17, un cuarto diagrama de fijación 18 y un quinto diagrama de fijación 19, así como un primer diagrama de sacada 20, un segundo diagrama de sacada 21, un tercer diagrama de sacada 22, un cuarto diagrama de sacada 23 y un quinto diagrama de sacada 24. Por medio de esto es posible diferenciar, respectivamente valorar, diferentes objetos en cuanto a su calidad de percepción. En especial es posible por medio de esto asociar a diferentes objetos una llamada característica de solicitud, por ello con qué intensidad atrae mi atención el objeto afectado. Por lo tanto existen objetos que por su configuración atraen, respectivamente recogen, la atención del observador, mientras que otros objetos dejan indiferente la atención del observador. El reconocimiento de cómo debe obtenerse un objeto para atraer la atención, respectivamente qué objetos provocan la atención en un observador es importante en muchos campos de la vida diaria, p.ej. a la hora de configurar pasos de peatones, a la hora de configurar ropa de seguridad, para el guiado en las calles, o p.ej. para configurar medios publicitarios. Además de esto existen en un procedimiento conforme a la fig. 4 otras posibilidades para evaluar los datos establecidos, como p.ej. la edición como consecuencia de otros modos de edición 64, 65, 66, 67, 68, 87, 88, 89, 90, que se explicarán en detalle en otro punto.
Los objetos conocidos, respectivamente esperados, se reconocen ya en el caso de un primer ángulo de visión 41 mucho más grande por completo como un objeto de este tipo, en comparación p.ej. con objetos hasta ahora todavía desconocidos, respectivamente inesperados. Por ello la agudeza visual y con ello también la zona foveal 34 para un primer objeto, respectivamente para un primer entorno, puede ser mayor o menor que para un segundo objeto, respectivamente un segundo entorno. La magnitud de la agudeza visual necesaria para el objeto específico representa por lo tanto un valor muy expresivo de la capacidad de percepción de un objeto, respectivamente de una secuencia escénica, p.ej. el recorrido de una zona de calle o la contemplación de un cartel publicitario.
Cuanto mayor sea la zona alrededor del eje de visión central en el, respectivamente con el que se reconoce un objeto, más rápida y fácilmente es percibido el mismo por un observador, por lo tanto mayor es también la probabilidad de que el mismo sea realmente también percibido de forma correcta como un objeto tal por parte del observador, incluso si para objetos adyacentes p.ej. no se cumple el primer criterio de fijación 25. Por ejemplo un observador, en el caso de una visual que pase rozando fugazmente sobre un edificio, podría reconocer de forma impecable como tal el anuncio colocado sobre el tejado de una conocida compañía de refrescos o de una conocida cadena de comida rápida, mientras que no se percibe la forma del tejado.
Una forma de ejecución de la invención se refiere por lo tanto asimismo a un procedimiento para la medición de percepción de unidades de objeto prefijables, en donde el procedimiento descrito anteriormente se lleva a cabo asimismo para al menos una segunda sección prefijable del vídeo de campo de visión 9 con al menos un segundo criterio de fijación 26 prefijable, diferente del primer criterio de fijación 25, con lo que puede establecerse la calidad de objetos prefijables y/o de secuencias de visión en cuanto a su capacidad de percepción por parte de un observador. La fig. 5 muestra una forma de ejecución preferida de un procedimiento de este tipo como esquema de conexiones en bloques, en donde los diferentes pasos de procedimiento se han representado reunidos como bloque 86 común representado a trazos y puntos. En una forma de ejecución preferida de la invención está previsto que la segunda zona sea idéntica a la tercera zona, en donde está previsto de forma preferida que los procedimientos correspondientes reunidos en el bloque 86 se apliquen a los puntos de visión archivados, respectivamente reunidos en la primera memoria intermedia de objeto 81, a asociar, respectivamente asociados a una primera unidad de objeto prefijable, como se ha representado también en la fig. 5.
En la forma de ejecución conforme a la fig. 5 está previsto que la segunda sección del vídeo de campo de visión 9, respectivamente el contenido de la primera memoria intermedia de objeto 81, de la segunda memoria intermedia de objeto 82, de la tercera memoria intermedia de objeto 83, de la cuarta memoria intermedia de objeto 84 y/o de la quinta memoria intermedia de objeto 85 se trate en serie consecutivamente en el dispositivo de comparación 4 y en la valoración 14 en cada caso con diferentes criterios de fijación 25, 26, 27, 28, 29, por lo tanto consecutivamente al menos en cada caso con un primer criterio de fijación 25, un segundo criterio de fijación 26, un tercer criterio de fijación 27, un cuarto criterio de fijación 28 y un quinto criterio de fijación 29, en forma de un bucle de procedimiento 30 para variar el criterio de fijación, en donde los resultados se archivan en una primera memoria 31 y después se editan.
De forma preferida está previsto con ello editar los datos establecidos, respectivamente la percepción de objeto dependiente del respectivo criterio de fijación 25, 26, 27, 28, 29. De forma preferida está previsto con ello que la frecuencia de las fijaciones 48, 49 se edite, en función de al menos el primer y el segundo criterio de fijación 25, 26, como primera curva 58 con primera duración de tiempo constante y como segunda curva 59 con segunda duración de tiempo constante. La fig. 15 muestra un segundo diagrama de este tipo, el cual también se designa como un llamado diagrama de nivel de fijación 32, en el que sobre la abscisa se aplica la primera distancia 39, respectivamente el primer ángulo de visión 41, y sobre la ordenada el número 57 de fijaciones, y en donde cada una de las seis curvas 58, 59, 60, 61, 62, 63 representadas se han establecido en cada caso con diferente primera duración de tiempo, por lo que en la primera curva 58 la distancia entre la primera imagen de campo de visión 37 y la segunda imagen de campo de visión 38 es de un frame, respectivamente una imagen de campo de visión, y por lo que la segunda imagen de campo de visión 38 es la imagen de campo de visión directamente subsiguiente a la primera imagen de campo de visión 37. En la segunda curva 59 la distancia entre la primera imagen de campo de visión 37 y la segunda imagen de campo de visión 38 es de dos frames. En la tercera curva 60 la distancia entre la primera imagen de campo de visión 37 y la segunda imagen de campo de visión 38 es de tres frames. En la cuarta curva 61 la distancia entre la primera imagen de campo de visión 37 y la segunda imagen de campo de visión 38 es de cuatro frames. En la quinta curva 62 la distancia entre la primera imagen de campo de visión 37 y la segunda imagen de campo de visión 38 es de cinco frames. En la sexta curva 63 la distancia entre la primera imagen de campo de visión 37 y la segunda imagen de campo de visión 38 es de seis frames. La fig. 15 muestra con ello dos diferentes diagramas de nivel de fijación 32, los cuales afectan en cada caso a diferentes escenas u objetos. A partir de diagramas de nivel de fijación 32 de este tipo pueden establecerse rápidamente las diferencias, específicas de la percepción, de diferentes objetos en función de la primera distancia 39, respectivamente del primer ángulo de visión 41, así como de la primera duración de tiempo, con lo que se hace posible una valoración, respectivamente medición científica de la diferentes capacidad de percepción de objetos. Por medio de esto es posible asociar a diferentes objetos una llamada característica de solicitud, por ello con qué intensidad atrae mi atención el objeto afectado.
Para una valoración y un análisis subsiguientes del comportamiento visual y de la percepción de objeto pueden estar previstos también otros formatos de edición, como ya se ha explicado anteriormente, como los que se ilustran en las figuras 16 a 20 así como 24 a 27.
En la fig. 16 se han representado todos los puntos de visión, de forma preferida para una primera unidad de objeto, por lo que todos los puntos de visión archivados en una primera memoria intermedia de objeto se representan sin una valoración y/o ponderación especial. Mediante una representación de este tipo, también designada como “dots” 64, para un observador experimentado es ya posible expresar una serie de declaraciones sobre la calidad del objeto contemplado. La superficie consignada en gris puede consignarse – tanto en esta clase de representación como también en todas las otras clases de representación conforme a las figuras 16 a 20 así como 24 a 27 – para una mejor comprensión también con una imagen del primer objeto, en donde es necesario tener en cuenta que en el caso de una aproximación dinámica después los puntos de visión representados no tienen que estar realmente dirigidos a las zonas representadas en la imagen consignada.
En la fig. 18 se representan todos los puntos de visión, de forma preferida para una primera unidad de objeto, por lo que se representan todos los puntos de visión archivados en la primera memoria intermedia de objeto, en donde están representados todos los puntos de visión marcados asociados a una fijación, en donde está previsto de forma preferida que estos se representen con relación al entorno en un contraste que pueda percibirse bien y/o en una diferencia de luminosidad que pueda percibirse bien y/o en un color diferente al del entorno. Los puntos de visión representados, respectivamente editados, marcados de este modo son designados también como fixdots 66. Por medio de esto es posible una evaluación especialmente fina y diferenciada de las calidades de percepción de un primer objeto. En la fig. 18 se ha representado aparte de esto una primera cruz axial 97, la cual marca el punto central y/o el baricentro de los puntos de visión.
En la fig. 19 se representan también todos los puntos de visión archivados en la primera memoria de objeto, en donde todos los puntos de visión asociados a una fijación de longitud prefijable están representados marcados, en donde está previsto de forma preferida que estos se representen con relación al entorno en un contraste que pueda percibirse bien y/o en una diferencia de luminosidad que pueda percibirse bien y/o en un color diferente al del entorno. Los puntos de visión representados, respectivamente editados, marcados de este modo son designados también como “weighted dots” 67. Mediante la modificación de la longitud prefijable de la fijación puede analizarse, de forma rápida y sencilla, cómo se modifican las calidades de apreciación de un primer objeto en función de la longitud de las diferentes fijaciones. En la fig. 19 se ha representado aparte de esto asimismo también la primera cruz axial 97.
La figura 20 muestra una forma de edición preferida, la cual puede aplicarse además de las formas de edición asimismo descritas. Con ello se ha dibujado un número prefijable de círculos alrededor del punto central 98 de los puntos de fijación de la primera cruz axial 97. De forma preferida, y como se ha representado, se ha representado un séptimo círculo 93 cuyo diámetro está configurado de tal modo, que el séptimo círculo 93 comprende el 50% de los puntos de visión. Asimismo se ha representado un octavo círculo 94, cuyo diámetro está configurado de tal modo que el séptimo círculo 93 comprende el 85% de los puntos de visión. El noveno círculo 95 asimismo representado está configurado de tal modo que éste comprende el 95% de los puntos de visión, y el décimo círculo 96 está configurado de tal modo que éste comprende el 99% de los puntos de visión. Esta representación – también designada como “zone-angle” 68 – puede combinarse con cada una de las otras formas de edición y hace posible una rápida valoración, específica del objeto, de la calidad de percepción.
En la fig. 17 se representan, de forma equivalente a la fig. 16, los puntos de visión archivados en la primera memoria intermedia de objeto, en donde asimismo se representan las zonas, los cuales se asocian a una fijación según una sacada “larga” previa a la misma, mediante un sexto círculo 92 cuya superficie se representa con relación al entorno en un contraste que pueda percibirse bien y/o en una diferencia de luminosidad que pueda percibirse bien y/o en un color diferente al del entorno.
El punto central del sexto círculo 92 viene dado por el baricentro de los puntos de visión asociados a la fijación afectada en cada caso. Una forma de representación de este tipo se designa también como “dominancia de fijación”
65. La longitud de una sacada larga viene dada a través de un primer ángulo de sacada 52 prefijable. Alternativamente puede prefijarse también un espacio de tiempo de sacada, a partir de cuya superación una sacada es una sacada larga. El diámetro del sexto círculo es prefijable y está situado de forma preferida en una zona que describe, de forma preferida, una zona 35 a asociar a la visión parafoveal. Mediante esta representación puede editarse insistentemente, incluso para un observador inexperto, a qué zonas de un objeto presta el observador una atención especial. También puede estar previsto que el sexto círculo 92 sólo se represente si se cumplen las particularidades necesarias para el reconocimiento de un objeto por parte de un observador, en cuanto a la fijación 48, 49 y a la duración de fijación 103. Por medio de esto puede reconocerse rápida y claramente si un objeto es, respectivamente ha sido visto de pasada, percibido o realmente reconocido por el observador
La fig. 25 muestra una décima edición 88 preferida, en donde se representan exclusivamente las sacadas entre fijaciones aisladas, por medio de que el último punto de visión en cada caso de una primera fijación se representa unido con una línea al primer punto de visión en cada caso de una segunda fijación, en donde la longitud de la sacada puede representarse diferente por medio de colores, con lo que un observador puede reconocer rápidamente las zonas con largos déficits de percepción.
La fig. 24 muestra una novena edición 87 preferida, en donde el campo de visión está recubierto por un retículo de tamaño y/o configuración prefijables, y los diferentes segmentos de retículo 99 se marcan con relación a la frecuencia de los puntos de visión que se producen en el mismo mediante una configuración prefijable en cuanto a su luminosidad, su color y/o su estructura.
La fig. 26 muestra una undécima edición preferida, en donde los métodos de edición conforme a las figuras 17, 19, 20, 24 y 25 se representan superpuestos, con lo que se representan en especial muchas informaciones sobre sólo una imagen, y el observador puede evaluar un objeto, respectivamente una escena aislada, de forma especialmente rápida y sencilla. La fig. 27 muestra una duodécima edición preferida, en donde está consignada en la misma vista que en la fig. 26 la representación para un mejor entendimiento con una imagen del primer objeto – en este caso una primera escena.
Además de los procedimientos de valoración y/o edición ya descritos está previsto de forma preferida otro procedimiento de valoración y/o edición descrito a continuación, el cual es apropiado en una medida especial para localizar la complejidad de una secuencia escénica. Con ello se trata – se explicará con base en dos ejemplos en las figuras 28 y 29 – de una combinación especialmente preferida de procedimientos de valoración y/o edición ya descritos, los cuales se amplían de forma preferida con otras valoraciones y/o ediciones ventajosas.
Las figuras 28 y 29 muestran una máscara de edición 50 preferida, en donde se han ocultado herramientas de control y otros campos de edición, y solamente se describen mediante texto. Pueden reconocerse los dos vídeos de campo de visión 9 representados uno junto al otro, en donde uno de los dos vídeos de campo de visión 9 muestra una representación conforme a la fig. 17 y el otro vídeo de campo de visión 9 una representación conforme a la fig.
25. Asimismo está previsto un primer diagrama 11, así como una representación detallada de un primer diagrama 11 de este tipo. La máscara de edición 50 comprende asimismo un primer diagrama de sacada 20 y un primer diagrama de duración de fijación 100 para el tiempo investigado, de forma preferida 2 s, aunque es prefijable. Asimismo está previsto un segundo diagrama 107, en el que se edita cuántos puntos de visión – por lo tanto la frecuencia de los puntos de visión – están dispuestos a qué primera distancia relativa 40 alrededor de un eje de visión central. Asimismo está previsto de forma preferida, en cada caso para una secuencia de vídeos de campo de visión representada actualmente, indicar la primera duración de fijación 103, el ángulo de sacada 52, así como un valor para la complejidad de la secuencia, en donde se establece y edita el valor para la complejidad como suma del primer ángulo relativo 42 medido en un espacio de tiempo prefijable, normalmente un segundo. Por medio de esto puede determinarse, de forma rápida y sencilla, si un probador está saturado con una situación o no. En cuanto el valor para la complejidad supera un valor límite prefijable, puede partirse de la base de que ya no se produce ninguna percepción ordenada de los objetos. En el tráfico viario una situación de este tipo puede tener consecuencias devastadoras. Mediante un procedimiento anteriormente descrito de este tipo y una valoración de este tipo, no sólo puede valorarse una situación, sino que puede establecerse de forma sencilla y rápida si un probador es p.ej,. apto para conducir
Las figuras 33 a 36 muestran ejemplos de una máscara de edición 108 preferida de una herramienta de análisis preferida, en donde las figuras 35 y 36 forman también una unidad, respectivamente están asociadas unas a otras. Las figuras 33 y 35 muestran en cada caso un vídeo de campo de visión 9 el cual, como consecuencia de la primera clase de edición 6 preferida de un vídeo de campo de visión 9, está representado con un primer y un segundo círculo 43, 44 conforme a la fig. 9, en donde también pueden estar previstas las otras ediciones preferidas descritas de un vídeo de campo de visión 9. En el vídeo de campo de visión 9 se representa con ello el número de la imagen de campo de visión, respectivamente del frame, representada(o) instantáneamente como número 106 correlativo, con lo que es posible una asociación exacta de la imagen de campo de visión representada en cada caso dentro del vídeo de campo de visión 9. Asimismo se establecen datos estadísticos para el vídeo de campo de visión 9 actual, de forma preferida se calculan mediante un ordenador, y se representan en un primer bloque estadístico de zona 109 y un segundo bloque estadístico de zona 110, así como en un bloque estadístico de pasado 111 y un bloque estadístico de futuro 112. En el primer y el segundo bloque estadístico de zona 109, 110 se han representado con ello los datos estadísticos, en cada caso para una zona temporal seleccionable del vídeo de campo de visión 9. En el bloque estadístico de pasado 111 se han representado los datos estadísticos para un margen de tiempo prefijable antes de la imagen de campo de visión representada en el momento respectivo, y en el bloque estadístico de futuro 112 los datos estadísticos para un margen de tiempo prefijable a continuación de la imagen de campo de visión representada en el momento respectivo.
En los diferentes bloques estadísticos 109, 110, 111, 112, por ello el primer y el segundo bloque estadístico de zona 109, 110, el bloque estadístico de pasado 111 y el bloque estadístico de futuro 112, se indican una complejidad (complexity), un porcentaje de fijación, un porcentaje de sacada, un factor de fijación, un factor de sacada y un porcentaje de parpadeo, en donde MD designan el valor medio aritmético, SD la desviación estándar, respectivamente variancia, min el mínimo, max el máximo y 85% el 85 por ciento de los valores respectivos para el margen de tiempo del vídeo de campo de visión 9, seleccionado en el respectivo bloque estadístico 109, 110, 111,
112.
La complejidad designa aquí la suma de todos los movimientos de visión en el margen de tiempo seleccionado del vídeo de campo de visión 9, de forma preferida en grados/unidad de tiempo, por lo tanto p.ej. º/s. El porcentaje de fijación designa el porcentaje de tiempo del margen de tiempo seleccionado del vídeo de campo de visión 9, al cual pueden asociarse fijaciones con relación a la duración de tiempo total del margen de tiempo seleccionado del vídeo de campo de visión 9; y el porcentaje de sacada designa el porcentaje de tiempo del margen de tiempo seleccionado del vídeo de campo de visión 9, al que pueden asociarse sacadas con relación a la duración de tiempo total del margen de tiempo seleccionado del vídeo de campo de visión 9. El porcentaje de fijación y el porcentaje de sacada pueden adoptar en cada caso valores entre cero y uno y su suma es uno, ya que para su establecimiento se utilizan en cada caso sólo regiones que no presentan ningún parpadeo, por lo tanto oscurecimientos temporales completos del ojo.
El factor de fijación es la relación entre el porcentaje de fijaciones y el porcentaje de sacadas en cada momento, y el factor de sacada es la relación entre el porcentaje de sacadas y el porcentaje de fijaciones en cada momento. El porcentaje de parpadeo es el porcentaje de tiempo de los parpadeos en el margen de tiempo seleccionado.
El número de fijaciones, sacadas y parpadeos se representa en los respectivos bloques estadísticos 109, 110, 111, 112, de forma preferida y como se ha representado, adicionalmente como valor discreto.
En la fig. 34 se han representado los datos estadísticos para el vídeo de campo de visión 9 y los bloques estadísticos 109, 110, 111, 112 conforme a la fig. 33 en forma gráfica, y en la fig. 36 se han representado los datos estadísticos para el vídeo de campo de visión 9 y los bloques estadísticos 109, 110, 111, 112 conforme a la fig. 35 en forma gráfica. De forma preferida y como se ha representado está previsto con ello un primer diagrama 11 para la representación gráfica de las fijaciones y sacadas. Asimismo se representa el valor respectivo de la complejidad en un diagrama de complejidad 113. Los valores adicionales del porcentaje de fijación, porcentaje de sacada, factor de fijación y/o factor de sacada están representados en un diagrama resumen 114. Mediante la barra doble 115 dispuesta centralmente se marca el punto representado en el vídeo de campo de visión 9 correspondiente en cada caso. Asimismo se representa el parpadeo como valor de parpadeo numérico 116 así como en forma de una barra de parpadeo 117.
La herramienta de análisis conforme a las figuras 33 a 36 está prevista de forma especialmente preferida para la localización y la investigación detallada de puntos con pérdidas de información, a causa de una elevada complejidad
o de enlaces de visión centrales, foveales, frecuentes. Mediante la edición de valores estadísticos con una información especialmente importante y su directa capacidad de asociación al vídeo de campo de visión 9 representado son posibles análisis en profundidad cualitativos de la recogida real de información y evaluaciones refinadas de diferentes casos de fallos informativos y/o defectos informativos. Por medio de esto puede establecerse el grado de percepción visual, con lo que se posibilitan otras investigaciones médicas y neurofisiológicas.
En un perfeccionamiento de la invención puede estar previsto valorar conjuntamente magnitudes de percepción con parámetros de estrés individuales (datos de fisiología humana) y magnitudes físicas de movimiento y estado, con lo que los procedimientos descritos anteriormente pueden usarse en un campo todavía más amplio de la investigación del estrés y del comportamiento.
Una forma de ejecución de la invención se refiere asimismo a un procedimiento para vigilar la percepción visual de al menos un primer usuario, de forma preferida humanoide, en donde mediante al menos una primera cámara de entorno se toma al menos un primer vídeo de entorno del entorno del primer usuario, en donde en el primer vídeo de entorno se investiga la presencia de al menos una primera muestra prefijable, de forma preferida señal de tráfico, en donde con un procedimiento según una de las reivindicaciones 1 a 20 se establece si el primer criterio de fijación 25 se cumple en el caso de los puntos de visión congruentes al menos por zonas con la primera muestra, y en donde en el caso de un incumplimiento del primer criterio de fijación se activa en la primera muestra al menos un primer circuito de control y/o regulación. Por medio de esto una máquina puede vigilar la zona de visión de un usuario junto con el comportamiento visual del usuario, y determinar p.ej. si determinadas zonas, respectivamente muestras prefijables son, respectivamente han sido percibidos por el usuario. Por ejemplo un automóvil puede buscar señales de tráfico en la zona viaria, y controlar si el conductor realmente ha percibido las señales de tráfico. Si no es éste el caso, el automóvil puede avisar de ello p.ej. mediante una luz de señalización o un sonido de señalización, respectivamente detener automáticamente el automóvil si p.ej. no se ha visto una señal de stop.
Para la implementación de un procedimiento de este tipo es necesario que se tome el movimiento de pupila del usuario, respectivamente del conductor, por lo que está previsto un sistema de detección de visual correspondiente. Aunque con sistemas de detección de visual, que están unidos rígidamente a la cabeza, se consiguen los mejores resultados, también puede estar previsto p.ej. un sistema de detección de visual, que toma el movimiento de pupila, respectivamente la dirección de visión mediante un gran número de cámaras dispuestas alrededor del usuario. Está prevista por ello de forma preferida la aplicación en campos en los que el usuario usa de todos modos unas gafas protectoras, respectivamente un casco, ya que un sistema de detección de visual puede integrarse después fácilmente en el casco, respectivamente las gafas protectoras. Posibles campos de aplicación son p.ej. máquinas que se mueven rápidamente, como p.ej. bancos giratorios o máquinas de cordelería, cascos para pilotos de aviones de caza, en los que el propio avión busca en el entorno objetivos y peligros, para avisar al piloto sólo cuando éste no ha percibido estos. Los sistemas de este tipo podrían integrarse también en los cascos de pilotos de carreras, y optimizarse p.ej. para el reconocimiento de muestras de señales de bandera mediante puntos de control, etc.
Símbolos de referencia:
1.
Establecimiento de los puntos de visión, respectivamente de las coordenadas de visión
2.
Lectura de las coordenadas de visión
3.
Lectura del criterio de fijación
4.
Establecimiento de si fijación o sacada
5.
Segunda edición
6.
Primera clase de edición preferida
7.
Segunda clase de edición preferida
8.
Tercera clase de edición preferida
9.
Vídeo de campo de visión
10.
Primera edición
11.
Primer diagrama
12.
Edición del primer diagrama
13.
Selección de una primera sección del vídeo de campo de visión
14.
Unidad de valoración
15.
Primer diagrama de fijación
16.
Segundo diagrama de fijación
17.
Tercer diagrama de fijación
18.
Cuarto diagrama de fijación
19.
Quinto diagrama de fijación
20.
Primer diagrama de sacada
21.
Segundo diagrama de sacada
22.
Tercer diagrama de sacada
23.
Cuarto diagrama de sacada
24.
Quinto diagrama de sacada
25.
Primer criterio de fijación
26.
Segundo criterio de fijación
27.
Tercer criterio de fijación
28.
Cuarto criterio de fijación
29.
Quinto criterio de fijación
30.
Bucle de procedimiento para variar el criterio de fijación
31.
Primera memoria
32.
Diagrama de nivel de fijación
33.
Ojo
34.
Zona foveal
35.
Zona parafoveal
36.
Zona periférica
37.
Primer punto de visión
38.
Segundo punto de visión
39.
Primera distancia
40.
Primera distancia relativa
41.
Primer ángulo de visión
42.
Primer ángulo relativo
43.
Primer círculo
44.
Segundo círculo
45.
Primeras trazas de visual
46.
Tercer círculo
47.
Cuarto círculo
48.
Primera fijación
49.
Segunda fijación
50.
Máscara de edición
51.
Primer ángulo de fijación
52.
Primer ángulo de sacada
53.
Tiempo
54.
Número correlativo de frames del vídeo de campo de visión
55.
Superficie de usuario
56.
Frecuencia
57.
Número de fijaciones
58.
Primera curva
59.
Segunda curva
60.
Tercera curva
61.
Cuarta curva
62.
Quinta curva
63.
Sexta curva
64.
Dots
65.
Dominancia de fijación
66.
Fixdots
67.
Weighted dots
68.
Zone-angle
69.
Tercer punto de visión primera fijación
70.
Último punto de visión primera fijación
71.
Punto de visión, entre primera y segunda fijación
72.
Punto de visión, entre primera y segunda fijación
73.
Punto de visión, primer punto de visión segunda fijación
74.
Punto de visión, segundo punto de visión segunda fijación
75.
Punto de visión, tercer punto de visión segunda fijación
76.
Primera cámara
77.
Segunda cámara
78.
Imagen ocular
79.
Imagen de campo de visión
80.
Cabeza de la persona de prueba
81.
Primera memoria intermedia de objetivo
82.
Segunda memoria intermedia de objetivo
83.
Tercera memoria intermedia de objetivo
84.
Cuarta memoria intermedia de objetivo
85.
Quinta memoria intermedia de objetivo
86.
Bloque
87.
Novena edición preferida
88.
Décima edición preferida
89.
Undécima edición preferida
90.
Duodécima edición preferida
91.
Búsqueda de puntos de visión en el vídeo de campo de visión, bloque fig. 4
92.
Sexto círculo
93.
Séptimo círculo
94.
Octavo círculo
95.
Noveno círculo
96.
Décimo círculo
97.
Primera cruz axial
98.
Punto central de los puntos de fijación
99.
Segmentos de retículo 100.Primer diagrama de duración de fijación 101.De un diagrama de duración de sacada 102.Diagrama de parpadeo 103.Primera duración de fijación 104.Primera duración de sacada 105.Primera duración de parpadeo
106.
Número de frames
107.
Segundo diagrama 108.Máscara de edición 109.Primer bloque estadístico de zona 110.Segundo bloque estadístico de zona 111.Bloque estadístico de pasado 112.Bloque estadístico de futuro 113.Diagrama de complejidad
114.
Diagrama resumen
115.
Barra doble 116.Valor de parpadeo 117.Barra de parpadeo

Claims (15)

  1. REIVINDICACIONES
    1.
    Procedimiento para la medición de la percepción, en especial para la medición de la atención visual individual, en donde se tratan al menos unas primeras coordenadas de visión – en especial establecidas por un sistema de detección de visual – de un primer punto de visión (37), asociadas a una primera imagen de campo de visión de un vídeo de campo de visión, y al menos unas segundas coordenadas de visión de un segundo punto de visión (38), asociadas a una segunda imagen de campo de visión del vídeo de campo de visión, en donde la segunda imagen de campo de visión se ha tomado a continuación de la primera imagen de campo de visión, en donde se comprueba en un dispositivo de comparación si las segundas coordenadas de visión del segundo punto de visión (38) con las primeras coordenadas de visión del primer punto de visión (37) cumplen al menos un primer criterio de fijación (25) prefijable, en donde los primeros y los segundos puntos de visión (37, 38), en el caso de cumplirse el primer criterio de fijación (25), se asocian a una primera fijación (48) a asociar a la percepción ordenada y se marcan, en donde los primeros y los segundos puntos de visión (37, 38), en el caso de incumplirse el primer criterio de fijación (25), se asocian a una primera sacada a asociar a la percepción desordenada y se marcan, en donde se edita el vídeo de campo de visión (9) tomado para establecer las coordenadas de visión de los puntos de visión (37, 38) mediante el sistema de detección de visual, en donde se representan en el vídeo de campo de visión (9) los puntos de visión (37, 38) pertenecientes al menos a la primera fijación (48), respectivamente al menos a la primera sacada.
  2. 2.
    Procedimiento según la reivindicación 1, caracterizado porque el primer y el segundo punto de visión (37, 38) se editan marcados como pertenecientes a la primera fijación (48) o a la primera sacada.
  3. 3.
    Procedimiento según la reivindicación 1 ó 2, caracterizado porque el primer criterio de fijación (25) se puede prefijar, en especial porque el primer criterio de fijación (25) es una primera distancia (39) prefijable alrededor del primer punto de visión (37), y porque se establece la primera distancia relativa (40) entre el primer punto de visión
    (37)
    y el segundo punto de visión (38), y porque si la primera distancia relativa (40) es menor que la primera distancia (39) el primer y el segundo punto de visión (37, 38) se asocian a la primera fijación (48), en donde la primera distancia (39) es en especial un primer ángulo de visión (41), el cual describe de forma preferida una zona
    (34)
    asociada a la visión foveal, en especial entre 0,5º y 1,5º, de forma preferida aproximadamente 1º, y la distancia entre el primer punto de visión (37) y el segundo punto de visión (38) es en especial un primer ángulo relativo (42).
  4. 4.
    Procedimiento según una de las reivindicaciones 1 a 3, caracterizado porque la segunda imagen de campo de visión se ha tomado a continuación de la primera imagen de campo de visión, en especial directamente a continuación, después de un primer periodo de tiempo prefijable, en especial de entre 0,005 s y 0,1 s, de forma preferida de entre 0,02 s y 0,04 s.
  5. 5.
    Procedimiento según la reivindicación 3 ó 4, caracterizado porque la primera distancia relativa (40) se edita junto con los puntos de visión (37, 38) marcados como pertenecientes a la primera fijación (48), o a la primera sacada, de forma preferida porque la primera distancia relativa (40) se edita en un primer diagrama (11) a lo largo del desarrollo en el tiempo de un vídeo de campo de visión (9).
  6. 6.
    Procedimiento según una de las reivindicaciones 1 a 5, caracterizado porque junto con un punto de visión (37), que se corresponde en cada caso con la imagen de campo de visión representada actualmente en el vídeo de campo de visión (9), se edita un primer círculo (43) fundamentalmente de forma uniforme alrededor del punto de visión (37) con el radio de la primera distancia (39), en especial porque junto con un punto de visión (37), que se corresponde en cada caso con la imagen de campo de visión representada actualmente en el vídeo de campo de visión (9), se edita un segundo círculo (44) fundamentalmente de forma uniforme alrededor del punto de visión (37) con el radio de una segunda distancia prefijable, en donde la segunda distancia es de forma preferida un segundo ángulo de visión, el cual describe en especial una zona (35) a asociar a la visión parafoveal, de forma preferida 3º a 5º.
  7. 7.
    Procedimiento según una de las reivindicaciones 1 a 6, caracterizado porque mediante la unión de puntos de visión (37, 38) consecutivos se establecen unas primeras trazas de visual (45), que se representan en el vídeo de campo de visión (9) al menos temporalmente.
  8. 8.
    Procedimiento según una de las reivindicaciones 1 a 7, caracterizado porque se representan los puntos de imagen (37) marcados como pertenecientes al menos a la primera fijación (48) circundados fundamentalmente de forma uniforme por un tercer círculo (46), y porque el radio del tercer círculo (46) es una función de la duración de tiempo correlativa de la primera fijación (48).
  9. 9.
    Procedimiento según una de las reivindicaciones 1 a 8, caracterizado porque el vídeo de campo de visión (9) se representa oscurecido, porque los puntos de imagen (37) marcados como pertenecientes al menos a la primera fijación (48) se representan circundados fundamentalmente de forma uniforme por un cuarto círculo (47), en donde la superficie del cuarto círculo (47) se representa al menos temporalmente más clara con relación al vídeo de campo de visión (9) representado oscurecido.
  10. 10.
    Procedimiento según una de las reivindicaciones 1 a 9, caracterizado porque para una primera sección prefijable del vídeo de campo de visión (9) se asocian a una primera fijación (48) todos los puntos de visión (37, 38, 69, 70) consecutivos juntos, que cumplen en cada caso el primer criterio de fijación (25), y porque se establece la separación angular entre el primer punto de visón (37) asociado a la primera fijación (48) y el último punto de visión
    (70) asociado a la primera fijación (48), y se edita como primer ángulo de fijación (51), y porque para la primera sección del vídeo de campo de visión (9) se edita la frecuencia (56) de las fijaciones (48, 49) establecidas en función del ángulo de fijación.
  11. 11. Procedimiento según la reivindicación 10, caracterizado porque para la primera sección del vídeo de campo de visión (9) se establece la separación angular entre el último punto de visión (70), asociado a la primera fijación (48), y un primer punto de visión (73), asociado a una segunda fijación (49), y se edita como primer ángulo de sacada (52), y porque para la primera sección del vídeo de campo de visión (9) se edita de forma preferida la frecuencia
    (56) de las sacadas establecidas en función del ángulo de sacada.
  12. 12.
    Procedimiento según una de las reivindicaciones 1 a 11, caracterizado porque para una primera sección prefijable del vídeo de campo de visión (9) todos los puntos de visión (37, 38, 69, 70) consecutivos, que cumplen en cada caso el primer criterio de fijación (25), juntos se asocian a una primera fijación (48), y porque se establece una primera duración de fijación (103) entre el primer punto de visión (37), asociado a la primera fijación (48), y el último punto de visión (70), asociado a la primera fijación (48), y porque se edita la frecuencia (56) de las fijaciones (48, 49) establecidas en función de la primera duración de fijación (103), y porque para la primera sección del vídeo de campo de visión (9) se establece una primera duración de sacada (104) entre el último punto de visión (70), asociado a la primera fijación (48), y un primer punto de visión (73), asociado a una segunda fijación (49), y se edita en especial la frecuencia (56) de las sacadas establecidas en función de la primera duración de sacada (104).
  13. 13.
    Procedimiento para medir la capacidad de reconocimiento de unidades de objeto prefijables, caracterizado porque para una tercera sección prefijable del vídeo de campo de visión (9) se agrupan todos los puntos de visión a asociar a una primera unidad de objeto prefijable en una memoria intermedia de objeto (81), y porque el procedimiento según las reivindicaciones 10 a 12 se lleva a cabo con los puntos de visión agrupados en la primera memoria intermedia de objeto (81).
  14. 14.
    Procedimiento para la medición de percepción de unidades de objeto prefijables, caracterizado porque el procedimiento según una de las reivindicaciones 1 a 12 se lleva a cabo asimismo para al menos una segunda sección prefijable del vídeo de campo de visión (9) con al menos un segundo criterio de fijación (26) prefijable, diferente del primer criterio de fijación (25), y de forma preferida se edita la frecuencia de las fijaciones (48, 49), en función de al menos el primer y el segundo criterio de fijación (25, 26), como primera curva (58) con primera duración de tiempo constante y como segunda curva (59) con segunda duración de tiempo constante.
  15. 15.
    Procedimiento para vigilar la percepción visual de al menos un primer usuario, de forma preferida humanoide, caracterizado porque mediante al menos una primera cámara de entorno se toma al menos un primer vídeo de entorno del entorno del primer usuario, porque en el primer vídeo de entorno se investiga la presencia de al menos una primera muestra prefijable, de forma preferida una señal de tráfico, porque con un procedimiento según una de las reivindicaciones 1 a 12 se establece si el primer criterio de fijación (25) se cumple en el caso de los puntos de visión congruentes al menos por zonas con la primera muestra, y porque en el caso de un incumplimiento del primer criterio de fijación se activa en el caso de la primera muestra al menos un primer circuito de control y/o regulación.
ES08756820T 2007-06-12 2008-06-12 Procedimiento para la medición de la percepción Active ES2401835T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AT9112007 2007-06-12
AT0091107A AT505338B1 (de) 2007-06-12 2007-06-12 Verfahren zur wahrnehmungsmessung
PCT/AT2008/000210 WO2008151346A1 (de) 2007-06-12 2008-06-12 Verfahren zur wahrnehmungsmessung

Publications (1)

Publication Number Publication Date
ES2401835T3 true ES2401835T3 (es) 2013-04-24

Family

ID=39930554

Family Applications (1)

Application Number Title Priority Date Filing Date
ES08756820T Active ES2401835T3 (es) 2007-06-12 2008-06-12 Procedimiento para la medición de la percepción

Country Status (10)

Country Link
US (1) US8379918B2 (es)
EP (1) EP2157903B1 (es)
AT (1) AT505338B1 (es)
DK (1) DK2157903T3 (es)
ES (1) ES2401835T3 (es)
IL (1) IL202689A (es)
PT (1) PT2157903E (es)
RU (1) RU2473301C2 (es)
SI (1) SI2157903T1 (es)
WO (1) WO2008151346A1 (es)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10552710B2 (en) 2009-09-28 2020-02-04 Oracle International Corporation Hierarchical sequential clustering
US10013641B2 (en) * 2009-09-28 2018-07-03 Oracle International Corporation Interactive dendrogram controls
EP2464249B1 (de) 2010-03-29 2013-03-13 Johannes Huber Konzentrationssteigerndes getränk
US8717393B2 (en) * 2010-11-03 2014-05-06 Blackberry Limited System and method for controlling a display of a mobile device
US9043042B2 (en) * 2011-07-19 2015-05-26 GM Global Technology Operations LLC Method to map gaze position to information display in vehicle
WO2013111140A2 (en) * 2012-01-26 2013-08-01 Umoove Services Ltd. Eye tracking
US9952663B2 (en) 2012-05-10 2018-04-24 Umoove Services Ltd. Method for gesture-based operation control
US9239956B2 (en) * 2012-06-28 2016-01-19 Oliver Hein Method and apparatus for coding of eye and eye movement data
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
WO2014179558A1 (en) 2013-05-01 2014-11-06 Musc Foundation For Research Development Monitoring neurological functional status
AT513987B1 (de) 2013-08-23 2014-09-15 Ernst Dipl Ing Dr Pfleger Brille und Verfahren zur Bestimmung von Pupillenmittelpunkten beider Augen eines Menschen
RU2555610C2 (ru) * 2013-11-21 2015-07-10 Общество с ограниченной ответственностью "Центр деловых инноваций" Способ снижения числа уходов зрителей от видеоизображения путем контроля концентрации человеческого внимания на видеоизображении
RU2545428C1 (ru) * 2014-03-12 2015-03-27 Федеральное государственное бюджетное учреждение "Научный центр неврологии" Российской академии медицинских наук (ФГБУ "НЦН" РАМН) Способ определения траектории смещения непроизвольного зрительного внимания на изображении
US10424103B2 (en) 2014-04-29 2019-09-24 Microsoft Technology Licensing, Llc Display device viewer gaze attraction
DE102014223114A1 (de) * 2014-11-12 2016-05-12 Robert Bosch Gmbh Verfahren zum Erzeugen eines Warnsignals für einen Kraftfahrzeugführer
US10194799B2 (en) * 2015-03-09 2019-02-05 Sanovas Intellectual Property, Llc Robotic ophthalmology
SG11201811520PA (en) * 2016-07-04 2019-01-30 Singapore Health Serv Pte Ltd Apparatus and method for monitoring use of a device
US10573061B2 (en) 2017-07-07 2020-02-25 Nvidia Corporation Saccadic redirection for virtual reality locomotion
US10573071B2 (en) 2017-07-07 2020-02-25 Nvidia Corporation Path planning for virtual reality locomotion
US10452947B1 (en) * 2018-06-08 2019-10-22 Microsoft Technology Licensing, Llc Object recognition using depth and multi-spectral camera
US11245875B2 (en) 2019-01-15 2022-02-08 Microsoft Technology Licensing, Llc Monitoring activity with depth and multi-spectral camera
CN110889870B (zh) * 2019-11-15 2023-05-12 深圳市吉祥云科技有限公司 一种大幅面产品精准定位方法及系统
US20240036643A1 (en) 2020-12-07 2024-02-01 Viewpointsystem Gmbh Method for implementing a zooming function in an eye tracking system
CN117441352A (zh) * 2021-08-20 2024-01-23 Oppo广东移动通信有限公司 无线通信的方法和设备
US11934572B2 (en) * 2021-11-09 2024-03-19 Qualcomm Incorporated Dynamic content presentation for extended reality systems
CN114849162B (zh) * 2022-04-13 2023-03-24 江苏医药职业学院 一种老年人健身康复用踏步机的监护系统及踏步机
WO2024013546A1 (en) * 2022-07-12 2024-01-18 Mcdowell Nicola Jean A method of identifying a higher visual perceptual difficulty

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6090051A (en) * 1999-03-03 2000-07-18 Marshall; Sandra P. Method and apparatus for eye tracking and monitoring pupil dilation to evaluate cognitive activity
US6120461A (en) * 1999-08-09 2000-09-19 The United States Of America As Represented By The Secretary Of The Army Apparatus for tracking the human eye with a retinal scanning display, and method thereof
EP1219243A1 (en) * 2000-12-28 2002-07-03 Matsushita Electric Works, Ltd. Non-invasive brain function examination
GB0122601D0 (en) 2001-09-19 2001-11-07 Imp College Innovations Ltd Manipulation of image data
ES2281405T3 (es) 2001-10-01 2007-10-01 Ernst Univ. Prof. Dipl.-Ing. Dr. Pfleger Metodo para obtener, evaluar y analizar las secuencias de vision.
ATE454849T1 (de) * 2002-10-15 2010-01-15 Volvo Technology Corp Verfahren für die auswertung der kopf- und augenaktivität einer person
US20080188777A1 (en) 2004-09-03 2008-08-07 Canadian Space Agency System and Method For Mental Workload Measurement Based on Rapid Eye Movement
WO2006108017A2 (en) * 2005-04-04 2006-10-12 Lc Technologies, Inc. Explicit raytracing for gimbal-based gazepoint trackers
RU2322180C2 (ru) * 2006-05-04 2008-04-20 Владимир Николаевич Пугач Способ психофизиологической коррекции аномалий пространственного восприятия и устройство для его реализации
US7556377B2 (en) * 2007-09-28 2009-07-07 International Business Machines Corporation System and method of detecting eye fixations using adaptive thresholds

Also Published As

Publication number Publication date
AT505338B1 (de) 2009-03-15
SI2157903T1 (sl) 2013-05-31
IL202689A0 (en) 2010-06-30
RU2473301C2 (ru) 2013-01-27
US8379918B2 (en) 2013-02-19
EP2157903B1 (de) 2012-12-12
DK2157903T3 (da) 2013-03-25
RU2010100817A (ru) 2011-07-20
PT2157903E (pt) 2013-03-18
AT505338A1 (de) 2008-12-15
EP2157903A1 (de) 2010-03-03
US20100183205A1 (en) 2010-07-22
WO2008151346A1 (de) 2008-12-18
IL202689A (en) 2013-05-30

Similar Documents

Publication Publication Date Title
ES2401835T3 (es) Procedimiento para la medición de la percepción
Wertheim Visual conspicuity: a new simple standard, its reliability, validity and applicability
US6997556B2 (en) Method for detecting, evaluating, and analyzing look sequences
Tyrrell et al. The conspicuity of pedestrians at night: A review
US7309125B2 (en) Method and apparatus for detecting abnormalities in spatial perception
ES2858370T5 (es) Sistema de vigilancia y procedimiento para controlar un sistema de vigilancia
CA2475042A1 (en) Improved process and device for the training of human vision
CN104380369B (zh) 图像显示设备和图像显示方法
JP2017113573A (ja) 視力検査装置及び視の検査方法
JP2017113572A (ja) 視力検査装置及び視の検査方法
O'Brien et al. Color and defective color vision as factors in the conspicuity of signs and signals
JP2011042179A (ja) 投光器制御装置
Isler et al. Testing the relative conspicuity of safety garments for New Zealand forestry workers
Girard et al. Discomfort glare from a cyclic source in outdoor lighting conditions
Bhagavathula et al. Effect of static and moving objects on driver eye movements and detection distances
Terry et al. Assessment of the Impact of Color Contrast in the Detection and Recognition of Objects in a Road Environment
ES2281405T3 (es) Metodo para obtener, evaluar y analizar las secuencias de vision.
Bullough et al. Traffic signal luminance and visual discomfort at night
Barbu Visual Field Evaluation Method Of The Automobile Drivers In Traffic
Carlson et al. Recommended guidelines for nighttime overhead sign visibility
US9717407B2 (en) Apparatus and method for testing night vision
Cengiz Visual performance under mesopic conditions: towards determination of adaptation luminance
Davoodian et al. Does pedestrian useful visual field change at night?
TWI788486B (zh) 視機能檢查系統、光學特性算出系統、光學構件的選擇方法、光學構件的製造方法、顯示構件的製造方法、照明裝置的製造方法、視機能檢查裝置、光學特性算出裝置、視機能檢查方法、光學特性的算出方法、電腦程式、及記錄媒體
Steele et al. Improving the effectiveness of nighttime temporary traffic control warning devices, volume 2: evaluation of nighttime mobile warning lights