ES2809648A1 - SYSTEM AND PROCEDURE FOR OPTIMIZING IMAGE RENDERING BASED ON PUPIL MONITORING (Machine-translation by Google Translate, not legally binding) - Google Patents

SYSTEM AND PROCEDURE FOR OPTIMIZING IMAGE RENDERING BASED ON PUPIL MONITORING (Machine-translation by Google Translate, not legally binding) Download PDF

Info

Publication number
ES2809648A1
ES2809648A1 ES201930771A ES201930771A ES2809648A1 ES 2809648 A1 ES2809648 A1 ES 2809648A1 ES 201930771 A ES201930771 A ES 201930771A ES 201930771 A ES201930771 A ES 201930771A ES 2809648 A1 ES2809648 A1 ES 2809648A1
Authority
ES
Spain
Prior art keywords
image
rendering
area
pupils
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
ES201930771A
Other languages
Spanish (es)
Inventor
Alias Antonio Jose Casado
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to ES201930771A priority Critical patent/ES2809648A1/en
Publication of ES2809648A1 publication Critical patent/ES2809648A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Image rendering optimization system and procedure based on pupil tracking. Constituted from a device that captures the image and the movement of the user's eyes, such as a camera, processes said information, and sends it to the image synthesis engine to optimize the rendering process, dedicating more resources (resolution, GPU and CPU power, video memory, screen resolution, etc.) in representing the area of the image that will affect the fovea of the retina, which is where the center of attention of the gaze is focused. (Machine-translation by Google Translate, not legally binding)

Description

DESCRIPCIÓNDESCRIPTION

SISTEMA Y PROCEDIMIENTO DE OPTIMIZACIÓN DEL RENDERIZADO DE SYSTEM AND PROCEDURE FOR THE OPTIMIZATION OF THE RENDERING OF

IMÁGENES A PARTIR DEL SEGUIMIENTO DE LAS PUPILAS IMAGES FROM PUPIL MONITORING

OBJETO DE LA INVENCIÓNOBJECT OF THE INVENTION

La presente invención se refiere, aprovechando el hecho de que la densidad de receptores en la retina se concentra en determinados puntos de la retina del ojo, a un sistema capaz de mejorar la visión de la zona de la imagen donde se encuentra el foco de atención, usando la información de la orientación de las pupilas para optimizar la potencia de cálculo del sistema de renderizado de la imagen a mostrar en gafas de realidad virtual, monitores, pantallas, etc. en dichos puntos de máxima densidad de receptores.The present invention refers, taking advantage of the fact that the density of receptors in the retina is concentrated in certain points of the retina of the eye, to a system capable of improving the vision of the image area where the focus of attention is located. , using the information of the orientation of the pupils to optimize the computing power of the rendering system of the image to be displayed in virtual reality glasses, monitors, screens, etc. at these points of maximum receptor density.

Viene a resolver el problema hasta ahora no resuelto de mejorar la calidad y optimizar los recursos y el rendimiento de los sistemas de renderizado y representación de imágenes generadas por algoritmos numéricos.It solves the hitherto unsolved problem of improving the quality and optimizing the resources and performance of rendering systems and representation of images generated by numerical algorithms.

En la mayoría de los animales la distribución de los receptores de luz en la retina es tal que en las zonas donde se enfoca el centro de atención de la imagen que va a procesar el cerebro aumenta la densidad de dichos receptores, obteniendo por tanto más detalle el sujeto observador en la zona donde se centra su interés. En los seres humanos esta zona se denomina fóvea y tiene alrededor de 2mm cuadrados de superficie; de hecho, la mitad de la información que transfiere al cerebro el nervio óptico corresponde a la generada en la fóvea.In most animals, the distribution of light receptors in the retina is such that in the areas where the center of attention of the image to be processed by the brain is focused, the density of these receptors increases, thus obtaining more detail. the observing subject in the area where his interest is centered. In humans this area is called the fovea and is about 2mm square in area; in fact, half of the information that the optic nerve transfers to the brain corresponds to that generated in the fovea.

El procedimiento en sí usa un dispositivo de seguimiento de la posición de la pupila para determinar qué parte del campo de visión sintetizado en la imagen a representar va a incidir en la fóvea para que el motor de síntesis de imagen use una cantidad adecuadamente mayor de recursos (resolución, potencia de GPU y CPU, memoria de vídeo, resolución de pantalla y/o gafas VR, etc.) en renderizar y representar la zona de la imagen que va a incidir en la fóvea de la retina. El resto de la imagen puede ser sintetizada con menor detalle ya que la densidad de receptores de luz en el resto de la superficie de la retina es menor.The procedure itself uses a device to monitor the position of the pupil to determine which part of the synthesized field of view in the image to be represented is going to affect the fovea so that the image synthesis engine uses an appropriately greater amount of resources. (resolution, GPU and CPU power, video memory, screen resolution and / or VR glasses, etc.) in rendering and representing the area of the image that will affect the fovea of the retina. The rest of the image can be synthesized with less detail since the density of light receptors in the rest of the retina surface is lower.

La aplicación industrial de esta invención se encuentra por tanto en el diseño y desarrollo de sistemas y dispositivos de captación de movimiento y posición ocular combinados con sistemas de renderizado de imágenes en simuladores de entrenamiento y/o formación, en juegos y vídeos en streaming, y optimización de estos.The industrial application of this invention is therefore in the design and development of systems and devices for capturing movement and ocular position. combined with image rendering systems in training and / or training simulators, in games and streaming videos, and their optimization.

ANTECEDENTES DE LA INVENCIÓNBACKGROUND OF THE INVENTION

Aunque no se ha encontrado ninguna invención idéntica a la descrita, exponemos a continuación los documentos encontrados que reflejan el estado de la técnica relacionado con la misma.Although no invention identical to that described has been found, we present below the documents found that reflect the state of the art related thereto.

Así el documento ES2327633T3 hace referencia a una instalación para la detección de ojos que comprende: una o más fuentes de luz para emitir luz en direcciones hacia la cabeza de un usuario, un detector para recibir luz desde la cabeza de un usuario y para captar repetidamente imágenes de la misma, y una unidad de evaluación conectada al detector para determinar la posición y/o dirección de mirada de un ojo, y dispuesta para determinar, en una imagen captada por el detector, un área en la que estén localizadas una imagen de un ojo o unas imágenes de ojos, la unidad de evaluación está dispuesta para, tras haber determinado el área, controlar el detector para enviar a la unidad de evaluación la información acerca de las imágenes sucesivas que sólo corresponde al área determinada de la imagen captada por el detector, y el detector está dispuesto para leer información únicamente de la porción de la superficie del detector que corresponde al área determinada, y por lo tanto los datos que luego han de ser enviados a la unidad de evaluación. La instalación a la que se refiere el citado documento se centra en la detección de ojos, mientras que la invención principal busca la orientación de la pupila para optimizar los sistemas y recursos de visualización de imágenes.Thus document ES2327633T3 refers to an installation for the detection of eyes that comprises: one or more light sources to emit light in directions towards the head of a user, a detector to receive light from the head of a user and to repeatedly capture images thereof, and an evaluation unit connected to the detector to determine the position and / or gaze direction of an eye, and arranged to determine, in an image captured by the detector, an area in which an image of an eye or images of eyes, the evaluation unit is arranged to, after having determined the area, control the detector to send to the evaluation unit the information about the successive images that only corresponds to the determined area of the image captured by the detector, and the detector is arranged to read information only from the portion of the detector surface that corresponds to the determined area, and therefore the data that it lu ego have to be sent to the evaluation unit. The facility referred to in said document focuses on eye detection, while the main invention seeks the orientation of the pupil to optimize image display systems and resources.

US6152563A1 propone un sistema para la detección de la dirección de la mirada que utiliza un diodo emisor de luz infrarroja montado coaxialmente con el eje óptico y delante de la lente de imagen de una cámara de video sensible al infrarrojo para grabar de forma remota las imágenes del ojo del operador de la computadora. La luz infrarroja entra en el ojo y es absorbida y luego reemitida por la retina, lo que provoca un "efecto de ojo brillante” que hace que la pupila sea más brillante que el resto del ojo. También da lugar a un pequeño brillo aún más brillante que se forma en la superficie de la córnea. La computadora incluye software y hardware que adquiere una imagen de video, la digitaliza en una matriz de píxeles y luego analiza la matriz para identificar la ubicación del centro del alumno en relación con el centro del destello. Con esta información, el software calibra el sistema para proporcionar un alto grado de precisión en la determinación del punto de vista del usuario. Cuando se combina con una pantalla de computadora y una interfaz gráfica de usuario, el sistema puede colocar el cursor en el punto de vista del usuario y luego realizar las diversas acciones de hacer clic con el ratón en la ubicación en la pantalla donde el usuario se fija. En este caso se trata de un sistema de interfaz y control de cursor en un medio de visualización a través de la orientación del ojo en el que se proyecta un haz de luz infrarroja que registra una cámara, sin embargo, no comprende módulo ninguno de optimización de recursos en renderizados, como ofrece la invención principal.US6152563A1 proposes a gaze direction detection system that uses an infrared light emitting diode mounted coaxially with the optical axis and in front of the image lens of an infrared sensitive video camera to remotely record images from the computer operator's eye. Infrared light enters the eye and is absorbed and then re-emitted by the retina, causing a "bright eye effect" that makes the pupil brighter than the rest of the eye. It also results in an even brighter little glow shiny that forms on the surface of the cornea.The computer includes software and hardware that acquires a video image, digitizes it into a pixel array, and then analyzes the array to identify the location of the student's center in relation to the center of the flare. With this information, the software calibrates the system to provide a high degree of precision in determining the user's point of view. When combined with a computer screen and graphical user interface, the system can place the cursor at the user's point of view and then perform the various actions of clicking the mouse at the location on the screen where the user is located. fixed. In this case, it is an interface and cursor control system in a visualization medium through the orientation of the eye in which an infrared light beam is projected that registers a camera, however, it does not include any optimization module. of resources in renderings, as offered by the main invention.

DE19731301A1 describe un método para controlar microscopios y aparatos conectados a los mismos mediante análisis de la dirección de visión. También se refiere a un aparato para medir la dirección de visión y un accesorio de ocular para llevar a cabo dicho método. El objetivo de la invención es proporcionar un método, un aparato para medir la dirección de visión y una fijación del tipo descrito anteriormente que permita controlar el microscopio y cualquier aparato que funcione en el área de trabajo de dicho microscopio exclusivamente por medio de los datos ópticos de los ojos del observador sin que se produzcan reflejos perturbadores o un manejo incorrecto del microscopio. Con este fin, se utiliza una luz altamente difusa con una longitud de onda de entre 800 y 1000 nm como luz infrarroja que se genera coaxialmente alrededor del ojo del observador a nivel del tubo del ocular. Además, en la trayectoria del haz del sistema óptico se genera al menos otra señal infrarroja que es independiente del lugar de producción de la luz difusa y se dirige al ojo del observador, cuya señal infrarroja tiene una intensidad diferente de la de la luz difusa y una longitud de onda de entre 800 y 1000 nm y se somete a la luz difusa para producir al menos un reflejo corneal adicional. Al igual que en el caso anterior, el control de la orientación del ojo se utiliza para una labor distinta a la del optimizado de renderización de imágenes, concretamente para el control de microscopios y aparatos asociados a los mismos. DE19731301A1 describes a method for controlling microscopes and apparatus connected to them by viewing direction analysis. It also refers to an apparatus for measuring the direction of vision and an eyepiece accessory for carrying out said method. The aim of the invention is to provide a method, an apparatus for measuring the direction of vision and a fixture of the type described above that allows the microscope and any apparatus operating in the working area of said microscope to be controlled exclusively by means of the optical data from the observer's eyes without disturbing reflections or improper handling of the microscope. For this purpose, highly diffuse light with a wavelength between 800 and 1000 nm is used as infrared light that is generated coaxially around the observer's eye at the level of the eyepiece tube. Furthermore, in the beam path of the optical system at least one other infrared signal is generated which is independent of the place of production of the diffuse light and is directed to the eye of the observer, whose infrared signal has an intensity different from that of diffuse light and a wavelength between 800 and 1000 nm and is subjected to stray light to produce at least one additional corneal reflex. As in the previous case, the control of the orientation of the eye is used for a different task than the optimization of image rendering, specifically for the control of microscopes and devices associated with them.

US5638176A1 se refiere a un sistema de seguimiento ocular económico que no requiere equipo de cabeza. El sistema de seguimiento ocular utiliza las franjas de interferencia entre el brillo de la córnea y la reflexión retiniana del "ojo rojo” para obtener una señal de punto de fondo inmune de fondo y resolución angular para usarla como dispositivo señalador para computadoras personales. La espectroscopia láser de diodo sintonizable (seguro para los ojos) se utiliza para medir el período y la amplitud de las franjas de Fabry-Perot causadas por la interferencia entre el brillo corneal y el reflejo "rojo" de la retina. Una vez más, el sistema asociado al análisis de la orientación del ojo se refiere a un dispositivo de control distinto al que propone la invención principal, siendo en este caso el uso como dispositivo señalador para ordenadores y computadoras.US5638176A1 refers to an inexpensive eye tracking system that does not require head gear. The eye tracking system uses the interference fringes between corneal brightness and "red eye" retinal reflection to obtain an immune background spot signal and angular resolution for use as a pointing device for personal computers. Spectroscopy Tunable diode laser (eye safe) is used to measure the period and amplitude of Fabry-Perot fringes caused by interference between corneal brightness and the "red" reflection of the retina. Again, the system associated with the analysis of the orientation of the eye refers to a control device other than the one proposed by the main invention, being in this case the use as a pointing device for computers and computers.

Conclusiones: Como se desprende de la investigación realizada, ninguno de los documentos encontrados soluciona los problemas planteados como lo hace la invención propuesta.Conclusions: As can be seen from the research carried out, none of the documents found solves the problems raised as the proposed invention does.

DESCRIPCIÓN DE LA INVENCIÓNDESCRIPTION OF THE INVENTION

El sistema de optimización del renderizado de imágenes a partir del seguimiento de las pupilas objeto de la presente invención se constituye a partir de unas gafas de realidad virtual que llevan instalado un dispositivo o medio de seguimiento de la posición de la pupila, y un procesador que analiza dicha información para, junto con el motor de renderizado, usar una cantidad adecuadamente mayor de recursos (resolución, potencia de GPU y CPU, memoria de vídeo, resolución de pantalla y/o gafas VR, etc.) en renderizar y representar la zona de la imagen que va a incidir en la fóvea de la retina, pudiendo dedicar menos potencia al resto de la imagen.The system for optimizing the rendering of images from the tracking of the pupils object of the present invention is constituted from virtual reality glasses that have a device or means for monitoring the position of the pupil installed, and a processor that analyzes this information to, together with the rendering engine, use an appropriately greater amount of resources (resolution, GPU and CPU power, video memory, screen resolution and / or VR glasses, etc.) in rendering and rendering the area of the image that will affect the fovea of the retina, being able to dedicate less power to the rest of the image.

Para realizar la síntesis de las imágenes el motor de renderizado 3D debe sintetizar dos imágenes por fotograma una que ocupe todo el campo de visión en baja calidad (detalle) y una con la mayor calidad (detalle) posible con el campo de visión reducido a la parte de la imagen que incidirá en la fóvea y que se superpondrá a la imagen de baja calidad en el área adecuada para que incida en la fóvea. De esta manera el usuario no percibirá diferencia con una imagen del campo de visión total renderizada a alta calidad (detalle).To carry out the synthesis of the images, the 3D rendering engine must synthesize two images per frame, one that occupies the entire field of view in low quality (detail) and one with the highest possible quality (detail) with the field of view reduced to part of the image that will hit the fovea and overlap the low-quality image in the appropriate area to hit the fovea. From this way the user will not perceive difference with an image of the total field of vision rendered at high quality (detail).

En una realización diferente, donde el objetivo final sea la optimización de una señal de imagen de un vídeo o juego en streaming, la información de la posición de las pupilas se envía al servidor de streaming, para que sea éste el que optimice los algoritmos de compresión de vídeo que utiliza, para que el detalle de la imagen generada se adecue a la zona de la retina que incidirá al ser observada.In a different embodiment, where the final objective is the optimization of an image signal of a streaming video or game, the information on the position of the pupils is sent to the streaming server, so that it is the one that optimizes the algorithms of video compression that it uses, so that the detail of the generated image is adapted to the area of the retina that will affect when observed.

En el caso en que el medio de reproducción de imágenes como puede ser un portátil, un smartphone u otro tipo de dispositivo que integre pantalla y cámara, puede usar dicha cámara para hacer el seguimiento de la pupila.In the case where the image reproduction medium such as a laptop, a smartphone or another type of device that integrates a screen and a camera, you can use said camera to track the pupil.

Para mejorar el resultado de la percepción del observador se puede usar un algoritmo de extrapolación de la trayectoria seguida por las pupilas para predecir la posición de la imagen de mayor detalle y extender suficientemente el área de dicha imagen hacia la posición que ocupará en el/los siguiente/s fotograma/s.To improve the result of the observer's perception, an algorithm for extrapolation of the trajectory followed by the pupils can be used to predict the position of the image of greater detail and sufficiently extend the area of said image towards the position it will occupy in the / los next frame / s.

BREVE DESCRIPCIÓN DE LOS DIBUJOSBRIEF DESCRIPTION OF THE DRAWINGS

Para una mejor comprensión de la presente descripción se acompañan unos dibujos que representan una realización preferente de la presente invención:For a better understanding of the present description, some drawings are attached that represent a preferred embodiment of the present invention:

Figura 1: Vista en perspectiva convencional de unas gafas VR con cámara para la captación de los movimientos, la posición y orientación de la pupila.Figure 1: Conventional perspective view of a VR glasses with a camera for capturing the movements, position and orientation of the pupil.

Figura 2: Vista esquemática de una imagen renderizada compuesta por dos imágenes superpuestas a partir del sistema de optimización objeto de la presente invención.Figure 2: Schematic view of a rendered image composed of two superimposed images from the optimization system object of the present invention.

Las referencias numéricas que aparecen en dichas figuras corresponden a los siguientes elementos constitutivos de la invención:The numerical references that appear in said figures correspond to the following constitutive elements of the invention:

1. Gafas VR1. VR glasses

2. Cámara2. Camera

3. Procesador3. Processor

4. Imagen final 4. Final image

5. Imagen a baja calidad que ocupa todo el campo de visión5. Low-quality image that occupies the entire field of view

6. Imagen en alta calidad con el campo de visión reducido a la parte de la imagen que incidirá en la fóvea.6. High quality image with the field of vision reduced to the part of the image that will affect the fovea.

DESCRIPCIÓN DE UNA REALIZACIÓN PREFERENTEDESCRIPTION OF A PREFERRED EMBODIMENT

Una realización preferente del sistema y procedimiento de optimización del renderizado de imágenes a partir del seguimiento de las pupilas objeto de la presente invención, implantado en gafas VR a modo de ejemplo, con alusión a las referencias numéricas, puede basarse en el desarrollo de las siguientes etapas técnicas:A preferred embodiment of the system and procedure for optimizing the rendering of images from the tracking of the pupils object of the present invention, implanted in VR glasses by way of example, with reference to the numerical references, can be based on the development of the following technical stages:

i. - Captación de la orientación de la mirada.i. - Gaze orientation capture.

Una cámara (2) instalada en las gafas de realidad virtual (1) captan la imagen de los ojos del usuario, y un software asociado a dicha cámara (2) calcula a través de un procesador (3) los movimientos, la posición y orientación de la pupila, y envía dicha información al motor de síntesis de imagen.A camera (2) installed in the virtual reality glasses (1) captures the image of the user's eyes, and a software associated with said camera (2) calculates through a processor (3) the movements, position and orientation of the pupil, and sends this information to the image synthesis engine.

ii. - Optimización de recursos de renderizado.ii. - Optimization of rendering resources.

El motor de síntesis de imagen toma la información de la etapa anterior y la implementa en el renderizado a proyectar como imagen final (4), dedicando mayor cantidad de recursos (resolución, potencia de GPU y CPU, memoria de vídeo, resolución de pantalla, etc.) en representar la zona de la imagen que va a incidir en la fóvea de la retina, de forma que realiza la síntesis de dos imágenes (5, 6) por fotograma, una (5) que ocupe todo el campo de visión en baja calidad y una (6) con la mayor calidad posible con el campo de visión reducido a la parte de la imagen que incidirá en la fóvea y que se superpondrá a la imagen de baja calidad en el área adecuada para que incida en la fóvea.The image synthesis engine takes the information from the previous stage and implements it in the rendering to be projected as a final image (4), dedicating more resources (resolution, GPU and CPU power, video memory, screen resolution, etc.) in representing the area of the image that will affect the fovea of the retina, in such a way that it performs the synthesis of two images (5, 6) per frame, one (5) that occupies the entire field of view in low quality and one (6) with the highest possible quality with the field of view reduced to the part of the image that will hit the fovea and overlap the low quality image in the appropriate area to hit the fovea.

La imagen representada por el número (5) de la figura 2 puede renderizarse obviando el área que ocupará en la imagen representada por el número 4 la imagen representada por el número 6 si el obviar dicha área supone un uso más eficiente de los recursos disponibles para el renderizado. The image represented by the number (5) of figure 2 can be rendered ignoring the area that will occupy in the image represented by the number 4 the image represented by the number 6 if ignoring said area implies a more efficient use of the resources available for rendering.

En los casos de pantallas, será necesario usar un sistema que capture la distancia al observador. In the case of screens, it will be necessary to use a system that captures the distance to the observer.

Claims (3)

REIVINDICACIONES 1.
Figure imgf000009_0001
- Procedimiento de optimización del renderizado de imágenes a partir del seguimiento de las pupilas, caracterizado por desarrollarse en las siguientes etapas técnicas:
1.
Figure imgf000009_0001
- Procedure for optimizing the rendering of images from the tracking of the pupils, characterized by being developed in the following technical stages:
i.- Captación de la orientación de la mirada.i.- Gaze orientation capture. Una cámara (2) u otro medio similar de seguimiento de la posición de la pupila instalada en las gafas de realidad virtual (1) capta la imagen de los ojos del usuario, y un software asociado a dicha cámara (2) calcula a través de un procesador (3) los movimientos, la posición y orientación de la pupila, y envía dicha información al motor de síntesis de imagen.A camera (2) or other similar means of monitoring the position of the pupil installed in the virtual reality glasses (1) captures the image of the user's eyes, and a software associated with said camera (2) calculates through a processor (3) the movements, position and orientation of the pupil, and sends said information to the image synthesis engine. ii.- Optimización de recursos de renderizado.ii.- Optimization of rendering resources. El motor de síntesis de imagen toma la información de la etapa anterior y la implementa en el renderizado a proyectar como imagen final (4), dedicando mayor cantidad de recursos (resolución, potencia de GPU y CPU, memoria de vídeo, resolución de pantalla, etc.) en representar la zona de la imagen que va a incidir en la fóvea de la retina, de forma que realiza la síntesis de dos imágenes (5, 6) por fotograma, una (5) que ocupe todo el campo de visión en baja calidad y una (6) con la mayor calidad posible con el campo de visión reducido a la parte de la imagen que incidirá en la fóvea y que se superpondrá a la imagen de baja calidad en el área adecuada para que incida en la fóvea.The image synthesis engine takes the information from the previous stage and implements it in the rendering to be projected as a final image (4), dedicating more resources (resolution, GPU and CPU power, video memory, screen resolution, etc.) in representing the area of the image that will affect the fovea of the retina, in such a way that it performs the synthesis of two images (5, 6) per frame, one (5) that occupies the entire field of view in low quality and one (6) with the highest possible quality with the field of view reduced to the part of the image that will hit the fovea and overlap the low quality image in the appropriate area to hit the fovea.
2.
Figure imgf000009_0002
- Procedimiento de optimización del renderizado de imágenes a partir del seguimiento de las pupilas, según reivindicación 1, donde en la primera etapa un algoritmo de extrapolación de la trayectoria seguida por las pupilas predice la posición de la imagen de mayor detalle y extiende suficientemente el área de dicha imagen hacia la posición que ocupará en el/los siguiente/s fotograma/s.
two.
Figure imgf000009_0002
- Procedure for optimizing the rendering of images from the tracking of the pupils, according to claim 1, where in the first stage an algorithm for extrapolation of the trajectory followed by the pupils predicts the position of the image with greater detail and sufficiently extends the area from said image to the position it will occupy in the next frame (s).
3.
Figure imgf000009_0003
- Procedimiento de optimización del renderizado de imágenes a partir del seguimiento de las pupilas, según reivindicación 1, donde, cuando el objetivo final sea la optimización de una señal de imagen de un vídeo o juego en streaming, la información de la posición de las pupilas se envía al servidor de streaming, para que sea éste el que optimice los algoritmos de compresión de vídeo que utiliza, para que el detalle de la imagen generada se adecue a la zona de la retina que incidirá al ser observada.
3.
Figure imgf000009_0003
- Procedure for optimizing the rendering of images from the tracking of the pupils, according to claim 1, where, when the final objective is the optimization of an image signal of a video or streaming game, the information of the position of the pupils is sent to the streaming server, so that be it the one that optimizes the video compression algorithms that it uses, so that the detail of the generated image is adapted to the area of the retina that will affect when observed.
ES201930771A 2019-09-04 2019-09-04 SYSTEM AND PROCEDURE FOR OPTIMIZING IMAGE RENDERING BASED ON PUPIL MONITORING (Machine-translation by Google Translate, not legally binding) Withdrawn ES2809648A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
ES201930771A ES2809648A1 (en) 2019-09-04 2019-09-04 SYSTEM AND PROCEDURE FOR OPTIMIZING IMAGE RENDERING BASED ON PUPIL MONITORING (Machine-translation by Google Translate, not legally binding)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES201930771A ES2809648A1 (en) 2019-09-04 2019-09-04 SYSTEM AND PROCEDURE FOR OPTIMIZING IMAGE RENDERING BASED ON PUPIL MONITORING (Machine-translation by Google Translate, not legally binding)

Publications (1)

Publication Number Publication Date
ES2809648A1 true ES2809648A1 (en) 2021-03-04

Family

ID=74851507

Family Applications (1)

Application Number Title Priority Date Filing Date
ES201930771A Withdrawn ES2809648A1 (en) 2019-09-04 2019-09-04 SYSTEM AND PROCEDURE FOR OPTIMIZING IMAGE RENDERING BASED ON PUPIL MONITORING (Machine-translation by Google Translate, not legally binding)

Country Status (1)

Country Link
ES (1) ES2809648A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180033405A1 (en) * 2016-08-01 2018-02-01 Facebook, Inc. Adaptive parameters in image regions based on eye tracking information
WO2018140287A1 (en) * 2017-01-25 2018-08-02 Apple Inc. Electronic device with foveated display system
WO2018220608A1 (en) * 2017-05-29 2018-12-06 Eyeway Vision Ltd Image projection system
US20190094981A1 (en) * 2014-06-14 2019-03-28 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190094981A1 (en) * 2014-06-14 2019-03-28 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US20180033405A1 (en) * 2016-08-01 2018-02-01 Facebook, Inc. Adaptive parameters in image regions based on eye tracking information
WO2018140287A1 (en) * 2017-01-25 2018-08-02 Apple Inc. Electronic device with foveated display system
WO2018220608A1 (en) * 2017-05-29 2018-12-06 Eyeway Vision Ltd Image projection system

Similar Documents

Publication Publication Date Title
US10257507B1 (en) Time-of-flight depth sensing for eye tracking
US9959678B2 (en) Face and eye tracking using facial sensors within a head-mounted display
US11016301B1 (en) Accommodation based optical correction
KR102062658B1 (en) Sphere tracking of the cornea to create an ocular model
US10115205B2 (en) Eye tracking system with single point calibration
CN104094197B (en) Watch tracking attentively using projecting apparatus
US10802583B2 (en) Methods and apparatus for retinal retroreflection imaging
EP3905943B1 (en) System and method for eye tracking
KR102366110B1 (en) Mapping glints to light sources
EP3252566B1 (en) Face and eye tracking and facial animation using facial sensors within a head-mounted display
US10420464B2 (en) Gaze tracking system
CN109643152B (en) Face and eye tracking and face animation using face sensors within a head-mounted display
JP6631951B2 (en) Eye gaze detection device and eye gaze detection method
US10430988B2 (en) Facial animation using facial sensors within a head-mounted display
US10599215B2 (en) Off-axis eye tracker
US10984236B2 (en) System and apparatus for gaze tracking
CN107991775B (en) Head-mounted visual equipment capable of tracking human eyes and human eye tracking method
US10109067B2 (en) Corneal sphere tracking for generating an eye model
CN109964230B (en) Method and apparatus for eye metric acquisition
JP2018099174A (en) Pupil detector and pupil detection method
ES2809648A1 (en) SYSTEM AND PROCEDURE FOR OPTIMIZING IMAGE RENDERING BASED ON PUPIL MONITORING (Machine-translation by Google Translate, not legally binding)
JP6430813B2 (en) Position detection apparatus, position detection method, gazing point detection apparatus, and image generation apparatus
US20240315563A1 (en) System and method for eye tracking

Legal Events

Date Code Title Description
BA2A Patent application published

Ref document number: 2809648

Country of ref document: ES

Kind code of ref document: A1

Effective date: 20210304

FA2A Application withdrawn

Effective date: 20210621