ES2793226T3 - Renderización foveada - Google Patents

Renderización foveada Download PDF

Info

Publication number
ES2793226T3
ES2793226T3 ES17751508T ES17751508T ES2793226T3 ES 2793226 T3 ES2793226 T3 ES 2793226T3 ES 17751508 T ES17751508 T ES 17751508T ES 17751508 T ES17751508 T ES 17751508T ES 2793226 T3 ES2793226 T3 ES 2793226T3
Authority
ES
Spain
Prior art keywords
way
display
resolution
zone
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17751508T
Other languages
English (en)
Inventor
Andreas Klingström
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tobii AB
Original Assignee
Tobii AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tobii AB filed Critical Tobii AB
Application granted granted Critical
Publication of ES2793226T3 publication Critical patent/ES2793226T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0147Head-up displays characterised by optical features comprising a device modifying the resolution of the displayed image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Un método para cambiar contenido en un visualizador (110) en función de un punto (160) de mirada de un usuario en el visualizador (110), en donde el método comprende: determinar un punto (160) de mirada de un usuario en un visualizador (110); hacer que una primera zona (163) del visualizador se visualice de una primera manera, incluyendo la primera zona (163) el punto (160) de mirada y una zona circundante; y hacer que una segunda zona (170) del visualizador (110) se visualice de una segunda manera, siendo la segunda zona diferente de la primera zona (163), y siendo la segunda manera diferente de la primera manera, en donde la segunda manera comprende una resolución que tiene una pluralidad de píxeles virtuales, y en donde la segunda zona (170) comprende: al menos una parte de un eje horizontal (210) que se extiende a una izquierda o una derecha del punto de mirada, en donde cada píxel virtual tiene una mayor anchura que altura; o al menos una parte de un eje vertical (220) que se extiende por encima o por debajo del punto (160) de mirada, en donde cada píxel virtual tiene una mayor altura que anchura.

Description

DESCRIPCIÓN
Renderización foveada
Antecedentes de la invención
En un visualizador se pueden utilizar elementos gráficos para mostrar datos e información a un observador. Estos elementos gráficos pueden incluir texto, imágenes y vídeo. Los elementos gráficos son bien conocidos en el campo de la computación y llevan usándose desde hace muchos años. En tiempos recientes, mostrar elementos gráficos tridimensionales (3D) en un visualizador ha cobrado cada vez más importancia en campos tales como los de los videojuegos, la modelización y las películas.
A la hora de visualizar elementos gráficos, un sistema, tal como un ordenador, utiliza un procesador en combinación con una memoria para visualizar los elementos en una pantalla u otro dispositivo de visualización. Los métodos para visualizar elementos gráficos varían, pero normalmente dependen de que un ordenador interprete comandos para controlar un dispositivo de procesamiento gráfico que proporciona elementos gráficos para su visualización. Normalmente, el dispositivo de procesamiento gráfico contiene hardware hecho a medida con este fin, que incluye un procesador y una memoria. En algunos sistemas informáticos, el dispositivo de procesamiento gráfico está totalmente integrado y, en otros, se proporciona como un componente separado conocido como tarjeta gráfica. La capacidad de procesamiento de los dispositivos de procesamiento gráfico tiene límites, y se suele cuantificar en términos de la cantidad de elementos gráficos que se pueden visualizar en una pantalla en un momento dado. Normalmente, esta capacidad está limitada por la capacidad del hardware que incorpora el dispositivo de procesamiento gráfico, incluidos los procesadores, la memoria y los canales de comunicación. Además, la cantidad de elementos gráficos que puede visualizarse en una pantalla en un momento determinado puede estar limitada por los límites de comunicación entre el dispositivo de procesamiento gráfico y el ordenador.
En muchos escenarios que requieren que los elementos gráficos se visualicen en una pantalla, un usuario se concentra solo en una parte de la pantalla y, por tanto, solo en una parte de los elementos gráficos en un momento dado. Mientras tanto, en las partes restantes de la pantalla en las que no se está fijando el usuario se siguen mostrando otros elementos gráficos. Esto desperdicia valiosos recursos del dispositivo de procesamiento gráfico para producir elementos gráficos que no pueden ser plenamente apreciados por el usuario porque la agudeza visual de un ser humano decae radicalmente fuera de aquellas imágenes en las que se esté concentrando de manera inmediata.
En el documento US-2010/0056274 se describen métodos, un aparato y productos de programas informáticos que reducen los requisitos de ancho de banda en aplicaciones móviles de vídeo y de juegos mediante el seguimiento de un punto de fijación de mirada de un usuario en una imagen de vídeo en una ubicación remota; la generación de información que identifica el punto de fijación de mirada en la ubicación remota; la transmisión de la información del punto de fijación de mirada a una fuente de información de vídeo por una red; la determinación de una parte de una imagen de vídeo que ha de transmitirse a una alta resolución y de una parte restante que ha de transmitirse a una baja resolución usando la información del punto de fijación de mirada transmitida; y la transmisión de la parte de la imagen de vídeo seleccionada para transmitirse a una alta resolución a la alta resolución y de la parte de la imagen de vídeo seleccionada para transmitirse a una baja resolución a la baja resolución. Otros métodos, otro aparato y otro producto de programa informático también reducen los requisitos de ancho de banda al recibir información del punto de fijación de mirada de una ubicación remota, en donde la información del punto de fijación de mirada indica a qué parte de una imagen de vídeo está mirando actualmente un usuario; seleccionar una parte de imágenes de vídeo que han de transmitirse a alta resolución y una parte de imágenes de vídeo que han de transmitirse a una baja resolución usando la información del punto de fijación de mirada transmitida; y transmitir las partes de las imágenes de vídeo a las resoluciones determinadas.
En el documento US-2014/0092006 se divulgan dispositivos y métodos para modificar contenido renderizado en el visualizador de un dispositivo de computación como una función de una zona de enfoque ocular, que incluyen la recepción de datos de sensor de uno o más sensores de seguimiento ocular, la determinación de una zona de enfoque ocular en la pantalla de visualización como una función de los datos de sensor, y el ajuste de una o más características visuales del contenido renderizado como una función de la zona de enfoque ocular. La calidad percibida del contenido renderizado puede mejorarse mejorando las características visuales del contenido visualizado dentro de la zona de enfoque ocular. El rendimiento de renderización puede mejorarse degradando las características visuales del contenido visualizado fuera de la zona de enfoque ocular. Las características visuales ajustables incluyen el nivel de detalle utilizado para renderizar el contenido, la saturación de color o el brillo del contenido, y efectos de renderización tales como el suavizado de bordes, el sombreado, el filtrado anisotrópico, el enfoque, el desenfoque, la iluminación y/o la generación de sombras.
En el documento US-2004/0227703 se muestra una solución en donde se dota a una visualización continua de una densidad de píxeles no uniforme, lo cual da lugar a una visualización foveada. Una única visualización continua tiene una mayor densidad de píxeles en el centro de la visualización que en la periferia de la visualización. Cuando se utilizan dos visualizaciones continuas, la mirada central hacia adelante de la imagen del observador se visualizará a alta resolución, mientras que la parte más a la izquierda de la visualización del ojo izquierdo estará a baja resolución y la parte más a la derecha de la visualización del ojo derecho estará a baja resolución. La resolución en píxeles de la representación visual puede corresponder con la agudeza visual del ojo humano. Un sistema de visualización foveada de imágenes que utiliza una visualización continua con una densidad de píxeles no uniforme aumenta el campo de visión al tiempo que reduce el ancho de banda de imagen. Un sistema de visualización foveada de imágenes puede estar basado en hardware mediante el uso de lentes o sensores anamórficos en lugar de depender de una interpolación de imágenes para modificar la resolución de los datos de imagen resultantes que se comunican a la visualización continua con una densidad de píxeles no uniforme.
En el documento US-2015/0241707 se divulgan configuraciones para presentar a usuarios experiencias de realidad virtual y de realidad aumentada. El sistema puede comprender una fuente generadora de imágenes para proporcionar una o más tramas de datos de imagen de manera secuencial en el tiempo, un modulador de luz configurado para transmitir luz asociada a las una o más tramas de datos de imagen, un sustrato para dirigir información de imagen hacia el ojo de un usuario, en donde el sustrato aloja una pluralidad de reflectores, un primer reflector de la pluralidad de reflectores para reflejar luz transmitida asociada a una primera trama de datos de imagen en un primer ángulo hacia el ojo del usuario, y un segundo reflector para reflejar luz transmitida asociada a una segunda trama de datos de imagen en un segundo ángulo hacia el ojo del usuario.
En el documento US-6.115.007 se revela un visualizador en forma de visor, donde una diferencia en una zona efectiva de píxeles se corrige en función de un ángulo de visión horizontal. En una región 106 de matriz activa, un ancho horizontal e de un electrodo de píxeles en una región en la que el ángulo de visión horizontal se vuelve grande se configura para que sea mayor que un ancho horizontal d de píxeles en una región en la que el ángulo de visión horizontal se vuelve pequeño. Con esta disposición se puede corregir una diferencia en una zona visual del electrodo de píxeles provocada por el ángulo de visión horizontal.
Breve descripción de la invención
En una realización se proporciona un método para cambiar un visualizador en función de un punto de mirada de un usuario en el visualizador. El método puede incluir determinar un punto de mirada de un usuario en un visualizador. El método también puede incluir hacer que una primera zona del visualizador se visualice de una primera manera, incluyendo la primera zona el punto de mirada y una zona circundante. El método puede incluir además hacer que una segunda zona del visualizador se visualice de una segunda manera, siendo la segunda zona diferente de la primera zona, y siendo la segunda manera diferente de la primera manera.
En otra realización se proporciona un sistema para cambiar contenido en un visualizador en función de un punto de mirada de un usuario en el visualizador. El sistema puede incluir un dispositivo de seguimiento ocular para determinar un punto de mirada de un usuario en un visualizador y un procesador. El procesador puede servir para al menos hacer que una primera zona del visualizador se visualice de una primera manera, incluyendo la primera zona el punto de mirada y una zona circundante. El procesador también puede servir para al menos hacer que una segunda zona del visualizador se visualice de una segunda manera, siendo la segunda zona diferente de la primera zona, y siendo la segunda manera diferente de la primera manera.
En otra realización se proporciona un soporte legible por máquina no transitorio que tiene instrucciones almacenadas en el mismo para cambiar contenido en un visualizador en función de un punto de mirada de un usuario en el visualizador. Las instrucciones pueden ser ejecutables por uno o más procesadores para al menos determinar un punto de mirada de un usuario en un visualizador y hacer que una primera zona del visualizador se visualice de una primera manera, incluyendo la primera zona el punto de mirada y una zona circundante. Las instrucciones también pueden ser ejecutables para al menos hacer que una segunda zona del visualizador se visualice de una segunda manera, siendo la segunda zona diferente de la primera zona, y siendo la segunda manera diferente de la primera manera.
Breve descripción de los dibujos
La presente invención se describe en conjunción con las figuras adjuntas:
La Fig. 1 es una vista esquemática de una realización de la invención para ajustar un dispositivo de visualización en función de un seguimiento ocular;
la Fig. 2 es una vista esquemática de un dispositivo de visualización que demuestra varios aspectos de algunas realizaciones de la invención;
la Fig. 3 es otra vista esquemática de un dispositivo de visualización que demuestra varios aspectos de algunas realizaciones de la invención;
la Fig. 4 es otra vista esquemática de un dispositivo de visualización que demuestra varios aspectos de algunas realizaciones de la invención;
la Fig. 5 es una vista esquemática de píxeles reales frente a píxeles virtuales que es pertinente a algunas realizaciones de la invención;
la Fig. 6 es un diagrama de flujo de un método de la invención para modificar un dispositivo de visualización en función de un seguimiento ocular;
la Fig. 7 es un diagrama de flujo de otro método de la invención para modificar un dispositivo de visualización en función de un seguimiento ocular;
la Fig. 8 es un diagrama de flujo de otro método de la invención para modificar un dispositivo de visualización en función de un seguimiento ocular;
la Fig. 9 es un diagrama de flujo de otro método de la invención para modificar un dispositivo de visualización en función de un seguimiento ocular;
la Fig. 10 es un diagrama de bloques de un sistema informático ilustrativo que puede utilizarse en al menos alguna parte de los aparatos o sistemas de la presente invención o de implementar al menos alguna parte de los métodos de la presente invención.
En las figuras adjuntas, componentes y/o características similares pueden llevar la misma etiqueta de referencia numérica. Además, se puede distinguir entre varios componentes del mismo tipo poniendo a continuación de la etiqueta de referencia una letra que diferencie los componentes y/o las características similares. Si en la memoria descriptiva solo se utiliza la primera etiqueta de referencia numérica, la descripción es aplicable a cualquiera de los componentes y/o las características similares que lleven la misma primera etiqueta de referencia numérica, independientemente del sufijo de la letra.
Descripción detallada de la invención
La descripción que sigue solo proporciona realizaciones ilustrativas y no tiene por objeto limitar el alcance, la aplicabilidad o la configuración de la descripción. Es decir, la descripción que sigue de las realizaciones ilustrativas proporcionará a los expertos en la técnica una descripción favorable para implementar una o más realizaciones ilustrativas.
Por ejemplo, cualquier detalle analizado con respecto a una realización puede o puede no estar presente en todas las versiones contempladas de esa realización. Asimismo, cualquier detalle analizado con respecto a una realización puede o puede no estar presente en todas las versiones contempladas de otras realizaciones analizadas en la presente memoria. Por último, la falta de análisis de algún detalle con respecto a una realización de la presente memoria será un reconocimiento implícito de que dicho detalle puede o puede no estar presente en alguna versión de alguna realización analizada en la presente memoria.
En la siguiente descripción se dan detalles específicos para facilitar una comprensión profunda de las realizaciones. No obstante, el experto en la técnica entenderá que las realizaciones pueden ponerse en práctica sin estos detalles específicos. Por ejemplo, los circuitos, sistemas, redes, procesos y demás elementos de la invención pueden mostrarse como componentes en forma de diagrama de bloques para no complicar las realizaciones con detalles innecesarios. Otras veces, aquellos circuitos, procesos, algoritmos, estructuras y técnicas que sean bien conocidos pueden mostrarse sin detalles innecesarios para evitar complicar las realizaciones.
Además, cabe señalar que hay realizaciones individuales que pueden describirse como un proceso que se representa como un flujograma, un diagrama de flujo, un diagrama de flujo de datos, un diagrama de estructura o un diagrama de bloques. Aunque un flujograma puede describir las operaciones como un proceso secuencial, muchas de las operaciones pueden realizarse en paralelo o simultáneamente. Además, es posible reorganizar el orden de las operaciones. Un proceso puede llegar a su fin cuando se realicen todas sus operaciones, pero podría tener pasos adicionales no analizados o incluidos en una figura. Por otra parte, no todas las operaciones de cualquier proceso que se haya descrito de manera particular pueden aparecer en todas las realizaciones. Un proceso puede corresponder a un método, una función, un procedimiento, una subrutina, un subprograma, etc. Cuando un proceso corresponda a una función, su finalización corresponderá a un retorno de la función a la función de llamada o a la función principal.
La expresión “soporte legible por máquina” incluye, sin limitación, dispositivos de almacenamiento portátiles o fijos, transitorios y no transitorios, dispositivos de almacenamiento óptico, canales inalámbricos y varios otros soportes capaces de almacenar, contener o llevar instrucciones y/o datos. Un segmento de código o instrucciones ejecutables por máquina pueden representar un procedimiento, una función, un subprograma, un programa, una rutina, una subrutina, un módulo, un paquete de software, una clase o cualquier combinación de instrucciones, estructuras de datos o sentencias de programa. Un segmento de código puede acoplarse a otro segmento de código o a un circuito de hardware mediante el paso y/o la recepción de información, datos, argumentos, parámetros o contenido de memoria. Es posible pasar, reenviar o transmitir información, argumentos, parámetros, datos, etc. a través de cualquier medio adecuado, incluidos una compartición de memoria, un intercambio de mensajes, un paso de testigo, una transmisión por red, etc.
Es más, hay realizaciones de la invención que pueden implementarse, al menos en parte, o bien manualmente, o bien automáticamente. Las implementaciones manuales o automáticas pueden ejecutarse, o al menos verse asistidas, mediante el uso de máquinas, hardware, software, firmware, middleware, microcódigo, lenguajes de descripción de hardware o cualquier combinación de los mismos. Cuando el código de programa o los segmentos de código para realizar las tareas necesarias se implementen en software, firmware, middleware o microcódigo, podrán almacenarse en un soporte legible por máquina. Uno o varios procesadores pueden realizar las tareas necesarias.
Pasando ahora a la Fig. 1, en ella se muestra un sistema 100 que cuenta con un visualizador 110 y un dispositivo 120 de seguimiento ocular. Un ordenador 130 está en comunicación con el visualizador 110, e incluye una central processing unit (unidad central de procesamiento - CPU) 140 y una graphics processing unit (unidad de procesamiento gráfico - GPU) 150. Una placa madre 160 permite la comunicación entre la CPU 140, la GPU 150 y el dispositivo 120 de seguimiento ocular. El visualizador 110, el dispositivo 120 de seguimiento ocular y el ordenador 130 tienen carácter meramente ilustrativo a los efectos de la presente descripción, puesto que otros dispositivos de computación, visualizadores y dispositivos de seguimiento ocular, incluidos diversos ordenadores de sobremesa, ordenadores portátiles, notebooks, tabletas, dispositivos móviles y celulares, dispositivos usables, tales como cascos de realidad virtual y relojes de pulsera/ordenadores, etc. también podrían incorporar algunos o todos los componentes de la Fig. 1. Además, en la Fig. 5, analizada más adelante, se ilustran otros posibles componentes presentes en diversas realizaciones del ordenador 130.
Se ha establecido que, cuando un usuario humano se está concentrando en el visualizador 110 en un punto 160 de mirada, el usuario solo es capaz de fijarse a una alta resolución de detalle en una primera zona 163 que rodea al punto 160 de mirada. La resolución a la que el ojo humano puede distinguir detalles disminuye en la zona circundante 166. Por consiguiente, se puede dedicar una menor cantidad de recursos de computación, tales como las capacidades de procesamiento de la CPU 140 y de la GPU 150, a la renderización en esa parte del visualizador. Por lo tanto, gracias al uso del dispositivo 120 de seguimiento ocular, la posición de la mirada de un usuario en el visualizador 110 se puede determinar y utilizar para decirles a la CPU 140 y a la GPU 150 cómo renderizar de la manera más eficiente las diferentes zonas del visualizador 110 con un nivel de detalle que no exceda de lo que un usuario medio puede distinguir realmente, conservándose así recursos de computación. La primera zona 163 que rodea al punto 160 de mirada puede ser dinámica, moverse a medida que se mueve el punto de mirada, lo que significa que diferentes partes del visualizador 110
Pasando a la Fig. 2, también se ha establecido que la percepción de la resolución es mayor en el eje horizontal 210 de un punto 160 de mirada que en el eje vertical 220. Por lo tanto, tal y como se muestra en la Fig. 2, la percepción de la resolución es máxima dentro de la primera zona 163, que rodea inmediatamente al punto 160 de mirada, y menor en una segunda zona 170, e incluso menor en una tercera zona 173.
Finalmente, también se ha establecido que la percepción de la resolución no es coherente respecto a la dirección en la periferia desde el punto de mirada. Pasando ahora a la Fig. 3, se mostrará cómo los seres humanos tienen mayor resolución vertical que resolución horizontal a lo largo del eje horizontal 210 de su periferia, y mayor resolución horizontal que resolución vertical a lo largo del eje vertical 220 de su periferia. Los seres humanos pueden ver mejor un enrejado paralelo 310 que un enrejado perpendicular 320 tanto en el eje horizontal 210 como en el eje vertical 220. Esto quiere decir que la percepción de la resolución vertical es mayor a lo largo del eje horizontal 210, y que la percepción de la resolución horizontal es mayor a lo largo del eje vertical, a una cierta distancia angular del punto 163 de mirada. El mismo efecto tiene lugar en otros ejes 230 intermedios/no cardinales entre el eje horizontal 210 y el eje vertical 220.
Por lo tanto, tal y como se muestra en la Fig. 4, la forma más eficaz de usar los recursos de computación para renderizar el visualizador 110 sería (1) renderizar la primera zona 163 a una alta resolución 410; (2) renderizar la zona restante 166 a una resolución cada vez menor a medida que se aleja uno de la primera zona 163; (3) renderizar zonas en torno al eje horizontal 210 a una resolución 420 rectangular menor y orientada horizontalmente; (4) renderizar zonas en torno a los ejes intermedios 230 a una resolución 430 rectangular aún menor y sustancialmente paralela; y (5) renderizar zonas en torno al eje vertical 220 a una resolución 440 rectangular aún menor y orientada verticalmente. Obsérvese que, en lo que respecta a los ejes intermedios, la expresión “sustancialmente paralela” significa que, para un eje determinado, la resolución circundante será paralela a resoluciones que pueden ser casi o exactamente paralelas a resoluciones que se encuentren cerca de o exactamente en el eje.
Para renderizar píxeles de tamaños diferentes se puede emplear un esquema de pixelación virtual en cada ubicación donde se requieran píxeles de tamaño y/o forma diferente(s). En la Fig. 5 se muestra cómo un píxel virtual podría estar formado por un número de píxeles reales más pequeños. Por lo tanto, en una zona de alta resolución se pueden emplear píxeles reales, estando cada píxel real renderizado a un nivel potencialmente independiente para obtener la mayor calidad de imagen posible. En cambio, en una zona de baja resolución se pueden emplear píxeles virtuales, estando cada píxel virtual renderizado a un nivel potencialmente independiente para obtener la calidad de imagen mínima necesaria para esa zona (i.e., cuando un usuario no sea capaz de percibir una mayor calidad de imagen en la periferia de su visión). Aunque cada píxel virtual pueda comprender múltiples píxeles reales, todos los píxeles reales dentro de un píxel virtual determinado se renderizarían de la misma manera para conseguir que todo el píxel virtual determinado se renderice como si fuera un solo píxel.
Si bien el análisis anterior se ha centrado en la modificación de la resolución de distintas zonas del visualizador (i.e., una primera zona que incluye el punto de mirada, un resto del visualizador más allá de la primera zona, una segunda zona que incluye una parte de un eje horizontal del punto de mirada, una tercera zona que incluye una parte de un eje vertical del punto de mirada, y una cuarta zona que incluye una parte de un eje intermedio del punto de mirada), también se pueden renderizar otras cualidades visuales a niveles de calidad más bajos con el fin de alcanzar el propósito de ahorrar recursos de computación. Podría mostrarse, meramente a modo de ejemplo, una zona de calidad reducida del visualizador (en comparación con la calidad de una primera manera de visualización en una zona de mayor calidad) a: una menor resolución con respecto a la de la primera manera, una menor calidad de sombreado con respecto a la de la primera manera, una menor calidad de generación de sombras con respecto a la de la primera manera, una menor calidad de renderización de reflejos con respecto a la de la primera manera, una menor calidad de generación de texturas con respecto a la de la primera manera, una menor frecuencia de trama con respecto a la de la primera manera, una menor calidad de velado/particulación con respecto a la de la primera manera, una menor calidad de renderización de traslucidez con respecto a la de la primera manera, una menor calidad de suavizado de bordes con respecto a la de la primera manera, una menor frecuencia de trama con respecto a la de la primera manera y una menor calidad de renderización tridimensional con respecto a la de la primera manera. Como es conocido en la técnica, la calidad de renderización también se puede reducir de otras maneras.
La Fig. 6 es un diagrama de bloques de un método 600 de la invención para cambiar contenido en un visualizador en función de un punto de mirada de un usuario. En el bloque 610 se determina el punto de mirada del usuario en el visualizador. En el bloque 620 se visualiza una primera zona del visualizador de una primera manera. La primera zona del visualizador incluye el punto de mirada y una zona circundante. El tamaño de la zona circundante puede ajustarse en función de una distancia desde el visualizador hasta los ojos del usuario, según sea determinada por el dispositivo de seguimiento ocular y/o el procesador.
En el bloque 630 se visualiza una segunda zona del visualizador (que es diferente de la primera zona del visualizador) de una segunda manera, diferente de la primera manera. La segunda manera es una manera en la que la calidad de renderización se reduce con respecto a la de la primera manera. Como se ha visto anteriormente, esto podría consistir en una resolución y/u otra cualidad menor(es). En algunas realizaciones, la segunda zona podría ser un resto del visualizador aparte de la primera zona, mientras que, en otras realizaciones, la segunda zona podría incluir una parte de un eje horizontal que se extiende a una izquierda o una derecha del punto de mirada, o una parte de un eje vertical que se extiende por encima o por debajo del punto de mirada. La segunda zona podría incluir también o alternativamente una parte de un eje intermedio situado angularmente entre el eje horizontal y el eje vertical.
La Fig. 7 es un diagrama de bloques de otro método 700 de la invención para cambiar contenido en un visualizador en función de un punto de mirada de un usuario. En el bloque 710 se determina el punto de mirada del usuario en el visualizador. En el bloque 720 se visualiza una primera zona del visualizador de una primera manera. La primera zona del visualizador incluye el punto de mirada y una zona circundante. El tamaño de la zona circundante puede ajustarse en función de una distancia desde el visualizador hasta los ojos del usuario, según sea determinada por el dispositivo de seguimiento ocular y/o el procesador.
En el bloque 730 se muestra una segunda zona del visualizador (que es diferente de la primera zona del visualizador) de una segunda manera, diferente de la primera. La segunda manera es una manera en la que la calidad de renderización se reduce con respecto a la de la primera manera. Como se ha visto anteriormente, esto podría consistir en una resolución y/u otra cualidad menor(es). En algunas realizaciones, la segunda zona podría ser un resto del visualizador aparte de la primera zona, mientras que, en otras realizaciones, la segunda zona podría incluir una parte de un eje horizontal que se extiende a una izquierda o una derecha del punto de mirada, o una parte de un eje vertical que se extiende por encima o por debajo del punto de mirada. La segunda zona podría incluir también o alternativamente una parte de un eje intermedio situado angularmente entre el eje horizontal y el eje vertical.
En el bloque 740 se visualiza una tercera zona del visualizador (que es diferente de la primera zona o de la segunda zona del visualizador) de una tercera manera, diferente de la primera y segunda maneras. La tercera manera es una manera en la que la calidad de renderización se reduce con respecto a la de la primera manera y a la de la segunda manera. Como se ha visto anteriormente, esto podría consistir en una resolución y/u otra cualidad menor(es). En algunas realizaciones, la tercera zona podría ser un resto del visualizador aparte de la primera zona y de la segunda zona, mientras que, en otras realizaciones, la tercera zona podría incluir una parte de un eje horizontal que se extiende a una izquierda o una derecha del punto de mirada, o una parte de un eje vertical que se extiende por encima o por debajo del punto de mirada. Por ejemplo, si la segunda zona incluye una parte del eje horizontal, la tercera zona puede incluir una parte del eje vertical (y viceversa). La tercera zona podría incluir también o alternativamente una parte de un eje intermedio situado angularmente entre el eje horizontal y el eje vertical.
La Fig. 8 es un diagrama de bloques de otro método 800 de la invención para cambiar contenido en un visualizador en función de un punto de mirada de un usuario. En el bloque 810 se determina el punto de mirada del usuario en el visualizador. En el bloque 820 se visualiza una primera zona del visualizador de una primera manera. La primera zona del visualizador incluye el punto de mirada y una zona circundante. El tamaño de la zona circundante puede ajustarse en función de una distancia desde el visualizador hasta los ojos del usuario, según sea determinada por el dispositivo de seguimiento ocular y/o el procesador.
En el bloque 830 se determina una distancia angular desde el punto de mirada hasta otras segundas zonas potenciales del visualizador. Si la distancia angular es lo suficientemente grande, entonces puede permitirse una renderización de calidad reducida sin que el usuario perciba una reducción de la calidad. A continuación, en el bloque 840 se visualiza esa segunda zona de una segunda manera que está basada en la distancia angular y es diferente de la primera manera. La segunda manera es una manera en la que la calidad de renderización se reduce con respecto a la de la primera manera. Como se ha visto anteriormente, esto podría consistir en una resolución y/u otra cualidad menor(es). De este modo, la distancia angular desde el ojo u ojos del usuario hasta varias partes de la pantalla que están fuera de la primera zona (potencialmente, toda la zona restante) podría ser analizada, dependiendo de la realización, para determinar una o más zonas que serían candidatas para una renderización de calidad reducida. Las distancias angulares mínimas que pueden ser candidatas para una renderización de calidad reducida incluyen aquellas zonas del visualizador que se encuentran a 20, 21, 22, 23, 24 o 25 grados y más grados del punto de mirada.
La Fig. 9 es un diagrama de bloques de otro método 900 de la invención para cambiar contenido en un visualizador en función de un punto de mirada de un usuario. En el bloque 910 se determina el punto de mirada del usuario en el visualizador. En el bloque 920 se visualiza una primera zona del visualizador de una primera manera. La primera zona del visualizador incluye el punto de mirada y una zona circundante. El tamaño de la zona circundante puede ajustarse en función de una distancia desde el visualizador hasta los ojos del usuario, según sea determinada por el dispositivo de seguimiento ocular y/o el procesador.
En el bloque 930 se visualiza una segunda zona del visualizador (que es diferente de la primera zona del visualizador) de una segunda manera, diferente de la primera manera. La segunda manera es una manera en la que la calidad de renderización se reduce con respecto a la de la primera manera. Como se ha visto anteriormente, esto podría consistir en una resolución y/u otra cualidad menor(es). En algunas realizaciones, la segunda zona podría ser un resto del visualizador aparte de la primera zona, mientras que, en otras realizaciones, la segunda zona podría incluir una parte de un eje horizontal que se extiende a una izquierda o una derecha del punto de mirada, o una parte de un eje vertical que se extiende por encima o por debajo del punto de mirada. La segunda zona podría incluir también o alternativamente una parte de un eje intermedio situado angularmente entre el eje horizontal y el eje vertical.
En el bloque 940 se visualiza una tercera zona del visualizador (que es diferente de la primera zona o de la segunda zona del visualizador) de una tercera manera, diferente de la primera y segunda maneras. La tercera manera es una manera en la que la calidad de renderización se reduce con respecto a la de la primera manera y a la de la segunda manera. Como se ha visto anteriormente, esto podría consistir en una resolución y/u otra cualidad menor(es). En algunas realizaciones, la tercera zona podría ser un resto del visualizador aparte de la primera zona y de la segunda zona, mientras que, en otras realizaciones, la tercera zona podría incluir una parte de un eje horizontal que se extiende a una izquierda o una derecha del punto de mirada, o una parte de un eje vertical que se extiende por encima o por debajo del punto de mirada. Por ejemplo, si la segunda zona incluye una parte del eje horizontal, la tercera zona puede incluir una parte del eje vertical (y viceversa). La tercera zona podría incluir también o alternativamente una parte de un eje intermedio situado angularmente entre el eje horizontal y el eje vertical.
En el bloque 950 se visualiza una cuarta zona del visualizador (que es diferente de la primera zona, de la segunda zona o de la tercera zona del visualizador) de una cuarta manera, diferente de la primera, segunda y tercera maneras. La cuarta manera es una manera en la que la calidad de renderización se reduce con respecto a la de la primera manera, la de la segunda manera y la de la tercera manera. Como se ha visto anteriormente, esto podría consistir en una resolución y/u otra cualidad menor(es). En algunas realizaciones, la cuarta zona podría ser un resto del visualizador aparte de la primera, segunda y tercera zonas, mientras que, en otras realizaciones, la cuarta zona podría incluir una parte de un eje horizontal que se extiende a una izquierda o una derecha del punto de mirada, o una parte de un eje vertical que se extiende por encima o por debajo del punto de mirada. Por ejemplo, si la segunda zona incluye una parte del eje horizontal, la tercera zona puede incluir una parte del eje vertical (y viceversa). La cuarta zona podría incluir también o alternativamente una parte de un eje intermedio situado angularmente entre el eje horizontal y el eje vertical (especialmente en aquellas realizaciones en las que las segunda y tercera zonas ya incluyen dichas zonas).
La Fig. 10 es un diagrama de bloques que ilustra un sistema 1000 informático ilustrativo en el que pueden implementarse realizaciones de la presente invención. En este ejemplo se ilustra un sistema informático 1000 tal como el que puede utilizarse, en su totalidad, en parte o con varias modificaciones, para proporcionar las funciones del visualizador, el dispositivo de computación, la unidad central de procesamiento, la unidad de procesamiento gráfico, el dispositivo de seguimiento ocular y/u otros componentes de la invención, tales como los que se han visto anteriormente. Por ejemplo, varias funciones de los diversos componentes de la invención pueden ser controladas por el sistema informático 1000, incluidas, meramente a modo de ejemplo, la renderización de distintas partes del visualizador, la determinación de un punto de vista, etc.
El sistema informático 1000 se muestra comprendiendo elementos de hardware que pueden acoplarse eléctricamente por medio de un bus 1090. Los elementos de hardware pueden incluir una o más unidades 1010 centrales de procesamiento, uno o más dispositivos 1020 de entrada (p. ej., un ratón, un teclado, un dispositivo de seguimiento ocular, etc.), y uno o más dispositivos 1030 de salida (p. ej., un dispositivo de visualización, una impresora, etc.). El sistema informático 1000 también puede incluir uno o más dispositivos 1040 de almacenamiento. A modo de ejemplo, el o los dispositivos 1040 de almacenamiento puede(n) ser unidades de disco, dispositivos de almacenamiento óptico, dispositivos de almacenamiento de estado sólido, tales como una random access memory (memoria de acceso aleatorio - “ RAM”) y/o una read-only memory (memoria de solo lectura - “ ROM”), que puede(n) ser programable(s), actualizable(s) por memoria flash y/o similares.
El sistema informático 1000 puede incluir además un lector 1050 de soportes de almacenamiento legibles por ordenador, un sistema 1060 de comunicación (p. ej., un módem, una tarjeta de red (inalámbrica o cableada), un dispositivo de comunicación por infrarrojos, un dispositivo Bluetooth™, un dispositivo de comunicación celular, etc.) y una memoria funcional 1080, que puede incluir dispositivos RAM y ROM como los mencionados anteriormente. En algunas realizaciones, el sistema informático 1000 también puede incluir una unidad 1070 de aceleración del procesamiento, que puede incluir un procesador de señales digitales, un procesador para un fin específico y/o procesadores similares.
Además, el lector 1050 de soportes de almacenamiento legibles por ordenador puede conectarse a un soporte de almacenamiento legible por ordenador, los cuales, juntos (y, opcionalmente, en combinación con dispositivo(s) 1040 de almacenamiento), representan exhaustivamente dispositivos de almacenamiento remotos, locales, fijos y/o extraíbles, además de soportes de almacenamiento para contener temporal y/o más permanentemente información legible por ordenador. El sistema 1060 de comunicación puede permitir el intercambio de datos con una red, un sistema, un ordenador y/u otro componente descrito anteriormente.
El sistema informático 1000 también puede comprender elementos de software, que se muestran como si estuviesen situados actualmente dentro de una memoria funcional 1080, que incluye un sistema operativo 1084 y/u otro código 1088. Debe apreciarse que las realizaciones alternativas de un sistema informático 1000 pueden admitir numerosas variaciones con respecto a lo que se ha descrito anteriormente. Por ejemplo, también se puede utilizar hardware personalizado y/o se pueden implementar elementos particulares en hardware, en software (incluidos software portátil, tales como applets) o en ambos. Es más, también puede producirse una conexión a otros dispositivos de computación, tales como dispositivos de entrada/salida de red y de adquisición de datos.
El software del sistema informático 1000 puede incluir un código 1088 para implementar alguna de o todas las funciones de los diversos elementos de la arquitectura que se ha descrito en la presente memoria. Por ejemplo, el software, almacenado en y/o ejecutado por un sistema informático tal como el sistema 1000, puede proporcionar las funciones del visualizador, el dispositivo informático, la unidad central de procesamiento, la unidad de procesamiento gráfico, el dispositivo de seguimiento ocular y/u otros componentes de la invención tales como los que se han visto anteriormente. Anteriormente se han analizado métodos que pueden ser implementados por software en algunos de estos componentes.
La invención ha quedado ahora descrita en detalle a efectos de claridad y de comprensión. No obstante, se apreciará que pueden practicarse ciertos cambios y modificaciones dentro el alcance de las reivindicaciones adjuntas.

Claims (14)

  1. REIVINDICACIONES
    i. Un método para cambiar contenido en un visualizador (110) en función de un punto (160) de mirada de un usuario en el visualizador (110), en donde el método comprende:
    determinar un punto (160) de mirada de un usuario en un visualizador (110);
    hacer que una primera zona (163) del visualizador se visualice de una primera manera, incluyendo la primera zona (163) el punto (160) de mirada y una zona circundante; y
    hacer que una segunda zona (170) del visualizador (110) se visualice de una segunda manera, siendo la segunda zona diferente de la primera zona (163), y siendo la segunda manera diferente de la primera manera, en donde la segunda manera comprende una resolución que tiene una pluralidad de píxeles virtuales, y en donde la segunda zona (170) comprende:
    al menos una parte de un eje horizontal (210) que se extiende a una izquierda o una derecha del punto de mirada, en donde cada píxel virtual tiene una mayor anchura que altura; o
    al menos una parte de un eje vertical (220) que se extiende por encima o por debajo del punto (160) de mirada, en donde cada píxel virtual tiene una mayor altura que anchura.
  2. 2. El método para cambiar contenido en un visualizador en función de un punto (160) de mirada de un usuario en el visualizador (110) de la reivindicación 1, en donde:
    la segunda zona (170) comprende al menos una parte del eje horizontal (210) que se extiende a la izquierda o la derecha del punto (160) de mirada; y
    el método además comprende hacer que se visualice una tercera zona (173) del visualizador (110) de una tercera manera, en donde:
    la tercera zona (173) comprende al menos una parte del eje vertical (220) que se extiende por encima o por debajo del punto (160) de mirada;
    la tercera zona (173) es diferente de la primera zona (163) y de la segunda zona (170); y la tercera manera es diferente de la primera manera y de la segunda manera.
  3. 3. El método para cambiar contenido en un visualizador (110) en función de un punto (160) de mirada de un usuario en el visualizador (110) de la reivindicación 1, en donde:
    la segunda zona (170) comprende al menos una parte del eje vertical (220) que se extiende por encima o por debajo del punto (160) de mirada; y
    el método además comprende hacer que se visualice una tercera zona (173) del visualizador (110) de una tercera manera, en donde:
    la tercera zona (173) comprende al menos una parte del eje horizontal (210) que se extiende a la izquierda o la derecha del punto (160) de mirada;
    la tercera zona (173) es diferente de la primera zona (163) y de la segunda zona (170); y la tercera manera es diferente de la primera manera y de la segunda manera.
  4. 4. El método para cambiar contenido en un visualizador (110) en función de un punto (160) de mirada de un usuario en el visualizador (110) de la reivindicación 1, en donde:
    la primera manera comprende una primera resolución;
    la segunda manera comprende una segunda resolución; y
    la segunda resolución es menor que la primera resolución.
  5. 5. El método para cambiar contenido en un visualizador (110) en función de un punto (163) de mirada de un usuario en el visualizador (110) de la reivindicación 2, en donde:
    la primera manera comprende una primera resolución;
    la segunda manera comprende una segunda resolución;
    la tercera manera comprende una tercera resolución;
    la tercera resolución es menor que la segunda resolución; y
    la segunda resolución es menor que la primera resolución.
  6. 6. El método para cambiar contenido en un visualizador (110) en función de un punto (160) de mirada de un usuario en el visualizador (110) de la reivindicación 3, en donde:
    la primera manera comprende una primera resolución;
    la segunda manera comprende una segunda resolución;
    la tercera manera comprende una tercera resolución;
    la segunda resolución es menor que la tercera resolución; y
    la tercera resolución es menor que la primera resolución.
  7. 7. El método para cambiar contenido en un visualizador (110) en función de un punto (160) de mirada de un usuario en el visualizador (110) de la reivindicación 1, en donde cada píxel virtual comprende:
    una pluralidad de píxeles reales.
  8. 8. El método para cambiar contenido en un visualizador (110) en función de un punto (160) de mirada de un usuario en el visualizador (110) de la reivindicación 1, en donde:
    el método además comprende determinar una distancia angular, en función de un punto de vista del usuario desde el punto (160) de mirada hasta la segunda zona (170); y la segunda manera se basa al menos en parte en la distancia angular.
  9. 9. El método para cambiar contenido en un visualizador (110) en función de un punto (160) de mirada de un usuario en el visualizador (110) de la reivindicación 2, en donde el método además comprende: hacer que se visualice una cuarta zona del visualizador (110) de una cuarta manera, en donde:
    la cuarta zona comprende una parte de un eje intermedio situado angularmente entre el eje horizontal (210) y el eje vertical (220);
    la cuarta zona es diferente de la primera zona (163), de la segunda zona (710), y de la tercera zona (173); y
    la cuarta manera es diferente de la primera manera, de la segunda manera, y de la tercera manera.
  10. 10. El método para cambiar contenido en un visualizador (110) en función de un punto (160) de mirada de un usuario en el visualizador (110) de la reivindicación 9, en donde:
    la primera manera comprende una primera resolución;
    la segunda manera comprende una segunda resolución;
    la tercera manera comprende una tercera resolución;
    la cuarta manera comprende una cuarta resolución;
    la segunda resolución es menor que la primera resolución;
    la cuarta resolución es menor que la segunda resolución; y
    la tercera resolución es menor que la cuarta resolución.
  11. 11. El método para cambiar contenido en un visualizador (110) en función de un punto (160) de mirada de un usuario en el visualizador (110) de la reivindicación 10, en donde la cuarta resolución comprende: una pluralidad de píxeles virtuales, teniendo cada píxel virtual una longitud sustancialmente paralela al eje intermedio, y una anchura sustancialmente perpendicular al eje intermedio, en donde cada píxel virtual tiene mayor longitud que anchura.
  12. 12. El método para cambiar contenido en un visualizador (110) en función de un punto (160) de mirada de un usuario en el visualizador (110) de la reivindicación 1, en donde la segunda manera se selecciona de un grupo que consiste en:
    una menor resolución con respecto a la de la primera manera;
    una menor calidad de sombreado con respecto a la de la primera manera;
    una menor calidad de generación de sombras con respecto a la de la primera manera;
    una menor calidad de renderización de reflexión con respecto a la de la primera manera; una menor calidad de generación de texturas con respecto a la de la primera manera;
    una menor frecuencia de trama con respecto a la de la primera manera;
    una menor calidad de velado/particulación con respecto a la de la primera manera; una menor calidad de renderización de traslucidez con respecto a la de la primera manera; una menor calidad de suavizado de bordes con respecto a la de la primera manera; una menor frecuencia de trama con respecto a la de la primera manera; y
    una menor calidad de renderización tridimensional con respecto a la de la primera manera.
  13. 13. Un sistema para cambiar contenido en un visualizador (110) en función de un punto (160) de mirada de un usuario en el visualizador (110), en donde el sistema comprende:
    un dispositivo (120) de seguimiento ocular para determinar un punto (160) de mirada de un usuario en un visualizador (110); y un procesador para al menos:
    hacer que una primera zona (163) del visualizador (110) se visualice de una primera manera, incluyendo la primera zona el punto (160) de mirada y una zona circundante(166); y hacer que una segunda zona (170) del visualizador (110) se visualice de una segunda manera, siendo la segunda zona (170) diferente de la primera zona (163), y siendo la segunda manera diferente de la primera manera, en donde la segunda manera comprende una resolución que tiene una pluralidad de píxeles virtuales, y en donde la segunda zona (170) comprende:
    al menos una parte de un eje horizontal (210) que se extiende a una izquierda o una derecha del punto (160) de mirada, en donde cada píxel virtual tiene una mayor anchura que altura; o al menos una parte de un eje vertical (220) que se extiende por encima o por debajo del punto (160) de mirada, en donde cada píxel virtual tiene una mayor altura que anchura.
  14. 14. Un soporte legible por máquina no transitorio que tiene instrucciones almacenadas en el mismo para cambiar contenido en un visualizador (110) en función de un punto (160) de mirada de un usuario en el visualizador (110), en donde las instrucciones son ejecutables por uno o más procesadores para al menos:
    determinar un punto (160) de mirada de un usuario en un visualizador (110);
    hacer que una primera zona (163) del visualizador (110) se visualice de una primera manera, incluyendo la primera zona (163) el punto (160) de mirada y una zona circundante (166); y y hacer que una segunda zona (170) del visualizador (110) se visualice de una segunda manera, siendo la segunda zona (170) diferente de la primera zona (163), y siendo la segunda manera diferente de la primera manera, en donde la segunda manera comprende una resolución que tiene una pluralidad de píxeles virtuales, y en donde la segunda zona (170) comprende: al menos una parte de un eje horizontal (210) que se extiende a una izquierda o una derecha del punto (160) de mirada, en donde cada píxel virtual tiene una mayor anchura que altura; o al menos una parte de un eje vertical (220) que se extiende por encima o por debajo del punto (160) de mirada, en donde cada píxel virtual tiene una mayor altura que anchura.
ES17751508T 2016-07-18 2017-07-14 Renderización foveada Active ES2793226T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/212,889 US10152122B2 (en) 2016-07-18 2016-07-18 Foveated rendering
PCT/US2017/042073 WO2018017404A1 (en) 2016-07-18 2017-07-14 Foveated rendering

Publications (1)

Publication Number Publication Date
ES2793226T3 true ES2793226T3 (es) 2020-11-13

Family

ID=59582002

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17751508T Active ES2793226T3 (es) 2016-07-18 2017-07-14 Renderización foveada

Country Status (5)

Country Link
US (2) US10152122B2 (es)
EP (1) EP3485350B1 (es)
CN (2) CN109791431B (es)
ES (1) ES2793226T3 (es)
WO (1) WO2018017404A1 (es)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10152122B2 (en) 2016-07-18 2018-12-11 Tobii Ab Foveated rendering
KR20180025524A (ko) * 2016-08-31 2018-03-09 엘지디스플레이 주식회사 개인 몰입형 표시장치 및 이의 구동방법
WO2018140287A1 (en) 2017-01-25 2018-08-02 Apple Inc. Electronic device with foveated display system
US10649524B2 (en) 2017-04-07 2020-05-12 Intel Corporation Apparatus and method for foveated rendering, bin comparison and TBIMR memory-backed storage for virtual reality implementations
US20190005920A1 (en) * 2017-06-30 2019-01-03 Wuhan China Star Optoelectronics Technology Co., L td. Termianl apparatus and display method
US10699663B2 (en) 2018-02-27 2020-06-30 Tobii Ab Providing an image with a scaler chip in direct communication with an eye tracking device
US10970811B1 (en) * 2019-09-23 2021-04-06 Facebook Technologies, Llc Axis based compression for remote rendering
WO2021242008A1 (en) 2020-05-28 2021-12-02 Samsung Electronics Co., Ltd. Electronic device and operating method thereof
US11503998B1 (en) 2021-05-05 2022-11-22 Innodem Neurosciences Method and a system for detection of eye gaze-pattern abnormalities and related neurological diseases

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10123550A (ja) 1996-10-16 1998-05-15 Semiconductor Energy Lab Co Ltd 表示システム
US6924816B2 (en) * 2000-03-17 2005-08-02 Sun Microsystems, Inc. Compensating for the chromatic distortion of displayed images
US7495638B2 (en) 2003-05-13 2009-02-24 Research Triangle Institute Visual display with increased field of view
WO2009022178A1 (en) * 2007-08-16 2009-02-19 Bae Systems Plc Imaging device
US7850306B2 (en) 2008-08-28 2010-12-14 Nokia Corporation Visual cognition aware display and visual data transmission architecture
KR101754750B1 (ko) * 2011-09-08 2017-07-10 인텔 코포레이션 상호작용 스크린 보기를 위한 장치, 매체 및 방법
US20140092006A1 (en) 2012-09-28 2014-04-03 Joshua Boelter Device and method for modifying rendering based on viewer focus area from eye tracking
US9727991B2 (en) * 2013-03-01 2017-08-08 Microsoft Technology Licensing, Llc Foveated image rendering
WO2015034560A1 (en) 2013-09-03 2015-03-12 Tobii Technology Ab Portable eye tracking device
EP4220999A3 (en) 2013-11-27 2023-08-09 Magic Leap, Inc. Virtual and augmented reality systems and methods
KR101923562B1 (ko) * 2014-04-05 2018-11-29 소니 인터랙티브 엔터테인먼트 아메리카 엘엘씨 가변 렌더링 및 래스터화 파라미터 하에서 가변 뷰포트에 대하여 오브젝트를 효율적으로 리렌더링하는 방법
US10037620B2 (en) * 2015-05-29 2018-07-31 Nvidia Corporation Piecewise linear irregular rasterization
IN2015CH02866A (es) * 2015-06-09 2015-07-17 Wipro Ltd
EP3353630B1 (en) * 2015-09-24 2021-05-26 Tobii AB Eye-tracking enabled wearable devices
US10192528B2 (en) * 2016-03-31 2019-01-29 Sony Interactive Entertainment Inc. Real-time user adaptive foveated rendering
US10152122B2 (en) 2016-07-18 2018-12-11 Tobii Ab Foveated rendering
US10497295B1 (en) * 2018-03-14 2019-12-03 Facebook Technologies, Llc Near-eye display assembly with adjustable resolution and frame rate

Also Published As

Publication number Publication date
US20190346919A1 (en) 2019-11-14
US20180018018A1 (en) 2018-01-18
CN115220572A (zh) 2022-10-21
EP3485350B1 (en) 2020-04-22
US10152122B2 (en) 2018-12-11
US10928897B2 (en) 2021-02-23
WO2018017404A1 (en) 2018-01-25
EP3485350A1 (en) 2019-05-22
CN109791431A (zh) 2019-05-21
CN109791431B (zh) 2022-06-24

Similar Documents

Publication Publication Date Title
ES2793226T3 (es) Renderización foveada
ES2938535T3 (es) Representación foveada distribuida basada en la mirada del usuario
ES2855123T3 (es) Visualización de deformación de imágenes sincronizada
ES2882158T3 (es) Dispositivos portátiles con seguimiento ocular
EP3289401B1 (en) Virtual eyeglass set for viewing actual scene that corrects for different location of lenses than eyes
ES2922136T3 (es) Determinación de la apertura ocular con un dispositivo de seguimiento ocular
JP6636163B2 (ja) 画像表示方法、成形そり幕を生成する方法、および頭部装着ディスプレイデバイス
ES2906311T3 (es) Manipulación gráfica basada en la mirada y en la sacudida ocular
ES2971102T3 (es) Reducción de artefactos de solapamiento en un renderizado foveado usando una modulación de resolución cruzada
ES2646924T3 (es) Dispositivo de salida de vídeo, dispositivo de observación de vídeo en 3D, dispositivo de presentación visual de vídeo y método de salida de vídeo
US20210225329A1 (en) Image display method, display system and computer-readable storage medium
KR20210113602A (ko) 시선 추적에 기초한 동적 렌더링 시간 타겟팅
US10553014B2 (en) Image generating method, device and computer executable non-volatile storage medium
US11145265B2 (en) Display device and driving method therefor
US11308685B2 (en) Rendering computer-generated reality text
CN113287054A (zh) Hmd中的显示面板和/或虚拟相机的反向旋转
US10582193B2 (en) Light field display control method and apparatus, and light field display device
US11710467B2 (en) Display artifact reduction
US20220138901A1 (en) Image display method, image processing method, image processing device, display system and computer-readable storage medium
US20170195660A1 (en) Light field display control method and apparatus, and light field display device
ES2938635T3 (es) Método y sistema para facilitar el transporte de un observador en un vehículo
US9811945B2 (en) On-demand transformation aware shape tessellation
CN110010082B (zh) 用于防止显示闪烁的设备、系统和方法