ES2954588T3 - Pantalla de campo de luz, método de representación de píxeles ajustado para el mismo, y sistema y método de corrección de visión que utiliza el mismo - Google Patents

Pantalla de campo de luz, método de representación de píxeles ajustado para el mismo, y sistema y método de corrección de visión que utiliza el mismo Download PDF

Info

Publication number
ES2954588T3
ES2954588T3 ES19808883T ES19808883T ES2954588T3 ES 2954588 T3 ES2954588 T3 ES 2954588T3 ES 19808883 T ES19808883 T ES 19808883T ES 19808883 T ES19808883 T ES 19808883T ES 2954588 T3 ES2954588 T3 ES 2954588T3
Authority
ES
Spain
Prior art keywords
image
user
pixel
given
light field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19808883T
Other languages
English (en)
Inventor
Daniel Gotsch
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Evolution Optiks Ltd
Original Assignee
Evolution Optiks Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CA3021636A external-priority patent/CA3021636A1/en
Application filed by Evolution Optiks Ltd filed Critical Evolution Optiks Ltd
Application granted granted Critical
Publication of ES2954588T3 publication Critical patent/ES2954588T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/005Constructional features of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/20Linear translation of a whole image or part thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/307Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/112Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/03Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes specially adapted for displays having non-planar surfaces, e.g. curved displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

Se describen varias realizaciones de un método implementado por computadora, implementado automáticamente por uno o más procesadores digitales, para ajustar automáticamente la percepción del usuario de una imagen de entrada que se representará en una pantalla digital a través de un conjunto de píxeles de la misma, en donde la pantalla digital tiene una matriz. de elementos de conformación de campo luminoso (LFSE). (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Pantalla de campo de luz, método de representación de píxeles ajustado para el mismo, y sistema y método de corrección de visión que utiliza el mismo
Referencia cruzada a solicitudes relacionadas
Esta solicitud reivindica la prioridad de la solicitud de patente de EE. UU. n.° 16/569.137 presentada el 12 de septiembre de 2019, la solicitud de patente de EE. UU. n.° 16/551.572 presentada el 26 de agosto de 2019, la solicitud de patente de EE. UU. n.° 16/510.673 presentada el 12 de julio de 2019, la solicitud de patente de EE. UU. n.° 16/259.845 presentada el 28 de enero de 2019 y la solicitud de patente de Canadá n.° 3.021.636, presentada el 22 de octubre de 2018.
Campo de la divulgación
La presente divulgación se refiere a pantallas digitales y, en particular, a una pantalla de campo de luz, y a un método de representación de píxeles ajustados y a un medio legible por ordenador para el mismo, y a un sistema y método de corrección de la visión que lo utiliza.
Antecedentes
Las personas usan habitualmente lentes correctivas para adaptarse a la agudeza visual reducida al consumir imágenes y/o información renderizada, por ejemplo, en pantallas digitales proporcionadas, por ejemplo, en dispositivos electrónicos del día a día tales como teléfonos inteligentes, relojes inteligentes, lectores electrónicos, tabletas, ordenadores portátiles y similares, pero también se proporciona como parte de pantallas de tableros de vehículos y sistemas de entretenimiento, por nombrar unos pocos ejemplos. El uso de bifocales o lentes correctivos progresivos también es común entre las personas que sufren de visión de cerca y de lejos.
Los sistemas operativos de los dispositivos electrónicos actuales que tienen pantallas gráficas ofrecen ciertas funciones de "Accesibilidad" integradas en el software del dispositivo para intentar brindar a los usuarios con visión reducida la capacidad de leer y ver contenido en el dispositivo electrónico. Específicamente, las opciones de accesibilidad actuales incluyen la capacidad de invertir imágenes, aumentar el tamaño de la imagen, ajustar la configuración de brillo y contraste, texto en negrita, ver la pantalla del dispositivo solo en gris, y para aquellos con ceguera legal, el uso de la tecnología del habla. Estas técnicas se centran en la capacidad limitada del software para manipular imágenes de pantalla mediante la manipulación de imágenes convencional, con éxito limitado.
El uso de pantallas de campo de luz 4D con conjuntos de lentes o barreras de paralaje para corregir las aberraciones visuales se ha propuesto en un artículo de una revista de Pamplona et al. titulado "Tailored displays to compensate for visual aberrations" publicado en ACM Transactions on Graphics, vol. 31, n.° 4, julio de 2012. Lamentablemente, las pantallas de campo de luz convencionales como las que utiliza Pamplona. et al. están sujetas a un compromiso de resolución espacio-angular; es decir, una mayor resolución angular disminuye la resolución espacial. Por tanto, el espectador ve una imagen nítida pero a expensas de una resolución significativamente menor que la de la pantalla. Para mitigar este efecto, F.-C. Huang y B. A. Barskey propusieron un método para corregir aberraciones ópticas utilizando pantallas multicapa en un informe técnico titulado "A Framework for Aberration Compensated Displays" publicado por la Universidad de California en Berkeley con el número UCB/EECS-2011-162 en diciembre de 2011. En otro artículo de F.-C. Huang et al. titulado "Correcting for optical aberrations using multi layer displays" publicado en ACM Transactions on Graphics, vol. 31, n.° 6 en noviembre de 2012, los autores propusieron el uso de diseños de pantalla multicapa junto con prefiltrado. La combinación de prefiltrado y estas configuraciones ópticas particulares, sin embargo, reduce significativamente el contraste de la imagen resultante.
La publicación de solicitud de patente de EE. UU. n.° 2016/0042501 y el artículo de revista de Fu-Chung Huang et al. titulado "Eyeglasses-free Display: Towards Correcting Visual Aberrations with Computational Light Field Displays' publicado en ACM Transaction on Graphics, vol. 33, n.° 4, julio de 2014, han propuesto la combinación de prefiltrado adaptable al espectador con barreras de paralaje disponibles para aumentar el contraste y la resolución, a expensas, sin embargo, de tiempo y potencia de cálculo.
La solicitud de patente WO2016107208 A1 divulga un método para el control de pantalla del campo óptico ajustando la distribución de densidad de píxeles de visualización de una pantalla de un dispositivo de pantalla de campo de luz y realizando el procesamiento de muestreo en una imagen de campo de luz según la información de ubicación de los píxeles de visualización de la pantalla.
Esta información de antecedentes se proporciona para revelar información que el solicitante considera de posible relevancia. No se pretende necesariamente la admisión, ni debe interpretarse, que cualquiera de la información anterior constituye técnica anterior.
Sumario
A continuación se presenta un sumario simplificado del concepto o conceptos inventivos generales aquí descritos para proporcionar una comprensión básica de algunos aspectos de la divulgación. Este sumario no es una visión general extensa de la presente divulgación. No se pretende restringir elementos clave o críticos de las realizaciones de la divulgación ni delinear su alcance más allá de lo que se describe explícita o implícitamente en la siguiente descripción y reivindicaciones.
Existe la necesidad de una pantalla de campo de luz, método de representación de píxeles ajustados y medio legible por ordenador para el mismo, y sistema y método de corrección de la visión que lo utiliza, que superen algunos de los inconvenientes de las técnicas conocidas, o al menos, proporcionar una alternativa útil al mismo. Algunos aspectos de la divulgación proporcionan realizaciones de tales sistemas, métodos, pantallas y conjuntos de elementos ópticos.
De acuerdo con un aspecto, se proporciona un método implementado por ordenador, implementado automáticamente por uno o más procesadores digitales, para ajustar automáticamente la percepción del usuario de una imagen de entrada que se representará en una pantalla digital a través de un conjunto de píxeles de la misma, en el que la pantalla digital tiene una serie de elementos de conformación del campo luminoso (LFSE), comprendiendo el método: mapear digitalmente la imagen de entrada en un plano de imagen ajustado designado para proporcionar al usuario un ajuste de percepción de imagen designado; para cada píxel dado de al menos algunos de dichos píxeles, digitalmente: calcular un vector entre dicho píxel dado y la ubicación de la pupila del usuario; aproximar una dirección de un campo de luz emanado por dicho píxel dado basándose en un LFSE dado cruzado por dicho vector; proyectar una traza de rayos de imagen ajustada entre dicho píxel dado y dicho LFSE dado para cruzar dicho plano de imagen ajustado en una ubicación de imagen ajustada dada dicha dirección; y asociar un valor de píxel de imagen ajustado designado para dicha ubicación de imagen ajustada dada con dicho píxel dado basándose en dicho mapeo; y representar cada uno de dichos píxeles dados de acuerdo con dicho valor de píxeles de imagen ajustado, representando así una versión perceptivamente ajustada de la imagen de entrada.
De acuerdo con otro aspecto, se proporciona un medio legible por ordenador no transitorio que comprende instrucciones digitales que se implementarán mediante uno o más procesadores digitales para ajustar automáticamente la percepción del usuario de una imagen de entrada que se representará en una pantalla digital a través de un conjunto de píxeles de la misma, en el que la pantalla digital tiene una serie de elementos de conformación del campo luminoso (LFSE), mediante: mapear digitalmente la imagen de entrada en un plano de imagen ajustado designado para proporcionar al usuario un ajuste de percepción de imagen designado; para cada píxel dado de al menos algunos de dichos píxeles, digitalmente: calcular un vector entre dicho píxel dado y la ubicación de la pupila del usuario; aproximar una dirección de un campo de luz emanado por dicho píxel dado basándose en un LFSE dado cruzado por dicho vector; proyectar una traza de rayos de imagen ajustada entre dicho píxel dado y dicho LFSE dado para cruzar dicho plano de imagen ajustado en una ubicación de imagen ajustada dada dicha dirección; y asociar un valor de píxel de imagen ajustado designado para dicha ubicación de imagen ajustada dada con dicho píxel dado basándose en dicho mapeo; y representar cada uno de dichos píxeles dados de acuerdo con dicho valor de píxeles de imagen ajustado, representando así una versión perceptivamente ajustada de la imagen de entrada.
De acuerdo con otro aspecto, se proporciona un dispositivo de pantalla digital operable para ajustar automáticamente la percepción del usuario de una imagen de entrada que se representará en el mismo, comprendiendo el dispositivo: un medio de pantalla digital que comprende una serie de píxeles y operable para representar una imagen pixelada en consecuencia; una serie de elementos de configuración de campo de luz (LFSE) para dar forma a un campo luminoso que emana de al menos algunos de dichos píxeles y de este modo gobernar al menos parcialmente una proyección del mismo desde dicho medio de pantalla hacia el usuario; y un procesador de hardware operable con datos de píxeles para la imagen de entrada para generar datos de píxeles de imagen ajustados para ajustar la percepción del usuario de la imagen de entrada tal como se representa mediante: mapeo digital de la imagen de entrada en un plano de imagen ajustado designado para proporcionar al usuario un ajuste de percepción de imagen designada; para cada píxel dado de al menos algunos de dichos píxeles, digitalmente: calcular un vector entre dicho píxel dado y la ubicación de la pupila del usuario; aproximar una dirección de un campo de luz emanado por dicho píxel dado basándose en un LFSE dado cruzado por dicho vector; proyectar una traza de rayos de imagen ajustada entre dicho píxel dado y dicho LFSE dado para cruzar dicho plano ajustado en una ubicación de imagen ajustada dada dicha dirección; y asociar un valor de píxel de imagen ajustado designado para dicha ubicación de imagen ajustada dada con dicho píxel dado basándose en dicho mapeo; y representar cada uno de dichos píxeles dados de acuerdo con dicho valor de píxeles de imagen ajustado, representando así una versión perceptivamente ajustada de la imagen de entrada.
Otros aspectos, las características y/o ventajas se harán más evidentes tras la lectura de la siguiente descripción no restrictiva de realizaciones específicas de los mismos, dada únicamente a modo de ejemplo haciendo referencia a los dibujos.
Breve descripción de las figuras
Varias realizaciones de la presente divulgación se proporcionarán, únicamente a modo de ejemplo, con referencia a los dibujos adjuntos, en donde:
La figura 1 es una vista esquemática de un dispositivo electrónico que tiene una pantalla digital, de acuerdo con una realización;
Las figuras 2A y 2B son vistas en despiece y laterales, respectivamente, de un conjunto de una pantalla de campo de luz para un dispositivo electrónico, de acuerdo con una realización;
Las figuras 3A, 3B y 3C ilustran esquemáticamente la visión normal, visión borrosa y visión corregida de acuerdo con una realización, respectivamente;
La figura 4 es un diagrama esquemático de un único píxel de campo de luz definido por una lente o microlente convexa que se superpone a una matriz de píxeles subyacente y está dispuesta en o cerca de su foco para producir un haz sustancialmente colimado, de acuerdo con una realización;
La figura 5 es otra vista esquemática en despiece de un conjunto de una pantalla de campo de luz en la que los respectivos subconjuntos de píxeles están alineados para emitir luz a través de una microlente o lente correspondiente, de acuerdo con una realización;
La figura 6 es un diagrama de ejemplo de un patrón de campo de luz que, cuando se proyecta correctamente mediante una pantalla de campo de luz, produce una imagen corregida que muestra una borrosidad reducida para un espectador que tiene una agudeza visual reducida, de acuerdo con una realización;
Las figuras 7A y 7B son fotografías de un diagrama de Snellen, como lo ve ilustrativamente un espectador con agudeza reducida sin corrección de imagen (imagen borrosa en la figura 7A) y con corrección de imagen a través de una pantalla de campo de luz (imagen corregida en la figura 7B), de acuerdo con una realización;
La figura 8 es un diagrama esquemático de una porción de una matriz de lentes hexagonales dispuesta en un ángulo con respecto a una matriz de píxeles subyacente, de acuerdo con una realización;
Las figuras 9A y 9B son fotografías vistas ilustrativamente por un espectador con agudeza visual reducida sin corrección de imagen (imagen borrosa en la figura 9A) y con corrección de imagen a través de una pantalla de campo de luz que tiene una matriz de lentes angularmente no coincidentes (imagen corregida en la figura 9B), de acuerdo con una realización;
Las figuras 10A y 10B son fotografías vistas ilustrativamente por un espectador con agudeza visual reducida sin corrección de imagen (imagen borrosa en la figura 10A) y con corrección de imagen a través de una pantalla de campo de luz que tiene una matriz de lentes angularmente no coincidentes (imagen corregida en la figura 10B), de acuerdo con una realización;
La figura 11 es un diagrama de flujo de proceso de un proceso de renderizado de trazado de rayos ilustrativo, de acuerdo con una realización;
Las figuras 12 y 13 son diagramas de flujo de proceso de parámetros y variables constantes de entrada de ejemplo, respectivamente, para el proceso de renderizado de trazado de rayos de la figura 11, de acuerdo con una realización;
Las figuras 14A a 14C son diagramas esquemáticos que ilustran ciertas etapas del proceso de la figura 11; La figura 15 es un diagrama de flujo de proceso de un proceso de ejemplo para calcular la posición central de una unidad de conformación de campo de luz asociada en el proceso de representación por trazado de rayos de la figura 11, de acuerdo con una realización;
Las figuras 16A y 16B son diagramas esquemáticos que ilustran una capa formadora de campo de luz hexagonal a modo de ejemplo con una matriz de mosaicos hexagonales correspondiente, de acuerdo con una realización; Las figuras 17A y 17B son diagramas esquemáticos que ilustran la superposición de una disposición de mosaicos rectangular escalonada sobre la disposición de mosaicos hexagonales de las figuras 16A y 16B, de acuerdo con una realización;
Las figuras 18A a 18C son diagramas esquemáticos que ilustran las regiones asociadas de mosaicos hexagonales vecinas dentro de un único mosaico rectangular, de acuerdo con una realización;
La figura 19 es un diagrama de flujo de proceso de un proceso de renderizado de trazado de rayos ilustrativo, de acuerdo con otra realización;
Las figuras 20A a 20D son diagramas esquemáticos que ilustran ciertas etapas del proceso de la figura 19; Las figuras 21A y 21B son diagramas esquemáticos que ilustran la representación de píxeles y subpíxeles, respectivamente, de acuerdo con algunas realizaciones;
Las figuras 22A y 22B son diagramas esquemáticos de una matriz de píxeles de LCD definida por el rojo respectivo (R), subpíxeles verdes (G) y azules (B), y renderizado de un borde de imagen angular mediante renderizado de píxeles y subpíxeles, respectivamente, de acuerdo con una realización;
La figura 23 es un diagrama esquemático de uno de los píxeles de la figura 22A, que muestra medidas para contabilizar independientemente sus subpíxeles; aplicar la representación de subpíxeles a la pantalla de una imagen corregida a través de una pantalla de campo de luz, de acuerdo con una realización;
Las figuras 24A y 24B son diagramas esquemáticos que ilustran el trazado de rayos en el contexto de planos no paralelos, de acuerdo con una realización;
La figura 25 es un diagrama esquemático que ilustra el trazado de rayos en el contexto de superficies curvas tales como una pantalla de píxeles curvada y una capa de conformación de campo de luz curva, de acuerdo con una realización;
La figura 26 es un diagrama de flujo de proceso de un proceso de renderizado de campo de luz por compresión ilustrativo, de acuerdo con una realización;
La figura 27 es un diagrama de flujo de proceso de un proceso de trazado de rayos ilustrativo para el proceso de representación del campo de luz por compresión de la figura 26 cuando se implementa opcionalmente dentro del contexto del proceso de la figura 11, de acuerdo con una realización;
Las figuras 28 y 29 son diagramas esquemáticos que ilustran ciertas etapas del proceso de la figura 27;
La figura 30 es un diagrama de flujo del proceso que ilustra un cálculo de superposición de haces del proceso de la figura 27, de acuerdo con una realización; y
La figura 31 es un diagrama de flujo de proceso que ilustra un proceso de trazado de rayos de ejemplo para el proceso de representación de campo de luz por compresión de la figura 26 cuando se implementa opcionalmente dentro del contexto del proceso de la figura 11, de acuerdo con otra realización.
Los elementos de las distintas figuras se ilustran por simplicidad y claridad y no necesariamente se han dibujado a escala. Por ejemplo, las dimensiones de algunos de los elementos de las figuras se pueden enfatizar en relación con otros elementos para facilitar la comprensión de las diversas realizaciones actualmente descritas. También, elementos comunes, pero bien entendidos que son útiles o necesarios en las realizaciones comercialmente viables a menudo no se representan con el fin de facilitar una visión menos obstruida de estas diversas realizaciones de la presente divulgación.
Descripción detallada
Se describirán diversas implementaciones y aspectos de la especificación con referencia a los detalles discutidos a continuación. La siguiente descripción y los dibujos son ilustrativos de la memoria descriptiva y no deben interpretarse como limitantes de la memoria descriptiva. Se describen numerosos detalles específicos para proporcionar una comprensión profunda de varias implementaciones de la presente memoria descriptiva. Sin embargo, en ciertos casos, no se describen detalles bien conocidos o convencionales para proporcionar un análisis conciso de implementaciones de la presente memoria descriptiva.
A continuación se describirán varios aparatos y procesos para proporcionar ejemplos de implementaciones del sistema divulgado en el presente documento. Ninguna implementación descrita a continuación limita cualquier implementación reivindicada y cualquier implementación reivindicada puede cubrir procesos o aparatos que difieren de los que se describen a continuación. Las implementaciones reivindicadas no se limitan a aparatos o procesos que tienen todas las características de cualquier aparato o proceso descrito a continuación o a características comunes a múltiples o todos los aparatos o procesos descritos a continuación. Es posible que un aparato o proceso descrito a continuación no sea una implementación de ningún objeto reivindicado.
Además, se exponen numerosos detalles específicos con el fin de proporcionar una comprensión completa de las implementaciones descitas en el presente documento. Sin embargo, los expertos en la materia entenderán que las realizaciones descritas en el presente documento pueden llevarse a la práctica sin estos detalles específicos. En otros casos, métodos, Procedimientos y componentes bien conocidos no se han descrito en detalle para no complicar aún más las implementaciones descritas en el presente documento.
En esta memoria descriptiva, los elementos pueden describirse como "configurados para" realizar una o más funciones o "configurados para" dichas funciones. En general, un elemento que está configurado para realizar o configurado para realizar una función está habilitado para realizar la función, o es adecuado para realizar la función, o está adaptado para realizar la función, o es operable para realizar la función, o es capaz de realizar de otro modo la función.
Se entenderá que a efectos esta memoria descriptiva, la frase "al menos uno de X, Y, y Z" y "uno o más de X, Y y Z" puede interpretarse como X únicamente, solo Y, solo Z, o cualquier combinación de dos o más elementos X, Y y Z (por ejemplo, XYZ, XY, YZ, ZZ y similares). Se puede aplicar una lógica similar para dos o más elementos en cualquier aparición de "al menos uno..." y "uno o más...".
Los sistemas y métodos descritos en el presente documento proporcionan, de acuerdo con diferentes realizaciones, diferentes ejemplos de una pantalla de campo de luz, método de representación de píxeles ajustados y medio legible por ordenador para el mismo, y sistema y método de corrección de la visión que lo utiliza. Por ejemplo, los dispositivos, pantallas y métodos descritos en este documento pueden permitir que se muestre la percepción de un usuario de una imagen de entrada, ajustarse o modificarse utilizando la pantalla de campo de luz. Por ejemplo, en algunos ejemplos, usuarios que de otro modo necesitarían gafas correctoras tales como gafas o lentes de contacto, o bifocales, puede consumir imágenes producidas por dichos dispositivos, pantallas y métodos con un enfoque claro o mejorado sin el uso de tales gafas. Otras aplicaciones de pantalla de campo de luz, tales como pantallas en 3D y similares, también puede beneficiarse de las soluciones descritas en este documento y, por lo tanto, debe considerarse que caen dentro del alcance general y la naturaleza de la presente divulgación.
Por ejemplo, algunas de las realizaciones descritas en el presente documento proporcionan dispositivos de pantalla digital, o dispositivos que abarcan dichas pantallas, para uso de usuarios con agudeza visual reducida, mediante el cual las imágenes renderizadas en última instancia por dichos dispositivos pueden procesarse dinámicamente para adaptarse a la agudeza visual reducida del usuario, de modo que pueda consumir imágenes renderizadas sin el uso de gafas correctivas, como de otro modo sería necesario. Como se ha indicado anteriormente, las realizaciones no deben limitarse, ya que las nociones y soluciones descritas en el presente documento también se pueden aplicar a otras tecnologías en las que la percepción de un usuario de una imagen de entrada que se va a mostrar se puede alterar o ajustar a través de la pantalla de campo de luz.
Generalmente, las pantallas digitales tal como se consideran en el presente documento comprenderán un conjunto de píxeles de representación de imágenes y un conjunto correspondiente de elementos de configuración de campo de luz que gobiernan al menos parcialmente un campo de luz emanado de ese modo para producir una versión perceptivamente ajustada de la imagen de entrada. En algunos ejemplos, los elementos de conformación del campo de luz pueden tomar la forma de una capa de conformación del campo de luz o una matriz similar de elementos ópticos que se dispondrán con respecto a los píxeles de pantalla para gobernar al menos parcialmente el campo de luz emanado. Como se describe con más detalle a continuación, tales elementos de capa de conformación de campo de luz pueden tomar la forma de una microlente y/o una matriz de orificios, u otras matrices similares de elementos ópticos, o nuevamente tomar la forma de una capa de conformación de luz subyacente, tal como una matriz subyacente de rejillas ópticas o elementos ópticos similares operables para producir una salida pixelada direccional.
Dentro del contexto de una capa de conformación de campo de luz, como se describe con más detalle a continuación de acuerdo con algunas realizaciones, la capa de conformación del campo de luz puede disponerse a una distancia preestablecida de la pantalla pixelada para dar forma o influenciar de manera controlable un campo de luz que emana de la misma. Por ejemplo, cada capa que forma el campo de luz puede definirse mediante una serie de elementos ópticos centrados sobre un subconjunto correspondiente de la serie de píxeles de la pantalla para influir ópticamente en un campo de luz que emana del mismo y, por lo tanto, gobernar una proyección del mismo desde el medio de pantalla hacia el usuario, por ejemplo, proporcionando cierto control sobre cómo cada píxel o grupo de píxeles será visto por los ojos del espectador. Como se detallará a continuación, los elementos ópticos dispuestos pueden incluir, pero sin limitación, lentes, microlentes u otros elementos ópticos difractivos que juntos forman, por ejemplo, una matriz de lentes; poros o aberturas o ventanas similares que en conjunto forman, por ejemplo, un paralaje o barrera similar; barreras con patrones concéntricos, por ejemplo, recortes y/o ventanas, tal como para definir una placa de zona de Fresnel o un tamiz óptico, por ejemplo, y que juntos forman una barrera óptica difractiva (como se describe, por ejemplo, en la solicitud codependiente del solicitante, número de serie US 15/910.908); y/o una combinación de los mismos, tal como, por ejemplo, una matriz de lentes cuyas respectivas lentes o lentículas están parcialmente sombreadas o protegidas alrededor de su periferia para combinar las propiedades refractivas de las lentes con algunas de las ventajas proporcionadas por una barrera estenopeica.
En funcionamiento, el dispositivo de pantalla también invocará generalmente un procesador de hardware operable en datos de píxeles (o subpíxeles) de la imagen para que se muestre una imagen para generar datos de píxeles de la imagen corregidos o ajustados que se representarán como una función de una característica almacenada de los elementos de conformación del campo de luz y/o capa (por ejemplo, distancia de la capa desde la pantalla de visualización, distancia entre elementos ópticos (paso), ubicación relativa absoluta de cada píxel o subpíxel con respecto a un elemento óptico correspondiente, propiedades de los elementos ópticos (tamaño, propiedades difractivas y/o refractivas, etc.), u otras propiedades similares, y un parámetro de ajuste o corrección de la visión seleccionado relacionado con la agudeza visual reducida del usuario o la experiencia de visualización prevista. Si bien las características de la pantalla de campo de luz generalmente permanecerán estáticas para una implementación determinada (es decir, se utilizará y configurará un elemento y/o capa de conformación determinado para cada dispositivo independientemente del usuario), el procesamiento de imágenes puede, en algunas realizaciones, ajustarse dinámicamente en función de la agudeza visual del usuario o de la aplicación prevista para ajustar activamente una distancia de un plano de imagen virtual, o una imagen percibida en el plano de la retina del usuario dado un enfoque ocular del usuario cuantificado o aberraciones ópticas similares, inducidas al representar los datos de píxeles de la imagen corregidos/ajustados a través de la capa y/o elementos ópticos estáticos, por ejemplo, o ajustar activamente los parámetros de procesamiento de imágenes según se considere, por ejemplo, al implementar un algoritmo de prefiltrado adaptable al espectador o un enfoque similar (por ejemplo, optimización del campo de luz por compresión), para gobernar al menos en parte una imagen percibida por los ojos del usuario dada la luz específica de un píxel o subpíxel visible a través de la capa.
Por consiguiente, un dispositivo determinado puede adaptarse para compensar diferentes niveles de agudeza visual y así adaptarse a diferentes usuarios y/o usos. Por ejemplo, un dispositivo particular puede configurarse para implementar y/o representar una interfaz gráfica de usuario (GUI) interactiva que incorpora una función de escala de corrección de visión dinámica que ajusta dinámicamente uno o más parámetros de corrección de visión designados en tiempo real en respuesta a una interacción de usuario designada con el mismo a través de la GUI. Por ejemplo, una función de escala de corrección de visión dinámica puede comprender una función de escala representada gráficamente controlada por un movimiento deslizante del usuario (continuo o discreto) o una operación similar, mediante lo cual la GUI puede configurarse para capturar y traducir la operación de movimiento de deslizamiento dada por un usuario a un ajuste correspondiente al parámetro(s) de corrección de visión designado(s) escalable(s) con un grado de la operación de movimiento de diapositiva dada por el usuario. Estos y otros ejemplos se describen en la solicitud de patente copendiente del solicitante con número de serie US 15/246.255.
Con referencia a la figura 1, y de acuerdo con una realización, un dispositivo de pantalla digital, generalmente referido usando el número 100, se describirá ahora. En este ejemplo, el dispositivo 100 se representa generalmente como un teléfono inteligente o similar, aunque también se pueden considerar otros dispositivos que incluyan una pantalla gráfica, tal como tabletas, lectores electrónicos, relojes, televisores, dispositivos de GPS, ordenadores portátiles, monitores de ordenadores de sobremesa, televisores, televisores inteligentes, consolas y controladores de videojuegos portátiles, tableros de instrumentos de vehículos y/o pantallas de entretenimiento, y similares.
En la realización ilustrada, el dispositivo 100 comprende una unidad de procesamiento 110, una pantalla digital 120 y una memoria interna 130. La pantalla 120 puede ser una pantalla LCD, un monitor, un panel de pantalla de plasma, una pantalla LED u OLED, o cualquier otro tipo de pantalla digital definida por un conjunto de píxeles para representar una imagen pixelada u otros medios o información similares. La memoria interna 130 puede ser cualquier forma de almacenamiento electrónico, incluyendo una unidad de disco, unidad óptica, memoria de solo lectura, memoria de acceso aleatorio o memoria flash, por nombrar unos pocos ejemplos. Para fines ilustrativos, la memoria 130 tiene almacenada en ella la aplicación de corrección de la visión 140, aunque se pueden implementar diversos métodos y técnicas para proporcionar código legible por ordenador e instrucciones para su ejecución por la unidad de procesamiento con el fin de procesar datos de píxeles para una imagen que se va a representar para producir datos de píxeles corregidos susceptibles de producir una imagen corregida que se adapte a la agudeza visual reducida del usuario (por ejemplo, aplicación de corrección de imágenes almacenada y ejecutable, herramienta, utilidad o motor, etc.). Otros componentes del dispositivo electrónico 100 pueden incluir opcionalmente, pero sin limitación, una o más cámaras traseras y/o frontales 150, un acelerómetro 160 y/u otros dispositivos de posicionamiento/orientación del dispositivo capaces de determinar la inclinación y/u orientación del dispositivo electrónico 100, y similares.
Por ejemplo, el dispositivo electrónico 100, o entorno relacionado (por ejemplo, dentro del contexto de una estación de trabajo de escritorio, consola/tablero de instrumentos del vehículo, estación de juegos o aprendizaje electrónico, sala de exhibición multimedia, etc.) pueden incluir hardware adicional, componentes y/o módulos de firmware y/o software para ofrecer funciones complementarias y/o cooperativas, funciones y/o servicios. Por ejemplo, en alguna realización, como se describirá con mayor detalle a continuación, un sistema de seguimiento de pupila/ojo puede implementarse integral o cooperativamente para mejorar o potenciar la representación de imágenes correctivas rastreando una ubicación de los ojos/pupilas del usuario (por ejemplo, ambos o uno, por ejemplo, ojo(s) dominante(s)) y ajustando las correcciones del campo de luz en consecuencia. Por ejemplo, el dispositivo 100 puede incluir, integrado en el mismo o en interfaz con el mismo, una o más fuentes de luz de seguimiento de ojo/pupila, tales como una o más fuentes de luz infrarroja (IR) o cercana (NIR) para adaptarse al funcionamiento en condiciones de luz ambiental limitadas, aprovechar los retrorreflejos de la retina, invocar la reflexión corneal y/u otras consideraciones similares. Por ejemplo, diferentes técnicas de seguimiento de pupila IR/NIR pueden emplear una o más fuentes de luz de iluminación amplia o dirigida (por ejemplo, dispuestas) para estimular la retrorreflexión retiniana y/o la reflexión corneal al identificar una ubicación de seguimiento de una pupila. Otras técnicas pueden emplear visión artificial basada en luz ambiental o IR/NIR y técnicas de reconocimiento facial para localizar y rastrear los ojos/pupilas del usuario. Para hacerlo, pueden desplegarse una o más cámaras correspondientes (por ejemplo, visibles, IR/NIR) para captar señales de seguimiento de ojos/pupilas que puedan procesarse, utilizando diversas técnicas de procesamiento de datos de imágenes/sensores, para mapear una ubicación en 3D de los ojos/pupilas del usuario. En el contexto de un dispositivo móvil, tal como un teléfono móvil, dicho hardware/software de seguimiento ocular/pupilar puede ser parte integral del dispositivo, por ejemplo, operando en conjunto con componentes integrados tal como una o más cámaras frontales, fuentes de luz IR/n iR integradas y similares. En otros entornos de usuario, tal como en un entorno de un vehículo, el hardware de seguimiento de ojos/pupilas puede distribuirse aún más en el entorno, tal como salpicadero, consola, techo, parabrisas, espejo o cámara(s) montada(s) similar(es), fuentes de luz, etc.
Haciendo referencia a las figuras 2A y 2B, el dispositivo electrónico 100, tal como la que se ilustra en la figura 1, se muestra además que incluye una capa de conformación de campo de luz (LFSL) 200 superpuesta sobre una pantalla 120 de la misma y separada de la misma mediante un espaciador transparente 310 u otros medios que puedan ser fácilmente evidentes para el experto en la técnica. También se incluye un protector de pantalla transparente 320 opcional encima de la capa 200.
Por motivos de ilustración, las siguientes realizaciones se describirán dentro del contexto de una capa de conformación de campo de luz definida, al menos en parte, por una matriz de lentes que comprende una matriz de microlentes (también denominadas indistintamente en el presente documento lentes) que están dispuestas cada una a una distancia de un subconjunto correspondiente de píxeles de representación de imágenes en una pantalla digital subyacente. Se apreciará que si bien se puede fabricar y disponer una capa formadora de campo de luz como una superposición de pantalla digital, También se pueden considerar otros conceptos integrados, por ejemplo, donde los elementos que dan forma al campo de luz están formados o fabricados integralmente dentro de los componentes integrales de una pantalla digital, tal como una placa de vidrio texturizada o enmascarada, fuentes de luz que forman el haz (por ejemplo, fuentes de luz direccionales y/o conjunto de rejillas ópticas integradas retroiluminadas) o componente similar.
Por consiguiente, cada lente dará forma predictiva a la luz que emana de estos subconjuntos de píxeles para controlar al menos parcialmente los rayos de luz que el dispositivo de pantalla proyecta hacia el usuario. Como se ha indicado anteriormente, también se pueden considerar en el presente documento otras capas formadoras de campos luminosos sin apartarse del alcance general y la naturaleza de la presente divulgación, por lo que el experto en la técnica entenderá que la conformación del campo de luz hace referencia a medidas mediante las cuales la luz, que de otro modo emanaría indiscriminadamente (es decir, isotrópicamente) de cada grupo de píxeles, se controla deliberadamente para definir rayos de luz predecibles que se pueden rastrear entre el usuario y los píxeles del dispositivo a través de la capa de conformación.
Para mayor claridad, Un campo de luz se define generalmente como una función vectorial que describe la cantidad de luz que fluye en todas direcciones a través de cada punto del espacio. En otras palabras, todo lo que produce o refleja luz tiene un campo de luz asociado. Las realizaciones descritas en el presente documento producen campos de luz a partir de un objeto que no son funciones vectoriales "naturales" que uno esperaría observar en ese objeto. Esto le da la capacidad de emular los campos de luz "naturales" de objetos que no existen físicamente, tal como una pantalla virtual ubicada muy detrás de la pantalla del campo de luz, que se puede denominar ahora como 'la imagen virtual'. Como se indica en los siguientes ejemplos, en algunas realizaciones, la representación del campo de luz se puede ajustar para generar efectivamente una imagen virtual en un plano de imagen virtual que se establece a una distancia designada desde una ubicación de la pupila del usuario de entrada, por ejemplo, entonces, para retroceder o avanzar de manera efectiva, una imagen percibida en relación con el dispositivo de pantalla para adaptarse a la agudeza visual reducida de un usuario (por ejemplo, distancia de visualización mínima o máxima). En otras realizaciones más, la representación del campo de luz puede, en lugar o alternativamente, buscar mapear la imagen de entrada en un plano de la retina del usuario, teniendo en cuenta las aberraciones visuales, para ajustar de forma adaptativa la representación de la imagen de entrada en el dispositivo de pantalla para producir el efecto mapeado. En concreto, donde la imagen de entrada no ajustada normalmente se enfocaría delante o detrás del plano de la retina (y/o estaría sujeta a otras aberraciones ópticas), este enfoque permite mapear la imagen deseada en el plano de la retina y trabajar a partir de ella para abordar las aberraciones ópticas designadas en consecuencia. Usando este enfoque, el dispositivo puede además interpretar y calcular computacionalmente distancias de imágenes virtuales que tienden al infinito, por ejemplo, para casos extremos de presbicia. Este enfoque también puede permitir más fácilmente, como se apreciará mediante la descripción a continuación, para la adaptabilidad a otras aberraciones visuales que pueden no modelarse tan fácilmente utilizando una imagen virtual y una implementación de plano de imagen. En ambos ejemplos, y realizaciones similares, la imagen de entrada se mapea digitalmente a un plano de imagen ajustado (por ejemplo, plano de imagen virtual o plano de retina) designado para proporcionar al usuario un ajuste de percepción de imagen designado que aborda al menos parcialmente las aberraciones visuales designadas. Naturalmente, si bien las aberraciones visuales pueden abordarse utilizando estos enfoques, también se pueden implementar otros efectos visuales usando técnicas similares.
En un ejemplo, aplicar esta tecnología a la corrección de la visión, consideremos primero la capacidad normal del cristalino de un ojo, como se ilustra esquemáticamente en la figura 3A, donde, para una visión normal, la imagen está a la derecha del ojo (C) y se proyecta a través del cristalino (B) hasta la retina en la parte posterior del ojo (A). Como se muestra de manera comparativa en la figura 3B, la mala forma del cristalino (F) en la presbicia hace que la imagen se enfoque más allá de la retina (D) formando una imagen borrosa en la retina (E). Las líneas de puntos delinean trayectoria de un haz de luz (G). Naturalmente, otras aberraciones visuales pueden tener y tendrán diferentes impactos en la formación de imágenes en la retina. Para abordar estas aberraciones, una pantalla de campo de luz (K), de acuerdo con algunas realizaciones, proyecta la imagen nítida correcta (H) en la parte posterior de la retina para un ojo con una lente que de otro modo no podría ajustarse lo suficiente para producir una imagen nítida. Los otros dos píxeles del campo de luz (I) y (J) se dibujan ligeramente, pero de lo contrario completaría el resto de la imagen.
Como apreciará el experto en la materia, un campo de luz como el que se ve en la figura 3C no se puede producir con una pantalla bidimensional "normal" porque el campo de luz de los píxeles emite luz de forma isotrópica. En lugar de ello, es necesario ejercer un estricto control sobre el ángulo y el origen de la luz emitida, por ejemplo, usando una matriz de microlentes u otra capa formadora de campo de luz tal como una barrera de paralaje, o una combinación de las mismas.
Siguiendo con el ejemplo de una matriz de microlentes, la figura 4 ilustra esquemáticamente un único píxel de campo de luz definido por una microlente convexa (B) dispuesta en su foco a partir de un subconjunto correspondiente de píxeles en una pantalla LCD (C) para producir un haz de luz sustancialmente colimado emitido por estos píxeles, mediante el cual la dirección del haz está controlada por la ubicación del(los) píxel(es) con respecto a la microlente. El único píxel del campo de luz produce un haz similar al que se muestra en la figura 3C, donde los rayos exteriores son más claros y la mayoría de los rayos interiores son más oscuros. La pantalla LCD (C) emite luz que incide en la microlente (B) y da como resultado un haz de luz sustancialmente colimada (A).
Por consiguiente, al alinear de manera predecible una matriz de microlentes particular con una matriz de píxeles, un "círculo" designado de píxeles se corresponderá con cada microlente y será responsable de entregar luz a la pupila a través de esa lente. La figura 5 ilustra esquemáticamente un ejemplo de un conjunto de pantalla de campo de luz en el que un conjunto de microlentes (A) se ubica encima de una pantalla LCD en un teléfono celular (C) para que los píxeles (B) emitan luz a través del conjunto de microlentes. Por tanto, se puede utilizar un algoritmo de trazado de rayos para producir un patrón que se mostrará en la matriz de píxeles debajo de la microlente para crear la imagen virtual deseada que corregirá eficazmente la agudeza visual reducida del espectador. La figura 6 proporciona un ejemplo de dicho patrón para la letra "Z". A continuación, se analizan ejemplos de dichos algoritmos de trazado de rayos.
Como se detallará mejor más adelante, la separación entre la matriz de microlentes y la matriz de píxeles, así como el paso de las lentes, se pueden seleccionar en función de diversas características operativas, tal como la distancia de funcionamiento normal o promedio de la pantalla y/o los niveles de luz ambiental de funcionamiento normales o promedio.
Además, ya que producir un campo de luz con resolución angular suficiente para la corrección de acomodación en toda la "zona" de visualización de una pantalla requeriría generalmente una densidad de píxeles astronómicamente alta, en su lugar, se puede producir un campo de luz correcto, en algunas realizaciones, solo en o alrededor de la ubicación de las pupilas del usuario. Para hacerlo, la pantalla de campo de luz se puede combinar con la tecnología de seguimiento de pupila para rastrear la ubicación de los ojos/pupilas del usuario en relación con la pantalla. Luego, la pantalla puede compensar la ubicación de los ojos del usuario y producir la imagen virtual correcta, por ejemplo, en tiempo real.
En algunas realizaciones, la pantalla de campo de luz puede representar imágenes dinámicas a más de 30 fotogramas por segundo en el hardware de un teléfono inteligente.
En algunas realizaciones, la pantalla del campo de luz puede mostrar una imagen virtual en el infinito óptico, lo que significa que se puede corregir cualquier nivel de presbicia basada en la acomodación (por ejemplo, de primer orden).
En algunas realizaciones adicionales, la pantalla del campo de luz puede empujar la imagen hacia atrás o hacia adelante, permitiendo así correcciones de imagen selectivas tanto para hipermetropía como para miopía.
Para demostrar una solución de campo de luz de trabajo, y de acuerdo con una realización, se configuró la siguiente prueba. Una cámara estaba equipada con una lente simple, para simular la lente de un ojo humano y la apertura se ajustó para simular un diámetro de pupila normal. La lente se enfocó a 50 cm de distancia y se montó un teléfono a 25 cm de distancia. Esto se aproximaría a un usuario cuya distancia de visión mínima es de 50 cm y está intentando utilizar un teléfono a 25 cm.
Con gafas para leer, serían necesarias 2,0 dioptrías para la corrección de la visión. Se mostró una tabla de Snellen a escala en el teléfono celular y se tomó una fotografía, como se muestra en la figura 7A. Usando el mismo teléfono celular, pero con un conjunto de campo de luz en el frente que usa la matriz de píxeles de ese teléfono celular, Se muestra una imagen virtual que compensa el enfoque de la lente. Se volvió a tomar una fotografía, como se muestra en la figura 7B, mostrando una clara mejoría.
Las figuras 9A y 9B proporcionan otro ejemplo de resultados logrados usando una realización de ejemplo, en el que se mostraba una imagen en color en la pantalla LCD de un teléfono Sony™ Xperia™ XZ Premium (resolución de pantalla reportada de 3840x2160 píxeles con una relación de 16:9 y una densidad de aproximadamente 807 píxeles por pulgada (ppi)) sin corrección de imagen (figura 9A) y con corrección de imagen a través de una matriz de microlentes cuadradas de sílice fundida colocada en un ángulo de 2 grados con respecto a la matriz de píxeles cuadrados de la pantalla y definida por microlentes que tienen un enfoque de 7,0 mm y un paso de 200 μm. En este ejemplo, la lente de la cámara se volvió a enfocar a 50 cm con el teléfono colocado a 30 cm de distancia. Se utilizó otra matriz de microlentes para producir resultados similares y consistía en microlentes con un enfoque de 10,0 mm y un paso de 150 μm.
Las figuras 10A y 10B proporcionan aún otro ejemplo de resultados logrados usando una realización de ejemplo, en la que se mostraba una imagen en color en la pantalla LCD de un teléfono Sony™ Xperia™ XZ Premium sin corrección de imagen (figura 10A) y con corrección de imagen a través de una matriz cuadrada de microlentes de sílice fundida colocada en un ángulo de 2 grados con respecto al cuadrado de la pantalla. matriz de píxeles y definida por microlentes con un enfoque de 10,0 mm y un paso de 150 μm. En este ejemplo, la lente de la cámara se enfocó a 66 cm con el teléfono colocado a 40 cm de distancia.
Por consiguiente, un dispositivo de pantalla como se describe anteriormente y se ejemplifica adicionalmente a continuación, se puede configurar para representar una imagen corregida a través de la capa de configuración del campo de luz que se adapta a la agudeza visual del usuario. Al ajustar la corrección de la imagen de acuerdo con la predefinición real del usuario, establecer o seleccionar el nivel de agudeza visual, se pueden adaptar diferentes usuarios y agudezas visuales utilizando la misma configuración de dispositivo. Es decir, en un ejemplo, ajustando los datos de píxeles de la imagen correctiva para ajustar dinámicamente una distancia de imagen virtual debajo/arriba de la pantalla tal como se representa a través de la capa de conformación del campo de luz, se pueden adaptar diferentes niveles de agudeza visual.
Como apreciará el experto en la materia, se pueden considerar diferentes técnicas de procesamiento de imágenes, tal como los presentados anteriormente e impartidos por Pamplona y/o Huang, por ejemplo, que también puede influir en otros parámetros del campo de luz para lograr la corrección de imagen adecuada, resolución de imagen virtual, brillo y similares.
Con referencia a la figura 8, y de acuerdo con una realización, ahora se describirá una configuración de conjunto de microlentes, de acuerdo con otra realización, para proporcionar elementos de configuración de campo de luz en una implementación de campo de luz correctiva. En esta realización, la matriz de microlentes 800 está definida por una matriz hexagonal de microlentes 802 dispuestas de manera que se superpongan a una matriz de píxeles cuadrados 804 correspondiente. Haciéndolo así, mientras que cada microlente 802 puede alinearse con un subconjunto designado de píxeles para producir píxeles de campo de luz como se describió anteriormente, el desajuste de la matriz hexagonal a cuadrada puede aliviar ciertos artefactos ópticos periódicos que de otro modo podrían manifestarse dada la naturaleza periódica de los elementos ópticos y principios en los que se confía para producir las correcciones de imagen óptica deseadas. A la inversa, se puede preferir una matriz de microlentes cuadrada cuando se opera una pantalla digital que comprende una matriz de píxeles hexagonales.
En algunas realizaciones, como se ilustra en la figura 8, la matriz de microlentes 800 puede superponerse adicionalmente o alternativamente en un ángulo 806 con respecto a la matriz de píxeles subyacente, que puede aumentar o, alternativamente, aliviar los artefactos ópticos de época.
En aún otras realizaciones alternativas o adicionales, se puede seleccionar deliberadamente una relación de paso entre la matriz de microlentes y la matriz de píxeles para aumentar o, alternativamente, aliviar los artefactos ópticos periódicos. Por ejemplo, una relación de paso perfectamente adaptada (es decir, un número entero exacto de píxeles de pantalla por microlente) tiene más probabilidades de inducir artefactos ópticos periódicos, mientras que una discrepancia en la relación de tono puede ayudar a reducir tales sucesos. Por consiguiente, en algunas realizaciones, la relación de paso se seleccionará para definir un número irracional, o al menos, una proporción irregular, para minimizar los artefactos ópticos periódicos. Por ejemplo, se puede definir una periodicidad estructural para reducir el número de apariciones periódicas dentro de las dimensiones de la pantalla de visualización en cuestión, por ejemplo, idealmente seleccionado para definir un período estructural que sea mayor que el tamaño de la pantalla que se utiliza.
Si bien este ejemplo se proporciona dentro del contexto de una matriz de microlentes, se pueden aplicar consideraciones de diseño estructural similares dentro del contexto de una barrera de paralaje, barrera difractiva o combinación de las mismas.
Con referencia a las figuras 11 a 13, y de acuerdo con una realización, un método de trazado de rayos implementado computacionalmente de ejemplo para representar una imagen corregida a través de una matriz de elementos formadores de campos de luz, en este ejemplo proporcionado por una capa de conformación de campo de luz (LFSL) dispuesta con respecto a un conjunto de píxeles de pantalla subyacentes, que se adapta a la agudeza visual reducida del usuario, se describirá ahora. En esta realización ilustrativa, se puede predeterminar un conjunto de parámetros constantes 1102. Estos pueden incluir, por ejemplo, cualquier dato que no se espera que cambie significativamente durante la sesión de visualización de un usuario, por ejemplo, que generalmente se basan en las características físicas y funcionales de la pantalla para la cual se va a implementar el método, como se explicará a continuación. De forma similar, cada iteración del algoritmo de representación puede utilizar un conjunto de variables de entrada 1104 que se espera que cambien en cada iteración de representación o al menos entre las sesiones de visualización de cada usuario.
Como se ilustra en la figura 12, la lista de parámetros constantes 1102 puede incluir, sin limitaciones, la distancia 1204 entre la pantalla y el LFSL, el ángulo de rotación en el plano 1206 entre la pantalla y los marcos de referencia LFSL, la resolución de pantalla 1208, el tamaño de cada píxel individual 1210, la geometría óptica LFSL 1212, el tamaño de cada elemento óptico 1214 dentro del LFSL y opcionalmente el diseño de subpíxeles 1216 de la pantalla. Además, tanto la resolución de pantalla 1208 como el tamaño de cada píxel individual 1210 pueden usarse para predeterminar tanto el tamaño absoluto de la pantalla en unidades reales (es decir, en mm) como la posición tridimensional de cada píxel dentro de la pantalla. En algunas realizaciones donde el diseño de subpíxeles 1216 está disponible, la posición dentro de la pantalla de cada subpíxel también puede estar predeterminada. Estas ubicaciones/posiciones tridimensionales generalmente se calculan utilizando un marco de referencia determinado ubicado en algún lugar dentro del plano de la pantalla, por ejemplo, una esquina o el centro de la pantalla, aunque se pueden elegir otros puntos de referencia. Con respecto a la geometría de la capa óptica 1212, se pueden considerar diferentes geometrías, por ejemplo, una geometría hexagonal como la que se muestra en la figura 8. Finalmente, combinando la distancia 1204, el ángulo de rotación 1206, y la geometría 1212 con el tamaño del elemento óptico 1214, es posible predeterminar de manera similar la ubicación/posición tridimensional de cada centro de elemento óptico con respecto al mismo marco de referencia de la pantalla.
Mientras tanto, la figura 13 enumera ilustrativamente un conjunto de ejemplo de variables de entrada 1104 para el método 1100, que puede incluir cualquier dato de entrada introducido en el método 1100 que pueda cambiar razonablemente durante la sesión de visualización única de un usuario y, por lo tanto, puede incluir, sin limitación: la(s) imagen(es) que se mostrarán 1306 (por ejemplo, datos de píxeles tales como encendido/apagado, color, brillo, etc.), la ubicación tridimensional de la pupila 1308 (por ejemplo, en realizaciones que implementan métodos de seguimiento activo de ojo/pupila) y/o el tamaño de la pupila 1312 y la distancia mínima de lectura 1310 (por ejemplo, uno o más parámetros representativos de la agudeza o condición visual reducida del usuario). En algunas realizaciones, la profundidad del ojo 1314 también puede usarse. Los datos de imagen 1306, por ejemplo, pueden ser representativo de una o más imágenes digitales que se mostrarán con la pantalla de píxeles digital. Esta imagen generalmente puede codificarse en cualquier formato de datos utilizado para almacenar imágenes digitales conocidas en la técnica. En algunas realizaciones, las imágenes 1306 que se mostrarán pueden cambiar a una velocidad de fotogramas determinada.
La ubicación de la pupila 1308, en una realización, son las coordenadas tridimensionales de al menos un centro de la pupila del usuario con respecto a un marco de referencia dado, por ejemplo, un punto en el dispositivo o la pantalla. Esta ubicación de pupila 1308 puede derivarse de cualquier método de seguimiento de ojo/pupila conocido en la técnica. En algunas realizaciones, la ubicación de la pupila 1308 puede determinarse antes de cualquier nueva iteración del algoritmo de representación, o en otros casos, a una velocidad de fotogramas más baja. En algunas realizaciones, solo se puede determinar la ubicación de la pupila del ojo de un único usuario, por ejemplo, el ojo dominante del usuario (es decir, aquel en el que el usuario confía principalmente). En algunas realizaciones, esta posición, y en particular la distancia de la pupila a la pantalla, puede de otro modo o adicionalmente aproximarse o ajustarse en función de otros parámetros contextuales o ambientales, tal como una distancia promedio o preestablecida del usuario a la pantalla (por ejemplo, distancia de lectura típica para un usuario o grupo de usuarios determinado); almacenada, distancia del conductor establecida o ajustable en un entorno vehicular; etc.).
En la realización ilustrada, la distancia mínima de lectura 1310 se define como la distancia mínima de enfoque para la lectura que los ojos del usuario pueden acomodar (es decir, capaz de ver sin molestias). En algunas realizaciones, se pueden introducir diferentes valores de la distancia mínima de lectura 1310 asociados con diferentes usuarios, por ejemplo, al igual que se pueden considerar otros parámetros de corrección de la visión adaptativa dependiendo de la aplicación en cuestión y de la corrección de la visión que se esté abordando. En algunas realizaciones, la distancia mínima de lectura 1310 puede derivarse de una prescripción ocular (por ejemplo, prescripción de gafas o prescripción de lentes de contacto) o similar. Puede, por ejemplo, corresponder a la distancia del punto cercano correspondiente al ojo del usuario sin corregir, que se puede calcular a partir de la potencia de la lente correctiva prescrita suponiendo que el punto cercano objetivo estaba a 25 cm.
Con referencia adicional a las figuras 14A a 14C, una vez configurados los parámetros 1102 y las variables 1104, el método de la figura 11 sigue luego a la etapa 1106, en la que la distancia de lectura mínima 1310 (y/o parámetros relacionados) se usa para calcular la posición de un plano de imagen virtual (ajustado) 1405 con respecto a la pantalla del dispositivo, seguida de la etapa 1108 en la que el tamaño de la imagen 1306 se escala dentro del plano de la imagen 1405 para garantizar que llena correctamente la pantalla de píxeles 1401 cuando la ve el usuario distante. Esto se ilustra en la figura 14A, que muestra un diagrama del posicionamiento relativo de la pupila del usuario 1415, la capa de conformación del campo de luz 1403, la pantalla de píxeles 1401 y el plano de imagen virtual 1405. En este ejemplo, el tamaño de la imagen 1306 en el plano de imagen 1405 aumenta para evitar que la imagen percibida por el usuario parezca más pequeña que el tamaño de la pantalla.
Una metodología de trazado de rayos de ejemplo se describe en las etapas 1110 a 1128 de la figura 11, al final del cual se conoce el color de salida de cada píxel de la pantalla de píxeles 1401 para reproducir virtualmente el campo de luz que emana de una imagen 1306 colocada en el plano de imagen virtual 1405. En la figura 11, estas etapas se ilustran en un bucle sobre cada píxel en la pantalla de píxeles 1401, de modo que cada una de las etapas 1110 a 1126 describa los cálculos realizados para cada píxel individual. Sin embargo, en algunas realizaciones, estos cálculos no necesitan ejecutarse secuencialmente, sino que, por el contrario, las etapas 1110 a 1128 pueden ejecutarse en paralelo para cada píxel o un subconjunto de píxeles al mismo tiempo. De hecho, como se expondrá más adelante, este método de ejemplo es muy adecuado para la vectorización y la implementación en arquitecturas de procesamiento altamente paralelas, como las GPU.
Como se ilustra en la figura 14A, en la etapa 1110, para un píxel dado 1409 en la pantalla de píxeles 1401, primero se genera un vector de prueba 1413 desde la posición del píxel hasta la posición central 1417 de la pupila 1415. A esto le sigue en la etapa 1112 el cálculo del punto de intersección 1411 del vector 1413 con el LFSL 1403.
El método luego encuentra, en la etapa 1114, las coordenadas del centro 1416 del elemento óptico LFSL más cercano al punto de intersección 1411. Esta etapa puede ser intensiva desde el punto de vista computacional y se analizará con más profundidad a continuación. Una vez conocida la posición del centro 1416 del elemento óptico, en la etapa 1116, se genera un vector de rayos unitarios normalizado a partir del dibujo y la normalización de un vector 1423 dibujado desde la posición central 1416 hasta el píxel 1409. Este vector de rayo unitario generalmente se aproxima a la dirección del campo luminoso que emana del píxel 1409 a través de este elemento de campo de luz particular, por ejemplo, al considerar una apertura de barrera de paralaje o una matriz de lentes (es decir, donde la trayectoria de la luz que viaja a través del centro de una lente determinada no se desvía por esta lente). Es posible que se requieran cálculos adicionales al abordar elementos de configuración de luz más complejos, como apreciará el experto en la materia. La dirección de este vector de rayo se utilizará para encontrar la porción de la imagen 1306 y, por tanto, el color asociado, representado por el píxel 1409. Pero primero, en la etapa 1118, este vector de rayo se proyecta hacia atrás al plano de la pupila 1415, y luego en la etapa 1120, el método verifica que el vector de rayo proyectado 1425 todavía está dentro de la pupila 1415 (es decir, que el usuario todavía puede "verlo"). Una vez que la posición de intersección, por ejemplo, la ubicación 1431 en la figura 14B, del vector de rayos proyectado 1425 con el plano de la pupila es conocido, la distancia entre el centro de la pupila 1417 y el punto de intersección 1431 se puede calcular para determinar si la desviación es aceptable, por ejemplo, utilizando un tamaño de pupila predeterminado y verificando qué tan lejos está el vector del rayo proyectado del centro de la pupila.
Si se considera que esta desviación es demasiado grande (es decir, la luz que emana del píxel 1409 canalizada a través del elemento óptico 1416 no es percibida por la pupila 1415), entonces en la etapa 1122, el método marca el píxel 1409 como innecesario y simplemente debe desactivarse o mostrarse en color negro. De lo contrario, como se muestra en la figura 14C, en la etapa 1124, el vector de rayo se proyecta una vez más hacia el plano de imagen virtual 1405 para encontrar la posición del punto de intersección 1423 en la imagen 1306. Entonces en la etapa 1126, el píxel 1409 está marcado como si tuviera el valor de color asociado con la parte de la imagen 1306 en el punto de intersección 1423.
En algunas realizaciones, el método 1100 se modifica de modo que en la etapa 1120, en lugar de tener una elección binaria entre el vector del rayo que golpea la pupila o no, una o más funciones de interpolación suave (es decir, interpolación lineal, interpolación de Hermite o similar) se utilizan para cuantificar qué tan lejos o qué tan cerca está el punto de intersección 1431 del centro de la pupila 1417 generando un valor continuo correspondiente entre 1 o 0. Por ejemplo, el valor asignado es igual a 1 sustancialmente cerca del centro de la pupila 1417 y cambia gradualmente a 0 cuando el punto de intersección 1431 se acerca sustancialmente a los bordes de la pupila o más allá. En este caso, la rama que contiene la etapa 1122 se ignora y la etapa 1220 continúa hasta la etapa 1124. En la etapa 1126, el valor de color de píxel asignado al píxel 1409 se elige para que esté en algún lugar entre el valor de color completo de la parte de la imagen 1306 en el punto de intersección 1423 o negro, dependiendo del valor de la función de interpolación utilizada en la etapa 1120 (1 o 0).
En otras realizaciones más, los píxeles que iluminan un área designada alrededor de la pupila aún se pueden representar, por ejemplo, para producir una zona de amortiguamiento para acomodar pequeños movimientos en la ubicación de los alumnos, por ejemplo, o de nuevo, para abordar posibles imprecisiones, desalineaciones o para crear una mejor experiencia de usuario.
En algunas realizaciones, las etapas 1118, 1120 y 1122 pueden evitarse por completo, en lugar de ello, el método va directamente de la etapa 1116 a la etapa 1124. En dicha realización a modo de ejemplo, no se comprueba si el vector del rayo incide o no en la pupila, pero en cambio el método supone que siempre es así.
Una vez que se hayan determinado los colores de salida de todos los píxeles, estos finalmente se representan en la etapa 1130 mediante la pantalla de píxeles 1401 para ser vistos por el usuario, por lo tanto, presenta una imagen corregida por el campo de luz. En el caso de un único imagen estática, el método puede detenerse aquí. Sin embargo, se pueden ingresar nuevas variables de entrada y la imagen se puede actualizar con cualquier frecuencia deseada, por ejemplo, porque la pupila del usuario se mueve en función del tiempo y/o porque en lugar de una única imagen se muestran una serie de imágenes a una velocidad de fotogramas determinada.
Con referencia a las figuras 19 y 20A a 20D, y de acuerdo con una realización, otro método de trazado de rayos implementado computacionalmente de ejemplo para representar una imagen ajustada a través de la capa de conformación del campo de luz (LFSL) que se adapta a la agudeza visual reducida del usuario, por ejemplo, se describirá ahora. En esta realización, la porción de imagen ajustada asociada con un píxel/subpíxel dado se calcula (mapea) en el plano de la retina en lugar del plano de imagen virtual considerado en el ejemplo anterior, nuevamente para proporcionar al usuario un ajuste de percepción de imagen designado. Por lo tanto, la realización de ejemplo discutida actualmente comparte algunas etapas con el método de la figura 11. De hecho, también se puede predeterminar un conjunto de parámetros constantes 1102. Estos pueden incluir, por ejemplo, cualquier dato que no se espera que cambie significativamente durante la sesión de visualización de un usuario, por ejemplo, que generalmente se basan en las características físicas y funcionales de la pantalla para la cual se va a implementar el método, como se explicará a continuación. De forma similar, cada iteración del algoritmo de representación puede utilizar un conjunto de variables de entrada 1104 que se espera que cambien en cada iteración de representación o al menos entre cada sesión de visualización del usuario. La lista de posibles variables y constantes es sustancialmente la misma que la revelada en las figuras 12 y 13 y, por lo tanto, no se replicará aquí.
Una vez establecidos los parámetros 1102 y las variables 1104, esta segunda metodología de ejemplo de trazado de rayos procede de las etapas 1910 a 1936, al final de las cuales se conoce el color de salida de cada píxel de la pantalla de píxeles para reproducir virtualmente el campo luminoso que emana de una imagen percibida como situada a la distancia de imagen correcta o ajustada, en un ejemplo, para permitir al usuario enfocarse adecuadamente en esta imagen ajustada (es decir, tener una imagen enfocada proyectada en la retina del usuario) a pesar de una aberración visual cuantificada. En la figura 19, estas etapas se ilustran en un bucle sobre cada píxel en la pantalla de píxeles 1401, de modo que cada una de las etapas 1910 a 1934 describa los cálculos realizados para cada píxel individual. Sin embargo, en algunas realizaciones, estos cálculos no necesitan ejecutarse secuencialmente, sino que, por el contrario, las etapas 1910 a 1934 pueden ejecutarse en paralelo para cada píxel o un subconjunto de píxeles al mismo tiempo. De hecho, como se expondrá más adelante, este segundo método de ejemplo también es muy adecuado para la vectorización y la implementación en arquitecturas de procesamiento altamente paralelas, como las GPU.
Haciendo referencia una vez más a la figura 14A, en la etapa 1910 (como en la etapa 1110), para un píxel dado en la pantalla de píxeles 1401, primero se genera un vector de prueba 1413 desde la posición del píxel hasta el centro de la pupila 1417 de la pupila 1415 del usuario. A esto le sigue en la etapa 1912 el cálculo del punto de intersección del vector 1413 con la capa óptica 1403.
Desde allí, en la etapa 1914, se determinan las coordenadas del centro del elemento óptico 1416 más cercano al punto de intersección 1411. Esta etapa puede ser intensiva desde el punto de vista computacional y se analizará con más profundidad a continuación. Como se muestra en la figura 14B, una vez conocida la posición del centro del elemento óptico 1416, en la etapa 1916, se genera un vector de rayo unitario normalizado a partir del dibujo y la normalización de un vector 1423 dibujado desde el centro 1416 del elemento óptico hasta el píxel 1409. Este vector de rayo unitario generalmente se aproxima a la dirección del campo luminoso que emana del píxel 1409 a través de este elemento de campo de luz particular, por ejemplo, al considerar una apertura de barrera de paralaje o una matriz de lentes (es decir, donde la trayectoria de la luz que viaja a través del centro de una lente determinada no se desvía por esta lente). Es posible que se requieran cálculos adicionales al abordar elementos de configuración de luz más complejos, como apreciará el experto en la materia. En la etapa 1918, este vector de rayos se proyecta hacia atrás hasta la pupila 1415, y luego en la etapa 1920, el método garantiza que el vector de rayo proyectado 1425 todavía esté dentro de la pupila 1415 (es decir, que el usuario todavía pueda "verlo"). Una vez que la posición de intersección, por ejemplo, la ubicación 1431 en la figura 14B, del vector de rayos proyectado 1425 con el plano de la pupila es conocido, la distancia entre el centro de la pupila 1417 y el punto de intersección 1431 se puede calcular para determinar si la desviación es aceptable, por ejemplo, utilizando un tamaño de pupila predeterminado y verificando qué tan lejos está el vector del rayo proyectado del centro de la pupila.
Ahora haciendo referencia a las figuras 20A a 20D, se describirán las etapas 1921 a 1929 del método 1900. Una vez que se ha determinado el centro del elemento óptico 1416 de la unidad óptica relevante, en la etapa 1921, se dibuja un vector 2004 desde el centro 1416 del elemento óptico hasta el centro 1417 de la pupila. A continuación, en la etapa 1923, el vector 2004 se proyecta más detrás del plano de la pupila sobre el plano focal 2006 (lugar donde el ojo enfocaría cualquier rayo de luz que se origine desde la capa óptica 1403) para localizar el punto focal 2008. Para un usuario con una visión perfecta, el plano focal 2006 estaría ubicado en el mismo lugar que el plano de retina 2010, pero en este ejemplo, el plano focal 2006 está situado detrás del plano de la retina 2010, lo que se esperaría de un usuario con algún tipo de hipermetropía. La posición del plano focal 2006 puede derivarse de la distancia de lectura mínima 1310 del usuario, por ejemplo, derivando de allí la distancia focal del ojo del usuario. También se pueden considerar, o alternativamente, otros medios ingresados manualmente o computacional o dinámicamente ajustables para cuantificar este parámetro.
El experto en la técnica observará que cualquier rayo de luz que se origine desde el centro del elemento óptico 1416, no importa su orientación, También se centrará en el punto focal 2008, en una primera aproximación. Por lo tanto, la ubicación en el plano de la retina 2010 en la que convergerá la luz que ingresa a la pupila en el punto de intersección 1431 puede aproximarse dibujando una línea recta entre el punto de intersección 1431 donde el vector de rayo 1425 incide en la pupila 1415 y el punto focal 2008 en el plano focal 2006. La intersección de esta línea con el plano de la retina 2010 (punto de imagen de la retina 2012) es, por lo tanto, la ubicación en la retina del usuario correspondiente a la porción de la imagen que será reproducida por el píxel 1409 correspondiente tal como lo percibe el usuario. Por lo tanto, comparando la posición relativa del punto de la retina 2012 con la posición general de la imagen proyectada en el plano de la retina 2010, se puede calcular la porción de imagen ajustada relevante asociada con el píxel 1409.
Para hacerlo, en la etapa 1927, se calcula la posición central de la imagen proyectada correspondiente en el plano de la retina 2010. El vector 2016 se genera originándose desde la posición central de la pantalla 1401 (posición central de la pantalla 2018) y pasando por el centro de la pupila 1417. El vector 2016 se proyecta más allá del plano de la pupila sobre el plano de la retina 2010, en el que el punto de intersección asociado proporciona la ubicación del correspondiente centro de imagen de retina 2020 en el plano de la retina 2010. El técnico experto entenderá que la etapa 1927 podría realizarse en cualquier momento antes de la etapa 1929, una vez que se conoce la ubicación relativa del centro de la pupila 1417 en la etapa de variables de entrada 1904. Una vez conocido el centro de imágenes 2020, entonces se puede encontrar la porción de imagen correspondiente del píxel/subpíxel seleccionado en la etapa 1929 calculando las coordenadas x/y del punto de imagen de la retina 2012 con respecto al centro de la imagen de la retina 2020 en la retina, escalada al tamaño de imagen de retina x/y 2031.
Este tamaño de imagen de retina 2031 se puede calcular calculando la ampliación de un píxel individual en el plano de retina 2010, por ejemplo, que puede ser aproximadamente igual a la dimensión xoy de un píxel individual multiplicada por la profundidad del ojo 1314 y dividida por el valor absoluto de la distancia al ojo (es decir, la ampliación del tamaño de la imagen del píxel desde la lente del ojo). De forma similar, para fines de comparación, la imagen de entrada también se escala según las dimensiones x/y de la imagen para producir una imagen de entrada escalada 2064 correspondiente. Tanto la imagen de entrada escalada como la imagen de retina escalada deben tener un ancho y alto entre -0,5 y 0,5 unidades, permitiendo una comparación directa entre un punto en la imagen de retina escalada 2010 y la imagen de entrada escalada 2064 correspondiente, como se muestra en la figura 20D.
Desde allí, la posición de la porción de imagen 2041 con respecto a la posición central de la imagen de la retina 2043 en las coordenadas escaladas (imagen de entrada escalada 2064) corresponde a las coordenadas escaladas inversas (porque la imagen en la retina está invertida) del punto de la imagen de la retina 2012 con respecto al centro de la imagen de la retina 2020. El color asociado con la posición de la porción de imagen 2041 se extrae de ahí y se asocia con el píxel 1409.
En algunas realizaciones, el método 1900 puede modificarse de modo que en la etapa 1920, en lugar de tener una elección binaria entre el vector del rayo que golpea la pupila o no, una o más funciones de interpolación suave (es decir, interpolación lineal, interpolación de Hermite o similar) se utilizan para cuantificar qué tan lejos o qué tan cerca está el punto de intersección 1431 del centro de la pupila 1417 generando un valor continuo correspondiente entre 1 o 0. Por ejemplo, el valor asignado es igual a 1 sustancialmente cerca del centro de la pupila 1417 y cambia gradualmente a 0 cuando el punto de intersección 1431 se acerca sustancialmente a los bordes de la pupila o más allá. En este caso, la rama que contiene la etapa 1122 se ignora y la etapa 1920 continúa hasta la etapa 1124. En la etapa 1931, el valor de color de píxel asignado al píxel 1409 se elige para que esté en algún lugar entre el valor de color completo de la parte de la imagen 1306 en el punto de intersección 1423 o negro, dependiendo del valor de la función de interpolación utilizada en la etapa 1920 (1 o 0).
En otras realizaciones más, los píxeles que iluminan un área designada alrededor de la pupila aún se pueden representar, por ejemplo, para producir una zona de amortiguamiento para acomodar pequeños movimientos en la ubicación de los alumnos, por ejemplo, o de nuevo, para abordar posibles imprecisiones o desalineaciones.
Una vez que se han determinado los colores de salida de todos los píxeles en la pantalla (la verificación en la etapa 1934 es verdadera), estos finalmente se representan en la etapa 1936 mediante la pantalla de píxeles 1401 para ser vistos por el usuario, por lo tanto, presenta una imagen corregida por el campo de luz. En el caso de un único imagen estática, el método puede detenerse aquí. Sin embargo, se pueden ingresar nuevas variables de entrada y la imagen se puede actualizar con cualquier frecuencia deseada, por ejemplo, porque la pupila del usuario se mueve en función del tiempo y/o porque en lugar de una única imagen se muestran una serie de imágenes a una velocidad de fotogramas determinada.
Como apreciará el experto en la materia, la selección del plano de imagen ajustado sobre el cual mapear la imagen de entrada para ajustar la percepción del usuario de esta imagen de entrada permite diferentes enfoques de trazado de rayos para resolver un desafío similar, es decir, crear una imagen ajustada utilizando la pantalla de campo de luz que puede proporcionar una percepción ajustada del usuario, tal como abordar la reducción de la agudeza visual del usuario. Si bien mapear la imagen de entrada a un plano de imagen virtual establecido a una distancia de visualización cómoda mínima (o máxima) designada puede proporcionar una solución, la solución alternativa puede permitir la adaptación de aberraciones visuales diferentes o posiblemente más extremas. Por ejemplo, donde una imagen virtual es idealmente llevada al infinito (o efectivamente así), cálculo de una distancia infinita se vuelve problemática. Sin embargo, designando el plano de la imagen ajustado como el plano de la retina, el proceso ilustrativo de la figura 19 puede acomodar la formación de una imagen virtual efectivamente establecida en el infinito sin invocar tales desafíos computacionales. De igual manera, mientras que las aberraciones de distancia focal de primer orden se describen ilustrativamente con referencia a la figura 19, orden superior u otras anomalías ópticas pueden considerarse dentro del presente contexto, mediante el cual se traza y traza una imagen retiniana deseada teniendo en cuenta la(s) aberración(es) óptica(s) del usuario para calcular los datos de píxeles ajustados que se representarán al producir esa imagen. Estas y otras consideraciones similares deberían ser fácilmente evidentes para el experto en la técnica.
Si bien los cálculos implicados en los algoritmos de trazado de rayos descritos anteriormente (etapas 1110 a 1128 de la figura 11 o etapas 1920 a 1934 de la figura 19) se pueden realizar en CPU generales, puede resultar ventajoso utilizar esquemas de programación altamente paralelos para acelerar dichos cálculos. Mientras que en algunas realizaciones, se pueden utilizar bibliotecas de programación paralela estándar, tal como Message Passing Interface (MPI) u OPENMP, para acelerar la representación del campo de luz a través de una CPU de uso general, los cálculos del campo de luz descritos anteriormente están especialmente diseñados para aprovechar las unidades de procesamiento gráfico (GPU), que están diseñados específicamente para cálculos masivamente paralelos. De hecho, los chips GPU modernos se caracterizan por una gran cantidad de núcleos de procesamiento y un conjunto de instrucciones comúnmente optimizadas para gráficos. En un uso típico, cada núcleo está dedicado a una pequeña vecindad de valores de píxeles dentro de una imagen, por ejemplo, para realizar un procesamiento que aplique un efecto visual, tal como sombreado, niebla, transformacion afin, etc. Las GPU generalmente también están optimizadas para acelerar el intercambio de datos de imágenes entre dichos núcleos de procesamiento y la memoria asociada, tal como memorias intermedidas de fotogramas RGB. Además, los teléfonos inteligentes están cada vez más equipados con potentes GPU para acelerar la representación de pantallas complejas, por ejemplo, para juegos, vídeo y otras aplicaciones con uso intensivo de imágenes. Varios marcos y lenguajes de programación diseñados para programar en GPU incluyen, pero sin limitación, CUDA, OpenCL, Lenguaje de sombreado OpenGL (GLSL), Lenguaje de sombreado de alto nivel (HLSL) o similar. Sin embargo, usar GPU de manera eficiente puede ser un desafío y, por lo tanto, requiere pasos creativos para aprovechar sus capacidades, como se expondrá más adelante.
Con referencia a las figuras 15 a 18C y de acuerdo con una realización de ejemplo, ahora se describirá un proceso de ejemplo para calcular la posición central de un elemento de conformación de campo de luz asociado en el proceso de trazado de rayos de la figura 11 (o figura 19). La serie de etapas está diseñada específicamente para evitar la bifurcación del código, para ser cada vez más eficiente cuando se ejecuta en GPU (es decir, para evitar la llamada "divergencia de deformación"). De hecho, con GPU, porque todos los procesadores deben ejecutar instrucciones idénticas, las bifurcaciones divergentes pueden dar como resultado un rendimiento reducido.
Con referencia a la figura 15, y de acuerdo con una realización, la etapa 1114 de la figura 11 se amplía para incluir las etapas 1515 a 1525. Se puede hacer fácilmente una discusión similar con respecto a la etapa 1914 de la figura 19 y, por lo tanto, no es necesario detallarla explícitamente en el presente documento. El método recibe desde la etapa 1112 las coordenadas 2D del punto de intersección 1411 (ilustrado en la figura 14A) del vector de prueba 1413 con la capa óptica 1403. Como se describe con respecto al ejemplo de realización de la figura 8, puede haber una diferencia en la orientación entre los marcos de referencia de la capa óptica (matriz hexagonal de microlentes 802 en la figura 8, por ejemplo) y de la pantalla de píxeles correspondiente (matriz de píxeles cuadrados 804 en la figura 8, por ejemplo). Esta es la razón por la que, en la etapa 1515, estas coordenadas de intersección de entrada, que se calculan inicialmente a partir del marco de referencia de la pantalla, primero se pueden rotar para expresarlo desde el marco de referencia de la capa de conformación del campo de luz y, opcionalmente, normalizarse para que cada elemento de conformación de luz individual tenga un ancho y un alto de 1 unidad. La siguiente descripción será igualmente aplicable a cualquier capa formadora de campo de luz que tenga una geometría hexagonal como la realización de ejemplo de la figura 8. Sin embargo, debe tenerse en cuenta que las etapas del método 1515 a 1525 descritos en el presente documento se pueden aplicar igualmente a cualquier tipo de capa de conformación de campo de luz que comparta la misma geometría (es decir, no solo una matriz de microlentes, pero también matrices estenopeicas, etc.). De igual manera, mientras que el siguiente ejemplo es específico de una matriz hexagonal de ejemplo de elementos LFSL definibles por una matriz de mosaicos hexagonales de mosaicos hexagonales regulares, otras geometrías también pueden beneficiarse de algunas o todas las características y/o ventajas de las realizaciones aquí descritas e ilustradas. Por ejemplo, diferentes matrices de elementos LFSL hexagonales, como matrices estiradas/alargadas, sesgadas y/o giradas, pueden considerarse, al igual que otras geometrías de matriz anidadas en las que filas y/o columnas adyacentes de la matriz LFSL se "superponen" o se interanidan al menos parcialmente. Por ejemplo, como se describirá mejor más adelante, las matrices hexagonales y geometrías de matrices anidadas similares generalmente proporcionarán un mosaico rectangular/cuadrado de tamaño proporcional de una matriz o cuadrícula rectangular/cuadrada superpuesta para abarcar de forma natural distintas regiones definidas por dos o más mosaicos de matrices anidadas subyacentes adyacentes, que se puede utilizar con ventaja en los ejemplos proporcionados a continuación. En otras realizaciones más, los procesos discutidos en este documento se pueden aplicar a matrices de elementos LFSL rectangulares y/o cuadrados. También se pueden considerar otras geometrías de matriz de elementos LFSL, como apreciará el artesano experto al leer el siguiente ejemplo, sin apartarse del alcance general y la naturaleza de la presente divulgación.
Para geometrías hexagonales, como se ilustra en las figuras 16A y 16B, la simetría hexagonal de la capa de conformación del campo luminoso 1403 se puede representar dibujando una serie de mosaicos hexagonales 1601, cada uno centrado en su respectivo elemento de conformación del campo de luz, de modo que el centro de un elemento de mosaico hexagonal sea más o menos exactamente igual que la posición central de su elemento formador de campo de luz asociado. Por tanto, el problema original se traduce a uno ligeramente similar en el que ahora es necesario encontrar la posición central 1615 del mosaico hexagonal 1609 asociado más cercano al punto de intersección 1411, como se muestra en la figura 16B.
Para solucionar este problema, el conjunto de mosaicos hexagonales 1601 puede superponerse sobre o mediante un segundo conjunto de mosaicos rectangulares escalonados 1705, de tal manera que se haga un diagrama de "casa invertida" dentro de cada rectángulo, como se ilustra claramente en la figura 17A, es decir, definir tres regiones de mosaicos linealmente segregados para cada mosaico rectangular, una región predominantemente asociada con un mosaico hexagonal subyacente principal, y otras dos regiones triangulares opuestas asociadas con mosaicos hexagonales subyacentes adyacentes. Haciéndolo así, la geometría de mosaicos hexagonales encajados se traslada a una geometría de mosaicos rectangulares que tiene distintas regiones de mosaicos segregados linealmente definidos en la misma por los bordes de los mosaicos hexagonales dispuestos adyacentes subyacentes. De nuevo, mientras que los hexágonos regulares se utilizan para representar la geometría de matriz de elementos LFSL hexagonal generalmente anidada, se pueden usar otras geometrías de mosaicos encajados para representar diferentes geometrías de elementos encajados. De igual manera, mientras que en este ejemplo se muestra una matriz anidada, también se pueden utilizar diferentes geometrías escalonadas o alineadas, en algunos ejemplos, en algunos aspectos, con complejidad reducida, como se describe con más detalle a continuación.
Además, si bien este ejemplo particular abarca la definición de límites de región de mosaico definidos linealmente, también se pueden considerar otros tipos de límites siempre que sean susceptibles de la definición de una o más declaraciones condicionales, como se ilustra a continuación, que se puede utilizar para generar un conjunto correspondiente de valores binarios o booleanos que identifican claramente una ubicación de un punto determinado dentro de una u otra de estas regiones, por ejemplo, sin invocar, o mediante limitación, demandas de procesamiento comunes a lógicas/árboles/declaraciones/etc de decisión ramificadas o en bucle.
Siguiendo con el ejemplo hexagonal, para localizar el centro de mosaico hexagonal asociado 1615 más cercano al punto de intersección 1411, en la etapa 1517, el método primero calcula la posición 2D de la esquina inferior izquierda 1705 del elemento de mosaico rectangular asociado (normalizado) 1609 que contiene el punto de intersección 1411, como se muestra en la figura 17B. La posición de la esquina inferior izquierda del hexágono que contiene el punto de intersección 1411 se puede calcular sin utilizar ninguna declaración de ramificación mediante las dos ecuaciones siguientes (aquí en coordenadas normalizadas en las que cada rectángulo tiene una altura y un ancho de una unidad):
Figure imgf000016_0001
donde ñu es el vector de posición del punto de intersección 1411 en el marco de referencia común de las matrices de mosaicos hexagonales y rectangulares escalonados, y la función suelo() devuelve el mayor número entero menor o igual a cada una de las coordenadas xy de ñu.
Una vez que la posición de la esquina inferior izquierda Cesquina 1705 del elemento rectangular asociado 1814 que contiene el punto de intersección 1411 es conocido, se pueden distinguir tres regiones 1804, 1806 y 1807 dentro de este elemento rectangular 1814, como se muestra en las figuras 18A a 18C. Cada región está asociada a un mosaico hexagonal diferente, como se muestra en la figura 18A, en concreto, cada región está delineada por los límites lineales de mosaicos hexagonales subyacentes adyacentes para definir una región predominantemente asociada con un mosaico hexagonal principal, y dos mosaicos triangulares opuestos definidos por mosaicos hexagonales adyacentes a cada lado de este mosaico principal. Como apreciará el experto en la materia, diferentes geometrías de mosaicos hexagonales o encajados darán como resultado la delineación de diferentes formas de regiones de mosaicos rectangulares, al igual que diferentes perfiles de límites (rectos versus curvos) darán como resultado la definición de diferentes declaraciones de valores de límites, definidos más adelante.
Continuando con el ejemplo ilustrado, En la etapa 1519, las coordenadas dentro del mosaico rectangular asociado 1814 se vuelven a escalar, como se muestra en el eje de la figura 18B, para que la ubicación del punto de intersección, dentro del mosaico rectangular asociado, ahora está representado en las coordenadas reescaladas por un vector d donde cada una de sus coordenadas x e y están dadas por:
Figure imgf000016_0002
Por tanto, los posibles valores x e y de la posición del punto de intersección 1411 dentro del mosaico rectangular asociado 1609 ahora están contenidos dentro de -1 ≤ x ≤ 1 y 0 ≤ y ≤ 3. Esto hará que la siguiente etapa sea más fácil de calcular.
Para encontrar eficientemente la región que abarca un punto de intersección determinado en estas coordenadas reescaladas, el hecho de que, dentro del elemento rectangular 1814, se utiliza cada región separada por una línea diagonal. Por ejemplo, esto se ilustra en la figura 18B, en la que la región inferior izquierda 1804 está separada de la región central de "casa invertida" 1806 y de la región inferior derecha 1808 por una línea diagonal descendente 1855, que en las coordenadas reescaladas de la figura 18B, siguen la ecuación simple y = -x. Por tanto, todos los puntos donde x ≤ -y están ubicados en la región inferior izquierda. De forma similar, la región inferior derecha 1808 está separada de las otras dos regiones por una línea diagonal 1857 descrita por la ecuación y ≤ x. Por lo tanto, en la etapa 1521, la región asociada que contiene el punto de intersección se evalúa utilizando estas dos declaraciones condicionales simples. Por lo tanto, el conjunto resultante de dos valores booleanos será específico de la región donde se encuentra el punto de intersección. Por ejemplo, los controles (casoL = x ≤ y, casoR = y ≤ x) dará como resultado los valores (casoL = verdadero, casoR = falso), (casoL = falso, casoR = verdadero) y (casoL = falso, casoR = falso) para puntos de intersección ubicados en la región inferior izquierda 1804, región inferior derecha 1808 y región media 1806, respectivamente. Luego se pueden convertir estos valores booleanos en valores de punto flotante, en donde normalmente en la mayoría de los lenguajes de programación los valores booleanos verdadero/falso se convierten en valores de punto flotante 1.0/0.0. Por tanto, se obtiene el conjunto (casoL, casoR) de valores de (1.0, 0.0), (0,0, 1,0) o (0,0, 0,0) para cada una de las regiones descritas anteriormente.
Para finalmente obtener las coordenadas relativas del centro hexagonal asociado con la región identificada, en la etapa 1523, el conjunto de valores booleanos convertidos se puede utilizar como entrada para una única función vectorial de punto flotante operable para asignar cada conjunto de estos valores a un conjunto de coordenadas xy del centro del elemento asociado. Por ejemplo, en la realización descrita y como se muestra en la figura 18C, se obtienen los vectores de posición relativa de cada centro hexagonal r con la función vectorial:
Figure imgf000017_0001
por lo tanto, las entradas de (1,0, 0,0), (0,0, 1,0) o (0,0, 0,0) se asignan a las posiciones (0,0, -1/3), (0,5, 2/3), y (1.0, -1/3), respectivamente, que corresponde a los centros hexagonales 1863, 1865 y 1867 mostrados en la figura 8c, respectivamente, en las coordenadas reescaladas.
Volviendo ahora a la figura 15, podemos continuar con la etapa final 1525 para traducir las coordenadas relativas obtenidas anteriormente a coordenadas 3D absolutas con respecto a la pantalla o similar (es decir, en mm). En primer lugar, las coordenadas del centro del mosaico hexagonal y las coordenadas de la esquina inferior izquierda se agregan para obtener la posición del centro del mosaico hexagonal en el marco de referencia de la capa óptica. De acuerdo con sea necesario, luego, el proceso puede reducir los valores a unidades absolutas (es decir, mm) y rotar las coordenadas nuevamente al marco de referencia original con respecto a la pantalla para obtener las posiciones 3D (en mm) del centro del elemento de la capa óptica con respecto a la marco de referencia de la pantalla, que luego se alimenta a la etapa 1116.
El experto en la técnica observará que también se pueden usar modificaciones al método descrito anteriormente. Por ejemplo, la cuadrícula escalonada que se muestra en la figura 17A se puede trasladar hacia arriba en un valor de 1/3 (en unidades normalizadas) de modo que dentro de cada rectángulo las diagonales que separan cada región estén ubicadas en las esquinas superiores izquierda y derecha. Los mismos principios generales descritos anteriormente todavía se aplican en este caso, y el técnico experto comprenderá que se necesitarán cambios mínimos en las ecuaciones dadas anteriormente para proceder de esa manera. Además, como se ha observado anteriormente, diferentes geometrías de elementos LFSL pueden dar como resultado la delineación de diferentes regiones de mosaicos rectangulares (normalizadas) y, por lo tanto, la formación de declaraciones de límites condicionales correspondientes y sistemas/funciones de coordenadas binarias/booleanas resultantes que identifican regiones y localizan centros.
En otras realizaciones más, en el que se utiliza una matriz de microlentes rectangular y/o cuadrada en lugar de una matriz encajada (hexagonal), se puede utilizar un método ligeramente diferente para identificar el centro del elemento LFSL (microlente) asociado (etapa 1114). En el presente documento, la matriz de microlentes está representada por una matriz de mosaicos rectangulares y/o cuadrados. El método, como se ha descrito anteriormente, pasa por la etapa 1515, donde las coordenadas x e y se reescalan (normalizan) con respecto a una dimensión x e y de microlente (en adelante, dando a cada mosaico rectangular y/o cuadrado un ancho y alto de 1 unidad). Sin embargo, en la etapa 1517, la función suelo() se utiliza directamente en cada coordenada x e y de ñv (el vector de posición del punto de intersección 1411) para encontrar las coordenadas de la esquina inferior izquierda asociada con el mosaico cuadrado/rectangular correspondiente. A partir de las mismas, las coordenadas relativas del centro del mosaico desde la esquina inferior izquierda se agregan directamente para obtener el vector de posición escalado final:
Figure imgf000017_0002
Una vez conocido este vector, el método va directamente a la etapa 1525 donde las coordenadas se reducen a unidades absolutas (es decir, mm) y se giran de nuevo al marco de referencia original con respecto a la pantalla para obtener las posiciones 3D (en mm) del centro del elemento de capa óptica con respecto al marco de referencia de la pantalla, que luego se alimenta a la etapa 1116.
También se pueden aplicar los métodos de representación de campo de luz descritos anteriormente (de las figuras 11 a 20), en algunas realizaciones, a nivel de subpíxeles para lograr una resolución de imagen de campo de luz mejorada. De hecho, un solo píxel en una pantalla subpixelada en color suele estar formado por varios colores primarios, normalmente tres elementos de colores, ordenados (en varias pantallas) en azul, verde y rojo (BGR) o como rojo, verde y azul (RGB). Algunas pantallas tienen más de tres primarios, tal como la combinación de rojo, verde, azul y amarillo (RGBY) o rojo, verde, azul y blanco (RGBW), o incluso rojo, verde, azul, amarillo y cian (RGBYC). La representación de subpíxeles funciona utilizando los subpíxeles como píxeles de brillo aproximadamente igual percibidos por el canal de luminancia. Esto permite que los subpíxeles sirvan como puntos de reconstrucción de imágenes muestreadas en lugar de utilizar los subpíxeles combinados como parte de un píxel "verdadero". Para los métodos de renderizado de campo de luz descritos anteriormente, esto significa que la posición central de un píxel determinado (por ejemplo, el píxel 1401 en la figura 14) se reemplaza por las posiciones centrales de cada uno de sus elementos de subpíxel. Por lo tanto, el número de muestras de color que se extraerán se multiplica por el número de subpíxeles por píxel en la pantalla digital. Luego, los métodos pueden seguir los mismos pasos descritos anteriormente y extraer las porciones de imagen asociadas de cada subpíxel individualmente (secuencialmente o en paralelo).
En la figura 21A, un píxel 2115 de ejemplo se compone de tres subpíxeles RBG (2130 para rojo, 2133 para verde y 2135 para azul). Otras realizaciones pueden diferir de esta división de colores, sin limitación. Al renderizar por píxel, como se describe en la figura 11 o en la figura 19, la porción de imagen 2145 asociada con dicho píxel 2115 se muestrea para extraer el valor de luminancia de cada canal de color RGB 2157, que luego son todos renderizados por el píxel al mismo tiempo. En el caso de renderización de subpíxel, como se ilustra en la figura 21B, los métodos encuentran la porción de imagen 2145 asociada con el subpíxel azul 2135. Por lo tanto, solo el valor de intensidad del canal de subpíxeles de los canales de color RGB 2157 correspondientes al subpíxel objetivo 2135 se utiliza al renderizar (en este caso el valor de color del subpíxel azul, los otros dos valores se descartan). Haciéndolo así, se puede lograr una resolución de imagen ajustada más alta, por ejemplo, ajustando los colores de los píxeles de la imagen ajustados en función de los subpíxeles y también, opcionalmente, descartando o reduciendo el impacto de los subpíxeles que se considera que no se cruzan o que solo se cruzan marginalmente con la pupila del usuario.
Para ilustrar mejor las realizaciones que hacen uso de la representación de subpíxeles, con referencia a las figuras 22A y 22B, se ilustra esquemáticamente una matriz de píxeles (LCD) 2200 compuesta por una matriz de píxeles de pantalla 2202, cada uno de los cuales comprende subpíxeles rojo (R) 2204, verde (G) 2206 y azul (B) 2208. Como con los ejemplos proporcionados anteriormente, para producir una pantalla de campo de luz, una capa que forma el campo de luz, tal como una matriz de microlentes, se va a alinear para superponer estos píxeles de manera que se pueda usar un subconjunto correspondiente de estos píxeles para producir de manera predecible los respectivos rayos de campo de luz que se calcularán y ajustarán para proporcionar una imagen corregida. Para hacerlo, el rayo del campo de luz producido finalmente por cada píxel se puede calcular conociendo la ubicación del píxel (por ejemplo, coordenadas x,y en la pantalla), una ubicación de un elemento de campo de luz correspondiente a través del cual viajará la luz que emana del píxel para llegar a los ojos del usuario, y características ópticas de ese elemento de campo de luz, por ejemplo. En función de estos cálculos, el algoritmo de corrección de imagen calculará qué píxeles iluminar y cómo, y generará parámetros de iluminación de subpíxeles (por ejemplo, valores R, G y B) en consecuencia. Como se ha indicado anteriormente, para reducir la carga de cálculo, solo se pueden considerar aquellos píxeles que producen rayos que interactuarán con los ojos o las pupilas del usuario, por ejemplo, utilizando un motor y hardware de seguimiento ocular complementarios, aunque otras realizaciones pueden, no obstante, procesar todos los píxeles para proporcionar mayores zonas de amortiguamiento y/o una mejor experiencia de usuario.
En el ejemplo mostrado en la figura 22A, se está representando un borde angular 2209 que cruza las superficies de los píxeles afectados 2210, 2212, 2214 y 2216. Utilizando la representación de píxeles estándar, cada píxel afectado se activa o desactiva, lo que hasta cierto punto dicta una relativa suavidad del borde angular 2209.
En el ejemplo mostrado en la figura 22B, en cambio, se favorece la representación de subpíxeles, por lo que el subpíxel rojo en el píxel 2210, los subpíxeles rojo y verde en el píxel 2214 y el subpíxel rojo en el píxel 2216 se establecen deliberadamente en cero (0) para producir una representación más suave del borde angular 2209 a expensas de la fidelidad del color a lo largo de ese borde, lo cual no será perceptible para el ojo humano dada la escala a la que se están aplicando estas modificaciones. Por consiguiente, la corrección de imagen puede beneficiarse de un mayor control de subpíxeles y, al mismo tiempo, ofrecer imágenes más nítidas.
Para implementar la representación de subpíxeles en el contexto de la corrección de imágenes de campo de luz, en algunas realizaciones, los cálculos de trazado de rayos deben ejecutarse con respecto a cada subpíxel, en lugar de con respecto a cada píxel en su conjunto, basado en una ubicación (coordenadas x,y en la pantalla) de cada subpíxel. Más allá de proporcionar una mayor precisión y nitidez de renderizado, el control de subpíxeles y los cálculos de trazado de rayos pueden adaptarse a diferentes configuraciones de subpíxeles, por ejemplo, donde se invoca la mezcla o superposición de subpíxeles para aumentar la resolución percibida de una pantalla de alta resolución y/o donde se proporcionan o se confía en disposiciones de subpíxeles no uniformes en diferentes tecnologías de pantalla digital.
En algunas realizaciones, sin embargo, para evitar o reducir un aumento de la carga de cálculo impartido por la consideración distinta de cada subpíxel, algunas eficiencias de cálculo pueden aprovecharse teniendo en cuenta la distribución regular de subpíxeles de un píxel a otro, o en el contexto de compartir y/o superponer subpíxeles, para ciertos grupos de píxeles, líneas, columnas, etc. Con referencia a la figura 23, un píxel 2300 dado, como se ilustra en las figuras 22A y 22B, incluye subpíxeles rojos (R) 2304, verdes (G) 2306 y azules (B) 2308 distribuidos horizontalmente. Usando renderizado de píxeles estándar y trazado de rayos, se puede considerar más o menos que la luz que emana de este píxel emana de un punto ubicado en el centro geométrico 2310 del píxel 2300. Para implementar la representación de subpíxeles, de lo contrario, el trazado de rayos podría calcularse por triplicado abordando específicamente la ubicación geométrica de cada subpíxel. Conociendo la distribución de subpíxeles dentro de cada píxel, sin embargo, los cálculos se pueden simplificar manteniendo cálculos centrados en píxeles y aplicando compensaciones apropiadas dadas las compensaciones de subpíxeles geométricas conocidas (es decir, compensación horizontal negativa 2314 para el subpíxel rojo 12304, un desplazamiento cero para el verde 2306 y un desplazamiento horizontal positivo 2318 para el subpíxel azul 2308). Haciéndolo así, la corrección de imágenes de campo de luz aún puede beneficiarse del procesamiento de subpíxeles sin una carga de cálculo significativamente mayor.
Si bien este ejemplo contempla una distribución de subpíxeles lineal (horizontal), también se pueden considerar otras distribuciones 2D sin apartarse del alcance general y la naturaleza de la presente divulgación. Por ejemplo, para una pantalla digital determinada y una distribución de píxeles y subpíxeles, se pueden determinar diferentes asignaciones de subpíxeles para definir respectivos sistemas de subcoordenadas de píxeles que, cuando se aplica a algoritmos estándar de corrección de imágenes y trazado de rayos centrados en píxeles, puede permitir el procesamiento de subpíxeles y aumentar la resolución y la nitidez de la corrección de la imagen sin aumentar indebidamente la carga de procesamiento.
En algunas realizaciones, se pueden aprovechar eficiencias adicionales en la GPU almacenando los datos de la imagen, por ejemplo, imagen 1306, en la memoria de texturas de la GPU. La memoria de texturas se almacena en caché en el chip y, en algunas situaciones, es operativa para proporcionar un mayor ancho de banda efectivo al reducir las solicitudes de memoria a DRAM fuera del chip. Específicamente, los cachés de textura están diseñados para aplicaciones gráficas donde los patrones de acceso a la memoria exhiben una gran localidad espacial, que es el caso de las etapas 1110-1126 del método 1100. Por ejemplo, en el método 1100, la imagen 1306 puede almacenarse dentro de la memoria de textura de la GPU, lo que luego mejora en gran medida la velocidad de recuperación durante la etapa 1126 donde se determina el canal de color asociado con la porción de la imagen 1306 en el punto de intersección 1423.
Con referencia a las figuras 24A y 24B, y de acuerdo con una realización de ejemplo, a continuación se analizará el trazado de rayos con planos no paralelos. En las figuras 14A a 14C y en las figuras 20A a 20D, los diferentes planos ilustrados (por ejemplo, pantalla de píxeles 1401, capa óptica 1405, plano de pupila 1415, plano de imagen virtual 1405, el plano de la retina 2010 y el plano de enfoque 2006) se mostraron paralelos entre sí para describir mejor la metodología de trazado de rayos asociada con ellos. Sin embargo, los métodos de trazado de rayos 1100 correspondientes de las figuras 11 y 1900 de la figura 19, como se ha descrito anteriormente, también se pueden aplicar para tener en cuenta los cambios en la orientación relativa entre cualquiera de esos planos.
En algunas realizaciones, y como se ilustra en la figura 24A, se pueden considerar casos en los que el usuario esté viendo la pantalla del campo de luz en un ángulo. En este ejemplo específico, por lo tanto, el método de trazado de rayos puede tener en cuenta un cambio en la orientación del plano de pupila 1415 con respecto a la pantalla de píxeles 1401 y la capa óptica 1405. En este ejemplo, otros planos tales como el plano de imagen virtual 1405 (usado en el método de trazado de rayos de la figura 11) y el plano de retina 2010 y el plano de enfoque 2006 (usado en el método de trazado de rayos de la figura 19) pueden considerarse paralelos al plano de pupila 1415. La diferencia relativa en orientación entre los dos conjuntos de planos se ilustra usando el vector 2450 que es el vector normal al plano de la capa óptica correspondiente 1403, y el vector 2470 que es el vector normal al plano de pupila 1415. La orientación relativa entre los dos vectores normales se ilustra en la figura 24B, utilizando ángulos polares y azimutales.
La orientación general del plano de pupila 1415 se puede parametrizar, por ejemplo, utilizando la ubicación 3D del centro de la pupila 1417 y un vector normal correspondiente. Se puede considerar que dicho vector normal es, en algunas realizaciones, igual a la dirección de la mirada medida por un sistema de seguimiento de la mirada o similar, como se expondrá más adelante.
Una vez determinada la posición relativa y la orientación del plano de pupila 1415, la posición/orientación relativa de todos los planos restantes (paralelos o no paralelos) se puede determinar y parametrizar en consecuencia. Los planos paralelos comparten el mismo vector normal. Desde allí, los métodos de las figuras 11 y 19 se pueden aplicar encontrando el punto de intersección entre un vector arbitrario y un plano orientado arbitrariamente, como se hace, por ejemplo, en las etapas 1112, 1118, 1124 del método de la figura 11, y en las etapas 1912, 1918, 1923, 1925 del método de la figura 19.
En el ejemplo ilustrado de la figura 24A, la posición del plano de imagen virtual 1405 se puede calcular usando la distancia de lectura mínima 1310 (y/o parámetros relacionados) pero desde la posición del plano de pupila 1415 y a lo largo del vector de dirección 2470.
Para extraer el vector normal 2470 del plano de pupila 1415, los métodos y sistemas de seguimiento ocular descritos anteriormente pueden usarse o modificarse para proporcionar adicionalmente una medida de la dirección de la mirada del ojo (por ejemplo, seguimiento de la mirada). Como se ha analizado anteriormente, existen muchos métodos de seguimiento ocular conocidos en la técnica, algunos de los cuales también pueden usarse para el seguimiento de la mirada. Por ejemplo, esto incluye métodos y sistemas de reflexión de destellos en el IR cercano o métodos basados puramente en métodos de visión artificial. Por tanto, en algunas realizaciones, el plano de la pupila 1415 se puede reparar utilizando una ubicación 3D actualizada del centro de la pupila 1417 y un vector normal actualizado 2470 en cada ciclo de seguimiento ocular. En otras realizaciones, se puede usar un sistema o método híbrido de seguimiento de la mirada/seguimiento de la pupila en el que la dirección de la mirada (por ejemplo, el vector normal 2470) se proporciona en un intervalo diferente que la ubicación del centro de la pupila 1417. Por ejemplo, en algunas realizaciones, durante uno o más ciclos, solo se puede medir la ubicación del centro de la pupila 3D 1417 y se puede reutilizar o actualizar manualmente un vector de dirección de mirada antiguo. En algunas realizaciones, se puede construir un modelo de ojo o similar para mapear un cambio en la ubicación medida del centro de la pupila 1417 a un cambio en el vector de dirección de la mirada sin depender de las capacidades completas del sistema o método de seguimiento de la mirada. Un mapa de este tipo puede basarse en una o más mediciones previas de seguimiento de la mirada. En cualquier caso, midiendo/determinando la ubicación del centro de la pupila 3D 1417 y el vector normal 2470, el plano de la pupila puede parametrizarse en consecuencia.
Cabe destacar que en la figura 24A, la pantalla 1401 y la capa óptica 1403 se muestran en paralelo por simplicidad, pero otras realizaciones también pueden prever que la capa óptica 1403 no sea paralela a la pantalla 1401. Esto no cambia el alcance general de la presente discusión, siempre que se conozca el ángulo relativo entre las mismas. Por ejemplo, dicho ángulo puede estar predeterminado durante la fabricación o medirse en tiempo real usando uno o más sensores (por ejemplo, en el caso en que la capa óptica 1403 pueda ser móvil). De forma similar, también se pueden hacer otros planos como, por ejemplo, el plano de la retina 2010, para que no sean paralelos al plano de la pupila, dependiendo de la geometría del ojo del usuario.
En algunas realizaciones, uno o más planos discutidos anteriormente pueden reemplazarse con superficies no planas. Por ejemplo, se puede utilizar una pantalla de campo de luz curva. En un ejemplo no limitante, se puede considerar una pantalla de píxeles curvada 2501 y una capa óptica 2503, como se muestra en la figura 25. En esta figura, cada elemento de la pantalla de píxeles 2501 sigue una curva 2505. De forma similar, cada elemento óptico de la capa óptica 2503 está ubicado a lo largo de otra curva 2510. Dichas superficies curvas pueden parametrizarse definiendo un vector normal parametrizado en cada punto de interés (por ejemplo, ubicación del centro del píxel y/o centro del elemento óptico). Por tanto, en este ejemplo, se ilustran un conjunto de vectores normales 2507 y un conjunto de vectores normales 2517 para cada píxel y cada elemento de conformación del campo luminoso, respectivamente. Un ejemplo de pantallas de píxeles curvos puede incluir pantallas OLED flexibles, aunque se podrían considerar otras tecnologías de pantallas flexibles, al igual que se pueden contemplar diferentes configuraciones y tecnologías de conjuntos de elementos de conformación de campos luminosos. Siempre que se conozcan los parámetros de la curva, también se puede calcular el vector de superficie normal en cualquier punto (por ejemplo, píxel y/o lente). Por ejemplo, los parámetros de la curva pueden establecerse durante la fabricación o medirse mediante uno o más sensores. Por tanto, los métodos de trazado de rayos de las figuras 11 y 19 pueden usarse como se describe, con el cambio de que cada (píxel/subpíxel y/o elemento formador de luz) tendrá su vector normal. Por lo tanto, la intersección entre los rayos y estas superficies curvas se realiza como se describe anteriormente.
Con referencia a las figuras 26 a 31, y de acuerdo con una realización de ejemplo, ahora se discutirá un método de representación de campo de luz por compresión. La representación del campo de luz por compresión consiste en considerar la imagen completa generada a partir de todos los píxeles/subpíxeles en la pantalla de píxeles 1401 para encontrar la combinación optimizada de dichos valores de píxeles/subpíxeles que generen la imagen de manera más eficiente. Esto puede dar como resultado que se necesiten menos píxeles de pantalla para emitir un campo de luz determinado de los que requeriría una solución óptica directa, como los métodos 1100 y 1900, por ejemplo. De hecho, en los métodos de trazado de rayos 1100 y 1900 de las figuras 11 y 19, el valor de cada píxel/subpíxel se establece posteriormente. En contraste, en un enfoque de campo de luz compresivo, todo el conjunto de valores de píxeles/subpíxeles que generan una imagen mejor u optimizada se deriva al mismo tiempo. Este enfoque considera además que cada píxel/subpíxel emite un haz de luz (y no un único vector de rayo), y que este haz puede superponerse a múltiples puntos de la imagen generada. Por tanto, evaluando la imagen renderizada completa para un conjunto determinado de valores de píxeles/subpíxeles, se puede construir una función de costo o similar que cuantifique la diferencia entre la imagen de entrada 1306 (figura 13) que se va a visualizar y la imagen real que se genera mediante el conjunto actual de todos los valores de píxeles/subpíxeles. Al minimizar esta diferencia, se puede encontrar el conjunto de valores mejor u optimizado de todos los píxeles/subpíxeles.
Como ejemplo, sea x el conjunto de todos los valores de píxeles/subpíxeles (por ejemplo, color/canal muestreado), y sea y el conjunto de valores correspondientes de porciones de imagen de la imagen 1306. Se puede construir una función de transporte o transferencia A para simular cómo la luz emitida desde un conjunto de valores de entrada x genera el conjunto de valores de imagen y (por ejemplo, cómo un conjunto dado de x se asigna a un conjunto dado de y). Esto se puede representar como el siguiente sistema:
Ax=y.
En algunas realizaciones, el método de representación de campo de luz por compresión actualmente descrito es operable para encontrar el mejor conjunto de valores x que generan el conjunto de valores y que son los más cercanos a la imagen de entrada digitalizada 1306 (por ejemplo, y magen). El procedimiento para hacerlo, de acuerdo con una realización, se ilustra como el proceso 2600 en la figura 26, que ilustra una iteración de renderizado de un solo campo de luz.
En la etapa 2605, se utiliza un conjunto de valores de entrada inicial o aproximado x para iniciar la iteración de renderizado. En general, este conjunto inicial de valores puede ser cualquier cosa menos en la práctica, cuanto más cerca esté el conjunto inicial de valores x de la solución, más rápido será encontrar la solución. Por tanto, en algunas realizaciones, se puede utilizar la imagen de entrada 1306 (por ejemplo, X = y magen), o en otras realizaciones se puede usar en su lugar una única iteración del método de trazado de rayos 1100.
En la etapa 2615, el conjunto actual de valores de píxel/subpíxel x se utiliza para generar los valores de imagen pixelada y correspondientes. Como se ha mencionado anteriormente, esto se hace modelando cómo se proyecta un haz de luz de cada píxel/subpíxel sobre la imagen percibida. Las figuras 27 y 31 ilustran cómo se calcula el mapeo del haz, en algunas realizaciones, utilizando una versión modificada de los métodos de trazado de rayos 1100 o 1900, respectivamente.
Como se ha mencionado anteriormente, el haz de luz emitido por un solo píxel/subpíxel puede superponerse a varias partes de la imagen. Para determinar cómo un haz determinado se superpone a la imagen, se puede utilizar un método de trazado de rayos modificado, donde se considera el ancho del haz. Para cuantificar qué parte de la imagen se superpone el haz, es útil considerar una imagen digitalizada o pixelada, ya sea en el plano virtual o en el plano de la retina. Por ejemplo, definiendo una resolución de imagen (que puede ser o no la misma que la resolución de pantalla de píxeles), el tamaño de la imagen se puede dividir por esta resolución de imagen para definir los píxeles de la imagen, cada uno tiene un límite preciso en el plano relevante. Al determinar cuál de estos (píxeles de la imagen) se superpone con el haz, a esto se le puede añadir el valor del píxel/subpíxel correspondiente (píxel de la imagen). Al agregar la contribución de todos los píxeles/subpíxeles a todos (los píxeles de la imagen), se puede determinar el conjunto completo de valores y. Además, como se explicará más adelante, estos píxeles de imagen pueden estar en el plano de imagen virtual 1405 (en el que se les puede denominar píxeles virtuales) o proyectados en el plano de la retina 2010 (en el que se les puede denominar píxeles de la retina).
Ahora se explicarán dos métodos para rastrear el haz, uno basado en una versión modificada del método de trazado de rayos 1100 descrito en la figura 11, el otro se basa en una versión modificada del método de trazado de rayos 1900 descrito en la figura 19.
Con referencia a las figuras 27, y de acuerdo con una realización de ejemplo, A continuación se analizará un método de trazado de rayos modificado basado en el método de trazado de rayos 1100 de la figura 11. En general, el método de trazado de rayos se utiliza para encontrar el punto de intersección 1423 del centro del haz con el plano virtual. Por tanto, las etapas 1106, 1108, 1110-1118, 1124 y 1128 proceden exactamente como se describe anteriormente. Sin embargo, el haz de luz emitido por un píxel/subpíxel también cubrirá un área (denominada en el presente documento caja de haz) centrada alrededor del punto de intersección 1423. Por tanto, se agrega una nueva etapa 2701 en la que se calcula el tamaño de la caja de haz en el plano virtual 1405.
En algunas realizaciones, como se ilustra en la figura 28, la forma y el tamaño de la caja del haz en el plano virtual 1405 se pueden estimar calculando la propagación del haz de luz hacia atrás desde la capa óptica 1411. En la geometría de ejemplo considerada en la figura 28, esto conduce a una caja de haz rectangular 2915 centrada en el punto de intersección 1423, cuyas dimensiones pueden calcularse directamente escalando el tamaño del píxel/subpíxel de origen, dando como resultado una caja de haz rectangular 2915 en el plano de imagen virtual 1405. En este ejemplo, el tamaño de la caja de haz 2915 en una dimensión se puede encontrar multiplicando el tamaño del píxel/subpíxel 2905 por la relación de la distancia entre la capa óptica 1411 al plano virtual 1405 y la distancia entre el píxel/subpíxel y la capa óptica 1204.
Debe tenerse en cuenta que, si bien el tamaño de cada píxel virtual depende de la posición del plano de la imagen virtual (que dicta la escala necesaria para que la imagen llene la pantalla tal como la percibe el usuario), el tamaño de la caja de haz también es función de los parámetros constantes 1102. Dado que el tamaño de la caja de haz es fijo para una iteración de representación del campo de luz determinada, la etapa 2701 se puede realizar una vez, por ejemplo, antes de la etapa 2615 en la figura 26. El experto entenderá que se pueden utilizar otras formas de calcular la anchura del haz en el plano virtual, por ejemplo, mediante el uso de óptica geométrica o difractiva.
Una vez que se encuentra la posición del punto de intersección 1423 en la imagen 1306 en la etapa 1124, en la etapa 2705, la contribución del píxel/subpíxel correspondiente a la caja de haz se suma a cada píxel virtual al menos parcialmente dentro de la caja de haz. Una implementación de ejemplo de la etapa 2705 se muestra en la figura 30. En la etapa 3005, la lista de cada píxel virtual superpuesto, al menos en parte, se encuentra la caja de haz. A partir de las mismas, en la etapa 3010, el método puede iterar sobre cada uno de estos píxeles virtuales. En la etapa 3015, se calcula la superposición del área entre el píxel virtual y el haz (por ejemplo, la proporción del área del haz cubierta por este píxel virtual). Este también se ilustra esquemáticamente en la figura 29, que muestra un ejemplo del conjunto de todos los píxeles virtuales 2954 que se superponen a la caja de rayos 2915 centrada en el punto de intersección 1423 para una configuración rectangular dada. Está claro que algunos píxeles virtuales reciben más luz del píxel/subpíxel de fuente 1409 que otros y este factor de superposición lo tiene en cuenta. Además, en algunas realizaciones, el factor de superposición también puede considerar el flujo radiante relativo que recibe un píxel virtual desde el píxel/subpíxel 1409. Una vez que se ha calculado el factor de superposición para un píxel virtual determinado, volviendo a la etapa 3020, el valor del píxel/subpíxel 1409 se multiplica por el factor de superposición antes de sumarse al valor actual del píxel virtual. En algunas realizaciones, el valor de píxel/subpíxel se puede multiplicar además por un factor de transmisión de pupila que estima qué cantidad de haz de luz atraviesa la pupila, en el que este factor de transmisión es cero si se estima que la luz del haz no llega en absoluto a la pupila.
En algunas realizaciones, el conjunto de valores y puede representar en cambio la imagen real que se genera en la retina del usuario (por ejemplo, en el plano de la retina 2010 en lugar del plano virtual 1401). Por tanto, en algunas realizaciones, en cambio, la etapa 2615 puede basarse en una versión modificada del método de trazado de rayos 1900 de la figura 19. Esto se ilustra en la figura 31, en la que las etapas ilustradas 1910 a 1929 proceden como se describe en el método de trazado de rayos de la figura 19 (por ejemplo, para encontrar el punto de intersección 2012 en el plano de la retina, sobre el que se centrará la caja de rayos), y las etapas 3101 y 3105 reflejan las etapas 2701 y 2705 descritas anteriormente con referencia a la figura 27 (incluyendo las etapas de ejemplo 3005 a 3020 de la figura 30), con la diferencia de que el tamaño de la caja de haz se calcula en el plano de retina 2010 y no en el plano de imagen virtual 1405. El tamaño de la caja de haz en el plano de la retina se puede derivar de manera similar a lo discutido anteriormente, sin embargo, teniendo en cuenta el efecto del cristalino. Además, el tamaño de un píxel de la retina (por ejemplo, parte de la imagen en el plano de la retina) usado para calcular el factor de superposición en la etapa 3105 se puede calcular usando el tamaño de la imagen de la retina 2031 que se calculó en la etapa 1929 y dividiendo por la resolución de la imagen de la retina.
Además, el experto entenderá que la etapa 2615 como se describe en la figura 27 o en la figura 31 también puede aplicarse igualmente en el caso de planos no paralelos, como ya se ha comentado (por ejemplo, trazado de rayos en el contexto de superficies curvas).
Volviendo a la figura 26, una vez que el conjunto de valores A • X = y ha sido determinado, en la etapa 2625, el valor de la función de coste (CF), que cuantifica la diferencia entre los valores de píxel/subpíxel de la pantalla de píxeles 1401 y la porción de imagen correspondiente (por ejemplo, píxel virtual/retina) de la imagen corregida por el campo de luz. En el ejemplo actual, se consideró una función de error cuadrática:
Figure imgf000022_0001
donde X es el (valor) de píxel/subpíxel i y y m^ a 9 en es el valor de píxel/subpíxel virtual/retina correspondiente de la imagen de entrada 1306. Sin embargo, el técnico cualificado comprenderá que en su lugar se pueden utilizar diferentes tipos de funciones de error. Por ejemplo, estos pueden incluir, sin restricción, funciones de error absolutas o medias absolutas, una función de pérdida de Huber, una función log-cosh, etc. Debe tenerse en cuenta que, en algunas realizaciones, el algoritmo de optimización elegido también puede requerir el gradiente o el hessiano de la función de coste. Esto también se puede calcular en esta etapa. Las derivadas y/o los valores de Hesse pueden darse en forma analítica o calcularse numéricamente.
Como se ha mencionado anteriormente, los valores optimizados de cada píxel/subpíxel de la pantalla de píxeles 1401 se pueden determinar minimizando la función de costo descrita anteriormente usando un algoritmo numérico para resolver problemas de optimización no lineal sin restricciones. Algunos ejemplos de tales algoritmos incluyen, sin limitación, gradiente/descenso más pronunciado, gradiente conjugado o métodos iterativos Quasi-Newton, como el algoritmo Broyden-Fletcher-Goldfarb-Shanno (L-BFGS o LM-BFGS) de memoria limitada o similar. Estos algoritmos son generalmente iterativos, en donde el valor de x se cambia incrementalmente en una dirección que reduce el valor de la función de error. Por tanto, en la etapa 2635, se realiza una etapa de minimización para obtener un nuevo conjunto de valores x (por ejemplo, nuevos valores para todos los píxeles/subpíxeles).
En la etapa 2645, se evalúa la convergencia del procedimiento de minimización. En el caso en que efectivamente haya convergido (por ejemplo, la función de costes se haya minimizado), el último conjunto de valores x se toma como la configuración de visualización de píxeles finalizada y la imagen del campo de luz se representa en la pantalla de píxeles 1401 en la etapa 2655. Si el algoritmo de minimización no ha convergido en este punto, las etapas 2615 a 2635 se repiten hasta que lo haga, o hasta que se haya alcanzado un número máximo de etapas de iteración. El técnico experto comprenderá que se pueden utilizar diferentes criterios de convergencia. De forma similar, el número máximo de etapas de minimización puede cambiarse, dependiendo de las limitaciones de la velocidad de renderizado, por ejemplo.
Sin restricciones, el procedimiento de minimización discutido anteriormente puede producir valores que están fuera del intervalo visualizable (por ejemplo, fuera del intervalo [0,1]). Por tanto, en algunas realizaciones, la función de coste puede modificarse para mejorar la probabilidad de que el procedimiento de minimización dé como resultado valores dentro del intervalo visualizable. Por ejemplo, en algunas realizaciones, un factor de (x - 1^ 2), o aós|x-1^ | se puede agregar a la función de coste, para el intervalo de valores fuera de [0, 1 ]. En algunas realizaciones, también se puede agregar un valor constante de 0,25 para valores dentro de este intervalo.
Además, el método 2600 en general puede, en algunas realizaciones, implementarse para trabajar en dispositivos de procesamiento masivamente paralelos, por ejemplo, en una GPU o similar, como se ha analizado anteriormente.
Los métodos y sistemas descritos anteriormente se discutieron principalmente en el contexto de la corrección de problemas de visión tal como miopía, hipermetropía y astigmatismo. Sin embargo, estos métodos y sistemas pueden usarse igualmente para proporcionar corrección de la visión para aberraciones de orden superior. Generalmente, es común describir matemáticamente aberraciones de orden superior utilizando los llamados polinomios de Zernike, que describen cómo la aberración distorsiona el frente de onda de luz que ingresa al ojo. Por ejemplo, aberraciones de orden superior como aberraciones esféricas, coma y trébol pueden representarse mediante una función polinómica de Zernike de segundo orden. En algunas realizaciones, los métodos y sistemas de representación de campo de luz descritos anteriormente se pueden usar para generar un campo luminoso que compense dichas aberraciones de orden superior. En algunas realizaciones, esto puede incluir la generación de un plano de imagen curvado o distorsionado basado en o derivado de, en algunos ejemplos, la correspondiente función polinómica de Zernike. Además, los métodos para generar una imagen de campo de luz con visión corregida con superficies curvas ya se describieron anteriormente. Por tanto, en algunas realizaciones, los métodos de renderizado 1100, 1900 o 2600 pueden aplicarse igualmente, pero con la característica añadida de que, por ejemplo, la imagen virtual está curvada o distorsionada.

Claims (17)

REIVINDICACIONES
1. Un método implementado por ordenador, implementado automáticamente por uno o más procesadores digitales, para ajustar automáticamente la percepción del usuario de una imagen de entrada que se va a representar en una pantalla digital (120, 1401) a través de un conjunto de píxeles de la misma, en donde la pantalla digital tiene una serie de elementos de configuración de campo de luz (LFSE) (200, 800, 1403),
el método comprende:
mapear digitalmente la imagen de entrada en un plano de imagen ajustado (1106, 1405, 1925, 2010), designado para proporcionar al usuario un ajuste de percepción de imagen designado;
para cada píxel dado de al menos algunos de dichos píxeles, de forma digital:
calcular un vector entre dicho píxel dado y la ubicación de la pupila del usuario;
aproximar una dirección de un campo de luz emanado por dicho píxel dado basándose en un LFSE dado cruzado por dicho vector;
proyectar una traza de rayos de imagen ajustada entre dicho píxel dado y dicho LFSE dado para cruzar dicho plano de imagen ajustado en una ubicación de imagen ajustada dada dicha dirección; y
asociar un valor de píxel de imagen ajustado designado para dicha ubicación de imagen ajustada dada con dicho píxel dado basándose en dicho mapeo; y
representar cada uno de dichos píxeles dados de acuerdo con dicho valor de píxeles de imagen ajustado, representando así una versión perceptivamente ajustada de la imagen de entrada.
2. Un medio legible por ordenador no transitorio que comprende instrucciones digitales que se implementarán mediante uno o más procesadores digitales para ajustar automáticamente la percepción del usuario de una imagen de entrada que se representará en una pantalla digital (120, 1401) a través de un conjunto de píxeles de la misma, en donde la pantalla digital tiene una serie de elementos de configuración de campo de luz (LFSE) (200, 800, 1403), dichas instrucciones digitales se implementan para ajustar automáticamente la percepción del usuario mediante:
mapear digitalmente la imagen de entrada en un plano de imagen ajustado (1106, 1405, 1925, 2010) designado para proporcionar al usuario un ajuste de percepción de imagen designado;
para cada píxel dado de al menos algunos de dichos píxeles, de forma digital:
calcular un vector entre dicho píxel dado y la ubicación de la pupila del usuario;
aproximar una dirección de un campo de luz emanado por dicho píxel dado basándose en un LFSE dado cruzado por dicho vector;
proyectar una traza de rayos de imagen ajustada entre dicho píxel dado y dicho LFSE dado para cruzar dicho plano de imagen ajustado en una ubicación de imagen ajustada dada dicha dirección; y
asociar un valor de píxel de imagen ajustado designado para dicha ubicación de imagen ajustada dada con dicho píxel dado basándose en dicho mapeo; y
representar cada uno de dichos píxeles dados de acuerdo con dicho valor de píxeles de imagen ajustado, representando así una versión perceptivamente ajustada de la imagen de entrada.
3. El método de la reivindicación 1, o el medio de legible por ordenador no transitorio de la reivindicación 2, en donde dicho plano de imagen ajustado es un plano de imagen virtual (1405) colocado virtualmente con respecto a la pantalla digital a una distancia designada desde dicha ubicación de la pupila del usuario, y en donde dicha traza de rayos de imagen ajustada comprende un vector de imagen virtual entre dicho píxel dado y dicho LFSE dado para cruzar dicho plano de imagen virtual.
4. El método de la reivindicación 1, que comprende además confirmar, o el medio no transitorio legible por ordenador de la reivindicación 2, en donde dichas instrucciones son además ejecutables para confirmar, que dicha traza de rayos de imagen ajustada se cruza con un área de pupila de entrada asociada con dicha ubicación de pupila de usuario de entrada.
5. El medio de legible por ordenador no transitorio de la reivindicación 2, en donde cada píxel dado comprende un conjunto de subpíxeles, en donde al menos alguno de dicho cálculo, identificación y proyección se ejecuta para cada uno de dichos subpíxeles de forma independiente, y en donde dicha asociación comprende asociar para cada uno de dichos subpíxeles un valor de canal de color de subpíxel correspondiente a dicho valor de píxel de imagen ajustado.
6. El método de la reivindicación 1, o el medio de legible por ordenador no transitorio de la reivindicación 2, en donde dicha ubicación de la pupila del usuario se rastrea dinámicamente mediante una pupila o un rastreador ocular.
7. El método de la reivindicación 1, o el medio de legible por ordenador no transitorio de la reivindicación 2, en donde la percepción del usuario se ajusta para abordar al menos parcialmente la agudeza visual reducida del usuario.
8. Un dispositivo de pantalla digital operable para ajustar automáticamente la percepción del usuario de una imagen de entrada que se representará en el mismo, comprendiendo el dispositivo:
un medio de pantalla digital (120, 1401) que comprende una serie de píxeles y que se puede operar para representar una imagen pixelada en consecuencia;
una serie de elementos de conformación de campo de luz (LFSE) (200, 800, 1403) para dar forma a un campo luminoso que emana de al menos algunos de dichos píxeles y de ese modo gobernar al menos parcialmente una proyección del mismo desde dicho medio de pantalla hacia el usuario; y
un procesador de hardware operable con datos de píxeles para la imagen de entrada;
el procesador de hardware es operable para generar datos de píxeles de imagen ajustados para ajustar la percepción del usuario de la imagen de entrada representada por:
mapear digitalmente la imagen de entrada en un plano de imagen ajustado (1106, 1405, 1925, 2010) designado para proporcionar al usuario un ajuste de percepción de imagen designado;
para cada píxel dado de al menos algunos de dichos píxeles, de forma digital:
calcular un vector entre dicho píxel dado y la ubicación de la pupila del usuario;
aproximar una dirección de un campo de luz emanado por dicho píxel dado basándose en un LFSE dado cruzado por dicho vector;
proyectar una traza de rayos de imagen ajustada entre dicho píxel dado y dicho LFSE dado para cruzar dicho plano ajustado en una ubicación de imagen ajustada dada dicha dirección; y
asociar un valor de píxel de imagen ajustado designado para dicha ubicación de imagen ajustada dada con dicho píxel dado basándose en dicho mapeo; y
representar cada uno de dichos píxeles dados de acuerdo con dicho valor de píxeles de imagen ajustado, representando así una versión perceptivamente ajustada de la imagen de entrada.
9. El dispositivo de pantalla digital de la reivindicación 8, en donde dicho plano de imagen ajustado es un plano de imagen virtual (1405) colocado virtualmente con respecto a la pantalla digital a una distancia designada de dicha ubicación de la pupila del usuario, en donde dicha traza de rayos de imagen ajustada comprende un vector de imagen virtual entre dicho píxel dado y dicho LFSE dado para cruzar dicho plano de imagen virtual, y en donde dicha distancia designada comprende una distancia de visión mínima designada de manera que dicha versión ajustada perceptivamente de la imagen de entrada se ajuste a adaptarse a la agudeza visual reducida del usuario.
10. El dispositivo de pantalla digital de la reivindicación 9, en donde el dispositivo es operable para ajustar la percepción del usuario de la imagen de entrada para que la vea un espectador que tiene una agudeza visual reducida de manera que dicha versión perceptivamente ajustada de la imagen de entrada compense al menos parcialmente la agudeza visual reducida del espectador, en donde el dispositivo comprende además una interfaz de usuario para ajustar dinámicamente dicha distancia de visión mínima.
11. El método de la reivindicación 1, el medio no transitorio legible por ordenador de la reivindicación 2, o el dispositivo de pantalla digital de la reivindicación 8, en donde dicho plano de imagen ajustado se designa como un plano retiniano del usuario (2010), y en el que dicho trazado de rayos de imagen ajustado se proyecta para cruzarse con dicho plano retiniano del usuario redirigiendo dicho trazado de rayos de imagen ajustado dada dicha ubicación de la pupila de acuerdo con un ojo de usuario de entrada parámetro de aberración de enfoque.
12. El dispositivo de pantalla digital de la reivindicación 11, que comprende además una interfaz de usuario para ajustar dinámicamente dicho parámetro de aberración del enfoque ocular del usuario de entrada.
13. El método de la reivindicación 1, el medio no transitorio legible por ordenador de la reivindicación 2, o la pantalla digital de la reivindicación 8, en donde cada píxel dado comprende un conjunto de subpíxeles, en donde al menos alguno de dicho cálculo, identificación y proyección se ejecuta para cada uno de dichos subpíxeles de forma independiente, y en donde dicha asociación comprende asociar para cada uno de dichos subpíxeles un valor de canal de color de subpíxel correspondiente a dicho valor de píxel de imagen ajustado.
14. El dispositivo de pantalla digital de la reivindicación 8, que comprende además una pupila o un rastreador ocular o una interfaz de seguimiento de pupila u ocular operable para rastrear dinámicamente y adaptarse automáticamente a los cambios en dicha ubicación de la pupila del usuario.
15. El dispositivo de pantalla digital de la reivindicación 8, en donde dicho procesador de hardware comprende una unidad de procesamiento de gráficos (GPU), y en donde dicho cálculo, identificación, proyección y asociación se implementan en paralelo para cada píxel dado de al menos un subconjunto de dichos píxeles mediante dicha GPU.
16. El dispositivo de pantalla digital de la reivindicación 8, en donde al menos parte de dicho LFSE comprende un elemento óptico difractivo, una microlente, están formados o fabricados integralmente con el medio de pantalla digital, o comprenden al menos uno de una placa de vidrio texturizada o enmascarada, o una fuente de luz que forma el haz.
17. El dispositivo de pantalla digital de la reivindicación 9, en donde dicha matriz de LFSE está formada por una capa de conformación de campo de luz (LFSL) (1403) dispuesta con respecto a dichos píxeles, o comprende una superposición de pantalla digital (200).
ES19808883T 2018-10-22 2019-10-21 Pantalla de campo de luz, método de representación de píxeles ajustado para el mismo, y sistema y método de corrección de visión que utiliza el mismo Active ES2954588T3 (es)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
CA3021636A CA3021636A1 (en) 2018-10-22 2018-10-22 Light field display, adjusted pixel rendering method therefor, and vision correction system and method using same
US16/259,845 US10394322B1 (en) 2018-10-22 2019-01-28 Light field display, adjusted pixel rendering method therefor, and vision correction system and method using same
US16/510,673 US10474235B1 (en) 2018-10-22 2019-07-12 Light field display, adjusted pixel rendering method therefor, and vision correction system and method using same
US16/551,572 US10636116B1 (en) 2018-10-22 2019-08-26 Light field display, adjusted pixel rendering method therefor, and vision correction system and method using same
US16/569,137 US10642355B1 (en) 2018-10-22 2019-09-12 Light field display, adjusted pixel rendering method therefor, and vision correction system and method using same
PCT/IB2019/058955 WO2020084447A1 (en) 2018-10-22 2019-10-21 Light field display, adjusted pixel rendering method therefor, and vision correction system and method using same

Publications (1)

Publication Number Publication Date
ES2954588T3 true ES2954588T3 (es) 2023-11-23

Family

ID=70280946

Family Applications (1)

Application Number Title Priority Date Filing Date
ES19808883T Active ES2954588T3 (es) 2018-10-22 2019-10-21 Pantalla de campo de luz, método de representación de píxeles ajustado para el mismo, y sistema y método de corrección de visión que utiliza el mismo

Country Status (7)

Country Link
US (2) US10636116B1 (es)
EP (1) EP3871409B1 (es)
JP (1) JP2022512013A (es)
CN (1) CN112913231A (es)
CA (1) CA3109811C (es)
ES (1) ES2954588T3 (es)
WO (1) WO2020084447A1 (es)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3059537B1 (fr) * 2016-12-07 2019-05-17 Essilor International Appareil et procede de mesure de refraction oculaire subjective de haute resolution en puissance optique spherique et/ou cylindrique
US11966507B2 (en) 2018-10-22 2024-04-23 Evolution Optiks Limited Light field vision testing device, adjusted pixel rendering method therefor, and vision testing system and method using same
US11500460B2 (en) 2018-10-22 2022-11-15 Evolution Optiks Limited Light field device, optical aberration compensation or simulation rendering
US11823598B2 (en) 2019-11-01 2023-11-21 Evolution Optiks Limited Light field device, variable perception pixel rendering method therefor, and variable perception system and method using same
CN111610634B (zh) * 2020-06-23 2022-05-27 京东方科技集团股份有限公司 一种基于四维光场的显示系统及其显示方法
US11410580B2 (en) 2020-08-20 2022-08-09 Facebook Technologies, Llc. Display non-uniformity correction
US11442541B1 (en) * 2020-11-13 2022-09-13 Meta Platforms Technologies, Llc Color-based calibration for eye-tracking
US11733773B1 (en) 2020-12-29 2023-08-22 Meta Platforms Technologies, Llc Dynamic uniformity correction for boundary regions
EP4301207A1 (en) * 2021-03-05 2024-01-10 Evolution Optiks Limited Light field device and vision-based testing system using same
EP4301226A1 (en) 2021-03-05 2024-01-10 Evolution Optiks Limited Head-mountable oculomotor assessment device and system, and method of using same
US11681363B2 (en) 2021-03-29 2023-06-20 Meta Platforms Technologies, Llc Waveguide correction map compression
CN113703169B (zh) * 2021-09-09 2022-07-08 中山大学 具有屈光矫正功能的集成成像光场显示方法及显示系统
US11710212B1 (en) * 2022-01-21 2023-07-25 Meta Platforms Technologies, Llc Display non-uniformity correction
US11754846B2 (en) 2022-01-21 2023-09-12 Meta Platforms Technologies, Llc Display non-uniformity correction
CN115022616B (zh) * 2022-08-08 2022-12-02 太原理工大学 一种基于人眼跟踪的图像聚焦增强显示装置和显示方法

Family Cites Families (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2296617A (en) 1994-12-29 1996-07-03 Sharp Kk Observer tracking autosteroscopic display
US6192341B1 (en) 1998-04-06 2001-02-20 International Business Machines Corporation Data processing system and method for customizing data processing system output for sense-impaired users
US6386707B1 (en) 1999-11-08 2002-05-14 Russell A. Pellicano Method for evaluating visual acuity over the internet
US6238049B1 (en) 1999-11-12 2001-05-29 Joanne Sawhill Griffin Interactive self-diagnostic system
US6876758B1 (en) 1999-12-27 2005-04-05 Neuro Vision, Inc. Methods and systems for improving a user's visual perception over a communications network
US6536907B1 (en) 2000-02-08 2003-03-25 Hewlett-Packard Development Company, L.P. Aberration compensation in image projection displays
US6953249B1 (en) * 2001-01-29 2005-10-11 Maguire Jr Francis J Method and devices for displaying images for viewing with varying accommodation
US7062547B2 (en) 2001-09-24 2006-06-13 International Business Machines Corporation Method and system for providing a central repository for client-specific accessibility
US6784905B2 (en) 2002-01-22 2004-08-31 International Business Machines Corporation Applying translucent filters according to visual disability needs
US6809704B2 (en) 2002-02-08 2004-10-26 Charles J. Kulas Reduction of blind spots by using display screens
GB0210288D0 (en) 2002-05-04 2002-06-12 Univ Nottingham Ocular display apparatus for assessment and measurement of and for treatment of ocular disorders, and methods therefor
DE102004038822A1 (de) 2004-08-04 2006-03-16 Deutsches Zentrum für Luft- und Raumfahrt e.V. Säule, Fahrzeug und Verfahren zur Sichtbarmachung eines vor einer Säule liegenden Bereichs
CA2578932C (en) 2004-09-03 2013-07-30 Uri Polat Systems and methods for improving visual perception
TW200619067A (en) 2004-12-06 2006-06-16 Arbl Co Ltd Device for transparency equivalent A-pillar equivalent transparency of vehicle
WO2007037229A1 (ja) 2005-09-29 2007-04-05 Nikon Corporation 画像処理装置および画像処理方法
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
EP1949166A1 (en) 2005-10-27 2008-07-30 Optyka Limited An image projection display system
US7517086B1 (en) 2006-03-16 2009-04-14 Adobe Systems Incorporated Compensating for defects in human vision while displaying text and computer graphics objects on a computer output device
CN102119355B (zh) 2006-05-16 2014-11-12 欧弗搜尼克斯股份有限公司 用于优化人的视觉功能的高阶像差校正
US7524065B1 (en) 2006-09-05 2009-04-28 Ogilvie John W Vision testing with rendered digital imagery modification under viewer control
US20080117231A1 (en) 2006-11-19 2008-05-22 Tom Kimpe Display assemblies and computer programs and methods for defect compensation
EP2003019B1 (en) 2007-06-13 2014-04-23 Aisin AW Co., Ltd. Driving assist apparatus for vehicle
GB0711738D0 (en) 2007-06-18 2007-07-25 Visicomp Res Linmited Vision testing apparatus & method
US8231220B2 (en) 2007-07-26 2012-07-31 Essilor International (Compagnie Generale D'optique) Method of measuring at least one geometrico-physionomic parameter for positioning a frame of vision-correcting eyeglasses on the face of a wearer
JP4412380B2 (ja) 2007-10-02 2010-02-10 アイシン・エィ・ダブリュ株式会社 運転支援装置、運転支援方法及びコンピュータプログラム
US8540375B2 (en) 2007-11-30 2013-09-24 Texas Instruments Incorporated Offset projection distortion correction
DE102008026056A1 (de) 2008-05-30 2009-12-03 Rheinmetall Landsysteme Gmbh Vorrichtung zur Vergrößerung des Sehfeldes
JP4942216B2 (ja) 2008-09-30 2012-05-30 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置及びプログラム
JP5852956B2 (ja) 2009-06-23 2016-02-03 シーリアル テクノロジーズ ソシエテ アノニムSeereal Technologies S.A. 2次元及び3次元の少なくともいずれかの画像コンテンツ提示用ディスプレイに用いられる光変調デバイス
US8717254B1 (en) 2009-07-07 2014-05-06 Thomas J. Nave Portable motion sensor and video glasses system for displaying a real time video display to a user while exercising
US8654234B2 (en) 2009-07-26 2014-02-18 Massachusetts Institute Of Technology Bi-directional screen
US20110122144A1 (en) 2009-11-24 2011-05-26 Ofer Gabay Automatically Adaptive Display Eliminating Need For Vision Correction Aids
US8305433B2 (en) 2009-12-23 2012-11-06 Motorola Mobility Llc Method and device for visual compensation
US9326675B2 (en) 2009-12-24 2016-05-03 Microsoft Technology Licensing, Llc Virtual vision correction for video display
US8967809B2 (en) 2010-03-01 2015-03-03 Alcon Research, Ltd. Methods and systems for intelligent visual function assessments
JP5814345B2 (ja) 2010-04-22 2015-11-17 マサチューセッツ インスティテュート オブ テクノロジー 屈折評価のための接眼ツール
JP5921533B2 (ja) 2010-06-11 2016-05-24 バック イン フォーカスBack In Focus 観察者の視覚障害を補正するための表示を表現するシステム、方法、およびそのプログラムを格納している記憶媒体
US8801178B2 (en) 2010-11-04 2014-08-12 Nidek Co., Ltd. Fundus photographing apparatus
JP5732888B2 (ja) * 2011-02-14 2015-06-10 ソニー株式会社 表示装置及び表示方法
TW201239746A (en) 2011-03-24 2012-10-01 Hon Hai Prec Ind Co Ltd System and method for printing onscreen data
US8881058B2 (en) 2011-04-01 2014-11-04 Arthur Austin Ollivierre System and method for displaying objects in a user interface based on a visual acuity of a viewer
US8605082B2 (en) 2011-04-18 2013-12-10 Brian K. Buchheit Rendering adjustments to autocompensate for users with ocular abnormalities
US9183806B2 (en) 2011-06-23 2015-11-10 Verizon Patent And Licensing Inc. Adjusting font sizes
US20130027384A1 (en) 2011-07-27 2013-01-31 Ferris David M Method And Apparatus For Providing Vision Corrected Data At A Mobile Device
US9159299B2 (en) 2011-10-13 2015-10-13 Blackberry Limited Compensated method of displaying based on a visual adjustment factor
US20130096820A1 (en) 2011-10-14 2013-04-18 Continental Automotive Systems, Inc. Virtual display system for a vehicle
US9004683B2 (en) 2011-12-29 2015-04-14 Elwha Llc Optical device with active user-based aberration correction
US8948545B2 (en) 2012-02-28 2015-02-03 Lytro, Inc. Compensating for sensor saturation and microlens modulation during light-field image processing
TWI588560B (zh) * 2012-04-05 2017-06-21 布萊恩荷登視覺協會 用於屈光不正之鏡片、裝置、方法及系統
KR101260287B1 (ko) 2012-04-27 2013-05-03 (주)뷰아이텍 증강 현실을 이용한 안경 렌즈 비교 시뮬레이션 방법
BR102012010884B1 (pt) 2012-05-08 2021-12-07 Universidade Federal Do Rio Grande Do Sul Dispositivos de exibição configuráveis para compensar aberrações visuais
US9494797B2 (en) * 2012-07-02 2016-11-15 Nvidia Corporation Near-eye parallax barrier displays
US9036080B2 (en) 2012-09-04 2015-05-19 Canon Kabushiki Kaisha Apparatus and method for acquiring information about light-field data
KR101944911B1 (ko) * 2012-10-31 2019-02-07 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
US9245497B2 (en) 2012-11-01 2016-01-26 Google Technology Holdings LLC Systems and methods for configuring the display resolution of an electronic device based on distance and user presbyopia
US20140137054A1 (en) 2012-11-14 2014-05-15 Ebay Inc. Automatic adjustment of font on a visual display
US9319662B2 (en) 2013-01-16 2016-04-19 Elwha Llc Systems and methods for differentiating between dominant and weak eyes in 3D display technology
US9406253B2 (en) 2013-03-14 2016-08-02 Broadcom Corporation Vision corrective display
US20140282285A1 (en) 2013-03-14 2014-09-18 Cellco Partnership D/B/A Verizon Wireless Modifying a user interface setting based on a vision ability of a user
US9629541B2 (en) 2013-04-09 2017-04-25 Smart Vision Labs Portable wavefront aberrometer
US10335027B2 (en) 2013-04-10 2019-07-02 Eyenetra, Inc. Methods and apparatus for assessment of refractive condition
FR3005194B1 (fr) 2013-04-25 2016-09-23 Essilor Int Procede de personnalisation d'un dispositif electronique afficheur d'image
US20140327750A1 (en) 2013-05-01 2014-11-06 Nvidia Corporation System, method, and computer program product for displaying a scene as a light field
US20140327771A1 (en) 2013-05-01 2014-11-06 Nvidia Corporation System, method, and computer program product for displaying a scene as a light field
US20140362110A1 (en) 2013-06-08 2014-12-11 Sony Computer Entertainment Inc. Systems and methods for customizing optical representation of views provided by a head mounted display based on optical prescription of a user
US9844323B2 (en) 2013-07-20 2017-12-19 Massachusetts Institute Of Technology Methods and apparatus for eye relaxation
JP2015027852A (ja) 2013-07-30 2015-02-12 トヨタ自動車株式会社 運転支援装置
US9880325B2 (en) 2013-08-14 2018-01-30 Nvidia Corporation Hybrid optics for near-eye displays
US20150234188A1 (en) 2014-02-18 2015-08-20 Aliphcom Control of adaptive optics
US20150234187A1 (en) 2014-02-18 2015-08-20 Aliphcom Adaptive optics
FR3019458B1 (fr) 2014-04-08 2016-04-22 Essilor Int Refracteur
US9895057B2 (en) 2014-04-24 2018-02-20 Carl Zeiss Meditec, Inc. Functional vision testing using light field displays
JP6065296B2 (ja) 2014-05-20 2017-01-25 パナソニックIpマネジメント株式会社 画像表示システム、および画像表示システムに用いられるディスプレイ
US10529059B2 (en) 2014-08-11 2020-01-07 The Regents Of The University Of California Vision correcting display with aberration compensation using inverse blurring and a light field display
DE102014116665A1 (de) 2014-09-22 2016-03-24 Carl Zeiss Ag Verfahren und Vorrichtung zur Bestimmung der Augenrefraktion
US10656596B2 (en) 2014-10-09 2020-05-19 EagleMae Ventures LLC Video display and method providing vision correction for multiple viewers
CN104469343B (zh) 2014-11-26 2017-02-01 北京智谷技术服务有限公司 光场显示控制方法和装置、光场显示设备
WO2016094928A1 (en) 2014-12-18 2016-06-23 Halgo Pty Limited Replicating effects of optical lenses
BR112017013418B1 (pt) 2014-12-24 2021-03-02 Koninklijke Philips N.V tela autoestereoscópica, e, dispositivo portátil
US10247941B2 (en) 2015-01-19 2019-04-02 Magna Electronics Inc. Vehicle vision system with light field monitor
NZ773822A (en) 2015-03-16 2022-07-29 Magic Leap Inc Methods and systems for diagnosing and treating health ailments
US20160299531A1 (en) 2015-03-17 2016-10-13 Roel Vertegaal Cylindrical Computing Device with Flexible Display
AU2015100739B4 (en) 2015-03-23 2015-12-24 Michael Henry Kendall Vision Assistance System
US9492074B1 (en) 2015-04-30 2016-11-15 Opternative, Inc. Computerized refraction and astigmatism determination
CA2901477C (en) 2015-08-25 2023-07-18 Evolution Optiks Limited Vision correction system, method and graphical user interface for implementation on electronic devices having a graphical display
US9971162B2 (en) 2016-02-05 2018-05-15 Toyota Motor Engineering & Manufacturing North America, Inc. Apparatuses and methods for making an object appear transparent
US10058241B2 (en) 2016-02-29 2018-08-28 Carl Zeiss Meditec, Inc. Systems and methods for improved visual field testing
US10085631B2 (en) 2016-03-31 2018-10-02 Nidek Co., Ltd. Method for generating eyeglass-prescription assisting information
CN109070804B (zh) 2016-04-14 2021-09-21 金泰克斯公司 视觉校正车辆显示器
WO2018022521A1 (en) * 2016-07-25 2018-02-01 Magic Leap, Inc. Light field processor system
US10206566B2 (en) 2016-10-17 2019-02-19 EyeQue Corporation Optical method to assess the refractive properties of an optical system
US11432718B2 (en) 2017-10-31 2022-09-06 EyeQue Inc. Smart phone based virtual visual charts for measuring visual acuity
CA3040852C (en) * 2016-10-20 2023-04-04 Nikon-Essilor Co., Ltd. Image creation device, method for image creation, image creation program, method for designing eyeglass lens and method for manufacturing eyeglass lens
US20190246889A1 (en) 2016-10-28 2019-08-15 Essilor International Method of determining an eye parameter of a user of a display device
KR20180056867A (ko) 2016-11-21 2018-05-30 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
FR3059537B1 (fr) 2016-12-07 2019-05-17 Essilor International Appareil et procede de mesure de refraction oculaire subjective de haute resolution en puissance optique spherique et/ou cylindrique
US10685492B2 (en) * 2016-12-22 2020-06-16 Choi Enterprise, LLC Switchable virtual reality and augmented/mixed reality display device, and light field methods
WO2018129310A1 (en) 2017-01-08 2018-07-12 Shanghai Yanfeng Jinqiao Automotive Trim Systems Co. Ltd System and method for image display on vehicle interior component
CA2959820A1 (en) 2017-03-03 2018-09-03 Evolution Optiks Limited Vision correction system and method, and light field display and barrier therefor
KR102347689B1 (ko) 2017-04-10 2022-01-05 현대자동차주식회사 차량의 사각존용 필러 디스플레이 장치
US10420467B2 (en) 2017-09-05 2019-09-24 eyeBrain Medical, Inc. Method and system for measuring binocular alignment
CA3021636A1 (en) * 2018-10-22 2020-04-22 Evolution Optiks Limited Light field display, adjusted pixel rendering method therefor, and vision correction system and method using same

Also Published As

Publication number Publication date
US10699373B1 (en) 2020-06-30
US20200126180A1 (en) 2020-04-23
US20200226713A1 (en) 2020-07-16
JP2022512013A (ja) 2022-02-01
EP3871409B1 (en) 2023-08-09
WO2020084447A1 (en) 2020-04-30
EP3871409A1 (en) 2021-09-01
CN112913231A (zh) 2021-06-04
US10636116B1 (en) 2020-04-28
CA3109811A1 (en) 2020-04-30
EP3871409C0 (en) 2023-08-09
CA3109811C (en) 2023-11-14

Similar Documents

Publication Publication Date Title
ES2954588T3 (es) Pantalla de campo de luz, método de representación de píxeles ajustado para el mismo, y sistema y método de corrección de visión que utiliza el mismo
US10642355B1 (en) Light field display, adjusted pixel rendering method therefor, and vision correction system and method using same
US10761604B2 (en) Light field vision testing device, adjusted pixel rendering method therefor, and vision testing system and method using same
CN114930443A (zh) 光场设备、用于其的多深度像素渲染方法、以及使用其的多深度视力感知系统和方法
EP3761848B1 (en) Vision correction system and method, light field display and light field shaping layer and alignment therefor
CN114600032A (zh) 光场视力测试设备、用于其的经调整的像素渲染方法、以及使用其的视力测试系统和方法
US20230341933A1 (en) Light field device, pixel rendering method therefor, and adjusted vision perception system and method using same
US11353699B2 (en) Vision correction system and method, light field display and light field shaping layer and alignment therefor
US11902498B2 (en) Binocular light field display, adjusted pixel rendering method therefor, and vision correction system and method using same
ES2961643T3 (es) Pantalla de campo de luz, método de representación de píxeles ajustados para la misma y sistema y método de percepción de visión ajustada que usan el mismo tratamiento del astigmatismo o condiciones similares
US11693239B2 (en) Vision correction system and method, light field display and light field shaping layer and alignment therefor