ES2979007T3 - Método y sistema de proyección con gama de color mezclada - Google Patents

Método y sistema de proyección con gama de color mezclada Download PDF

Info

Publication number
ES2979007T3
ES2979007T3 ES21707539T ES21707539T ES2979007T3 ES 2979007 T3 ES2979007 T3 ES 2979007T3 ES 21707539 T ES21707539 T ES 21707539T ES 21707539 T ES21707539 T ES 21707539T ES 2979007 T3 ES2979007 T3 ES 2979007T3
Authority
ES
Spain
Prior art keywords
primaries
intensity values
gamut
range
values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES21707539T
Other languages
English (en)
Inventor
Trevor Davies
Barbenchon Clement Luc Carol Le
Elizabeth Dovale
Martin J Richards
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby Laboratories Licensing Corp
Original Assignee
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Laboratories Licensing Corp filed Critical Dolby Laboratories Licensing Corp
Application granted granted Critical
Publication of ES2979007T3 publication Critical patent/ES2979007T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/334Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using spectral multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

Un sistema de proyección y un método por lo tanto relacionados con un primer dispositivo de proyección; un segundo dispositivo de proyección; al menos un modulador espacial; y un procesador electrónico configurado para: recibir datos de vídeo bidimensionales, generar una primera pluralidad de valores de intensidad de una primera gama de colores y una segunda pluralidad de valores de intensidad de una segunda gama de colores, restar un umbral de luminancia de una pluralidad de valores de píxel de la segunda gama de colores para producir una pluralidad de valores de píxel positivos y una pluralidad de valores de píxel negativos, establecer los respectivos de la pluralidad de valores de píxel a valores predeterminados para obtener un residuo de la segunda gama de colores, añadir el residuo a la primera gama de colores, añadir valores de píxel maximizados a la primera gama de colores y a la segunda gama de colores para crear una gama de salida, y mezclar la gama de salida con una gama de colores nativa para generar una gama mezclada. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Método y sistema de proyección con gama de color mezclada
Antecedentes de la invención
1. Campo de la divulgación
Esta solicitud se refiere en general a sistemas y métodos de renderización y proyección de imágenes.
2. Descripción de técnica relacionada
Los dispositivos de exhibición visual capaces de exhibir visualmente imágenes tridimensionales (3D) pueden exhibir visualmente una imagen del ojo izquierdo y una imagen del ojo derecho usando dos conjuntos distintos de primarios ("seis primarios" o 6P) que, cuando se ven juntos, dan la apariencia de una imagen 3D. Tales dispositivos de exhibición visual también se pueden utilizar para exhibir visualmente imágenes bidimensionales (2D).
El documento WO 2017/223355 A1 se refiere a un proyector que utiliza seis colores primarios.
Breve sumario de la divulgación
Diversos aspectos de la presente divulgación se relacionan con dispositivos, sistemas y métodos para renderizar imágenes de amplia gama de color.
La invención se define mediante las reivindicaciones independientes. Las reivindicaciones dependientes definen realizaciones ventajosas.
De esta manera, diversos aspectos de la presente divulgación proporcionan la exhibición visual de imágenes que tienen un alto intervalo dinámico, una alta resolución y una amplia gama de color, y efectúa mejoras en al menos los campos técnicos de proyección de imágenes, holografía, procesamiento de señales, y similares.
Descripción de los dibujos
Las figuras que se acompañan, donde números de referencia similares se refieren a elementos idénticos o funcionalmente similares en las vistas separadas, junto con la descripción detallada a continuación, se incorporan y forman parte de la memoria descriptiva, y sirven para ilustrar adicionalmente realizaciones de conceptos, y explicar diversos principios y ventajas de esas realizaciones.
El experto en la técnica observará que los elementos de las figuras se ilustran por simplicidad y claridad y no necesariamente se han dibujado a escala. Por ejemplo, las dimensiones de algunos de los elementos de las figuras pueden exagerarse con respecto a otros elementos para ayudar a mejorar la comprensión de las realizaciones de la presente divulgación.
Los componentes del aparato y del método se han representado cuando corresponde mediante símbolos en los dibujos, mostrando sólo aquellos detalles específicos que son pertinentes para comprender las realizaciones de la presente divulgación como para no embrollar la divulgación con detalles que serán fácilmente evidentes para el experto en la técnica que tenga el beneficio de la descripción en el presente documento.
La figura 1A es un diagrama de espectro de un sistema de proyección 6P ejemplar de acuerdo con diversos aspectos de la presente divulgación.
La figura 1B es un diagrama de bloques de un sistema de proyección ejemplar de acuerdo con diversos aspectos de la presente divulgación.
La figura 1C es un diagrama de bloques de un sistema de proyección ejemplar de acuerdo con diversos aspectos de la presente divulgación.
La figura 2 es un diagrama de bloques de un controlador ejemplar incluido en el sistema de las figuras 1B y 1C de acuerdo con diversos aspectos de la presente divulgación.
La figura 3 es un diagrama de flujo que ilustra un método ejemplar implantado por el controlador de la figura 2 de acuerdo con diversos aspectos de la presente divulgación.
La figura 4 es un diagrama de cromaticidad ejemplar de acuerdo con diversos aspectos de la presente divulgación. La figura 5A es un diagrama de cromaticidad ejemplar de acuerdo con diversos aspectos de la presente divulgación.
La figura 5B es un diagrama de cromaticidad ejemplar de acuerdo con diversos aspectos de la presente divulgación. La figura 6A es un diagrama de cromaticidad ejemplar de acuerdo con diversos aspectos de la presente divulgación. La figura 6B es un diagrama de cromaticidad ejemplar de acuerdo con diversos aspectos de la presente divulgación. La figura 7A es un diagrama de cromaticidad ejemplar de acuerdo con diversos aspectos de la presente divulgación. La figura 7B es un diagrama de cromaticidad ejemplar de acuerdo con diversos aspectos de la presente divulgación. La figura 8A es un diagrama de cromaticidad ejemplar de acuerdo con diversos aspectos de la presente divulgación. La figura 8B es un diagrama de cromaticidad ejemplar de acuerdo con diversos aspectos de la presente divulgación.
Descripción detallada
Como se indicó anteriormente, algunos dispositivos de exhibición visual 6P configurados para proyectar imágenes 3D se pueden utilizar para proyectar/exhibir visualmente imágenes 2D. Al proyectar imágenes en 3D, los seis primarios se utilizan para exhibir visualmente las imágenes del ojo izquierdo y del ojo derecho usando un conjunto de tres primarios (rojo, verde y azul) para la imagen del ojo izquierdo y el otro conjunto de tres primarios para la imagen del ojo derecho. Las gafas 3D para usar con tal dispositivo de exhibición visual pueden tener filtros correspondientes (tales como filtros de paso de banda) para permitir que cada ojo vea la imagen apropiada. Los dispositivos de exhibición visual 3D pueden exhibir visualmente imágenes bidimensionales alimentando cada par de fuentes de luz primarias con los mismos datos sin la necesidad de que el observador lleve gafas 3D. Por ejemplo, los valores de datos rojos 2D se utilizan para accionar los colores primarios rojo1 y rojo2. De manera similar, los valores de datos verdes 2D se usan para accionar los primarios verde1 y verde2, y los valores de datos azules 2D se usan para accionar los primarios azul1 y azul2. El sistema se calibra con los primarios combinados y se pueden producir imágenes. Sin embargo, la gama de color resultante se puede limitar significativamente con respecto a una gama de color deseada (por ejemplo, los valores parámetro de la recomendación UIT-R BT.2020 (08/2012) establecidos para sistemas de televisión de ultra alta definición para producción e intercambio internacional de programas, en adelante denominados gama de Rec2020). Aumentar la gama de color resultante del volumen de color 3D puede dar como resultado una reducción de la incidencia de errores de cromaticidad, tal como el recorte de croma, y puede conservar un tono al recortar píxeles que no encajan dentro del volumen de color 3D.
Esta divulgación y aspectos de la misma pueden incorporarse de diversas formas, incluyendo equipo físico informático (hardware) o circuitos controlados por métodos implantados por ordenador, productos de programas informáticos, sistemas y redes informáticas, interfaces de usuario e interfaces de programación de aplicaciones; así como métodos implantados en hardware, circuitos de procesamiento de señales, matrices de memoria, circuitos integrados específicos de aplicaciones, matrices de puertas programables en campo y similares. El sumario anterior pretende únicamente dar una idea general de diversos aspectos de la presente divulgación, y no limita el alcance de la divulgación de ninguna manera.
En la siguiente descripción, se exponen numerosos detalles, tales como configuraciones de circuito, disposiciones temporales de formas de onda, operaciones de circuito y similares, con el fin de proporcionar una comprensión de uno o más aspectos de la presente divulgación. Será fácilmente evidente para el experto en la técnica que estos detalles específicos son meramente ejemplares y no pretenden limitar el alcance de esta solicitud.
Lo que es más, si bien la presente divulgación se enfoca principalmente en ejemplos en los que los datos de vídeo recibidos son de Rec2020, se entenderá que esto es simplemente un ejemplo de una implantación y que se pueden utilizar otros espacios de color. Se entenderá además que los sistemas y métodos divulgados se pueden usar en cualquier sistema de proyección para mejorar la renderización de imágenes 2D en seis dispositivos de exhibición visual principales.
Sistemas de proyector
Para facilitar la descripción, algunos o todos los sistemas de ejemplo presentados en el presente documento se ilustran con un único ejemplo de cada una de sus partes de componentes. Es posible que algunos ejemplos no describan o ilustren todos los componentes de los sistemas. Otras realizaciones de ejemplo pueden incluir más o menos de cada uno de los componentes ilustrados, pueden combinar algunos componentes o pueden incluir componentes adicionales o alternativos. Por ejemplo, en algunas realizaciones, el sistema 100 de las figuras 1B y 1C de más adelante incluye más de una fuente 102 de luz.
Como se describió anteriormente, algunos dispositivos de exhibición visual 3D, denominados sistemas 6P, exhiben visualmente de manera simultánea una imagen del ojo izquierdo y del ojo derecho utilizando dos conjuntos distintos de primarios. La figura 1A es un diagrama espectral 1 de un sistema 6P de acuerdo con algunas realizaciones. El diagrama espectral 1 incluye tres longitudes de onda cortas 2A, 3A y 4A (denominadas aquí primarias cortas) y tres longitudes de onda largas 2B, 3B y 4B (denominadas aquí primarias largas). Los sistemas de exhibición visual de ejemplo descritos en el presente documento están configurados para utilizar las primarias cortas 2A, 3A y 4A para la imagen del ojo izquierdo (por ejemplo, mediante un proyector izquierdo designado) y las primarias largas 2B, 3B y 4B para la imagen del ojo derecho (por ejemplo, mediante un proyector derecho designado). Sin embargo, en otras implantaciones, las primarias cortas 2A, 3A y 4A pueden usarse para la imagen del ojo derecho y las primarias cortas 2B, 3B y 4B pueden usarse para la imagen del ojo izquierdo. Las primarias cortas 2A, 3A y 4a pueden ser, por ejemplo, una primera longitud de onda azul, una primera longitud de onda verde y una longitud de onda azul roja, respectivamente. Las primarias cortas 2B, 3B y 4B pueden ser, por ejemplo, una segunda longitud de onda azul, una segunda longitud de onda verde y una segunda longitud de onda roja, respectivamente. La primera longitud de onda roja es más corta que la segunda longitud de onda roja, la primera longitud de onda verde es más corta que la segunda longitud de onda verde y la primera longitud de onda azul es más corta que la segunda longitud de onda azul. Debe entenderse que, en realizaciones adicionales, se puede utilizar una combinación de primarias cortas y largas para cada imagen ocular. Como se explica con más detalle a continuación, cada proyector emite una salida de luz modulada (de las primarias designadas del proyector) en un dispositivo de exhibición visual o en una pantalla de visualización. En las realizaciones descritas en el presente documento, tanto la imagen del ojo izquierdo como la imagen del ojo derecho se exhiben visualmente de manera simultánea.
Las figuras 1B y 1C son cada una de ellas un diagrama de bloques de sistemas 100 de exhibición visual ejemplares de acuerdo con algunas realizaciones. Cada sistema incluye al menos algunos componentes configurados de manera similar, que están etiquetados como tales. El sistema 100 de exhibición visual está configurado para visualizar datos de vídeo 3D y 2<d>recibidos desde una fuente 101 de datos de vídeo. El sistema 100 de exhibición visual puede ser cualquier tipo de sistema configurado para visualizar imágenes, por ejemplo, un sistema de proyección o un diodo emisor de luz (LED) sistema de exhibición visual. El sistema 100 de exhibición visual incluye una fuente 102 de luz, una óptica 104 de iluminación, un separador 106, uno o más moduladores 108, un combinador 110, una óptica 112 de proyección y un controlador 114. Mientras que las figuras 1B y 1C ilustran una fuente 102 de luz, los sistemas 100 de exhibición visual de acuerdo con algunas realizaciones pueden contener múltiples fuentes 102 de luz. Los componentes del sistema 100 pueden alojarse en un único dispositivo de proyección (tal como un único proyector) o, en algunas realizaciones, múltiples dispositivos. Por ejemplo, en algunas realizaciones, las fuentes de luz, los moduladores y otros componentes del sistema 100 de exhibición visual se pueden separar en dos o más dispositivos de proyección coordinados separados. En tal realización, cada uno de los dispositivos de proyección coordinados separados puede manejar un conjunto de longitudes de onda. Por ejemplo, un primer dispositivo de proyección coordinado separado puede separar, modular y combinar las primarias cortas 2A, 3A y 4A, mientras que un segundo dispositivo de proyección coordinado separado, puede separar, modular y combinar las primarias largas 2B, 3B y 4B.
La fuente 102 de luz es accionada por el controlador 114 para producir un haz de iluminación que incluye, en la realización ilustrada, seis colores primarios. El haz de iluminación se dirige a través de la óptica 104 de iluminación y hacia el separador 106 de color. El separador 106 de color separa el haz de iluminación en los seis haces primarios y dirige cada haz primario a uno asociado de moduladores 108 de luz espacial (SLM). Cada modulador 108 modula los haces de iluminación primarios en base a la entrada desde el controlador 114, como se describe con más detalle más adelante. La óptica 112 de proyección enfoca el haz modulado para formar un haz 116 de formación de imágenes. Luego, el haz 116 de formación de imágenes se proyecta para crear una imagen, por ejemplo, sobre una superficie de visualización (no mostrada). En el sistema ejemplar de la figura 1B, las imágenes del ojo izquierdo y derecho pueden proyectarse alternativamente (lo que también se denomina "multiplexación por división de tiempo").
En algunas realizaciones, cada color primario puede estar asociado con un modulador 108 individual. Alternativamente, como se muestra en la figura 1B, el número de moduladores se puede reducir, por ejemplo, usando un esquema de modulación secuencial de campo. En algunas realizaciones, los moduladores pueden incluir una pluralidad de moduladores para cada color primario, como, por ejemplo, en un proyector de modulación dual. En algunas realizaciones, cada modulador 108 está asociado con un conjunto de colores primarios. Por ejemplo, como se describió anteriormente con respecto a la figura 1A, un sistema 6P, como se muestra en la figura 1C, puede incluir un proyector izquierdo y un proyector derecho. La figura 1C ilustra un sistema 100 de exhibición visual frontal dual, que incluye moduladores separados 108A y 108B, ópticas 112A y 112B de proyección (por ejemplo, un primer dispositivo 112a de proyección y un segundo dispositivo 112B de proyección) y dos haces 116A y 116B de formación de imágenes resultantes, cada conjunto de los cuales está designado para un canal del ojo izquierdo y un canal del ojo derecho respectivamente. El modulador 108A, la óptica 112A de proyección y el haz 116 de formación de imágenes resultante pueden considerarse componentes de un proyector izquierdo (cabezal de proyección), y el modulador 108B, la óptica 112B de proyección y el haz 116B de formación de imágenes resultante pueden considerarse componentes de un proyector derecho (cabezal de proyección). Como se describió anteriormente, las salidas de luz de ambos canales se exhiben visualmente de manera simultánea para producir una única imagen resultante en un dispositivo de exhibición visual o en una pantalla. Además, mientras que las figuras 1B y 1C ilustran la fuente 101 de datos de video como separada del sistema 100 de exhibición visual, en algunas realizaciones la fuente 101 de datos de video puede ser interna al sistema 100 de exhibición visual (por ejemplo, en una memoria asociada con el sistema 100 de exhibición visual). En algunas realizaciones, el separador 106, uno o más moduladores 108 y el combinador 110 pueden duplicarse en serie de tal manera que una segunda combinación de un separador 106, uno o más moduladores 108 y un combinador 110 se repita antes de la óptica 112 de proyección. Además, los métodos descritos en el presente documento pueden realizarse en dispositivos que no incluyen el separador 106 ni el combinador 110. En consecuencia, tales dispositivos pueden proporcionar que los haces de iluminación se combinen en la propia pantalla usando múltiples proyectores.
La figura 2 es un diagrama de bloques del controlador 114 de acuerdo con algunas realizaciones. El controlador 114 incluye un procesador electrónico 205, una memoria 210 y una interfaz 215 de entrada/salida. El procesador electrónico 205 obtiene y proporciona información (por ejemplo, de la memoria 210 y/o de la interfaz 215 de entrada/salida), y procesa la información ejecutando un/a o más módulos o instrucciones de equipo lógico informático (software), capaces de almacenarse, por ejemplo, en un área de memoria de acceso aleatorio ("RAM") de la memoria 210 o en una memoria de sólo lectura ("ROM") de la memoria 210 o en otro medio no transitorio legible por ordenador (no mostrado). El software puede incluir soporte lógico inalterable (firmware), una o más aplicaciones, datos de programa, filtros, reglas, uno o más módulos de programa y otras instrucciones ejecutables. El procesador electrónico 205 puede incluir múltiples núcleos o unidades de procesamiento individuales. El procesador electrónico 205 está configurado para recuperar de la memoria 210 y ejecutar, entre otras cosas, software relacionado con los métodos y procesos de control descritos en el presente documento.
La memoria 210 puede incluir uno o más medios legibles por ordenador no transitorios, e incluye un área de almacenamiento de programas y un área de almacenamiento de datos. El área de almacenamiento de programas y el área de almacenamiento de datos pueden incluir combinaciones de diferentes tipos de memoria, como se describe en el presente documento. La memoria 210 puede tomar la forma de cualquier medio no transitorio legible por ordenador.
La interfaz 215 de entrada/salida está configurada para recibir entradas y proporcionar salidas del sistema. La interfaz 215 de entrada/salida obtiene información y señales de, y proporciona información y señales a (por ejemplo, a través de una o más conexiones cableadas y/o inalámbricas), dispositivos tanto internos como externos al sistema 100 de exhibición visual, como, por ejemplo, la fuente 102 de luz, el/los modulador/es 108 y la fuente 101 de datos de vídeo.
Método de renderización de imágenes
La figura 3 es un diagrama de flujo que ilustra un método 300 de ejemplo para hacer funcionar un sistema de proyección de acuerdo con algunas realizaciones. Como ejemplo, se describe que el método 300 lo realiza el controlador 114 ilustrado en las figuras 1B y 1C, y, en particular, el procesador electrónico 205 ilustrado en la figura 2.
En el bloque 302, el procesador electrónico 205 recibe datos de vídeo desde una fuente de datos de vídeo, tal como la fuente 101 de datos de vídeo ilustrada en la figura 1B y 1C. Los datos de vídeo pueden incluir una serie de valores de píxeles triestímulo de un archivo o de una corriente de contenido de vídeo. En algunas realizaciones, los datos de vídeo incluyen valores de píxeles en un espacio (o gama) de color tal como Rec2020 (también denominada recomendación BT.2020 UIT-R). En el bloque 304, el procesador electrónico 205 genera, a partir de los datos de vídeo, una primera pluralidad de valores de intensidad de primarios virtuales de una primera gama de color, y, en el bloque 306, genera, a partir de los datos de vídeo, una segunda pluralidad de valores de intensidad de primarios virtuales de una segunda gama de color. En particular, un volumen de gama para imágenes 2D se divide en dos gamas virtuales: gama A y gama B. Cada gama incluye primarios virtuales que son mezclas específicas de los primarios predefinidos. Como se explica con más detalle a continuación, la gama A se selecciona para que sea lo más cercana a una gama de color predefinida, por ejemplo, un espacio de color estándar definido (por ejemplo, Rec2020), mientras que la gama B se utiliza para cualquier energía residual de los primarios predefinidos. En otras palabras, la gama A se utiliza para niveles de luminancia más bajos, y la gama B se añade para conseguir niveles de luminancia más altos cuando corresponda. En algunas implantaciones, la gama A se optimiza para conseguir la mayor gama de color posible.
Volviendo a la figura 3, en el bloque 308, el procesador electrónico 205 convierte la primera pluralidad de valores de intensidad en una tercera pluralidad de valores de intensidad de primarios predefinidos de un primer canal ocular (por ejemplo, un canal de un primer cabezal de proyección) y la segunda pluralidad de valores de intensidad en una cuarta pluralidad de valores de intensidad de primarios predefinidos de un segundo canal ocular (por ejemplo, un canal de un segundo cabezal de proyección). En algunas implantaciones, el primer canal ocular y el segundo canal ocular son canales separados del mismo cabezal de proyección o dispositivo de proyección.
En algunas realizaciones, se aplica una función de mezcla a la gama A y la gama B para optimizar cada gama para que esté cerca del espacio de color de los datos de vídeo (en el presente ejemplo, Rec2020). En otras palabras, en estas realizaciones, el procesador electrónico 205 convierte, por ejemplo, mediante una o más funciones de mezcla, la primera pluralidad de valores de intensidad y la segunda pluralidad de valores de intensidad en una tercera pluralidad de valores de intensidad de primarios predefinidos de un primer canal ocular (por ejemplo, un canal de un primer cabezal de proyección). El procesador electrónico 205 también convierte, por ejemplo, mediante una o más funciones de mezcla, la primera pluralidad de valores de intensidad y la segunda pluralidad de valores de intensidad en una cuarta pluralidad de valores de intensidad de primarios predefinidos de un segundo canal ocular (por ejemplo, un canal de un segundo cabezal de proyección). Las ecuaciones [1] y [2] a continuación ilustran la función de mezcla realizada en el bloque 308 para el canal del ojo izquierdo y el canal del ojo derecho, respectivamente.
El vector de R<l>G<l>B<l>corresponde a la tercera pluralidad de valores de intensidad, por ejemplo, primarios del canal del ojo derecho, y el vector de Rs Gs Bs corresponde a la cuarta pluralidad de valores de intensidad, por ejemplo, primarios del canal del ojo izquierdo, donde R se refiere a un primario rojo, G se refiere a un primario verde, B se refiere a un primario azul, el subíndice L se refiere a primarios de longitud de onda "larga", y el subíndice S se refiere a primarios de longitud de onda "corta". En algunas realizaciones, el canal del ojo derecho puede incluir los primarios de longitud de onda corta, mientras que el canal del ojo izquierdo incluye los primarios de longitud de onda larga. En ambas ecuaciones, la gama A (la matriz que incluye R<a>G<a>B<a>) y la gama B (la matriz que incluye R<b>G<b>B<b>) de cada canal se escalan mediante una matriz de mezcla (las matrices de B<al>, B<bl>, B<as>y B<bs>). Los valores particulares de las matrices de mezcla pueden ser valores predeterminados determinados en base a la ubicación de los primarios y al espacio de color predeterminado. Los valores particulares también pueden depender del sistema de proyección/exhibición visual utilizado (por ejemplo, el tipo de cabezal del proyector). A continuación se describen con más detalle métodos de ejemplo de determinación de cada matriz de mezcla. En el presente ejemplo, se utilizan los siguientes valores de matrices de mezcla.
' 0 0 0
[Ba l )- 0.0096 0 ,2626 ü
. 0 0 0.9733
¡1.0000 0 0
[Bbl]- 0 0.7278 0
í 0 0 0.0267
0.9904 0 0
Volviendo a la figura 3, en el bloque 310, el procesador electrónico 205 ajusta dinámicamente los niveles de píxeles de al menos un modulador espacial, tal como el modulador 108 ilustrado en las figuras 1B y C, en base a la tercera pluralidad de valores de intensidad y a la cuarta pluralidad de valores de intensidad. En realizaciones en las que el sistema 100 es un sistema de proyección de doble cabezal, se ajustan los niveles de píxeles del modulador de cada uno de los cabezales de proyección.
Como se mencionó anteriormente, la gama A se optimiza para que sea lo más cercana a una gama de color predefinida, por ejemplo, un espacio de color estándar definido (por ejemplo, Rec2020), mientras que la gama B se utiliza para cualquier energía residual de los primarios predefinidos. Más adelante se describen dos métodos ejemplares implantados por el procesador 205 para procesar datos de vídeo recibidos en las gamas A y B.
Un método para optimizar la gama A es escalar (por ejemplo, comprimir) las cromaticidades de los datos de vídeo para que encajen dentro del volumen de gama que se puede conseguir de la fuente 102 de luz, que, en el presente documento, se denomina escalamiento de gama. En el método de escalamiento de gama, se definen dos funciones:f i(P ) = si ( P <0,5),P, si no0,5
U P ) = P - f i ( P )
P<e>P<2020< ^ 2 02 0 ^ 20 20>
La variable P representa los valores de píxeles de los datos de vídeo recibidos, que aquí se asume que son datos triestímulo Rec2020. La función fi(P) representa una tabla de búsqueda para la gama A, mientras que la función fu(P) representa una tabla de búsqueda para la gama B. En el presente ejemplo, la función fi(P) define una rampa lineal que aumenta de 0 a 0,5 y es de línea plana más allá de 0,5, mientras que la función fu(P) define una línea plana de 0 a 0,5 y una rampa lineal que aumenta desde 0,5. El valor 0,5 corresponde a un umbral de luminancia. En algunas realizaciones, se puede utilizar un umbral de luminancia diferente.
Para cada uno de los valores de píxeles de los datos de vídeo recibidos, la gama A y la gama B se derivan de la siguiente manera:
( ^ 202 o )
(G<2020 )>
( ® 202 o )
/u(^202C>)
Gb/ti(^202o)
i b b\ fu(B<2020 )>
En otras palabras, para cada canal primario de los datos de vídeo entrantes R2020, G2020 y B2020, los valores de píxeles con un nivel de luminancia inferior a 0,5 (correspondiente al 50% del intervalo de luminancia total del sistema 100 y al 100% del intervalo de luminancia de la gama A) se incluyen dentro de la gama A, mientras que los valores de píxeles que exceden 0,5 (lo que significa que están fuera del intervalo de luminancia de la gama A) se asignan a la gama B. Las señales derivadas de la gama A y de la gama B se convierten luego a los primarios definidos como se describió anteriormente con respecto al bloque 308 y a las ecuaciones [1] y [2] anteriores.
Otro método para procesar datos de vídeo recibidos en la gama A es recortar las cromaticidades para que encajen en las gamas A y B para que encajen en el volumen de gama alcanzable de la fuente 102 de luz. Primero, se define la relación [C]<a>y [C]<b>de transformación del espacio de color de la fuente 102 a la gama A y a la gama B, respectivamente. La derivación se puede realizar de la siguiente manera.
Conociendo las matrices primarias normalizadas para el canal izquierdo y el canal derecho, se pueden definir puntos arbitrarios en ambos canales como:
Donde el vector de X, Y y Z corresponde a un punto arbitrario, las matrices de NPM<lll>y NPMsss corresponden a las matrices primarias normalizadas del canal del ojo derecho y del canal del ojo izquierdo, respectivamente, y las matrices de R<l>, G<l>y B<l>. y R<s>, G<s>y B<s>corresponden a matrices no normalizadas del canal del ojo derecho y del canal del ojo izquierdo, respectivamente.
Las funciones de mezcla definidas en las ecuaciones [1] y [2] anteriores se sustituyen cada una como matrices no normalizadas del canal del ojo derecho y del canal del ojo izquierdo, respectivamente.
Al convertir la fórmula anterior en términos de matrices primarias, la fórmula queda:
y
[PM]s = [NPM]jSS[Bbs][NPM]L ii[Bb l]
Conociendo la matriz primaria normalizada para Rec2020 a continuación:
[NPM]202<o>
La transformación de los vectores Rec2020 de fuente a las gamas A y B son, respectivamente:
Como se mencionó anteriormente, la gama A se usa para niveles de luminancia más bajos, mientras que la gama B se utiliza cuando sea aplicable para conseguir niveles de luminancia más altos. A diferencia del método de escalamiento de gama, en el que el intervalo de luminancia de la gama A es el mismo en todos los canales, aquí se utiliza un vector de umbral como umbral de luminancia, lo que significa que el intervalo de luminancia de la gama A varía según el canal. El vector de umbral que representa la transición entre las gamas 'A' y 'B' en el espacio de Rec2020 se puede encontrar de la siguiente manera:
0,5
0,5
0,5
En otras palabras, cada umbral en el vector de umbral se determina en base a una transformación de la primera gama de color virtual a la gama de color predefinida. Luego, se definen las siguientes funciones:
f i(P )=si (P < T P),P,si noTp
P e ^2020^2020^2020
La variable P representa los valores de píxeles de los datos de vídeo recibidos, que aquí se asume que son datos triestímulo Rec2020. De manera similar a las funciones f1 (P) y fu(P) del método de escalamiento de gama descrito anteriormente, la función fi(P) representa nuevamente una tabla de búsqueda para la gama A, mientras que la función fu(P) representa una tabla de búsqueda para la gama B. En el presente ejemplo, la función f1 (P) define una rampa lineal que aumenta desde 0 hasta el valor umbral del canal particular definido en el vector umbral y se aplana más allá del valor umbral particular, mientras que la función fu(P) define una línea plana desde 0 hasta el valor umbral particular y una rampa lineal que aumenta desde el valor umbral particular. Nuevamente, aquí los valores de umbral particulares corresponden respectivamente a un umbral de luminancia de cada uno de los canales de la gama A. En algunas realizaciones, las funciones fi(P) y fu(P) pueden definir transiciones distintas de las rampas lineales descritas anteriormente (siempre que la suma de las funciones sea igual a 1). Por ejemplo, una o ambas funciones fi(P) y fu(P) pueden definir una curva hasta la línea plana.
Para cada uno de los valores de píxeles de los datos de vídeo recibidos, la gama A y la gama B se derivan de la siguiente manera:
r*A if l ( B202o)
ga f ( G2020)
ib J f 1( ^ 2020)
\rb] fu(.R2020)
Gb fu (G2020)
Bb\ fu (B2020)
En otras palabras, para cada canal primario de los datos R2020, G2020 y B2020 de vídeo entrantes, los valores de píxel con un nivel de luminancia por debajo del valor umbral correspondiente del vector umbral T<r>, T<g>y T<b>(correspondiente a un intervalo de luminancia de la gama A) se incluyen dentro de la gama A, mientras que los valores de píxeles que exceden el valor umbral particular (lo que significa que están fuera del intervalo de luminancia de la gama A) se asignan a la gama B.
Cualquier valor de intensidad de la gama A y la gama B derivados que sean valores negativos se recortan a 0, como se muestra en las siguientes ecuaciones [3] y [4].
\P b ] m ax(R B,0)
g b=m ax(GB,0) [4]
lb b\ m ax(B B,0)
En algunas implantaciones, los valores negativos se recortan a 1 (o blanco) en lugar de a 0. Las señales derivadas de la gama A y la gama B se convierten luego a los primarios definidos como se describió anteriormente con respecto al bloque 308 y las ecuaciones [1] y [2] anteriores.
En otra implantación, el escalamiento de gama se consigue usando las siguientes funciones:
fu(P) = P —4*2020
P^ ^2020-^2020^2020
En el presente ejemplo, la variable P representa los valores de píxeles de los datos de vídeo recibidos, que aquí se asume que son datos triestímulo Rec 2020. La función fu(P) calcula la influencia de la gama superior en el comportamiento de recorte del sistema y define una rampa lineal que aumenta en la dirección positiva desde el valor umbral del canal particular, según se define en el vector umbral, y disminuye en la dirección negativa desde el mismo valor umbral.
La gama A se puede ajustar en base a un residuo de la gama B. Por ejemplo, la gama B se obtiene de la siguiente manera:
P -B f fu(.B2020)
GBf[E Efu (G2020)
P B f fu (B 202o)
donde
[C ]B+ = m ax(0,[C]B)
La gama B resultante incluye una pluralidad de valores de píxeles positivos y una pluralidad de valores de píxeles negativos. La pluralidad de valores de píxeles negativos se establece en valores predeterminados (es decir, recortados) para obtener un residuo de la gama B, derivado de la siguiente manera:
\RB]min (Lr ,max(RBp0)
Gbmin (Lg,max(GBf ,0)
Bb\min (L¡¡,max{GBp0)
donde
En otras palabras, cualesquiera valores de intensidad de la gama B derivada que sean valores negativos se recortan primero a 0. Luego, cualquier valor de intensidad respectivo de la gama B derivada se establece en el mínimo de o bien (1) el valor de intensidad siguiente la acción de recorte, o bien (2) un valor umbral predeterminado L. El valor umbral predeterminado puede ser cualquier valor entre 0 y 1, tal como 0,5. Como ejemplo, si el umbral predeterminado es 0,5, cualquier valor de intensidad superior a 0,5 se establece en 0,5, y cualquier valor de intensidad inferior a 0,5 sigue siendo el mismo valor.
Los valores de intensidad de la gama B recortada se vuelven luego a convertir al espacio de color estándar definido (por ejemplo, Rec2020) y se restan de los datos de vídeo iniciales, según se define a continuación:
Donde R2020, G2020 y B2020 son los valores de R, G, B de los datos de vídeo en el espacio de color estándar definido. A continuación, la gama A se procesa en base a los datos de vídeo restantes dentro del espacio de color estándar definido:
2020
2020
<2020>Resto
Luego, se añaden valores de píxeles maximizados a la gama A para añadir color blanco y devolver cualquier valor de intensidad negativo a la gama respectiva, manteniendo al mismo tiempo el tono conseguido. En algunas implantaciones, en lugar de recortar los valores de intensidad de la gama B derivada que sean valores negativos a 0, se pueden añadir valores de píxeles maximizados a la gama B para añadir color blanco. El punto blanco (WP) de fuente se puede calcular en la gama A de acuerdo con lo siguiente:
Ra_w p _recip 1/Ra_wp
Ga_wpjrecip1 /Ga w p
B a_w p _recip1 /Ba w p
Se halla la cantidad mínima por la que se debe escalar el vector de punto blanco de tal manera que cuando se añada al píxel borre todos los valores de intensidad negativos:
RecorteA=m¡n(RA¡Rfi_Wp_REap, gaga_wp_recip’ ba/b a_wp_recip’° )
El vector de punto blanco se escala en esta cantidad de tal modo que el componente de valor más bajo de la gama A sea cero.
Ra Ra/ Ra_WP
Ca GAf - RecorteA Gaw p
BaA /Ba_wp
La ecuación [1] y la ecuación [2] anteriores se utilizan para calcular los valores de accionamiento del primer dispositivo de proyección 112A y del segundo dispositivo de proyección 112B, respectivamente. Estos valores de accionamiento definen una gama de salida del sistema de proyector.
El método de recorte de gama recorta colores en el borde de las gamas A y B que se pueden crear aproximadamente de la misma manera para cualquier sistema de proyector. En otras palabras, los colores producidos por un proyector pueden ser reproducidos fielmente por cualquier otro tipo de proyector, independientemente de si las fuentes primarias son las mismas o no.
Alternativamente, la función de mezcla se puede aplicar a las gamas A y B antes de recortar los valores negativos. Al aplicar la función de mezcla a cada gama, los valores de cada gama se convierten para estar en términos de los primarios predefinidos del espacio de color de los datos de vídeo recibidos. Luego, el recorte se puede aplicar como se muestra a continuación.
[Alm ax(R s,0)
Gs m ax{Gs,0)
LsJm ax(B s,0)
Este método maximiza la cobertura de gama para los primarios particulares de cualquier sistema de proyector. La gama de salida utiliza principalmente tres primarios con un brillo bajo y seis primarios con un brillo más alto. Sin embargo, tal sistema puede ser propenso a fallos metaméricos, en los que un observador percibe los colores de manera diferente en base al brillo. Por ejemplo, a medida que se mezcla más gama B, se altera la forma del espectro emitido por el sistema de proyección. Esto se puede mitigar utilizando seis primarios tanto como sea posible y limitando el uso de tres primarios para un subconjunto de la gama objetivo. En algunas implantaciones, esto se consigue mezclando la gama de salida con una gama nativa del sistema de proyección. La gama nativa puede ser una gama única para el sistema de proyector y estar basada en la configuración específica del sistema de proyección. En consecuencia, puede variar entre proyectores. La gama nativa se define como un conjunto de tres primarios Rc, Gc, Bc que accionan por igual tanto los primarios largos como los cortos. Por ejemplo:
La matriz primaria de la gama C se define como:
En algunas implantaciones, [B<al>] [B<as>] = I<3>y [B<bl>] [B<bs>] = I<3>, y [PM]c se puede definir como:
donde
l o 0‘
0 1 0
.o o i .
Para transformar desde el vector del espacio de color estándar definido (por ejemplo, Rec2020) a la gama C:
donde
[C]c = [ P M] c 1[ N P M ] 2020
Los valores de accionamiento nativos suministrados al primer dispositivo 112A de proyección y al segundo dispositivo 112B de proyección están determinados por:
Rcf P 2020
Gcf [C]c G2020
B cf -B2020-De manera similar a las gamas A y B, se puede añadir blanco a los valores de accionamiento nativos para devolver cualquier valor de intensidad negativo a la gama C mientras se mantiene un tono de los datos de video de acuerdo con:
\Rc] Rcf Rc_wp
Ge Gcf -Recortec Gc_wp
lB c\ Bcf Bcjyp
Puede haber casos en los que las gamas larga, corta y nativa (gamas L, S y C) compartan el mismo punto blanco (por ejemplo, D65). En estos casos, el punto blanco y el recíproco del punto blanco son ambos iguales a [1, 1, 1], y los cálculos de añadir blanco a los valores de accionamiento nativos se reducen a:
Los valores de accionamiento de salida y los valores de accionamiento nativos se pueden mezclar de acuerdo con una función de mezclab:K 3-*[0,1] q Ue devuelve un valor escalar en [0,1] en base a alguna calidad del espacio de color estándar definido. Por ejemplo, b puede tener la forma:
b = h( g( P) ) ,donde
PE ^2020* ^2020-^2020
es una función de "calidad", y
h \ R ~ * [0,1]
es una "función de transferencia de señal".
A continuación, se proporciona una función b de ejemplo:
es una función de saturación del valor de intensidad,
( l ,he [0.1]
<l>K h
son los puntos de control de la función de transferencia de señal lineal.
En consecuencia, los valores de accionamiento finales para una mezcla de la gama de color de salida con la gama de color nativa son:
<r ^ i>\Rs]<r * c i>
Gs<=>b(P<) *>Gs<+ (1 - ¿>(P)) * 0 ,5 *>Gc
YBS\ GamaSalida<L>Bcl
En otra implantación, la gama de salida y la gama nativa se mezclan directamente durante el cálculo de la gama de salida. Por ejemplo, si [B<al>] [B<as>] = I<3>y [B<bl>] [B<bs>] = I<3>(utilizándose, por ejemplo, la máxima luz), entonces:
[PM]
[PM]C = a + [PM]b [NPM]lll + [NPM]SSS
Por consiguiente, accionar por igual las gamas A y B es equivalente a accionar por igual las gamas larga y corta. El espacio de color estándar definido se puede dividir en partes iguales entre las gamas A y B redefiniendo las funciones fi(P) y fu(P), en consecuencia:
</ i ( P ) —>si (g(P) < T2Q2o)>g(.P)>si no T2020
La figura 4 ilustra un diagrama 400 de cromaticidad. El gráfico 400 incluye gamas de colores asociadas con el sistema 100 de exhibición visual y con la gama de color objetivo (aquí, Rec2020). La gama 402 es la gama de Rec2020. La gama 404 es la gama definida por los primarios (largos) R<l>, G<l>y B<l>del canal del ojo derecho (los primarios LLL), mientras que la gama 406 es la gama definida por los primarios (cortos) R<s>, G<s>y B<s>del canal ocular izquierdo (los primarios SSS). La gama 416 es la gama definida al accionar los canales primarios de los canales del ojo derecho e izquierdo con los mismos valores (la gama "WCG"). Como se ilustra, la gama 408 difiere significativamente de la gama 402 de Rec2020. La gama 410 es la gama A de color virtual y la gama 412 es la gama B de color virtual. Como se describió anteriormente, la gama A se define como una combinación de primarios virtuales para aproximarse a la gama 402 de Rec2020 tanto como sea posible, mientras que la gama B se define por la producción de energía restante de los primarios virtuales después de restar la energía utilizada para la gama A. Como se muestra, la gama A (gama 410) coincide más con la gama 402 de Rec2020 en comparación con la gama 408 de suma.
La figura 5A ilustra un diagrama 500A de cromaticidad que incluye las gamas 402, 404, 406, 408, 410 y 412 descritas anteriormente con respecto a la figura 4. El diagrama 500A de cromaticidad incluye la cromaticidad de entrada (cromaticidades marcadas en negro) y la cromaticidad de salida resultante (gris) conseguida usando el método de recorte de gama descrito anteriormente. Las líneas que conectan cualquier punto de cromaticidad de entrada con un punto de cromaticidad de salida (por ejemplo, la línea que conecta el punto de entrada 502A con el punto de salida 502B) indican cómo habría sido alterado el color de entrada (si hubiera sido necesario). Obsérvese que, en el gráfico ilustrado 500A, la entrada máxima es mayor que el umbral de luminancia, y, de este modo, no se utiliza la gama B, y que se usó el segundo método de recorte que se describió anteriormente.
La figura 5B ilustra un diagrama 500B de cromaticidad que incluye las gamas 402, 404, 406, 408, 410 y 412 descritas anteriormente con respecto a la figura 4. El diagrama 500B de cromaticidad incluye la cromaticidad de entrada (negro) y la cromaticidad de salida resultante (gris) conseguida usando el método de recorte de gama descrito anteriormente. En el gráfico ilustrado 500B, la entrada máxima es menor que el umbral de luminancia y, de este modo, se utiliza la gama B.
Como se mencionó anteriormente, las matrices de mezcla son valores derivados determinados en base a la ubicación del primario en comparación con Rec2020. Las matrices de mezcla se definen en particular para colocar los primarios cortos y largos de los canales oculares derecho e izquierdo, respectivamente, en la ubicación deseada particular. A continuación se describen métodos de ejemplo para determinar las matrices de mezcla para cada primario.
La figura 6A ilustra una vista perfeccionada 600A del diagrama 400 de cromaticidad de la figura 4. Como se muestra en la vista 600A, tanto el RS primario rojo corto como el RL primario rojo largo están fuera de la gama 402 de color de Rec2020. De este modo, se puede llevar la gama A dentro de la gama 402 de color de Rec2020. Para determinar la matriz de mezcla para el rojo primario R, un método consiste en unir el primario a la gama de Rec2020. Esto se puede hacer mezclando la longitud de onda corta del rojo (RS) con la longitud de onda larga del verde para la gama A, y mezclando la longitud de onda corta del rojo con la longitud de onda larga del rojo (RL) para la gama B. La distancia entre las longitudes de onda rojas larga y corta y el límite Rec2020 se minimiza encontrando el punto de distancia mínima entre la cromaticidad resultante y el límite Rec2020 o un punto de intersección. Esta ubicación se utiliza luego para definir las matrices de mezcla. Por ejemplo, la línea de la vista perfeccionada 600A representa la mezcla de las longitudes de onda roja larga y verde corta. El punto A representa dónde se cruza la mezcla con la gama de Rec2020.
Otro método es, con el fin de no unir a la gama de Rec2020, maximizar la cobertura de la gama resultante. La figura 6B ilustra una vista perfeccionada 600B del diagrama 400 de cromaticidad de la figura 4. Aquí, el punto de mayor distancia desde una línea entre los primarios azul y verde de la gama de Rec2020 hasta la mezcla de las longitudes de onda roja larga (RL) y roja corta (RS). Esto da como resultado el uso del rojo largo para la gama A y del rojo corto para la gama B.
La figura 7A ilustra una vista perfeccionada 700A del diagrama 400 de cromaticidad de la figura 4. Como se muestra en la vista 700A, tanto el GS primario verde corto como el GL primario verde largo rodean la gama 402 de color de Rec2020. De nuevo, se puede llevar la gama A dentro de la gama 402 de color de Rec2020. Aquí, los primarios se unen a la gama 402 de Rec2020 para definir un punto de intersección de una línea B entre los dos primarios verdes con el límite de Rec2020. Esta ubicación se utiliza luego para definir las matrices de mezcla. El punto verde C ilustra el punto en el que se encuentra la gama A primaria verde.
Otro método es, con el fin de no unir a la gama de Rec2020, maximizar la cobertura de la gama resultante. La figura 7B ilustra una vista perfeccionada 700B del diagrama 400 de cromaticidad de la figura 4. Aquí, el punto de mayor distancia desde una línea entre los primarios rojo y azul de la gama de Rec2020 hasta la mezcla de las longitudes de onda verde larga (GL) y verde corta (GS). Esto da como resultado el uso de longitudes de onda verdes cortas. La figura 8A ilustra una vista perfeccionada 800A del diagrama de cromaticidad 400 de la figura 4. Como se muestra en la vista 800A, tanto la BS primaria azul corta como la BL primaria azul larga se encuentran fuera de la gama 402 de color de Rec2020. Ambas primarias deben estar hacia el límite de la gama 402 de color de Rec2020. Aquí, las primarias están vinculados a la gama 402 de Rec2020 definiendo un punto de intersección de una línea D entre la longitud de onda primaria azul larga y la longitud de onda verde corta con el límite Rec2020. Esta ubicación se utiliza luego para definir las matrices de mezcla. El punto E ilustra el punto en el que se encuentra la gama A azul primaria. Otro método es no unir los primarios azules a la gama de Rec2020, por ejemplo, para maximizar la cobertura de la gama resultante. La figura 8B ilustra una vista perfeccionada 800B del diagrama de cromaticidad 400 de la figura 4.
Aquí, el punto de mayor distancia desde una línea entre las primarias roja y verde de la gama de Rec2020 hasta la mezcla de las longitudes de onda larga azul (BL) y corta verde (GS). Esta ubicación se utiliza luego para definir las matrices de mezcla. Como se ilustra, el primario azul largo se usa para la gama A, mientras que el primario azul corto se usa para la gama B.
En algunas realizaciones, según se describe en párrafos anteriores, se puede usar un valor umbral para dividir el intervalo de palabras de código de RGB de píxeles entre las gamas 'A' y 'B'. Luego, los píxeles de la gama 'B' se pueden recortar contra el borde de esa gama. El residual (la parte perdida por el recorte) se vuelve a añadir a la gama 'A' para su procesamiento. Por otro lado, en algunas otras realizaciones, el umbral se puede restar de los píxeles de entrada para producir valores positivos y negativos. Luego, el proceso los empuja a la gama 'B', recorta el resultado y empuja ese residuo a la gama 'A'. Esta técnica hace un mayor uso de la gama 'B', lo que reduce el recorte en su globalidad. Las siguientes secciones 3-3.2 muestran ejemplos de las realizaciones reveladas.
En algunas realizaciones, como se describe en los párrafos anteriores, se aplica una matriz para convertir la fuente en el objetivo (gama 'A' o 'B'), lo que puede conducir a que se recorten valores de RGB negativos. Además, las conmutaciones de tono pueden resultar difíciles de gestionar. Por otro lado, en algunas otras realizaciones, se utiliza un método de recorte para representar colores que no encajan en el volumen de color tridimensional. La técnica conserva el tono y simplemente desatura los píxeles recortados. Esto facilita mucho el proceso de gradación de color. Cuando el colorista aumente la luminancia o la saturación, y llegue al borde del volumen de color tridimensional, sólo verá la desaturación, que se identifica de manera intuitiva.
Los sistemas y métodos de proyección anteriores pueden proporcionar la renderización de formación de imágenes de amplia gama de color.
Con respecto a los procesos, sistemas, métodos, heurísticas, etc. descritos en el presente documento, debe entenderse que, aunque se ha descrito que los pasos de tales procesos, etc., se producen de acuerdo con una cierta secuencia ordenada, tales procesos podrían practicarse con los pasos descritos realizados en un orden distinto al descrito en el presente documento. Además, debe entenderse que ciertos pasos podrían realizarse simultáneamente, que podrían añadirse otros pasos, o que ciertos pasos descritos en el presente documento podrían omitirse. En otras palabras, las descripciones de los procesos en este documento se proporcionan con el fin de ilustrar ciertas realizaciones, y de ninguna manera deben interpretarse como para limitar las reivindicaciones. En consecuencia, ha de entenderse que la descripción anterior pretende ser ilustrativa y no restrictiva. Muchas realizaciones y aplicaciones distintas de los ejemplos proporcionados resultarán evidentes al leer la descripción anterior. El alcance debería determinarse, no con referencia a la descripción anterior, sino mediante la reivindicación adjunta.
Se pretende que todos los términos utilizados en las reivindicaciones reciban sus interpretaciones razonables más amplias y sus significados ordinarios como los entiende el experto en la técnica descrita en el presente documento, a menos que se indique explícitamente lo contrario en el presente documento. En particular, el uso de artículos singulares, tales como "un/a", "el/la", "dicho/a", etc., se entenderá que alude a uno o más de los elementos indicados, a menos que una reivindicación mencione una limitación explícita en sentido contrario.
El resumen de la divulgación se proporciona para permitir al lector determinar rápidamente la naturaleza de la divulgación técnica. Se presenta entendiendo que no se utilizará para interpretar ni limitar el alcance o significado de las reivindicaciones.

Claims (11)

REIVINDICACIONES
1. Un sistema de proyección capaz de exhibir visualmente imágenes usando seis primarios predefinidos (2A, 2B, 3A, 3B, 4A, 4B) incluyendo un primer conjunto distinto de primarios predefinidos (2A, 3A, 4A) y un segundo conjunto distinto de primarios predefinidos (2B, 3b , 4B) que comprende:
al menos un modulador espacial (108, 108A, 108B); y
un procesador electrónico (205) configurado para:
recibir (302) datos (R2020, G2020, B2020) de vídeo bidimensionales; y
generar (304, 306), a partir de los datos de vídeo, una primera pluralidad de valores (R<a>, B<a>, G<a>) de intensidad de primarios virtuales de una primera gama (410, gama A) de color, siendo dichos primarios virtuales de la primera gama de color una primera combinación de los primarios predefinidos de tal manera que la primera gama de color se aproxima a una gama (402) de color predefinida, y una segunda pluralidad de valores (R<b>, B<b>, G<b>) de intensidad de primarios virtuales de una segunda gama (412, gama B) de color, estando dicha segunda gama de color definida por la salida de energía restante de los primarios predefinidos después de que se haya restado la energía de los primarios virtuales de la primera gama;
caracterizado porque el procesador electrónico está configurado adicionalmente para generar dicha segunda pluralidad de valores de intensidad de los primarios virtuales de la segunda gama de color al:
restar un umbral (T2020) de luminancia de los respectivos valores (P) de intensidad de los canales correspondientes de los datos de vídeo recibidos para generar una tercera pluralidad de valores (fu(R2020), fu(G2020), fu(B2020)) de intensidad, incluyendo dicha tercera pluralidad de valores de intensidad una pluralidad de valores de intensidad positivos y una pluralidad de valores de intensidad negativos;
establecer la pluralidad de valores de intensidad negativos de la segunda gama de color en valores predeterminados para obtener un residual (R<b>, G<b>, B<b>) de la segunda gama de color; y
generar dicha segunda pluralidad de valores de intensidad como dicho residual;
en el que el procesador electrónico está configurado adicionalmente para generar dicha primera pluralidad de valores de intensidad de los primarios virtuales de la primera gama de color al:
restar dicha segunda pluralidad de valores de intensidad de los datos de vídeo recibidos para generar un resto de los datos de vídeo recibidos,
generar una cuarta pluralidad de valores (RAf, BAf, GAf) de intensidad en base a dicho resto,
añadir valores de píxeles maximizados a la cuarta pluralidad de valores de intensidad para generar dicha primera pluralidad de valores de intensidad;
en el que el procesador electrónico está configurado adicionalmente para:
calcular valores (R<l>, B<l>, G<l>, R<s>, B<s>, Gs) de accionamiento para el al menos un modulador espacial (108, 108A, 108B) usando dichas pluralidades primera y segunda de valores de intensidad, definiendo dichos valores de accionamiento una gama de salida del sistema de proyección;
mezclar la gama de salida con una gama de color nativa del sistema de proyección para generar valores (R<l>, G<l>, B<l>, R<s>, G<s>, B<s>) de accionamiento finales, estando dicha gama nativa definida como un conjunto de primarios (R<c>, G<c>, B<c>) que acciona por igual dichos conjuntos distintos primero y segundo de primarios predefinidos; y
accionar el al menos un modulador espacial en base a dichos valores de accionamiento finales.
2. El sistema de proyección de acuerdo con la reivindicación 1, en el que el primer conjunto distinto de primarios predefinidos incluye una primera longitud de onda roja, una primera longitud de onda verde y una primera longitud de onda azul, en el que el segundo conjunto distinto de primarios predefinidos incluye una segunda longitud de onda roja, una segunda longitud de onda verde y una segunda longitud de onda azul, en el que la primera longitud de onda roja es diferente de la segunda longitud de onda roja, en el que la primera longitud de onda verde es diferente de la segunda longitud de onda verde, y en el que la primera longitud de onda azul es diferente de la segunda longitud de onda azul.
3. El sistema de proyección de acuerdo con la reivindicación 1 ó la reivindicación 2, en el que mezclar la gama de salida con la gama nativa incluye añadir valores de píxeles maximizados a la gama de color nativa.
4. El sistema de proyección de acuerdo con una cualquiera de las reivindicaciones 1 a 3, en el que el umbral de luminancia es un vector basado en una relación entre la primera gama de color y la segunda gama de color en un espacio de color predefinido.
5. El sistema de proyección de acuerdo con una cualquiera de las reivindicaciones 1 a 4, en el que mezclar la gama de salida con la gama de color nativa mantiene un tono de los datos de vídeo bidimensionales.
6. Un método para renderizar imágenes de amplia gama de color con un sistema de proyección capaz de exhibir visualmente imágenes usando seis primarios predefinidos (2A, 2B, 3A, 3B, 4A, 4B) que incluyen un primer conjunto distinto de primarios predefinidos (2A, 3A, 4A) y un segundo conjunto distinto de primarios predefinidos (2B, 3B, 4B), incluyendo dicho sistema de proyección al menos un modulador espacial (108, 108A, 108B), comprendiendo el método:
recibir (302) datos (R2020, G2020, B2020) de vídeo bidimensionales;
generar (304, 306), a partir de los datos de vídeo, una primera pluralidad de valores (R<a>, B<a>, G<a>) de intensidad de primarios virtuales de una primera gama (410, gama A) de color, siendo dichos primarios virtuales de la primera gama de color una primera combinación de los primarios predefinidos de tal manera que la primera gama de color se aproxima a una gama (402) de color predefinida, y una segunda pluralidad de valores (R<b>, B<b>, G<b>) de intensidad de primarios virtuales de una segunda gama (412, gama B) de color, estando dicha segunda gama de color definida por la salida de energía restante de los primarios predefinidos después de que se haya restado la energía de los primarios virtuales de la primera gama,
caracterizado porque generar dicha segunda pluralidad de valores de intensidad de los primarios virtuales de la segunda gama de color comprende:
restar un umbral (T2020) de luminancia de los respectivos valores (P) de intensidad de los canales correspondientes de los datos de vídeo recibidos para generar una tercera pluralidad de valores (fu(R2020), fu(G2020), fu(B2020)) de intensidad, incluyendo dicha tercera pluralidad de valores de intensidad una pluralidad de valores de intensidad positivos y una pluralidad de valores de intensidad negativos,
establecer la pluralidad de valores de intensidad negativos de la segunda gama de color en valores predeterminados para obtener un residual (R<b>, G<b>, B<b>) de la segunda gama de color, y
generar dicha segunda pluralidad de valores de intensidad como dicho residual,
en el que generar dicha primera pluralidad de valores de intensidad de los primarios virtuales de la primera gama de color comprende:
restar dicha segunda pluralidad de valores de intensidad de los datos de vídeo recibidos para generar un resto de los datos de vídeo recibidos,
generar una cuarta pluralidad de valores (RAf, BAf, GAf) de intensidad en base a dicho resto, y
añadir valores de píxeles maximizados a la cuarta pluralidad de valores de intensidad para generar dicha primera pluralidad de valores de intensidad;
calcular valores (R<l>, B<l>, G<l>, R<s>, B<s>, Gs) de accionamiento para el al menos un modulador espacial (108, 108A, 108B) usando dichas pluralidades primera y segunda de valores de intensidad, definiendo dichos valores de accionamiento una gama de salida del sistema de proyección;
mezclar la gama de salida con una gama de color nativa del sistema de proyección para generar valores (R<l>, G<l>, B<l>, R<s>, G<s>, B<s>) de accionamiento finales, estando dicha gama nativa definida como un conjunto de primarios (R<c>, G<c>, B<c>) que acciona por igual dichos conjuntos distintos primero y segundo de primarios predefinidos; y
accionar el al menos un modulador espacial en base a dichos valores de accionamiento finales.
7. El método de acuerdo con la reivindicación 6, en el que el primer conjunto distinto de primarios predefinidos incluye una primera longitud de onda roja, una primera longitud de onda verde y una primera longitud de onda azul, en el que el segundo conjunto distinto de primarios predefinidos incluye una segunda longitud de onda roja, una segunda longitud de onda verde, y una segunda longitud de onda azul, en el que la primera longitud de onda roja es más corta que la segunda longitud de onda roja, en el que la primera longitud de onda verde es más corta que la segunda longitud de onda verde, y en el que la primera longitud de onda azul es más corta que la segunda longitud de onda azul.
8. El método de acuerdo con la reivindicación 6 ó con la reivindicación 7, en el que mezclar la gama de salida con la gama nativa incluye añadir valores de píxeles maximizados a la gama de color nativa.
9. El método de acuerdo con una cualquiera de las reivindicaciones 6 a 8, en el que el umbral de luminancia es un vector basado en una relación entre la primera gama de color y la segunda gama de color en un espacio de color predefinido.
10. El método de acuerdo con una cualquiera de las reivindicaciones 6 a 9, en el que mezclar la gama de salida con la gama de color nativa mantiene un tono de los datos de vídeo bidimensionales.
11. Un medio no transitorio legible por ordenador que almacena instrucciones que, cuando son ejecutadas por un procesador de un sistema de proyección de acuerdo con una cualquiera de las reivindicaciones 1 a 5, hacen que el sistema de proyección realice operaciones que comprenden el método de acuerdo con una cualquiera de las reivindicaciones 6 a 10.
ES21707539T 2020-01-30 2021-01-28 Método y sistema de proyección con gama de color mezclada Active ES2979007T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202062967821P 2020-01-30 2020-01-30
US202063125160P 2020-12-14 2020-12-14
PCT/US2021/015569 WO2021155056A1 (en) 2020-01-30 2021-01-28 Projection system and method with blended color gamut

Publications (1)

Publication Number Publication Date
ES2979007T3 true ES2979007T3 (es) 2024-09-23

Family

ID=74673404

Family Applications (1)

Application Number Title Priority Date Filing Date
ES21707539T Active ES2979007T3 (es) 2020-01-30 2021-01-28 Método y sistema de proyección con gama de color mezclada

Country Status (6)

Country Link
US (2) US12075021B2 (es)
EP (2) EP4366302B1 (es)
JP (1) JP7796647B2 (es)
CN (2) CN115004694B (es)
ES (1) ES2979007T3 (es)
WO (1) WO2021155056A1 (es)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2829350T3 (es) * 2016-06-22 2021-05-31 Dolby Laboratories Licensing Corp Representación de amplia gama de colores en imágenes bidimensionales (2D) en pantallas con capacidad tridimensional (3D)
KR102862826B1 (ko) 2018-12-27 2025-09-23 돌비 레버러토리즈 라이쎈싱 코오포레이션 3차원(3d) 가능 디스플레이 상에서 와이드 색 영역의 2차원(2d) 이미지 렌더링
KR20230092514A (ko) * 2021-12-17 2023-06-26 삼성전자주식회사 렌더링 방법 및 장치

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5384901A (en) * 1992-10-22 1995-01-24 Xerox Corporation Method of rendering a color image for an output medium from symbolic image data
AU2002309213A1 (en) * 2001-06-07 2002-12-16 Genoa Technologies Ltd. System and method of data conversion for wide gamut displays
US7391475B2 (en) * 2002-01-31 2008-06-24 Hewlett-Packard Development Company, L.P. Display image generation with differential illumination
JP4042736B2 (ja) 2004-02-19 2008-02-06 ソニー株式会社 画像処理装置及び画像処理方法
JP4982844B2 (ja) * 2006-05-31 2012-07-25 大学共同利用機関法人情報・システム研究機構 投影画像補正システム及び投影画像補正プログラム
US20080252797A1 (en) * 2007-04-13 2008-10-16 Hamer John W Method for input-signal transformation for rgbw displays with variable w color
CN100590518C (zh) * 2007-07-02 2010-02-17 扬明光学股份有限公司 光源模块
US8029139B2 (en) * 2008-01-29 2011-10-04 Eastman Kodak Company 2D/3D switchable color display apparatus with narrow band emitters
DE102008043621A1 (de) * 2008-11-10 2010-05-12 Seereal Technologies S.A. Holografisches Farbdisplay
US8860751B2 (en) 2009-09-01 2014-10-14 Entertainment Experience Llc Method for producing a color image and imaging device employing same
US8310499B2 (en) * 2009-09-10 2012-11-13 Seiko Epson Corporation Balancing luminance disparity in a display by multiple projectors
WO2011045716A1 (en) * 2009-10-15 2011-04-21 Koninklijke Philips Electronics N.V. Dynamic gamut control
EP2564374B1 (en) * 2010-04-18 2014-11-19 Imax Corporation Double stacked projection
EP3641309A1 (en) * 2011-03-14 2020-04-22 Dolby Laboratories Licensing Corp. 3d projection system using laser light sources
US8884994B2 (en) * 2011-05-13 2014-11-11 Samsung Display Co., Ltd. Method and apparatus for blending display modes
US8941678B2 (en) * 2012-07-27 2015-01-27 Eastman Kodak Company Display system providing observer metameric failure reduction
CN105612737B (zh) * 2013-10-10 2019-04-30 杜比实验室特许公司 在增强动态范围投影仪上显示数字电影倡导联盟及其他内容
GB2532354B (en) * 2014-06-06 2017-03-29 Imagination Tech Ltd Gamut mapping
CN104536252A (zh) * 2014-11-11 2015-04-22 深圳市亿思达科技集团有限公司 基于非线性发光材料的投影屏及投影系统
ES2829350T3 (es) * 2016-06-22 2021-05-31 Dolby Laboratories Licensing Corp Representación de amplia gama de colores en imágenes bidimensionales (2D) en pantallas con capacidad tridimensional (3D)
DE102017115092A1 (de) * 2017-07-06 2019-01-10 Carl Zeiss Jena Gmbh Projektor zum Projizieren eines mehrfarbigen Bildes
KR102862826B1 (ko) 2018-12-27 2025-09-23 돌비 레버러토리즈 라이쎈싱 코오포레이션 3차원(3d) 가능 디스플레이 상에서 와이드 색 영역의 2차원(2d) 이미지 렌더링

Also Published As

Publication number Publication date
US20230078910A1 (en) 2023-03-16
JP2023516536A (ja) 2023-04-20
EP4366302B1 (en) 2025-12-31
EP4366302A3 (en) 2024-06-26
US20250008080A1 (en) 2025-01-02
EP4097970A1 (en) 2022-12-07
EP4097970B1 (en) 2024-03-20
CN115004694B (zh) 2024-12-13
EP4366302A2 (en) 2024-05-08
US12075021B2 (en) 2024-08-27
CN119583776A (zh) 2025-03-07
JP7796647B2 (ja) 2026-01-09
WO2021155056A1 (en) 2021-08-05
CN115004694A (zh) 2022-09-02

Similar Documents

Publication Publication Date Title
ES2979007T3 (es) Método y sistema de proyección con gama de color mezclada
JP7444919B2 (ja) 三次元(3d)対応ディスプレイ上への広色域二次元(2d)画像の描画
US11606545B2 (en) Rendering wide color gamut, two-dimensional (2D) images on three-dimensional (3D) capable displays
RU2772236C2 (ru) Рендеринг изображений с широкой цветовой палитрой, отображение двумерных изображений на дисплеях, способных отображать трехмерные изображения
HK40079827A (en) Rendering wide color gamut, two-dimensional (2d) images on three-dimensional (3d) capable displays