ES2940345T3 - Programa informático para mejorar el intercambio de datos de imágenes basado en no linealidad perceptual a través de diferentes capacidades de visualización - Google Patents
Programa informático para mejorar el intercambio de datos de imágenes basado en no linealidad perceptual a través de diferentes capacidades de visualización Download PDFInfo
- Publication number
- ES2940345T3 ES2940345T3 ES21197681T ES21197681T ES2940345T3 ES 2940345 T3 ES2940345 T3 ES 2940345T3 ES 21197681 T ES21197681 T ES 21197681T ES 21197681 T ES21197681 T ES 21197681T ES 2940345 T3 ES2940345 T3 ES 2940345T3
- Authority
- ES
- Spain
- Prior art keywords
- gsdf
- values
- digital code
- specific
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/153—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using cathode-ray tubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/003—Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
- G09G5/005—Adapting incoming signals to the display format of the display terminal
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/02—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/10—Intensity circuits
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/40—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/0271—Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
- G09G2320/0276—Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping for the purpose of adaptation to the characteristics of a display device, i.e. gamma correction
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/0285—Improving the quality of display appearance using tables for spatial correction of display data
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/04—Maintaining the quality of display appearance
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0407—Resolution change, inclusive of the use of different resolutions for different screen areas
- G09G2340/0428—Gradation resolution change
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0407—Resolution change, inclusive of the use of different resolutions for different screen areas
- G09G2340/0435—Change or adaptation of the frame rate of the video stream
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/06—Colour space transformation
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/14—Solving problems related to the presentation of information to be displayed
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/04—Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/08—Details of image data interface between the display device controller and the data line driver circuit
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/08—Biomedical applications
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Controls And Circuits For Display Device (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Image Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Closed-Circuit Television Systems (AREA)
- Processing Of Color Television Signals (AREA)
- Picture Signal Circuits (AREA)
- Digital Computer Display Output (AREA)
- Television Systems (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Indicating Measured Values (AREA)
- Lock And Its Accessories (AREA)
- Studio Devices (AREA)
Abstract
Un dispositivo portátil de imágenes tiene un receptor de datos que está configurado para recibir datos de imágenes codificadas de referencia. Los datos incluyen valores de código de referencia, que están codificados por un sistema de codificación externo. Los valores del código de referencia representan niveles de gris de referencia, que se seleccionan mediante una función de visualización en escala de grises de referencia que se basa en la no linealidad perceptual de la visión humana adaptada a diferentes niveles de luz a frecuencias espaciales. El dispositivo de imágenes también tiene un convertidor de datos que está configurado para acceder a un mapeo de códigos entre los valores de códigos de referencia y los valores de códigos específicos del dispositivo de imágenes. Los valores de código específicos del dispositivo están configurados para producir niveles de gris que son específicos del dispositivo de imágenes. Basado en el mapeo de código, (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Programa informático para mejorar el intercambio de datos de imágenes basado en no linealidad perceptual a través de diferentes capacidades de visualización
Referencia cruzada con solicitudes relacionadas
Esta solicitud reivindica prioridad de la solicitud de patente provisional de EE. UU. n.º 61/567579, presentada el 6 de diciembre de 2011; de la solicitud de patente provisional de EE. UU. n.º 61/674503, presentada el 23 de julio de 2012 y de la solicitud de patente provisional de EE. UU. n.º 61/703449, presentada el 20 de septiembre de 2012. Esta solicitud es una solicitud divisional europea de la solicitud de patente europea EP 20203810.5 (referencia: D11082EP05), para la que se presentó el formulario de la EPO 1001 el 26 de octubre de 2020.
Tecnología de la invención
La presente invención se refiere, en general, a los datos de imágenes. Más en particular, una realización de la presente invención se refiere a un intercambio de datos de imágenes basado en no linealidad perceptual a través de diferentes capacidades de visualización.
Antecedentes de la invención
Los avances tecnológicos permiten que diseños modernos de dispositivos de visualización reproduzcan contenido de imagen y vídeo con mejoras significativas en diversas características de calidad sobre el mismo contenido cuando se reproducen en dispositivos de visualización menos modernos. Por ejemplo, algunos dispositivos de visualización más modernos pueden reproducir contenido con un rango dinámico (DR) superior al rango dinámico estándar (SDR) de dispositivos de visualización convencionales o estándar.
Por ejemplo, algunas pantallas de cristal líquido (LCD) modernas tienen una unidad de luz (una unidad de luz posterior, una unidad de luz lateral, etc.) que proporciona un campo de luz en el que partes individuales pueden modularse por separado a partir de la modulación de los estados de alineación de cristal líquido de los elementos LCD activos. Este enfoque de modulación dual puede ampliarse (por ejemplo, a N capas de modulación, en donde N comprende un número entero mayor que dos), por medio de, por ejemplo, capas intermedias controlables (por ejemplo, múltiples capas LCD que pueden controlarse de manera individual) en una configuración electro-óptica de un dispositivo de visualización.
Por el contrario, algunos dispositivos de visualización existentes tienen un rango dinámico (DR) bastante más estrecho que el alto rango dinámico (HDR). Los dispositivos móviles, las tabletas, los dispositivos de juegos, los televisores (TV) y las pantallas de ordenador que usan un tubo de rayos catódicos (CRT), una pantalla de cristal líquido (LCD) con iluminación posterior blanca de fluorescencia constante o tecnología de pantalla de plasma pueden tener una capacidad de reproducción DR limitada aproximadamente a tres órdenes de magnitud. Tales dispositivos de visualización existentes representan por tanto un rango dinámico estándar (SDR), denominado en ocasiones "bajo rango dinámico" o "LDR" en relación con el HDR.
Las imágenes capturadas por cámaras HDR pueden tener un HDR específico de escena que es considerablemente mayor que los rangos dinámicos de la gran mayoría, sino de todos, los dispositivos de visualización. Las imágenes de HDR específico de escena pueden comprender grandes cantidades de datos y pueden convertirse en formatos de posproducción (por ejemplo, señales de vídeo HDMI con RGB de 8 bits, YCbCr u opciones de color intenso; señales de vídeo SDI de 1,5 Gbps con una frecuencia de muestreo 4:2:2 de 10 bits; SDI de 3 Gbps con una frecuencia de muestreo 4:4:4 de 12 bits o una frecuencia de muestreo 4:2:2 de 10 bits; y otros formatos de vídeo o imagen) para facilitar la transmisión y el almacenamiento. Las imágenes de posproducción pueden comprender un rango dinámico mucho más pequeño que el de las imágenes de HDR específico de escena. Además, puesto que las imágenes se suministran a dispositivos de visualización de los usuarios finales para su reproducción, en el camino se producen transformaciones de imagen específicas de dispositivo y/o específicas de fabricante, generando una gran cantidad de errores visualmente perceptibles en las imágenes reproducidas en comparación con las imágenes originales de HDR específico de escena.
El informe de búsqueda europeo cita el documento EP 1391865 A1 (“D1”) que describe un dispositivo y un método para procesar datos de imágenes de vídeo para exponer en un dispositivo de visualización que tiene una pluralidad de elementos luminosos correspondientes a píxeles de una imagen de vídeo, en donde el brillo de cada píxel es controlado por palabras de código de subcampo correspondientes a un número de impulsos para encender y apagar los elementos luminosos, mezclando colores de dichos datos de imagen de vídeo y codificando por subcampo los datos de imágenes de vídeo mezclados por colores para la exposición. Los valores de brillo de los datos de imágenes de vídeo son correlacionados a niveles de brillo teniendo en cuenta la sensibilidad humana al contraste y se basan en la ley Weber-Fechner.
Los enfoques descritos en esta sección son enfoques que podrían llevarse a cabo, pero no son necesariamente enfoques que se hayan concebido o llevado a cabo anteriormente. Por lo tanto, a no ser que se indique lo contrario, no debe considerarse que los enfoques descritos en este apartado pertenecen a la técnica anterior simplemente por aparecer en esta sección. Asimismo, no debe considerarse que las cuestiones identificadas con respecto a uno o más enfoques pertenecen a la técnica anterior por aparecer en este apartado, a no ser que se indique lo contrario.
Sumario de la invención
La invención está definida por las reivindicaciones independientes, teniendo en cuenta cualquier elemento que sea equivalente a un elemento especificado en las reivindicaciones. La reivindicación dependiente concierne a características opcionales de algunas realizaciones de la invención.
Meramente las realizaciones relacionadas con la ecuación (10) y la tabla 3, que tienen las constantes ejemplares n, m, c1, c2 y c3 definidas en las reivindicaciones independientes, representan realizaciones de la invención reivindicada actualmente. Todas las demás apariciones de la palabra "realización (o realizaciones)" se refieren a ejemplos, que se presentaron originalmente pero que no representar realizaciones de la invención reivindicada actualmente; estos ejemplos todavía se muestran únicamente para fines ilustrativos.
Breve descripción de los dibujos
La presente invención se ilustra a modo de ejemplo, y no de manera limitativa, en las figuras de los dibujos adjuntos, donde números de referencia similares se refieren a elementos similares, y en los que:
la figura 1 ilustra una familia de ejemplo de curvas de función de sensibilidad al contraste que abarcan una pluralidad de niveles de adaptación de luz, según una realización de ejemplo de la presente invención;
la figura 2 ilustra una trayectoria de integración de ejemplo, según una realización de ejemplo de la presente invención;
la figura 3 ilustra una función de visualización de escala de grises de ejemplo, según una realización de ejemplo de la presente invención;
la figura 4 ilustra una curva que representa fracciones de Weber, según una realización de ejemplo de la presente invención;
la figura 5 ilustra una infraestructura de ejemplo de datos de imágenes de intercambio con dispositivos de GSDF diferentes, según una realización de ejemplo de la presente invención;
la figura 6 ilustra una unidad de conversión de ejemplo, según una realización de ejemplo de la presente invención; la figura 7 ilustra un dispositivo de visualización SDR de ejemplo según una realización de ejemplo de la presente invención;
las figura 8A y 8B ilustran flujos de proceso de ejemplo, según una realización de ejemplo de la presente invención; la figura 9 ilustra una plataforma de hardware de ejemplo en la que puede implementarse un ordenador o un dispositivo informático como los descritos en el presente documento, según una realización de ejemplo de la presente invención;
la figura 10A ilustra valores máximos para errores de código en unidades de JND en una pluralidad de espacios de código, cada uno con una longitud diferente de una o más longitudes de bit diferentes, según algunas realizaciones de ejemplo;
las figura 10B a la figura 10E ilustran distribuciones de errores de código, según algunas realizaciones de ejemplo; y
la figura 11 ilustra valores de parámetros en un modelo funcional, según una realización de ejemplo.
Descripción de realizaciones de ejemplo
En el presente documento se describen realizaciones de ejemplo que se refieren a intercambio de datos de imágenes basado en no linealidad de luminancia perceptual entre dispositivos de visualización de diferentes capacidades. En la siguiente descripción se presentan, con fines explicativos, numerosos detalles específicos con el fin de proporcionar un entendimiento minucioso de la presente invención. Sin embargo, resultará evidente que la presente invención puede llevarse a la práctica sin estos detalles específicos. En otros casos no se describen
en gran detalle estructuras y dispositivos ampliamente conocidos para evitar enturbiar, oscurecer u ofuscar innecesariamente la presente invención.
En el presente documento se describen realizaciones de ejemplo siguiendo estos apartados:
1. VISIÓN GENERAL
2. MODELO DE FUNCIÓN DE SENSIBILIDAD AL CONTRASTE (CSF)
3. NO LINEALIDAD PERCEPTUAL
4. VALORES DE CÓDIGO DIGITAL Y NIVELES DE GRIS
5. PARÁMETROS DE MODELO
6. FRECUENCIAS ESPACIALES VARIABLES
7. MODELOS FUNCIONALES
8. DATOS DE IMÁGENES DE INTERCAMBIO BASADOS EN UNA GSDF DE REFERENCIA
9. CONVERSIÓN DE DATOS DE IMÁGENES CODIFICADOS DE REFERENCIA
10. FLUJOS DE PROCESO DE EJEMPLO
11. MECANISMOS DE IMPLEMENTACIÓN - VISIÓN GLOBAL DEL HARDWARE
12. DIVERSAS REALIZACIONES, EQUIVALENCIAS, AMPLIACIONES Y ALTERNATIVAS DE EJEMPLO 1. VISIÓN GENERAL
La siguiente visión general ofrece una descripción básica de algunos aspectos de una realización de la presente invención. Debe observarse que esta visión general no es un compendio extenso o exhaustivo de aspectos de la realización. Además, debe observarse que esta visión general no pretende identificar ningún aspecto o elemento particularmente significativos de la realización, ni delimitar el alcance de la realización en particular ni de la invención en general. Esta visión general simplemente presenta algunos conceptos relacionados con la realización de ejemplo en un formato condensado y simplificado, y debe considerarse simplemente como un preludio conceptual de la descripción más detallada de realizaciones de ejemplo ofrecida a continuación.
La visión humana puede no percibir una diferencia entre dos niveles de luminancia si los dos valores de luminancia no son lo bastante diferentes entre sí. En cambio, la visión humana solo percibe una diferencia si el valor de luminancia difiere en un valor no menor a una diferencia apenas perceptible (JND). Debido a la no linealidad perceptual de la visión humana, las cantidades de JND individuales no están dimensionadas o escaladas de manera uniforme en un intervalo de niveles de luz, sino que varían con diferentes niveles de luz individuales. Además, debido a la no linealidad perceptual, las cantidades de JND individuales no están dimensionadas o escaladas de manera uniforme en un intervalo de frecuencias espaciales en un nivel de luz particular, sino que varían con diferentes frecuencias espaciales por debajo de una frecuencia espacial de corte.
Los datos de imágenes codificados con etapas de cuantización de luminancia del mismo tamaño o de tamaños escalados linealmente no coinciden con la no linealidad perceptual de la visión humana. Los datos de imágenes codificados con etapas de cuantización de luminancia a una frecuencia espacial fija tampoco coinciden con la no linealidad perceptual de la visión humana. Con estas técnicas, cuando se asignan palabras de código para representar valores de luminancia cuantizados, demasiadas palabras de código pueden distribuirse en una región particular (por ejemplo, la región de brillo) del intervalo de niveles de luz, mientras que demasiadas pocas palabras de código pueden distribuirse en una región diferente (por ejemplo, la región oscura) del intervalo de niveles de luz.
En la región sobrepoblada, una multitud de palabras de código puede no producir diferencias perceptuales y, por lo tanto, se desperdician a todos los efectos. En la región despoblada, dos palabras de código adyacentes pueden producir una diferencia perceptual mucho mayor que una JND y, posiblemente, producen artefactos visuales de distorsión de contorno (lo que también se conoce como efecto de banda).
Con las técnicas descritas en el presente documento, puede usarse un modelo de función de sensibilidad al contraste (CSF) para determinar JND en un amplio intervalo de niveles de luz (por ejemplo, de 0 a 12000 cd/m2). En una realización de ejemplo, se selecciona la JND máxima como función de la frecuencia espacial en un nivel de luz particular para que represente un cuanto de la percepción humana en el nivel de luz particular. La selección
de JND máximas se ajusta a los comportamientos de la visión humana, que se adapta a un nivel aumentado de percepción visual cuando se está observando un fondo con valores de luminancia cercanos pero diferentes, lo que en ocasiones se denomina en el campo de la visualización de vídeo e imágenes como efecto de acentuación de contornos y/o efecto Whittle de acentuación de contornos, y que se describirá como tal en el presente documento. Tal y como se usa en el presente documento, el término "nivel de adaptación de luz" puede usarse para hacer referencia a un nivel de luz en el que se selecciona/determina una JND (por ejemplo, máxima), suponiendo que la visión humana está adaptada al nivel de luz. Las JND máximas descritas en el presente documento varían en lo que respecta a la frecuencia espacial en diferentes niveles de adaptación de luz.
Tal y como se usa en el presente documento, el término "frecuencia espacial" puede referirse a una tasa de modulación/variación espacial en imágenes (en donde la tasa se calcula en relación con la distancia espacial, a diferencia de una tasa de cálculo relacionada con el tiempo). A diferencia de los enfoques convencionales que pueden fijar la frecuencia espacial a un valor específico, la frecuencia espacial descrita en el presente documento puede variar, por ejemplo, en un intervalo. En algunas realizaciones, las JND máximas pueden estar limitadas dentro de un intervalo de frecuencias espaciales particular (por ejemplo, de 0,1 a 5,0, de 0,01 a 8,0 ciclos/grados o un intervalo más pequeño o más grande).
Puede generarse una función de visualización de escala de grises (GSDF) de referencia basándose en el modelo de CSF. En algunas realizaciones para el modelo de CSF se supone un campo de visión muy amplio para generar una GSDF de referencia que dé un mejor soporte al campo de los dispositivos de visualización de entretenimiento. La GSDF se refiere a un conjunto de valores de código digital de referencia (o palabras de código de referencia), un conjunto de niveles de gris de referencia (o valores de luminancia de referencia) y una correlación entre los dos conjuntos. En una realización de ejemplo, cada valor de código digital de referencia corresponde a un cuanto de la percepción humana, representado por una JND (por ejemplo, una JND máxima en un nivel de adaptación de luz). En una realización de ejemplo, un número idéntico de valores de código digital de referencia puede corresponder a un cuanto de la percepción humana.
La GSDF puede obtenerse acumulando JND a partir de un valor inicial. En una realización de ejemplo, se proporciona un valor de palabra de código central (por ejemplo, 2048 para un espacio de código de 12 bits) como valor inicial para un código digital de referencia. El valor inicial del código digital de referencia puede corresponder a un nivel de gris de referencia inicial (por ejemplo, 100 cd/m2). Otros niveles de gris de referencia para otros valores del código digital de referencia pueden obtenerse acumulando de manera positiva (sumando) JND a medida que el código digital de referencia aumenta de uno en uno, y acumulando de manera negativa (restando) JND a medida que el código digital de referencia se reduce de uno en uno. En una realización de ejemplo, pueden usarse cantidades tales como umbrales de contraste para calcular valores de referencia en la GSDF, en lugar de las JND. Estas cantidades usadas realmente en el cálculo de una GSDF pueden definirse como relaciones sin unidades y pueden diferir de las JND correspondientes en solamente multiplicadores, factores de división y/o desviaciones conocidos o determinables.
Puede seleccionarse un espacio de código para que incluya todos los valores de código digital de referencia de la GSDF. En algunas realizaciones, el espacio de código en el que residen todos los valores de código digital de referencia puede ser un espacio de código de 10 bits, un espacio de código de 11 bits, un espacio de código de 12 bits, un espacio de código de 13 bits, un espacio de código de 14 bits, un espacio de código de 15 bits o un espacio de código más grande o más pequeño.
Aunque puede usarse un espacio de código grande (>15 bits) para alojar todos los valores de código digital de referencia, en una realización particular, se usa el espacio de código más eficiente (por ejemplo, 10 bits, 12 bits, etc.) para alojar todos los valores de código digital de referencia generados en una GSDF de referencia.
La GSDF de referencia puede usarse para codificar datos de imágenes, por ejemplo, capturados o generados por cámaras HDR, sistemas de estudio u otros sistemas con un HDR específico de escena que es considerablemente mayor que los rangos dinámicos de la mayor parte, si no todos, de los dispositivos de visualización. Los datos de imágenes codificados pueden proporcionarse a dispositivos aguas abajo en una gran variedad de métodos de distribución o de transmisión (por ejemplo, señales de vídeo HDMI con RGB de 8 bits, YCbCr u opciones de color intenso; señales de vídeo SDI de 1,5 Gbps con una frecuencia de muestreo 4:2:2 de 10 bits; SDI de 3 Gbps con una frecuencia de muestreo 4:4:4 de 12 bits o una frecuencia de muestreo 4:2:2 de 10 bits; y otros formatos de vídeo o imagen).
En algunas realizaciones, puesto que los valores de código digital de referencia adyacentes de la GSDF de referencia corresponden a niveles de gris que están dentro de una JND, los detalles que la visión humana puede distinguir pueden conservarse total o sustancialmente en los datos de imágenes codificados según la GSDF de referencia. Un dispositivo de visualización que soporta totalmente la GSDF de referencia puede reproducir, posiblemente, imágenes sin efecto de banda o sin artefactos de distorsión del contorno.
Los datos de imágenes codificados basados en la GSDF de referencia (o datos de imágenes codificados de referencia) pueden usarse para soportar una gran variedad de dispositivos de visualización de menor capacidad
que no pueden soportar totalmente todos los valores de luminancia de referencia de la GSDF de referencia. Puesto que los datos de imágenes codificados de referencia comprenden todos los detalles perceptuales en el intervalo de luminancia soportado (que puede estar diseñado como un superconjunto de qué dispositivos de visualización soporta), los valores de código digital de referencia pueden transcodificarse de manera óptima y eficaz en valores de código digital específicos de dispositivo de visualización de una manera que conserve tantos detalles como pueda soportar un dispositivo de visualización específico y para provocar los menos errores posibles visualmente apreciables como sea posible. Además y/u opcionalmente, puede llevarse a cabo una difuminación de contornos (decontouring) y una mezcla de colores (dithering) conjuntamente o como parte de la transcodificación desde valores de código digital de referencia a valores de código digital específicos de dispositivo de visualización para mejorar adicionalmente la calidad de las imágenes o del vídeo.
Las técnicas descritas en el presente documento no dependen del espacio de colores. Pueden usarse en un espacio de colores RGB, un espacio de colores YCbCr o un espacio de colores diferente. Además, las técnicas que obtienen valores de referencia (por ejemplo, valores de código digital de referencia y niveles de gris de referencia) usando JND que varían con la frecuencia espacial pueden aplicarse a un canal diferente (por ejemplo, un canal de rojos, un canal de verdes o un canal de azules) distinto a un canal de luminancia en un espacio de colores diferente (por ejemplo, RGB) que puede comprender, o no, un canal de luminancia. Por ejemplo, pueden obtenerse valores de azul de referencia en lugar de niveles de gris de referencia usando JND que pueden aplicarse al canal de color azul. Por tanto, en algunas realizaciones, el color puede sustituir a la escala de grises. Además y/u opcionalmente, también pueden usarse diferentes modelos CSF en lugar del modelo de Barten. Por tanto, pueden usarse diferentes parámetros de modelo para el mismo modelo de CSF.
En algunas realizaciones, los mecanismos descritos en el presente documento forman parte de un sistema de procesamiento multimedia que incluye, pero sin limitarse a estos: dispositivos manuales, máquinas de juegos, televisores, ordenadores portátiles, ordenadores de tamaño agenda, radioteléfonos celulares, lectores de libros electrónicos, terminales de punto de venta, ordenadores de escritorio, estaciones de trabajo informáticas, quioscos informáticos u otros tipos de terminales y unidades de procesamiento multimedia.
Varias modificaciones de las realizaciones preferidas y de los principios y características genéricos descritos en el presente documento resultarán fácilmente evidentes a los expertos en la técnica. Por tanto, la divulgación no pretende limitarse a las realizaciones mostradas, sino que se le concede el alcance más amplio compatible con los principios y características descritos en el presente documento.
2. MODELO DE FUNCIÓN DE SENSIBILIDAD AL CONTRASTE (CSF)
La sensibilidad visual humana para estructuras espaciales en imágenes reproducidas puede describirse mejor con funciones de sensibilidad al contraste (CSF), que describen la sensibilidad al contraste como función de la frecuencia espacial (o la tasa de modulación/variación espacial en imágenes percibidas por un observador humano). Tal y como se usa en el presente documento, la sensibilidad al contraste, S, puede considerarse como una ganancia en el procesamiento de señales neurales de visión humana, mientras que los umbrales de contraste, CT, pueden determinarse a partir de la inversa de la sensibilidad al contraste, por ejemplo:
Contraste - Sensibilidad = S = 1/CT expresión(1) Tal y como se usa en el presente documento, el término "umbral de contraste" puede referirse o estar relacionado con el valor más bajo (por ejemplo, una diferencia apenas perceptible) de contraste (relativo) necesario para que los ojos humanos perciban una diferencia de contraste; en algunas realizaciones, los umbrales de contraste también pueden describirse en función de la diferencia apenas perceptible dividida por el nivel de adaptación de luz en un intervalo de valores de luminancia.
En algunas realizaciones, los umbrales de contraste pueden medirse directamente a través de experimentos, sin usar ningún modelo de CSF. Sin embargo, en otras realizaciones, los umbrales de contraste pueden determinarse basándose en un modelo de CSF. Se puede construir un modelo de CSF con una pluralidad de parámetros de modelo y puede usarse para obtener una GSDF cuyas etapas de cuantización en niveles de gris dependen de los niveles de luz, y varían con estos, caracterizados por valores de luminancia y la frecuencia espacial. Puede implementarse una realización de ejemplo basada en uno o más de varios modelos CSF, tales como los descritos en el documento de Peter G. J. Barten, Contrast Sensitivity of the Human Eye and its Effects on Image Quality (1999) (en lo sucesivo, modelo de Barten o modelo de CSF de Barten) o en el documento de Scott Daly, Digital Images and Human Vision, capítulo 17, editado por A. B. Watson, MIT Press (1993) (en lo sucesivo, modelo de Daly). En relación con las realizaciones de ejemplo de la presente invención, los umbrales de contraste usados para generar una función de visualización de escala de grises (GSDF) de referencia pueden obtenerse mediante experimentos, de manera teórica, con un modelo de CSF o mediante una combinación de los mismos.
Tal y como se usa en el presente documento, una GSDF puede referirse a una correlación de una pluralidad de valores de código digital (por ejemplo, 1, 2, 3 ,..., N) con una pluralidad de niveles de gris (L1, L2, L3, …, LN), donde los valores de código digital representan valores de índice de umbrales de contraste y los niveles de gris
corresponden a los umbrales de contraste, como se muestra en la TABLA 1.
TABLA 1
En una realización, un nivel de gris (por ejemplo, Li) correspondiente a un valor de código digital (por ejemplo, i) y un nivel de gris adyacente (por ejemplo, Li+i) pueden calcularse en relación con un contraste (por ejemplo, C(i)) de la siguiente manera:
en donde C(i) representa un contraste para un intervalo de luminancia comprendido entre Li y Li+i. Lmean(i, i+1) comprende un promedio o media aritmética de los dos niveles de gris adyacentes Li y Li+1. El contraste C(i) está relacionado aritméticamente con una fracción de Weber ΔL/L en un factor de dos. Aquí, ΔL representa (Li+1- Li) y L representa Li, Li+1 o un valor intermedio entre Li y Li+1.
En algunas realizaciones, un generador de GSDF puede fijar el contraste C(i) a un valor igual, o si no proporcional, a un umbral de contraste (por ejemplo, CT(i)) en un nivel de luminancia L entre Li y Li+1, inclusive, de la siguiente manera:
en donde k representa una constante multiplicativa. En relación con las realizaciones de la presente invención, pueden usarse otras estadísticas/definiciones descriptivas (por ejemplo, la media geométrica, la mediana, el modo, la varianza o la desviación típica) y/o escalamiento (x2, x3, división o multiplicación por un factor de escalamiento, etc.) y/o desviación (+1, 2, -1, -2, suma o resta de desviaciones, etc.) y/o ponderación (por ejemplo, asignar los dos niveles de gris adyacentes con los mismos o diferentes factores de ponderación) para relacionar los umbrales de contraste con los contrastes con el fin de calcular niveles de grises en una GSDF.
Como se ha calculado en las expresiones (1), (2) y (3), los contrastes o los umbrales de contraste pueden comprender un valor relativo y, por tanto, pueden comprender una cantidad sin unidades (por ejemplo, S también puede carecer de unidades).
Un modelo de CSF puede construirse a partir de mediciones de umbrales de contraste básicos o de cálculos basados en una CSF que representa el modelo de CSF. Desafortunadamente, la visión humana es compleja, adaptativa y no lineal, de modo que no hay una curva CSF única que describa la visión humana. En cambio, puede generarse una familia de curvas CSF sobre la base de un modelo de CSF. Incluso con el mismo modelo de CSF, diferentes valores de parámetros de modelo producen gráficos diferentes para la familia de curvas CSF.
3. NO LINEALIDAD PERCEPTUAL
La figura 1 ilustra una familia de ejemplo de curvas CSF que abarcan una pluralidad de niveles de adaptación de luz. Solo con fines ilustrativos, la curva CSF más alta representada en la figura 1 es para un nivel de adaptación de luz en un valor de luminancia de 1000 candelas por metro cuadrado (cd/m2 o 'nits'), y las otras curvas de altura decreciente son para niveles de adaptación de luz en valores de luminancia decrecientes con factores sucesivos de 10 reducciones. Características importantes que pueden obtenerse de las curvas de CSF son que con una luminancia creciente (niveles de adaptación de luz crecientes), aumenta la sensibilidad global al contraste, incluyendo la sensibilidad al contraste máxima (o pico). La frecuencia espacial máxima a la que llega la sensibilidad
al contraste en las curvas de CSF de la figura 1 pasa a frecuencias espaciales más altas. Similarmente, la máxima frecuencia espacial perceptible (frecuencia de corte) en las curvas CSF, que es la intersección de las curvas CSF con el eje horizontal (frecuencia espacial), también aumenta.
En una realización de ejemplo, una función CSF que da lugar a una familia de curvas CSF como la ilustrada en la figura 1 puede obtenerse con el modelo de CSF de Barten, que tiene en cuenta una pluralidad de efectos clave relacionados con la percepción humana. Una CSF de ejemplo, S(u), (o la inversa del umbral de contraste correspondiente, mt ,) según el modelo de CSF de Barten puede calcularse como se muestra en la siguiente expresión (4).
Los parámetros de modelo de ejemplo usados en la anterior expresión (4) comprenden las siguientes representaciones:
○ 2 (el factor numérico) corresponde a una visión binocular (4 si es monocular);
○ k representa una relación de señal a ruido, por ejemplo 3,0;
○ T representa el tiempo de integración del ojo, por ejemplo 0,1 segundos;
○ X 0 representa el tamaño angular del objeto (por ejemplo, con una forma cuadrada);
○ Xmax representa el tamaño angular máximo del área de integración del ojo (por ejemplo, 12 grados); ○ Nmax representa el número máximo de ciclos que se acumulan mediante la suma de probabilidades, por ejemplo 15 ciclos;
○ η representa la eficacia cuántica del ojo, por ejemplo 0,03;
○ p representa el factor de conversión de fotón;
○ E representa la iluminación retiniana, por ejemplo, en unidades de Troland;
○ Φ 0 representa la densidad espectral del ruido neural, por ejemplo, 3x10-8 segundo * grados2; y
○ u0 representa la frecuencia espacial máxima para una inhibición lateral, por ejemplo 7 ciclos/grados. La función de transferencia de modulación óptica, Mopt , puede expresarse de la siguiente manera:
donde σ representa un parámetro de modelo relacionado con la pupila y/o el nivel de luz.
El modelo de CSF de Barten descrito anteriormente puede usarse para describir una no linealidad perceptual con respecto a la luminancia. También pueden usarse otros modelos CSF para describir una no linealidad perceptual. Por ejemplo, el modelo de CSF de Barten no tiene en cuenta el efecto de acomodación, que provoca una disminución de la frecuencia espacial de corte en la región de alta frecuencia espacial de la CSF. Este efecto de reducción debido a la acomodación puede expresarse en función de una menor distancia de visionado.
Por ejemplo, para distancias de visionado superiores a 1,5 metros puede conseguirse la máxima frecuencia espacial de corte representada por el modelo de CSF de Barten, sin afectar a la eficacia del modelo de Barten como modelo apropiado para describir la no linealidad perceptual. Sin embargo, para distancias inferiores a 1,5 metros, el efecto de acomodación empieza a ser significativo, reduciendo la precisión del modelo de Barten. Por tanto, en los dispositivos de visualización de tipo tableta, que tienen distancias más visionado más pequeñas, por ejemplo, de 0,5 metros, y en los teléfonos inteligentes, que pueden tener una distancia de visionado tan pequeña como 0,125 metros, el modelo de CSF de Barten puede no ajustarse de manera óptima.
En algunas realizaciones puede usarse el modelo de CSF de Daly, que tiene en cuenta el efecto de acomodación. En una realización particular, el modelo de CSF de Daly puede construirse, en parte, sobre la base de la CSF de Barten, S(u), en la anterior expresión (4), por ejemplo, modificando la función de transferencia de modulación óptica, Mopt , en la expresión (5).
4. VALORES DE CÓDIGO DIGITAL Y NIVELES DE GRIS
Una GSDF como la ilustrada en la TABLA 1 correlaciona la no linealidad perceptual usando los valores de código digital para representar niveles de gris vinculados a umbrales de contraste en la visión humana. Los niveles de gris que comprenden todos los valores de luminancia correlacionados pueden distribuirse de tal manera que estén separados óptimamente para coincidir con la no linealidad perceptual de la visión humana.
En algunas realizaciones, cuando el número máximo de niveles de gris en una GSDF es suficientemente elevado con respecto al intervalo máximo de valores de luminancia, los valores de código digital de la GSDF pueden usarse para conseguir el número más bajo (por ejemplo, inferior a un total de 4096 valores de código digital) de niveles de gris sin provocar la visibilidad de la transición entre etapas de niveles de gris (por ejemplo, visible como un falso contorno o banda en una imagen; o un cambio de color en regiones oscuras de una imagen).
En otras realizaciones, puede seguir usándose un número limitado de valores de código digital para representar un amplio rango dinámico de niveles de gris. Por ejemplo, cuando el número máximo de niveles de escala de grises en una GSDF no es suficientemente grande con respecto al intervalo máximo de los niveles de escala de grises (por ejemplo, valores de código digital en una representación de 8 bits con el intervalo de niveles de escala de grises comprendido entre 0 y 12000 nits), la GSDF puede seguir usándose para conseguir el número más bajo (por ejemplo, inferior a un total de 256 valores de código digital) de niveles de gris para reducir o minimizar la visibilidad de la transición entre etapas de niveles de gris. Con esta GSDF, las cantidades/grados de errores/artefactos perceptibles de la transición entre etapas pueden distribuirse de manera uniforme a través de la jerarquía de un número relativamente bajo de niveles de gris en la GSDF. Tal y como se usa en el presente documento, los términos "nivel de escala de grises" y "nivel de gris" pueden usarse de manera intercambiable y pueden referirse a un valor de luminancia representado (un valor de luminancia cuantizado representado en una GSDF).
Los niveles de gris en una GSDF pueden obtenerse acumulando o integrando umbrales de contraste a través de niveles de adaptación de luz (en diferentes valores de luminancia). En algunas realizaciones, las etapas de cuantización entre niveles de gris pueden elegirse de manera que una etapa de cuantización entre dos niveles de gris adyacentes cualesquiera esté dentro de una JND. Un umbral de contraste en un nivel de adaptación de luz particular (o valor de luminancia) puede no ser mayor que la diferencia apenas perceptible (JND) en ese nivel de adaptación particular. Los niveles de gris pueden obtenerse integrando o acumulando fracciones de umbrales de contraste (o JND). En algunas realizaciones, el número de valores de código digital es más que suficiente como para representar todas las JND en el rango dinámico representado de luminancia.
Los umbrales de contraste o, por el contrario, las sensibilidades al contraste, que se usan para calcular los niveles de escala de grises pueden seleccionarse a partir de una curva CSF en una frecuencia espacial diferente de una frecuencia espacial fija para un nivel de adaptación de luz particular (o valor de luminancia). En algunas realizaciones, cada uno de los umbrales de contraste se selecciona a partir de una curva CSF en una frecuencia espacial que corresponde a una sensibilidad al contraste máxima (por ejemplo, debido al efecto de acentuación de contornos de Whittle) para un nivel de adaptación de luz. Además, los umbrales de contraste pueden seleccionarse a partir de curvas CSF en diferentes frecuencias espaciales para diferentes niveles de adaptación de luz.
Una expresión de ejemplo para calcular/acumular los niveles de gris en la GSDF es de la siguiente manera:
donde f representa la frecuencia espacial, que puede ser diferente a un número fijado según las técnicas descritas en el presente documento; y LA representa el nivel de adaptación de luz. Lmin puede ser el valor de luminancia más bajo de todos los niveles de gris correlacionados. Tal y como se usa en el presente documento, el término "Nit" o su abreviatura "nt" pueden estar relacionados o referirse, con el mismo significado o de manera intercambiable, a una unidad de intensidad de imagen, brillo, luminosidad y/o luminancia que es equivalente o igual a una (1) candela por metro cuadrado (1 Nit = 1 nt = 1 cd/m2). En algunas realizaciones, Lmin puede comprender un valor de cero. En algunas otras realizaciones, Lmin puede comprender un valor distinto de cero (por ejemplo, un determinado nivel de negro intenso, 10-5 nit, 10-7 nit, etc., que puede ser inferior a lo que los dispositivos de visualización pueden conseguir normalmente). En algunas realizaciones, Lmin puede sustituirse por un valor distinto al valor inicial mínimo, tal como un valor intermedio o un valor máximo, que permite realizar cálculos acumulativos con restas o
sumas negativas.
En algunas realizaciones, la acumulación de las JND para obtener niveles de gris en una GSDF se lleva a cabo mediante sumas, por ejemplo, como se muestra en la expresión (6). En otras realizaciones, puede usarse una integral en lugar de una suma discreta. La integral puede integrarse a lo largo de una trayectoria de integración determinada a partir de una CSF (por ejemplo, la expresión (4)). Por ejemplo, la trayectoria de integración puede comprender sensibilidades al contraste máximas (por ejemplo, diferentes sensibilidades máximas correspondientes a diferentes frecuencias espaciales) para todos los niveles de adaptación de luz en un rango dinámico (de referencia) para la CSF.
Tal y como se usa en el presente documento, una trayectoria de integración puede referirse a una curva de un rango dinámico visible (VDR) usada para representar la no linealidad perceptual humana y para establecer una correlación entre un conjunto de valores de código digital y un conjunto de niveles de gris de referencia (valores de luminancia cuantizados). La correlación puede ser necesaria para satisfacer el criterio de que cada etapa de cuantización (por ejemplo, la diferencia de luminancia de dos niveles de gris adyacentes en la TABLA 1) sea inferior a las JND superiores o inferiores a un nivel de adaptación de luz correspondiente (valor de luminancia). La derivada instantánea (en unidades de nit/ciclo espacial) de la trayectoria de integración en un nivel de adaptación de luz particular (valor de luminancia) es proporcional a la JND en el nivel de adaptación particular. Tal y como se usa en el presente documento, el término "VDR" o "rango dinámico visual" puede hacer referencia a un rango dinámico más amplio que un rango dinámico estándar, y puede incluir, pero sin limitarse a, un rango dinámico amplio hasta el rango dinámico inmediatamente perceptible y la gama de colores que la visión humana puede percibir en un instante.
Sobre la base de las técnicas descritas en el presente documento, puede desarrollarse una GSDF de referencia que sea independiente de cualquier dispositivo de visualización o dispositivo de procesamiento de imágenes específico. En algunas realizaciones, uno o más parámetros de modelo diferentes al nivel de adaptación de luz (luminancia), la frecuencia espacial y el tamaño angular pueden fijarse a valores constantes (o fijos).
5. PARÁMETROS DE MODELO
En algunas realizaciones, el modelo de CSF se construye con valores de parámetro de modelo conservativos que cubren una amplia gama de dispositivos de visualización. El uso de los valores de parámetro de modelo conservativos proporciona JND más pequeñas que las GSDF estándar existentes. Por consiguiente, en algunas realizaciones, la GSDF de referencia de las técnicas descritas en el presente documento puede soportar valores de luminancia con una gran precisión que supera los requisitos de estos dispositivos de visualización.
En algunas realizaciones, los parámetros de modelo descritos en el presente documento incluyen un parámetro de campo de visión (FOV). El parámetro FOV puede fijarse a un valor de 45 grados, 40 grados, 35 grados, 30 grados, 25 grados u otro valor mayor o menor que soporte una gran variedad de dispositivos de visualización y de escenarios de visionado, incluyendo los usados en los estudios, salas de cine o sistemas de entretenimiento de alta gama.
Los parámetros de modelo descritos en el presente documento pueden incluir un parámetro de tamaño angular, que puede referirse, por ejemplo, a un campo de visión. El parámetro de tamaño angular puede fijarse a un valor de 45 grados x 45 grados, de 40 grados x 40 grados, de 35 grados x 35 grados, de 30 grados x 30 grados, de 25 grados x 25 grados, o a otro valor mayor o menor que soporte una gran variedad de dispositivos de visualización y de escenarios de visionado. En algunas realizaciones, el parámetro de tamaño angular usado en parte para obtener la GSDF de referencia se fija a n grados x m grados, donde n o m puede ser un valor numérico entre 30 y 40, y n y m pueden ser iguales o no.
En algunas realizaciones, se usa un tamaño angular mayor (por ejemplo, 40 grados x 40 grados) para generar una GSDF de referencia con un número mayor de niveles de escala de gris y, por tanto, más sensibilidad al contraste. La GSDF puede usarse para soportar una gran variedad de escenarios de visionado y/o de visualización (por ejemplo, grandes pantallas de vídeo) que pueden necesitar un gran ángulo de visión entre ~30 y 40 grados. La GSDF que presenta una mayor sensibilidad debido a la selección de un gran tamaño angular también puede usarse para soportar escenarios de visionado y/o de visualización altamente variables (por ejemplo, salas de cine). Es posible seleccionar tamaños angulares incluso mayores; sin embargo, aumentar el tamaño angular muy por encima de un determinado tamaño angular (por ejemplo, 40 grados) puede producir beneficios marginales relativamente limitados.
En algunas realizaciones, un modelo de GSDF de referencia abarca una gran gama de luminancia. Por ejemplo, los niveles de gris o valores de luminancia cuantizados, que se representan mediante el modelo de GSDF de referencia oscilan entre 0, o aproximadamente 0 (por ejemplo, 10-7 cd/m2), y 12000 cd/m2. El límite inferior de los valores de luminancia representados en el modelo de GSDF de referencia puede ser 10-7 cd/m2 o un valor inferior o superior (por ejemplo, 0, 10-5, 10-8, 10-9 cd/m2, etc.). La GSDF puede usarse para soportar una gran variedad de escenarios de visionado y/o de visualización con diferentes niveles de luz ambiental. La GSDF puede usarse para
soportar una gran variedad de dispositivos de visualización con diferentes niveles de negro (en salas de cine, en interiores o en exteriores).
El límite superior de los valores de luminancia representados en el modelo de GSDF de referencia puede ser de 12000 cd/m2 o un valor inferior o superior (por ejemplo, 6000-8000, 8000-10000, 10000-12000, 12000-15000 cd/m2, etc.). La GSDF puede usarse para soportar una gran variedad de escenarios de visionado y/o de visualización con altos rangos dinámicos. La GSDF puede usarse para soportar una gran variedad de dispositivos de visualización con diferentes niveles máximos de luminancia (televisores HDR, pantallas SDR, ordenadores portátiles, tabletas, dispositivos manuales, etc.).
6. FRECUENCIAS ESPACIALES VARIABLES
La figura 2 ilustra una trayectoria de integración de ejemplo (denotada como VDR) que puede usarse como trayectoria de integración para obtener niveles de gris en una GSDF de referencia como la descrita en el presente documento, según una realización de ejemplo de la presente invención. En realizaciones, la curva VDR se usa para capturar de manera precisa la sensibilidad al contraste máxima de la visión humana en un alto rango dinámico de valores de luminancia.
Como se ilustra en la figura 2, las sensibilidades al contraste máximas no se producen en un valor de frecuencia espacial fijo, sino que se producen en frecuencias espaciales más pequeñas a medida que disminuyen los niveles de adaptación de luz (valores de luminancia). Esto significa que técnicas (por ejemplo, DICOM) con una frecuencia espacial fija pueden subestimar considerablemente las sensibilidades al contraste de la visión humana para los niveles de adaptación de luz oscura (valores de luminancia bajos). Sensibilidades al contraste más bajas dan lugar a umbrales de contraste más altos, dando como resultado mayores tamaños de etapas de cuantización en valores de luminancia cuantizados.
A diferencia de la norma de Generación y Comunicación de Imágenes Médicas Digitales (DICOM), una curva VDR según las técnicas descritas en el presente documento no fija el parámetro de modelo de frecuencia espacial a un valor fijo tal como 4 ciclos por grado. En cambio, la curva VDR varía con la frecuencia espacial y captura de manera precisa las sensibilidades al contraste máximas de la visión humana en varios niveles de adaptación de luz. La curva VDR tiene en cuenta de manera apropiada el efecto de acentuación de contornos debido a la adaptabilidad de la visión humana a una gran variedad de niveles de adaptación de luz, y ayuda a generar una GSDF de referencia de alta precisión. En este caso, el término "alta precisión" significa que los errores perceptuales debidos a la cuantización de los valores de luminancia se eliminan o se reducen considerablemente sobre la base de una GSDF de referencia que captura mejor y más eficientemente la no linealidad visual humana dentro de la restricción de un espacio de código de tamaño fijo (por ejemplo, uno de 10 bits, 12 bits, etc.).
Puede usarse un proceso de cálculo para calcular niveles de gris en la GSDF de referencia (por ejemplo, TABLA 1). En una realización de ejemplo, el proceso de cálculo es iterativo o recursivo, determina repetidamente los umbrales de contraste (o umbrales de modulación, por ejemplo, mt en la expresión 4) a partir de la curva VDR, y aplica los umbrales de contraste para obtener niveles de gris sucesivos en la GSDF de referencia. Este proceso de cálculo puede implementarse con las siguientes expresiones (7):
donde j-1, j y j+1 representan índices de tres valores de código digital adyacentes; Lj-1 , Lj y Lj+1 corresponden a niveles de gris con los que los valores de código digital j-1, j y j+1 están correlacionados, respectivamente. Lmax y Lmin representan respectivamente el valor de luminancia máximo y el valor de luminancia mínimo en una JND o en una fracción de una JND. Usar una JND o una fracción de la misma mantiene la alta precisión de la GSDF de referencia.
El umbral de contraste mt asociado a la JND puede definirse como una cantidad relativa, por ejemplo, una diferencia entre Lmax y Lmin , dividida por un valor de luminancia particular de Lmax o Lmin, o estar comprendido entre Lmax y Lmin (por ejemplo, la media de Lmax y Lmin ). En algunas realizaciones, mt puede definirse de manera alternativa como la diferencia entre Lmax y Lmin , dividida por un multiplicador (por ejemplo, 2) de un valor de luminancia particular de Lmax o Lmin , o estar comprendido entre Lmax y Lmin . En la cuantización de los valores de luminancia de una GSDF con respecto a una pluralidad de niveles de gris, Lmax y Lmin pueden hacer referencia a niveles de gris adyacentes de la pluralidad de niveles de gris. Como resultado, Lj puede relacionarse con Lj -1 y Lj+1 a través de mt , respectivamente, como se muestra en la expresión (7).
En realizaciones alternativas, en lugar de usar expresiones lineales como las ilustradas en la expresión (7), puede usarse una expresión no lineal para relacionar JND o umbrales de contraste con niveles de gris. Por ejemplo, puede usarse una expresión alternativa basada en la desviación típica dividida por la media en lugar de una relación sencilla para el umbral de contraste como la ilustrada.
En algunas realizaciones, una GSDF de referencia cubre un intervalo de 0 a 12000 cd/m2 con valores de código digital representados como un valor entero de 12 bits. Para mejorar adicionalmente la precisión de la GSDF de referencia, mt puede multiplicarse por un valor fraccional f. Además, un valor digital central L2048 (obsérvese que los valores de código digital están al menos limitados a 0 y 4096 como en un espacio de código de 12 bits que es compatible con SDI) puede correlacionarse con 100 cd/m2. La expresión (7) puede generar las siguientes expresiones (8):
en donde el valor f de fracción se establece a 0,918177. En la realización de ejemplo, el valor mínimo permitido para los códigos digitales se fija a una palabra de código (o valor entero) 16 fijada a 0 (cd/m2). El segundo valor de código digital más bajo 17 termina en 5,27x10-7 cd/m2, mientras que el valor de código digital 4076 termina en 12000 cd/m2.
La figura 3 ilustra una GSDF de ejemplo que correlaciona entre una pluralidad de niveles de gris (en valores de luminancia logarítmicos) y una pluralidad de valores de código digital en un espacio de código de 12 bits, según una realización de ejemplo de la presente invención.
La figura 4 ilustra una curva que representa fracciones de Weber (Delta L/L, o ΔL/L) basadas en niveles de gris de la GSDF de ejemplo de la figura 3. La no linealidad perceptual de la visión humana ilustrada en la figura 4 se representa en función de los valores de luminancia en un eje de luminancia logarítmico. Las diferencias visuales comparables (por ejemplo, JND) de la visión humana corresponden a valores Delta L/L mayores en valores de luminancia más bajos. La curva de fracciones de Weber se acerca, sin llegar nunca a alcanzar, un valor constante para altos valores de luminancia (por ejemplo, una fracción de Weber de 0,002 donde la ley de Weber se cumple para valores de luminancia más altos).
7. MODELOS FUNCIONALES
Puede usarse una o más funciones analíticas para obtener una correlación entre valores de código digital y niveles de gris en una GSDF (GSDF de referencia o GSDF específica de dispositivo), como se describe en el presente documento. La una o más funciones analíticas pueden ser propietarias, basadas en normas o ser ampliaciones de funciones basadas en normas. En algunas realizaciones, un generador de GSDF (por ejemplo, 504 de la figura 5) puede generar una GSDF en forma de una o más tablas de consulta (LUT) directas y/o una o más LUT inversas basadas en la una o más funciones (o fórmulas) analíticas. Al menos algunas de estas LUT pueden proporcionarse a varios códecs de datos de imágenes (por ejemplo, 506 de la figura 5) o a una gran variedad de dispositivos de visualización que se usarán en las conversiones entre niveles de gris de referencia y niveles de código digital de referencia con el fin de codificar datos de imágenes de referencia. Además, opcionalmente o como alternativa, al menos algunas de las funciones analíticas (con sus coeficientes en representaciones de números enteros o de coma flotante) pueden proporcionarse directamente a códecs de datos de imágenes o a una gran variedad de dispositivos de visualización que se usarán para obtener correlaciones entre valores de código digital y niveles de gris en una GSDF, como se describe en el presente documento, y/o para conversiones entre niveles de gris y niveles de código digital con el fin de codificar datos de imágenes.
En algunas realizaciones, las funciones analíticas descritas en el presente documento comprenden una función directa que puede usarse para predecir un valor de código digital sobre la base de un nivel de gris correspondiente, de la siguiente manera:
donde D representa un valor de código digital (por ejemplo, de 12 bits), L representa un valor de luminancia o un nivel de gris en nits, n puede representar una pendiente en una sección central de una curva logD/logL proporcionada por la expresión (9), m puede representar el grado de curvatura de la curva logD/logL, y c1, c2 y c3 pueden definir los puntos de extremo y centrales de la curva logD/logL.
En algunas realizaciones, las funciones analíticas comprenden una función inversa que corresponde a la función directa en la expresión (9) y puede usarse para predecir un valor de luminancia sobre la base de un valor de código digital correspondiente, de la siguiente manera:
Los valores de código digital predichos sobre la base de una pluralidad de valores de luminancia que usan la expresión (9) pueden compararse con valores de código digital observados. Los valores de código digital observados pueden ser, pero sin limitarse solamente a estos, cálculos numéricos basados en un modelo de CSF descrito anteriormente. En una realización, puede calcularse y minimizarse la desviación entre los valores de código digital predichos y los valores de código digital observados para obtener valores óptimos de los parámetros n, m, c1 , c2 y c3 en la expresión (9).
Asimismo, los valores de luminancia predichos basándose en una pluralidad de valores de código digital usando la expresión (10) pueden compararse con valores de luminancia observados. Los valores de luminancia observados pueden generarse usando cálculos numéricos basados en un modelo de CSF descrito anteriormente o usando datos de experimentación de la visión humana, pero no están limitados a esto. En una realización, la desviación entre los valores de luminancia predichos y los valores de luminancia observados pueden obtenerse como función de los parámetros n, m, c1, c2 y c3 y minimizarse para obtener valores óptimos de los parámetros n, m, c1, c2, y c3 en la expresión (10).
Un conjunto de valores óptimos de los parámetros n, m, c1, c2 y c3 determinados con la expresión (9) puede ser idéntico o no a un conjunto de valores óptimos de los parámetros n, m, c1 , c2 y c3 determinados con la expresión (10). En caso de haber diferencias entre los dos conjuntos, uno o ambos conjuntos pueden usarse para generar una correlación entre valores de código digital y valores de luminancia. En algunas realizaciones, si los dos conjuntos de valores óptimos de los parámetros n, m, c1 , c2 y c3 son diferentes, éstos pueden armonizarse, por ejemplo, minimizando los errores en las pasadas de ida y vuelta que se introducen llevando a cabo operaciones de codificación directa e inversa con ambas expresiones (9) y (10). En algunas realizaciones pueden realizarse múltiples pasadas de ida y vuelta para estudiar los errores resultantes en los valores de código digital y/o en los valores de luminancia o niveles de gris. En algunas realizaciones, la selección de los parámetros en las expresiones (9) y (10) puede basarse, al menos en parte, en el criterio de que no se produzca error significativo en una, dos o más pasadas de ida y vuelta. Ejemplos de ausencia de errores significativos en pasadas de ida y vuelta pueden incluir, pero sin limitarse solamente a esto, errores inferiores al 0,0001 %, 0,001 %, 0,01 %, 0,1 %, 1 %, 2 %, u otros valores configurables.
Las realizaciones incluyen usar un espacio de código de una o más longitudes de bit diferentes para representar valores de control digital. Los valores optimizados de los parámetros de las expresiones (9) y (10) pueden obtenerse para cada uno de una pluralidad de espacios de código, cada uno con una longitud diferente de una o más longitudes de bit diferentes. Sobre la base de los valores optimizados de las expresiones (9) y (10) pueden determinarse distribuciones de los errores de código (por ejemplo, errores de transformación directa, errores de transformación inversa o errores en pasadas de ida y vuelta en los valores de código digital basados en las expresiones (9) y (10)). En algunas realizaciones, una diferencia numérica de uno (1) en dos valores de código digital corresponde a un umbral de contraste (o corresponde a JND) en un nivel de luz entre dos valores de luminancia representados por los dos valores de código digital. La figura 10A ilustra valores máximos de errores de código en unidades de JND en una pluralidad de espacios de código, cada uno con una precisión diferente de una o más precisiones diferentes (con diferentes longitudes de bit), según algunas realizaciones de ejemplo. Por ejemplo, sobre la base de los modelos funcionales descritos en el presente documento, el error de código máximo para un espacio de código con una longitud de bits infinita o ilimitada es de 11252. En comparación, sobre la base de un modelo funcional descrito en el presente documento, el error de código máximo para un espacio de código con una longitud de 12 bits (o 4096) es 11298. Esto indica que un espacio de código con una longitud de 12 bits para valores de código digital es una excelente opción con un modelo funcional representado por las expresiones (9) y (10).
La figura 10B ilustra una distribución de errores de código para un espacio de código de longitud de 12 bits (o 4096) con una transformación directa (desde valores de luminancia a valores de código digital) como la especificada en la expresión (9), según una realización de ejemplo. La figura 10C ilustra una distribución de errores de código para un espacio de código de longitud de 12 bits (o 4096) con una transformación inversa (desde valores de código digital a valores de luminancia) como la especificada en la expresión (10), según una realización de ejemplo. Tanto la figura 10B como la figura 10C indican errores de código máximos inferiores a 12,5.
La figura 11 ilustra valores de parámetros que pueden usarse en las expresiones (9) y (10), según una realización de ejemplo. Como se ilustra, en algunas realizaciones, pueden usarse fórmulas basadas en números enteros para representar/aproximar estos valores no enteros en una implementación específica de un modelo funcional descrito en el presente documento. En algunas otras realizaciones, pueden usarse valores de coma fija o de coma flotante con una precisión de entre una o más precisiones (por ejemplo, de 14, 16 o 32 bits) para representar estos valores no enteros en una implementación específica de un modelo funcional descrito en el presente documento.
Las realizaciones incluyen usar un modelo funcional con fórmulas diferentes a las proporcionadas en las expresiones (9) y (10) (que pueden ser curvas de correlación de tonos). Por ejemplo, un modelo cónico con una fórmula de Naka-Rushton, como la mostrada a continuación, puede ser usado por un modelo funcional descrito en el presente documento:
en donde L representa valores de luminancia, n, m y σ representan parámetros de modelo en asociación con el modelo cónico, y Ld representa valores predichos que pueden codificarse con valores de código digital. Pueden usarse métodos similares para obtener parámetros de modelo minimizando las desviaciones para obtener valores óptimos de los parámetros de modelo para la expresión (11). La figura 10D ilustra una distribución de errores de código para un espacio de código de longitud de 12 bits (o 4096) con una transformación directa (desde valores de luminancia a valores de código digital) como la especificada en la expresión (11), según una realización de ejemplo. En una realización, el error de código máximo ilustrado en la figura 10D es de 25 JND.
En otro ejemplo, puede generarse un modelo funcional con una fórmula Raised mu, de la siguiente manera:
en donde x representa valores de luminancia, e y representa valores de código digital predichos. Un valor óptimo del parámetro de modelo µ puede obtenerse minimizando las desviaciones. La figura 10E ilustra una distribución de errores de código para un espacio de código de longitud de 12 bits (o 4096) con una transformación directa (desde valores de luminancia a valores de código digital) como la especificada en la expresión (12), según una realización de ejemplo. En una realización, el error de código máximo ilustrado en la figura 10E es de 17 JND.
Como se ilustra en el presente documento, en algunas realizaciones, puede usarse un modelo funcional para predecir valores de código a partir de valores de luminancia o para predecir valores de luminancia a partir de valores de código. Las fórmulas usadas por el modelo funcional pueden ser invertibles. Puede implementarse la misma lógica de procesamiento, u otra similar, para llevar a cabo transformaciones directas e inversas entre estos valores. En algunas realizaciones, parámetros de modelo que incluyen, pero que no están limitados solamente a estos exponentes pueden representarse mediante valores de coma fija o fórmulas basadas en enteros. Por tanto, al menos una parte de la lógica de procesamiento puede implementarse de manera eficiente solamente en hardware, solamente en software o en una combinación de hardware y software. Asimismo, al menos una parte de las LUT generadas con el modelo funcional o las fórmulas de modelo (tales como las expresiones (9) a (12)) pueden implementarse de manera eficaz solamente en hardware, solamente en software o en una combinación de hardware y software (incluyendo ASIC o FPGA). En algunas realizaciones, pueden implementarse uno, dos o más modelos funcionales en un único dispositivo informático, una configuración de múltiples dispositivos informáticos, un servidor, etc. En algunas realizaciones, los errores en valores de código predichos pueden estar en 14 valores de código de valores objetivo u observados en un intervalo total de rango dinámico visible de valores de luminancia. En algunas realizaciones, esto se cumple en las transformaciones directas e inversas. Los mismos o diferentes conjuntos de parámetros de modelo pueden usarse en las transformaciones directas e inversas. La precisión en las pasadas de ida y vuelta puede maximizarse con valores óptimos de los parámetros de modelo. Pueden usarse diferentes espacios de código. En una realización particular, puede usarse un espacio de código con una longitud de 12 bits (4096) para alojar valores de código digital con errores de código mínimos en todo el intervalo del rango dinámico visible.
Tal y como se usa en el presente documento, una GSDF de referencia puede referirse a una GSDF que comprende valores de código digital de referencia y niveles de gris de referencia relacionados según un modelo funcional (cuyos parámetros de modelo pueden determinarse con valores objetivo u observados bajo un modelo de CSF), determinado con cálculos numéricos (por ejemplo, sin determinar ninguna representación funcional de una correlación entre valores de código digital y valores de luminancia) basándose en un modelo de CSF, o determinado con datos obtenidos de estudios de la visión humana. En algunas realizaciones, una GSDF de dispositivo también puede comprender una correlación entre valores de código digital y niveles de gris que pueden representarse de manera analítica con un modelo funcional descrito en el presente documento.
8. DATOS DE IMÁGENES DE INTERCAMBIO BASADOS EN UNA GSDF DE REFERENCIA
Con fines ilustrativos, se ha descrito que los valores de código digital residen en un espacio de código de 12 bits. Sin embargo, la presente invención no está limitada a esto. En una GSDF de referencia pueden usarse valores de código digital con diferentes espacios de código (por ejemplo, profundidades de bit diferentes a 12 bits). Por
ejemplo, pueden usarse valores enteros de 10 bits para representar códigos digitales. En lugar de correlacionar un valor de código digital 4076 con un valor de luminancia de 12000 cd/m2 en una representación de 12 bits de códigos digitales, un valor de código digital 1019 puede correlacionarse con el valor de luminancia de 12000 cd/m2 en una representación de 10 bits de códigos digitales. Por tanto, estas y otras variaciones en los espacios de código (profundidades de bit) pueden usarse para valores de código digital en una GSDF de referencia.
La GSDF de referencia puede usarse para datos de imágenes de intercambio entre diferentes GSDF que pueden estar diseñadas de manera individual para cada tipo de dispositivo de adquisición de imágenes o de dispositivo de reproducción de imágenes. Por ejemplo, una GSDF implementada con un tipo específico de dispositivo de adquisición de imágenes o de dispositivo de reproducción de imágenes puede depender, de manera implícita o explícita, de parámetros de modelo que no coinciden con parámetros de modelo de una GSDF estándar o de una GSDF específica de dispositivo con otro tipo de dispositivo de adquisición de imágenes o de dispositivo de reproducción de imágenes.
Una GSDF de referencia puede corresponder a formas curvas como se representa en la figura 3 y en la figura 4. En términos generales, las formas de las GSDF dependen de parámetros usados para obtener o diseñar las GSDF. Por tanto, una GSDF de referencia depende de un modelo de CSF de referencia y de parámetros de modelo de referencia usados para generar la GSDF de referencia a partir del modelo de CSF de referencia. La forma de curva de una GSDF específica de dispositivo depende del dispositivo específico, que incluye parámetros de visualización y condiciones de visionado si el dispositivo específico es un dispositivo de visualización.
En un ejemplo, un dispositivo de visualización cuyo intervalo soportado de valores de luminancia está limitado a menos de 500 cd/m2 puede no experimentar el aumento de la pendiente en una región de altos valores de luminancia (que se produce cuando la visión humana pasa a tener un comportamiento logarítmico para todas las frecuencias) como se muestra en la figura 3. Controlar el dispositivo de visualización con la forma de curva de la figura 3 puede dar lugar a una asignación no óptima (por ejemplo, subóptima) de niveles de gris, donde muchos niveles de gris están asignados en las regiones luminosas y no están asignados en un número suficiente en las regiones oscuras.
En otro ejemplo, se diseña un dispositivo de visualización de bajo contraste para usarse en espacios abiertos en varias situaciones de luz natural. El intervalo de luminancia del dispositivo de visualización puede producirse en gran parte o en casi toda la región de comportamiento logarítmico de la figura 3. Controlar este dispositivo de visualización de bajo contraste con la forma de curva de la figura 3 también puede dar lugar a una asignación no óptima (subóptima) de niveles de gris, donde demasiados niveles de gris están asignados en las regiones oscuras y no están asignados en un número suficiente en las regiones luminosas.
Con las técnicas descritas en el presente documento, cada dispositivo de visualización puede usar su GSDF específica (que depende no solamente de los parámetros de visualización, sino también de las condiciones de visionado que, por ejemplo, afectan al nivel de negro real) para soportar de manera óptima la información perceptual en los datos de imágenes codificados con una GSDF de referencia. La GSDF de referencia es usada por uno o más dispositivos aguas arriba (por ejemplo, de codificación) para la codificación global de datos de imágenes para conservar tantos detalles perceptuales como sea posible. Los datos de imágenes codificados en la GSDF de referencia se suministran después a uno o más dispositivos aguas abajo (por ejemplo, de descodificación). En una realización de ejemplo, la codificación de datos de imágenes basada en las GSDF de referencia es independiente de dispositivos específicos que van a descodificar y/o reproducir posteriormente los datos de imágenes.
Cada dispositivo (por ejemplo, un dispositivo de visualización) tiene su GSDF específica donde se soportan/optimizan los niveles de gris específicos de dispositivo. Los niveles de gris específicos pueden ser conocidos por el fabricante del dispositivo de visualización o pueden haberse diseñado específicamente por el fabricante para soportar la GSDF específica de dispositivo (que puede estar basada, o no, en normas). El controlador de línea del dispositivo puede implementarse con valores de luminancia cuantizados específicos del dispositivo. La optimización puede hacerse mejor para el dispositivo basándose en los valores de luminancia cuantizados específicos para el dispositivo. Además, el nivel de negro oscuro (por ejemplo, el nivel de gris más bajo específico de dispositivo) que puede usarse como límite inferior del intervalo de niveles de gris específicos de dispositivo puede fijarse sobre la base de, en parte, el nivel de luz ambiental presente y/o la reflectancia óptica del dispositivo (que puede ser conocida por el fabricante). Una vez que se ha fijado así el nivel de negro, pueden obtenerse los niveles de gris específicos de dispositivo o fijarse acumulando de manera implícita o explícita (por ejemplo, acumulando/integrando) etapas de cuantización en el controlador de línea del dispositivo. La derivación y/o el ajuste de los niveles de gris pueden realizarse, o no, en tiempo de ejecución cuando el dispositivo está reproduciendo imágenes concurrentemente.
Por tanto, con las técnicas descritas en el presente documento, las realizaciones de la presente invención pueden incluir, pero no están limitadas solamente a esto, la codificación de datos de imágenes con una GSDF de referencia y la descodificación y reproducción de datos de imágenes con una GSDF específica de dispositivo de visualización.
Las técnicas descritas en el presente documento pueden usarse para intercambiar datos de imágenes entre diversos dispositivos con diferentes GSDF. La figura 5 ilustra una infraestructura de ejemplo (500) de datos de imágenes de intercambio con dispositivos de diferentes GSDF, según una realización de ejemplo de la presente invención. Como se ilustra en la figura 5, puede usarse un modelo de CSF adaptativo (502) para generar una GSDF de referencia (504). El término "adaptativo" puede referirse a la adaptabilidad de un modelo de CSF a la no linealidad y a los comportamientos de la visión humana. El modelo de CSF adaptativo puede construirse basado en, al menos en parte, una pluralidad de parámetros CSF (o de parámetros de modelo). La pluralidad de los parámetros de modelo incluyen, por ejemplo, el nivel de adaptación de luz, el área de visualización en anchura de grados, el nivel de ruido, la acomodación (distancia de visionado física), la luminancia o el vector de modulación de color (que puede estar, por ejemplo, relacionado con imágenes de prueba o patrones de imágenes usados en el modelo de CSF adaptativo (502)).
Un dispositivo aguas arriba (por ejemplo, de codificación) puede recibir datos de imágenes que van a codificarse con la GSDF de referencia (504) antes de que los datos de imágenes o sus derivados se transmitan o distribuyan a dispositivos aguas abajo (por ejemplo, de descodificación). Los datos de imágenes que van a codificarse pueden estar inicialmente en cualquiera de una pluralidad de formatos (basados en normas, propietarios, ampliaciones de los mismos, etc.) y/o pueden obtenerse a partir de cualquiera de una pluralidad de fuentes de imágenes (cámara, servidor de imágenes, medios tangibles, etc.). Ejemplos de datos de imágenes que van a codificarse incluyen, pero sin limitarse solamente a esto, imágenes sin procesar u otras imágenes de gran profundidad de bits 530. Las imágenes sin procesar u otras imágenes de gran profundidad de bits pueden proceder de una cámara, un sistema de estudio, un sistema de un director artístico, otro sistema de procesamiento de imágenes aguas arriba, un servidor de imágenes, una base de datos de contenido, etc. Los datos de imágenes pueden incluir, pero sin limitarse solamente a esto, fotos digitales, fotogramas de vídeo, imágenes 3D, imágenes que no son 3D, gráficos generados por ordenador, etc. Los datos de imágenes pueden comprender imágenes referidas a escena, imágenes referidas a dispositivo o imágenes con varios rangos dinámicos. Ejemplos de datos de imágenes que van a codificarse pueden incluir una versión de alta calidad de imágenes originales que van a editarse, muestrearse de manera descendente y/o comprimirse, junto con metadatos, en un flujo de bits codificado para su distribución a sistemas de recepción de imágenes (sistemas de procesamiento de imágenes aguas abajo tales como dispositivos de visualización de varios fabricantes). Las imágenes sin procesar u otras imágenes de gran profundidad de bits pueden tener una alta frecuencia de muestreo usada por un profesional, un estudio de arte, una empresa de radiodifusión, una entidad de producción multimedia de alta gama, etc. Los datos de imágenes que van a codificarse también pueden generarse por ordenador total o parcialmente, o pueden obtenerse incluso sobre la base de, total o parcialmente, fuentes de imágenes existentes tales como películas y documentales antiguos.
Tal y como se usa en el presente documento, la expresión "datos de imágenes que van a codificarse" puede referirse a datos de imágenes de una o más imágenes; los datos de imágenes que van a codificarse pueden comprender datos de imágenes de coma flotante o de coma fija, y pueden estar en cualquier espacio de colores. En una realización de ejemplo, la una o más imágenes pueden estar en un espacio de colores RGB. En otra realización de ejemplo, la una o más imágenes pueden estar en un espacio de colores YUV. En un ejemplo, cada píxel de una imagen descrita en el presente documento comprende valores de píxel en coma flotante para todos los canales (por ejemplo, los canales de color rojo, verde y azul en el espacio de colores RGB) definidos en el espacio de colores. En otro ejemplo, cada píxel de una imagen descrita en el presente documento comprende valores de píxel en coma fija para todos los canales (por ejemplo, 16 bits o un número de bits superior/inferior de valores de píxel en coma fija para los canales de color rojo, verde y azul en el espacio de colores RGB) definidos en el espacio de colores. Cada píxel puede comprender opcionalmente y/o como alternativa valores de píxel muestreados de manera descendente para uno o más de los canales en el espacio de colores.
En algunas realizaciones, en respuesta a recibir los datos de imágenes que van a codificarse, un dispositivo aguas arriba de la infraestructura (500) correlaciona valores de luminancia, especificados o determinados a partir de los datos de imágenes, con valores de código digital de referencia de la GSDF de referencia, y genera, basándose en los datos de imágenes que van a codificarse, datos de imágenes codificados de referencia codificados con los valores de código digital de referencia. La operación de correlación, de valores de luminancia basados en datos de imágenes que van a codificarse con valores de código digital de referencia, puede incluir seleccionar valores de código digital de referencia cuyos niveles de gris de referencia correspondientes (por ejemplo, los mostrados en la TABLA 1) coinciden, o se aproximan tanto como cualquier otro valor de luminancia de referencia de la GSDF de referencia, con valores de luminancia como los especificados o determinados a partir de los datos de imágenes que van a codificarse, y sustituir los valores de luminancia por los valores de código digital de referencia en los datos de imágenes codificados de referencia.
Además, opcionalmente o como alternativa, las etapas de preprocesamiento y de posprocesamiento (que pueden incluir, pero sin limitarse solamente a esto, conversión del espacio de colores, muestreo descendente, muestreo ascendente, correlación de tonos, clasificación de colores, descompresión, compresión, etc.) pueden llevarse a cabo como parte de la generación de los datos de imágenes codificados de referencia.
En una realización de ejemplo, la infraestructura (500) puede comprender componentes de software y/o hardware (por ejemplo, una unidad de codificación o de formateo (506)) configurados para codificar y/o formatear los datos
de imágenes codificados de referencia en uno o más flujos de bits codificados o archivos de imágenes. Los flujos de bits codificados o archivos de imágenes pueden estar en un formato basado en normas, un formato propietario o un formato ampliado basado, al menos en parte, en un formato basado en normas. Además y/u opcionalmente, los archivos de imágenes o flujos de bits codificados pueden comprender metadatos que contienen uno o más parámetros (por ejemplo, parámetros de modelo, valor de luminancia mínimo, valor de luminancia máximo, valor de código digital mínimo, valor de código digital máximo, etc., como los ilustrados en la TABLA 1, la figura 3 y la figura 4, un campo de identificación que identifica una CSF entre una pluralidad de CSF, una distancia de visionado de referencia) relacionados con la GSDF de referencia, el preprocesamiento o el posprocesamiento usados para generar los datos de imágenes codificados de referencia.
En algunas realizaciones, la infraestructura (500) puede comprender uno o más dispositivos aguas arriba discretos. Por ejemplo, al menos uno del uno o más dispositivos aguas arriba de la infraestructura (500) puede estar configurado para codificar datos de imágenes basándose en la GSDF de referencia. Los dispositivos aguas arriba pueden comprender componentes de software y/o de hardware configurados para llevar a cabo la funcionalidad relacionada con 502, 504 y 506 de la figura 5. Los archivos de imágenes o flujos de bits codificados pueden ser proporcionados por los dispositivos aguas arriba (502, 504 y 506 de la figura 5) a través de conexiones de red, interfaces digitales, medios de almacenamiento tangibles, etc., y suministrarse en un flujo de datos de imágenes (508) a otros dispositivos de procesamiento de imágenes para su procesamiento o reproducción.
En algunas realizaciones de ejemplo, la infraestructura (500) comprende además uno o más dispositivos aguas abajo, tales como uno o más dispositivos discretos. Los dispositivos aguas abajo pueden estar configurados para acceder/recibir, a partir del flujo de datos de imágenes (508), los flujos de bits codificados o archivos de imágenes proporcionados por el uno o más dispositivos aguas arriba. Por ejemplo, los dispositivos aguas abajo pueden comprender componentes de software y/o hardware (por ejemplo, una unidad de descodificación o de reformateo (510)) configurados para descodificar y/o reformatear los archivos de imágenes y flujos de bits codificados, y para recuperar/obtener los datos de imágenes codificados de referencia presentes en los mismos. Como se ilustra en la figura 5, los dispositivos aguas abajo pueden comprender un conjunto diverso de dispositivos de visualización.
En algunas realizaciones, un dispositivo de visualización (no mostrado) puede estar diseñado y/o implementado para soportar la GSDF de referencia. Puede ofrecerse una reproducción de imágenes HDR de alta precisión si el dispositivo de visualización soporta todos y cada uno de los niveles de gris de la GSDF de referencia. El dispositivo de visualización puede reproducir imágenes con detalles a nivel más fino, o el mismo nivel, que lo que posiblemente puede detectar la visión humana.
En algunas realizaciones, los valores de código digital nativos del dispositivo de visualización (que pueden implementarse como valores de voltaje digitalizados, por ejemplo, niveles de control digital o DDL (digital driving level), en el sistema de visualización) en una GSDF específica de dispositivo pueden corresponder a niveles de gris específicos de dispositivo (o valores de luminancia) diferentes de los de la GSDF de referencia. Los niveles de gris específicos de dispositivo pueden estar diseñados para soportar sRGB, la recomendación 709 u otras especificaciones, incluidas aquellas que usan representaciones relacionadas con densidades complementarias. Además, opcionalmente o como alternativa, los niveles de gris específicos de dispositivo pueden basarse en las características DAC esenciales del control de la visualización.
En algunas realizaciones, un dispositivo de visualización A (512-A) puede estar diseñado y/o implementado para soportar una GSDF A específica de dispositivo (514-A) de un dispositivo de visualización de rango dinámico visible (VDR). La GSDF A (514-A) puede estar basada en una profundidad de bits de 12 bits (un espacio de código de 12 bits) para valores de código digital específicos de dispositivo, una relación de contraste (CR) de 10000:1 y una gama >P3. La GSDF A (514-A) puede soportar niveles de gris dentro de un primer subintervalo (por ejemplo de 0 a 5000 cd/m2) en todo el intervalo de la GSDF de referencia (504). Como alternativa y/u opcionalmente, la GSDF A (514-A) puede soportar todo el intervalo (de 0 a 12000 cd/m2, por ejemplo) de la GSDF de referencia (504) pero no tiene que comprender todos los niveles de gris de referencia de la GSDF de referencia (504).
En algunas realizaciones, un dispositivo de visualización B (512-B) puede estar diseñado y/o implementado para soportar una GSDF B específica de dispositivo (514-B) para un rango dinámico más estrecho que el VDR. Por ejemplo, el dispositivo de visualización B (512-B) puede ser un dispositivo de visualización de rango dinámico estándar (SDR). Tal y como se usa en el presente documento, los términos "rango dinámico estándar" y "bajo rango dinámico", y/o sus correspondientes abreviaturas "SDR" y "LDR", pueden usarse como sinónimos y/o de manera intercambiable. En algunas realizaciones, la GSDF B (514-B) puede soportar una profundidad de bits de 8 bits para valores de código digital específicos de dispositivo, una relación de contraste (CR) de 500-5,000:1 y una gama de colores como la definida en la recomendación 709. En algunas realizaciones, la GSDF B (514-B) puede proporcionar niveles de gris dentro de un segundo subintervalo (por ejemplo, de 0 a 2000 cd/m2) de la GSDF de referencia (504).
En algunas realizaciones, un dispositivo de visualización C (512-C) puede estar diseñado y/o implementado para soportar una GSDF C específica de dispositivo (514-C) para un rango dinámico incluso más estrecho que el SDR. Por ejemplo, el dispositivo de visualización C (512-C) puede ser una pantalla de tableta. En algunas realizaciones,
la GSDF C (514-C) puede soportar una profundidad de bits de 8 bits para valores de código digital específicos de dispositivo, una relación de contraste (CR) de 100-800:1 y una gama de colores más pequeña que la definida en la recomendación 709. En algunas realizaciones, la GSDF C (514-C) puede soportar niveles de gris dentro de un tercer subintervalo (por ejemplo, de 0 a 1200 cd/m2) de la GSDF de referencia (504).
En algunas realizaciones, un dispositivo de visualización (por ejemplo, un dispositivo de visualización D (512-D)) puede estar diseñado y/o implementado para soportar una GSDF específica de dispositivo (por ejemplo, una GSDF D (514-D)) para un rango dinámico muy limitado mucho más estrecho que el SDR. Por ejemplo, el dispositivo de visualización D (512-D) puede ser un dispositivo de visualización de papel electrónico. En algunas realizaciones, la GSDF D (514-D) puede soportar una profundidad de bits de 6 bits o menos para valores de código digital específicos de dispositivo, una relación de contraste (CR) de 10:1 o menos y una gama de colores mucho más pequeña que la definida en la recomendación 709. En algunas realizaciones, la GSDF D (514-D) puede soportar niveles de gris dentro de un cuarto subintervalo (por ejemplo, de 0 a 100 cd/m2) de la GSDF de referencia (504).
La precisión en la reproducción de imágenes puede escalarse descendentemente de manera apropiada con cada uno de los dispositivos de visualización A a D (512-A a D). En algunas realizaciones, el subconjunto de niveles de gris en cada una de las GSDF A a D específicas de dispositivo (514-A a D) puede correlacionarse, o mapearse, con niveles de gris de referencia soportados en la GSDF de referencia (504) de tal manera como para distribuir de manera uniforme errores perceptivamente apreciables en el intervalo de niveles de gris soportados por ese dispositivo de visualización.
En algunas realizaciones, un dispositivo de visualización (por ejemplo, uno de los dispositivos 512-A a D) con una GSDF específica de dispositivo (por ejemplo, una de 514-A a D) recibe/extrae datos de imágenes codificados de referencia codificados basándose en una GSDF de referencia. En respuesta, el dispositivo de visualización, o una unidad de conversión (una de las unidades 516-A a D) del mismo, correlaciona valores de código digital de referencia, especificados en los datos de imágenes codificados de referencia, con valores de código digital específicos de dispositivo que son originarios del dispositivo de visualización. Esto puede llevarse a cabo de varias maneras. En un ejemplo, la correlación desde los valores de código digital de referencia a los valores de código digital específicos de dispositivo incluye seleccionar niveles de gris específicos de dispositivo (correspondientes a los valores de código digital específicos de dispositivo) que coinciden, o se aproximan tanto como cualquier otro nivel de gris específico de dispositivo, con los niveles de gris de referencia (correspondientes a los valores de código digital de referencia). En otro ejemplo, la correlación de los valores de código digital de referencia con los valores de código digital específicos de dispositivo incluye (1) determinar valores de luminancia correlacionados con tonos basándose en los niveles de gris de referencia (correspondientes a los valores de código digital de referencia) asociados a la GSDF de referencia, y (2) seleccionar niveles de gris específicos de dispositivo (correspondientes a los valores de código digital específicos de dispositivo) que coincidan, o que se aproximen tanto como cualquier otro nivel de gris específico de dispositivo, con los valores de luminancia correlacionados con tonos.
Posteriormente, el dispositivo de visualización, o un chip de controlador (uno de los chips 518-A a D) del mismo, puede usar los valores de código digital específicos de dispositivo de visualización para reproducir imágenes con niveles de gris específicos de dispositivo que corresponden a los valores de código específicos de dispositivo de visualización.
En términos generales, una GSDF de referencia puede estar basada en un modelo de CSF diferente del que está basada una GSDF específica de dispositivo de visualización. La conversión/correlación entre la GSDF de referencia y la GSDF específica de dispositivo es necesaria. Incluso si el mismo modelo de CSF se usa para generar tanto la GSDF de referencia como una GSDF específica de dispositivo, pueden usarse diferentes valores de parámetros de modelo para obtener las GSDF. Para la GSDF de referencia, pueden fijarse valores de parámetro de modelo de manera conservativa para mantener los detalles para una gran variedad de dispositivos aguas abajo, mientras que para la GSDF específica de dispositivo, los valores de parámetro de modelo pueden reflejar un diseño/implementación específicos y condiciones de visionado bajo las cuales el dispositivo de visualización va a reproducir imágenes. La conversión/correlación entre la GSDF de referencia y la GSDF específica de dispositivo sigue siendo necesaria, ya que los parámetros de condición de visionado del dispositivo de visualización específico (por ejemplo, el nivel de luz ambiental, la reflectancia óptica del dispositivo de visualización) son diferentes de los valores de parámetro de modelo usados para obtener la GSDF de referencia. En este caso, los parámetros de condición de visionado pueden incluir aquéllos que influyen en la calidad de la visualización (por ejemplo, relación de contraste, etc.) y aumentan el nivel de negro (por ejemplo, el nivel de gris más bajo, etc.). La conversión/correlación entre la GSDF de referencia y la GSDF específica de dispositivo de las técnicas descritas en el presente documento mejora la calidad de la reproducción de las imágenes (por ejemplo, mejora la relación de contraste al aumentar los valores de luminancia en regiones de valores elevados, etc.).
9. CONVERSIÓN DE DATOS CODIFICADOS DE REFERENCIA
La figura 6 ilustra una unidad de conversión de ejemplo (por ejemplo 516), de acuerdo con algunas realizaciones de la presente invención. La unidad de conversión (516) puede ser, pero sin estar limitada solamente a esto, una
unidad (por ejemplo, la 516-A) de una pluralidad de unidades de conversión (por ejemplo, las unidades 516-A a D) ilustradas en la figura 5. En algunas realizaciones, la unidad de conversión (516) puede recibir primeros datos de definición para una GSDF de referencia (GSDF REF) y segundos datos de definición para una GSDF específica de dispositivo (por ejemplo, la GSDF-A (514-A de la figura 5)). Tal y como se usa en el presente documento, los términos "específico de dispositivo" y "específico de dispositivo de visualización" pueden usarse de manera intercambiable si el dispositivo es un dispositivo de visualización.
Basándose en los datos de definición recibidos, la unidad de conversión (516) conecta en cascada la GSDF de referencia con la GSDF específica de dispositivo de visualización para formar una tabla de consulta de conversión (LUT de conversión). La conexión en cascada entre las dos GSDF puede incluir comparar niveles de gris en las dos GSDF y, basándose en los resultados de comparar los niveles de gris, establecer una correlación entre valores de código digital de referencia en la GSDF de referencia y valores de código digital específicos de dispositivo de visualización en la GSDF específica de dispositivo de visualización.
Más específicamente, dado un valor de código digital de referencia en la GSDF de referencia, su nivel de gris de referencia correspondiente puede determinarse sobre la base de la GSDF de referencia. El nivel de gris de referencia así determinado puede usarse para ubicar un nivel de gris específico de dispositivo en la GSDF específica de dispositivo de visualización. En una realización de ejemplo, el nivel de gris específico de dispositivo asignado puede coincidir, o aproximarse tanto como cualquier otro nivel de gris específico de dispositivo de visualización en la GSDF específica de dispositivo de visualización, con el nivel de gris de referencia. En otra realización de ejemplo, un valor de luminancia correlacionado con tonos puede ser obtenido por un operador de correlación de tonos global o local que actúa sobre el nivel de gris de referencia; el nivel de gris específico de dispositivo asignado puede coincidir, o aproximarse tanto como cualquier otro nivel de gris específico de dispositivo de visualización de la GSDF específica de dispositivo de visualización, con el valor de luminancia correlacionado con tonos.
Con el nivel de gris específico de dispositivo, puede identificarse un valor de código digital correspondiente específico de dispositivo de visualización a partir de la GSDF específica de dispositivo de visualización. Puede añadirse o definirse una entrada en la LUT de conversión, que consiste en el valor de código digital de referencia y en el valor de código específico de dispositivo de visualización.
Las etapas descritas anteriormente pueden repetirse para otros valores de código digital de referencia de la GSDF de referencia.
En algunas realizaciones, una LUT de conversión puede construirse previamente y almacenarse antes de los datos de imágenes cuyo procesamiento va a realizarse basándose en parte en la LUT de conversión recibida y procesada. En realizaciones alternativas se analizan datos de imágenes que van a procesarse con una LUT de conversión. Los resultados del análisis pueden usarse para establecer o al menos ajustar las relaciones de correspondencia entre los valores de código digital de referencia y los valores de código digital específicos de dispositivo. Por ejemplo, si los datos de imágenes indican una concentración o distribución particulares de valores de luminancia, la LUT de conversión puede establecerse de tal manera que se conserve una gran cantidad de detalles en la región concentrada de valores de luminancia.
En algunas realizaciones, la unidad de conversión (516) comprende uno o más componentes de software y/o hardware (una subunidad de comparación (602)) configurados para comparar etapas de cuantización (por ejemplo, diferencias de valores de luminancia, o ΔL, entre valores de código digital adyacentes) tanto en la GSDF de referencia como en la GSDF específica de dispositivo de visualización (514-A). Por ejemplo, la etapa de cuantización en un valor de código digital de referencia en la GSDF de referencia puede ser una diferencia de valores de luminancia de referencia (ΔL de GSDF de referencia), mientras que la etapa de cuantización en un valor de código digital específico de dispositivo de visualización en la GSDF específica de dispositivo de visualización puede ser una diferencia de valores de luminancia específica de dispositivo de visualización (ΔL de GSDF específica de dispositivo de visualización). En este caso, el valor de código digital específico de dispositivo de visualización corresponde al valor de código digital de referencia (o forma una pareja en la LUT de conversión con este). En algunas realizaciones, la subunidad de comparación (602) compara estas dos diferencias de valores de luminancia. Esta operación es esencialmente una prueba que puede llevarse a cabo basándose en los valores ΔL u, opcionalmente y/o de manera alternativa, basándose en las pendientes relativas de las dos curvas GSDF.
Las etapas de cuantización para los valores de luminancia en la GSDF específica de dispositivo de visualización pueden superar normalmente las de la GSDF de referencia, ya que uno o más niveles de gris de referencia de la GSDF de referencia (por ejemplo, correspondientes a un dominio de gran profundidad de bits, etc.) se mezclan con niveles de gris específicos de dispositivo de visualización de la GSDF específica de dispositivo de visualización (por ejemplo, correspondientes a un dominio de baja profundidad de bits, etc.). En estos casos, se usa una mezcla de colores para eliminar los artefactos de efecto de banda. Como parte de la mezcla de colores global, la mezcla de colores también se lleva a cabo en píxeles de salida circundantes locales (en el espacio y/o en el tiempo). En cierto sentido, el ojo humano puede representarse como un filtro paso bajo. Al menos en este sentido, calcular el promedio de los píxeles circundantes locales como se describe en el presente documento crea de este modo
niveles de gris de salida deseados que reducen y/o eliminan los artefactos visuales de efecto de banda, que de otro modo podrían estar presentes debido a las etapas de gran cuantización en la GSDF específica de dispositivo de visualización.
En casos menos comunes, las etapas de cuantización para valores de luminancia de la GSDF de referencia pueden superar ocasionalmente las de la GSDF específica de dispositivo de visualización. Se usa un proceso basado en un algoritmo de difuminación de contornos, sintetizando un nivel de gris de salida sobre la base de un nivel de gris de entrada, por ejemplo calculando el promedio de píxeles de entrada vecinos.
De manera correspondiente, si la ΔL de GSDF de referencia es mayor que la ΔL de GSDF específica de dispositivo de visualización, que es la trayectoria "Y" en la figura 6, entonces se establece una bandera de algoritmo de difuminación de contornos para una entrada, en la LUT de conversión, que comprende el valor de código digital de referencia y el valor de código digital específico de dispositivo de visualización.
Si la ΔL de GSDF de referencia es menor que la ΔL de GSDF específica de dispositivo de visualización, que es la trayectoria "N" en la figura 6, entonces se establece una bandera de algoritmo de mezcla de colores para una entrada, en la LUT de conversión, que comprende el valor de código digital de referencia y el valor de código digital específico de dispositivo de visualización.
Si la ΔL de GSDF de referencia es igual a la ΔL de GSDF específica de dispositivo de visualización, entonces no se fija una bandera de algoritmo de difuminación de contornos ni una bandera de algoritmo de mezcla de colores para una entrada, en la LUT de conversión, que comprende el valor de código digital de referencia y el valor de código digital específico de dispositivo de visualización.
Las banderas de algoritmos de difuminación de contornos y de mezcla de colores pueden almacenarse con entradas en la LUT de conversión, o pueden almacenarse en una estructura de datos relacionada externa pero vinculada de manera operativa a la LUT de conversión.
En algunas realizaciones, la unidad de conversión (516) está configurada para recibir datos de imágenes codificados de referencia, que pueden estar en forma de imágenes de entrada de gran profundidad de bits o de coma flotante, y para correlacionar los valores de código digital de referencia especificados en la GSDF de referencia con valores de código digital específicos de dispositivo de visualización especificados en la GSDF específica de dispositivo de visualización. Además de correlacionar valores de código digital entre las GSDF, la unidad de conversión (516) puede estar configurada para llevar a cabo una difuminación de contornos o una mezcla de colores basándose en los ajustes de las banderas de algoritmo (banderas de algoritmo de difuminación de contornos o banderas de algoritmo de mezcla de colores) descritas anteriormente.
Como se ha indicado, la GSDF de referencia contiene posiblemente una cantidad mayor de detalles que una GSDF específica de dispositivo de visualización; por tanto, la trayectoria "Y" de la figura 6 puede no ocurrir, o puede ocurrir con menos frecuencia. En algunas realizaciones, puede omitirse la trayectoria "Y" y el procesamiento relacionado para simplificar la implementación de una unidad de conversión.
En algunas realizaciones, dado un valor de código digital de referencia determinado para un píxel en los datos de imágenes codificados de referencia, la unidad de conversión (516) busca en la LUT de conversión un valor de código digital correspondiente específico de dispositivo de visualización, y sustituye el valor de código digital de referencia por el valor de código digital correspondiente específico de dispositivo de visualización. Además y/u opcionalmente, la unidad de conversión (516) determina si debe llevarse a cabo un algoritmo de difuminación de contornos o de mezcla de colores para el píxel, basándose en la existencia/establecimiento de una bandera de algoritmo para una entrada, de la LUT de conversión, que comprende el valor de código digital de referencia y el valor de código digital específico de dispositivo de visualización.
Si se determina que no debe llevarse a cabo el algoritmo de difuminación de contornos ni el algoritmo de mezcla de colores (por ejemplo, no hay ninguna indicación o bandera para llevar a cabo alguno de los algoritmos), entonces, por el momento, no se lleva a cabo ni la difuminación de contornos ni la mezcla de colores para el píxel. Si se determina que debe llevarse a cabo un algoritmo de difuminación de contornos, entonces la unidad de conversión (516) puede llevar a cabo uno o más algoritmos de difuminación de contornos. Llevar a cabo el uno o más algoritmos de difuminación de contornos puede incluir recibir datos de imágenes de píxeles vecinos locales de entrada e introducir los datos de imágenes de los píxeles vecinos locales en los algoritmos de difuminación de contornos.
Si se determina que debe llevarse a cabo un algoritmo de mezcla de colores, entonces la unidad de conversión (516) puede llevar a cabo uno o más algoritmos de mezcla de colores.
El píxel puede seguir estando implicado en la difuminación de contornos o en la mezcla de colores si la unidad de conversión (516) determina que la difuminación de contornos o la mezcla de colores tienen que llevarse a cabo
con respecto a píxeles vecinos. En un ejemplo, el nivel de gris (de salida) específico de dispositivo del píxel puede usarse para mezclar colores en píxeles vecinos locales. En otro ejemplo, el nivel de gris (de entrada) de referencia del píxel puede usarse para difuminar el contorno en píxeles vecinos locales.
En algunas realizaciones, la unidad de conversión (516) proporciona los resultados de procesamiento de las etapas anteriores a unidades o subunidades de procesamiento aguas abajo. Los resultados de procesamiento comprenden datos de imágenes codificados específicos de dispositivo de visualización en el formato de imagen de salida de profundidad de bits específica de dispositivo de visualización codificada con valores de código digital en la GSDF específica de dispositivo de visualización (por ejemplo, GSDF-A).
La figura 7 ilustra un dispositivo de visualización SDR (700) de ejemplo que implementa un procesamiento de imágenes de 8 bits. El dispositivo de visualización SDR (700) o una unidad de descodificación VDR (702) del mismo recibe una entrada codificada. La entrada codificada comprende datos de imágenes codificados de referencia en un contenedor de datos de imágenes que puede estar en uno de una pluralidad de formatos de contenedor de datos de imágenes. La unidad de descodificación VDR (702) descodifica la entrada codificada y determina/recupera los datos de imágenes codificados de referencia a partir de la misma. Los datos de imágenes codificados de referencia pueden comprender datos de imágenes para píxeles individuales en un espacio de colores (por ejemplo, un espacio de colores RGB, un espacio de colores YCbCr, etc.). Los datos de imágenes para píxeles individuales pueden codificarse con valores de código digital de referencia en una GSDF de referencia.
Además y/u opcionalmente, el dispositivo de visualización SDR (700) comprende una unidad de gestión de visualización (704) que gestiona parámetros de visualización para el dispositivo de visualización SDR (700). Los parámetros de visualización pueden definir, al menos en parte, una GSDF específica de dispositivo de visualización (por ejemplo, la GSDF-B de la figura 5) asociada al dispositivo de visualización SDR (700). Los parámetros de visualización que definen la GSDF específica de dispositivo de visualización pueden incluir niveles de gris máximos (max) y mínimos (min) soportados por el dispositivo de visualización SDR (700). Los parámetros de visualización también pueden incluir colores primarios soportados por el dispositivo de visualización SDR, el tamaño de visualización, la reflectancia óptica de la superficie de reproducción de imágenes del dispositivo de visualización SDR y el nivel de luz ambiental. Algunos de los parámetros de visualización pueden estar preconfigurados con valores fijos. Algunos de los parámetros de visualización pueden ser medidos en tiempo real o casi en tiempo real por el dispositivo de visualización SDR (700). Algunos de los parámetros de visualización pueden ser configurados por un usuario del dispositivo de visualización SDR (700). Algunos de los parámetros de visualización pueden preconfigurarse con valores por defecto y pueden sobrescribirse mediante una medición o por un usuario. La unidad de gestión de visualización (704) establece/conforma la no linealidad perceptual de los niveles de gris específicos de dispositivo de visualización basándose en la GSDF de referencia y puede llevar a cabo adicional y/u opcionalmente la correlación de tonos como parte del establecimiento/determinación de los niveles de gris específicos de dispositivo de visualización. Por ejemplo, una LUT de conversión como la ilustrada en la figura 5 y/u otros metadatos relacionados (por ejemplo, banderas de procesamiento de mezcla de colores y de difuminación de contornos, etc.) puede ser establecida por la unidad de gestión de visualización (704) con el fin de establecer/constituir la no linealidad perceptual de los niveles de gris específicos de dispositivo de visualización según la GSDF de referencia. Las operaciones en cascada descritas anteriormente pueden implementarse con la unidad de gestión de visualización (704) para crear la LUT de conversión y/u otros metadatos relacionados (712) relacionados con la GSDF de referencia y/o la GSDF específica de dispositivo de visualización. La LUT de conversión y/u otros metadatos relacionados (712) pueden ser accedidos y usados por otras unidades o subunidades del dispositivo de visualización SDR (700). Además, la unidad de conversión LUT y/u otros metadatos relacionados pueden usarse como, o para obtener, metadatos (714) para invertir la no linealidad perceptual. Como se usa en el presente documento, invertir la no linealidad perceptual puede incluir convertir valores de código digital específicos de dispositivo de visualización en niveles de control digital específicos de dispositivo de visualización (por ejemplo, niveles de voltaje digitalizados en el dispositivo de visualización).
Además y/u opcionalmente, el dispositivo de visualización SDR (700) incluye una unidad de conversión (516) como la ilustrada en la figura 5 y en la figura 6, y un cuantizador perceptual de 8 bits (706). En algunas realizaciones, el dispositivo de visualización SDR (700), o la unidad de conversión (516) y su cuantizador perceptual de 8 bits (706), convierte los datos de imágenes codificados de referencia en una imagen de salida de profundidad de bits específica de dispositivo de visualización codificada con valores de código digital específicos de dispositivo de visualización asociados a la GSDF específica de dispositivo de visualización (por ejemplo, la GSDF-A o la GSDF-B de la figura 5), y cuantifica la imagen de salida de profundidad de bits específica de dispositivo de visualización en datos de imágenes codificados perceptualmente en un espacio de código de 8 bits. Tal y como se usa en el presente documento, el término "codificado perceptualmente" puede referirse a un tipo de codificación que está basado en un modelo perceptual de visión humana, tal como una CSF, que da lugar a la GSDF de referencia.
Además y/u opcionalmente, el dispositivo de visualización SDR (700) comprende una unidad de posprocesamiento de vídeo (708) que puede llevar a cabo, pero sin limitarse solamente a esto, ninguna, una o más de las operaciones de procesamiento de imágenes en los datos de imágenes codificados perceptualmente en una representación de luminancia de 8 bits. Estas operaciones de procesamiento de imágenes pueden incluir, pero sin limitarse solamente a esto, compresión, descompresión, conversión del espacio de colores, muestreo descendente, muestreo
ascendente o clasificación de colores. Los resultados de estas operaciones pueden proporcionarse a otras partes del dispositivo de visualización SDR (700).
En una realización de ejemplo, el dispositivo de visualización SDR (700) comprende un cuantizador perceptual inverso de 8 bits (710) configurado para convertir valores de código digital específicos de dispositivo de visualización de los resultados de las operaciones de procesamiento de imágenes en niveles de control digital específicos de dispositivo de visualización (por ejemplo, niveles de voltaje digitalizados). Los niveles de control digital específicos de dispositivo de visualización generados (o convertidos desde los valores de código digital) por el cuantizador perceptual inverso (710) pueden soportar específicamente uno de varios tipos de no linealidades de luminancia que pueden soportarse en el dispositivo de visualización SDR (700). En un ejemplo, el cuantizador perceptual inverso (710) convierte valores de código digital específicos de dispositivo de visualización en niveles de control digital específicos de dispositivo de visualización para soportar no linealidades de luminancia asociadas a la recomendación 709. En otro ejemplo, el cuantizador perceptual inverso (710) convierte valores de código digital específicos de dispositivo de visualización en niveles de control digital específicos de dispositivo de visualización para soportar no linealidades de luminancia asociadas a un dominio de luminancia lineal o un dominio de luminancia logarítmico (que puede integrarse de manera relativamente sencilla con operaciones de atenuación locales). En otro ejemplo, el cuantizador perceptual inverso (710) convierte valores de código digital específicos de dispositivo de visualización en niveles de control digital específicos de dispositivo de visualización para soportar una CSF específica de dispositivo de visualización (o su GSDF asociada), con una colocación óptima de niveles de gris específicos de dispositivo de visualización para el dispositivo de visualización (700) específico y posiblemente ajustados para las condiciones de visionado específicas del dispositivo de visualización (700). 10. FLUJOS DE PROCESO DE EJEMPLO
La figura 8A ilustra un flujo de proceso de ejemplo, según una realización de la presente invención. En algunas realizaciones, uno o más dispositivos o componentes informáticos, tales como uno o más dispositivos informáticos en la infraestructura (500), pueden llevar a cabo este flujo de proceso. En el bloque 802, un dispositivo informático recibe datos de imágenes que van a codificarse.
En el bloque 804, el dispositivo informático descodifica, basándose en una correlación de referencia entre un conjunto de valores de código digital de referencia y un conjunto de niveles de gris de referencia, los datos de imágenes que van a codificarse en datos de imágenes codificados de referencia. En este caso, los valores de luminancia de los datos de imágenes que van a codificarse se representan mediante el conjunto de valores de código digital de referencia. Una diferencia de luminancia entre dos niveles de gris de referencia representados por dos valores de código digital de referencia adyacentes en el conjunto de valores de código digital de referencia puede ser inversamente proporcional a la sensibilidad al contraste máxima de la visión humana adaptada a un nivel de luz particular.
En el bloque 806, el dispositivo informático proporciona los datos de imágenes codificados de referencia.
En una realización, el dispositivo informático determina una función de visualización de escala de grises (GSDF) de referencia basándose en un modelo de función de sensibilidad al contraste (CSF); la GSDF de referencia especifica la correlación de referencia entre el conjunto de valores de código digital de referencia y el conjunto de niveles de gris de referencia. El modelo de CSF comprende uno o más parámetros de modelo, que pueden tener un tamaño angular que está dentro de un intervalo que comprende uno o más de: entre 25 grados x 25 grados y 30 grados x 30 grados, entre 30 grados x 30 grados y 35 grados x 35 grados, entre 35 grados x 35 grados y 40 grados x 40 grados, entre 40 grados x 40 grados y 45 grados x 45 grados, o mayor que 45 grados x 45 grados. En una realización, el dispositivo informático asigna un valor de luminancia intermedio, dentro de un intervalo de valores de luminancia soportado por el conjunto de niveles de gris de referencia, a un valor de código digital intermedio en un espacio de código que aloja el conjunto de valores de código digital de referencia, y obtiene, llevando a cabo una o más operaciones de acumulación o integración, una pluralidad de subcorrelaciones, donde cada subcorrelación correlaciona un valor de código digital de referencia del conjunto de valores de código digital de referencia con un nivel de gris de referencia del conjunto de niveles de gris de referencia. El valor de luminancia intermedio puede seleccionarse dentro de un intervalo que comprende uno o más de: menos de 50 nits, entre 50 nits y 100 nits inclusive, entre 100 y 500 nits inclusive, o más de 500 nits.
En una realización de ejemplo, el conjunto de niveles de gris de referencia cubre un rango dinámico con un límite superior que tiene un valor de: menos de 500 nits, entre 500 nits y 1000 nits inclusive, entre 1000 y 5000 nits inclusive, entre 5000 nits y 10000 nits inclusive, entre 10000 nits y 15000 nits inclusive o más de 15000 nits. En una realización, la sensibilidad al contraste máxima se determina a partir de una curva de sensibilidad al contraste entre una pluralidad de curvas de sensibilidad al contraste determinadas según un modelo de función de sensibilidad al contraste (CSF) que presenta parámetros de modelo que comprenden uno o más de una variable de valor de luminancia, una variable de frecuencia espacial u otras variables.
En una realización, al menos dos sensibilidades al contraste máximas determinadas sobre la base de al menos dos curvas de sensibilidad al contraste de la pluralidad de curvas de sensibilidad al contraste se producen en dos valores de frecuencia espacial diferentes.
En una realización, el dispositivo informático convierte una o más imágenes de entrada representadas, recibidas, transmitidas o almacenadas con los datos de imágenes que van a codificarse a partir de una señal de vídeo de entrada en una o más imágenes de salida representadas, recibidas, transmitidas o almacenadas con los datos de imágenes codificados de referencia contenidos en una señal de vídeo de salida.
En una realización, los datos de imágenes que van a codificarse comprenden datos de imágenes codificados en un formato de imagen de alto rango dinámico (HDR) de alta resolución, un espacio de colores RGB asociado a la norma Academy Color Encoding Specification (ACES) de la Academy of Motion Picture Arts and Sciences (AMPAS), una norma de espacio de colores P3 de la Digital Cinema Initiative, la norma Reference Input Medium Metric/Reference Output Medium Metric (RIMM/ROMM), un espacio de colores sRGB, un espacio de colores RGB asociado a la Recomendación BT.709 de la Unión Internacional de las Telecomunicaciones (ITU), etc.
En una realización, la diferencia de luminancia entre los dos niveles de gris de referencia representados por los dos valores de código digital de referencia adyacentes es menor que el umbral de diferencia apenas perceptible en el nivel de luz particular.
En una realización, el nivel de luz particular es un valor de luminancia entre los dos valores de luminancia, inclusive. En una realización, el conjunto de valores de código digital de referencia comprende valores enteros en un espacio de código con una profundidad de bit de: menos de 12 bits, entre 12 bits y 14 bits inclusive, al menos 14 bits, 14 bits o más.
En una realización, el conjunto de niveles de gris de referencia puede comprender un conjunto de valores de luminancia cuantizados.
La figura 8B ilustra otro flujo de proceso de ejemplo, según una realización de la presente invención. En algunas realizaciones, uno o más dispositivos o componentes informáticos, tales como uno o más dispositivos informáticos de la infraestructura (500), pueden llevar a cabo este flujo de proceso. En el bloque 852, un dispositivo informático determina una correlación de código digital entre un conjunto de valores de código digital de referencia y un conjunto de valores de código digital específicos de dispositivo. En este caso, el conjunto de valores de código digital de referencia se correlaciona en una correlación de referencia con un conjunto de niveles de gris de referencia, mientras que el conjunto de valores de código digital específicos de dispositivo se correlaciona en una correlación específica de dispositivo con un conjunto de niveles de gris específicos de dispositivo.
En el bloque 854, el dispositivo informático recibe datos de imágenes codificados de referencia codificados con el conjunto de valores de código digital de referencia. Los valores de luminancia de los datos de imágenes codificados de referencia están basados en el conjunto de valores de código digital de referencia. Una diferencia de luminancia entre dos niveles de gris de referencia representados por dos valores de código digital de referencia adyacentes en el conjunto de valores de código digital de referencia puede ser inversamente proporcional a la sensibilidad al contraste máxima de la visión humana adaptada a un nivel de luz particular.
En el bloque 856, el dispositivo informático transcodifica, sobre la base de la correlación de código digital, los datos de imágenes codificados de referencia codificados con el conjunto de valores de código digital de referencia en datos de imágenes específicos de dispositivo codificados con el conjunto de códigos de control digital específicos de dispositivo. Los valores de luminancia de los datos de imágenes específicos de dispositivo están basados en el conjunto de valores de código digital específicos de dispositivo.
En una realización, el dispositivo informático determina un conjunto de relaciones de correspondencia entre el conjunto de valores de código digital de referencia y el conjunto de valores de código digital específicos de dispositivo. En este caso, una relación de correspondencia en el conjunto de relaciones de correspondencia relaciona un valor de código digital de referencia del conjunto de valores de código digital de referencia con un valor de código digital específico de dispositivo. El dispositivo informático compara además una primera diferencia de luminancia en el valor de código digital de referencia y una segunda diferencia de luminancia en el valor de código digital específico de dispositivo, y almacena, basándose en la comparación de la primera diferencia de luminancia y la segunda diferencia de luminancia, una bandera de algoritmo que indica si debe llevarse a cabo una mezcla de colores, una difuminación de contornos o ninguna operación para el valor de código digital de referencia. En una realización, el dispositivo informático determina un valor de código digital de referencia a partir de los datos de imágenes codificados de referencia para un píxel, y determina además si hay una bandera de algoritmo fijada para el valor de código digital de referencia. En respuesta a la determinación de que hay una bandera de algoritmo fijada para llevar a cabo la difuminación de contornos, el dispositivo informático lleva a cabo un algoritmo de difuminación de contornos en el píxel. Como alternativa, en respuesta a la determinación de que hay una bandera
de algoritmo fijada para llevar a cabo una mezcla de colores, el dispositivo informático lleva a cabo un algoritmo de mezcla de colores en el píxel.
En una realización, el dispositivo informático reproduce una o más imágenes en un dispositivo de visualización basándose en los datos de imágenes específicos de dispositivo codificados con el conjunto de códigos de control digital específicos de dispositivo. En este caso, el dispositivo de visualización puede ser, pero sin limitarse solamente a esto, una pantalla de rango dinámico visible (VDR), una pantalla de rango dinámico estándar (SDR), una pantalla de un dispositivo informático tipo tableta o una pantalla de un dispositivo manual.
En una realización, una función de visualización de escala de grises (GSDF) específica de dispositivo especifica la correlación específica de dispositivo entre el conjunto de valores de código digital específicos de dispositivo y el conjunto de niveles de gris específicos de dispositivo.
En una realización, la correlación específica de dispositivo se obtiene sobre la base de uno o más parámetros de visualización y en ninguno o más parámetros de condición de visionado.
En una realización, el conjunto de niveles de gris específicos de dispositivo cubre un rango dinámico con un límite superior que tiene un valor de: menos de 100 nits, más de 100 nits pero menos de 500 nits, entre 500 nits y 1000 nits inclusive, entre 1000 y 5000 nits inclusive, entre 5000 nits y 10000 nits inclusive o más de 10000 nits.
En una realización, el dispositivo informático convierte una o más imágenes de entrada representadas, recibidas, transmitidas o almacenadas con los datos de imágenes codificados de referencia de una señal de vídeo de entrada en una o más imágenes de salida representadas, recibidas, transmitidas o almacenadas con los datos de imágenes específicos de dispositivo contenidos en una señal de vídeo de salida.
En una realización, los datos de imágenes específicos de dispositivo soportan la reproducción de imágenes en un formato de imagen de alto rango dinámico (HDR) de alta resolución, un espacio de colores RGB asociado a la norma Academy Color Encoding Specification (ACES) de la Academy of Motion Picture Arts and Sciences (AMPAS), una norma de espacio de colores P3 de la Digital Cinema Initiative, la norma Reference Input Medium Metric/Reference Output Medium Metric (RIMM/ROMM), un espacio de colores sRGB o un espacio de colores RGB asociado a la Recomendación BT.709 de la Unión Internacional de las Telecomunicaciones (ITU).
En una realización, el conjunto de valores de código digital específicos de dispositivo comprende valores enteros en un espacio de código con una profundidad de bit de: 8 bits, más de 8 bits pero menos de 12 bits, 12 bits o más. En una realización, el conjunto de niveles de gris específicos de dispositivo puede comprender un conjunto de valores de luminancia cuantizados.
En varias realizaciones, un codificador, un descodificador, un sistema, etc. lleva a cabo alguno o una parte de los anteriores métodos descritos.
11. MECANISMOS DE IMPLEMENTACIÓN - VISIÓN GLOBAL DEL HARDWARE
Según una realización, las técnicas descritas en el presente documento se implementan mediante uno o más dispositivos informáticos de propósito especial. Los dispositivos informáticos de propósito especial pueden estar cableados para llevar a cabo las técnicas, o pueden incluir dispositivos electrónicos digitales, tales como uno o más circuitos integrados de aplicación específica (ASIC) o matrices de puertas programables en campo (FPGA), que están programados de manera persistente para llevar a cabo las técnicas, o pueden incluir uno o más procesadores de hardware de propósito general programados para llevar a cabo las técnicas según instrucciones de programa en firmware, memoria, otro almacenamiento o una combinación. Tales dispositivos informáticos de propósito especial también pueden combinar lógica cableada personalizada, ASIC o FPGA con programación personalizada para llevar a cabo las técnicas. Los dispositivos informáticos de propósito especial pueden ser sistemas informáticos de escritorio, sistemas informáticos portátiles, dispositivos manuales, dispositivos de conexión en red o cualquier otro dispositivo que incluya lógica cableada y/o de programa para implementar las técnicas.
Por ejemplo, la figura 9 es un diagrama de bloques que ilustra un sistema informático 900 en el que puede implementarse una realización de ejemplo de la invención. El sistema informático 900 incluye un bus 902 u otro mecanismo de comunicación para comunicar información, y un procesador de hardware 904 acoplado al bus 902 para procesar información. El procesador de hardware 904 puede ser, por ejemplo, un microprocesador de propósito general.
El sistema informático 900 también incluye una memoria principal 906, tal como una memoria de acceso aleatorio (RAM) u otro dispositivo de almacenamiento dinámico, acoplada al bus 902 para almacenar información e instrucciones que serán ejecutadas por el procesador 904. La memoria principal 906 también puede usarse para almacenar variables temporales u otra información intermedia durante la ejecución de instrucciones que serán
ejecutadas por el procesador 904. Tales instrucciones, cuando están almacenadas en medios de almacenamiento no transitorios accesibles por el procesador 904, convierten el sistema informático 900 en una máquina de propósito especial que está adaptada para llevar a cabo las operaciones especificadas en las instrucciones.
El sistema informático 900 incluye además una memoria de solo lectura (ROM) 908 u otro dispositivo de almacenamiento estático acoplado al bus 902 para almacenar información estática e instrucciones para el procesador 904. Se proporciona un dispositivo de almacenamiento 910, tal como un disco magnético o un disco óptico, y se acopla al bus 902 para almacenar información e instrucciones.
El sistema informático 900 puede estar acoplado, a través del bus 902, a un dispositivo de visualización 912, tal como una pantalla de cristal líquido, para mostrar información al usuario de un ordenador. Un dispositivo de entrada 914, que incluye teclas alfanuméricas y de otro tipo, está acoplado al bus 902 para comunicar información y selecciones de comandos al procesador 904. Otro tipo de dispositivo de entrada de usuario es un control de cursor 916, tal como un ratón, un ratón de bola o teclas de dirección de cursor, que comunica información de dirección y selecciones de comandos al procesador 904 y que controla el movimiento del cursor en el dispositivo de visualización 912. Este dispositivo de entrada tiene normalmente dos grados de libertad en dos ejes, un primer eje (por ejemplo, x) y un segundo eje (por ejemplo, y), que permiten al dispositivo especificar posiciones en un plano.
El sistema informático 900 puede implementar las técnicas descritas en el presente documento usando lógica cableada personalizada, uno o más ASIC o FPGA, firmware y/o lógica de programa que, de manera combinada con el sistema informático, provocan o programan el sistema informático 900 para que sea una máquina de propósito especial. Según una realización, las técnicas del presente documento son realizadas por el sistema informático 900 en respuesta a que el procesador 904 ejecute una o más secuencias de una o más instrucciones contenidas en la memoria principal 906. Tales instrucciones puede leerse en la memoria principal 906 desde otro medio de almacenamiento, tal como el dispositivo de almacenamiento 910. La ejecución de las secuencias de instrucciones contenidas en la memoria principal 906 hace que el procesador 904 lleve a cabo las etapas de proceso descritas en el presente documento. En realizaciones alternativas puede usarse un sistema de circuitos cableado en lugar de instrucciones de software o en combinación con estas.
El término “medios de almacenamiento” usado en el presente documento se refiere a cualquier medio no transitorio que almacena datos y/o instrucciones que hacen que una máquina funcione de manera específica. Tales medios de almacenamiento pueden comprender medios no volátiles y/o medios volátiles. Los medios no volátiles incluyen, por ejemplo, discos ópticos o magnéticos, tales como el dispositivo de almacenamiento 910. Los medios volátiles incluyen memoria dinámica, tal como la memoria principal 906. Formas comunes de medios de almacenamiento incluyen, por ejemplo, un disquete, un disco flexible, un disco duro, una unidad de estado sólido, una cinta magnética o cualquier otro medio de almacenamiento de datos magnético, un CD-ROM, cualquier otro medio de almacenamiento de datos óptico, cualquier medio físico con un patrón de orificios, una RAM, una PROM, una EPROM, una FLASH-EPROM, una NVRAM y cualquier otro chip o cartucho de memoria.
Los medios de almacenamiento son distintos de medios de transmisión pero pueden usarse junto con estos. Los medios de transmisión participan en la trasferencia de información entre los medios de almacenamiento. Por ejemplo, los medios de transmisión incluyen cables coaxiales, hilos de cobre y fibra óptica, incluidos los cables que comprenden el bus 902. Los medios de transmisión también pueden adoptar la forma de ondas de luz o acústicas, tales como las generadas durante las comunicaciones de datos mediante ondas de radio e infrarrojos.
Pueden usarse diversas formas de medios para transmitir una o más secuencias de una o más instrucciones al procesador 904 para su ejecución. Por ejemplo, las instrucciones pueden estar almacenadas inicialmente en un disco magnético o una unidad de estado sólido de un ordenador remoto. El ordenador remoto puede cargar las instrucciones en su memoria dinámica y enviar las instrucciones a través de una línea telefónica usando un módem. Un módem local para el sistema informático 900 puede recibir los datos en la línea telefónica y usar un transmisor de infrarrojos para convertir los datos en una señal de infrarrojos. Un detector de infrarrojos puede recibir los datos transmitidos en la señal infrarroja, y un sistema de circuitos apropiado puede transferir los datos al bus 902. El bus 902 transmite los datos a la memoria principal 906, desde la que el procesador 904 obtiene y ejecuta las instrucciones. Las instrucciones recibidas por la memoria principal 906 pueden almacenarse opcionalmente en el dispositivo de almacenamiento 910 antes o después de su ejecución por medio del procesador 904.
El sistema informático 900 incluye además una interfaz de comunicaciones 918 acoplada al bus 902. La interfaz de comunicaciones 918 proporciona un acoplamiento de comunicación de datos bidireccional a un enlace de red 920 que está conectado a una red local 922. Por ejemplo, la interfaz de comunicaciones 918 puede ser una tarjeta de red digital de servicios integrados (RDSI), un módem por cable, un módem por satélite o un módem que proporciona una conexión de comunicación de datos hacia un tipo correspondiente de línea telefónica. Como otro ejemplo, la interfaz de comunicaciones 918 puede ser una tarjeta de red de área local (LAN) que proporciona una conexión de comunicación de datos hacia una LAN compatible. También pueden implementarse enlaces inalámbricos. En cualquiera de estas implementaciones, la interfaz de comunicaciones 918 envía y recibe señales eléctricas, electromagnéticas u ópticas que transmiten flujos de datos digitales que representan varios tipos de información.
El enlace de red 920 proporciona normalmente una comunicación de datos, a través de una o más redes, a otros dispositivos de datos. Por ejemplo, en enlace de red 920 puede proporcionar una conexión a través de una red local 922 hacia un ordenador principal 924 o hacia equipos de datos gestionados por un proveedor de servicios de Internet (ISP) 926. A su vez, el ISP 926 proporciona servicios de comunicación de datos a través de la red mundial de comunicación de datos por paquetes, denominada en la actualidad "Internet" 928. Tanto la red local 922 como internet 928 usan señales eléctricas, electromagnéticas u ópticas que transmiten flujos de datos digitales. Las señales a través de las diversas redes y las señales en el enlace de red 920 y a través de la interfaz de comunicaciones 918, que transmiten los datos digitales hacia y desde el sistema informático 900, son formas de ejemplo de medios de transmisión.
El sistema informático 900 puede enviar mensajes y recibir datos, incluyendo código de programa, a través de la(s) red(es), el enlace de red 920 y la interfaz de comunicaciones 918. En el ejemplo de internet, un servidor 930 puede transmitir un código solicitado para un programa de aplicación a través de internet 928, el ISP 926, la red local 922 y la interfaz de comunicaciones 918.
El código recibido puede ser ejecutado por el procesador 904 cuando se recibe, y/o almacenarse en el dispositivo de almacenamiento 910, o en otro almacenamiento no volátil, para su posterior ejecución.
La siguiente Tabla 3 describe el cálculo de la curva perceptual EOTF para convertir valores de código de vídeo digital en niveles de luminancia lineal absoluta en el momento de la visualización. También incluye el cálculo OETF inverso para convertir la luminancia lineal absoluta en valores de código digital.
Tabla 3. Especificación de ejemplo para EOTF de curva perceptual
La siguiente Tabla 4 muestra valores de ejemplo para 10 bits.
Claims (2)
1. Programa informático que tiene instrucciones que, cuando se ejecutan por un dispositivo o sistema informático, hacen que dicho dispositivo o sistema informático:
- reciba datos de imágenes codificados; y
- descodifique los datos de imágenes codificados, caracterizado por que dicha descodificación comprende mapear valores de código digital en los datos de imágenes codificados a valores de luminancia normalizados en base al menos en parte en un modelo funcional de:
en el que:
Y es un valor de luminancia normalizado, en el que 0 ≤ Y≤ 1,
V es un valor normalizado de uno correspondiente de los valores de código digital D de los datos de imágenes codificados, en el que 0 ≤ V ≤ 1, y
n, m, c1, c2 y c3 son valores predeterminados, con:
2. El programa informático de la reivindicación 1, en el que los valores de código digital D son valores de código de 10 bits.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161567579P | 2011-12-06 | 2011-12-06 | |
US201261674503P | 2012-07-23 | 2012-07-23 | |
US201261703449P | 2012-09-20 | 2012-09-20 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2940345T3 true ES2940345T3 (es) | 2023-05-05 |
Family
ID=47459140
Family Applications (6)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES20203810T Active ES2939867T3 (es) | 2011-12-06 | 2012-12-06 | Programa de ordenador para y medio legible por ordenador que tiene almacenado un flujo de bits para mejorar el intercambio de datos de imagen basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización |
ES19155297T Active ES2835379T3 (es) | 2011-12-06 | 2012-12-06 | Dispositivo y método para mejorar el intercambio de datos de imágenes basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización |
ES12808594.1T Active ES2584681T3 (es) | 2011-12-06 | 2012-12-06 | Dispositivo y procedimiento para mejorar el intercambio de datos de imágenes basado en una no linealidad de luminancia perceptual a través de diferentes capacidades de visualización |
ES20203561T Active ES2899579T3 (es) | 2011-12-06 | 2012-12-06 | Dispositivo y método para mejorar el intercambio de datos de imágenes basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización |
ES21197681T Active ES2940345T3 (es) | 2011-12-06 | 2012-12-06 | Programa informático para mejorar el intercambio de datos de imágenes basado en no linealidad perceptual a través de diferentes capacidades de visualización |
ES16166823T Active ES2727965T3 (es) | 2011-12-06 | 2012-12-06 | Dispositivo y método para mejorar el intercambio de datos de imágenes basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización |
Family Applications Before (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES20203810T Active ES2939867T3 (es) | 2011-12-06 | 2012-12-06 | Programa de ordenador para y medio legible por ordenador que tiene almacenado un flujo de bits para mejorar el intercambio de datos de imagen basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización |
ES19155297T Active ES2835379T3 (es) | 2011-12-06 | 2012-12-06 | Dispositivo y método para mejorar el intercambio de datos de imágenes basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización |
ES12808594.1T Active ES2584681T3 (es) | 2011-12-06 | 2012-12-06 | Dispositivo y procedimiento para mejorar el intercambio de datos de imágenes basado en una no linealidad de luminancia perceptual a través de diferentes capacidades de visualización |
ES20203561T Active ES2899579T3 (es) | 2011-12-06 | 2012-12-06 | Dispositivo y método para mejorar el intercambio de datos de imágenes basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES16166823T Active ES2727965T3 (es) | 2011-12-06 | 2012-12-06 | Dispositivo y método para mejorar el intercambio de datos de imágenes basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización |
Country Status (26)
Country | Link |
---|---|
US (6) | US9077994B2 (es) |
EP (9) | EP3514677B1 (es) |
JP (13) | JP5735717B2 (es) |
KR (12) | KR101812469B1 (es) |
CN (9) | CN106095355B (es) |
AU (12) | AU2012347820B2 (es) |
BR (2) | BR122021018508B1 (es) |
CA (9) | CA2854071C (es) |
CY (2) | CY1121636T1 (es) |
DK (6) | DK3079055T3 (es) |
ES (6) | ES2939867T3 (es) |
FI (3) | FI4137929T3 (es) |
HK (2) | HK1197471A1 (es) |
HR (5) | HRP20230252T1 (es) |
HU (5) | HUE052566T2 (es) |
IN (1) | IN2014CN03871A (es) |
LT (2) | LT3079055T (es) |
MX (6) | MX2020004850A (es) |
MY (2) | MY193501A (es) |
PL (5) | PL3079055T3 (es) |
PT (6) | PT3514677T (es) |
RS (5) | RS64021B1 (es) |
RU (4) | RU2607618C2 (es) |
SG (4) | SG11201401944XA (es) |
SI (2) | SI3514677T1 (es) |
WO (1) | WO2013086169A1 (es) |
Families Citing this family (103)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8988552B2 (en) | 2011-09-26 | 2015-03-24 | Dolby Laboratories Licensing Corporation | Image formats and related methods and apparatuses |
DK3079055T3 (da) | 2011-12-06 | 2019-06-03 | Dolby Laboratories Licensing Corp | Indretning og fremgangsmåde til at forbedre den perceptuelle luminans ikke-lineæritetsbaserede billeddataudveksling på tværs af forskellige displayegenskaber |
US10242650B2 (en) | 2011-12-06 | 2019-03-26 | Dolby Laboratories Licensing Corporation | Perceptual luminance nonlinearity-based image data exchange across different display capabilities |
US9661296B2 (en) * | 2012-07-12 | 2017-05-23 | Samsung Electronics Co., Ltd. | Image processing apparatus and method |
US9842385B2 (en) | 2012-09-12 | 2017-12-12 | Dolby Laboratories Licensing Corporation | Display management for images with enhanced dynamic range |
US9720231B2 (en) | 2012-09-26 | 2017-08-01 | Dolby Laboratories Licensing Corporation | Display, imaging system and controller for eyewear display device |
US9654701B2 (en) | 2013-01-25 | 2017-05-16 | Dolby Laboratories Licensing Corporation | Global display management based light modulation |
WO2014130343A2 (en) | 2013-02-21 | 2014-08-28 | Dolby Laboratories Licensing Corporation | Display management for high dynamic range video |
US9584811B2 (en) | 2013-06-17 | 2017-02-28 | Dolby Laboratories Licensing Corporation | Adaptive reshaping for layered coding of enhanced dynamic range signals |
WO2015007510A1 (en) | 2013-07-16 | 2015-01-22 | Koninklijke Philips N.V. | Method and apparatus to create an eotf function for a universal code mapping for an hdr image, method and process to use these images |
US9712834B2 (en) * | 2013-10-01 | 2017-07-18 | Dolby Laboratories Licensing Corporation | Hardware efficient sparse FIR filtering in video codec |
US9179042B2 (en) | 2013-10-09 | 2015-11-03 | Dolby Laboratories Licensing Corporation | Systems and methods to optimize conversions for wide gamut opponent color spaces |
US9648351B2 (en) | 2013-10-24 | 2017-05-09 | Dolby Laboratories Licensing Corporation | Error control in multi-stream EDR video codec |
CN105379263B (zh) | 2013-11-13 | 2017-09-22 | 杜比实验室特许公司 | 用于指导图像的显示管理的方法和设备 |
US9538155B2 (en) | 2013-12-04 | 2017-01-03 | Dolby Laboratories Licensing Corporation | Decoding and display of high dynamic range video |
EP2887664A1 (en) | 2013-12-19 | 2015-06-24 | Thomson Licensing | Method and device for encoding a high-dynamic range image |
CN105981391B (zh) | 2014-02-07 | 2020-04-10 | 索尼公司 | 发送装置、发送方法、接收装置、接收方法、显示装置及显示方法 |
WO2015130793A1 (en) | 2014-02-25 | 2015-09-03 | Apple Inc. | Backward-compatible apparatus and method for providing video with both standard and high dynamic range |
MX363812B (es) * | 2014-06-10 | 2019-04-04 | Panasonic Ip Man Co Ltd | Método de conversión y aparato de conversión. |
JP5948619B2 (ja) | 2014-06-10 | 2016-07-06 | パナソニックIpマネジメント株式会社 | 表示システム、表示方法および表示装置 |
US9613407B2 (en) | 2014-07-03 | 2017-04-04 | Dolby Laboratories Licensing Corporation | Display management for high dynamic range video |
GB2528283B (en) | 2014-07-16 | 2020-08-05 | Barco Nv | Image colour calibration with multiple colour scales |
US9911179B2 (en) * | 2014-07-18 | 2018-03-06 | Dolby Laboratories Licensing Corporation | Image decontouring in high dynamic range video processing |
CN105469375B (zh) * | 2014-08-28 | 2021-09-07 | 北京三星通信技术研究有限公司 | 处理高动态范围全景图的方法和装置 |
JP5995129B2 (ja) | 2014-09-22 | 2016-09-21 | パナソニックIpマネジメント株式会社 | 再生方法および再生装置 |
EP3198556B1 (en) | 2014-09-26 | 2018-05-16 | Dolby Laboratories Licensing Corp. | Encoding and decoding perceptually-quantized video content |
US10063824B2 (en) | 2014-11-05 | 2018-08-28 | Apple Inc. | Mapping image/video content to target display devices with variable brightness levels and/or viewing conditions |
PT4093038T (pt) * | 2014-12-03 | 2023-10-18 | Panasonic Ip Man Co Ltd | Dispositivo de geração de dados |
JP6601729B2 (ja) * | 2014-12-03 | 2019-11-06 | パナソニックIpマネジメント株式会社 | データ生成方法、データ再生方法、データ生成装置及びデータ再生装置 |
AU2016209615C1 (en) | 2015-01-19 | 2018-03-22 | Dolby Laboratories Licensing Corporation | Display management for high dynamic range video |
EP3051823A1 (en) | 2015-01-27 | 2016-08-03 | Thomson Licensing | Methods, systems and aparatus for electro-optical and opto-electrical conversion of images and video |
KR102631484B1 (ko) * | 2015-01-27 | 2024-01-30 | 인터디지털 매디슨 페턴트 홀딩스 에스에이에스 | 이미지들 및 비디오의 전기-광학 및 광-전기 변환을 위한 방법들, 시스템들 및 장치 |
RU2678483C1 (ru) * | 2015-03-02 | 2019-01-29 | Долби Лэборетериз Лайсенсинг Корпорейшн | Контент-адаптивный перцепционный квантизатор для изображений с высоким динамическим диапазоном |
JP6463179B2 (ja) | 2015-03-17 | 2019-01-30 | キヤノン株式会社 | 信号処理装置、信号処理方法および撮像装置 |
US10735755B2 (en) | 2015-04-21 | 2020-08-04 | Arris Enterprises Llc | Adaptive perceptual mapping and signaling for video coding |
WO2016172091A1 (en) | 2015-04-22 | 2016-10-27 | Dolby Laboratories Licensing Corporation | Signal reshaping and coding in the ipt-pq color space |
JP6731722B2 (ja) * | 2015-05-12 | 2020-07-29 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 表示方法および表示装置 |
CN107533832B (zh) | 2015-05-12 | 2020-11-27 | 索尼公司 | 图像处理装置、图像处理方法与程序 |
JP6663214B2 (ja) * | 2015-05-26 | 2020-03-11 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 表示方法および表示装置 |
CN107852512A (zh) * | 2015-06-07 | 2018-03-27 | 夏普株式会社 | 基于亮度转换函数或视频色彩分量值的优化视频编码的系统及方法 |
US10863202B2 (en) * | 2015-06-12 | 2020-12-08 | Shaoher Pan | Encoding data in a source image with watermark image codes |
WO2017003525A1 (en) * | 2015-06-30 | 2017-01-05 | Dolby Laboratories Licensing Corporation | Real-time content-adaptive perceptual quantizer for high dynamic range images |
EP3320675A4 (en) * | 2015-07-10 | 2019-03-06 | Telefonaktiebolaget LM Ericsson (publ) | PIXEL PREPARATION AND CODING |
WO2017011636A1 (en) | 2015-07-16 | 2017-01-19 | Dolby Laboratories Licensing Corporation | Signal reshaping and coding for hdr and wide color gamut signals |
WO2017015397A1 (en) | 2015-07-22 | 2017-01-26 | Dolby Laboratories Licensing Corporation | Video coding and delivery with both spatial and dynamic range scalability |
JP6320440B2 (ja) | 2015-08-04 | 2018-05-09 | ドルビー ラボラトリーズ ライセンシング コーポレイション | ハイダイナミックレンジ信号のための信号再構成 |
US10679582B2 (en) * | 2015-09-21 | 2020-06-09 | Dolby Laboratories Licensing Corporation | Techniques for operating a display in the perceptual code space |
US10283032B2 (en) | 2015-10-07 | 2019-05-07 | Samsung Display Co., Ltd. | Integrated circuit for nonlinear data encoding |
US10140953B2 (en) | 2015-10-22 | 2018-11-27 | Dolby Laboratories Licensing Corporation | Ambient-light-corrected display management for high dynamic range images |
WO2017101137A1 (zh) | 2015-12-15 | 2017-06-22 | 华为技术有限公司 | 一种高动态范围图像的处理方法、装置及终端设备 |
WO2017107114A1 (zh) | 2015-12-23 | 2017-06-29 | 华为技术有限公司 | 一种图像信号转换处理方法、装置及终端设备 |
US10237525B2 (en) * | 2015-12-25 | 2019-03-19 | Sharp Kabushiki Kaisha | Display device, method for controlling display device, control program, and recording medium |
US10679544B2 (en) * | 2016-01-29 | 2020-06-09 | Barco Nv | Digital image processing chain and processing blocks and a display including the same |
CN107027027B (zh) * | 2016-01-31 | 2021-02-12 | 西安电子科技大学 | 图像的编码、解码方法及装置、以及图像的编解码系统 |
JP6757157B2 (ja) | 2016-03-29 | 2020-09-16 | キヤノン株式会社 | 投影装置およびその制御方法 |
US10397586B2 (en) | 2016-03-30 | 2019-08-27 | Dolby Laboratories Licensing Corporation | Chroma reshaping |
EP3226563B1 (en) | 2016-03-30 | 2021-06-23 | Dolby Laboratories Licensing Corp. | Chroma reshaping |
EP3465673B1 (en) | 2016-05-27 | 2020-07-29 | Dolby Laboratories Licensing Corporation | Transitioning between video priority and graphics priority |
JP6912869B2 (ja) * | 2016-06-15 | 2021-08-04 | オリンパス株式会社 | 画像処理装置、画像処理プログラム、画像処理方法 |
JP6729055B2 (ja) * | 2016-06-23 | 2020-07-22 | セイコーエプソン株式会社 | 映像処理装置、表示装置および映像処理方法 |
TWI631505B (zh) * | 2016-08-26 | 2018-08-01 | 晨星半導體股份有限公司 | 應用於播放裝置的影像處理方法及相關的電路 |
JP6751233B2 (ja) * | 2016-09-12 | 2020-09-02 | オンキヨー株式会社 | 映像処理装置 |
FR3056872A1 (fr) | 2016-09-23 | 2018-03-30 | Ymagis | Procede numerique de traitement d’image et de projection pour la diffusion en salle |
US10296807B2 (en) | 2016-10-04 | 2019-05-21 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
EP3312798A1 (en) * | 2016-10-20 | 2018-04-25 | Thomson Licensing | Method and device for inverse tone mapping |
JP2018081595A (ja) * | 2016-11-17 | 2018-05-24 | キヤノン株式会社 | 画像処理装置及び方法、及び撮像装置 |
CN110383802B (zh) | 2017-03-03 | 2021-05-25 | 杜比实验室特许公司 | 利用逼近函数的彩色图像修改方法 |
WO2018160883A1 (en) | 2017-03-03 | 2018-09-07 | Dolby Laboratories Licensing Corporation | Color saturation adjustment in non-uniform color space |
CN110383801B (zh) | 2017-03-03 | 2021-08-10 | 杜比实验室特许公司 | 不均匀颜色空间中的颜色饱和度调整 |
WO2018160847A1 (en) | 2017-03-03 | 2018-09-07 | Dolby Laboratories Licensing Corporation | Color image modification with approximation function |
EP3566203B1 (en) | 2017-03-20 | 2021-06-16 | Dolby Laboratories Licensing Corporation | Perceptually preserving scene-referred contrasts and chromaticities |
CN110770787B (zh) | 2017-06-16 | 2023-04-07 | 杜比实验室特许公司 | 高效端到端单层逆向显示管理编码 |
US11252401B2 (en) | 2017-08-07 | 2022-02-15 | Dolby Laboratories Licensing Corporation | Optically communicating display metadata |
US10769817B2 (en) * | 2017-08-07 | 2020-09-08 | Samsung Display Co., Ltd. | Measures for image testing |
CN111095931B (zh) * | 2017-09-06 | 2022-05-27 | 杜比实验室特许公司 | 色调曲线优化方法以及相关联的视频编码器和视频解码器 |
US10600163B2 (en) | 2017-11-22 | 2020-03-24 | Interdigital Vc Holdings, Inc. | Method and device for reconstructing a display adapted HDR image |
CN111557028B (zh) * | 2018-02-14 | 2023-02-03 | Eizo株式会社 | 显示系统以及计算机可读记录介质 |
US10832613B2 (en) * | 2018-03-07 | 2020-11-10 | At&T Intellectual Property I, L.P. | Image format conversion using luminance-adaptive dithering |
EP3541074B1 (en) * | 2018-03-15 | 2022-07-13 | Comcast Cable Communications LLC | Systems, methods, and apparatuses for processing video |
US10931977B2 (en) | 2018-03-15 | 2021-02-23 | Comcast Cable Communications, Llc | Systems, methods, and apparatuses for processing video |
KR102546990B1 (ko) | 2018-03-16 | 2023-06-23 | 엘지전자 주식회사 | 신호 처리 장치 및 이를 구비하는 영상표시장치 |
US11094255B2 (en) | 2018-03-29 | 2021-08-17 | Barco N.V. | Driver for LED display |
KR20190114332A (ko) * | 2018-03-29 | 2019-10-10 | 에스케이하이닉스 주식회사 | 이미지 센싱 장치 및 그의 동작 방법 |
US10917583B2 (en) * | 2018-04-27 | 2021-02-09 | Apple Inc. | Standard and high dynamic range display systems and methods for high dynamic range displays |
JP7003304B2 (ja) | 2018-06-18 | 2022-01-20 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 撮像方法およびシステム |
JP2020003704A (ja) * | 2018-06-29 | 2020-01-09 | 株式会社デンソー | 情報処理装置 |
JP2020017079A (ja) * | 2018-07-25 | 2020-01-30 | 株式会社朋栄 | トーンマッピング処理及びトーンマッピングパラメータの自動調整更新によるhdr映像変換方法及びその装置 |
US20200045341A1 (en) * | 2018-07-31 | 2020-02-06 | Ati Technologies Ulc | Effective electro-optical transfer function encoding for limited luminance range displays |
US10802795B2 (en) * | 2018-08-21 | 2020-10-13 | Semiconductor Components Industries, Llc | Systems and methods for image data compression |
EP3672267A1 (en) * | 2018-12-20 | 2020-06-24 | InterDigital VC Holdings, Inc. | Methods for processing audio and/or video contents and corresponding signal, devices, electronic assembly, system, computer readable program products and computer readable storage media |
EP3969999A4 (en) * | 2019-05-17 | 2023-10-11 | Fenoto Technologies Inc. | ELECTRONIC PAPER DISPLAY SYSTEM |
CN113853647B (zh) * | 2019-05-23 | 2023-08-18 | Eizo株式会社 | 图像显示装置、图像显示系统、图像显示方法及记录介质 |
EP3764346A1 (en) * | 2019-07-09 | 2021-01-13 | Koninklijke Philips N.V. | Adjustment of display optimization behaviour for hdr images |
JP7370762B2 (ja) | 2019-08-20 | 2023-10-30 | キヤノン株式会社 | 撮像装置およびその制御方法 |
CN110797038B (zh) * | 2019-10-30 | 2020-11-06 | 腾讯科技(深圳)有限公司 | 音频处理方法、装置、计算机设备及存储介质 |
EP3873096A1 (en) | 2020-02-25 | 2021-09-01 | Koninklijke Philips N.V. | Improved hdr color processing for saturated colors |
US11343495B2 (en) * | 2020-06-03 | 2022-05-24 | Tencent America LLC | Methods of simplification of temporal filtering |
CN114449244B (zh) * | 2020-10-31 | 2023-07-18 | 华为技术有限公司 | 一种画质调整方法及装置 |
CN114822448B (zh) * | 2021-01-22 | 2024-04-05 | 广州视创显示科技有限公司 | 一种图像混合显示方法、装置、设备及存储介质 |
WO2022245624A1 (en) | 2021-05-19 | 2022-11-24 | Dolby Laboratories Licensing Corporation | Display management with position-varying adaptivity to ambient light and/or non-display-originating surface light |
KR102663499B1 (ko) | 2021-06-08 | 2024-05-07 | 대구가톨릭대학교산학협력단 | 반응성기를 가지는 개질 맥신 화합물 및 이를 포함하는 광경화성 수지 조성물 |
EP4220539A1 (en) | 2022-01-27 | 2023-08-02 | Koninklijke Philips N.V. | Automatic luminance adjustment for hdr video coding |
CN116437162B (zh) * | 2023-06-12 | 2023-08-22 | 美视信息科技(常州)有限公司 | 一种信息传输方法、装置、显示器及存储介质 |
Family Cites Families (118)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3382229D1 (de) | 1982-09-14 | 1991-05-02 | New York Inst Techn | Verfahren und vorrichtung zur kodierung und dekodierung eines videosignals. |
US5276779A (en) | 1991-04-01 | 1994-01-04 | Eastman Kodak Company | Method for the reproduction of color images based on viewer adaption |
GB2311432B (en) * | 1996-03-20 | 2000-05-03 | Sony Uk Ltd | Method and apparatus for processing an input image |
US6388648B1 (en) | 1996-11-05 | 2002-05-14 | Clarity Visual Systems, Inc. | Color gamut and luminance matching techniques for image display systems |
JP4076248B2 (ja) * | 1997-09-09 | 2008-04-16 | オリンパス株式会社 | 色再現装置 |
JPH1188909A (ja) * | 1997-09-11 | 1999-03-30 | Mitsubishi Electric Corp | 画像圧縮伝送装置 |
US6148006A (en) * | 1997-11-12 | 2000-11-14 | Nortel Networks Limited | Communication system architecture, exchange having a plurality of broadband modems and method of supporting broadband operation on a one to one basis |
US6847376B2 (en) | 1998-11-13 | 2005-01-25 | Lightsurf Technologies, Inc. | Method and system for characterizing color display monitor output |
JP4147655B2 (ja) | 1998-12-07 | 2008-09-10 | ソニー株式会社 | 画像処理装置及び画像処理方法 |
JP2000188647A (ja) | 1998-12-21 | 2000-07-04 | Ricoh Co Ltd | 画像評価方法および画像評価装置 |
US6370265B1 (en) | 1999-11-24 | 2002-04-09 | Direct Radiography Corp. | Method for generating gray scale transfer functions for use in displaying a digital radiogram |
US7170477B2 (en) | 2000-04-13 | 2007-01-30 | Sharp Kabushiki Kaisha | Image reproducing method, image display apparatus and picture signal compensation device |
JP3904841B2 (ja) | 2000-05-15 | 2007-04-11 | シャープ株式会社 | 液晶表示装置及びそれを用いた電子機器並びに液晶表示方法 |
JP4766288B2 (ja) * | 2000-06-21 | 2011-09-07 | ソニー株式会社 | 情報処理装置 |
JP2002092655A (ja) | 2000-09-20 | 2002-03-29 | Minolta Co Ltd | 3次元仮想現実を表示するシステム及び方法 |
FI110045B (fi) | 2000-11-08 | 2002-11-15 | Antti Lahtinen | Menetelmä ja laite harmaasävykuvan muuntamiseksi valeharmaakuvaksi |
JP3620443B2 (ja) | 2000-12-05 | 2005-02-16 | 日産自動車株式会社 | 自動車用表示装置 |
US6947079B2 (en) | 2000-12-22 | 2005-09-20 | Eastman Kodak Company | Camera having verification display with reverse white balanced viewer adaptation compensation and method |
US6989859B2 (en) | 2000-12-22 | 2006-01-24 | Eastman Kodak Company | Camera having user interface ambient sensor viewer adaptation compensation and method |
US7019763B2 (en) | 2001-01-09 | 2006-03-28 | Seiko Epson Corporation | Display device, driving method therefor, electro-optical device, driving method therefor, and electronic apparatus |
US6831947B2 (en) * | 2001-03-23 | 2004-12-14 | Sharp Laboratories Of America, Inc. | Adaptive quantization based on bit rate prediction and prediction error energy |
US7023580B2 (en) * | 2001-04-20 | 2006-04-04 | Agilent Technologies, Inc. | System and method for digital image tone mapping using an adaptive sigmoidal function based on perceptual preference guidelines |
DE10300048B4 (de) * | 2002-01-05 | 2005-05-12 | Samsung Electronics Co., Ltd., Suwon | Verfahren und Vorrichtung zur Bildcodierung und -decodierung |
US7046400B2 (en) | 2002-01-31 | 2006-05-16 | Eastman Kodak Company | Adjusting the color, brightness, and tone scale of rendered digital images |
JP2003244436A (ja) | 2002-02-13 | 2003-08-29 | Konica Corp | キャリブレーション装置、画像出力装置のキャリブレーション方法、プログラムおよび記憶媒体 |
US6755529B2 (en) * | 2002-03-12 | 2004-06-29 | Visionrx, Inc. | Method and apparatus for measuring contrast sensitivity |
US7221807B2 (en) | 2002-03-29 | 2007-05-22 | Sharp Laboratories Of America, Inc. | Methods and systems for digital image characteristic adjustment using a neural network |
US7609360B2 (en) | 2002-06-17 | 2009-10-27 | Fujifilm Corporation | Image display device |
US7184057B2 (en) * | 2002-06-24 | 2007-02-27 | Microsoft Corpoartion | Systems and methods for providing color management |
EP1391865A1 (en) | 2002-08-23 | 2004-02-25 | Deutsche Thomson-Brandt Gmbh | Plasma display panel (PDP) - Reduction of dithering noise while displaying less video levels than required |
US7043090B2 (en) | 2002-10-02 | 2006-05-09 | Eastman Kodak Company | Enhancing the tonal characteristics of digital images using expansive and compressive tone scale functions |
JP4467877B2 (ja) | 2002-11-08 | 2010-05-26 | 富士通マイクロエレクトロニクス株式会社 | 表示装置の駆動方法、及び表示装置の駆動回路 |
JP2004212598A (ja) | 2002-12-27 | 2004-07-29 | Sharp Corp | 変換装置、補正回路、駆動装置、表示装置、検査装置および表示方法 |
JP4410997B2 (ja) | 2003-02-20 | 2010-02-10 | パナソニック株式会社 | 表示パネルの駆動装置 |
JP4396107B2 (ja) * | 2003-02-21 | 2010-01-13 | 凸版印刷株式会社 | 映像表示システム |
US7266229B2 (en) * | 2003-07-24 | 2007-09-04 | Carestream Health, Inc. | Method for rendering digital radiographic images for display based on independent control of fundamental image quality parameters |
KR100508937B1 (ko) | 2003-08-05 | 2005-08-17 | 삼성에스디아이 주식회사 | 고효율 플라즈마 디스플레이 패널에서의 계조 표현 방법및 그 방법을 사용한 플라즈마 디스플레이 패널 구동 장치 |
DE10338484B4 (de) | 2003-08-21 | 2008-10-16 | Eizo Gmbh | Verfahren und Anordnung zum Optimieren des Verlaufs einer Leuchtdichtekennlinie |
US7508387B2 (en) | 2003-09-30 | 2009-03-24 | International Business Machines Corporation | On demand calibration of imaging displays |
US7412105B2 (en) | 2003-10-03 | 2008-08-12 | Adobe Systems Incorporated | Tone selective adjustment of images |
JP2005117590A (ja) | 2003-10-10 | 2005-04-28 | Konica Minolta Medical & Graphic Inc | 放射線画像撮影システムおよび放射線画像検出処理装置 |
EP1544837A1 (en) * | 2003-12-17 | 2005-06-22 | Deutsche Thomson-Brandt Gmbh | Method and device for reducing the effect of differences in scan line load |
EP1544838A1 (en) * | 2003-12-17 | 2005-06-22 | Deutsche Thomson-Brandt Gmbh | Method and device for compensating effect of differences in subfield load |
JP4757201B2 (ja) | 2003-12-18 | 2011-08-24 | シャープ株式会社 | 液晶ディスプレイのためのダイナミックガンマ |
US20050190836A1 (en) * | 2004-01-30 | 2005-09-01 | Jiuhuai Lu | Process for maximizing the effectiveness of quantization matrices in video codec systems |
JP4632721B2 (ja) * | 2004-03-18 | 2011-02-16 | メガビジョン株式会社 | 処理装置及びガンマ値調整プログラム |
EP1587049A1 (en) | 2004-04-15 | 2005-10-19 | Barco N.V. | Method and device for improving conformance of a display panel to a display standard in the whole display area and for different viewing angles |
US8218625B2 (en) * | 2004-04-23 | 2012-07-10 | Dolby Laboratories Licensing Corporation | Encoding, decoding and representing high dynamic range images |
US8063992B2 (en) | 2004-06-30 | 2011-11-22 | Koninklijke Philips Electronics N.V. | Dominant color extraction for ambient light derived from video content mapped through unrendered color space |
KR20070032992A (ko) | 2004-07-13 | 2007-03-23 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 주변 조명 제어를 통한 표준화된 디지털 이미지 시청 |
US7283654B2 (en) | 2004-08-26 | 2007-10-16 | Lumeniq, Inc. | Dynamic contrast visualization (DCV) |
EP1650736A1 (en) | 2004-10-25 | 2006-04-26 | Barco NV | Backlight modulation for display |
US7782405B2 (en) | 2004-12-02 | 2010-08-24 | Sharp Laboratories Of America, Inc. | Systems and methods for selecting a display source light illumination level |
US8164602B2 (en) * | 2004-12-23 | 2012-04-24 | Dolby Laboratories Licensing Corporation | Wide color gamut displays |
US7372507B2 (en) | 2005-02-08 | 2008-05-13 | Texas Instruments Incorporated | Real-time content based gamma adjustment for digital video display |
US20060197968A1 (en) | 2005-03-01 | 2006-09-07 | Vannostrand S L | Dicom print driver |
US7606429B2 (en) * | 2005-03-25 | 2009-10-20 | Ati Technologies Ulc | Block-based image compression method and apparatus |
WO2007014681A1 (en) * | 2005-08-01 | 2007-02-08 | Barco N.V. | Method and device for improved display standard conformance |
US7495679B2 (en) * | 2005-08-02 | 2009-02-24 | Kolorific, Inc. | Method and system for automatically calibrating a color display |
JP2006101512A (ja) * | 2005-09-21 | 2006-04-13 | Matsushita Electric Ind Co Ltd | 画像圧縮装置および画像送受信装置 |
JP4529888B2 (ja) | 2005-12-07 | 2010-08-25 | ブラザー工業株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
WO2008007301A2 (en) | 2006-07-10 | 2008-01-17 | Koninklijke Philips Electronics, N.V. | System and method for dicom compliant display of ultrasound images in varying ambient light |
KR101243817B1 (ko) | 2006-07-28 | 2013-03-18 | 엘지디스플레이 주식회사 | 평판표시장치와 그 데이터 다중 변조방법 |
US7990427B2 (en) | 2006-08-21 | 2011-08-02 | Micron Technology, Inc. | Method and apparatus for applying tonal correction to images |
US20080170031A1 (en) | 2007-01-17 | 2008-07-17 | Chia-Hui Kuo | Method for performing chromatic adaptation while displaying image, and corresponding display circuit and device |
US8026908B2 (en) | 2007-02-05 | 2011-09-27 | Dreamworks Animation Llc | Illuminated surround and method for operating same for video and other displays |
KR100855472B1 (ko) * | 2007-02-07 | 2008-09-01 | 삼성전자주식회사 | 저전력 구동 장치 및 방법 |
US7826681B2 (en) | 2007-02-28 | 2010-11-02 | Sharp Laboratories Of America, Inc. | Methods and systems for surround-specific display modeling |
JP2008234315A (ja) * | 2007-03-20 | 2008-10-02 | Toyota Motor Corp | デジタル画像の階調圧縮方法及び階調圧縮装置 |
US8970636B2 (en) | 2007-06-27 | 2015-03-03 | Thomson Licensing | System and method for color correction between displays with and without average picture dependency |
US8135230B2 (en) * | 2007-07-30 | 2012-03-13 | Dolby Laboratories Licensing Corporation | Enhancing dynamic ranges of images |
EP2063647A1 (en) | 2007-11-24 | 2009-05-27 | Barco NV | Calibration of a 3-dimensional display |
WO2009078862A1 (en) | 2007-12-17 | 2009-06-25 | Hewlett-Packard Development Company, L.P. | Image processing using target values |
US8179363B2 (en) | 2007-12-26 | 2012-05-15 | Sharp Laboratories Of America, Inc. | Methods and systems for display source light management with histogram manipulation |
CN101478687B (zh) * | 2008-01-04 | 2010-12-08 | 华晶科技股份有限公司 | 对数字图像中伪色像素的校正方法 |
US8199995B2 (en) | 2008-01-29 | 2012-06-12 | Carestream Health, Inc. | Sensitometric response mapping for radiological images |
JP2009211048A (ja) * | 2008-02-06 | 2009-09-17 | Canon Inc | 画像信号処理装置および画像信号処理方法 |
US8593476B2 (en) | 2008-02-13 | 2013-11-26 | Gary Demos | System for accurately and precisely representing image color information |
JP4334596B2 (ja) * | 2008-02-27 | 2009-09-30 | 株式会社東芝 | 表示装置 |
US20110032286A1 (en) | 2008-04-09 | 2011-02-10 | Sharp Kabushiki Kaisha | Display device and television receiver |
US8531379B2 (en) | 2008-04-28 | 2013-09-10 | Sharp Laboratories Of America, Inc. | Methods and systems for image compensation for ambient conditions |
JP4956488B2 (ja) | 2008-06-10 | 2012-06-20 | 株式会社東芝 | 画像処理装置および画像表示装置 |
JP5274908B2 (ja) | 2008-06-20 | 2013-08-28 | 本田技研工業株式会社 | 燃料電池スタック |
TWI383228B (zh) | 2008-07-02 | 2013-01-21 | Chunghwa Picture Tubes Ltd | 主動元件陣列基板、液晶顯示面板及其驅動方法 |
US8416179B2 (en) | 2008-07-10 | 2013-04-09 | Sharp Laboratories Of America, Inc. | Methods and systems for color preservation with a color-modulated backlight |
US8610654B2 (en) * | 2008-07-18 | 2013-12-17 | Sharp Laboratories Of America, Inc. | Correction of visible mura distortions in displays using filtered mura reduction and backlight control |
JP4901821B2 (ja) * | 2008-07-24 | 2012-03-21 | 株式会社東芝 | 画像処理装置および画像処理方法 |
JP5408736B2 (ja) | 2008-07-28 | 2014-02-05 | Necディスプレイソリューションズ株式会社 | グレースケール表示装置及びグレースケール表示方法 |
JP5188334B2 (ja) * | 2008-09-04 | 2013-04-24 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
MX2011003349A (es) * | 2008-09-30 | 2011-06-16 | Dolby Lab Licensing Corp | Sistemas y metodos para aplicar gamma adaptable en el procesamiento de imagenes para pantallas con alta brillantez y con alto intervalo dinamico. |
JP2012505460A (ja) * | 2008-10-13 | 2012-03-01 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 画像のコントラスト強調 |
US8111307B2 (en) * | 2008-10-25 | 2012-02-07 | Omnivision Technologies, Inc. | Defective color and panchromatic CFA image |
JP2010114839A (ja) | 2008-11-10 | 2010-05-20 | Canon Inc | 画像処理装置および画像処理方法 |
GB0901825D0 (en) | 2009-02-05 | 2009-03-11 | Univ Cardiff | Displaying image data |
US8290295B2 (en) | 2009-03-03 | 2012-10-16 | Microsoft Corporation | Multi-modal tone-mapping of images |
WO2010104624A2 (en) | 2009-03-10 | 2010-09-16 | Dolby Laboratories Licensing Corporation | Extended dynamic range and extended dimensionality image signal conversion |
US8390642B2 (en) | 2009-04-30 | 2013-03-05 | Hewlett-Packard Development Company, L.P. | System and method for color space setting adjustment |
CN101620819B (zh) * | 2009-06-25 | 2013-10-16 | 北京中星微电子有限公司 | 显示图像背光亮度的动态调整方法、装置及移动显示设备 |
US20120154355A1 (en) | 2009-11-27 | 2012-06-21 | Canon Kabushiki Kaisha | Image display apparatus |
JP2011133877A (ja) * | 2009-11-27 | 2011-07-07 | Canon Inc | 画像表示装置、および画像処理装置 |
CN101710995B (zh) * | 2009-12-10 | 2011-02-16 | 武汉大学 | 基于视觉特性的视频编码系统 |
CN101950528B (zh) * | 2009-12-31 | 2012-06-27 | 四川虹欧显示器件有限公司 | 等离子显示器灰阶线形调整的方法 |
US8866837B2 (en) | 2010-02-02 | 2014-10-21 | Microsoft Corporation | Enhancement of images for display on liquid crystal displays |
GB201002632D0 (en) * | 2010-02-16 | 2010-03-31 | Im Sense Ltd | Method and system for generating enhanced images |
JP5899120B2 (ja) * | 2010-03-03 | 2016-04-06 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | カラーレジームを定義する装置及び方法 |
JP5484977B2 (ja) * | 2010-03-23 | 2014-05-07 | オリンパス株式会社 | 蛍光観察装置 |
WO2011133505A1 (en) * | 2010-04-19 | 2011-10-27 | Dolby Laboratories Licensing Corporation | Quality assessment of high dynamic range, visual dynamic range and wide color gamut image and video |
CN102024266B (zh) * | 2010-11-04 | 2012-07-25 | 西安电子科技大学 | 基于图像结构模型的压缩感知图像重构方法 |
US20120182278A1 (en) | 2011-01-17 | 2012-07-19 | Dolby Laboratories Licensing Corporation | Methods and Apparatus for Estimating Light Adaptation Levels of Persons Viewing Displays |
TWI538474B (zh) | 2011-03-15 | 2016-06-11 | 杜比實驗室特許公司 | 影像資料轉換的方法與設備 |
CN102142145B (zh) * | 2011-03-22 | 2012-12-19 | 宁波大学 | 一种基于人眼视觉特性的图像质量客观评价方法 |
EP2518719B1 (en) | 2011-04-08 | 2016-05-18 | Dolby Laboratories Licensing Corporation | Image range expansion control methods and apparatus |
CN102170581B (zh) * | 2011-05-05 | 2013-03-20 | 天津大学 | 基于hvs的ssim与特征匹配立体图像质量评价方法 |
CN102222460B (zh) * | 2011-06-10 | 2013-06-05 | 四川虹欧显示器件有限公司 | 一种等离子体显示面板的图像改善方法 |
US8988552B2 (en) | 2011-09-26 | 2015-03-24 | Dolby Laboratories Licensing Corporation | Image formats and related methods and apparatuses |
EP2745290A1 (en) | 2011-09-27 | 2014-06-25 | Koninklijke Philips N.V. | Apparatus and method for dynamic range transforming of images |
CN102420988B (zh) * | 2011-12-02 | 2013-11-20 | 上海大学 | 一种利用视觉特性的多视点视频编码系统 |
DK3079055T3 (da) * | 2011-12-06 | 2019-06-03 | Dolby Laboratories Licensing Corp | Indretning og fremgangsmåde til at forbedre den perceptuelle luminans ikke-lineæritetsbaserede billeddataudveksling på tværs af forskellige displayegenskaber |
-
2012
- 2012-12-06 DK DK16166823.1T patent/DK3079055T3/da active
- 2012-12-06 ES ES20203810T patent/ES2939867T3/es active Active
- 2012-12-06 CA CA2854071A patent/CA2854071C/en active Active
- 2012-12-06 LT LTEP16166823.1T patent/LT3079055T/lt unknown
- 2012-12-06 US US14/363,129 patent/US9077994B2/en active Active
- 2012-12-06 RS RS20230171A patent/RS64021B1/sr unknown
- 2012-12-06 CN CN201610238033.9A patent/CN106095355B/zh active Active
- 2012-12-06 BR BR122021018508-5A patent/BR122021018508B1/pt active IP Right Grant
- 2012-12-06 CA CA3006841A patent/CA3006841C/en active Active
- 2012-12-06 HR HRP20230252TT patent/HRP20230252T1/hr unknown
- 2012-12-06 DK DK19155297.5T patent/DK3514677T3/da active
- 2012-12-06 EP EP19155297.5A patent/EP3514677B1/en active Active
- 2012-12-06 EP EP20203810.5A patent/EP3800543B1/en active Active
- 2012-12-06 KR KR1020177000411A patent/KR101812469B1/ko active IP Right Grant
- 2012-12-06 ES ES19155297T patent/ES2835379T3/es active Active
- 2012-12-06 SI SI201231858T patent/SI3514677T1/sl unknown
- 2012-12-06 DK DK21197681.6T patent/DK3974956T3/da active
- 2012-12-06 KR KR1020217038376A patent/KR102385015B1/ko active IP Right Grant
- 2012-12-06 SG SG11201401944XA patent/SG11201401944XA/en unknown
- 2012-12-06 KR KR1020217011320A patent/KR102284891B1/ko active IP Right Grant
- 2012-12-06 KR KR1020177019999A patent/KR101865543B1/ko not_active Application Discontinuation
- 2012-12-06 HR HRP20230225TT patent/HRP20230225T1/hr unknown
- 2012-12-06 RS RS20230184A patent/RS64033B1/sr unknown
- 2012-12-06 HU HUE19155297A patent/HUE052566T2/hu unknown
- 2012-12-06 RS RS20211371A patent/RS62554B1/sr unknown
- 2012-12-06 FI FIEP22199319.9T patent/FI4137929T3/fi active
- 2012-12-06 ES ES12808594.1T patent/ES2584681T3/es active Active
- 2012-12-06 HU HUE20203810A patent/HUE061490T2/hu unknown
- 2012-12-06 HU HUE21197681A patent/HUE061704T2/hu unknown
- 2012-12-06 SG SG10201604112PA patent/SG10201604112PA/en unknown
- 2012-12-06 KR KR1020207008319A patent/KR102197647B1/ko active IP Right Grant
- 2012-12-06 RS RS20201431A patent/RS61119B1/sr unknown
- 2012-12-06 PT PT191552975T patent/PT3514677T/pt unknown
- 2012-12-06 HU HUE16166823A patent/HUE043319T2/hu unknown
- 2012-12-06 PT PT202035614T patent/PT3800542T/pt unknown
- 2012-12-06 RU RU2014127489A patent/RU2607618C2/ru active
- 2012-12-06 CA CA3219049A patent/CA3219049A1/en active Pending
- 2012-12-06 MX MX2020004850A patent/MX2020004850A/es unknown
- 2012-12-06 JP JP2014546070A patent/JP5735717B2/ja not_active Expired - Fee Related
- 2012-12-06 SG SG10201604130UA patent/SG10201604130UA/en unknown
- 2012-12-06 CN CN201610238008.0A patent/CN106095353B/zh active Active
- 2012-12-06 PT PT211976816T patent/PT3974956T/pt unknown
- 2012-12-06 KR KR1020157003365A patent/KR101768435B1/ko active IP Right Grant
- 2012-12-06 MY MYPI2017001794A patent/MY193501A/en unknown
- 2012-12-06 CA CA3198226A patent/CA3198226A1/en active Pending
- 2012-12-06 MY MYPI2014001354A patent/MY167086A/en unknown
- 2012-12-06 FI FIEP20203810.5T patent/FI3800543T3/fi active
- 2012-12-06 CA CA3198207A patent/CA3198207C/en active Active
- 2012-12-06 BR BR112014012927A patent/BR112014012927A2/pt not_active Application Discontinuation
- 2012-12-06 EP EP20203561.4A patent/EP3800542B1/en active Active
- 2012-12-06 MX MX2014006445A patent/MX2014006445A/es unknown
- 2012-12-06 CA CA3218784A patent/CA3218784A1/en active Pending
- 2012-12-06 HU HUE20203561A patent/HUE056242T2/hu unknown
- 2012-12-06 KR KR1020207036860A patent/KR102245919B1/ko active IP Right Grant
- 2012-12-06 MX MX2016013419A patent/MX365965B/es unknown
- 2012-12-06 RU RU2016149481A patent/RU2665211C1/ru active
- 2012-12-06 KR KR1020187015470A patent/KR102105317B1/ko active IP Right Grant
- 2012-12-06 EP EP12808594.1A patent/EP2788855B1/en active Active
- 2012-12-06 PT PT202038105T patent/PT3800543T/pt unknown
- 2012-12-06 KR KR1020217023802A patent/KR102332475B1/ko active IP Right Grant
- 2012-12-06 LT LTEP19155297.5T patent/LT3514677T/lt unknown
- 2012-12-06 RS RS20190645A patent/RS58774B1/sr unknown
- 2012-12-06 DK DK20203810.5T patent/DK3800543T3/da active
- 2012-12-06 EP EP22207637.4A patent/EP4155898A1/en active Pending
- 2012-12-06 WO PCT/US2012/068212 patent/WO2013086169A1/en active Application Filing
- 2012-12-06 SI SI201231608T patent/SI3079055T1/sl unknown
- 2012-12-06 MX MX2016013417A patent/MX365964B/es unknown
- 2012-12-06 CA CA3114448A patent/CA3114448C/en active Active
- 2012-12-06 CA CA3114379A patent/CA3114379C/en active Active
- 2012-12-06 EP EP16166823.1A patent/EP3079055B1/en active Active
- 2012-12-06 PL PL16166823T patent/PL3079055T3/pl unknown
- 2012-12-06 CN CN201280060408.7A patent/CN103988165B/zh active Active
- 2012-12-06 CN CN201610238034.3A patent/CN106095356B/zh active Active
- 2012-12-06 DK DK20203561.4T patent/DK3800542T3/da active
- 2012-12-06 ES ES20203561T patent/ES2899579T3/es active Active
- 2012-12-06 CN CN201610237970.2A patent/CN106095351B/zh active Active
- 2012-12-06 CN CN201610237989.7A patent/CN106095352B/zh active Active
- 2012-12-06 AU AU2012347820A patent/AU2012347820B2/en active Active
- 2012-12-06 EP EP22207638.2A patent/EP4160385A1/en active Pending
- 2012-12-06 PL PL20203561T patent/PL3800542T3/pl unknown
- 2012-12-06 EP EP22199319.9A patent/EP4137929B1/en active Active
- 2012-12-06 HR HRP20211707TT patent/HRP20211707T1/hr unknown
- 2012-12-06 FI FIEP21197681.6T patent/FI3974956T3/fi active
- 2012-12-06 CN CN201610238028.8A patent/CN106095354B/zh active Active
- 2012-12-06 EP EP21197681.6A patent/EP3974956B1/en active Active
- 2012-12-06 PT PT221993199T patent/PT4137929T/pt unknown
- 2012-12-06 CA CA2933940A patent/CA2933940C/en active Active
- 2012-12-06 PL PL20203810.5T patent/PL3800543T3/pl unknown
- 2012-12-06 PT PT16166823T patent/PT3079055T/pt unknown
- 2012-12-06 CN CN201610238078.6A patent/CN106095357B/zh active Active
- 2012-12-06 DK DK22199319.9T patent/DK4137929T3/da active
- 2012-12-06 PL PL19155297T patent/PL3514677T3/pl unknown
- 2012-12-06 CN CN201610238087.5A patent/CN106095358B/zh active Active
- 2012-12-06 PL PL21197681.6T patent/PL3974956T3/pl unknown
- 2012-12-06 ES ES21197681T patent/ES2940345T3/es active Active
- 2012-12-06 IN IN3871CHN2014 patent/IN2014CN03871A/en unknown
- 2012-12-06 ES ES16166823T patent/ES2727965T3/es active Active
- 2012-12-06 KR KR1020147014175A patent/KR101550592B1/ko active IP Right Grant
- 2012-12-06 SG SG10201607838PA patent/SG10201607838PA/en unknown
- 2012-12-06 KR KR1020197008788A patent/KR102197273B1/ko active IP Right Grant
- 2012-12-06 KR KR1020227011212A patent/KR102446482B1/ko active IP Right Grant
-
2014
- 2014-05-29 MX MX2019007447A patent/MX2019007447A/es active IP Right Grant
- 2014-05-29 MX MX2019007437A patent/MX2019007437A/es active IP Right Grant
- 2014-10-31 HK HK14110936.0A patent/HK1197471A1/zh unknown
-
2015
- 2015-01-09 HK HK15100277.7A patent/HK1199955A1/xx unknown
- 2015-03-04 JP JP2015042448A patent/JP5951827B2/ja active Active
- 2015-06-10 US US14/735,875 patent/US9288499B2/en active Active
- 2015-10-28 US US14/925,596 patent/US9521419B2/en active Active
-
2016
- 2016-02-23 JP JP2016032053A patent/JP6180566B2/ja active Active
- 2016-05-12 AU AU2016203103A patent/AU2016203103B2/en active Active
- 2016-05-12 AU AU2016203100A patent/AU2016203100B2/en active Active
- 2016-06-08 JP JP2016114271A patent/JP6366641B2/ja active Active
- 2016-06-20 AU AU2016204179A patent/AU2016204179B2/en active Active
- 2016-06-20 AU AU2016204177A patent/AU2016204177B2/en active Active
- 2016-09-30 US US15/283,237 patent/US9697799B2/en active Active
- 2016-09-30 US US15/283,223 patent/US9685139B2/en active Active
-
2017
- 2017-05-31 US US15/610,499 patent/US9959837B2/en active Active
-
2018
- 2018-07-03 JP JP2018126576A patent/JP6640929B2/ja active Active
- 2018-07-16 AU AU2018206694A patent/AU2018206694B2/en active Active
- 2018-08-17 RU RU2018129961A patent/RU2711102C1/ru active
-
2019
- 2019-04-29 HR HRP20190794TT patent/HRP20190794T1/hr unknown
- 2019-05-16 CY CY20191100524T patent/CY1121636T1/el unknown
- 2019-11-15 AU AU2019264649A patent/AU2019264649B2/en active Active
- 2019-12-18 RU RU2019142091A patent/RU2728845C1/ru active
- 2019-12-26 JP JP2019235968A patent/JP7091306B2/ja active Active
-
2020
- 2020-11-27 HR HRP20201891TT patent/HRP20201891T1/hr unknown
- 2020-11-30 CY CY20201101132T patent/CY1123605T1/el unknown
- 2020-12-15 JP JP2020207643A patent/JP7432496B2/ja active Active
-
2021
- 2021-03-23 AU AU2021201806A patent/AU2021201806B2/en active Active
-
2022
- 2022-02-24 AU AU2022201261A patent/AU2022201261B2/en active Active
- 2022-03-23 JP JP2022046929A patent/JP7246542B2/ja active Active
- 2022-04-20 JP JP2022069499A patent/JP2022106814A/ja active Pending
- 2022-06-23 AU AU2022204421A patent/AU2022204421B2/en active Active
- 2022-12-22 AU AU2022291562A patent/AU2022291562B2/en active Active
-
2023
- 2023-03-14 JP JP2023039816A patent/JP7421674B2/ja active Active
- 2023-06-28 AU AU2023204114A patent/AU2023204114A1/en active Pending
- 2023-11-22 JP JP2023197806A patent/JP7568182B2/ja active Active
- 2023-11-22 JP JP2023197807A patent/JP2024009175A/ja active Pending
-
2024
- 2024-03-21 JP JP2024044998A patent/JP2024069635A/ja active Pending
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2940345T3 (es) | Programa informático para mejorar el intercambio de datos de imágenes basado en no linealidad perceptual a través de diferentes capacidades de visualización | |
KR102121676B1 (ko) | 지각 코드 공간에서 디스플레이를 동작시키기 위한 기술들 | |
RU2772241C2 (ru) | Устройство и способ улучшения обмена данными изображения на основе нелинейности восприятия яркости между разными возможностями отображения |