ES2727965T3 - Dispositivo y método para mejorar el intercambio de datos de imágenes basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización - Google Patents

Dispositivo y método para mejorar el intercambio de datos de imágenes basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización Download PDF

Info

Publication number
ES2727965T3
ES2727965T3 ES16166823T ES16166823T ES2727965T3 ES 2727965 T3 ES2727965 T3 ES 2727965T3 ES 16166823 T ES16166823 T ES 16166823T ES 16166823 T ES16166823 T ES 16166823T ES 2727965 T3 ES2727965 T3 ES 2727965T3
Authority
ES
Spain
Prior art keywords
values
image data
digital code
luminance
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16166823T
Other languages
English (en)
Inventor
Jon Scott Miller
Scott Daly
Mahdi Nezamabadi
Robin Atkins
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby Laboratories Licensing Corp
Original Assignee
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=47459140&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2727965(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Dolby Laboratories Licensing Corp filed Critical Dolby Laboratories Licensing Corp
Application granted granted Critical
Publication of ES2727965T3 publication Critical patent/ES2727965T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/153Digital output to display device ; Cooperation and interconnection of the display device with other functional units using cathode-ray tubes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/005Adapting incoming signals to the display format of the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
    • G09G2320/0276Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping for the purpose of adaptation to the characteristics of a display device, i.e. gamma correction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0285Improving the quality of display appearance using tables for spatial correction of display data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/04Maintaining the quality of display appearance
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0428Gradation resolution change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0435Change or adaptation of the frame rate of the video stream
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/06Colour space transformation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/08Details of image data interface between the display device controller and the data line driver circuit
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/08Biomedical applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Processing Of Color Television Signals (AREA)
  • Picture Signal Circuits (AREA)
  • Digital Computer Display Output (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Television Systems (AREA)
  • Lock And Its Accessories (AREA)
  • Studio Devices (AREA)
  • Indicating Measured Values (AREA)

Abstract

Un método que comprende: recibir, por un codificador de datos, datos de imágenes con valores de luminancia que representan valores absolutos de luminancia L que van a codificarse; acceder, por medio del codificador de datos, a una función de codificación OETF para correlacionar valores absolutos de luminancia con valores de código digital; basándose en la recepción y el acceso, codificar, a través del codificador de datos, los datos de imágenes recibidos a datos de imágenes codificados de referencia; y producir, por medio del codificador de datos, los datos de imágenes codificados de referencia, en donde los valores de luminancia de los datos de imágenes recibidos se representan por los valores de código digital en los datos de imágenes codificados de referencia; caracterizado por que la función de codificación OETF se basa al menos en parte en un modelo funcional de:**Fórmula** , en donde: Y es un valor normalizado de uno correspondiente de los valores absolutos de luminancia L, en donde 0 <= Y<= 1, V es un valor normalizado de uno correspondiente de los valores de código digital D que se producen como datos de imágenes codificados de referencia, en donde 0 <= V <= 1, y n, m, c1, c2 y c3 son valores predeterminados, en donde:**Fórmula**

Description

DESCRIPCIÓN
Dispositivo y método para mejorar el intercambio de datos de imágenes basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización
Referencia cruzada con solicitudes relacionadas
Esta solicitud reivindica prioridad de la solicitud de patente provisional de EE. UU. n.° 61/567579, presentada el 6 de diciembre de 2011; de la solicitud de patente provisional de EE. UU. n.° 61/674503, presentada el 23 de julio de 2012 y de la solicitud de patente provisional de EE. UU. n.° 61/703449, presentada el 20 de septiembre de 2012.
Tecnología de la invención
La presente invención se refiere, en general, a los datos de imágenes. Más en particular, una forma de realización de la presente invención se refiere a un intercambio de datos de imágenes basado en no linealidad perceptual a través de diferentes capacidades de visualización.
Antecedentes de la invención
Los avances tecnológicos permiten que diseños modernos de dispositivos de visualización reproduzcan contenido de imagen y vídeo con mejoras significativas en diversas características de calidad sobre el mismo contenido cuando se reproducen en dispositivos de visualización menos modernos. Por ejemplo, algunos dispositivos de visualización más modernos pueden reproducir contenido con un rango dinámico (DR) superior al rango dinámico estándar (SDR) de dispositivos de visualización convencionales o estándar.
Por ejemplo, algunas pantallas de cristal líquido (LCD) modernas tienen una unidad de luz (una unidad de luz posterior, una unidad de luz lateral, etc.) que proporciona un campo de luz en el que partes individuales pueden modularse por separado a partir de la modulación de los estados de alineación de cristal líquido de los elementos LCD activos. Este enfoque de modulación dual puede ampliarse (por ejemplo, a N capas de modulación, en donde N comprende un número entero mayor que dos), por medio de, por ejemplo, capas intermedias controlables (por ejemplo, múltiples capas LCD que pueden controlarse de manera individual) en una configuración electro-óptica de un dispositivo de visualización.
Por el contrario, algunos dispositivos de visualización existentes tienen un rango dinámico (DR) bastante más estrecho que el alto rango dinámico (HDR). Los dispositivos móviles, las tabletas, los dispositivos de juegos, los televisores (TV) y las pantallas de ordenador que usan un tubo de rayos catódicos (CRT), una pantalla de cristal líquido (LCD) con iluminación posterior blanca de fluorescencia constante o tecnología de pantalla de plasma pueden tener una capacidad de reproducción DR limitada aproximadamente a tres órdenes de magnitud. Tales dispositivos de visualización existentes representan por tanto un rango dinámico estándar (SDR), denominado en ocasiones "bajo rango dinámico" o "LDR" en relación con el HDR.
Las imágenes capturadas por cámaras HDR pueden tener un HDR específico de escena que es considerablemente mayor que los rangos dinámicos de la gran mayoría, si no de todos, los dispositivos de visualización. Las imágenes de HDR específico de escena pueden comprender grandes cantidades de datos y pueden convertirse en formatos de posproducción (por ejemplo, señales de vídeo HDMI con RGB de 8 bits, YCbCr u opciones de color intenso; señales de vídeo SDI de 1,5 Gbps con una frecuencia de muestreo 4:2:2 de 10 bits; SDI de 3 Gbps con una frecuencia de muestro 4:4:4 de 12 bits o una frecuencia de muestro 4:2:2 de 10 bits; y otros formatos de vídeo o imagen) para facilitar la transmisión y el almacenamiento. Las imágenes de posproducción pueden comprender un rango dinámico mucho más pequeño que el de las imágenes de HDR específico de escena. Además, puesto que las imágenes se suministran a dispositivos de visualización de los usuarios finales para su reproducción, en el camino se producen transformaciones de imagen específicas de dispositivo y/o específicas de fabricante, generando una gran cantidad de errores visualmente perceptibles en las imágenes reproducidas en comparación con las imágenes originales de HDR específico de escena.
La patente europea EP 1391 865 A1 describe un dispositivo y un método para procesar datos de imágenes de vídeo para exponer en un dispositivo de visualización que tiene una pluralidad de elementos luminosos correspondientes a píxeles de una imagen de vídeo, en donde el brillo de cada píxel es controlado por palabras de código de subcampo correspondientes a un número de impulsos para encender y apagar los elementos luminosos, mezclando colores de dichos datos de imagen de vídeo y codificando por subcampo los datos de imágenes de vídeo mezclados por colores para la exposición. Los valores de brillo de los datos de imágenes de vídeo son correlacionados a niveles de brillo teniendo en cuenta la sensibilidad humana al contraste y se basan en la ley Weber-Fechner.
Los enfoques descritos en esta sección son enfoques que podrían llevarse a cabo, pero no son necesariamente enfoques que se hayan concebido o llevado a cabo anteriormente. Por lo tanto, a no ser que se indique lo contrario, no debe considerarse que los enfoques descritos en este apartado pertenecen a la técnica anterior simplemente por aparecer en esta sección. Asimismo, no debe considerarse que las cuestiones identificadas con respecto a uno o más enfoques pertenecen a la técnica anterior por aparecer en este apartado, a no ser que se indique lo contrario.
Compendio de la invención
La invención está definida por las reivindicaciones independientes, teniendo en cuenta cualquier elemento que sea equivalente a un elemento especificado en las reivindicaciones. Las reivindicaciones dependientes conciernen a características opcionales de algunas formas de realización de la invención, Meramente las formas de realización relacionadas con la ecuación (9), que tiene las constantes ejemplares n, m, c-i, c2 y c3 definidas en las reivindicaciones independientes, representan formas de realización de la invención reivindicada actualmente. Todas las demás apariciones de la palabra "realización (o realizaciones)" se refieren a ejemplos, que se presentaron originalmente pero que no representar formas de realización de la invención reivindicada actualmente; estos ejemplos todavía se muestran únicamente para fines ilustrativos.
Breve descripción de los dibujos
La presente invención se ilustra a modo de ejemplo, y no de manera limitativa, en las figuras de los dibujos adjuntos, donde números de referencia similares se refieren a elementos similares, y en los que:
la FIG. 1 ilustra una familia de ejemplo de curvas de función de sensibilidad al contraste que abarcan una pluralidad de niveles de adaptación de luz, según una forma de realización de ejemplo de la presente invención;
la FIG. 2 ilustra una trayectoria de integración de ejemplo, según una forma de realización de ejemplo de la presente invención;
la FIG. 3 ilustra una función de visualización de escala de grises de ejemplo, según una forma de realización de ejemplo de la presente invención;
la FIG. 4 ilustra una curva que representa fracciones de Weber, según una forma de realización de ejemplo de la presente invención;
la FIG. 5 ilustra una infraestructura de ejemplo de datos de imágenes de intercambio con dispositivos de GSDF diferentes, según una forma de realización de ejemplo de la presente invención;
la FIG. 6 ilustra una unidad de conversión de ejemplo, según una forma de realización de ejemplo de la presente invención;
la FIG. 7 ilustra un dispositivo de visualización SDR de ejemplo, según una forma de realización de ejemplo de la presente invención;
la FIG. 8A ilustra flujo de proceso de ejemplo, según una forma de realización de ejemplo de la presente invención; la FIG. 8B ilustra flujo de proceso de ejemplo, según un ejemplo que es útil para entender la presente invención; la FIG. 9 ilustra una plataforma de hardware de ejemplo en la que puede implementarse un ordenador o un dispositivo informático como los descritos en el presente documento, según una forma de realización de ejemplo de la presente invención;
la FIG. 10A ilustra valores máximos para errores de código en unidades de JND en una pluralidad de espacios de código, cada uno con una longitud diferente de una o más longitudes de bit diferentes, según algunas formas de realización de ejemplo;
las FIG. 10B a la FIG.10C ilustran distribuciones de errores de código, según algunas formas de realización de ejemplo; la FIG. 10D y la FIG. 10E ilustran distribuciones de errores de código según ejemplos que son útiles para entender la presente invención; y
la FIG. 11 ilustra valores de parámetros en un modelo funcional, según una forma de realización de ejemplo.
Descripción de formas de realización de ejemplo
En el presente documento se describen formas de realización de ejemplo que se refieren a intercambio de datos de imágenes basado en no linealidad de luminancia perceptual entre dispositivos de visualización de diferentes capacidades. En la siguiente descripción se presentan, con fines explicativos, numerosos detalles específicos con el fin de proporcionar un entendimiento minucioso de la presente invención. Sin embargo, resultará evidente que la presente invención puede llevarse a la práctica sin estos detalles específicos. En otros casos no se describen en gran detalle estructuras y dispositivos ampliamente conocidos para evitar enturbiar, oscurecer u ofuscar innecesariamente la presente invención.
En el presente documento se describen formas de realización de ejemplo siguiendo estos apartados:
1. VISIÓN GENERAL
2. MODELO DE FUNCIÓN DE SENSIBILIDAD AL CONTRASTE (CSF)
3. NO LINEALIDAD PERCEPTUAL
4. VALORES DE CÓDIGO DIGITAL Y NIVELES DE GRIS
5. PARÁMETROS DE MODELO
6. FRECUENCIAS ESPACIALES VARIABLES
7. MODELOS FUNCIONALES
8. DATOS DE IMÁGENES DE INTERCAMBIO BASADOS EN UNA GSDF DE REFERENCIA
9. CONVERSIÓN DE DATOS DE IMÁGENES CODIFICADOS DE REFERENCIA
10. FLUJOS DE PROCESO DE EJEMPLO
11. MECANISMOS DE IMPLEMENTACIÓN - VISIÓN GLOBAL DEL HARDWARE
12. DIVERSAS FORMAS DE REALIZACIÓN, EQUIVALENCIAS, AMPLIACIONES Y ALTERNATIVAS DE EJEMPLO
1. VISIÓN GENERAL
La siguiente visión general ofrece una descripción básica de algunos aspectos de una forma de realización de la presente invención. Debe observarse que esta visión general no es un compendio extenso o exhaustivo de aspectos de la forma de realización. Además, debe observarse que esta visión general no pretende identificar ningún aspecto o elemento particularmente significativos de la forma de realización, ni delimitar el alcance de la forma de realización en particular ni de la invención en general. Esta visión general simplemente presenta algunos conceptos relacionados con la forma de realización de ejemplo en un formato condensado y simplificado, y debe considerarse simplemente como un preludio conceptual de la descripción más detalla de formas de realización de ejemplo ofrecida a continuación.
La visión humana puede no percibir una diferencia entre dos niveles de luminancia si los dos valores de luminancia no son lo bastante diferentes entre sí. En cambio, la visión humana solo percibe una diferencia si el valor de luminancia difiere en un valor no menor a una diferencia apenas perceptible (JND). Debido a la no linealidad perceptual de la visión humana, las cantidades de JND individuales no están dimensionadas o escaladas de manera uniforme en un intervalo de niveles de luz, sino que varían con diferentes niveles de luz individuales. Además, debido a la no linealidad perceptual, las cantidades de JND individuales no están dimensionadas o escaladas de manera uniforme en un intervalo de frecuencias espaciales en un nivel de luz particular, sino que varían con diferentes frecuencias espaciales por debajo de una frecuencia espacial de corte.
Los datos de imágenes codificados con etapas de cuantización de luminancia del mismo tamaño o de tamaños escalados linealmente no coinciden con la no linealidad perceptual de la visión humana. Los datos de imágenes codificados con etapas de cuantización de luminancia a una frecuencia espacial fija tampoco coinciden con la no linealidad perceptual de la visión humana. Con estas técnicas, cuando se asignan palabras de código para representar valores de luminancia cuantizados, demasiadas palabras de código pueden distribuirse en una región particular (por ejemplo, la región de brillo) del intervalo de niveles de luz, mientras que demasiado pocas palabras de código pueden distribuirse en una región diferente (por ejemplo, la región oscura) del intervalo de niveles de luz.
En la región sobrepoblada, una multitud de palabras de código puede no producir diferencias perceptuales y, por lo tanto, se desperdician a todos los efectos. En la región despoblada, dos palabras de código adyacentes pueden producir una diferencia perceptual mucho mayor que una j Nd y, posiblemente, producen artefactos visuales de distorsión de contorno (lo que también se conoce como efecto de banda).
Con las técnicas descritas en el presente documento, puede usarse un modelo de función de sensibilidad al contraste (CSF) para determinar JND en un amplio intervalo de niveles de luz (por ejemplo, de 0 a 12000 cd/m2). En una forma de realización de ejemplo, se selecciona la JND máxima como función de la frecuencia espacial en un nivel de luz particular para que represente un cuanto de la percepción humana en el nivel de luz particular. La selección de JND máximas se ajusta a los comportamientos de la visión humana, que se adapta a un nivel aumentado de percepción visual cuando se está observando un fondo con valores de luminancia cercanos pero diferentes, lo que en ocasiones se denomina en el campo de la visualización de vídeo e imágenes como efecto de acentuación de contornos y/o efecto Whittle de acentuación de contornos, y que se describirá como tal en el presente documento. Tal y como se usa en el presente documento, el término "nivel de adaptación de luz" puede usarse para hacer referencia a un nivel de luz en el que se selecciona/determina una JND (por ejemplo, máxima), suponiendo que la visión humana está adaptada al nivel de luz. Las JND máximas descritas en el presente documento varían en lo que respecta a la frecuencia espacial en diferentes niveles de adaptación de luz.
Tal y como se usa en el presente documento, el término "frecuencia espacial" puede referirse a una tasa de modulación/variación espacial en imágenes (en donde la tasa se calcula en relación con la distancia espacial, a diferencia de una tasa de cálculo relacionada con el tiempo). A diferencia de los enfoques convencionales que pueden fijar la frecuencia espacial a un valor específico, la frecuencia espacial descrita en el presente documento puede variar, por ejemplo, en un intervalo. En algunas formas de realización, las JND máximas pueden estar limitadas dentro de un intervalo de frecuencias espaciales particular (por ejemplo, de 0.1 a 5.0, de 0.01 a 8.0 ciclos/grados, o un intervalo más pequeño o más grande).
Puede generarse una función de visualización de escala de grises (GSDF) de referencia basándose en el modelo de CSF. En algunas formas de realización para el modelo de CSF se supone un campo de visión muy amplio para generar una GSDF de referencia que dé un mejor soporte al campo de los dispositivos de visualización de entretenimiento. La GSDF se refiere a un conjunto de valores de código digital de referencia (o palabras de código de referencia), un conjunto de niveles de gris de referencia (o valores de luminancia de referencia) y una correlación entre los dos conjuntos. En una forma de realización de ejemplo, cada valor de código digital de referencia corresponde a un cuanto de la percepción humana, representado por una JND (por ejemplo, una JND máxima en un nivel de adaptación de luz). En una forma de realización de ejemplo, un número idéntico de valores de código digital de referencia puede corresponder a un cuanto de la percepción humana.
La GSDF puede obtenerse acumulando JND a partir de un valor inicial. En una forma de realización de ejemplo, se proporciona un valor de palabra de código central (por ejemplo, 2048 para un espacio de código de 12 bits) como valor inicial para un código digital de referencia. El valor inicial del código digital de referencia puede corresponder a un nivel de gris de referencia inicial (por ejemplo, 100 cd/m2). Otros niveles de gris de referencia para otros valores del código digital de referencia pueden obtenerse acumulando de manera positiva (sumando) JND a medida que el código digital de referencia aumenta de uno en uno, y acumulando de manera negativa (restando) JND a medida que el código digital de referencia se reduce de uno en uno. En una forma de realización de ejemplo, pueden usarse cantidades tales como umbrales de contraste para calcular valores de referencia en la GSDF, en lugar de las JND. Estas cantidades usadas realmente en el cálculo de una GSDF pueden definirse como relaciones sin unidades y pueden diferir de las JND correspondientes en solamente multiplicadores, factores de división y/o desviaciones conocidos o determinables.
Puede seleccionarse un espacio de código para que incluya todos los valores de código digital de referencia de la GSDF. En algunas formas de realización, el espacio de código en el que residen todos los valores de código digital de referencia puede ser un espacio de código de 10 bits, un espacio de código de 11 bits, un espacio de código de 12 bits, un espacio de código de 13 bits, un espacio de código de 14 bits, un espacio de código de 15 bits o un espacio de código más grande o más pequeño.
Aunque puede usarse un espacio de código grande (>15 bits) para alojar todos los valores de código digital de referencia, en una forma de realización particular, se usa el espacio de código más eficiente (por ejemplo, 10 bits, 12 bits, etc.) para alojar todos los valores de código digital de referencia generados en una GSDF de referencia.
La GSDF de referencia puede usarse para codificar datos de imágenes, por ejemplo, capturados o generados por cámaras HDR, sistemas de estudio u otros sistemas con un HDR específico de escena que es considerablemente mayor que los rangos dinámicos de la mayor parte, si no todos, de los dispositivos de visualización. Los datos de imágenes codificados pueden proporcionarse a dispositivos aguas abajo en una gran variedad de métodos de distribución o de transmisión (por ejemplo, señales de vídeo HDMI con RGB de 8 bits, YCbCr u opciones de color intenso; señales de vídeo SDI de 1,5 Gbps con una frecuencia de muestreo 4:2:2 de 10 bits; SDI de 3 Gbps con una frecuencia de muestro 4:4:4 de 12 bits o una frecuencia de muestro 4:2:2 de 10 bits; y otros formatos de vídeo o imagen).
En algunas formas de realización, puesto que los valores de código digital de referencia adyacentes de la GSDF de referencia corresponden a niveles de gris que están dentro de una JND, los detalles que la visión humana puede distinguir pueden conservarse total o sustancialmente en los datos de imágenes codificados según la GSDF de referencia. Un dispositivo de visualización que soporta totalmente la GSDF de referencia puede reproducir, posiblemente, imágenes sin efecto de banda o sin artefactos de distorsión del contorno.
Los datos de imágenes codificados basados en la GSDF de referencia (o datos de imágenes codificados de referencia) pueden usarse para soportar una gran variedad de dispositivos de visualización de menor capacidad que no pueden soportar totalmente todos los valores de luminancia de referencia de la GSDF de referencia. Puesto que los datos de imágenes codificados de referencia comprenden todos los detalles perceptuales en el intervalo de luminancia soportado (que puede estar diseñado como un superconjunto de qué dispositivos de visualización soporta), los valores de código digital de referencia pueden transcodificarse de manera óptima y eficaz en valores de código digital específicos de dispositivo de visualización de una manera que conserve tantos detalles como pueda soportar un dispositivo de visualización específico y para provocar los menos errores posibles visualmente apreciables como sea posible. Además y/u opcionalmente, puede llevarse a cabo una difuminación de contornos (decontouring) y una mezcla de colores (dithering) conjuntamente o como parte de la transcodificación desde valores de código digital de referencia a valores de código digital específicos de dispositivo de visualización para mejorar adicionalmente la calidad de las imágenes o del vídeo.
Las técnicas descritas en el presente documento no dependen del espacio de colores. Pueden usarse en un espacio de colores RGB, un espacio de colores YCbCr o un espacio de colores diferente. Además, las técnicas que obtienen valores de referencia (por ejemplo, valores de código digital de referencia y niveles de gris de referencia) usando JND que varían con la frecuencia espacial pueden aplicarse a un canal diferente (por ejemplo, un canal de rojos, un canal de verdes o un canal de azules) distinto a un canal de luminancia en un espacio de colores diferente (por ejemplo, RGB) que puede comprender, o no, un canal de luminancia. Por ejemplo, pueden obtenerse valores de azul de referencia en lugar de niveles de gris de referencia usando JND que pueden aplicarse al canal de color azul. Por tanto, en algunas formas de realización, el color puede sustituir a la escala de grises. Además y/u opcionalmente, también pueden usarse diferentes modelos CSF en lugar del modelo de Barten. Por tanto, pueden usarse diferentes parámetros de modelo para el mismo modelo de CSF.
En algunas formas de realización, los mecanismos descritos en el presente documento forman parte de un sistema de procesamiento multimedia que incluye, pero sin limitarse a estos: dispositivos manuales, máquinas de juegos, televisores, ordenadores portátiles, ordenadores de tamaño agenda, radioteléfonos celulares, lectores de libros electrónicos, terminales de punto de venta, ordenadores de escritorio, estaciones de trabajo informáticas, quioscos informáticos u otros tipos de terminales y unidades de procesamiento multimedia.
Varias modificaciones de las formas de realización preferidas y de los principios y características genéricos descritos en el presente documento resultarán fácilmente evidentes a los expertos en la técnica. Por tanto, la divulgación no pretende limitarse a las formas de realización mostradas, sino que se le concede el alcance más amplio compatible con los principios y características descritos en el presente documento.
2. MODELO DE FUNCIÓN DE SENSIBILIDAD AL CONTRASTE (CSF)
La sensibilidad visual humana para estructuras espaciales en imágenes reproducidas puede describirse mejor con funciones de sensibilidad al contraste (CSF), que describen la sensibilidad al contraste como función de la frecuencia espacial (o la tasa de modulación/variación espacial en imágenes percibidas por un observador humano). Tal y como se usa en el presente documento, la sensibilidad al contraste, S, puede considerarse como una ganancia en el procesamiento de señales neurales de visión human, mientras que los umbrales de contraste, Ct , pueden determinarse a partir de la inversa de la sensibilidad al contraste, por ejemplo:
Contraste - Sensibilidad = S = 1/Ct expresión(1)
Tal y como se usa en el presente documento, el término "umbral de contraste" puede referirse o estar relacionado con el valor más bajo (por ejemplo, una diferencia apenas perceptible) de contraste (relativo) necesario para que los ojos humanos perciban una diferencia de contraste; en algunas formas de realización, los umbrales de contraste también pueden describirse en función de la diferencia apenas perceptible dividida por el nivel de adaptación de luz en un intervalo de valores de luminancia.
En algunas formas de realización, los umbrales de contraste pueden medirse directamente a través de experimentos, sin usar ningún modelo de CSF. Sin embargo, en otras formas de realización, los umbrales de contraste pueden determinarse basándose en un modelo de CSF. Se puede construir un modelo de CSF con una pluralidad de parámetros de modelo y puede usarse para obtener una GSDF cuyas etapas de cuantización en niveles de gris dependen de los niveles de luz, y varían con estos, caracterizados por valores de luminancia y la frecuencia espacial. Puede implementarse una forma de realización de ejemplo basada en uno o más de varios modelos CSF, tales como los descritos en el documento de Peter G. J. Barten, Contrast Sensitivity of the Human Eye and its Effects on Image Quality (1999) (en lo sucesivo, modelo de Barten o modelo de CSF de Barten), o en el documento de Scott Daly, Digital Images and Human Vision, capítulo 17, editado por A. B. Watson, MIT Press (1993) (en lo sucesivo, modelo de Daly). En relación con las formas de realización de ejemplo de la presente invención, los umbrales de contraste usados para generar una función de visualización de escala de grises (GSDF) de referencia pueden obtenerse mediante experimentos, de manera teórica, con un modelo de CSF o mediante una combinación de los mismos.
Tal y como se usa en el presente documento, una GSDF puede referirse a una correlación de una pluralidad de valores de código digital (por ejemplo, 1, 2, 3,..., N) con una pluralidad de niveles de gris (L i , L2, L3,..., Ln), donde los valores de código digital representan valores de índice de umbrales de contraste y los niveles de gris corresponden a los umbrales de contraste, como se muestra en la TABLA 1.
TABLA 1
Figure imgf000007_0002
En una forma de realización, un nivel de gris (por ejemplo, L¡) correspondiente a un valor de código digital (por ejemplo, i) y un nivel de gris adyacente (por ejemplo, L¡+-i) pueden calcularse en relación con un contraste (por ejemplo, C(i)) de la siguiente manera:
C(i) = (Lj+i - L¡)/ (L i+i L¡)
Figure imgf000007_0001
expresión (2)
en donde C(i) representa un contraste para un intervalo de luminancia comprendido entre L y L¡+i . Lmean(i, i+1) comprende un promedio o media aritmética de los dos niveles de gris adyacentes L¡ y L¡+1. El contraste C(¡) está relacionado aritméticamente con una fracción de Weber AL/L en un factor de dos. Aquí, AL representa (L¡+1- L¡) y L representa L¡, L¡+i o un valor intermedio entre L¡ y L¡+i.
En algunas formas de realización, un generador de GSDF puede fijar el contraste C(¡) a un valor igual, o si no proporcional, a un umbral de contraste (por ejemplo, Ct(¡)) en un nivel de luminancia L entre L¡ y L¡+i, inclusive, de la siguiente manera:
C ( i) = k C i'( i) expresión (3)
en donde k representa una constante multiplicativa. En relación con las formas de realización de la presente invención, pueden usarse otras estadísticas/definiciones descriptivas (por ejemplo, la media geométrica, la mediana, el modo, la varianza o la desviación típica) y/o escalamiento (x2, x3, división o multiplicación por un factor de escalamiento, etc.) y/o desviación (+1, 2, -1, -2, suma o resta de desviaciones, etc.) y/o ponderación (por ejemplo, asignar los dos niveles de gris adyacentes con los mismos o diferentes factores de ponderación) para relacionar los umbrales de contraste con los contrastes con el fin de calcular niveles de grises en una GSDF.
Como se ha calculado en las expresiones (1), (2) y (3), los contrastes o los umbrales de contraste pueden comprender un valor relativo y, por tanto, pueden comprender una cantidad sin unidades (por ejemplo, S también puede carecer de unidades).
Un modelo de CSF puede construirse a partir de mediciones de umbrales de contraste básicos o de cálculos basados en una CSF que representa el modelo de CSF. Desafortunadamente, la visión humana es compleja, adaptativa y no lineal, de modo que no hay una curva CSF única que describa la visión humana. En cambio, puede generarse una familia de curvas CSF sobre la base de un modelo de CSF. Incluso con el mismo modelo de CSF, diferentes valores de parámetros de modelo producen gráficos diferentes para la familia de curvas CSF.
3. NO LINEALIDAD PERCEPTUAL
La FIG. 1 ilustra una familia de ejemplo de curvas CSF que abarcan una pluralidad de niveles de adaptación de luz. Solo con fines ilustrativos, la curva CSF más alta representada en la FIG. 1 es para un nivel de adaptación de luz en un valor de luminancia de 1000 candelas por metro cuadrado (cd/m2 o 'nits'), y las otras curvas de altura decreciente son para niveles de adaptación de luz en valores de luminancia decrecientes con factores sucesivos de 10 reducciones. Características importantes que pueden obtenerse de las curvas de CSF son que con una luminancia creciente (niveles de adaptación de luz crecientes), aumenta la sensibilidad global al contraste, incluyendo la sensibilidad al contraste máxima (o pico). La frecuencia espacial máxima a la que llega la sensibilidad al contrate en las curvas de CSF de la FIG. 1 pasa a frecuencias espaciales más altas. Similarmente, la máxima frecuencia espacial perceptible (frecuencia de corte) en las curvas CSF, que es la intersección de las curvas CSF con el eje horizontal (frecuencia espacial), también aumenta.
En una forma de realización de ejemplo, una función CSF que da lugar a una familia de curvas CSF como la ilustrada en la FIG. 1 puede obtenerse con el modelo de CSF de Barten, que tiene en cuenta una pluralidad de efectos clave relacionados con la percepción humana. Una CSF de ejemplo, S(u), (o la inversa del umbral de contraste correspondiente, mt,) según el modelo de CSF de Barten puede calcularse como se muestra en la siguiente expresión (4).
Figure imgf000008_0001
expresión (4)
Los parámetros de modelo de ejemplo usados en la anterior expresión (4) comprenden las siguientes representaciones:
o 2 (el factor numérico) corresponde a una visión binocular (4 si es monocular);
o k representa una relación de señal a ruido, por ejemplo 3.0;
o T representa el tiempo de integración del ojo, por ejemplo 0.1 segundos;
o X q representa el tamaño angular del objeto (por ejemplo, con una forma cuadrada);
o Xmax representa el tamaño angular máximo del área de integración del ojo (por ejemplo, 12 grados); o Nmax representa el número máximo de ciclos que se acumulan mediante la suma de probabilidades, por ejemplo 15 ciclos;
o n representa la eficacia cuántica del ojo, por ejemplo 0.03;
o p representa el factor de conversión de fotón;
o E representa la iluminación retiniana, por ejemplo en unidades de Troland;
o 0 o representa la densidad espectral del ruido neural, por ejemplo, 3x10-8 segundo * grados2; y o uo representa la frecuencia espacial máxima para una inhibición lateral, por ejemplo 7 ciclos/grados.
La función de transferencia de modulación óptica, Mopt, puede expresarse de la siguiente manera:
2 2 2
— 2 K o u
— e expresión (5)
donde a representa un parámetro de modelo relacionado con la pupila y/o el nivel de luz.
El modelo de CSF de Barten descrito anteriormente puede usarse para describir una no linealidad perceptual con respecto a la luminancia. También pueden usarse otros modelos CSF para describir una no linealidad perceptual. Por ejemplo, el modelo de CSF de Barten no tiene en cuenta el efecto de acomodación, que provoca una disminución de la frecuencia espacial de corte en la región de alta frecuencia espacial de la CSF. Este efecto de reducción debido a la acomodación puede expresarse en función de una menor distancia de visionado.
Por ejemplo, para distancias de visionado superiores a 1,5 metros puede conseguirse la máxima frecuencia espacial de corte representada por el modelo de CSF de Barten, sin afectar a la eficacia del modelo de Barten como modelo apropiado para describir la no linealidad perceptual. Sin embargo, para distancias inferiores a 1.5 metros, el efecto de acomodación empieza a ser significativo, reduciendo la precisión del modelo de Barten.
Por tanto, en los dispositivos de visualización de tipo tableta, que tienen distancias más visionado más pequeñas, por ejemplo de 0,5 metros, y en los teléfonos inteligentes, que pueden tener una distancia de visionado tan pequeña como 0,125 metros, el modelo de CSF de Barten puede no ajustarse de manera óptima.
En algunas formas de realización puede usarse el modelo de CSF de Daly, que tiene en cuenta el efecto de acomodación. En una forma de realización particular, el modelo de CSF de Daly puede construirse, en parte, sobre la base de la CSF de Barten, S(u), en la anterior expresión (4), por ejemplo modificando la función de transferencia de modulación óptica, Mopt, en la expresión (5).
4. VALORES DE CÓDIGO DIGITAL Y NIVELES DE GRIS
Una GSDF como la ilustrada en la TABLA 1 correlaciona la no linealidad perceptual usando los valores de código digital para representar niveles de gris vinculados a umbrales de contraste en la visión humana. Los niveles de gris que comprenden todos los valores de luminancia correlacionados pueden distribuirse de tal manera que estén separados óptimamente para coincidir con la no linealidad perceptual de la visión humana.
En algunas formas de realización, cuando el número máximo de niveles de gris en una GSDF es suficientemente elevado con respecto al intervalo máximo de valores de luminancia, los valores de código digital de la GSDF pueden usarse para conseguir el número más bajo (por ejemplo, inferior a un total de 4096 valores de código digital) de niveles de gris sin provocar la visibilidad de la transición entre etapas de niveles de gris (por ejemplo, visible como un falso contorno o banda en una imagen; o un cambio de color en regiones oscuras de una imagen).
En otras formas de realización, puede seguir usándose un número limitado de valores de código digital para representar un amplio rango dinámico de niveles de gris. Por ejemplo, cuando el número máximo de niveles de escala de grises en una GSDF no es suficientemente grande con respecto al intervalo máximo de los niveles de escala de grises (por ejemplo, valores de código digital en una representación de 8 bits con el intervalo de niveles de escala de grises comprendido entre 0 y 12000 nits), la GSDF puede seguir usándose para conseguir el número más bajo (por ejemplo, inferior a un total de 256 valores de código digital) de niveles de gris para reducir o minimizar la visibilidad de la transición entre etapas de niveles de gris. Con esta GSDF, las cantidades/grados de errores/artefactos perceptibles de la transición entre etapas pueden distribuirse de manera uniforme a través de la jerarquía de un número relativamente bajo de niveles de gris en la GSDF. Tal y como se usa en el presente documento, los términos "nivel de escala de grises" y "nivel de gris" pueden usarse de manera intercambiable y pueden referirse a un valor de luminancia representado (un valor de luminancia cuantizado representado en una GSDF).
Los niveles de gris en una GSDF pueden obtenerse acumulando o integrando umbrales de contraste a través de niveles de adaptación de luz (en diferentes valores de luminancia). En algunas formas de realización, las etapas de cuantización entre niveles de gris pueden elegirse de manera que una etapa de cuantización entre dos niveles de gris adyacentes cualesquiera esté dentro de una JND. Un umbral de contraste en un nivel de adaptación de luz particular (o valor de luminancia) puede no ser mayor que la diferencia apenas perceptible (JND) en ese nivel de adaptación particular. Los niveles de gris pueden obtenerse integrando o acumulando fracciones de umbrales de contraste (o JND). En algunas formas de realización, el número de valores de código digital es más que suficiente como para representar todas las JND en el rango dinámico representado de luminancia.
Los umbrales de contraste o, por el contrario, las sensibilidades al contraste, que se usan para calcular los niveles de escala de grises pueden seleccionarse a partir de una curva CSF en una frecuencia espacial diferente de una frecuencia espacial fija para un nivel de adaptación de luz particular (o valor de luminancia). En algunas formas de realización, cada uno de los umbrales de contraste se selecciona a partir de una curva CSF en una frecuencia espacial que corresponde a una sensibilidad al contraste máxima (por ejemplo, debido al efecto de acentuación de contornos de Whittle) para un nivel de adaptación de luz. Además, los umbrales de contraste pueden seleccionarse a partir de curvas CSF en diferentes frecuencias espaciales para diferentes niveles de adaptación de luz.
Una expresión de ejemplo para calcular/acumular los niveles de gris en la GSDF es de la siguiente manera:
GSDF ~ I JND 45
Y.mil !
JND = 1 / S(J\ La) expresión (6)
donde f representa la frecuencia espacial, que puede ser diferente a un número fijado según las técnicas descritas en el presente documento; y La representa el nivel de adaptación de luz. Lmn puede ser el valor de luminancia más bajo de todos los niveles de gris correlacionados. Tal y como se usa en el presente documento, el término "Nit" o su abreviatura "nt" pueden estar relacionados o referirse, con el mismo significado o de manera intercambiable, a una unidad de intensidad de imagen, brillo, luminosidad y/o luminancia que es equivalente o igual a una (1) candela por metro cuadrado (1 Nit = 1 nt = 1 cd/m2). En algunas formas de realización, Lmn puede comprender un valor de cero. En algunas otras formas de realización, Lmn puede comprender un valor distinto de cero (por ejemplo, un determinado nivel de negro intenso, 10-5 nit, 10-7 nit, etc., que puede ser inferior a lo que los dispositivos de visualización pueden conseguir normalmente). En algunas formas de realización, Lmn puede sustituirse por un valor distinto al valor inicial mínimo, tal como un valor intermedio o un valor máximo, que permite realizar cálculos acumulativos con restas o sumas negativas.
En algunas formas de realización, la acumulación de las JND para obtener niveles de gris en una GSDF se lleva a cabo mediante sumas, por ejemplo como se muestra en la expresión (6). En otras formas de realización, puede usarse una integral en lugar de una suma discreta. La integral puede integrarse a lo largo de una trayectoria de integración determinada a partir de una CSF (por ejemplo, la expresión (4)). Por ejemplo, la trayectoria de integración puede comprender sensibilidades al contraste máximas (por ejemplo, diferentes sensibilidades máximas correspondientes a diferentes frecuencias espaciales) para todos los niveles de adaptación de luz en un rango dinámico (de referencia) para la CSF.
Tal y como se usa en el presente documento, una trayectoria de integración puede referirse a una curva de un rango dinámico visible (VDR) usada para representar la no linealidad perceptual humana y para establecer una correlación entre un conjunto de valores de código digital y un conjunto de niveles de gris de referencia (valores de luminancia cuantizados). La correlación puede ser necesaria para satisfacer el criterio de que cada etapa de cuantización (por ejemplo, la diferencia de luminancia de dos niveles de gris adyacentes en la TABLA 1) sea inferior a las JND superiores o inferiores a un nivel de adaptación de luz correspondiente (valor de luminancia). La derivada instantánea (en unidades de nit/ciclo espacial) de la trayectoria de integración en un nivel de adaptación de luz particular (valor de luminancia) es proporcional a la JND en el nivel de adaptación particular. Tal y como se usa en el presente documento, el término "VDR" o "rango dinámico visual" puede hacer referencia a un rango dinámico más amplio que un rango dinámico estándar, y puede incluir, pero sin limitarse a, un rango dinámico amplio hasta el rango dinámico inmediatamente perceptible y la gama de colores que la visión humana puede percibir en un instante.
Sobre la base de las técnicas descritas en el presente documento, puede desarrollarse una GSDF de referencia que sea independiente de cualquier dispositivo de visualización o dispositivo de procesamiento de imágenes específico. En algunas formas de realización, uno o más parámetros de modelo diferentes al nivel de adaptación de luz (luminancia), la frecuencia espacial y el tamaño angular pueden fijarse a valores constantes (o fijos).
5. PARÁMETROS DE MODELO
En algunas formas de realización, el modelo de CSF se construye con valores de parámetro de modelo conservativos que cubren una amplia gama de dispositivos de visualización. El uso de los valores de parámetro de modelo conservativos proporciona JND más pequeñas que las GSDF estándar existentes. Por consiguiente, en algunas formas de realización, la GSDF de referencia de las técnicas descritas en el presente documento pueden soportar valores de luminancia con una gran precisión que supera los requisitos de estos dispositivos de visualización.
En algunas formas de realización, los parámetros de modelo descritos en el presente documento incluyen un parámetro de campo de visión (FOV). El parámetro FOV puede fijarse a un valor de 45 grados, 40 grados, 35 grados, 30 grados, 25 grados u otro valor mayor o menor que soporte una gran variedad de dispositivos de visualización y de escenarios de visionado, incluyendo los usados en los estudios, salas de cine o sistemas de entretenimiento de alta gama.
Los parámetros de modelo descritos en el presente documento pueden incluir un parámetro de tamaño angular, que puede referirse, por ejemplo, a un campo de visión. El parámetro de tamaño angular puede fijarse a un valor de 45 grados x 45 grados, de 40 grados x 40 grados, de 35 grados x 35 grados, de 30 grados x 30 grados, de 25 grados x 25 grados, o a otro valor mayor o menor que soporte una gran variedad de dispositivos de visualización y de escenarios de visionado. En algunas formas de realización, el parámetro de tamaño angular usado en parte para obtener la GSDF de referencia se fija a n grados x m grados, donde n o m puede ser un valor numérico entre 30 y 40, y n y m pueden ser iguales o no.
En algunas formas de realización, se usa un tamaño angular mayor (por ejemplo, 40 grados x 40 grados) para generar una GSDF de referencia con un número mayor de niveles de escala de gris y, por tanto, más sensibilidad al contraste. La GSDF puede usarse para soportar una gran variedad de escenarios de visionado y/o de visualización (por ejemplo, grandes pantallas de vídeo) que pueden necesitar un gran ángulo de visión entre 30 y 40 grados. La GSDF que presenta una mayor sensibilidad debido a la selección de un gran tamaño angular también puede usarse para soportar escenarios de visionado y/o de visualización altamente variables (por ejemplo, salas de cine). Es posible seleccionar tamaños angulares incluso mayores; sin embargo, aumentar el tamaño angular muy por encima de un determinado tamaño angular (por ejemplo, 40 grados) puede producir beneficios marginales relativamente limitados.
En algunas formas de realización, un modelo de GSDF de referencia abarca una gran gama de luminancia. Por ejemplo, los niveles de gris o valores de luminancia cuantizados, que se representan mediante el modelo de GSDF de referencia oscilan entre 0, o aproximadamente 0 (por ejemplo, 10-7 cd/m2), y 12000 cd/m2. El límite inferior de los valores de luminancia representados en el modelo de GSDF de referencia puede ser 10-7 cd/m2 o un valor inferior o superior (por ejemplo, 0, 10-5, 10-8, 10-9 cd/m2, etc.). La GSDF puede usarse para soportar una gran variedad de escenarios de visionado y/o de visualización con diferentes niveles de luz ambiental. La GSDF puede usarse para soportar una gran variedad de dispositivos de visualización con diferentes niveles de negro (en salas de cine, en interiores o en exteriores).
El límite superior de los valores de luminancia representados en el modelo de GSDF de referencia puede ser de 12000 cd/m2 o un valor inferior o superior (por ejemplo, 6000-8000, 8000-10000, 10000-12000, 12000-15000 cd/m2, etc.). La GSDF puede usarse para soportar una gran variedad de escenarios de visionado y/o de visualización con altos rangos dinámicos. La GSDF puede usarse para soportar una gran variedad de dispositivos de visualización con diferentes niveles máximos de luminancia (televisores HDR, pantallas SDR, ordenadores portátiles, tabletas, dispositivos manuales, etc.).
6. FRECUENCIAS ESPACIALES VARIABLES
La FIG. 2 ilustra una trayectoria de integración de ejemplo (denotada como VDR) que puede usarse como trayectoria de integración para obtener niveles de gris en una GSDF de referencia como la descrita en el presente documento, según una forma de realización de ejemplo de la presente invención. En formas de realización, la curva VDR se usa para capturar de manera precisa la sensibilidad al contraste máxima de la visión humana en un alto rango dinámico de valores de luminancia.
Como se ilustra en la FIG. 2, las sensibilidades al contraste máximas no se producen en un valor de frecuencia espacial fijo, sino que se producen en frecuencias espaciales más pequeñas a medida que disminuyen los niveles de adaptación de luz (valores de luminancia). Esto significa que técnicas (por ejemplo, DICOM) con una frecuencia espacial fija pueden subestimar considerablemente las sensibilidades al contraste de la visión humana para los niveles de adaptación de luz oscura (valores de luminancia bajos). Sensibilidades al contraste más bajas dan lugar a umbrales de contraste más altos, dando como resultado mayores tamaños de etapas de cuantización en valores de luminancia cuantizados.
A diferencia de la norma de Generación y Comunicación de Imágenes Médicas Digitales (DICOM), una curva VDR según las técnicas descritas en el presente documento no fija el parámetro de modelo de frecuencia espacial a un valor fijo tal como 4 ciclos por grado. En cambio, la curva VDR varía con la frecuencia espacial y captura de manera precisa las sensibilidades al contraste máximas de la visión humana en varios niveles de adaptación de luz. La curva VDR tiene en cuenta de manera apropiada el efecto de acentuación de contornos debido a la adaptabilidad de la visión humana a una gran variedad de niveles de adaptación de luz, y ayuda a generar una GSDF de referencia de alta precisión. En este caso, el término "alta precisión" significa que los errores perceptuales debidos a la cuantización de los valores de luminancia se eliminan o se reducen considerablemente sobre la base de una GSDF de referencia que captura de mejor y más eficientemente la no linealidad visual humana dentro de la restricción de un espacio de código de tamaño fijo (por ejemplo, uno de 10 bits, 12 bits, etc.).
Puede usarse un proceso de cálculo para calcular niveles de gris en la GSDF de referencia (por ejemplo, TABLA 1). En una forma de realización de ejemplo, el proceso de cálculo es iterativo o recursivo, determina repetidamente los umbrales de contrate (o umbrales de modulación, por ejemplo mt en la expresión 4) a partir de la curva VDR, y aplica los umbrales de contraste para obtener niveles de gris sucesivos en la GSDF de referencia. Este proceso de cálculo puede implementarse con las siguientes expresiones (7):
Figure imgf000011_0001
expresiones(7)
donde j-1, j y j+1 representan índices de tres valores de código digital adyacentes; Lj-i, Lj y Lj+i corresponden a niveles de gris con los que los valores de código digital j-1, j y j+1 están correlacionados, respectivamente. Lmax y Lmin representan respectivamente el valor de luminancia máximo y el valor de luminancia mínimo en una JND o en una fracción de una JND. Usar una JND o una fracción de la misma mantiene la alta precisión de la GSDF de referencia.
El umbral de contraste mt asociado a la JND puede definirse como una cantidad relativa, por ejemplo una diferencia entre Lmax y Lmin, dividida por un valor de luminancia particular de Lmax o Lmin, o estar comprendido entre Lmax y Lmin (por ejemplo, la media de Lmax y Lmin ). En algunas formas de realización, mt puede definirse de manera alternativa como la diferencia entre Lmax y Lmin, dividida por un multiplicador (por ejemplo, 2) de un valor de luminancia particular de Lmax o Lmin, o estar comprendido entre Lmax y Lmin. En la cuantización de los valores de luminancia de una GSDF con respecto a una pluralidad de niveles de gris, Lmax y Lmin pueden hacer referencia a niveles de gris adyacentes de la pluralidad de niveles de gris. Como resultado, Lj puede relacionarse con Lj.i y Lj+i a través de mt, respectivamente, como se muestra en la expresión (7).
En formas de realización alternativas, en lugar de usar expresiones lineales como las ilustradas en la expresión (7), puede usarse una expresión no lineal para relacionar JND o umbrales de contraste con niveles de gris. Por ejemplo, puede usarse una expresión alternativa basada en la desviación típica dividida por la media en lugar de una relación sencilla para el umbral de contraste como la ilustrada.
En algunas formas de realización, una GSDF de referencia cubre un intervalo de 0 a 12000 cd/m2 con valores de código digital representados como un valor entero de 12 bits. Para mejorar adicionalmente la precisión de la GSDF de referencia, mt puede multiplicarse por un valor fraccional f. Además, un valor digital central L2048 (obsérvese que los valores de código digital están al menos limitados a 0 y 4096 como en un espacio de código de 12 bits que es compatible con SDI) puede correlacionarse con 100 cd/m2 La expresión (7) puede generar las siguientes expresiones (8):
Figure imgf000012_0001
en donde el valor de fracción se establece a 0.918177. En la forma de realización de ejemplo, el valor mínimo permitido para los códigos digitales se fija a una palabra de código (o valor entero) 16 fijada a 0 (cd/m2). El segundo valor de código digital más bajo 17 termina en 5.27x10-7 cd/m2, mientras que el valor de código digital 4076 termina en 12000 cd/m2.
La FIG. 3 ilustra una GSDF de ejemplo que correlaciona entre una pluralidad de niveles de gris (en valores de luminancia logarítmicos) y una pluralidad de valores de código digital en un espacio de código de 12 bits, según una forma de realización de ejemplo de la presente invención.
La FIG. 4 ilustra una curva que representa fracciones de Weber (Delta L/L, o AL/L) basadas en niveles de gris de la GSDF de ejemplo de la FIG. 3. La no linealidad perceptual de la visión humana ilustrada en la FIG. 4 se representa en función de los valores de luminancia en un eje de luminancia logarítmico. Las diferencias visuales comparables (por ejemplo, JND) de la visión humana corresponden a valores Delta L/L mayores en valores de luminancia más bajos. La curva de fracciones de Weber se acerca, sin llegar nunca a alcanzar, un valor constante para altos valores de luminancia (por ejemplo una fracción de Weber de 0.002 donde la ley de Weber se cumple para valores de luminancia más altos).
7. MODELOS FUNCIONALES
Puede usarse una o más funciones analíticas para obtener una correlación entre valores de código digital y niveles de gris en una GSDF (GSDF de referencia o GSDF específica de dispositivo), como se describe en el presente documento. La una o más funciones analíticas pueden ser propietarias, basadas en normas o ser ampliaciones de funciones basadas en normas. En algunas formas de realización, un generador de GSDF (por ejemplo, 504 de la FIG.
5) puede generar una GSDF en forma de una o más tablas de consulta (LUT) directas y/o una o más LUT inversas basadas en la una o más funciones (o fórmulas) analíticas. Al menos algunas de estas LUT pueden proporcionarse a varios códecs de datos de imágenes (por ejemplo, 506 de la FIG. 5) o a una gran variedad de dispositivos de visualización que se usarán en las conversiones entre niveles de gris de referencia y niveles de código digital de referencia con el fin de codificar datos de imágenes de referencia. Además, opcionalmente o como alternativa, al menos algunas de las funciones analíticas (con sus coeficientes en representaciones de números enteros o de coma flotante) pueden proporcionarse directamente a códecs de datos de imágenes o a una gran variedad de dispositivos de visualización que se usarán para obtener correlaciones entre valores de código digital y niveles de gris en una GSDF, como se describe en el presente documento, y/o para conversiones entre niveles de gris y niveles de código digital con el fin de codificar datos de imágenes.
En algunas formas de realización, las funciones analíticas descritas en el presente documento comprenden una función directa que puede usarse para predecir un valor de código digital sobre la base de un nivel de gris correspondiente, de la siguiente manera:
Figure imgf000012_0002
expresión (9)
donde D representa un valor de código digital (por ejemplo, de 12 bits), L representa un valor de luminancia o un nivel de gris en nits, n puede representar una pendiente en una sección central de una curva logD/logL proporcionada por la expresión (9), m puede representar el grado de curvatura de la curva logD/logL, y c1, c2 y c3 pueden definir los puntos de extremo y centrales de la curva logD/logL.
En algunas formas de realización, las funciones analíticas comprenden una función inversa que corresponde a la función directa en la expresión (9) y puede usarse para predecir un valor de luminancia sobre la base de un valor de código digital correspondiente, de la siguiente manera:
expresión (10)
Figure imgf000013_0001
Los valores de código digital predichos sobre la base de una pluralidad de valores de luminancia que usan la expresión (9) pueden compararse con valores de código digital observados. Los valores de código digital observados pueden ser, pero sin limitarse solamente a estos, cálculos numéricos basados en un modelo de CSF descrito anteriormente. En una forma de realización, puede calcularse y minimizarse la desviación entre los valores de código digital predichos y los valores de código digital observados para obtener valores óptimos de los parámetros n, m, ci, C2 y C3 en la expresión (9).
Asimismo, los valores de luminancia predichos basándose en una pluralidad de valores de código digital usando la expresión (10) pueden compararse con valores de luminancia observados. Los valores de luminancia observados pueden generarse usando cálculos numéricos basados en un modelo de CSF descrito anteriormente o usando datos de experimentación de la visión humana, pero no están limitados a esto. En una forma de realización, la desviación entre los valores de luminancia predichos y los valores de luminancia observados pueden obtenerse como función de los parámetros n, m, ci, C2 y C3 y minimizarse para obtener valores óptimos de los parámetros n, m, ci, C2, y C3 en la expresión (10).
Un conjunto de valores óptimos de los parámetros n, m, ci, C2 y C3 determinados con la expresión (9) puede ser idéntico o no a un conjunto de valores óptimos de los parámetros n, m, ci, c2 y c3 determinados con la expresión (10). En caso de haber diferencias entre los dos conjuntos, uno o ambos conjuntos pueden usarse para generar una correlación entre valores de código digital y valores de luminancia. En algunas formas de realización, si los dos conjuntos de valores óptimos de los parámetros n, m, ci, c2 y c3 son diferentes, éstos pueden armonizarse, por ejemplo minimizando los errores en las pasadas de ida y vuelta que se introducen llevando a cabo operaciones de codificación directa e inversa con ambas expresiones (9) y (10). En algunas formas de realización pueden realizarse múltiples pasadas de ida y vuelta para estudiar los errores resultantes en los valores de código digital y/o en los valores de luminancia o niveles de gris. En algunas formas de realización, la selección de los parámetros en las expresiones (9) y (10) puede basarse, al menos en parte, en el criterio de que no se produzca error significativo en una, dos o más pasadas de ida y vuelta. Ejemplos de ausencia de errores significativos en pasadas de ida y vuelta pueden incluir, pero sin limitarse solamente a esto, errores inferiores al 0.0001 %, 0.001 %, 0.01 %, 0.1 %, 1 %, 2 %, u otros valores configurables.
Las formas de realización incluyen usar un espacio de código de una o más longitudes de bit diferentes para representar valores de control digital. Los valores optimizados de los parámetros de las expresiones (9) y (10) pueden obtenerse para cada uno de una pluralidad de espacios de código, cada uno con una longitud diferente de una o más longitudes de bit diferentes. Sobre la base de los valores optimizados de las expresiones (9) y (10) pueden determinarse distribuciones de los errores de código (por ejemplo, errores de transformación directa, errores de transformación inversa o errores en pasadas de ida y vuelta en los valores de código digital basados en las expresiones (9) y (10)). En algunas formas de realización, una diferencia numérica de uno (1) en dos valores de código digital corresponde a un umbral de contraste (o corresponde a JND) en un nivel alto entre dos valores de luminancia representados por los dos valores de código digital. La FIG. 10A ilustra valores máximos de errores de código en unidades de JND en una pluralidad de espacios de código, cada uno con una precisión diferente de una o más precisiones diferentes (con diferentes longitudes de bit), según algunas formas de realización de ejemplo. Por ejemplo, sobre la base de los modelos funcionales descritos en el presente documento, el error de código máximo para un espacio de código con una longitud de bits infinita o ilimitada es de 11252. En comparación, sobre la base de un modelo funcional descrito en el presente documento, el error de código máximo para un espacio de código con una longitud de 12 bits (o 4096) es 11298. Esto indica que un espacio de código con una longitud de 12 bits para valores de código digital es una excelente opción con un modelo funcional representado por las expresiones (9) y (10).
La FIG. 10B ilustra una distribución de errores de código para un espacio de código de longitud de 12 bits (o 4096) con una transformación directa (desde valores de luminancia a valores de código digital) como la especificada en la expresión (9), según una forma de realización de ejemplo. La FIG. 10C ilustra una distribución de errores de código para un espacio de código de longitud de 12 bits (o 4096) con una transformación inversa (desde valores de código digital a valores de luminancia) como la especificada en la expresión (10), según una forma de realización de ejemplo. Tanto la FIG. 10B como la FIG. 10C indican errores de código máximos inferiores a 12.5.
La FIG. 11 ilustra valores de parámetros que pueden usarse en las expresiones (9) y (10), según una forma de realización de ejemplo. Como se ilustra, en algunas formas de realización, pueden usarse fórmulas basadas en números enteros para representar/aproximar estos valores no enteros en una implementación específica de un modelo funcional descrito en el presente documento. En algunas otras formas de realización, pueden usarse valores de coma fija o de coma flotante con una precisión de entre una o más precisiones (por ejemplo, de 14, 16 o 32 bits) para representar estos valores no enteros en una implementación específica de un modelo funcional descrito en el presente documento.
Ejemplos que son útiles para entender la presente invención incluyen usar un modelo funcional con fórmulas diferentes a las proporcionadas en las expresiones (9) y (10) (que pueden ser curvas de correlación de tonos). Por ejemplo, un modelo cónico con una fórmula de Naka-Rushton, como la mostrada a continuación, puede ser usado por un modelo funcional descrito en el presente documento:
Figure imgf000014_0001
expresión (11)
en donde L representa valores de luminancia, n, m y a representan parámetros de modelo en asociación con el modelo cónico, y Ld representa valores predichos que pueden codificarse con valores de código digital. Pueden usarse métodos similares para obtener parámetros de modelo minimizando las desviaciones para obtener valores óptimos de los parámetros de modelo para la expresión (11). La FIG. 10D muestra un ejemplo que es útil para entender la presente invención e ilustra una distribución de errores de código para un espacio de código de longitud de 12 bits (o 4096) con una transformación directa (desde valores de luminancia a valores de código digital) como la especificada en la expresión (11), según un ejemplo. En un ejemplo, el error de código máximo ilustrado en la FIG. 10D es de 25 JND.
En otro ejemplo, puede generarse un modelo funcional con una fórmula Raised mu, de la siguiente manera:
6.2
í-(i-.r) expresión (12)
v = (1 ¿O
en donde x representa valores de luminancia, e y representa valores de código digital predichos. Un valor óptimo del parámetro de modelo y puede obtenerse minimizando las desviaciones. La FIG. 10E muestra un ejemplo que es útil para entender la presente invención e ilustra una distribución de errores de código para un espacio de código de longitud de 12 bits (o 4096) con una transformación directa (desde valores de luminancia a valores de código digital) como la especificada en la expresión (12), según una forma de realización de ejemplo. En un ejemplo, el error de código máximo ilustrado en la FlG. 10E es de 17 JND.
Como se ilustra en el presente documento, en algunas formas de realización, puede usarse un modelo funcional para predecir valores de código a partir de valores de luminancia o para predecir valores de luminancia a partir de valores de código. Las fórmulas usadas por el modelo funcional pueden ser invertibles. Puede implementarse la misma lógica de procesamiento, u otra similar, para llevar a cabo transformaciones directas e inversas entre estos valores. En algunas formas de realización, parámetros de modelo que incluyen, pero que no están limitados solamente a estos, exponentes, pueden representarse mediante valores de coma fija o fórmulas basadas en enteros. Por tanto, al menos una parte de la lógica de procesamiento puede implementarse de manera eficiente solamente en hardware, solamente en software o en una combinación de hardware y software. Asimismo, al menos una parte de las LUT generadas con el modelo funcional o las fórmulas de modelo (tales como las expresiones (9) a (12)) pueden implementarse de manera eficaz solamente en hardware, solamente en software o en una combinación de hardware y software (incluyendo ASIC o FPGA). En algunas formas de realización, pueden implementarse uno, dos o más modelos funcionales en un único dispositivo informático, una configuración de múltiples dispositivos informáticos, un servidor, etc. En algunas formas de realización, los errores en valores de código predichos pueden estar en 14 valores de código de valores objetivo u observados en un intervalo total de rango dinámico visible de valores de luminancia. En algunas formas de realización, esto se cumple en las transformaciones directas e inversas. Los mismos o diferentes conjuntos de parámetros de modelo pueden usarse en las transformaciones directas e inversas. La precisión en las pasadas de ida y vuelta puede maximizarse con valores óptimos de los parámetros de modelo. Pueden usarse diferentes espacios de código. En una forma de realización particular, puede usarse un espacio de código con una longitud de 12 bits (4096) para alojar valores de código digital con errores de código mínimos en todo el intervalo del rango dinámico visible.
Tal y como se usa en el presente documento, una GSDF de referencia puede referirse a una GSDF que comprende valores de código digital de referencia y niveles de gris de referencia relacionados según un modelo funcional (cuyos parámetros de modelo pueden determinarse con valores objetivo u observados bajo un modelo de CSF), determinado con cálculos numéricos (por ejemplo, sin determinar ninguna representación funcional de una correlación entre valores de código digital y valores de luminancia) basándose en un modelo de CSF, o determinado con datos obtenidos de estudios de la visión humana. En algunas formas de realización, una GSDF de dispositivo también puede comprender una correlación entre valores de código digital y niveles de gris que pueden representarse de manera analítica con un modelo funcional descrito en el presente documento.
8. DATOS DE IMÁGENES DE INTERCAMBIO BASADOS EN UNA GSDF DE REFERENCIA
Con fines ilustrativos, se ha descrito que los valores de código digital residen en un espacio de código de 12 bits. Sin embargo, la presente invención no está limitada a esto. En una GSDF de referencia pueden usarse valores de código digital con diferentes espacios de código (por ejemplo, profundidades de bit diferentes a 12 bits). Por ejemplo, pueden usarse valores enteros de 10 bits para representar códigos digitales. En lugar de correlacionar un valor de código digital 4076 con un valor de luminancia de 12000 cd/m2 en una representación de 12 bits de códigos digitales, un valor de código digital 1019 puede correlacionarse con el valor de luminancia de 12000 cd/m2 en una representación de 10 bits de códigos digitales. Por tanto, estas y otras variaciones en los espacios de código (profundidades de bit) pueden usarse para valores de código digital en una GSDF de referencia.
La GSDF de referencia puede usarse para datos de imágenes de intercambio entre diferentes GSDF que pueden estar diseñadas de manera individual para cada tipo de dispositivo de adquisición de imágenes o de dispositivo de reproducción de imágenes. Por ejemplo, una GSDF implementada con un tipo específico de dispositivo de adquisición de imágenes o de dispositivo de reproducción de imágenes puede depender, de manera implícita o explícita, de parámetros de modelo que no coinciden con parámetros de modelo de una GSDF estándar o de una GSDF específica de dispositivo con otro tipo de dispositivo de adquisición de imágenes o de dispositivo de reproducción de imágenes.
Una GSDF de referencia puede corresponder a formas curvas como se representa en la FIG. 3 y en la FIG. 4. En términos generales, las formas de las GSDF dependen de parámetros usados para obtener o diseñar las GSDF. Por tanto, una GSDF de referencia depende de un modelo de CSF de referencia y de parámetros de modelo de referencia usados para generar la GSDF de referencia a partir del modelo de CSF de referencia. La forma de curva de una GSDF específica de dispositivo depende del dispositivo específico, que incluye parámetros de visualización y condiciones de visionado si el dispositivo específico es un dispositivo de visualización.
En un ejemplo, un dispositivo de visualización cuyo intervalo soportado de valores de luminancia está limitado a menos de 500 cd/m2 puede no experimentar el aumento de la pendiente en una región de altos valores de luminancia (que se produce cuando la visión humana pasa a tener un comportamiento logarítmico para todas las frecuencias) como se muestra en la FIG. 3. Controlar el dispositivo de visualización con la forma de curva de la FIG. 3 puede dar lugar a una asignación no óptima (por ejemplo, subóptima) de niveles de gris, donde muchos niveles de gris están asignados en las regiones luminosas y no están asignados en un número suficiente en las regiones oscuras.
En otro ejemplo, se diseña un dispositivo de visualización de bajo contraste para usarse en espacios abiertos en varias situaciones de luz natural. El intervalo de luminancia del dispositivo de visualización puede producirse en gran parte o en casi toda la región de comportamiento logarítmico de la FIG. 3. Controlar este dispositivo de visualización de bajo contraste con la forma de curva de la FIG. 3 también puede dar lugar a una asignación no óptima (por ejemplo, subóptima) de niveles de gris, donde muchos niveles de gris están asignados en las regiones oscuras y no están asignados en un número suficiente en las regiones luminosas.
Con las técnicas descritas en el presente documento, cada dispositivo de visualización puede usar su GSDF específica (que depende no solamente de los parámetros de visualización, sino también de las condiciones de visionado que, por ejemplo, afectan al nivel de negro real) para soportar de manera óptima la información perceptual en los datos de imágenes codificados con una GSDF de referencia. La GSDF de referencia es usada por uno o más dispositivos aguas arriba (por ejemplo, de codificación) para la codificación global de datos de imágenes para conservar tantos detalles perceptuales como sea posible. Los datos de imágenes codificados en la GSDF de referencia se suministran después a uno o más dispositivos aguas abajo (por ejemplo, de descodificación). En una forma de realización de ejemplo, la codificación de datos de imágenes basada en las GSDF de referencia es independiente de dispositivos específicos que van a descodificar y/o reproducir posteriormente los datos de imágenes.
Cada dispositivo (por ejemplo, un dispositivo de visualización) tiene su GSDF específica donde se soportan/optimizan los niveles de gris específicos de dispositivo. Los niveles de gris específicos pueden ser conocidos por el fabricante del dispositivo de visualización o pueden haberse diseñado específicamente por el fabricante para soportar la GSDF específica de dispositivo (que puede estar basada, o no, en normas). El controlador de línea del dispositivo puede implementarse con valores de luminancia cuantizados específicos del dispositivo. La optimización puede hacerse mejor para el dispositivo basándose en los valores de luminancia cuantizados específicos para el dispositivo. Además, el nivel de negro oscuro (por ejemplo, el nivel de gris más bajo específico de dispositivo) que puede usarse como límite inferior del intervalo de niveles de gris específicos de dispositivo, puede fijarse sobre la base de, en parte, el nivel de luz ambiental presente y/o la reflectancia óptica del dispositivo (que puede ser conocida por el fabricante). Una vez que se ha fijado así el nivel de negro, pueden obtenerse los niveles de gris específicos de dispositivo o fijarse acumulando de manera implícita o explícita (por ejemplo, acumulando/integrando) etapas de cuantización en el controlador de línea del dispositivo. La derivación y/o el ajuste de los niveles de gris pueden realizarse, o no, en tiempo de ejecución cuando el dispositivo está reproduciendo imágenes concurrentemente.
Por tanto, con las técnicas descritas en el presente documento, las formas de realización de la presente invención pueden incluir, pero no están limitadas solamente a esto, la codificación de datos de imágenes con una GSDF de referencia y la descodificación y reproducción de datos de imágenes con una GSDF específica de dispositivo de visualización.
Las técnicas descritas en el presente documento pueden usarse para datos de imágenes de intercambio entre diversos dispositivos con diferentes GSDF. La FIG. 5 ilustra una infraestructura de ejemplo (500) de datos de imágenes de intercambio con dispositivos de diferentes GSDF, según una forma de realización de ejemplo de la presente invención. Como se ilustra en la FIG. 5, puede usarse un modelo de CSF adaptativo (502) para generar una GSDF de referencia (504). El término "adaptativo" puede referirse a la adaptabilidad de un modelo de CSF a la no linealidad y a los comportamientos de la visión humana. El modelo de CSF adaptativo puede construirse basado en, al menos en parte, una pluralidad de parámetros CSF (o de parámetros de modelo). La pluralidad de los parámetros de modelo incluyen, por ejemplo, el nivel de adaptación de luz, el área de visualización en anchura de grados, el nivel de ruido, la acomodación (distancia de visionado física), la luminancia o el vector de modulación de color (que puede estar, por ejemplo, relacionado con imágenes de prueba o patrones de imágenes usados en el modelo de CSF adaptativo (502)).
Un dispositivo aguas arriba (por ejemplo, de codificación) puede recibir datos de imágenes que van a codificarse con la GSDF de referencia (504) antes de que los datos de imágenes o sus derivados se transmitan o distribuyan a dispositivos aguas abajo (por ejemplo, de descodificación). Los datos de imágenes que van a codificarse pueden estar inicialmente en cualquiera de una pluralidad de formatos (basados en normas, propietarios, ampliaciones de los mismos, etc.) y/o pueden obtenerse a partir de cualquiera de una pluralidad de fuentes de imágenes (cámara, servidor de imágenes, medios tangibles, etc.). Ejemplos de datos de imágenes que van a codificarse incluyen, pero sin limitarse solamente a esto, imágenes sin procesar u otras imágenes de gran profundidad de bits 530. Las imágenes sin procesar u otras imágenes de gran profundidad de bits pueden proceder de una cámara, un sistema de estudio, un sistema de un director artístico, otro sistema de procesamiento de imágenes aguas arriba, un servidor de imágenes, una base de datos de contenido, etc. Los datos de imágenes pueden incluir, pero sin limitarse solamente a esto, fotos digitales, fotogramas de vídeo, imágenes 3D, imágenes que no son 3D, gráficos generados por ordenador, etc. Los datos de imágenes pueden comprender imágenes referidas a escena, imágenes referidas a dispositivo o imágenes con varios rangos dinámicos. Ejemplos de datos de imágenes que van a codificarse pueden incluir una versión de alta calidad de imágenes originales que van a editarse, muestrearse de manera descendente y/o comprimirse, junto con metadatos, en un flujo de bits codificado para su distribución a sistemas de recepción de imágenes (sistemas de procesamiento de imágenes aguas abajo tales como dispositivos de visualización de varios fabricantes). Las imágenes sin procesar u otras imágenes de gran profundidad de bits pueden tener una alta frecuencia de muestreo usada por un profesional, un estudio de arte, una empresa de radiodifusión, una entidad de producción multimedia de alta gama, etc. Los datos de imágenes que van a codificarse también pueden generarse por ordenador total o parcialmente, o pueden obtenerse incluso sobre la base de, total o parcialmente, fuentes de imágenes existentes tales como películas y documentales antiguos.
Tal y como se usa en el presente documento, la expresión "datos de imágenes que van a codificarse" puede referirse a datos de imágenes de una o más imágenes; los datos de imágenes que van a codificarse pueden comprender datos de imágenes de coma flotante o de coma fija, y pueden estar en cualquier espacio de colores. En una forma de realización de ejemplo, la una o más imágenes pueden estar en un espacio de colores RGB. En otra forma de realización de ejemplo, la una o más imágenes pueden estar en un espacio de colores YUV. En un ejemplo, cada píxel de una imagen descrita en el presente documento comprende valores de píxel en coma flotante para todos los canales (por ejemplo, los canales de color rojo, verde y azul en el espacio de colores RGB) definidos en el espacio de colores. En otro ejemplo, cada píxel de una imagen descrita en el presente documento comprende valores de píxel en coma fija para todos los canales (por ejemplo, 16 bits o un número de bits superior/inferior de valores de píxel en coma fija para los canales de color rojo, verde y azul en el espacio de colores RGB) definidos en el espacio de colores. Cada píxel puede comprender opcionalmente y/o como alternativa valores de píxel muestreados de manera descendente para uno o más de los canales en el espacio de colores.
En algunas formas de realización, en respuesta a recibir los datos de imágenes que van a codificarse, un dispositivo aguas arriba de la infraestructura (500) correlaciona valores de luminancia, especificados o determinados a partir de los datos de imágenes, con valores de código digital de referencia de la GSDF de referencia, y genera, basándose en los datos de imágenes que van a codificarse, datos de imágenes codificados de referencia codificados con los valores de código digital de referencia. La operación de correlación, de valores de luminancia basados en datos de imágenes que van a codificarse con valores de código digital de referencia, puede incluir seleccionar valores de código digital de referencia cuyos niveles de gris de referencia correspondientes (por ejemplo, los mostrados en la TABLA 1) coinciden, o se aproximan tanto como cualquier otro valor de luminancia de referencia de la GSDF de referencia, con valores de luminancia como los especificados o determinados a partir de los datos de imágenes que van a codificarse, y sustituir los valores de luminancia por los valores de código digital de referencia en los datos de imágenes codificados de referencia.
Además, opcionalmente o como alternativa, las etapas de preprocesamiento y de posprocesamiento (que pueden incluir, pero sin limitarse solamente a esto, conversión del espacio de colores, muestreo descendente, muestreo ascendente, correlación de tonos, clasificación de colores, descompresión, compresión, etc.) pueden llevarse a cabo como parte de la generación de los datos de imágenes codificados de referencia.
En una forma de realización de ejemplo, la infraestructura (500) puede comprender componentes de software y/o hardware (por ejemplo, una unidad de codificación o de formateo (506)) configurados para codificar y/o formatear los datos de imágenes codificados de referencia en uno o más flujos de bits codificados o archivos de imágenes. Los flujos de bits codificados o archivos de imágenes pueden estar en un formato basado en normas, un formato propietario o un formato ampliado basado, al menos en parte, en un formato basado en normas. Además y/u opcionalmente, los archivos de imágenes o flujos de bits codificados pueden comprender metadatos que contienen uno o más parámetros (por ejemplo, parámetros de modelo, valor de luminancia mínimo, valor de luminancia máximo, valor de código digital mínimo, valor de código digital máximo, etc., como los ilustrados en la TABLA 1, la FIG. 3 y la FIG. 4, un campo de identificación que identifica una CSF entre una pluralidad de CSF, una distancia de visionado de referencia) relacionados con la GSDF de referencia, el preprocesamiento o el posprocesamiento usados para generar los datos de imágenes codificados de referencia.
En algunas formas de realización, la infraestructura (500) puede comprender uno o más dispositivos aguas arriba discretos. Por ejemplo, al menos uno del uno o más dispositivos aguas arriba de la infraestructura (500) puede estar configurados para codificar datos de imágenes basándose en la GSDF de referencia. Los dispositivos aguas arriba pueden comprender componentes de software y/o de hardware configurados para llevar a cabo la funcionalidad relacionada con 502, 504 y 506 de la FIG. 5. Los archivos de imágenes o flujos de bits codificados pueden ser proporcionados por los dispositivos aguas arriba (502, 504 y 506 de la FIG. 5) a través de conexiones de red, interfaces digitales, medios de almacenamiento tangibles, etc., y suministrarse en un flujo de datos de imágenes (508) a otros dispositivos de procesamiento de imágenes para su procesamiento o reproducción.
En algunas formas de realización de ejemplo, la infraestructura (500) comprende además uno o más dispositivos aguas abajo, tales como uno o más dispositivos discretos. Los dispositivos aguas abajo pueden estar configurados para acceder/recibir, a partir del flujo de datos de imágenes (508), los flujos de bits codificados o archivos de imágenes proporcionados por el uno o más dispositivos aguas arriba. Por ejemplo, los dispositivos aguas abajo pueden comprender componentes de software y/o hardware (por ejemplo, una unidad de descodificación o de reformateo (510)) configurados para descodificar y/o reformatear los archivos de imágenes y flujos de bits codificados, y para recuperar/obtener los datos de imágenes codificados de referencia presentes en los mismos. Como se ilustra en la FIG. 5, los dispositivos aguas abajo pueden comprender un conjunto diverso de dispositivos de visualización.
En algunas formas de realización, un dispositivo de visualización (no mostrado) puede estar diseñado y/o implementado para soportar la GSDF de referencia. Puede ofrecerse una reproducción de imágenes HDR de alta precisión si el dispositivo de visualización soporta todos y cada uno de los niveles de gris de la GSDF de referencia. El dispositivo de visualización puede reproducir imágenes con detalles a nivel más fino, o el mismo nivel, que lo que posiblemente puede detectar la visión humana.
En algunos ejemplos que son útiles para entender la presente invención, los valores de código digital nativos del dispositivo de visualización (que pueden implementarse como valores de voltaje digitalizados, por ejemplo niveles de control digital o DDL (digital driving level), en el sistema de visualización) en una GSDF específica de dispositivo pueden corresponder a niveles de gris específicos de dispositivo (o valores de luminancia) diferentes de los de la GSDF de referencia. Los niveles de gris específicos de dispositivo pueden estar diseñados para soportar sRGB, la recomendación 709 u otras especificaciones, incluidas aquellas que usan representaciones relacionadas con densidades complementarias. Además, opcionalmente o como alternativa, los niveles de gris específicos de dispositivo pueden basarse en las características dAc esenciales del control de la visualización.
En algunos ejemplos que son útiles para entender la presente invención, un dispositivo de visualización A (512-A) puede estar diseñado y/o implementado para soportar una GSDF A específica de dispositivo (514-A) de un dispositivo de visualización de rango dinámico visible (VDR). La GSDF A (514-A) puede estar basada en una profundidad de bits de 12 bits (un espacio de código de 12 bits) para valores de código digital específicos de dispositivo, una relación de contraste (CR) de 10000:1 y una gama >P3. La GSDF A (514-A) puede soportar niveles de gris dentro de un primer subintervalo (por ejemplo de 0 a 5000 cd/m2) en todo el intervalo de la GSDF de referencia (504). Como alternativa y/u opcionalmente, la GSDF A (514-A) puede soportar todo el intervalo (de 0 a 12000 cd/m2, por ejemplo) de la GSDF de referencia (504) pero no tiene que comprender todos los niveles de gris de referencia de la GSDF de referencia (504).
En algunos ejemplos que son útiles para entender la presente invención, un dispositivo de visualización B (512-B) puede estar diseñado y/o implementado para soportar una GSDF B específica de dispositivo (514-B) para un rango dinámico más estrecho que el VDR. Por ejemplo, el dispositivo de visualización B (512-B) puede ser un dispositivo de visualización de rango dinámico estándar (s Dr ). Tal y como se usa en el presente documento, los términos "rango dinámico estándar" y "bajo rango dinámico", y/o sus correspondientes abreviaturas "SDR" y "LDR", pueden usarse como sinónimos y/o de manera intercambiable. En algunos ejemplos, la GSDF B (514-B) puede soportar una profundidad de bits de 8 bits para valores de código digital específicos de dispositivo, una relación de contraste (CR) de 500-5.000:1 y una gama de colores como la definida en la recomendación 709. En algunos ejemplos, la GSDF B (514-B) puede proporcionar niveles de gris dentro de un segundo subintervalo (por ejemplo, de 0 a 2000 cd/m2) de la GSDF de referencia (504).
En algunos ejemplos que son útiles para entender la presente invención, un dispositivo de visualización C (512-C) puede estar diseñado y/o implementado para soportar una GSDF C específica de dispositivo (514-C) para un rango dinámico incluso más estrecho que el SDR. Por ejemplo, el dispositivo de visualización C (512-C) puede ser una pantalla de tableta. En algunos ejemplos, la GSDF C (514-C) puede soportar una profundidad de bits de 8 bits para valores de código digital específicos de dispositivo, una relación de contraste (CR) de 100-800:1 y una gama de colores más pequeña que la definida en la recomendación 709. En algunos ejemplos, la GSDF C (514-C) puede soportar niveles de gris dentro de un tercer subintervalo (por ejemplo, de 0 a 1200 cd/m2) de la GSDF de referencia (504).
En algunos ejemplos que son útiles para entender la presente invención, un dispositivo de visualización (por ejemplo un dispositivo de visualización D (512-D)) puede estar diseñado y/o implementado para soportar una GSDF específica de dispositivo (por ejemplo, una GSDF D (514-D)) para un rango dinámico muy limitado mucho más estrecho que el SDR. Por ejemplo, el dispositivo de visualización D (512-D) puede ser un dispositivo de visualización de papel electrónico. En algunos ejemplos, la GSDF D (514-D) puede soportar una profundidad de bits de 6 bits o menos para valores de código digital específicos de dispositivo, una relación de contraste (CR) de 10:1 o menos y una gama de colores mucho más pequeña que la definida en la recomendación 709. En algunos ejemplos, la GSDF D (514-D) puede soportar niveles de gris dentro de un cuarto subintervalo (por ejemplo, de 0 a 100 cd/m2) de la GSDF de referencia (504).
La precisión en la reproducción de imágenes puede escalarse descendentemente de manera apropiada con cada uno de los dispositivos de visualización A a D (512-A a D). En algunos ejemplos, el subconjunto de niveles de gris en cada una de las GSDF A a D específicas de dispositivo (514-A a D) puede correlacionarse, o mapearse, con niveles de gris de referencia soportados en la GSDF de referencia (504) de tal manera como para distribuir de manera uniforme errores perceptivamente apreciables en el intervalo de niveles de gris soportados por ese dispositivo de visualización.
En algunos ejemplos que son útiles para entender la presente invención, un dispositivo de visualización (por ejemplo, uno de los dispositivos 512-A a D) con una GSDF específica de dispositivo (por ejemplo, una de 514-A a D) recibe/extrae datos de imágenes codificados de referencia codificados basándose en una GSDF de referencia. En respuesta, el dispositivo de visualización, o una unidad de conversión (una de las unidades 516-A a D) del mismo, correlaciona valores de código digital de referencia, especificados en los datos de imágenes codificados de referencia, con valores de código digital específicos de dispositivo que son originarios del dispositivo de visualización. Esto puede llevarse a cabo de varias maneras. En un ejemplo, la correlación desde los valores de código digital de referencia a los valores de código digital específicos de dispositivo incluye seleccionar niveles de gris específicos de dispositivo (correspondientes a los valores de código digital específicos de dispositivo) que coinciden, o se aproximan tanto como cualquier otro nivel de gris específico de dispositivo, con los niveles de gris de referencia (correspondientes a los valores de código digital de referencia). En otro ejemplo, la correlación de los valores de código digital de referencia con los valores de código digital específicos de dispositivo incluye (1) determinar valores de luminancia correlacionados con tonos basándose en los niveles de gris de referencia (correspondientes a los valores de código digital de referencia) asociados a la GSDF de referencia, y (2) seleccionar niveles de gris específicos de dispositivo (correspondientes a los valores de código digital específicos de dispositivo) que coincidan, o que se aproximen tanto como cualquier otro nivel de gris específico de dispositivo, con los valores de luminancia correlacionados con tonos.
Posteriormente, el dispositivo de visualización, o un chip de controlador (uno de los chips 518-A a D) del mismo, puede usar los valores de código digital específicos de dispositivo de visualización para reproducir imágenes con niveles de gris específicos de dispositivo que corresponden a los valores de código específicos de dispositivo de visualización.
En términos generales, una GSDF de referencia puede estar basada en un modelo de CSF diferente del que está basada una GSDF específica de dispositivo de visualización. La conversión/correlación entre la GSDF de referencia y la GSDF específica de dispositivo es necesaria. Incluso si el mismo modelo de CSF se usa para generar tanto la GSDF de referencia como una GSDF específica de dispositivo, pueden usarse diferentes valores de parámetros de modelo para obtener las GSDF. Para la GSDF de referencia, pueden fijarse valores de parámetro de modelo de manera conservativa para mantener los detalles para una gran variedad de dispositivos aguas abajo, mientras que para la GSDF específica de dispositivo, los valores de parámetro de modelo pueden reflejar un diseño/implementación específicos y condiciones de visionado bajo las cuales el dispositivo de visualización va a reproducir imágenes. La conversión/correlación entre la GSDF de referencia y la GSDF específica de dispositivo sigue siendo necesaria, ya que los parámetros de condición de visionado del dispositivo de visualización específico (por ejemplo, el nivel de luz ambiental, la reflectancia óptica del dispositivo de visualización) son diferentes de los valores de parámetro de modelo usados para obtener la GSDF de referencia. En este caso, los parámetros de condición de visionado pueden incluir aquéllos que influyen en la calidad de la visualización (por ejemplo, relación de contraste, etc.) y aumentan el nivel de negro (por ejemplo, el nivel de gris más bajo, etc.). La conversión/correlación entre la GSDF de referencia y la GSDF específica de dispositivo de las técnicas descritas en el presente documento mejora la calidad de la reproducción de las imágenes (por ejemplo, mejora la relación de contraste al aumentar los valores de luminancia en regiones de valores elevados, etc.).
9. CONVERSIÓN DE DATOS CODIFICADOS DE REFERENCIA
La FIG. 6 muestra un ejemplo que es útil para entender la presente invención e ilustra una unidad de conversión de ejemplo (por ejemplo 516). La unidad de conversión (516) puede ser, pero sin estar limitada solamente a esto, una unidad (por ejemplo, la 516-A) de una pluralidad de unidades de conversión (por ejemplo, las unidades 516A a D) ilustradas en la FIG. 5. En algunos ejemplos, la unidad de conversión (516) puede recibir primeros datos de definición para una GSDF de referencia (GSDF REF) y segundos datos de definición para una GSDF específica de dispositivo (por ejemplo, la GSDF-A (514-A de la FIG. 5)). Tal y como se usa en el presente documento, los términos "específico de dispositivo" y "específico de dispositivo de visualización" pueden usarse de manera intercambiable si el dispositivo es un dispositivo de visualización.
Basándose en los datos de definición recibidos, la unidad de conversión (516) conecta en cascada la GSDF de referencia con la GSDF específica de dispositivo de visualización para formar una tabla de consulta de conversión (LUT de conversión). La conexión en cascada entre las dos GSDF puede incluir comparar niveles de gris en las dos GSDF y, basándose en los resultados de comparar los niveles de gris, establecer una correlación entre valores de código digital de referencia en la GSDF de referencia y valores de código digital específicos de dispositivo de visualización en la GSDF específica de dispositivo de visualización.
Más específicamente, dado un valor de código digital de referencia en la GSDF de referencia, su nivel de gris de referencia correspondiente puede determinarse sobre la base de la GSDF de referencia. El nivel de gris de referencia así determinado puede usarse para ubicar un nivel de gris específico de dispositivo en la GSDF específica de dispositivo de visualización. En un ejemplo, el nivel de gris específico de dispositivo asignado puede coincidir, o aproximarse tanto como cualquier otro nivel de gris específico de dispositivo de visualización en la GSDF específica de dispositivo de visualización, con el nivel de gris de referencia. En otro ejemplo, un valor de luminancia correlacionado con tonos puede ser obtenido por un operador de correlación de tonos global o local que actúa sobre el nivel de gris de referencia; el nivel de gris específico de dispositivo asignado puede coincidir, o aproximarse tanto como cualquier otro nivel de gris específico de dispositivo de visualización de la GSDF específica de dispositivo de visualización, con el valor de luminancia correlacionado con tonos.
Con el nivel de gris específico de dispositivo, puede identificarse un valor de código digital correspondiente específico de dispositivo de visualización a partir de la GSDF específica de dispositivo de visualización. Puede añadirse o definirse una entrada en la LUT de conversión, que consiste en el valor de código digital de referencia y en el valor de código específico de dispositivo de visualización.
Las etapas descritas anteriormente pueden repetirse para otros valores de código digital de referencia de la GSDF de referencia.
En algunos ejemplos que son útiles para entender la presente invención, una LUT de conversión puede construirse previamente y almacenarse antes de los datos de imágenes cuyo procesamiento va a realizarse basándose en parte en la LUT de conversión recibida y procesada. En ejemplos alternativos se analizan datos de imágenes que van a procesarse con una LUT de conversión. Los resultados del análisis pueden usarse para establecer o al menos ajustar las relaciones de correspondencia entre los valores de código digital de referencia y los valores de código digital específicos de dispositivo. Por ejemplo, si los datos de imágenes indican una concentración o distribución particulares de valores de luminancia, la LUT de conversión puede establecerse de tal manera que se conserve una gran cantidad de detalles en la región concentrada de valores de luminancia.
En algunos ejemplos que son útiles para entender la presente invención, la unidad de conversión (516) comprende uno o más componentes de software y/o hardware (una subunidad de comparación (602)) configurados para comparar etapas de cuantización (por ejemplo, diferencias de valores de luminancia, o AL, entre valores de código digital adyacentes) tanto en la GSDF de referencia como en la GSDF específica de dispositivo de visualización (514-A). Por ejemplo, la etapa de cuantización en un valor de código digital de referencia en la GSDF de referencia puede ser una diferencia de valores de luminancia de referencia (AL de GSDF de referencia), mientras que la etapa de cuantización en un valor de código digital específico de dispositivo de visualización en la GSDF específica de dispositivo de visualización puede ser una diferencia de valores de luminancia específica de dispositivo de visualización (AL de GSDF específica de dispositivo de visualización). En este caso, el valor de código digital específico de dispositivo de visualización corresponde al valor de código digital de referencia (o forma una pareja en la LUT de conversión con este). En algunos ejemplos, la subunidad de comparación (602) compara estas dos diferencias de valores de luminancia. Esta operación es esencialmente una prueba que puede llevarse a cabo basándose en los valores AL u, opcionalmente y/o de manera alternativa, basándose en las pendientes relativas de las dos curvas GSDF.
Las etapas de cuantización para los valores de luminancia en la GSDF específica de dispositivo de visualización pueden superar normalmente las de la GSDF de referencia, ya que uno o más niveles de gris de referencia de la GSDF de referencia (por ejemplo, correspondientes a un dominio de gran profundidad de bits, etc.) se mezclan con niveles de gris específicos de dispositivo de visualización de la GSDF específica de dispositivo de visualización (por ejemplo, correspondientes a un dominio de baja profundidad de bits, etc.). En estos casos, se usa una mezcla de colores para eliminar los artefactos de efecto de banda. Como parte de la mezcla de colores global, la mezcla de colores también se lleva a cabo en píxeles de salida circundantes locales (en el espacio y/o en el tiempo). En cierto sentido, el ojo humano puede representarse como un filtro paso bajo. Al menos en este sentido, calcular el promedio de los píxeles circundantes locales como se describe en el presente documento crea de este modo niveles de gris de salida deseados que reducen y/o eliminan los artefactos visuales de efecto de banda, que de otro modo podrían estar presentes debido a las etapas de gran cuantización en la GSDF específica de dispositivo de visualización.
En casos menos comunes, las etapas de cuantización para valores de luminancia de la GSDF de referencia pueden superar ocasionalmente las de la GSDF específica de dispositivo de visualización. Se usa un proceso basado en un algoritmo de difuminación de contornos, sintetizando un nivel de gris de salida sobre la base de un nivel de gris de entrada, por ejemplo calculando el promedio de píxeles de entrada vecinos.
De manera correspondiente, si la AL de GSDF de referencia es mayor que la AL de GSDF específica de dispositivo de visualización, que es la trayectoria "S" en la FIG. 6, entonces se establece una bandera de algoritmo de difuminación de contornos para una entrada, en la LUT de conversión, que comprende el valor de código digital de referencia y el valor de código digital específico de dispositivo de visualización.
Si la AL de GSDF de referencia es menor que la AL de GSDF específica de dispositivo de visualización, que es la trayectoria "N" en la FIG. 6, entonces se establece una bandera de algoritmo de mezcla de colores para una entrada, en la LUT de conversión, que comprende el valor de código digital de referencia y el valor de código digital específico de dispositivo de visualización.
Si la AL de GSDF de referencia es igual a la AL de GSDF específica de dispositivo de visualización, entonces no se fija una bandera de algoritmo de difuminación de contornos ni una bandera de algoritmo de mezcla de colores para una entrada, en la LUT de conversión, que comprende el valor de código digital de referencia y el valor de código digital específico de dispositivo de visualización.
Las banderas de algoritmos de difuminación de contornos y de mezcla de colores pueden almacenarse con entradas en la LUT de conversión, o pueden almacenarse en una estructura de datos relacionada externa pero vinculada de manera operativa a la LUT de conversión.
En algunos ejemplos que son útiles para entender la presente invención, la unidad de conversión (516) está configurada para recibir datos de imágenes codificados de referencia, que pueden estar en forma de imágenes de entrada de gran profundidad de bits o de coma flotante, y para correlacionar los valores de código digital de referencia especificados en la GSDF de referencia con valores de código digital específicos de dispositivo de visualización especificados en la GSDF específica de dispositivo de visualización. Además de correlacionar valores de código digital entre las GSDF, la unidad de conversión (516) puede estar configurada para llevar a cabo una difuminación de contornos o una mezcla de colores basándose en de los ajustes de las banderas de algoritmo (banderas de algoritmo de difuminación de contornos o banderas de algoritmo de mezcla de colores) descritas anteriormente.
Como se ha indicado, la GSDF de referencia contiene posiblemente una cantidad mayor de detalles que una GSDF específica de dispositivo de visualización; por tanto, la trayectoria "Y" de la FIG. 6 puede no ocurrir, o puede ocurrir con menos frecuencia. En algunos ejemplos, puede omitirse la trayectoria "Y" y el procesamiento relacionado para simplificar la implementación de una unidad de conversión.
En algunos ejemplos que son útiles para entender la presente invención, dado un valor de código digital de referencia determinado para un píxel en los datos de imágenes codificados de referencia, la unidad de conversión (516) busca en la LUT de conversión un valor de código digital correspondiente específico de dispositivo de visualización, y sustituye el valor de código digital de referencia por el valor de código digital correspondiente específico de dispositivo de visualización. Además y/u opcionalmente, la unidad de conversión (516) determina si debe llevarse a cabo un algoritmo de difuminación de contornos o de mezcla de colores para el píxel, basándose en la existencia/establecimiento de una bandera de algoritmo para una entrada, de la LUT de conversión, que comprende el valor de código digital de referencia y el valor de código digital específico de dispositivo de visualización.
Si se determina que no debe llevarse a cabo el algoritmo de difuminación de contornos ni el algoritmo de mezcla de colores (por ejemplo, no hay ninguna indicación o bandera para llevar a cabo alguno de los algoritmos), entonces, por el momento, no se lleva a cabo ni la difuminación de contornos ni la mezcla de colores para el píxel.
Si se determina que debe llevarse a cabo un algoritmo de difuminación de contornos, entonces la unidad de conversión (516) puede llevar a cabo uno o más algoritmos de difuminación de contornos. Llevar a cabo el uno o más algoritmos de difuminación de contornos puede incluir recibir datos de imágenes de píxeles vecinos locales de entrada e introducir los datos de imágenes de los píxeles vecinos locales en los algoritmos de difuminación de contornos.
Si se determina que debe llevarse a cabo un algoritmo de mezcla de colores, entonces la unidad de conversión (516) puede llevar a cabo uno o más algoritmos de mezcla de colores.
El píxel puede seguir estando implicado en la difuminación de contornos o en la mezcla de colores si la unidad de conversión (516) determina que la difuminación de contornos o la mezcla de colores tienen que llevarse a cabo con respecto a píxeles vecinos. En un ejemplo, el nivel de gris (de salida) específico de dispositivo del píxel puede usarse para mezclar colores en píxeles vecinos locales. En otro ejemplo, el nivel de gris (de entrada) de referencia del píxel puede usarse para difuminar el contorno en píxeles vecinos locales.
En algunos ejemplos que son útiles para entender la presente invención, la unidad de conversión (516) proporciona los resultados de procesamiento de las etapas anteriores a unidades o subunidades de procesamiento aguas abajo. Los resultados de procesamiento comprenden datos de imágenes codificados específicos de dispositivo de visualización en el formato de imagen de salida de profundidad de bits específica de dispositivo de visualización codificada con valores de código digital en la GSDF específica de dispositivo de visualización (por ejemplo, GSDF-A).
La FIG. 7 muestra un ejemplo que es útil para entender la presente invención e ilustra un dispositivo de visualización SDR (700) de ejemplo que implementa un procesamiento de imágenes de 8 bits. El dispositivo de visualización SDR (700) o una unidad de descodificación VDR (702) del mismo, recibe una entrada codificada. La entrada codificada comprende datos de imágenes codificados de referencia en un contenedor de datos de imágenes que puede estar en uno de una pluralidad de formatos de contenedor de datos de imágenes. La unidad de descodificación VDR (702) descodifica la entrada codificada y determina/recupera los datos de imágenes codificados de referencia a partir de la misma. Los datos de imágenes codificados de referencia pueden comprender datos de imágenes para píxeles individuales en un espacio de colores (por ejemplo, un espacio de colores RGB, un espacio de colores YCbCr, etc.). Los datos de imágenes para píxeles individuales pueden codificarse con valores de código digital de referencia en una GSDF de referencia.
Además y/u opcionalmente, el dispositivo de visualización SDR (700) comprende una unidad de gestión de visualización (704) que gestiona parámetros de visualización para el dispositivo de visualización SDR (700). Los parámetros de visualización pueden definir, al menos en parte, una GSDF específica de dispositivo de visualización (por ejemplo, la GSDF-B de la FIG. 5) asociada al dispositivo de visualización SDR (700). Los parámetros de visualización que definen la GSDF específica de dispositivo de visualización pueden incluir niveles de gris máximos (max) y mínimos (min) soportados por el dispositivo de visualización SDR (700). Los parámetros de visualización también pueden incluir colores primarios soportados por el dispositivo de visualización SDR, el tamaño de visualización, la reflectancia óptica de la superficie de reproducción de imágenes del dispositivo de visualización SDR y el nivel de luz ambiental. Algunos de los parámetros de visualización pueden estar preconfigurados con valores fijos. Algunos de los parámetros de visualización pueden ser medidos en tiempo real o casi en tiempo real por el dispositivo de visualización SDR (700). Algunos de los parámetros de visualización pueden ser configurados por un usuario del dispositivo de visualización SDR (700). Algunos de los parámetros de visualización pueden preconfigurarse con valores por defecto y pueden sobrescribirse mediante una medición o por un usuario. La unidad de gestión de visualización (704) establece/conforma la no linealidad perceptual de los niveles de gris específicos de dispositivo de visualización basándose en la GSDF de referencia y puede llevar a cabo adicional y/u opcionalmente la correlación de tonos como parte del establecimiento/determinación de los niveles de gris específicos de dispositivo de visualización. Por ejemplo, una LUT de conversión como la ilustrada en la FIG. 5 y/u otros metadatos relacionados (por ejemplo, banderas de procesamiento de mezcla de colores y de difuminación de contornos, etc.) puede ser establecida por la unidad de gestión de visualización (704) con el fin de establecer/constituir la no linealidad perceptual de los niveles de gris específicos de dispositivo de visualización según la GSDF de referencia. Las operaciones en cascada descritas anteriormente pueden implementarse con la unidad de gestión de visualización (704) para crear la LUT de conversión y/u otros metadatos relacionados (712) relacionados con la GSDF de referencia y/o la GSDF específica de dispositivo de visualización. La LUT de conversión y/u otros metadatos relacionados (712) pueden ser accedidos y usados por otras unidades o subunidades del dispositivo de visualización SDR (700). Además, la unidad de conversión LUT y/u otros metadatos relacionados pueden usarse como, o para obtener, metadatos (714) para invertir la no linealidad perceptual. Como se usa en el presente documento, invertir la no linealidad perceptual puede incluir convertir valores de código digital específicos de dispositivo de visualización en niveles de control digital específicos de dispositivo de visualización (por ejemplo, niveles de voltaje digitalizados en el dispositivo de visualización).
Además y/u opcionalmente, el dispositivo de visualización SDR (700) incluye una unidad de conversión (516) como la ilustrada en la FIG. 5 y en la FIG. 6, y un cuantizador perceptual de 8 bits (706). En algunos ejemplos, el dispositivo de visualización SDR (700), o la unidad de conversión (516) y su cuantizador perceptual de 8 bits (706), convierte los datos de imágenes codificados de referencia en una imagen de salida de profundidad de bits específica de dispositivo de visualización codificada con valores de código digital específicos de dispositivo de visualización asociados a la GSDF específica de dispositivo de visualización (por ejemplo, la GSDF-A o la GSDF-B de la FIG. 5), y cuantifica la imagen de salida de profundidad de bits específica de dispositivo de visualización en datos de imágenes codificados perceptualmente en un espacio de código de 8 bits. Tal y como se usa en el presente documento, el término "codificado perceptualmente" puede referirse a un tipo de codificación que está basado en un modelo perceptual de visión humana, tal como una CSF, que da lugar a la GSDF de referencia.
Además y/u opcionalmente, el dispositivo de visualización SDR (700) comprende una unidad de posprocesamiento de vídeo (708) que puede llevar a cabo, pero sin limitarse solamente a esto, ninguna, una o más de las operaciones de procesamiento de imágenes en los datos de imágenes codificados perceptualmente en una representación de luminancia de 8 bits. Estas operaciones de procesamiento de imágenes pueden incluir, pero sin limitarse solamente a esto, compresión, descompresión, conversión del espacio de colores, muestreo descendente, muestreo ascendente o clasificación de colores. Los resultados de estas operaciones pueden proporcionarse a otras partes del dispositivo de visualización SDR (700).
En un ejemplo que es útil para entender la presente invención, el dispositivo de visualización SDR (700) comprende un cuantizador perceptual inverso de 8 bits (710) configurado para convertir valores de código digital específicos de dispositivo de visualización de los resultados de las operaciones de procesamiento de imágenes en niveles de control digital específicos de dispositivo de visualización (por ejemplo, niveles de voltaje digitalizados). Los niveles de control digital específicos de dispositivo de visualización generados (o convertidos desde los valores de código digital) por el cuantizador perceptual inverso (710) pueden soportar específicamente uno de varios tipos de no linealidades de luminancia que pueden soportarse en el dispositivo de visualización SDR (700). En un ejemplo, el cuantizador perceptual inverso (710) convierte valores de código digital específicos de dispositivo de visualización en niveles de control digital específicos de dispositivo de visualización para soportar no linealidades de luminancia asociadas a la recomendación 709. En otro ejemplo, el cuantizador perceptual inverso (710) convierte valores de código digital específicos de dispositivo de visualización en niveles de control digital específicos de dispositivo de visualización para soportar no linealidades de luminancia asociadas a un dominio de luminancia lineal o un dominio de luminancia logarítmico (que puede integrarse de manera relativamente sencilla con operaciones de atenuación locales). En otro ejemplo, el cuantizador perceptual inverso (710) convierte valores de código digital específicos de dispositivo de visualización en niveles de control digital específicos de dispositivo de visualización para soportar una CSF específica de dispositivo de visualización (o su GSDF asociada), con una colocación óptima de niveles de gris específicos de dispositivo de visualización para el dispositivo de visualización (700) específico y posiblemente ajustados para las condiciones de visionado específicas del dispositivo de visualización (700).
10. FLUJOS DE PROCESO DE EJEMPLO
La FIG. 8A ilustra un flujo de proceso de ejemplo, según una forma de realización de la presente invención. En algunas formas de realización, uno o más dispositivos o componentes informáticos, tales como uno o más dispositivos informáticos en la infraestructura (500), pueden llevar a cabo este flujo de proceso. En el bloque 802, un dispositivo informático recibe datos de imágenes que van a codificarse.
En el bloque 804, el dispositivo informático descodifica, basándose en una correlación de referencia entre un conjunto de valores de código digital de referencia y un conjunto de niveles de gris de referencia, los datos de imágenes que van a codificarse en datos de imágenes codificados de referencia. En este caso, los valores de luminancia de los datos de imágenes que van a codificarse se representan mediante el conjunto de valores de código digital de referencia. Una diferencia de luminancia entre dos niveles de gris de referencia representados por dos valores de código digital de referencia adyacentes en el conjunto de valores de código digital de referencia puede ser inversamente proporcional a la sensibilidad al contraste máxima de la visión humana adaptada a un nivel de luz particular.
En el bloque 806, el dispositivo informático proporciona los datos de imágenes codificados de referencia.
En una forma de realización, el dispositivo informático determina una función de visualización de escala de grises (GSDF) de referencia basándose en un modelo de función de sensibilidad al contraste (CSF); la GSDF de referencia especifica la correlación de referencia entre el conjunto de valores de código digital de referencia y el conjunto de niveles de gris de referencia. El modelo de CSF comprende uno o más parámetros de modelo, que pueden tener un tamaño angular que está dentro de un intervalo que comprende uno o más de: entre 25 grados x 25 grados y 30 grados x 30 grados, entre 30 grados x 30 grados y 35 grados x 35 grados, entre 35 grados x 35 grados y 40 grados x 40 grados, entre 40 grados x 40 grados y 45 grados x 45 grados, o mayor que 45 grados x 45 grados.
En una forma de realización, el dispositivo informático asigna un valor de luminancia intermedio, dentro de un intervalo de valores de luminancia soportado por el conjunto de niveles de gris de referencia, a un valor de código digital intermedio en un espacio de código que aloja el conjunto de valores de código digital, y obtiene, llevando a cabo una o más operaciones de acumulación o integración, una pluralidad de subcorrelaciones, donde cada subcorrelación correlaciona un valor de código digital de referencia del conjunto de valores de código digital de referencia con un nivel de gris de referencia del conjunto de niveles de gris de referencia. El valor de luminancia intermedio puede seleccionarse dentro de un intervalo que comprende uno o más de: menos de 50 nits, entre 50 nits y 100 nits inclusive, entre 100 y 500 nits inclusive, o más de 500 nits.
En una forma de realización de ejemplo, el conjunto de niveles de gris de referencia cubre un rango dinámico con un límite superior que tiene un valor de: menos de 500 nits, entre 500 nits y 1000 nits inclusive, entre 1000 y 5000 nits inclusive, entre 5000 nits y 10000 nits inclusive, entre 10000 nits y 15000 nits inclusive o más de 15000 nits.
En una forma de realización, la sensibilidad al contraste máxima se determina a partir de una curva de sensibilidad al contraste entre una pluralidad de curvas de sensibilidad al contraste determinadas según un modelo de función de sensibilidad al contraste (CSF) que presenta parámetros de modelo que comprenden uno o más de una variable de valor de luminancia, una variable de frecuencia espacial u otras variables.
En una forma de realización, al menos dos sensibilidades al contraste máximas determinadas sobre la base de al menos dos curvas de sensibilidad al contraste de la pluralidad de curvas de sensibilidad al contraste se producen en dos valores de frecuencia espacial diferentes.
En una forma de realización, el dispositivo informático convierte una o más imágenes de entrada representadas, recibidas, transmitidas o almacenadas con los datos de imágenes que van a codificarse a partir de una señal de vídeo de entrada en una o más imágenes de salida representadas, recibidas, transmitidas o almacenadas con los datos de imágenes codificados de referencia contenidos en una señal de vídeo de salida.
En una forma de realización, los datos de imágenes que van a codificarse comprenden datos de imágenes codificados en un formato de imagen de alto rango dinámico (h Dr ) de alta resolución, un espacio de colores RGB asociado a la norma Academy Color Encoding Specification (ACES) de la Academy of Motion Picture Arts and Sciences (AMPAS), una norma de espacio de colores P3 de la Digital Cinema Initiative, la norma Reference Input Medium Metric/Reference Output Medium Metric (RIMM/ROMM), un espacio de colores sRGB, un espacio de colores RGB asociado a la Recomendación BT.709 de la Unión Internacional de las Telecomunicaciones (ITU), etc.
En una forma de realización, la diferencia de luminancia entre los dos niveles de gris de referencia representados por los dos valores de código digital de referencia adyacentes es menor que el umbral de diferencia apenas perceptible en el nivel de luz particular.
En una forma de realización, el nivel de luz particular es un valor de luminancia entre los dos valores de luminancia, inclusive.
En una forma de realización, el conjunto de valores de código digital de referencia comprende valores enteros en un espacio de código con una profundidad de bit de: menos de 12 bits, entre 12 bits y 14 bits inclusive, al menos 14 bits, 14 bits o más.
En una forma de realización, el conjunto de niveles de gris de referencia puede comprender un conjunto de valores de luminancia cuantizados.
La FIG. 8B muestra un ejemplo que es útil para entender la presente invención e ilustra otro flujo de proceso de ejemplo. En algunos ejemplos, uno o más dispositivos o componentes informáticos, tales como uno o más dispositivos informáticos de la infraestructura (500), pueden llevar a cabo este flujo de proceso. En el bloque 852, un dispositivo informático determina una correlación de código digital entre un conjunto de valores de código digital de referencia y un conjunto de valores de código digital específicos de dispositivo. En este caso, el conjunto de valores de código digital de referencia se correlaciona en una correlación de referencia con un conjunto de niveles de gris de referencia, mientras que el conjunto de valores de código digital específicos de dispositivo se correlaciona en una correlación específica de dispositivo con un conjunto de niveles de gris específicos de dispositivo.
En el bloque 854, el dispositivo informático recibe datos de imágenes codificados de referencia codificados con el conjunto de valores de código digital de referencia. Los valores de luminancia de los datos de imágenes codificados de referencia están basados en el conjunto de valores de código digital de referencia. Una diferencia de luminancia entre dos niveles de gris de referencia representados por dos valores de código digital de referencia adyacentes en el conjunto de valores de código digital de referencia puede ser inversamente proporcional a la sensibilidad al contraste máxima de la visión humana adaptada a un nivel de luz particular.
En el bloque 856, el dispositivo informático transcodifica, sobre la base de la correlación de código digital, los datos de imágenes codificados de referencia codificados con el conjunto de valores de código digital de referencia en datos de imágenes específicos de dispositivo codificados con el conjunto de códigos de control digital específicos de dispositivo. Los valores de luminancia de los datos de imágenes específicos de dispositivo están basados en el conjunto de valores de código digital específicos de dispositivo.
En un ejemplo que es útil para entender la presente invención, el dispositivo informático determina un conjunto de relaciones de correspondencia entre el conjunto de valores de código digital de referencia y el conjunto de valores de código digital específicos de dispositivo. En este caso, una relación de correspondencia en el conjunto de relaciones de correspondencia relaciona un valor de código digital de referencia del conjunto de valores de código digital de referencia con un valor de código digital específico de dispositivo. El dispositivo informático compara además una primera diferencia de luminancia en el valor de código digital de referencia y una segunda diferencia de luminancia en el valor de código digital específico de dispositivo, y almacena, basándose en la comparación de la primera diferencia de luminancia y la segunda diferencia de luminancia, una bandera de algoritmo que indica si debe llevarse a cabo una mezcla de colores, una difuminación de contornos o ninguna operación para el valor de código digital de referencia.
En un ejemplo que es útil para entender la presente invención, el dispositivo informático determina un valor de código digital de referencia a partir de los datos de imágenes codificados de referencia para un píxel, y determina además si hay una bandera de algoritmo fijada para el valor de código digital de referencia. En respuesta a la determinación de que hay una bandera de algoritmo fijada para llevar a cabo la difuminación de contornos, el dispositivo informático lleva a cabo un algoritmo de difuminación de contornos en el píxel. Como alternativa, en respuesta a la determinación de que hay una bandera de algoritmo fijada para llevar a cabo una mezcla de colores, el dispositivo informático lleva a cabo un algoritmo de mezcla de colores en el píxel.
En una forma de realización, el dispositivo informático reproduce una o más imágenes en un dispositivo de visualización basándose en los datos de imágenes específicos de dispositivo codificados con el conjunto de códigos de control digital específicos de dispositivo. En este caso, el dispositivo de visualización puede ser, pero sin limitarse solamente a esto, una pantalla de rango dinámico visible (VDR), una pantalla de rango dinámico estándar (SDR), una pantalla de un dispositivo informático tipo tableta o una pantalla de un dispositivo manual.
En una forma de realización, una función de visualización de escala de grises (GSDF) específica de dispositivo especifica la correlación específica de dispositivo entre el conjunto de valores de código digital específicos de dispositivo y el conjunto de niveles de gris específicos de dispositivo.
En una forma de realización, la correlación específica de dispositivo se obtiene sobre la base de uno o más parámetros de visualización y en ninguno o más parámetros de condición de visionado.
En una forma de realización, el conjunto de niveles de gris específicos de dispositivo cubre un rango dinámico con un límite superior que tiene un valor de: menos de 100 nits, más de 100 nits pero menos de 500 nits, entre 500 nits y 1000 nits inclusive, entre 1000 y 5000 nits inclusive, entre 5000 nits y 10000 nits inclusive o más de 10000 nits.
En una forma de realización, el dispositivo informático convierte una o más imágenes de entrada representadas, recibidas, transmitidas o almacenadas con los datos de imágenes codificados de referencia de una señal de vídeo de entrada en una o más imágenes de salida representadas, recibidas, transmitidas o almacenadas con los datos de imágenes específicos de dispositivo contenidos en una señal de vídeo de salida.
En una forma de realización, los datos de imágenes específicos de dispositivo soportan la reproducción de imágenes en un formato de imagen de alto rango dinámico (HDR) de alta resolución, un espacio de colores RGB asociado a la norma Academy Color Encoding Specification (ACES) de la Academy of Motion Picture Arts and Sciences (AMPAS), una norma de espacio de colores P3 de la Digital Cinema Initiative, la norma Reference Input Medium Metric/Reference Output Medium Metric (RIMM/ROMM), un espacio de colores sRGB o un espacio de colores RGB asociado a la Recomendación BT.709 de la Unión Internacional de las Telecomunicaciones (ITU).
En una forma de realización, el conjunto de valores de código digital específicos de dispositivo comprende valores enteros en un espacio de código con una profundidad de bit de: 8 bits, más de 8 bits pero menos de 12 bits, 12 bits o más.
En una forma de realización, el conjunto de niveles de gris específicos de dispositivo puede comprender un conjunto de valores de luminancia cuantizados.
En varias formas de realización, un codificador, un descodificador, un sistema, etc. lleva a cabo alguno o una parte de los anteriores métodos descritos.
11. MECANISMOS DE IMPLEMENTACIÓN - VISIÓN GLOBAL DEL HARDWARE
Según una forma de realización, las técnicas descritas en el presente documento se implementan mediante uno o más dispositivos informáticos de propósito especial. Los dispositivos informáticos de propósito especial pueden estar cableados para llevar a cabo las técnicas, o pueden incluir dispositivos electrónicos digitales, tales como uno o más circuitos integrados de aplicación específica (ASIC) o matrices de puertas programables en campo (FPGA), que están programados de manera persistente para llevar a cabo las técnicas, o pueden incluir uno o más procesadores de hardware de propósito general programados para llevar a cabo las técnicas según instrucciones de programa en firmware, memoria, otro almacenamiento o una combinación. Tales dispositivos informáticos de propósito especial también pueden combinar lógica cableada personalizada, ASIC o FPGA con programación personalizada para llevar a cabo las técnicas. Los dispositivos informáticos de propósito especial pueden ser sistemas informáticos de escritorio, sistemas informáticos portátiles, dispositivos manuales, dispositivos de conexión en red o cualquier otro dispositivo que incluya lógica cableada y/o de programa para implementar las técnicas.
Por ejemplo, la FIG. 9 es un diagrama de bloques que ilustra un sistema informático 900 en el que puede implementarse una forma de realización de ejemplo de la invención. El sistema informático 900 incluye un bus 902 u otro mecanismo de comunicación para comunicar información, y un procesador de hardware 904 acoplado al bus 902 para procesar información. El procesador de hardware 904 puede ser, por ejemplo, un microprocesador de propósito general.
El sistema informático 900 también incluye una memoria principal 906, tal como una memoria de acceso aleatorio (RAM) u otro dispositivo de almacenamiento dinámico, acoplada al bus 902 para almacenar información e instrucciones que serán ejecutadas por el procesador 904. La memoria principal 906 también puede usarse para almacenar variables temporales u otra información intermedia durante la ejecución de instrucciones que serán ejecutadas por el procesador 904. Tales instrucciones, cuando están almacenadas en medios de almacenamiento no transitorios accesibles por el procesador 904, convierten el sistema informático 900 en una máquina de propósito especial que está adaptada para llevar a cabo las operaciones especificadas en las instrucciones.
El sistema informático 900 incluye además una memoria de solo lectura (ROM) 908 u otro dispositivo de almacenamiento estático acoplado al bus 902 para almacenar información estática e instrucciones para el procesador 904. Se proporciona un dispositivo de almacenamiento 910, tal como un disco magnético o un disco óptico, y se acopla al bus 902 para almacenar información e instrucciones.
El sistema informático 900 puede estar acoplado, a través del bus 902, a un dispositivo de visualización 912, tal como una pantalla de cristal líquido, para mostrar información al usuario de un ordenador. Un dispositivo de entrada 914, que incluye teclas alfanuméricas y de otro tipo, está acoplado al bus 902 para comunicar información y selecciones de comandos al procesador 904. Otro tipo de dispositivo de entrada de usuario es un control de cursor 916, tal como un ratón, un ratón de bola o teclas de dirección de cursor, que comunica información de dirección y selecciones de comandos al procesador 904 y que controla el movimiento del cursor en el dispositivo de visualización 912. Este dispositivo de entrada tiene normalmente dos grados de libertad en dos ejes, un primer eje (por ejemplo, x) y un segundo eje (por ejemplo, y), que permiten al dispositivo especificar posiciones en un plano.
El sistema informático 900 puede implementar las técnicas descritas en el presente documento usando lógica cableada personalizada, uno o más ASIC o FPGA, firmware y/o lógica de programa que, de manera combinada con el sistema informático, provocan o programan el sistema informático 900 para que sea una máquina de propósito especial. Según una forma de realización, las técnicas del presente documento son realizadas el sistema informático 900 en respuesta a que el procesador 904 ejecute una o más secuencias de una o más instrucciones contenidas en la memoria principal 906. Tales instrucciones puede leerse en la memoria principal 906 desde otro medio de almacenamiento, tal como el dispositivo de almacenamiento 910. La ejecución de las secuencias de instrucciones contenidas en la memoria principal 906 hace que el procesador 904 lleve a cabo las etapas de proceso descritas en el presente documento. En formas de realización alternativas puede usarse un sistema de circuitos cableado en lugar de instrucciones de software o en combinación con estas.
El término "medios de almacenamiento" usado en el presente documento se refiere a cualquier medio no transitorio que almacena datos y/o instrucciones que hacen que una máquina funcione de manera específica. Tales medios de almacenamiento pueden comprender medios no volátiles y/o medios volátiles. Los medios no volátiles incluyen, por ejemplo, discos ópticos o magnéticos, tales como el dispositivo de almacenamiento 910. Los medios volátiles incluyen memoria dinámica, tal como la memoria principal 906. Formas comunes de medios de almacenamiento incluyen, por ejemplo, un disco flexible, un disco duro, una unidad de estado sólido, una cinta magnética o cualquier otro medio de almacenamiento de datos magnético, un CD-ROM, cualquier otro medio de almacenamiento de datos óptico, cualquier medio físico con un patrón de orificios, una RAM, una PROM, una EPROM, una FLASH-EPROM, una NVRAM y cualquier otro chip o cartucho de memoria.
Los medios de almacenamiento son distintos de medios de transmisión pero pueden usarse junto con estos. Los medios de transmisión participan en la trasferencia de información entre los medios de almacenamiento. Por ejemplo, los medios de transmisión incluyen cables coaxiales, hilos de cobre y fibra óptica, incluidos los cables que comprenden el bus 902. Los medios de transmisión también pueden adoptar la forma de ondas de luz o acústicas, tales como las generadas durante las comunicaciones de datos mediante ondas de radio e infrarrojos.
Pueden usarse diversas formas de medios para transmitir una o más secuencias de una o más instrucciones al procesador 904 para su ejecución. Por ejemplo, las instrucciones pueden estar almacenadas inicialmente en un disco magnético o una unidad de estado sólido de un ordenador remoto. El ordenador remoto puede cargar las instrucciones en su memoria dinámica y enviar las instrucciones a través de una línea telefónica usando un módem. Un módem local para el sistema informático 900 puede recibir los datos en la línea telefónica y usar un transmisor de infrarrojos para convertir los datos en una señal de infrarrojos.
Un detector de infrarrojos puede recibir los datos transmitidos en la señal infrarroja, y un sistema de circuitos apropiado puede transferir los datos al bus 902. El bus 902 transmite los datos a la memoria principal 906, desde la que el procesador 904 obtiene y ejecuta las instrucciones. Las instrucciones recibidas por la memoria principal 906 pueden almacenarse opcionalmente en el dispositivo de almacenamiento 910 antes o después de su ejecución por medio del procesador 904.
El sistema informático 900 incluye además una interfaz de comunicaciones 918 acoplada al bus 902. La interfaz de comunicaciones 918 proporciona un acoplamiento de comunicación de datos bidireccional a un enlace de red 920 que está conectado a una red local 922. Por ejemplo, la interfaz de comunicaciones 918 puede ser una tarjeta de red digital de servicios integrados (RDSI), un módem por cable, un módem por satélite o un módem que proporciona una conexión de comunicación de datos hacia un tipo correspondiente de línea telefónica. Como otro ejemplo, la interfaz de comunicaciones 918 puede ser una tarjeta de red de área local (LAN) que proporciona una conexión de comunicación de datos hacia una LAN compatible. También pueden implementarse enlaces inalámbricos. En cualquiera de estas implementaciones, la interfaz de comunicaciones 918 envía y recibe señales eléctricas, electromagnéticas u ópticas que transmiten flujos de datos digitales que representan varios tipos de información.
El enlace de red 920 proporciona normalmente una comunicación de datos, a través de una o más redes, a otros dispositivos de datos. Por ejemplo, en enlace de red 920 puede proporcionar una conexión a través de una red local 922 hacia un ordenador principal 924 o hacia equipos de datos gestionados por un proveedor de servicios de Internet (ISP) 926. A su vez, el ISP 926 proporciona servicios de comunicación de datos a través de la red mundial de comunicación de datos por paquetes, denomina en la actualidad "Internet" 928. Tanto la red local 922 como internet 928 usan señales eléctricas, electromagnéticas u ópticas que transmiten flujos de datos digitales. Las señales a través de las diversas redes y las señales en el enlace de red 920 y a través de la interfaz de comunicaciones 918, que transmiten los datos digitales hacia y desde el sistema informático 900, son formas de ejemplo de medios de transmisión.
El sistema informático 900 puede enviar mensajes y recibir datos, incluyendo código de programa, a través de la(s) red(es), el enlace de red 920 y la interfaz de comunicaciones 918. En el ejemplo de internet, un servidor 930 puede transmitir un código solicitado para un programa de aplicación a través de internet 928, el ISP 926, la red local 922 y la interfaz de comunicaciones 918.
El código recibido puede ser ejecutado por el procesador 904 cuando se recibe, y/o almacenarse en el dispositivo de almacenamiento 910, o en otro almacenamiento no volátil, para su posterior ejecución.
12. DIVERSAS FORMAS DE REALIZACIÓN, EQUIVALENCIAS, AMPLIACIONES Y ALTERNATIVAS DE EJEMPLO
Anteriormente se han descrito formas de realización de ejemplo enumeradas (“EEE”, por sus siglas en inglés Enumerated example embodiments) de la presente invención en relación a intercambio de datos de imágenes basado en no linealidad de luminancia perceptual en dispositivos de visualización de diferentes capacidades. Así, una forma de realización de la presente invención puede estar relacionada con uno o más de los ejemplos, enumerados en la siguiente Tabla 2.
Tabla 2. Formas de realización de ejemplo enumeradas
(EEE1.) Un método que comprende:
recibir datos de imágenes que van a codificarse;
codificar, sobre la base de una correlación de referencia entre un conjunto de valores de código digital de referencia y un conjunto de niveles de gris de referencia, los datos de imágenes recibidos a datos de imágenes codificados de referencia, en donde los valores de luminancia de los datos de imágenes recibidos se representan mediante el conjunto de valores de código digital de referencia, en donde una diferencia de luminancia entre dos niveles de gris de referencia en los datos de imágenes recibidos se representa por dos valores de código digital de referencia adyacentes en el conjunto de valores de código digital de referencia, y en donde la luminancia diferente entre los dos valores de código digital de referencia adyacentes es inversamente proporcional a una sensibilidad al contraste máxima de la visión humana que se adapta en un nivel de luz particular; y
producir los datos de imágenes codificados de referencia.
(EEE2.) El método mencionado en la forma de realización de ejemplo enumerada 1, que comprende además determinar una función de visualización de escala de gris (GSDF) de referencia sobre la base de un modelo de función de sensibilidad al contraste (CSF), en donde la GSDF de referencia especifica la correlación de referencia entre el conjunto de valores de código digital de referencia y el conjunto de niveles de gris de referencia.
(EEE3.) El método mencionado en la forma de realización de ejemplo enumerada 2, en donde el modelo de CSF comprende uno o más parámetros de modelo, y en donde el uno o más parámetros de modelo comprenden un tamaño angular que está dentro de un intervalo que comprende uno o más de: entre 25 grados x 25 grados y 30 grados x 30 grados, inclusive, entre 30 grados x 30 grados y 35 grados x 35 grados, inclusive, entre 35 grados x 35 grados y 40 grados x 40 grados, inclusive, entre 40 grados x 40 grados y 45 grados x 45 grados, inclusive, o mayor que 45 grados x 45 grados.
(EEE4.) El método mencionado en la forma de realización de ejemplo enumerada 1, que comprende además: asignar un valor de luminancia intermedio, dentro de un intervalo de valores de luminancia soportado por el conjunto de niveles de gris de referencia, a un valor de código digital intermedio en un espacio de código que aloja el conjunto de valores de código digital; y obtener, llevando a cabo una o más operaciones de acumulación o integración, una pluralidad de subcorrelaciones, donde cada subcorrelación correlaciona un valor de código digital de referencia del conjunto de valores de código digital de referencia con un nivel de gris de referencia del conjunto de niveles de gris de referencia.
(EEE5.) El método mencionado en la forma de realización de ejemplo enumerada 4, en donde el valor de luminancia intermedio se selecciona dentro de un intervalo que comprende uno o más de: menos de 50 nits, entre 50 nits y 100 nits, inclusive, entre 100 y 500 nits, inclusive, o mayor que 500 nits.
(EEE6.) El método mencionado en la forma de realización de ejemplo enumerada 1, en donde el conjunto de niveles de gris de referencia cubre un rango dinámico con un límite superior que tiene un valor de: menos de 500 nits, entre 500 nits y 1000 nits inclusive, entre 1000 y 5000 nits inclusive, entre 5000 nits y 10000 nits inclusive, entre 10000 nits y 15000 nits inclusive o más de 15000 nits.
(EEE7.) El método mencionado en la forma de realización de ejemplo enumerada 1, en donde la sensibilidad al contraste máxima se determina a partir de una curva de sensibilidad al contraste entre una pluralidad de curvas de sensibilidad al contraste determinadas según un modelo de función de sensibilidad al contraste (CSF) que presenta parámetros de modelo que comprenden uno o más de una variable de valor de luminancia, una variable de frecuencia espacial u otras variables.
(EEE8.) El método mencionado en la forma de realización de ejemplo enumerada 7, en donde al menos dos sensibilidades máximas al contraste determinadas sobre la base de al menos dos curvas de sensibilidad al contraste de la pluralidad de curvas de sensibilidad al contraste se producen en dos valores de frecuencia espacial diferentes.
(EEE9.) El método mencionado en la forma de realización de ejemplo enumerada 1, que comprende además convertir una o más imágenes de entrada representadas, recibidas, transmitidas o almacenadas con los datos de imágenes que van a codificarse a partir de una señal de vídeo de entrada en una o más imágenes de salida representadas, recibidas, transmitidas o almacenadas con los datos de imágenes codificados de referencia contenidos en una señal de vídeo de salida.
(EEE10.) El método mencionado en la forma de realización de ejemplo enumerada 1, en donde los datos de imágenes que van a codificarse comprenden datos de imágenes codificados en un formato de imagen de alto rango dinámico (HDR) de alta resolución, un espacio de colores RGB asociado a la norma Academy Color Encoding Specification (ACES) de la Academy of Motion Picture Arts and Sciences (AMPAS), una norma de espacio de colores P3 de la Digital Cinema Initiative, la norma Reference Input Medium Metric/Reference Output Medium Metric (RIMM/ROMM), o un espacio de colores sRGB, un espacio de colores RGB asociado a la Recomendación BT.709 de la Unión Internacional de las Telecomunicaciones (ITU), etc.
(EEE11.) El método mencionado en la forma de realización de ejemplo enumerada 1, en donde la diferencia de luminancia entre los dos niveles de gris de referencia representados por los dos valores de código digital de referencia adyacentes es menor que el umbral de diferencia apenas perceptible (JND) en el nivel de luz particular.
(EEE12.) El método mencionado en la forma de realización de ejemplo enumerada 1, en donde el nivel de luz particular comprende un valor de luminancia entre los dos valores de luminancia, inclusive.
(EEE13.) El método mencionado en la forma de realización de ejemplo enumerada 1, en donde el conjunto de valores de código digital de referencia comprende valores enteros en un espacio de código con una profundidad de bit de: menos de 12 bits, entre 12 bits y 14 bits inclusive, al menos 14 bits, 14 bits o más.
(EEE14.) El método mencionado en la forma de realización de ejemplo enumerada 1, en donde el conjunto de niveles de gris de referencia puede comprender un conjunto de valores de luminancia cuantizados.
(EEE15.) El método mencionado en la forma de realización de ejemplo enumerada 1, en donde la GSDF de referencia se determina sobre la base de al menos en parte un modelo funcional representado con una o más funciones.
(EEE16.) El método mencionado en la forma de realización de ejemplo enumerada 15, en donde el modelo funcional comprende uno o más parámetros de modelo, y en donde valores de los parámetros de modelo se optimizan a través de minimizar desviaciones entre valores de código predichos y valores de código objetivo.
codificado con el conjunto de valores de código digital de referencia a datos de imágenes específicos de dispositivo codificados con el conjunto de códigos de control digital específicos de dispositivo, en donde valores de luminancia en los datos de imágenes específicos de dispositivo se basan en el conjunto de valores de código digital específicos de dispositivo.
(EEE18.) El método mencionado en la forma de realización de ejemplo enumerada 17, que comprende además: determinar un conjunto de relaciones de correspondencia entre el conjunto de valores de código digital de referencia y el conjunto de valores de código digital específicos de dispositivo, en donde una relación de correspondencia en el conjunto de relaciones de correspondencia relaciona un valor de código digital de referencia del conjunto de valores de código digital de referencia con un valor de código digital específico de dispositivo; comparar una primera diferencia de luminancia en el valor de código digital de referencia y una segunda diferencia de luminancia en el valor de código digital específico de dispositivo, y almacenar, basándose en la comparación de la primera diferencia de luminancia y la segunda diferencia de luminancia, una bandera de algoritmo que indica si debe llevarse a cabo una mezcla de colores, una difuminación de contornos o ninguna operación para el valor de código digital de referencia.
(EEE19.) El método mencionado en la forma de realización de ejemplo enumerada 17, que comprende además: determinar un valor de código digital de referencia a partir de los datos de imágenes codificados de referencia para un píxel, y determinar si hay una bandera de algoritmo fijada para el valor de código digital de referencia.
(EEE20.) El método mencionado en la forma de realización de ejemplo enumerada 19, que comprende además, en respuesta a la determinación de que se fija una bandera de algoritmo para llevar a cabo la difuminación de contornos, llevar a cabo un algoritmo de difuminación de contornos en el píxel.
(EEE21.) El método mencionado en la forma de realización de ejemplo enumerada 19, que comprende además, en respuesta a la determinación de que se fija una bandera de algoritmo para llevar a cabo mezcla de colores, llevar a cabo un algoritmo de mezcla de colores en el píxel.
(EEE22.) El método mencionado en la forma de realización de ejemplo enumerada 17, que comprende además reproducir una o más imágenes en un dispositivo de visualización basándose en los datos de imágenes específicos de dispositivo codificados con el conjunto de códigos de control digital específicos de dispositivo, el dispositivo de visualización es uno de una pantalla de rango dinámico visible (VDR), una pantalla de rango dinámico estándar (SDR), una pantalla de un dispositivo informático tipo tableta, o una pantalla de un dispositivo manual.
(EEE23.) El método mencionado en la forma de realización de ejemplo enumerada 17, en donde una función de visualización de escala de grises (GSDF) específica de dispositivo especifica la correlación específica de dispositivo entre el conjunto de valores de código digital específicos de dispositivo y el conjunto de niveles de gris específicos de dispositivo.
(EEE24.) El método mencionado en la forma de realización de ejemplo enumerada 17, en donde la correlación específica de dispositivo se obtiene sobre la base de uno o más parámetros de visualización y en ninguno o más parámetros de condición de visionado.
(EEE25.) El método mencionado en la forma de realización de ejemplo enumerada 17, en donde el conjunto de niveles de gris específicos de dispositivo cubre un rango dinámico con un límite superior que tiene un valor de: menos de 100 nits, más de 100 nits pero menos de 500 nits, entre 500 nits y 1000 nits, inclusive; entre 1000 y 5000 nits, inclusive; entre 5000 nits y 10000 nits, inclusive; o más de 10000 nits.
(EEE26.) El método mencionado en la forma de realización de ejemplo enumerada 17, que comprende además convertir una o más imágenes de entrada representadas, recibidas, transmitidas o almacenadas con los datos de imágenes codificados de referencia a partir de una señal de vídeo de entrada en una o más imágenes de salida representadas, recibidas, transmitidas o almacenadas con los datos de imágenes específicos de dispositivo contenidos en una señal de vídeo de salida.
(EEE27.) El método mencionado en la forma de realización de ejemplo enumerada 17, en donde los datos de imágenes específicos de dispositivo soportan la reproducción de imágenes en un formato de imagen de alto rango dinámico (HDR) de alta resolución, un espacio de colores RGB asociado a la norma Academy Color Encoding Specification (ACES) de la Academy of Motion Picture Arts and Sciences (AMPAS), una norma de espacio de colores P3 de la Digital Cinema Initiative, la norma Reference Input Medium Metric/Reference Output Medium Metric (RIMM/ROMM), un espacio de colores sRGB o un espacio de colores RGB asociado a la Recomendación BT.709 de la Unión Internacional de las Telecomunicaciones (ITU).
(EEE28.) El método mencionado en la forma de realización de ejemplo enumerada 17, en donde la diferencia de luminancia entre los dos niveles de gris de referencia representados por los dos valores de código digital de referencia adyacentes es menor que el umbral de diferencia apenas perceptible en el nivel de luz particular.
(EEE29.) El método mencionado en la forma de realización de ejemplo enumerada 17, en donde el nivel de luz particular comprende un valor de luminancia entre los dos valores de luminancia, inclusive.
(EEE30.) El método mencionado en la forma de realización de ejemplo enumerada 17, en donde el conjunto de valores de código digital específicos de dispositivo comprende valores enteros en un espacio de código con una profundidad de bit de: 8 bits, más de 8 bits pero menos de 12 bits, o 12 bits o más.
(EEE31.) El método relatado en la forma de realización de ejemplo enumerada 17, en donde el conjunto de niveles de gris específicos de dispositivo comprende un conjunto de valores de luminancia cuantizados.
(EEE32.) El método mencionado en la forma de realización de ejemplo enumerada 17, en donde al menos una de la correlación de referencia y la correlación específica de dispositivo se determina basándose al menos en parte en un modelo funcional representado con una o más funciones.
(EEE33.) El método mencionado en la forma de realización de ejemplo enumerada 32, en donde el modelo funcional comprende uno o más parámetros de modelo, y en donde valores del modelo
(EEE34.) Un codificador para realizar cualquiera de los métodos mencionados en las formas de realización de ejemplo enumeradas 1-16, inclusive.
(EEE37.) Un sistema, que comprende:
un codificador, que se configura para:
recibir datos de imágenes que van a codificarse,
codificar, sobre la base de una correlación de referencia entre un conjunto de valores de código digital de referencia y un conjunto de niveles de gris de referencia, los datos de imágenes recibidos a datos de imágenes codificados de referencia, en donde, los valores de luminancia de los datos de imágenes que van a codificarse se representan mediante el conjunto de valores de código digital de referencia, en donde una diferencia de luminancia entre dos niveles de gris de referencia representados por dos valores de código digital de referencia adyacentes en el conjunto de valores de código digital de referencia es inversamente proporcional a la sensibilidad al contraste máxima de la visión humana adaptada en un nivel de luz particular; y
producir los datos de imágenes codificados de referencia; y
un decodificador, que se configura para:
determinar una correlación de código digital entre el conjunto de valores de código digital de referencia y un conjunto de valores de código digital específicos de dispositivo, en donde el conjunto de valores de código digital específicos de dispositivo se correlaciona en una correlación específica de dispositivo con un conjunto de niveles de gris específicos de dispositivo; recibir los datos de imágenes codificados de referencia; y
transcodificar, sobre la base de la correlación de código digital, los datos de imágenes codificados con el conjunto de valores de código digital de referencia a datos de imágenes específicos de dispositivo codificados con el conjunto de códigos de control digital específicos de dispositivo, en donde valores de luminancia en los datos de imágenes específicos de dispositivo se basan en el conjunto de valores de código digital específicos de dispositivo.
un transcodificador que, sobre la base de la correlación de código digital, trasforma los datos de imágenes codificados con el conjunto de valores de código digital de referencia a datos de imágenes específicos de dispositivo codificados con el conjunto de códigos de control digital específicos de dispositivo, en donde valores de luminancia en los datos de imágenes específicos de dispositivo se basan en el conjunto de valores de código digital específicos de dispositivo.
(EEE39.) El decodificador mencionado en la forma de realización de ejemplo enumerada 38, en donde el decodificador se configura para:
determinar un conjunto de relaciones de correspondencia entre el conjunto de valores de código digital de referencia y el conjunto de valores de código digital específicos de dispositivo, en donde una relación de correspondencia en el conjunto de relaciones de correspondencia relaciona un valor de código digital de referencia del conjunto de valores de código digital de referencia con un valor de código digital específico de dispositivo;
comparar una primera diferencia de luminancia en el valor de código digital de referencia y una segunda diferencia de luminancia en el valor de código digital específico de dispositivo, y almacenar una bandera de algoritmo, sobre la base de en la comparación de la primera diferencia de luminancia y la segunda diferencia de luminancia, en donde la bandera de algoritmo funciona para indicar si debe llevarse a cabo una mezcla de colores, una difuminación de contornos o ninguna operación para el valor de código digital de referencia.
(EEE40.) El decodificador mencionado en la forma de realización de ejemplo enumerada 38, en donde el decodificador se configura además para: determinar un valor de código digital de referencia a partir de los datos de imágenes codificados de referencia para un píxel, y determinar si hay una bandera de algoritmo fijada para el valor de código digital de referencia.
(EEE41.) El decodificador mencionado en la forma de realización de ejemplo enumerada 40, en donde el decodificador se configura además para realizar una función de difuminación de contorno en el píxel, en respuesta a determinar que una bandera de algoritmo está fijada para difuminación de contornos.
(EEE42.) El decodificador mencionado en la forma de realización de ejemplo enumerada 40, en donde el decodificador se configura además para realizar una función de mezcla de colores en el píxel, en respuesta a determinar que una bandera de algoritmo está fijada para mezcla de colores.
(EEE43.) El decodificador mencionado en la forma de realización de ejemplo enumerada 38, en donde el decodificador está configurado además para: reproducir una o más imágenes en un dispositivo de visualización basándose en los datos de imágenes específicos de dispositivo codificados con el conjunto de códigos de control digital específicos de dispositivo, el dispositivo de visualización comprende al menos uno de una pantalla de rango dinámico visible (VDR), una pantalla de rango dinámico estándar (SDR), una pantalla de un dispositivo informático tipo tableta, o una pantalla de un dispositivo manual.
(EEE44.) El decodificador mencionado en la forma de realización de ejemplo enumerada 38, en donde una función de visualización de escala de grises (GSDF) específica de dispositivo especifica la correlación específica de dispositivo entre el conjunto de valores de código digital específicos de dispositivo y el conjunto de niveles de gris específicos de dispositivo.
(EEE45.) El decodificador mencionado en la forma de realización de ejemplo enumerada 38, en donde la correlación específica de dispositivo se obtiene sobre la base de uno o más parámetros de visualización y en ninguno o más parámetros de condición de visionado.
(EEE46.) El método mencionado en la forma de realización de ejemplo enumerada 38, en donde el conjunto de niveles de gris específicos de dispositivo abarca (p. ej. cubre) un rango dinámico con un límite superior que tiene un valor de: menos de 100 nits, más de 100 nits pero menos de 500 nits, entre 500 nits y 1000 nits, inclusive; entre 1000 y 5000 nits, inclusive; entre 5000 nits y 10000 nits, inclusive; o más de 10000 nits.
(EEE47.) El decodificador mencionado en la forma de realización de ejemplo enumerada 38, que comprende además un convertidor para convertir una o más imágenes de entrada representadas, recibidas, transmitidas o almacenadas con los datos de imágenes codificados de referencia a partir de una señal de vídeo de entrada en una o más imágenes de salida representadas, recibidas, transmitidas o almacenadas con los datos de imágenes específicos de dispositivo contenidos en una señal de vídeo de salida.
(EEE48.) El decodificador mencionado en la forma de realización de ejemplo enumerada 38, en donde los datos de imágenes específicos de dispositivo soportan la reproducción de imágenes en un formato de imagen de alto rango dinámico (h Dr ) de alta resolución, un espacio de colores RGB asociado a la norma Academy Color Encoding Specification (ACES) de la Academy of Motion Picture Arts and Sciences (AMPAS), una norma de espacio de colores P3 de la Digital Cinema Initiative, la norma Reference Input Médium Metric/Reference Output Médium Metric (RIMM/ROMM), un espacio de colores sRGB o un espacio de colores RGB asociado a la Recomendación BT.709 de la Unión Internacional de las Telecomunicaciones (ITU).
(EEE49.) El decodificador mencionado en la forma de realización de ejemplo enumerada 38, en donde la diferencia de luminancia entre los dos niveles de gris de referencia representados por los dos valores de código digital de referencia adyacentes es menor que el umbral de diferencia apenas perceptible (JND) en el nivel de luz particular.
(EEE50.) El decodificador mencionado en la forma de realización de ejemplo enumerada 38, en donde el nivel de luz particular comprende un valor de luminancia que se encuentra entre los dos valores de luminancia, inclusive.
(EEE51.) El decodificador mencionado en la forma de realización de ejemplo enumerada 38, en donde el conjunto de valores de código digital específicos de dispositivo comprende valores enteros en un espacio de código con una profundidad de bit de: 8 bits, más de 8 bits pero menos de 12 bits, o 12 bits o más.
(EEE52.) El decodificador relatado en la forma de realización de ejemplo enumerada 31, en donde el conjunto de niveles de gris específicos de dispositivo comprende un conjunto de valores de luminancia cuantizados.
(EEE53.) El decodificador mencionado en la forma de realización de ejemplo enumerada 38, en donde al menos una de la correlación de referencia y la correlación específica de dispositivo se determina basándose al menos en parte en un modelo funcional representado con una o más funciones.
(EEE54.) El decodificador mencionado en la forma de realización de ejemplo enumerada 53, en donde el modelo funcional comprende uno o más parámetros de modelo, y en donde valores de los parámetros de modelo se optimizan a través de minimizar desviaciones entre valores de código predichos y valores de código objetivo.
(EEE55.) Un medio de almacenamiento no transitorio legible por ordenador que comprende instrucciones que son codificadas y almacenadas con el mismo, que cuando se ejecutan con un ordenador o un procesador del mismo, provocan, controlan o programan el ordenador o el procesador para ejecutar, realizar o controlar un proceso, el proceso decodifica una imagen, el proceso de decodificación de imagen comprende las etapas de:
determinar una correlación de código digital entre un conjunto de valores de código digital de referencia y un conjunto de valores de código digital específicos de dispositivo, en donde el conjunto de valores de código digital de referencia se correlaciona en una correlación de referencia con un conjunto de niveles de gris de referencia, y en donde el conjunto de valores de código digital específicos de dispositivo se correlaciona en una correlación específica de dispositivo con un conjunto de niveles de gris específicos de dispositivo;
recibir datos de imágenes codificados de referencia codificados con el conjunto de valores de código digital de referencia, en donde los valores de luminancia de los datos de imágenes codificados de referencia están basados en el conjunto de valores de código digital de referencia, en donde una diferencia de luminancia entre dos niveles de gris de referencia representados por dos valores de código digital de referencia adyacentes en el conjunto de valores de código digital de referencia es inversamente proporcional a la sensibilidad al contraste máxima de la visión humana adaptada en un nivel de luz particular; y
transcodificar, sobre la base de la correlación de código digital, los datos de imágenes codificados de referencia codificados con el conjunto de valores de código digital de referencia en datos de imágenes específicos de dispositivo codificados con el conjunto de códigos de control digital específicos de dispositivo, en donde luminancia.
(EEE56.) Un sistema de decodificación de imágenes, que comprende:
medios para determinar una correlación de código digital entre un conjunto de valores de código digital de referencia y un conjunto de valores de código digital específicos de dispositivo, en donde el conjunto de valores de código digital de referencia se correlaciona en una correlación de referencia con un conjunto de niveles de gris de referencia, y en donde el conjunto de valores de código digital específicos de dispositivo se correlaciona en una correlación específica de dispositivo con un conjunto de niveles de gris específicos de dispositivo;
medios para recibir datos de imágenes codificados de referencia codificados con el conjunto de valores de código digital de referencia, en donde los valores de luminancia de los datos de imágenes codificados de referencia están basados en el conjunto de valores de código digital de referencia, en donde una diferencia de luminancia entre dos niveles de gris de referencia representados por dos valores de código digital de referencia adyacentes en el conjunto de valores de código digital de referencia es inversamente proporcional a la sensibilidad al contraste máxima de la visión humana adaptada en un nivel de luz particular; y
medios para transcodificar, sobre la base de la correlación de código digital, los datos de imágenes codificados con el conjunto de valores de código digital de referencia a datos de imágenes específicos de dispositivo codificados con el conjunto de códigos de control digital específicos de dispositivo, en donde valores de luminancia en los datos de imágenes específicos de dispositivo se basan en el conjunto de valores de código digital específicos de dispositivo.
(EEE57.) Un método, que comprende las etapas de:
recibir datos de imágenes codificados de referencia codificados con valores de código de referencia, los valores de código de referencia representan un conjunto de niveles de gris de referencia, una primera pareja de niveles de gris vecinos en el conjunto de niveles de gris se relacionan con una primera sensibilidad al contraste máxima de la visión humana adaptada en un primer nivel de luz, y una segunda pareja de niveles de gris vecinos en el conjunto de niveles de gris se relacionan con una segunda sensibilidad al contraste máxima de la visión humana adaptada en un segundo nivel de luz diferente; acceder a una correlación de códigos entre valores de código de referencia y valores de código específicos de dispositivo, los valores de código específicos de dispositivo representan un conjunto de niveles de gris específicos de dispositivo; y transcodificar, sobre la base de la correlación de códigos, los datos de imágenes codificados de referencia en datos de imágenes específicos de dispositivo codificados con los códigos de control específicos de dispositivo.
(EEE58.) El método mencionado en la forma de realización de ejemplo enumerada 57, en donde el conjunto de niveles de gris de referencia cubre un rango dinámico con un límite superior que tiene un valor de: menos de 500 nits, entre 500 nits y 1000 nits inclusive, entre 1000 y 5000 nits inclusive, entre 5000 nits y 10000 nits inclusive, entre 10000 nits y 15000 nits inclusive o más de 15000 nits.
(EEE59.) El método mencionado en la forma de realización de ejemplo enumerada 57, en donde el conjunto de niveles de gris de referencia se configura sobre la base de un modelo de visión humana que soporta un campo de visión de más de 40 grados.
(EEE60.) El método mencionado en la forma de realización de ejemplo enumerada 57, en donde el conjunto de niveles de gris de referencia está relacionado con frecuencias espaciales variables por debajo de una frecuencia espacial de corte.
(EEE61.) El método mencionado en la forma de realización de ejemplo enumerada 57, en donde la correlación de códigos se configura para distribuir uniformemente errores perceptivamente apreciables en un rango dinámico cubierto por los niveles de gris específicos de dispositivo.
(EEE62.) El método mencionado en la forma de realización de ejemplo enumerada 57, en donde una primera diferencia de valores de luminancia de la primera pareja de niveles de gris vecinos en el conjunto de niveles de gris está relacionada con la primera sensibilidad al contraste máxima inversamente con una constante multiplicativa, y en donde una segunda diferencia de valores de luminancia de la segunda pareja de niveles de gris vecinos está relacionada con la segunda sensibilidad al contraste máxima inversamente con la misma constante multiplicativa.
(EEE63.) El método mencionado en la forma de realización de ejemplo enumerada 57, en donde un valor de código de referencia en los valores de código de referencia y un nivel de gris de referencia representado por el valor de código de referencia tienen valores numéricos diferentes.
(EEE64.) El método mencionado en la forma de realización de ejemplo enumerada 57, en donde transcodificar, sobre la base de la correlación de códigos, los datos de imágenes codificados de referencia en datos de imágenes específicos de dispositivo codificados con los códigos de control específicos de dispositivo incluye:
determinar una primera diferencia de valores de luminancia entre dos valores de código de referencia adyacentes en un valor de código de referencia;
determinar una segunda diferencia de valores de luminancia entre dos valores de código específicos de dispositivo adyacentes en un valor de código específico de dispositivo, en donde el valor de código específico de dispositivo corresponde al valor de código de referencia; y
aplicar, sobre la base de una comparación de la primera diferencia de valores de luminancia y la segunda diferencia de valores de luminancia, uno de un algoritmo de mezcla de colores o un algoritmo de difuminación de contorno para al menos un píxel en los datos de imágenes específicos de dispositivo.
La siguiente Tabla 3 describe el cálculo de la curva perceptual EOTF para convertir valores de código de vídeo digital en niveles de luminancia lineal absoluta en el momento de la visualización. También incluye el cálculo OETF inverso para convertir la luminancia lineal absoluta en valores de código digital.
Tabla 3. Especificación de ejemplo para EOTF de curva perceptual
Figure imgf000031_0001
Figure imgf000032_0001
La siguiente Tabla 4 muestra valores de ejemplo para 10 bits.
Tabla 4. Tabla de valores de ejemplo para 10 bits
Figure imgf000033_0001
Figure imgf000033_0002
Figure imgf000034_0001
Figure imgf000034_0002
Figure imgf000035_0001
Figure imgf000035_0002
[
Figure imgf000036_0001
Figure imgf000036_0002
Figure imgf000037_0001
Figure imgf000037_0002
Figure imgf000038_0006
. . - .
| 511 0.49951 ! 9,179E-03 i 91.79146 |
[ 512 0.50049 s 9.270E-03 92.70205 |
: 513 0.50148 | 9.362 E-03 93.62103 \
: 514 0.50246 i 9.455E-03
Figure imgf000038_0001
94.54848 !
| 515 0.50345 ] 9.548E-03 95.48448 i
| 516 0.50443 ! 9.643E-03 | . 96.42909 ... | i 517 0.50542 i 9.738E-03 j 97.38241 !
| 518 0.50640 é 9.834E-03 j 98.34449 !
! 519 0.50739 [ 9.932 E-03 i 99.31543 |
L 520 0.50837 | 1.ÜÜ3E-02 | 100.29530 I i 521 0.50936 1.Q13E-Q2 i 101.28417....| í" '522 0,51034 1 102354)2] T oÍ ' Í sÍ I b ....j
: 523 0.51133 | 1.033E-02 ! 103.28927
; 524 0.51232 1 1.G43E-02 ] 104,30565
Figure imgf000038_0002
[ 525 0.51330 ■ 1.053E-Ó2 105.33136 f 526 0.51429 i 1.064E-Ü2. 106.36648 ! i 527 ” ü i T i l ü i " .... 107.41110 i i 528 0.51626 1.085 E-02 108.46530 i i 529 0.51724 j 1.095E-02 109.52917 ! i 530
Figure imgf000038_0004
0.51823 | 1.106E-02
Figure imgf000038_0003
110.60279 ;
i 531 0.51921 1.117E-02 111.68624 1 i 532 I 0.52020 j 1.128E-02 j 112.77962 |
! 533 0.52118 I 1139E-Q2 j 113.88301 j i 534 0.52217 T 1.130E-02 114.99650 1
[ 535 0.52315 i 1.161E-02 116.12018 1 j 536 0.52414 | 1.173 E-02 117.25414 I
: S37 0,52512 j 1.1B4E-02 i 1183 ^47 ™ !
i 538
Figure imgf000038_0005
0.52611 | 1.196E-02 i 119.55326
1 539 0.52709 1 1.2Ü7E-02 120.71860 |
| 540 ] 0.52808 i 1.219E-02Í___121.89459 J
r i í F ' i 0.52906 I 1.231E-02 ] 123,08132
1 542 1 0.53005 i 1.243 E-02 124,27889 | i 543 | 0.53103 í 1.25SE-02 | 125.48739 j
[ 544 I 0.53202 ; 1.267E-02 j 126.70692 | i 545 i 0.53300 1,279E-02 | 127.93758 ¡
! 546 I 0.53399 1.292E-02 j 129.17946
i 547 ! 0.53498 , 1.3Q4E-02 i 130.43266 \
| 548 [ 6.53595 Í.317E-02 j 131.69729
í 549 1 0.53695 i 1.330E-Q21 132.97344 ]
Figure imgf000038_0007
Figure imgf000039_0001
Figure imgf000039_0002
Figure imgf000040_0001
Figure imgf000040_0002
Figure imgf000041_0001
Figure imgf000041_0002
Figure imgf000042_0001
Figure imgf000042_0002
Figure imgf000043_0001
.
f W T 5 . Ü Ü E 1 i r i i s t - o i P” 8525^48333'' i
i 1003. j . . 0.98424 j 8.6Ü6E-G1 8605.63189 , 1
t l 004 ' j 0.9SS22 468 / í - 0 ! "^3686.56220 j
r ib o s " | 0,98621 8768.28228
M .005 j 0.98719 !r 8850.80025 j
; too? j G Í8S1 S :| 8934.12431 j
5 1008 [ 0.98916, J 901S.26275 j
[ 1005 P 0.9901 S 9103.22396 :|
T i b i o ' j ..0,99113. j 9189.01642 |
i 10U 7139212 1 ' 9275.64869 |
; 1012 i 0.99310 |
Figure imgf000043_0002
9363.12944 f
i i o n i 0.99409 j 9.4S1E-01 : 945146742 j
Figure imgf000043_0003
. fT ó z 'r 1 ™ ......7 Z Reserva os I I 7 Z ..... l - : 7 j
En la anterior memoria descriptiva se han descrito formas de realización de la invención con referencia a numerosos detalles específicos que pueden variar entre diferentes implementaciones. Por tanto, el único y exclusivo indicador de lo que es la invención, y lo previsto por los solicitantes que es la invención, es el conjunto de reivindicaciones incluido en esta solicitud, en la forma específica en que se muestran tales reivindicaciones, teniendo debida cuenta de cualquier elemento que sea equivalente a un elemento especificado en las reivindicaciones. Cualquier definición presentada expresamente en el presente documento en relación con los términos contenidos en tales reivindicaciones determinará el significado de tales términos usados en las reivindicaciones. Por tanto, ninguna limitación, elemento, propiedad, característica, ventaja o atributo que no se mencione expresamente en una reivindicación debe limitar de manera alguna el alcance de tal reivindicación. Por consiguiente, la memoria descriptiva y los dibujos se proporcionan con fines ilustrativos y no con fines restrictivos.
Los siguientes ejemplos enumerados (B-EEE) son útiles para entender la presente invención:
B-EEE 1. Un dispositivo de obtención de imágenes que comprende:
un receptor de datos configurado para recibir datos de imágenes codificados de referencia que comprenden valores de código de referencia, los datos de imágenes codificados de referencia son codificados por un sistema de codificación externo, los valores de código de referencia representan niveles de gris de referencia, los niveles de gris de referencia se seleccionan usando una función de visualización de escala de grises de referencia sobre la base de no linealidad perceptual de la visión humana adaptada en diferentes niveles de luz para frecuencias espaciales; y
un convertidor de datos configurado para acceder a una correlación de códigos entre los valores de código de referencia y valores de código específicos de dispositivo del dispositivo de obtención de imágenes, los valores de código específicos de dispositivo configurados para producir niveles de gris específicos de dispositivo configurados para el dispositivo de obtención de imágenes, el convertidor de datos se configura para transcodificar, sobre la base de la correlación de códigos, los datos de imágenes codificados de referencia en datos de imágenes específicos de dispositivo codificados con los valores de código específicos de dispositivo.
B-EEE 2. El dispositivo de obtención de imágenes mencionado en B-EEE 1, en donde el dispositivo de obtención de imágenes es un dispositivo de visualización de rango dinámico estándar.
B-EEE 3. El dispositivo de obtención de imágenes mencionado en B-EEE 1, en donde el dispositivo de obtención de imágenes se configura para soportar uno de un tamaño angular horizontal intermedio entre 40 grados y 25 grados, y un tamaño angular horizontal estrecho de no más de 25 grados.
B-EEE 4. El dispositivo de obtención de imágenes mencionado en B-EEE 1, en donde el dispositivo de obtención de imágenes se configura para soportar una de una distancia de visionado intermedia entre 1.5 m y 0.5 m, y una distancia de visionado corta de no más de 0.5 m.
B-EEE 5. Un método, que comprende las etapas de:
recibir datos de imágenes codificados de referencia codificados con valores de código de referencia, los valores de código de referencia representan un conjunto de niveles de gris de referencia;
acceder a una correlación de códigos entre valores de código de referencia y valores de código específicos de dispositivo, los valores de código específicos de dispositivo representan un conjunto de niveles de gris específicos de dispositivo; y
transcodificar, sobre la base de la correlación de códigos, los datos de imágenes codificados de referencia en datos de imágenes específicos de dispositivo codificados con los códigos de control específicos de dispositivo;
en donde un primer tamaño de etapa de cuantización entre niveles de gris de referencia sucesivos del conjunto está relacionado con una sensibilidad al contraste de la visión humana adaptada en un primer nivel de luz a frecuencia espacial.
B-EEE 6. El método relatado en B-EEE 5, en donde el primer tamaño de etapa de cuantización está relacionado con una sensibilidad máxima al contraste de la visión humana adaptada al primer nivel de luz a frecuencia espacial. B-EEE 7. El método relatado en B-EEE 5, en donde el primer tamaño de etapa de cuantización es menor que un umbral de diferencia apenas perceptible en el primer nivel de luz.
B-EEE 8. El método mencionado en B-EEE 5, en donde un segundo tamaño de etapa de cuantización está relacionado con una sensibilidad al contraste de la visión humana adaptada en un segundo nivel de luz a frecuencia espacial, los tamaños primero y segundo de etapa de cuantización son diferentes.
B-EEE 9. El método relatado en B-EEE 8, en donde el segundo tamaño de etapa de cuantización está relacionado con una sensibilidad máxima al contraste de la visión humana adaptada al primer nivel de luz a frecuencia espacial. B-EEE 10. El método mencionado en B-EEE 8, en donde el primer nivel de luz es menor que el segundo nivel de luz, y el primer tamaño de etapa es mayor que el segundo tamaño de etapa.
B-EEE 11. El método mencionado en B-EEE 5, en donde el conjunto de niveles de gris de referencia cubre un rango dinámico con un límite superior que tiene un valor entre 1000 y 15000 nits, inclusive.
Diversos aspectos de la presente invención pueden ser apreciados desde las siguientes formas de realización de ejemplo enumeradas (B-EEE):
B-EEE 12. Un método que comprende:
recibir, por un codificador de datos, datos de imágenes que van a codificarse;
acceder, por medio del codificador de datos, a una función de conversión de datos de referencia que determina una correlación entre un conjunto de valores de código digital de referencia y un conjunto de niveles de referencia sobre la base de la sensibilidad al contraste de la visión humana;
basándose en la recepción y el acceso, codificar, a través del codificador de datos, los datos de imágenes recibidos a datos de imágenes codificados de referencia; y
producir, por medio del codificador de datos, los datos de imágenes codificados de referencia,
en donde:
valores de componente de color en los datos de imágenes recibidos son representados por el conjunto de valores de código digital de referencia, los valores de código digital de referencia tienen una profundidad de bits de 10 o 12 bits, la correlación se basa al menos en parte en un modelo funcional de:
í c1 c2Yn\ m
Vl C3yn y j y
n, m, c-i, c2 y c3 son valores predeterminados.
B-EEE 13. El método de B-EEE 12, en donde:
n = 4096 x i 4 *= 0.1593017578125 ;
Figure imgf000045_0001
4096 78.84375 ;
3424
C 1 = c 3 á - c 2 z + 1 = 4096 « 0.8359375 ;
c2 z = 4 096 x 32 *= 18.8515625 ;, y
23Q2
C3 = — J 4096 X32 ^ 18.6875.
B-EEE 14. El método de B-EEE 12, en donde el componente de color es al menos uno de componentes de color R, G y B.
B-EEE 15. El método de B-EEE 12, en donde el componente de color es la luminancia (Y).
B-EEE 16. El método de B-EEE 12, que comprende además una etapa de correlación, por medio del codificador de datos, de un valor de código digital en los datos de imágenes a un valor normalizado V, en donde 0 < V < 1.
B-EEE 17. El método de B-EEE 16, en donde el valor de código digital D representa un valor muestreado de un componente de los datos de imágenes comprendidos en una señal de interfaz digital en serie (SDI).
B-EEE 18. El método de B-EEE 16, en donde la profundidad de bits es de 10 bits y la Tabla 4 de la memoria descriptiva proporciona una tabla representativa de la función de conversión de datos de referencia.
B-EEE 19. El método de B-EEE 12, en donde los datos de imágenes comprenden valores de código digital D que representan valores muestreados de un componente de los datos de imágenes, los datos de imágenes se codifican en un formato de imagen de alto rango dinámico (HDR) de alta resolución, un espacio de colores RGB asociado a la norma Academy Color Encoding Specification (ACES) de la Academy of Motion Picture Arts and Sciences (AMPAS), una norma de espacio de colores P3 de la Digital Cinema Initiative, la norma Reference Input Medium Metric/Reference Output Medium Metric (RIMM/ROMM), o un espacio de colores sRGB, un espacio de colores RGB asociado a la Recomendación BT.709 de la Unión Internacional de las Telecomunicaciones (ITU), etc.
B-EEE 20. Un codificador de datos configurado para codificar datos de imágenes recibidos a datos de imágenes codificados de referencia, el codificador de datos comprende:
una unidad receptora configurada para recibir datos de imágenes que van a codificarse; y
una unidad de correlación configurada para correlacionar valores de código digital en datos de imágenes recibidos con valores de código digital de referencia en los datos de imágenes codificados de referencia sobre la base de la sensibilidad al contraste de la visión humana;
en donde la unidad de correlación correlaciona los valores de código digital basándose al menos en parte en un modelo funcional de:
/■c1+c2Yny l
\1 c 3Yn J , y
n, m, c-i, c2 y c3 son valores predeterminados.
B-EEE 21. El codificador de datos de B-EEE 20, en donde:
n = — X 4096 4 - ^ 0.1593017578125 ;
Figure imgf000046_0001
c z = — 4096 x . ; y
2192
C3 á = — 4096 JC 32 ^ 18.6875.
B-EEE 22. El codificador de datos de B-EEE 20, en donde los valores de código digital de referencia tienen una profundidad de bits de 10 o 12 bits y representan valores de componente de color en los datos de imágenes recibidos. B-EEE 23. El codificador de datos de B-EEE 22, en donde el componente de color es al menos uno de componentes de color R, G y B.
B-EEE 24. El codificador de datos de B-EEE 22, en donde el componente de color es la luminancia (Y).
B-EEE 25. El codificador de datos de B-EEE 22, en donde la unidad de correlación se configura además para correlacionar un valor de código digital en los datos de imágenes a un valor normalizado V, en donde 0 < V < 1.
B-EEE 26. El codificador de datos de B-EEE 25, en donde el valor de código digital representa un valor muestreado de un componente de los datos de imágenes comprendido en una señal de interfaz digital en serie (SDI).
B-EEE 27. El codificador de datos de B-EEE 25, en donde la profundidad de bits es de 10 bits y la Tabla 4 de la memoria descriptiva proporciona una tabla representativa del modelo funcional.
B-EEE 28. El codificador de datos de B-EEE 25, en donde la unidad de correlación se configura además para excluir al menos los tres valores de código digital de referencia más altos y los tres más bajos de la correlación.
B-EEE 30. El codificador de datos de B-EEE 28, en donde una relación entre el valor normalizado V y el valor codificado digital D es proporcionada por la función:
D — 4.2b~lü
V = í o i s ^ -10
en donde b es una profundidad de bits correspondiente al número de bits usados para representar el valor de código digital.

Claims (13)

REIVINDICACIONES
1. Un método que comprende:
recibir, por un codificador de datos, datos de imágenes con valores de luminancia que representan valores absolutos de luminancia L que van a codificarse;
acceder, por medio del codificador de datos, a una función de codificación OETF para correlacionar valores absolutos de luminancia con valores de código digital;
basándose en la recepción y el acceso, codificar, a través del codificador de datos, los datos de imágenes recibidos a datos de imágenes codificados de referencia; y
producir, por medio del codificador de datos, los datos de imágenes codificados de referencia,
en donde los valores de luminancia de los datos de imágenes recibidos se representan por los valores de código digital en los datos de imágenes codificados de referencia;
caracterizado por que
la función de codificación OETF se basa al menos en parte en un modelo funcional de:
Figure imgf000047_0001
donde:
Y es un valor normalizado de uno correspondiente de los valores absolutos de luminancia L, en donde 0 < Y< 1, V es un valor normalizado de uno correspondiente de los valores de código digital D que se producen como datos de imágenes codificados de referencia, en donde 0 < V < 1, y
n, m, c-i, c2 y c3 son valores predeterminados,
en donde:
n = — 4096 x 4 - ^ 0.1593017578125 ;
75 ;
Figure imgf000047_0002
0.8359375 ;
c2 z = — 4096 x 32 ^ 18.8515625 ; y 3
2192 C3 á = — 4096 X 32 *= 18.6875.
2. El método de la reivindicación 1, en donde los valores de código digital D tienen una profundidad de bits de 10 o 12 bits.
3. El método de la reivindicación 1 o la reivindicación 2, en donde los valores de luminancia de los datos de imágenes representan valores muestreados de la luminancia absoluta L comprendida en una señal de interfaz digital en serie (SDI).
4. El método de cualquiera de las reivindicaciones 1-3, en donde la profundidad de bits es de 10 bits y la Tabla 4 de la memoria descriptiva proporciona una tabla representativa de la función de codificación OETF.
5. El método de cualquiera de las reivindicaciones 1-4, en donde la función de codificación OETF excluye un primer número predeterminado del menor y un segundo número predeterminado del mayor de los valores de código digital D a partir de la correlación.
6. El método de cualquiera de las reivindicaciones 1-5, en donde una relación entre uno de los valores normalizados V y el correspondiente de los valores de código digital D es proporcionada por la función:
Figure imgf000048_0001
en donde b es una profundidad de bits correspondiente al número de bits usados para representar los valores de código digital D.
7. El método de cualquiera de las reivindicaciones 1-6, en donde los datos de imágenes que van a codificarse comprenden datos de imágenes codificados en un formato de imagen de alto rango dinámico (HDR) de alta resolución, un espacio de colores RGB asociado a la norma Academy Color Encoding Specification (ACES) de la Academy of Motion Picture Arts and Sciences (AMPAS), una norma de espacio de colores P3 de la Digital Cinema Initiative, la norma Reference Input Medium Metric/Reference Output Medium Metric (RIMM/ROMM), o un espacio de colores sRGB, un espacio de colores RGB asociado a la Recomendación BT.709 de la Unión Internacional de las Telecomunicaciones (ITU), etc.
8. Un codificador de datos configurado para codificar datos de imágenes recibidos a datos de imágenes codificados de referencia, el codificador de datos comprende:
una unidad receptora configurada para recibir datos de imágenes con valores de luminancia que representan valores absolutos de luminancia L que van a codificarse; y
un codificador OETF para correlacionar valores absolutos de luminancia en valores de código digital; caracterizado por que
el codificador OETF correlaciona los valores absolutos de luminancia L basándose al menos en parte en un modelo funcional de:
y _ fc 1+ c 2Yn\ rr> , en donde:
V i + c3Yn J
Y es un valor normalizado de uno correspondiente de los valores absolutos de luminancia L, en donde 0 < Y< 1, V es un valor normalizado de uno correspondiente de los valores de código digital D que se producen como datos de imágenes codificados de referencia, en donde 0 < V < 1, y
n, m, c-i, c2 y c3 son valores predeterminados,
en donde:
n = — 4096 x 4 - ^ 0.1593017578125 ;
7^77
m = — 4096 x 128 ^ 78.84375 ;
Figure imgf000048_0002
c2 ¿ = 4 096 x 32 ^ 18.8515625 ; y
c 3 2192
J = 4 096 X 32 ^ 18.6875.
9. El codificador de datos de la reivindicación 8, en donde los valores de código digital D tienen una profundidad de bits de 10 o 12 bits.
10. El codificador de datos de la reivindicación 8 o la reivindicación 9, en donde los valores de luminancia de los datos de imágenes representan valores muestreados de la luminancia absoluta L comprendida en una señal de interfaz digital en serie (SDI).
11. El codificador de datos de cualquiera de las reivindicaciones 8-10, en donde la profundidad de bits es de 10 bits y la Tabla 4 de la memoria descriptiva proporciona una tabla representativa del modelo funcional.
12. El codificador de datos de cualquiera de las reivindicaciones 8-11, en donde la unidad de correlación se configura además para excluir al menos los tres valores de código digital más bajos y los tres más altos a partir de la conversión.
13. El método de cualquiera de las reivindicaciones 8-12, en donde una relación entre uno de los valores normalizados V y el correspondiente de los valores de código digital D es proporcionada por la función:
D -4.2 b~10
V = 1015 ,2b~10'
en donde b es una profundidad de bits correspondiente al número de bits usados para representar los valores de código digital D.
ES16166823T 2011-12-06 2012-12-06 Dispositivo y método para mejorar el intercambio de datos de imágenes basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización Active ES2727965T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161567579P 2011-12-06 2011-12-06
US201261674503P 2012-07-23 2012-07-23
US201261703449P 2012-09-20 2012-09-20

Publications (1)

Publication Number Publication Date
ES2727965T3 true ES2727965T3 (es) 2019-10-21

Family

ID=47459140

Family Applications (6)

Application Number Title Priority Date Filing Date
ES19155297T Active ES2835379T3 (es) 2011-12-06 2012-12-06 Dispositivo y método para mejorar el intercambio de datos de imágenes basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización
ES12808594.1T Active ES2584681T3 (es) 2011-12-06 2012-12-06 Dispositivo y procedimiento para mejorar el intercambio de datos de imágenes basado en una no linealidad de luminancia perceptual a través de diferentes capacidades de visualización
ES21197681T Active ES2940345T3 (es) 2011-12-06 2012-12-06 Programa informático para mejorar el intercambio de datos de imágenes basado en no linealidad perceptual a través de diferentes capacidades de visualización
ES16166823T Active ES2727965T3 (es) 2011-12-06 2012-12-06 Dispositivo y método para mejorar el intercambio de datos de imágenes basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización
ES20203810T Active ES2939867T3 (es) 2011-12-06 2012-12-06 Programa de ordenador para y medio legible por ordenador que tiene almacenado un flujo de bits para mejorar el intercambio de datos de imagen basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización
ES20203561T Active ES2899579T3 (es) 2011-12-06 2012-12-06 Dispositivo y método para mejorar el intercambio de datos de imágenes basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización

Family Applications Before (3)

Application Number Title Priority Date Filing Date
ES19155297T Active ES2835379T3 (es) 2011-12-06 2012-12-06 Dispositivo y método para mejorar el intercambio de datos de imágenes basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización
ES12808594.1T Active ES2584681T3 (es) 2011-12-06 2012-12-06 Dispositivo y procedimiento para mejorar el intercambio de datos de imágenes basado en una no linealidad de luminancia perceptual a través de diferentes capacidades de visualización
ES21197681T Active ES2940345T3 (es) 2011-12-06 2012-12-06 Programa informático para mejorar el intercambio de datos de imágenes basado en no linealidad perceptual a través de diferentes capacidades de visualización

Family Applications After (2)

Application Number Title Priority Date Filing Date
ES20203810T Active ES2939867T3 (es) 2011-12-06 2012-12-06 Programa de ordenador para y medio legible por ordenador que tiene almacenado un flujo de bits para mejorar el intercambio de datos de imagen basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización
ES20203561T Active ES2899579T3 (es) 2011-12-06 2012-12-06 Dispositivo y método para mejorar el intercambio de datos de imágenes basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización

Country Status (26)

Country Link
US (6) US9077994B2 (es)
EP (9) EP4137929A1 (es)
JP (13) JP5735717B2 (es)
KR (12) KR102332475B1 (es)
CN (9) CN106095358B (es)
AU (12) AU2012347820B2 (es)
BR (2) BR112014012927A2 (es)
CA (9) CA2854071C (es)
CY (2) CY1121636T1 (es)
DK (5) DK3800543T3 (es)
ES (6) ES2835379T3 (es)
FI (2) FI3800543T3 (es)
HK (2) HK1197471A1 (es)
HR (5) HRP20211707T1 (es)
HU (5) HUE052566T2 (es)
IN (1) IN2014CN03871A (es)
LT (2) LT3514677T (es)
MX (6) MX2014006445A (es)
MY (2) MY167086A (es)
PL (5) PL3974956T3 (es)
PT (5) PT3514677T (es)
RS (5) RS64021B1 (es)
RU (4) RU2665211C1 (es)
SG (4) SG10201604112PA (es)
SI (2) SI3514677T1 (es)
WO (1) WO2013086169A1 (es)

Families Citing this family (103)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8988552B2 (en) 2011-09-26 2015-03-24 Dolby Laboratories Licensing Corporation Image formats and related methods and apparatuses
CN106095358B (zh) * 2011-12-06 2019-05-14 杜比实验室特许公司 改进不同显示能力之间基于感知照度非线性的图像数据交换的装置和方法
US10242650B2 (en) 2011-12-06 2019-03-26 Dolby Laboratories Licensing Corporation Perceptual luminance nonlinearity-based image data exchange across different display capabilities
US9661296B2 (en) * 2012-07-12 2017-05-23 Samsung Electronics Co., Ltd. Image processing apparatus and method
US9842385B2 (en) 2012-09-12 2017-12-12 Dolby Laboratories Licensing Corporation Display management for images with enhanced dynamic range
US9720231B2 (en) 2012-09-26 2017-08-01 Dolby Laboratories Licensing Corporation Display, imaging system and controller for eyewear display device
CN104956670B (zh) 2013-01-25 2017-09-08 杜比实验室特许公司 基于全局显示管理的光调制
BR112015020009B1 (pt) 2013-02-21 2023-02-07 Dolby Laboratories Licensing Corporation Gerenciamento de exibição para vídeo de alta gama dinâmica
CN106488246B (zh) 2013-06-17 2019-06-11 杜比实验室特许公司 用于增强动态范围信号的分层编码的自适应整形的方法
JP6563915B2 (ja) 2013-07-16 2019-08-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Hdr画像のための汎用コードマッピングのためのeotf関数を生成するための方法及び装置、並びにこれらの画像を用いる方法及び処理
US9712834B2 (en) * 2013-10-01 2017-07-18 Dolby Laboratories Licensing Corporation Hardware efficient sparse FIR filtering in video codec
US9179042B2 (en) 2013-10-09 2015-11-03 Dolby Laboratories Licensing Corporation Systems and methods to optimize conversions for wide gamut opponent color spaces
US9648351B2 (en) 2013-10-24 2017-05-09 Dolby Laboratories Licensing Corporation Error control in multi-stream EDR video codec
EP2989793B1 (en) 2013-11-13 2017-04-05 Dolby Laboratories Licensing Corporation Workflow for content creation and guided display management of enhanced dynamic range video
US9538155B2 (en) 2013-12-04 2017-01-03 Dolby Laboratories Licensing Corporation Decoding and display of high dynamic range video
EP2887664A1 (en) * 2013-12-19 2015-06-24 Thomson Licensing Method and device for encoding a high-dynamic range image
KR102285955B1 (ko) 2014-02-07 2021-08-05 소니그룹주식회사 송신 장치, 송신 방법, 수신 장치, 수신 방법, 표시 장치 및 표시 방법
US10271054B2 (en) 2014-02-25 2019-04-23 Apple, Inc. Display-side adaptive video processing
MX357792B (es) * 2014-06-10 2018-07-25 Panasonic Ip Man Co Ltd Sistema de visualizacion, metodo de visualizacion y aparato de visualizacion.
MX363812B (es) * 2014-06-10 2019-04-04 Panasonic Ip Man Co Ltd Método de conversión y aparato de conversión.
US9613407B2 (en) 2014-07-03 2017-04-04 Dolby Laboratories Licensing Corporation Display management for high dynamic range video
GB2528283B (en) * 2014-07-16 2020-08-05 Barco Nv Image colour calibration with multiple colour scales
US9911179B2 (en) * 2014-07-18 2018-03-06 Dolby Laboratories Licensing Corporation Image decontouring in high dynamic range video processing
CN105469375B (zh) * 2014-08-28 2021-09-07 北京三星通信技术研究有限公司 处理高动态范围全景图的方法和装置
WO2016047085A1 (ja) * 2014-09-22 2016-03-31 パナソニックIpマネジメント株式会社 再生方法および再生装置
US9936199B2 (en) 2014-09-26 2018-04-03 Dolby Laboratories Licensing Corporation Encoding and decoding perceptually-quantized video content
US10063824B2 (en) 2014-11-05 2018-08-28 Apple Inc. Mapping image/video content to target display devices with variable brightness levels and/or viewing conditions
HUE063996T2 (hu) * 2014-12-03 2024-02-28 panasonic intellectual property Adatgeneráló eszköz
JP6601729B2 (ja) * 2014-12-03 2019-11-06 パナソニックIpマネジメント株式会社 データ生成方法、データ再生方法、データ生成装置及びデータ再生装置
JP6362793B2 (ja) 2015-01-19 2018-07-25 ドルビー ラボラトリーズ ライセンシング コーポレイション ハイダイナミックレンジ映像のためのディスプレイマネジメント
JP7106273B2 (ja) * 2015-01-27 2022-07-26 インターデジタル マディソン パテント ホールディングス, エスアーエス 画像及びビデオを電気光変換及び光電気変換するための方法、システム、及び機器
EP3051823A1 (en) 2015-01-27 2016-08-03 Thomson Licensing Methods, systems and aparatus for electro-optical and opto-electrical conversion of images and video
US10419762B2 (en) 2015-03-02 2019-09-17 Dolby Laboratories Licensing Corporation Content-adaptive perceptual quantizer for high dynamic range images
JP6463179B2 (ja) * 2015-03-17 2019-01-30 キヤノン株式会社 信号処理装置、信号処理方法および撮像装置
US10735755B2 (en) 2015-04-21 2020-08-04 Arris Enterprises Llc Adaptive perceptual mapping and signaling for video coding
WO2016172091A1 (en) 2015-04-22 2016-10-27 Dolby Laboratories Licensing Corporation Signal reshaping and coding in the ipt-pq color space
WO2016181819A1 (ja) * 2015-05-12 2016-11-17 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP6731722B2 (ja) * 2015-05-12 2020-07-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示方法および表示装置
JP6663214B2 (ja) * 2015-05-26 2020-03-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示方法および表示装置
EP3304912A4 (en) * 2015-06-07 2018-06-06 Sharp Kabushiki Kaisha Systems and methods for optimizing video coding based on a luminance transfer function or video color component values
US10863202B2 (en) * 2015-06-12 2020-12-08 Shaoher Pan Encoding data in a source image with watermark image codes
CN107771392B (zh) * 2015-06-30 2021-08-31 杜比实验室特许公司 用于高动态范围图像的实时内容自适应感知量化器
US10602109B2 (en) * 2015-07-10 2020-03-24 Telefonaktiebolaget Lm Ericsson (Publ) Method and arrangements for HDR encoding
EP3323243B1 (en) 2015-07-16 2022-01-19 Dolby Laboratories Licensing Corporation Signal reshaping and decoding for hdr signals
WO2017015397A1 (en) 2015-07-22 2017-01-26 Dolby Laboratories Licensing Corporation Video coding and delivery with both spatial and dynamic range scalability
JP6320440B2 (ja) 2015-08-04 2018-05-09 ドルビー ラボラトリーズ ライセンシング コーポレイション ハイダイナミックレンジ信号のための信号再構成
JP6869969B2 (ja) * 2015-09-21 2021-05-12 ドルビー ラボラトリーズ ライセンシング コーポレイション イメージングデバイスおよびイメージングデバイスのディスプレイパネルの正面に光を生成するための方法
US10283032B2 (en) 2015-10-07 2019-05-07 Samsung Display Co., Ltd. Integrated circuit for nonlinear data encoding
US10140953B2 (en) 2015-10-22 2018-11-27 Dolby Laboratories Licensing Corporation Ambient-light-corrected display management for high dynamic range images
WO2017101137A1 (zh) 2015-12-15 2017-06-22 华为技术有限公司 一种高动态范围图像的处理方法、装置及终端设备
EP3367657B1 (en) 2015-12-23 2021-06-02 Huawei Technologies Co., Ltd. Image signal conversion method and apparatus, and terminal device
CN108370428B (zh) * 2015-12-25 2020-12-15 夏普株式会社 显示装置和显示装置的控制方法以及电视接收机
US10679544B2 (en) * 2016-01-29 2020-06-09 Barco Nv Digital image processing chain and processing blocks and a display including the same
CN107027027B (zh) * 2016-01-31 2021-02-12 西安电子科技大学 图像的编码、解码方法及装置、以及图像的编解码系统
JP6757157B2 (ja) 2016-03-29 2020-09-16 キヤノン株式会社 投影装置およびその制御方法
EP3226563B1 (en) 2016-03-30 2021-06-23 Dolby Laboratories Licensing Corp. Chroma reshaping
US10397586B2 (en) 2016-03-30 2019-08-27 Dolby Laboratories Licensing Corporation Chroma reshaping
WO2017205702A1 (en) 2016-05-27 2017-11-30 Dolby Laboratories Licensing Corporation Transitioning between video priority and graphics priority
JP6912869B2 (ja) * 2016-06-15 2021-08-04 オリンパス株式会社 画像処理装置、画像処理プログラム、画像処理方法
JP6729055B2 (ja) * 2016-06-23 2020-07-22 セイコーエプソン株式会社 映像処理装置、表示装置および映像処理方法
TWI631505B (zh) * 2016-08-26 2018-08-01 晨星半導體股份有限公司 應用於播放裝置的影像處理方法及相關的電路
JP6751233B2 (ja) * 2016-09-12 2020-09-02 オンキヨー株式会社 映像処理装置
FR3056872A1 (fr) 2016-09-23 2018-03-30 Ymagis Procede numerique de traitement d’image et de projection pour la diffusion en salle
US10296807B2 (en) 2016-10-04 2019-05-21 Canon Kabushiki Kaisha Image processing apparatus and image processing method
EP3312798A1 (en) * 2016-10-20 2018-04-25 Thomson Licensing Method and device for inverse tone mapping
JP2018081595A (ja) * 2016-11-17 2018-05-24 キヤノン株式会社 画像処理装置及び方法、及び撮像装置
JP6929373B2 (ja) 2017-03-03 2021-09-01 ドルビー ラボラトリーズ ライセンシング コーポレイション 不均等な色空間における彩度調整
CN110383802B (zh) 2017-03-03 2021-05-25 杜比实验室特许公司 利用逼近函数的彩色图像修改方法
WO2018160847A1 (en) 2017-03-03 2018-09-07 Dolby Laboratories Licensing Corporation Color image modification with approximation function
WO2018160883A1 (en) 2017-03-03 2018-09-07 Dolby Laboratories Licensing Corporation Color saturation adjustment in non-uniform color space
EP3566203B1 (en) 2017-03-20 2021-06-16 Dolby Laboratories Licensing Corporation Perceptually preserving scene-referred contrasts and chromaticities
JP7037584B2 (ja) 2017-06-16 2022-03-16 ドルビー ラボラトリーズ ライセンシング コーポレイション 効率的なエンド・ツー・エンドシングルレイヤー逆ディスプレイマネジメント符号化
US11252401B2 (en) * 2017-08-07 2022-02-15 Dolby Laboratories Licensing Corporation Optically communicating display metadata
US10769817B2 (en) * 2017-08-07 2020-09-08 Samsung Display Co., Ltd. Measures for image testing
WO2019050972A2 (en) 2017-09-06 2019-03-14 Dolby Laboratories Licensing Corporation TONAL CURVE OPTIMIZATION METHOD AND VIDEO ENCODER AND VIDEO DECODER THEREOF
US10600163B2 (en) 2017-11-22 2020-03-24 Interdigital Vc Holdings, Inc. Method and device for reconstructing a display adapted HDR image
CN111557028B (zh) * 2018-02-14 2023-02-03 Eizo株式会社 显示系统以及计算机可读记录介质
US10832613B2 (en) * 2018-03-07 2020-11-10 At&T Intellectual Property I, L.P. Image format conversion using luminance-adaptive dithering
CA3037026A1 (en) * 2018-03-15 2019-09-15 Comcast Cable Communications, Llc Systems, methods, and apparatuses for processing video
US10931977B2 (en) 2018-03-15 2021-02-23 Comcast Cable Communications, Llc Systems, methods, and apparatuses for processing video
KR102546990B1 (ko) 2018-03-16 2023-06-23 엘지전자 주식회사 신호 처리 장치 및 이를 구비하는 영상표시장치
CN112204646A (zh) * 2018-03-29 2021-01-08 巴科股份有限公司 用于led显示器的驱动器
KR20190114332A (ko) * 2018-03-29 2019-10-10 에스케이하이닉스 주식회사 이미지 센싱 장치 및 그의 동작 방법
US10917583B2 (en) * 2018-04-27 2021-02-09 Apple Inc. Standard and high dynamic range display systems and methods for high dynamic range displays
CN112514359B (zh) 2018-06-18 2022-02-18 杜比实验室特许公司 图像捕获方法、装置、机器可读存储装置
JP2020003704A (ja) * 2018-06-29 2020-01-09 株式会社デンソー 情報処理装置
JP2020017079A (ja) * 2018-07-25 2020-01-30 株式会社朋栄 トーンマッピング処理及びトーンマッピングパラメータの自動調整更新によるhdr映像変換方法及びその装置
US20200045341A1 (en) * 2018-07-31 2020-02-06 Ati Technologies Ulc Effective electro-optical transfer function encoding for limited luminance range displays
US10802795B2 (en) * 2018-08-21 2020-10-13 Semiconductor Components Industries, Llc Systems and methods for image data compression
EP3672267A1 (en) * 2018-12-20 2020-06-24 InterDigital VC Holdings, Inc. Methods for processing audio and/or video contents and corresponding signal, devices, electronic assembly, system, computer readable program products and computer readable storage media
WO2020232537A1 (en) * 2019-05-17 2020-11-26 Fenoto Technologies Inc. Electronic paper display system
CN113853647B (zh) 2019-05-23 2023-08-18 Eizo株式会社 图像显示装置、图像显示系统、图像显示方法及记录介质
EP3764346A1 (en) * 2019-07-09 2021-01-13 Koninklijke Philips N.V. Adjustment of display optimization behaviour for hdr images
JP7370762B2 (ja) 2019-08-20 2023-10-30 キヤノン株式会社 撮像装置およびその制御方法
CN110797038B (zh) * 2019-10-30 2020-11-06 腾讯科技(深圳)有限公司 音频处理方法、装置、计算机设备及存储介质
EP3873096A1 (en) 2020-02-25 2021-09-01 Koninklijke Philips N.V. Improved hdr color processing for saturated colors
US11343495B2 (en) * 2020-06-03 2022-05-24 Tencent America LLC Methods of simplification of temporal filtering
CN114449244B (zh) * 2020-10-31 2023-07-18 华为技术有限公司 一种画质调整方法及装置
CN114822448B (zh) * 2021-01-22 2024-04-05 广州视创显示科技有限公司 一种图像混合显示方法、装置、设备及存储介质
WO2022245624A1 (en) 2021-05-19 2022-11-24 Dolby Laboratories Licensing Corporation Display management with position-varying adaptivity to ambient light and/or non-display-originating surface light
KR102663499B1 (ko) 2021-06-08 2024-05-07 대구가톨릭대학교산학협력단 반응성기를 가지는 개질 맥신 화합물 및 이를 포함하는 광경화성 수지 조성물
EP4220539A1 (en) 2022-01-27 2023-08-02 Koninklijke Philips N.V. Automatic luminance adjustment for hdr video coding
CN116437162B (zh) * 2023-06-12 2023-08-22 美视信息科技(常州)有限公司 一种信息传输方法、装置、显示器及存储介质

Family Cites Families (118)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0103488B1 (en) 1982-09-14 1991-03-27 New York Institute Of Technology Method and apparatus for encoding and decoding video
US5276779A (en) 1991-04-01 1994-01-04 Eastman Kodak Company Method for the reproduction of color images based on viewer adaption
GB2311432B (en) * 1996-03-20 2000-05-03 Sony Uk Ltd Method and apparatus for processing an input image
US6388648B1 (en) 1996-11-05 2002-05-14 Clarity Visual Systems, Inc. Color gamut and luminance matching techniques for image display systems
JP4076248B2 (ja) * 1997-09-09 2008-04-16 オリンパス株式会社 色再現装置
JPH1188909A (ja) * 1997-09-11 1999-03-30 Mitsubishi Electric Corp 画像圧縮伝送装置
US6148006A (en) * 1997-11-12 2000-11-14 Nortel Networks Limited Communication system architecture, exchange having a plurality of broadband modems and method of supporting broadband operation on a one to one basis
US6847376B2 (en) 1998-11-13 2005-01-25 Lightsurf Technologies, Inc. Method and system for characterizing color display monitor output
JP4147655B2 (ja) 1998-12-07 2008-09-10 ソニー株式会社 画像処理装置及び画像処理方法
JP2000188647A (ja) * 1998-12-21 2000-07-04 Ricoh Co Ltd 画像評価方法および画像評価装置
US6370265B1 (en) 1999-11-24 2002-04-09 Direct Radiography Corp. Method for generating gray scale transfer functions for use in displaying a digital radiogram
US7170477B2 (en) 2000-04-13 2007-01-30 Sharp Kabushiki Kaisha Image reproducing method, image display apparatus and picture signal compensation device
JP3904841B2 (ja) 2000-05-15 2007-04-11 シャープ株式会社 液晶表示装置及びそれを用いた電子機器並びに液晶表示方法
JP4766288B2 (ja) * 2000-06-21 2011-09-07 ソニー株式会社 情報処理装置
JP2002092655A (ja) 2000-09-20 2002-03-29 Minolta Co Ltd 3次元仮想現実を表示するシステム及び方法
FI110045B (fi) 2000-11-08 2002-11-15 Antti Lahtinen Menetelmä ja laite harmaasävykuvan muuntamiseksi valeharmaakuvaksi
JP3620443B2 (ja) 2000-12-05 2005-02-16 日産自動車株式会社 自動車用表示装置
US6947079B2 (en) 2000-12-22 2005-09-20 Eastman Kodak Company Camera having verification display with reverse white balanced viewer adaptation compensation and method
US6989859B2 (en) 2000-12-22 2006-01-24 Eastman Kodak Company Camera having user interface ambient sensor viewer adaptation compensation and method
US7019763B2 (en) * 2001-01-09 2006-03-28 Seiko Epson Corporation Display device, driving method therefor, electro-optical device, driving method therefor, and electronic apparatus
US6831947B2 (en) * 2001-03-23 2004-12-14 Sharp Laboratories Of America, Inc. Adaptive quantization based on bit rate prediction and prediction error energy
US7023580B2 (en) * 2001-04-20 2006-04-04 Agilent Technologies, Inc. System and method for digital image tone mapping using an adaptive sigmoidal function based on perceptual preference guidelines
DE10300048B4 (de) * 2002-01-05 2005-05-12 Samsung Electronics Co., Ltd., Suwon Verfahren und Vorrichtung zur Bildcodierung und -decodierung
US7046400B2 (en) 2002-01-31 2006-05-16 Eastman Kodak Company Adjusting the color, brightness, and tone scale of rendered digital images
JP2003244436A (ja) 2002-02-13 2003-08-29 Konica Corp キャリブレーション装置、画像出力装置のキャリブレーション方法、プログラムおよび記憶媒体
US6755529B2 (en) 2002-03-12 2004-06-29 Visionrx, Inc. Method and apparatus for measuring contrast sensitivity
US7221807B2 (en) 2002-03-29 2007-05-22 Sharp Laboratories Of America, Inc. Methods and systems for digital image characteristic adjustment using a neural network
US7609360B2 (en) 2002-06-17 2009-10-27 Fujifilm Corporation Image display device
US7184057B2 (en) * 2002-06-24 2007-02-27 Microsoft Corpoartion Systems and methods for providing color management
EP1391865A1 (en) * 2002-08-23 2004-02-25 Deutsche Thomson-Brandt Gmbh Plasma display panel (PDP) - Reduction of dithering noise while displaying less video levels than required
US7043090B2 (en) 2002-10-02 2006-05-09 Eastman Kodak Company Enhancing the tonal characteristics of digital images using expansive and compressive tone scale functions
JP4467877B2 (ja) 2002-11-08 2010-05-26 富士通マイクロエレクトロニクス株式会社 表示装置の駆動方法、及び表示装置の駆動回路
JP2004212598A (ja) 2002-12-27 2004-07-29 Sharp Corp 変換装置、補正回路、駆動装置、表示装置、検査装置および表示方法
JP4410997B2 (ja) 2003-02-20 2010-02-10 パナソニック株式会社 表示パネルの駆動装置
JP4396107B2 (ja) * 2003-02-21 2010-01-13 凸版印刷株式会社 映像表示システム
US7266229B2 (en) 2003-07-24 2007-09-04 Carestream Health, Inc. Method for rendering digital radiographic images for display based on independent control of fundamental image quality parameters
KR100508937B1 (ko) 2003-08-05 2005-08-17 삼성에스디아이 주식회사 고효율 플라즈마 디스플레이 패널에서의 계조 표현 방법및 그 방법을 사용한 플라즈마 디스플레이 패널 구동 장치
DE10338484B4 (de) 2003-08-21 2008-10-16 Eizo Gmbh Verfahren und Anordnung zum Optimieren des Verlaufs einer Leuchtdichtekennlinie
US7508387B2 (en) 2003-09-30 2009-03-24 International Business Machines Corporation On demand calibration of imaging displays
US7412105B2 (en) 2003-10-03 2008-08-12 Adobe Systems Incorporated Tone selective adjustment of images
JP2005117590A (ja) 2003-10-10 2005-04-28 Konica Minolta Medical & Graphic Inc 放射線画像撮影システムおよび放射線画像検出処理装置
EP1544838A1 (en) * 2003-12-17 2005-06-22 Deutsche Thomson-Brandt Gmbh Method and device for compensating effect of differences in subfield load
EP1544837A1 (en) * 2003-12-17 2005-06-22 Deutsche Thomson-Brandt Gmbh Method and device for reducing the effect of differences in scan line load
US7164284B2 (en) 2003-12-18 2007-01-16 Sharp Laboratories Of America, Inc. Dynamic gamma for a liquid crystal display
US20050190836A1 (en) * 2004-01-30 2005-09-01 Jiuhuai Lu Process for maximizing the effectiveness of quantization matrices in video codec systems
JP4632721B2 (ja) * 2004-03-18 2011-02-16 メガビジョン株式会社 処理装置及びガンマ値調整プログラム
EP1587049A1 (en) 2004-04-15 2005-10-19 Barco N.V. Method and device for improving conformance of a display panel to a display standard in the whole display area and for different viewing angles
US8218625B2 (en) * 2004-04-23 2012-07-10 Dolby Laboratories Licensing Corporation Encoding, decoding and representing high dynamic range images
WO2006003602A1 (en) 2004-06-30 2006-01-12 Koninklijke Philips Electronics N.V. Dominant color extraction for ambient light derived from video content mapped through unrendered color space
WO2006008664A1 (en) 2004-07-13 2006-01-26 Koninklijke Philips Electronics, N.V. Standardized digital image viewing with ambient light control
US7283654B2 (en) 2004-08-26 2007-10-16 Lumeniq, Inc. Dynamic contrast visualization (DCV)
EP1650736A1 (en) 2004-10-25 2006-04-26 Barco NV Backlight modulation for display
US7782405B2 (en) 2004-12-02 2010-08-24 Sharp Laboratories Of America, Inc. Systems and methods for selecting a display source light illumination level
KR101310056B1 (ko) * 2004-12-23 2013-09-24 돌비 레버러토리즈 라이쎈싱 코오포레이션 폭넓은 색상 범위 디스플레이
US7372507B2 (en) 2005-02-08 2008-05-13 Texas Instruments Incorporated Real-time content based gamma adjustment for digital video display
US20060197968A1 (en) 2005-03-01 2006-09-07 Vannostrand S L Dicom print driver
US7606429B2 (en) * 2005-03-25 2009-10-20 Ati Technologies Ulc Block-based image compression method and apparatus
WO2007014681A1 (en) * 2005-08-01 2007-02-08 Barco N.V. Method and device for improved display standard conformance
US7495679B2 (en) * 2005-08-02 2009-02-24 Kolorific, Inc. Method and system for automatically calibrating a color display
JP2006101512A (ja) * 2005-09-21 2006-04-13 Matsushita Electric Ind Co Ltd 画像圧縮装置および画像送受信装置
JP4529888B2 (ja) 2005-12-07 2010-08-25 ブラザー工業株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP2009542398A (ja) * 2006-07-10 2009-12-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 様々な周辺光において、超音波画像をdicom準拠して表示するシステム及び方法
KR101243817B1 (ko) 2006-07-28 2013-03-18 엘지디스플레이 주식회사 평판표시장치와 그 데이터 다중 변조방법
US7990427B2 (en) 2006-08-21 2011-08-02 Micron Technology, Inc. Method and apparatus for applying tonal correction to images
US20080170031A1 (en) 2007-01-17 2008-07-17 Chia-Hui Kuo Method for performing chromatic adaptation while displaying image, and corresponding display circuit and device
US8026908B2 (en) 2007-02-05 2011-09-27 Dreamworks Animation Llc Illuminated surround and method for operating same for video and other displays
KR100855472B1 (ko) * 2007-02-07 2008-09-01 삼성전자주식회사 저전력 구동 장치 및 방법
US7826681B2 (en) 2007-02-28 2010-11-02 Sharp Laboratories Of America, Inc. Methods and systems for surround-specific display modeling
JP2008234315A (ja) * 2007-03-20 2008-10-02 Toyota Motor Corp デジタル画像の階調圧縮方法及び階調圧縮装置
US8970636B2 (en) 2007-06-27 2015-03-03 Thomson Licensing System and method for color correction between displays with and without average picture dependency
US8135230B2 (en) * 2007-07-30 2012-03-13 Dolby Laboratories Licensing Corporation Enhancing dynamic ranges of images
EP2063647A1 (en) 2007-11-24 2009-05-27 Barco NV Calibration of a 3-dimensional display
WO2009078862A1 (en) 2007-12-17 2009-06-25 Hewlett-Packard Development Company, L.P. Image processing using target values
US8179363B2 (en) 2007-12-26 2012-05-15 Sharp Laboratories Of America, Inc. Methods and systems for display source light management with histogram manipulation
CN101478687B (zh) * 2008-01-04 2010-12-08 华晶科技股份有限公司 对数字图像中伪色像素的校正方法
US8199995B2 (en) 2008-01-29 2012-06-12 Carestream Health, Inc. Sensitometric response mapping for radiological images
JP2009211048A (ja) * 2008-02-06 2009-09-17 Canon Inc 画像信号処理装置および画像信号処理方法
US8593476B2 (en) 2008-02-13 2013-11-26 Gary Demos System for accurately and precisely representing image color information
JP4334596B2 (ja) * 2008-02-27 2009-09-30 株式会社東芝 表示装置
WO2009125663A1 (ja) 2008-04-09 2009-10-15 シャープ株式会社 表示装置、及びテレビ受信装置
US8531379B2 (en) 2008-04-28 2013-09-10 Sharp Laboratories Of America, Inc. Methods and systems for image compensation for ambient conditions
JP4956488B2 (ja) 2008-06-10 2012-06-20 株式会社東芝 画像処理装置および画像表示装置
JP5274908B2 (ja) 2008-06-20 2013-08-28 本田技研工業株式会社 燃料電池スタック
TWI383228B (zh) 2008-07-02 2013-01-21 Chunghwa Picture Tubes Ltd 主動元件陣列基板、液晶顯示面板及其驅動方法
US8416179B2 (en) 2008-07-10 2013-04-09 Sharp Laboratories Of America, Inc. Methods and systems for color preservation with a color-modulated backlight
US8610654B2 (en) * 2008-07-18 2013-12-17 Sharp Laboratories Of America, Inc. Correction of visible mura distortions in displays using filtered mura reduction and backlight control
JP4901821B2 (ja) * 2008-07-24 2012-03-21 株式会社東芝 画像処理装置および画像処理方法
EP2308375B1 (en) 2008-07-28 2016-09-07 NEC Display Solutions, Ltd. Gray scale display device
JP5188334B2 (ja) * 2008-09-04 2013-04-24 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP5756404B2 (ja) * 2008-09-30 2015-07-29 ドルビー ラボラトリーズ ライセンシング コーポレイション 高ブライトネスで高ダイナミックレンジのディスプレイのための画像処理における適応ガンマの適用のためのシステムおよび方法、ならびにコンピュータ可読媒体
EP2347571A2 (en) * 2008-10-13 2011-07-27 Koninklijke Philips Electronics N.V. Contrast enhancement of images
US8111307B2 (en) * 2008-10-25 2012-02-07 Omnivision Technologies, Inc. Defective color and panchromatic CFA image
JP2010114839A (ja) 2008-11-10 2010-05-20 Canon Inc 画像処理装置および画像処理方法
GB0901825D0 (en) 2009-02-05 2009-03-11 Univ Cardiff Displaying image data
US8290295B2 (en) 2009-03-03 2012-10-16 Microsoft Corporation Multi-modal tone-mapping of images
KR101651415B1 (ko) * 2009-03-10 2016-08-26 돌비 레버러토리즈 라이쎈싱 코오포레이션 확장된 동적 범위 및 확장된 차수 이미지 신호 변환
US8390642B2 (en) 2009-04-30 2013-03-05 Hewlett-Packard Development Company, L.P. System and method for color space setting adjustment
CN101620819B (zh) * 2009-06-25 2013-10-16 北京中星微电子有限公司 显示图像背光亮度的动态调整方法、装置及移动显示设备
EP2504829A4 (en) 2009-11-27 2012-10-31 Canon Kk IMAGE DISPLAY DEVICE
JP2011133877A (ja) * 2009-11-27 2011-07-07 Canon Inc 画像表示装置、および画像処理装置
CN101710995B (zh) * 2009-12-10 2011-02-16 武汉大学 基于视觉特性的视频编码系统
CN101950528B (zh) * 2009-12-31 2012-06-27 四川虹欧显示器件有限公司 等离子显示器灰阶线形调整的方法
US8866837B2 (en) 2010-02-02 2014-10-21 Microsoft Corporation Enhancement of images for display on liquid crystal displays
GB201002632D0 (en) * 2010-02-16 2010-03-31 Im Sense Ltd Method and system for generating enhanced images
PL2543181T3 (pl) * 2010-03-03 2016-03-31 Koninklijke Philips Nv Urządzenia i sposoby definiowania systemu kolorów
JP5484977B2 (ja) * 2010-03-23 2014-05-07 オリンパス株式会社 蛍光観察装置
JP5635677B2 (ja) * 2010-04-19 2014-12-03 ドルビー ラボラトリーズ ライセンシング コーポレイション 高ダイナミックレンジ、視覚ダイナミックレンジおよび広色範囲の画像およびビデオの品質評価
CN102024266B (zh) * 2010-11-04 2012-07-25 西安电子科技大学 基于图像结构模型的压缩感知图像重构方法
US20120182278A1 (en) 2011-01-17 2012-07-19 Dolby Laboratories Licensing Corporation Methods and Apparatus for Estimating Light Adaptation Levels of Persons Viewing Displays
TWI538473B (zh) 2011-03-15 2016-06-11 杜比實驗室特許公司 影像資料轉換的方法與設備
CN102142145B (zh) * 2011-03-22 2012-12-19 宁波大学 一种基于人眼视觉特性的图像质量客观评价方法
EP2518719B1 (en) 2011-04-08 2016-05-18 Dolby Laboratories Licensing Corporation Image range expansion control methods and apparatus
CN102170581B (zh) * 2011-05-05 2013-03-20 天津大学 基于hvs的ssim与特征匹配立体图像质量评价方法
CN102222460B (zh) * 2011-06-10 2013-06-05 四川虹欧显示器件有限公司 一种等离子体显示面板的图像改善方法
US8988552B2 (en) 2011-09-26 2015-03-24 Dolby Laboratories Licensing Corporation Image formats and related methods and apparatuses
UA116082C2 (uk) 2011-09-27 2018-02-12 Конінклійке Філіпс Н.В. Пристрій та спосіб для перетворення динамічного діапазону зображень
CN102420988B (zh) * 2011-12-02 2013-11-20 上海大学 一种利用视觉特性的多视点视频编码系统
CN106095358B (zh) * 2011-12-06 2019-05-14 杜比实验室特许公司 改进不同显示能力之间基于感知照度非线性的图像数据交换的装置和方法

Also Published As

Publication number Publication date
AU2016204177B2 (en) 2018-04-26
JP2020074121A (ja) 2020-05-14
DK3514677T3 (da) 2020-11-30
MX2019007447A (es) 2019-10-02
KR101550592B1 (ko) 2015-09-07
EP3514677B1 (en) 2020-11-04
CA3114379C (en) 2023-06-27
CN103988165A (zh) 2014-08-13
HUE056242T2 (hu) 2022-02-28
JP7421674B2 (ja) 2024-01-24
JP7432496B2 (ja) 2024-02-16
BR122021018508B1 (pt) 2022-12-06
KR20170087530A (ko) 2017-07-28
CN106095358B (zh) 2019-05-14
CN106095353A (zh) 2016-11-09
JP2016225988A (ja) 2016-12-28
FI3800543T3 (fi) 2023-03-19
IN2014CN03871A (es) 2015-07-03
KR102197647B1 (ko) 2021-01-04
SG10201604130UA (en) 2016-07-28
KR20170005524A (ko) 2017-01-13
US20160119634A1 (en) 2016-04-28
DK3800543T3 (da) 2023-02-27
CN106095352B (zh) 2019-04-09
CN106095354A (zh) 2016-11-09
HUE052566T2 (hu) 2021-05-28
AU2018206694A1 (en) 2018-08-02
PL3800543T3 (pl) 2023-04-03
CA2933940C (en) 2018-07-17
EP3079055A1 (en) 2016-10-12
RU2728845C1 (ru) 2020-07-31
CN106095352A (zh) 2016-11-09
HRP20230252T1 (hr) 2023-04-14
RS58774B1 (sr) 2019-06-28
EP3800543A2 (en) 2021-04-07
CA3006841C (en) 2021-06-01
SG10201604112PA (en) 2016-07-28
AU2019264649B2 (en) 2020-12-24
ES2835379T3 (es) 2021-06-22
PT3800543T (pt) 2023-02-20
CN106095357A (zh) 2016-11-09
AU2021201806A1 (en) 2021-04-22
PT3974956T (pt) 2023-02-23
JP2015159543A (ja) 2015-09-03
RU2020124786A3 (es) 2022-03-15
MY167086A (en) 2018-08-10
EP3079055B1 (en) 2019-03-20
ES2940345T3 (es) 2023-05-05
RS64033B1 (sr) 2023-04-28
JP2018174579A (ja) 2018-11-08
CA3114379A1 (en) 2013-06-13
SG10201607838PA (en) 2016-12-29
CN106095354B (zh) 2019-06-11
LT3514677T (lt) 2020-12-28
CA2933940A1 (en) 2013-06-13
JP2015510600A (ja) 2015-04-09
EP4155898A1 (en) 2023-03-29
EP4137929A1 (en) 2023-02-22
KR102245919B1 (ko) 2021-04-30
DK3079055T3 (da) 2019-06-03
MX2020004850A (es) 2021-03-04
EP3800542B1 (en) 2021-09-15
LT3079055T (lt) 2019-06-10
US20150281711A1 (en) 2015-10-01
AU2016204177A1 (en) 2016-07-14
DK3800542T3 (da) 2021-11-08
CN106095355A (zh) 2016-11-09
HUE061490T2 (hu) 2023-07-28
MX2019007437A (es) 2019-08-16
KR102332475B1 (ko) 2021-12-01
AU2022204421A1 (en) 2022-07-14
JP2016158247A (ja) 2016-09-01
KR102197273B1 (ko) 2020-12-31
MY193501A (en) 2022-10-17
EP3800542A1 (en) 2021-04-07
US20170018251A1 (en) 2017-01-19
RS62554B1 (sr) 2021-12-31
SI3079055T1 (sl) 2019-07-31
ES2939867T3 (es) 2023-04-27
EP3974956A2 (en) 2022-03-30
PT3079055T (pt) 2019-06-06
CA3006841A1 (en) 2013-06-13
CN106095357B (zh) 2020-02-21
RS64021B1 (sr) 2023-03-31
JP6366641B2 (ja) 2018-08-01
RU2607618C2 (ru) 2017-01-10
US9521419B2 (en) 2016-12-13
AU2019264649A1 (en) 2019-12-05
HK1199955A1 (en) 2015-07-24
AU2021201806B2 (en) 2022-03-24
KR20220047675A (ko) 2022-04-18
MX2014006445A (es) 2014-09-01
CN103988165B (zh) 2016-05-18
KR20150023947A (ko) 2015-03-05
CA3218784A1 (en) 2013-06-13
KR101768435B1 (ko) 2017-08-17
KR102385015B1 (ko) 2022-04-12
AU2012347820A1 (en) 2014-05-15
AU2022201261B2 (en) 2023-04-06
AU2018206694B2 (en) 2019-08-15
CA3198226A1 (en) 2013-06-13
AU2016203100A1 (en) 2016-06-02
JP7246542B2 (ja) 2023-03-27
CY1121636T1 (el) 2020-07-31
PL3514677T3 (pl) 2021-03-08
AU2016203100B2 (en) 2016-08-04
HRP20211707T1 (hr) 2022-02-18
KR20180065031A (ko) 2018-06-15
EP2788855A1 (en) 2014-10-15
US9685139B2 (en) 2017-06-20
FI3974956T3 (fi) 2023-03-20
AU2016204179B2 (en) 2017-08-03
AU2022201261A1 (en) 2022-03-17
KR20210145848A (ko) 2021-12-02
CN106095356B (zh) 2019-05-14
EP3800543A3 (en) 2021-07-14
BR112014012927A2 (pt) 2017-06-13
PT3800542T (pt) 2021-11-09
AU2012347820B2 (en) 2016-07-28
CA3198207A1 (en) 2013-06-13
ES2584681T3 (es) 2016-09-28
EP3974956B1 (en) 2023-01-11
SG11201401944XA (en) 2014-09-26
ES2899579T3 (es) 2022-03-14
US20140363093A1 (en) 2014-12-11
HK1197471A1 (zh) 2015-01-16
PL3079055T3 (pl) 2019-09-30
CN106095351B (zh) 2020-01-14
CN106095353B (zh) 2019-04-09
AU2022204421B2 (en) 2022-09-22
CA3114448A1 (en) 2013-06-13
CA3198207C (en) 2023-12-12
KR20140103928A (ko) 2014-08-27
US9959837B2 (en) 2018-05-01
PL3974956T3 (pl) 2023-04-24
KR20210045516A (ko) 2021-04-26
KR102446482B1 (ko) 2022-09-23
KR101865543B1 (ko) 2018-06-11
JP2024009175A (ja) 2024-01-19
JP2023063449A (ja) 2023-05-09
CN106095358A (zh) 2016-11-09
JP5735717B2 (ja) 2015-06-17
US20170263211A1 (en) 2017-09-14
RU2711102C1 (ru) 2020-01-15
EP3800543B1 (en) 2023-01-11
PL3800542T3 (pl) 2022-01-17
JP2024009174A (ja) 2024-01-19
EP3514677A2 (en) 2019-07-24
RU2665211C1 (ru) 2018-08-28
JP2024069635A (ja) 2024-05-21
PT3514677T (pt) 2020-11-30
WO2013086169A1 (en) 2013-06-13
KR20210097214A (ko) 2021-08-06
HRP20190794T1 (hr) 2019-06-28
HRP20201891T1 (hr) 2021-01-08
HUE061704T2 (hu) 2023-08-28
CN106095356A (zh) 2016-11-09
AU2016204179A1 (en) 2016-07-14
CA2854071C (en) 2017-05-30
AU2022291562A1 (en) 2023-02-02
EP3974956A3 (en) 2022-08-03
CY1123605T1 (el) 2022-03-24
CN106095351A (zh) 2016-11-09
CN106095355B (zh) 2019-05-14
JP6180566B2 (ja) 2017-08-16
AU2016203103A1 (en) 2016-06-02
CA3219049A1 (en) 2013-06-13
JP2022106814A (ja) 2022-07-20
DK3974956T3 (da) 2023-02-27
JP2022075909A (ja) 2022-05-18
KR102284891B1 (ko) 2021-08-04
JP5951827B2 (ja) 2016-07-13
MX365965B (es) 2019-06-21
RU2014127489A (ru) 2016-01-27
KR20190037352A (ko) 2019-04-05
CA3114448C (en) 2023-06-27
EP4160385A1 (en) 2023-04-05
JP2021064948A (ja) 2021-04-22
JP6640929B2 (ja) 2020-02-05
KR20210000318A (ko) 2021-01-04
KR102105317B1 (ko) 2020-04-28
KR20200034826A (ko) 2020-03-31
RU2020124786A (ru) 2022-01-27
EP2788855B1 (en) 2016-06-01
AU2016203103B2 (en) 2018-04-19
AU2022291562B2 (en) 2023-03-02
CA2854071A1 (en) 2013-06-13
US20170018257A1 (en) 2017-01-19
HRP20230225T1 (hr) 2023-04-14
US9077994B2 (en) 2015-07-07
RS61119B1 (sr) 2020-12-31
KR101812469B1 (ko) 2017-12-27
US9288499B2 (en) 2016-03-15
US9697799B2 (en) 2017-07-04
AU2023204114A1 (en) 2023-07-13
EP3514677A3 (en) 2019-10-30
MX365964B (es) 2019-06-21
HUE043319T2 (hu) 2019-08-28
JP7091306B2 (ja) 2022-06-27
SI3514677T1 (sl) 2021-02-26

Similar Documents

Publication Publication Date Title
ES2727965T3 (es) Dispositivo y método para mejorar el intercambio de datos de imágenes basado en no linealidad de luminancia perceptual a través de diferentes capacidades de visualización
KR102121676B1 (ko) 지각 코드 공간에서 디스플레이를 동작시키기 위한 기술들
RU2772241C2 (ru) Устройство и способ улучшения обмена данными изображения на основе нелинейности восприятия яркости между разными возможностями отображения