ES2551561T3 - Codecs de alto rango dinámico - Google Patents

Codecs de alto rango dinámico Download PDF

Info

Publication number
ES2551561T3
ES2551561T3 ES10185996.5T ES10185996T ES2551561T3 ES 2551561 T3 ES2551561 T3 ES 2551561T3 ES 10185996 T ES10185996 T ES 10185996T ES 2551561 T3 ES2551561 T3 ES 2551561T3
Authority
ES
Spain
Prior art keywords
image
dynamic range
high dynamic
pixels
lowest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES10185996.5T
Other languages
English (en)
Inventor
Alexander Efremov
Rafal Mantiuk
Grzegorz Krawczyk
Karol Myszkowski
Hans-Peter Seidel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Max Planck Gesellschaft zur Foerderung der Wissenschaften eV
Original Assignee
Max Planck Gesellschaft zur Foerderung der Wissenschaften eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Max Planck Gesellschaft zur Foerderung der Wissenschaften eV filed Critical Max Planck Gesellschaft zur Foerderung der Wissenschaften eV
Application granted granted Critical
Publication of ES2551561T3 publication Critical patent/ES2551561T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]

Abstract

Un método para codificar una imagen de alto rango dinámico (12), comprendiendo el método los pasos de: - obtener una imagen de menor rango dinámico (14) correspondiente a la imagen de alto rango dinámico (12), pudiéndose obtener la imagen de menor rango dinámico (14) a partir de la imagen de alto rango dinámico (12) mediante un proceso de reducción del rango dinámico y que contiene la misma escena que la imagen de alto rango dinámico (12); - generar una función de predicción (19) para predecir una imagen de alto rango dinámico (12) a partir de la imagen de menor rango dinámico (14), en donde la generación de la función de predicción supone: para cada valor de píxel representado en la imagen de menor rango dinámico, identificar el conjunto de estos píxeles en la imagen de menor rango dinámico (14) que tienen dicho valor de píxel; y para cada uno de estos conjuntos, identificar los píxeles en la imagen de alto rango dinámico (12) que se corresponden con los píxeles en el conjunto respectivo, identificando, de ese modo, los valores de píxel en la imagen de alto rango dinámico (12) que se corresponden con cada valor de píxel representado en la imagen de menor rango dinámico (14), y en donde la función de predicción (19) se basa, al menos en parte, en los valores de píxel de los píxeles en la imagen de alto rango dinámico (12), para los cuales los píxeles correspondientes en la imagen de menor rango dinámico (14) tienen todos el mismo valor de píxel, y utiliza las relaciones estadísticas entre los valores de píxel de los píxeles en la imagen de menor rango dinámico y los valores de píxel correspondientes en la imagen de alto rango dinámico (12), determinando, de ese modo, para cada conjunto un valor de píxel previsto en la imagen de alto rango dinámico (12); - aplicar la función de predicción (19) a la imagen de menor rango dinámico (14) para obtener una imagen de alto rango dinámico prevista (29); - obtener una imagen residual (32) a partir de la imagen de alto rango dinámico prevista (29) y de la imagen de alto rango dinámico (12); y - codificar y almacenar los datos que representan la imagen de menor rango dinámico (14), la función de predicción (19) y la imagen residual (32) en un flujo de video, en donde la imagen de alto rango dinámico (12) y la imagen de menor rango dinámico (14), cada una, comprende una trama en una secuencia de video, y la función de predicción (19) se actualiza para cada trama en la secuencia de video.

Description

DESCRIPCIÓN Codecs de alto rango dinámico. Campo técnico
La invención está relacionada con la codificación de datos de imágenes. La invención tiene una aplicación concreta para codificar imágenes o para codificar secuencias de datos de vídeo. 5
Antecedentes
El rango dinámico es una medida de la luminosidad relativa de las partes más luminosas y más oscuras de una imagen. Hasta hace poco tiempo, la mayor parte de los televisores, monitores de ordenador y otros dispositivos de visualización han sido capaces de reproducir rangos dinámicos de únicamente unos pocos cientos a uno. Esto es mucho menos que el rango dinámico que puede ser apreciado por el ojo humano. Los dispositivos de visualización 10 con rangos dinámicos mayores empiezan a estar disponibles. Dichos dispositivos de visualización de alto rango dinámico pueden proporcionar imágenes que son mucho más naturales y realistas que las imágenes producidas por dispositivos de visualización de “bajo rango dinámico”.
Los dispositivos de visualización de alto rango dinámico son apropiados en un amplio espectro de aplicaciones. Por ejemplo, los dispositivos de visualización de alto rango dinámico se pueden utilizar para mostrar imágenes de vídeo 15 realistas que van desde películas y efectos visuales de juegos, a exhibiciones de efectos visuales en simuladores como, por ejemplo, simuladores de vuelo. Los dispositivos de visualización de alto rango dinámico también se pueden aplicar en aplicaciones exigentes en el procesamiento de imágenes como, por ejemplo, el procesamiento de imágenes médicas.
Muchos formatos de datos de imagen actuales especifican los valores de un píxel utilizando 24 o menos bits por 20 píxel. Estos bits especifican tanto la luminosidad como el color del píxel. 24 bits son muy pocos para especificar tanto un rango completo de colores como una luminosidad que puede variar suavemente a lo largo del rango que es capaz de reproducir una pantalla de alto rango dinámico. Con el fin de obtener un beneficio completo de una pantalla de alto rango dinámico es necesario proporcionar datos de imágenes capaces de especificar un amplio rango de valores de píxel. Se han desarrollado o propuesto varios formatos de datos de alto rango dinámico que proporcionan 25 un número mayor de bits por píxel. Dichos formatos de datos de alto rango dinámico no son típicamente compatibles hacia atrás con los formatos anteriores de datos de bajo rango dinámico.
Por ejemplo, la “Perception-motivated HDR Video Encoding (Codificación de Vídeo HDR motivada por la Percepción)” HDRV tal como se describe en R. Mantiuk, G. Krawczyk, K. Myszkowski y H-P. Seidel. Perception-motivated high dynamic range video encoding (Codificación de vídeo de alto rango dinámico motivada por la 30 percepción). ACM Transactions on Graphics (Publicaciones sobre Gráficos de la ACM) (Actas de SIGGRAPH 2004), 23(3):730-38, 2004 es un método de compresión de vídeo HDR con pérdidas, el cual, no ofrece compatibilidad hacia atrás. El método codifica píxeles HDR utilizando 11 bits para la luminancia y 2 por 8 bits para la crominancia. El flujo de vídeo resultante no contiene ninguna información sobre las tramas LDR.
HDR JPEG se describe en Greg Ward y Mariann Simmons. Subband encoding of high dynamic range imagery 35 (Codificación de subbanda de imágenes de alto rango dinámico). En APGV ’04: Proceedings of the 1st Symposium on Applied perception in graphics and visualization (Actas del primer Simposio sobre percepción aplicada en gráficos y visualización), páginas 83-90, Nueva York, NY, EEUU, 2004. ACM Press. Este método supone submuestrear una capa de subbanda, lo cual da lugar a la pérdida de las frecuencias altas. Con el fin de prevenirlo, el método sugiere tres técnicas: una corrección previa de la capa de LDR, con el fin de codificar dentro de esta capa las frecuencias 40 altas que se pueden perder debido al submuestreo; una corrección posterior que intenta restaurar las frecuencias altas que se han perdido en lugar de modificar la imagen LDR y realizar un muestreo completo, lo cual implica que no se lleva a cabo ningún submuestreo.
Por lo tanto subsiste una necesidad de métodos y equipos prácticos para codificar y decodificar imágenes HDR, especialmente imágenes de vídeo HDR. Todavía existe una necesidad concreta para dichos métodos y equipos que 45 proporcionan compatibilidad hacia atrás con el hardware existente para reproducir imágenes de menor rango dinámico.
La Solicitud de Patente de los EE.UU. US 2005/0259729 A1 divulga un método para codificar una secuencia de vídeo escalable de calidad. Una trama de entrada de N bits se convierte en una trama de entrada de M bits, donde M es un entero entre 1 y N. Con el fin de ser compatible hacia atrás en sistemas de vídeo existentes de 8 bits, se 50 puede elegir que M sea 8. La trama de entrada de M bits se codifica para producir un flujo de bits de salida de la capa base. A partir del flujo de bits de salida de la capa base se reconstruye una trama de salida de M bits y se convierte a una trama de salida de N bits. La trama de salida de N bits se compara con la trama de entrada de N bits con el fin de obtener una diferencia de la imagen de N bits que se codifica para producir un flujo de bits de la capa mejorada. 55
Resumen de la invención
Esta invención proporciona métodos y un equipo para codificar datos de imágenes de alto rango dinámico y para decodificar los datos con el fin de proporcionar tanto datos de imágenes de menor rango dinámico como datos de imágenes de mayor rango dinámico. Los métodos y el equipo se pueden aplicar a la codificación datos de vídeo. En algunos modos de realización de la invención los datos de menor rango dinámico se codifican en un formato 5 estándar como, por ejemplo, un formato MPEG (Grupo de Expertos de Imágenes en Movimiento).
Un aspecto de la invención proporciona un método ara codificar una imagen de alto rango dinámico. El método comprende obtener una imagen de menor rango dinámico que se corresponde con la imagen de alto rango dinámico; identificar grupos de píxeles en la imagen de alto rango dinámico para los que los píxeles correspondientes en la imagen de menor rango dinámico tengan todos el mismo valor de píxel; generar una función 10 de predicción basada al menos en parte en los valores de píxel de los píxeles en la imagen de alto rango dinámico que pertenecen a cada uno de una pluralidad de los grupos; aplicar la función de predicción a la imagen de menor rango dinámico con el fin de obtener una imagen prevista; calcular una imagen residual que representa las diferencias entre los valores de píxel en la imagen prevista y los valores de píxel correspondientes en la imagen de alto rango dinámico; y, codificar y almacenar los datos que representan la imagen de menor rango dinámico, la 15 función de predicción y la imagen residual.
Otros aspectos de la invención proporcionan métodos para decodificar imágenes de alto rango dinámico que se han codificado de acuerdo con la invención y un equipo para codificar y/o decodificar imágenes de alto rango dinámico.
A continuación se describen aspectos adicionales de la invención y características de los modos de realización específicos de la invención. 20
Breve descripción de los dibujos
En los dibujos que ilustran los modos de realización no limitantes de la invención,
la Figura 1 es un diagrama de flujo que ilustra un método de codificación de acuerdo con un modo de realización de la invención;
la Figura 1A es un histograma de valores de píxel de una imagen de alto rango dinámico para la que todos los 25 píxeles correspondientes en una versión de menor rango dinámico de la imagen tienen el mismo valor de píxel;
la Figura 2 es un diagrama de flujo que ilustra un método de decodificación de acuerdo con la invención;
la Figura 3 es un diagrama de flujo que ilustra un método de codificación MPEG de acuerdo con un modo de realización específico;
las Figuras 4A a 4F muestran la relación entre los valores de luma (luminosidad de la imagen) en las imágenes HDR 30 y LDR correspondientes para varios algoritmos de mapeo de tonos;
la Figura 5 muestra un método para filtrar datos de imágenes residuales de acuerdo con un modo de realización de la invención; y,
la Figura 6 es un diagrama que ilustra la tasa de bit como una función del parámetro de calidad de imagen para un prototipo de sistema de codificación. 35
Descripción
A lo largo de la siguiente descripción se establecen detalles específicos con el fin de proporcionar un conocimiento exhaustivo de la invención. No obstante, la invención se puede poner en práctica sin estos detalles. En otros ejemplos, no se muestran o describen en detalle los elementos bien conocidos con el fin de evitar enmascarar la invención de forma innecesaria. En consecuencia, la especificación y los dibujos se deben considerar en sentido 40 ilustrativo en lugar de restrictivo.
La Figura 1 muestra un método 10 para codificar una trama de datos de imágenes de acuerdo con un modo de realización básico de la invención. El método 10 codifica tanto datos de alto rango dinámico (HDR) 12 como datos de menor rango dinámico (LDR) 14 en datos de imagen codificados 38. Tal como se describe a continuación, los datos de imagen codificados 38 se pueden decodificar para reconstruir tanto los datos LDR como los datos HDR. 45
Únicamente a modo de ejemplo, los datos HDR 12 se pueden representar en un espacio de color como, por ejemplo, el espacio de color CIE XYZ (observador estándar 2E) en el que el color y el brillo de cada uno de los píxeles se especifica mediante tres números de coma flotante. Los datos LDR 14 se pueden representar en un espacio de color como, por ejemplo, el espacio de color sRGB en el que el color y el brillo de cada uno de los píxeles se especifica mediante tres bytes. En algunos modos de realización, los datos LDR 14 se obtienen a partir de los 50
datos HDR 12 (o un precursor de los datos HDR 12) mediante un proceso 16 de reducción del rango dinámico apropiado.
La reducción del rango dinámico puede comprender un mapeo de tonos y/o un mapeo de gama de colores, por ejemplo. Se puede utilizar cualquier operador de mapeo de tonos o mapeo de gama de colores. Por ejemplo, se puede seleccionar un operador de mapeo de tonos con el fin de saturar tanto la luminancia como el color, cambiar 5 los valores de color y mejorar el contraste local. Dichos cambios pueden dar lugar a una tasa de compresión menor, pero en el flujo de vídeo resultante se preservarán tanto las tramas LDR como las HDR.
En el bloque 18, el método 10 aplica una función de predicción 19. La función de predicción 19 proporciona como salida un valor de píxel previsto para un píxel en los datos HDR 12 basado en el valor de píxel para el píxel correspondiente en lo datos LDR 14. Como el objetivo es conseguir reproducir los datos HDR 12 y los datos LDR 14 10 a partir de los datos de imagen codificados 38, es preferible basar la función de predicción 19 en una versión de los datos LDR 14 que se pueda reconstruir a partir de los datos de imagen codificados 38.
Cuando se utiliza un algoritmo con pérdidas para codificar y comprimir los datos LDR 14, no es posible garantizar que la versión reconstruida de los datos LDR 14 sea idéntica a los datos LDR 14 originales. Por esta razón, la Figura 1 muestra que el bloque 19 recibe como entrada los datos LDR reconstruidos 26. Los datos LDR reconstruidos 26 se 15 obtienen codificando/comprimiendo los datos LDR 14 en el bloque 20 con el fin de proporcionar datos LDR codificados comprimidos 22 y, a continuación, decodificar/descomprimir los datos LDR codificados comprimidos 22 en el bloque 24. Los datos LDR codificados comprimidos 22 se incluyen en los datos de imagen codificados 38. La línea 15 ilustra una alternativa menos precisa en la que el bloque 18 utiliza directamente los datos LDR 14 para aplicar la función de predicción 19. 20
La función de predicción 19 utiliza preferiblemente las relaciones estadísticas entre los valores de píxel en los datos LDR reconstruidos 26 y los valores de píxel correspondientes en los datos HDR 12. En general, si se toman todos los píxeles en la imagen LDR reconstruida 26 para la que todos los píxeles tienen el mismo valor de píxel específico, los píxeles correspondientes en la imagen de datos HDR 12 no tendrán todos el mismo valor de píxel. Esto es, en general, existe una relación uno a muchos entre los valores de píxel LDR y los valores de píxel HDR. 25
La Figura 1A es un histograma en el que el eje horizontal representa todos los valores de píxel HDR posibles y el eje vertical indica el número de píxeles en los que la imagen representada por los datos de la imagen HDR 12 tienen dicho valor. Puede existir un número significativo de valores de píxel para los que la imagen no tiene ningún píxel que tenga dicho valor. Las barras sombreadas en la Figura 1A representan valores de píxeles en los datos de la imagen HDR 12 para los que todos los píxeles correspondientes en los datos de la imagen LDR reconstruida 26 30 tienen el mismo valor de píxel XLDR. Los valores de píxel HDR que se corresponden con el rango de XLDR de valor de píxel LDR varían entre A y B. Todos los valores de píxel HDR para los píxeles que se corresponden con el mismo valor de píxel en los datos de la imagen LDR reconstruida 26 se puede denominar un contenedor. Es normal, pero no obligatorio, que no se solapen los diferentes contenedores.
Una función de predicción 19 para una imagen se puede obtener a partir de los datos de la imagen HDR 12 y los 35 datos de la imagen LDR reconstruida 26 mediante la agrupación de los valores de píxel HDR en contenedores y el análisis estadístico de cada uno de los contenedores. La agrupación de los valores de píxel HDR en contenedores puede comprender:
 tomar los datos de la imagen LDR reconstruida 26, y para cada uno de los valores de píxel representados en los datos de la imagen LDR reconstruida 26 identificar el conjunto de todos los píxeles que tienen dicho valor de 40 píxel;
 para cada uno de los conjuntos de píxeles identificar los píxeles correspondientes en los datos HDR 12 y determinar los valores de píxel de aquellos píxeles correspondientes para generar un conjunto de todos los valores de píxel HDR que se corresponden con cada uno de los valores de píxel LDR.
La función de predicción 19 se puede obtener mediante cualquiera de las siguientes operaciones: 45
 calcular la media aritmética de los valores de píxel HDR en cada uno de los contenedores;
 calcular la mediana de los valores de píxel HDR en cada uno de los contenedores;
 calcular el promedio de los valores A y B que delimitan el contenedor;
 alguna combinación de los anteriores; o
 similares. 50
Se considera que para muchas aplicaciones la media aritmética proporciona una buena combinación de precisión y eficiencia de cálculo.
Dada una función de predicción 19 únicamente es necesario codificar las diferencias entre los valores previstos por parte de la función de predicción 19 y los valores reales de los datos de la imagen HDR 12. Dichas diferencias son normalmente próximas a cero y por lo tanto se pueden comprimir de forma eficiente en tramas residuales.
La función de predicción 19 necesita estar definida únicamente para los valores de píxel posibles en los datos LDR 14 (256 valores en el caso de que los valores de píxel estén representados por un número de 8 bits). La función de 5 predicción 19 puede comprender una tabla de búsqueda indexada con los valores válidos para los píxeles LDR. La función de predicción 19 se puede implementar como una tabla de búsqueda que tenga un valor de salida correspondiente para cada uno de los valores del índice. Por ejemplo, cuando los píxeles LDR tienen valores de 8 bits, La tabla de búsqueda puede comprender 256 valores diferentes indexados mediante enteros en el rango de 1 a 256. La función de predicción 19 no necesita ser continua ya que su función principal es hacer los valores de las 10 tramas residuales tan pequeños como sea posible. Alternativamente, la función de predicción 19 se puede representar parcial o completamente mediante una curva continua parametrizada de forma apropiada.
En el bloque 28 el método 10 obtiene una imagen HDR prevista mediante la aplicación de la función de predicción 19 a los datos LDR 26 reconstruidos. El valor de píxel para cada uno de los píxeles de los datos LDR 26 reconstruidos se utiliza como una entrada a la función de predicción 19 y el valor de píxel se sustituye por la salida 15 resultante de la función de predicción 19 para generar una imagen HDR prevista 29.
El bloque 30 calcula una diferencia entre la imagen HDR prevista 29 y la imagen de los datos HDR 12 con el fin de proporcionar una imagen residual 32. La imagen residual 32 se codifica/comprime en el bloque 34 y da como resultado los datos de la imagen residual 35 para incluirlos en los datos de imagen codificados 38. El bloque 34 puede comprender filtrado y cuantificación de la imagen residual 32 con el fin de eliminar la información que no 20 tendrá un efecto observable (o, con un filtrado y/o cuantificación más agresivo un efecto excesivamente perjudicial) sobre la fidelidad de una imagen HDR reconstruida a partir de los datos de imagen codificados 38.
La Figura 2 muestra un método 40 para decodificar los datos de imagen codificados 38. Los datos LDR 22 se pueden extraer a partir de los datos de imagen codificados 38 y decodificados/descomprimidos en el bloque 32 con el fin de generar los datos LDR 43 que se obtienen como una salida de datos LDR 44. Si la salida de datos LDR 44 25 es todo lo que se necesita, entonces no es necesario realizar ningún procesamiento adicional.
Si también es necesario una salida de datos HDR 56, entonces en el bloque 46 se transforma una función de predicción 37 con el fin de generar una función de predicción 47 y en el bloque 50 se decodifican/descomprimen unos datos de la imagen residual 35 con el fin de generar la imagen residual 52.
En el bloque 48 se aplica la función de predicción 47 a los datos LDR 43 con el fin de generar una imagen HDR 30 prevista 49. En el bloque 54 la imagen HDR prevista 49 se combina con la imagen residual 52 con el fin de generar la salida de datos HDR 56. Un decodificador que funciona tal como se muestra en la Figura 2 puede ser compatible hacia atrás con los sistemas y dispositivos que necesitan una salida de datos LDR 44 al mismo tiempo que proporciona datos HDR de alta calidad en la salida de datos HDR 56.
Los métodos 10 y 40 se pueden llevar a la práctica mediante: 35
 procesadores de datos programados, los cuales pueden comprender uno o más de los siguientes: microprocesadores, procesadores de señales digitales, alguna combinación de los mismos, o similares que ejecuten software que haga que los procesadores de datos implementen los métodos;
 circuitos de hardware, por ejemplo circuitos que incluyan bloques funcionales que cooperen para implementar el método – los circuitos pueden comprender, por ejemplo, matrices de puertas programables en campo (“FPGA”) 40 o circuitos integrados para aplicaciones específicas (“ASIC”) configurados de forma apropiada; o,
 llevar a cabo algunas partes de los métodos en procesadores de datos programados y otras partes de los métodos en circuitos de hardware apropiados.
La Figura 3 muestra un método 70 de acuerdo con un ejemplo de modo de realización más específico. El método 70 codifica tramas de vídeo de una forma que satisface los estándares establecidos mediante las normas del Grupo de 45 Expertos de Imágenes en Movimiento (MPEG). El método 70 recibe dos flujos de entrada de datos de vídeo. En la entrada 72 se recibe un flujo que contiene tramas HDR 74. En la entrada 78 se recibe un flujo que contiene tramas LDR 76. Las tramas LDR 76 se pueden obtener a partir de las tramas HDR 74 o algún precursor anterior de las tramas HDR 74 de la entrada 78.
Un codificador que funciona tal como se muestra en la Figura 3 produce tres flujos comprimidos: un flujo LDR 80, 50 que puede ser totalmente compatible con MPEG; un flujo residual 82, que contiene las diferencias entre las tramas LDR 76 y las tramas HDR 74 correspondientes; y un flujo auxiliar 84 que contiene datos auxiliares para la reconstrucción de las tramas HDR 74. El mejor rendimiento se puede conseguir cuando el flujo residual 82 y el flujo auxiliar 84 no duplican la información codificada en el flujo LDR 80.
Las tramas LDR 76 se codifican en el bloque 88 utilizando un codificador apropiado. Por ejemplo, el bloque 88 puede utilizar un codificador de vídeo MPEG compatible con el estándar ISO/IEC 14496-2. Alternativamente se pueden utilizar otros codificadores de vídeo. El flujo de vídeo resultante se puede encapsular en un formato contendor de medios apropiado como, por ejemplo, Entrelazado de Audio Vídeo (AVI) o QuickTimeTM, de modo que puede ser reconocido y reproducido por el software existente. 5
En el bloque 90 se decodifican las tramas LDR codificadas con MPEG. Con el fin de minimizar el cálculo, la decodificación del bloque 90 puede ser realizada por el codificador MPEG utilizado en el bloque 88. Los codificadores MPEG típicamente decodifican las tramas internamente para su utilización en los vectores de estimación de movimiento. El bloque 90 puede comprender el acceso a las tramas decodificadas generadas por el codificador MPEG. Alternativamente, el bloque 90 se puede implementar de forma independiente del bloque 88. 10
La salida del bloque 90 será, en general, diferente de la entrada del bloque 88 debido a que MPEG es un método de compresión con pérdidas. Las tramas LDR que se codifican con MPEG y a continuación se decodifican no son exactamente iguales a las tramas LDR originales sino que contienen efectos no deseados de la compresión.
En los bloques 92A y 92B, si es necesario, se transforman los espacios de color de una o ambas tramas LDR 76 y tramas HDR 74 con el fin de proporcionar tramas LDR y tramas HDR que estén representadas en espacios de color 15 mutuamente compatibles. El tipo de transformaciones realizadas en los bloques 92A y 92B, si se realizan, depende de los espacios de color de las tramas LDR 76 y las tramas HDR 74. En algunos casos no son necesarios los bloques 92A y 92B. En otros casos únicamente es necesario el bloque 92A o el 92B.
Los espacios de color de HDR y LDR son compatibles cuando los canales de color de ambos espacios de color LDR y HDR representan aproximadamente la misma información. También es deseable que los espacios de color de 20 HDR y LDR sean perceptivamente uniformes. La uniformidad perceptiva facilita la estimación de las diferencias de color de acuerdo con diferencias perceptibles en lugar de aritméticas. También es deseable que el espacio de color HDR preserve una amplia gama de colores, idealmente la gama completa de colores visibles, incluso aunque la gama completa de colores visibles no se pueda mostrar en las pantallas existentes.
Los inventores consideran que un buen espacio de color para su utilización en la representación de datos de 25 imágenes HDR es una combinación de las Escalas de Cromaticidad Uniforme CIE de 1976 (u0, v0) con la corrección gamma del espacio de color sRGB. También se podrían utilizar otros espacios de color. En un ejemplo, las tramas LDR 76 de entrada se representan en el espacio de color sRGB mientras que las tramas HDR 74 de entrada se representan en el espacio de color CIE XYX (observador estándar 2E). En este caso, el bloque 92A comprende la conversión de píxeles LDR del espacio de color sRGB al espacio lldruldrvldr. Esto se puede realizar calculando las 30 coordenadas de color CIE XYZ y a continuación calcular la luma y las coordenadas de color u’ y v’ a partir de los valores XYZ. Los valores XYZ se pueden determinar utilizando las fórmulas de conversión del sRGB proporcionadas en el documento IEC 61966-2-1:1999. Multimedia systems and equipment – Colour measurement and management – Part 2-1: Colour management – Default RGB colour space - sRGB (Sistemas y equipo multimedia – Medición y gestión del color – Parte 2-1: gestión del color – espacio de color RGB por defecto - sRGB). Comisión Electrotécnica 35 Internacional, 1999. Por ejemplo, para R8-bit la coordenada de color de 8 bits es:
(1)
(2)
Las coordenadas de color G8-bit y B8-bit se pueden convertir igualmente a valores de coma flotante y, a continuación, X, Y y Z se pueden determinar a partir de:
(3)
La matriz de ejemplo en la Ecuación (3) supone el píxel blanco D65. Se puede calcular la luma para cada uno de los píxeles LDR utilizando los valores de color corregidos apropiados. Por ejemplo, la luma se puede calcular mediante: 40
(4)
lldr=0,2126xR8-bit+0,7152xG8-bit+0,0722xB8-bit
donde: lldr es el valor de luma para un píxel LDR. La luma es la suma ponderada de los componentes no lineales R’ G’ B’ después de haber aplicado la corrección gamma.
Las cromaticidades u’ y v’ se pueden obtener a partir de:
(5)
y
(6)
A continuación se pueden obtener los números uldr y vldr de 8 bits multiplicando cada uno de los u’ y v’ por un factor de escala apropiado como, por ejemplo
(7)
uldr = u’x410
y
(8)
vldr = v’x410
En el espacio de color transformado, cada uno de los píxeles de los datos LDR se representa mediante los valores 5 de píxel lldr, vldr, uldr.
El bloque 92B puede transformar los valores de color de las tramas HDR 74 sustancialmente de la misma forma que se ha descrito más arriba para los valores de los píxeles LDR. La corrección gamma normal no se puede utilizar normalmente para el rango de valores de luminancia que se pueden especificar en una trama HDR. Por lo tanto, algunos modos de realización utilizan una representación de luminancia perceptivamente uniforme que se ha 10 obtenido a partir de las medidas de detección de contraste para los observadores humanos. Este espacio tiene propiedades parecidas a un espacio en el que se realiza la corrección gamma a los valores de los píxeles LDR pero se puede codificar todo el rango visible de luminancia (utilizando, por ejemplo, 11-12 bits).
En un ejemplo de modo de realización, la luminancia HDR, y, se transforma en la luma HDR de 12 bits, lldr, mediante la fórmula: 15
(9)
donde las constantes se listan en la Tabla 1 más abajo. La transformación inversa se obtiene mediante:
(10)
donde las distintas constantes utilizadas en las Ecuaciones (9) y (10) se listan en la Tabla 1 más abajo.
TABLA I – Constantes de Ejemplo para las Ecuaciones (9) y 10)
a
b c d e f
17,554
826,81 0,10013 -884,17 209,16 -731,28
yl
yh
5,6046
10469
a'
b' c' d' e' f'
0,056968
7,3014e-30 9,9872 884,17 32994 0,00478
ll
lh
98,381
1204,7
El bloque 94 genera una función de predicción para los datos de la imagen HDR. La función de predicción intenta predecir un valor de píxel para un píxel en los datos de la imagen HDR basándose en un valor de píxel correspondiente para el píxel correspondiente de los datos de la imagen LDR. Idealmente la función de predicción se selecciona para minimizar el número de píxeles en los datos de la imagen HDR que tienen valores que difieren significativamente de los valores predichos por la función de predicción. La función de predicción es preferiblemente 5 no lineal en el dominio logarítmico.
En los casos en los que los valores de píxel que representan la cromaticidad en los datos HDR sean prácticamente iguales que los valores de píxel correspondientes en los datos de la imagen LDR, no es necesario calcular una función de predicción para los valores de píxel de cromaticidad (por ejemplo u’ y v’). En dichos casos, únicamente es necesario proporcionar una función de predicción para los valores de brillo (por ejemplo luma, luminancia o 10 similares).
Como las tramas LDR 76 y las tramas HDR 74 contienen una información parecida, estas tramas se encuentran fuertemente correlacionadas. Cuando se obtienen las tramas LDR 76 mediante la aplicación de un algoritmo de mapeo de tonos a las tramas HDR 74, la naturaleza concreta de la correlación depende del algoritmo de mapeo de tonos que se haya utilizado. 15
Las Figuras 4A a 4F muestran cómo están relacionados los valores de luma de una trama LDR con los valores de luma de la trama HDR correspondiente. Cada una de estas Figuras se aplica a una función de mapeo de tonos diferente para obtener una imagen LDR a partir de una imagen HDR de ejemplo. Estas funciones de mapeo de tonos proporcionan, en general, una relación lineal entre lldr y lhdr para valores pequeños. Existe una mayor variación entre las funciones de mapeo de tonos para valores de luminancia mayores. En cada una de las Figuras 4A a 4D, 20 los valores de luma LDR se representan sobre el eje horizontal y los valores de luma HDR se representan sobre el eje vertical. Los puntos marcados con una X indican los valores de píxel de los píxeles correspondientes en las imágenes LDR y HDR.
Las Figuras 4A a 4F se corresponden respectivamente con las funciones de mapeo de tonos divulgadas en:
 S. Pattanaik, J. E. Tumblin, H. Yee y D. P. Greenberg. Time dependent visual adaptation for realistic image 25 display (Adaptación visual en función del tiempo para mostrar imágenes realistas). En las Actas de SIGGRAPH 2000 de la ACM, Computer Graphics Proceedings (Actas de Gráficos por Ordenador), Series de Conferencias Anuales, páginas 47-54, julio de 2000.
 Erik Reinhard, Michael Stark, Peter Shirley y Jim Ferwerda. Photographic tone reproduction for digital images (Reproducción de tonos fotográficos para imágenes digitales). Publicaciones de ACM sobre Gráficos, 21(3):267-30 266, 2002.
 Frédo Durand y Julie Dorsey. Fast bilateral filtering for the display of high-dynamic-range images (Filtrado bilateral rápido para la visualización de imágenes de alto rango dinámico). Publicaciones de ACM sobre Gráficos, 21(3):257-266, 2002.
 Raanan Fattal, Dani Lischinski y Michael Werman. Gradient domain high dynamic range compression 35 (Compresión de alto rango dinámico en el dominio de gradiente). Publicaciones de ACM sobre Gráficos, 21(3):249-256, 2002.
 Frédéric Drago, Karol Myszkowski, Thomas Annen y Norishige Chiba. Adaptative logarithmic mapping for displaying high contrast scenes (Mapeo adaptativo logarítmico para mostrar escenas de alto contraste). Foro de Gráficos por Ordenador, publicaciones de Eurographics 2003, 22(3):419-426, 2003. 40
 Rafal Mantiuk, Karol Myszkowski y Hans-Peter Seidel. A perceptual framework for contrast processing of high dynamic range images (Un marco perceptivo para el procesamiento del contraste de imágenes de alto rango dinámico). En APGV ’05: Publicaciones del 2º Simposio sobre Percepción Aplicada en Gráficos y Visualización, páginas 87-94, Nueva York, NY, EEUU, 2005. ACM Press.
La función de predicción se puede generar tal como se ha descrito más arriba. En los casos en los que la función de 45 predicción se define como la media aritmética de los valores de todos los píxeles HDR que se encuentran en un determinado contenedor, la predicción se puede realizar mediante:
(11)
donde i= {i=1…N* lldr(i)=l}, l=0…255;
N es el número de píxeles en una trama y lldr(i) y lhdr(I) son los valores de luma para el píxel i-ésimo de las tramas
LDR y HDR, respectivamente. La función de predicción se actualiza preferiblemente para cada una de las tramas.
En las Figuras 4A a 4F, las funciones de predicción se muestran como líneas sólidas. Las funciones de predicción dependerán del contenido de la imagen así como de la función de mapeo de tonos utilizada. Las Figuras 4A a 4F muestran unas funciones de predicción para imágenes HDR típicas. Las Figuras 4A a 4F muestran que las funciones de predicción típicas tienden a cambiar de forma lenta con una pendiente que aumenta sobre partes 5 significativas de su rango. Por lo tanto, en algunos modos de realización, en lugar de codificar los valores de la función de predicción para cada uno de los contenedores, se codifican las diferencias de los valores de la función de predicción para dos contenedores consecutivos. Estas diferencias se pueden comprimir con el fin de reducir aún más el número de bits, por ejemplo, utilizando un algoritmo de Huffman adaptativo tal como se indica en el bloque 95. En algunos modos de realización el tamaño del flujo de datos auxiliar 84 es el 1% o menos del total del tamaño 10 del flujo. De este modo, la sobrecarga de almacenamiento de una función de predicción puede ser prácticamente insignificante. Las funciones de predicción o partes de las funciones de predicción también se pueden representar de otras formas, por ejemplo, como curvas polinómicas parametrizadas, curvas spline (polinómicas suavizadas básicas), u otras funciones parametrizadas.
En el bloque 96 se calculan las tramas residuales. Cada uno de los valores de píxel en la trama residual representan 15 la diferencia entre el valor de píxel para el píxel correspondiente de la trama HDR y el valor de píxel para el píxel predicho mediante la aplicación de la función de predicción al valor de píxel del píxel correspondiente de la trama LDR. El bloque 96 se puede ejecutar de forma independiente para cada uno de los valores de píxel (l, u y v en este ejemplo). Para los valores de luminancia, cada uno de los píxeles rl(i) de la trama residual se puede calcular mediante 20
(12)
rl(i)= lhdr(i)-RF(lldr(i))
para los valores cromáticos, la función de predicción puede ser una función identidad, en cuyo caso:
(13)
ru(i)= uhdr(i)-uldr(i)
y
(14)
rv(i)= vhdr(i)-vldr(i)
Una función de predicción seleccionada de forma apropiada puede reducir significativamente la cantidad de datos que codifican las tramas HDR. Con independencia de este ahorro, las tramas residuales pueden seguir conteniendo una cantidad significativa de ruido que no mejora de forma visible la calidad de las imágenes HDR reconstruidas. La 25 relación de compresión se puede mejorar sin provocar una reducción apreciable en la calidad de la imagen mediante el filtrado de las tramas residuales con el fin de reducir o eliminar este ruido. El bloque 98 filtra las tramas residuales. La señal en las tramas residuales a menudo se encuentra relativamente próxima al umbral de visibilidad. Por lo tanto, el filtrado puede dar lugar a una reducción de datos significativa sin una degradación significativa de la calidad de las imágenes HDR reconstruidas a partir de los datos. 30
Una salida del bloque 98 es una trama residual en la que se han atenuado las altas frecuencias en aquellas regiones en las que no son visibles. La Figura 5 muestra un método 110 que se puede aplicar para filtrar las tramas residuales. El método 110 se puede poner en práctica en el contexto de un método de codificación de acuerdo con la invención pero también se puede aplicar en otros contextos en los que se desea reducir la cantidad de datos que representan una imagen sin introducir en la misma efectos visibles no deseados. 35
La descripción realizada a continuación describe el procesamiento que se realiza sobre un canal de luma. También se puede aplicar el mismo procesamiento a los canales de croma. Con el fin de reducir el procesamiento, los canales de croma se pueden submuestrear, por ejemplo, a la mitad de su resolución original. Esta reducción explica aproximadamente las diferencias en la CSF de luminancia y crominancia.
El método 110 recibe una trama residual 112 y una trama HDR 114 que enmascara la trama residual. En los bloques 40 116 y 118 se aplica una Transformada Wavelet (de Ondículas) Discreta (DWT) para dividir la trama 114 de enmascaramiento y la trama residual 112 en varios canales selectivos de frecuencia y orientación. En lugar de la DWT se pueden utilizar otras transformadas apropiadas como, por ejemplo, la transformada de cortex descrita en A. B. Watson. The cortex transform: rapid computation of simulated neural images (La transformada de cortex: cálculo rápido de imágenes neuronales simuladas). Computer Vision Graphics and Image Processing (Gráficos de Visión 45 por Ordenador y Procesamiento de imágenes), 39:311-327, 1987. La transformada de cortex puede ser muy intensiva en cálculo por lo que únicamente resulta práctica si existen suficientes recursos de cálculo.
Un modo de realización de un prototipo se basa en la wavelet discreta CDF 9/7 (la cual también se utiliza para la compresión de imágenes con pérdidas de acuerdo con el estándar JPEG-2000). La base de wavelet ofrece una buena relación entre suavidad y eficiencia de cálculo. En el prototipo, únicamente se utilizan las tres escalas más 50 finas de la descomposición de wavelet ya que el filtrado de frecuencias espaciales menores en escalas más gruesas
podría provocar efectos no deseados perceptibles.
En el bloque 120 se aplica una función como, por ejemplo, una función de sensibilidad al contraste (CSF) para responder a la menor sensibilidad del sistema visual humano para las frecuencias espaciales altas. La aplicación de la CSF supone ponderar con un valor constante cada una de las bandas de los coeficientes de la wavelet. En la Tabla 2 se ofrecen ejemplos de factores de ponderación para una distancia de observación de 1700 píxeles. 5
TABLA 2 – coeficientes de CSF
Escala
LH HL HH
1
0,275783 0,275783 0,090078
2
0,837755 0,837755 0,701837
3
0,999994 0,999994 0,999988
Los canales de visión humanos tienen una limitada sensibilidad de fase. Esto proporciona una oportunidad adicional para descartar información sin obtener una degradación perceptible de las imágenes reconstruidas. Una señal de enmascaramiento no afecta únicamente a las regiones en las que los valores de los coeficientes de wavelet son los mayores, sino que también afecta a las regiones vecinas. Una incertidumbre de fase también reduce el efecto de enmascaramiento en las fronteras, a diferencia de las texturas que muestran mayores cantidades de 10 enmascaramiento.
La incertidumbre de fase se puede modelar con la norma L0,2, que también se utiliza en la compresión de imágenes JPEG-2000. La norma L0,2 viene dada por:
(15)
y sus equivalentes matemáticos en donde l representa el entorno de un coeficiente (en la implementación del prototipo se utiliza una caja 13H13 como el entorno), LCSF es un coeficiente de wavelet que se ha ponderado 15 mediante la aplicación de un factor CSF y es el coeficiente de wavelet ponderado mediante CSF después de tener en cuenta la incertidumbre de fase.
El bloque 124 predice cómo cambia el contraste de umbral en presencia de la señal de enmascaramiento de la trama HDR 114 original. Con el fin de modelar el enmascaramiento del contraste, se puede utilizar una función de elevación de umbral. La función de elevación del umbral puede, por ejemplo, tener la forma: 20
(16)
En el modo de realización del prototipo, las constantes de la Ecuación (16) son a=0,093071, b=1,0299 y c=11,535.
Cada uno de los coeficientes ponderados por la CSF para la trama residual, RCSF, se compara con el valor de la elevación de umbral Te correspondiente calculado a partir de la trama HDR 114 original. Si RCSF es más pequeña que la elevación de umbral Te de la Ecuación (16), al coeficiente se le puede asignar el valor cero sin introducir cambios que sean perceptibles en la eventual imagen reconstruida. Esto se puede expresar mediante: 25
(17)
Por último, los coeficientes de wavelet filtrados, Rfilt se vuelven a transformar al dominio de la imagen. El método de filtrado previo presentado más arriba puede reducir de forma sustancial el tamaño del flujo residual. El filtrado es un equilibrio razonable entre eficiencia de cálculo y precisión del modelo visual. El filtrado tal como el que se ha descrito en la presente solicitud aumenta típicamente el tiempo de codificación en no más de aproximadamente el 80%. El filtrado durante la codificación no aumenta los tiempos de decodificación. 30
Volviendo a la Figura 3, el bloque 100 cuantifica las tramas residuales filtradas. Aunque las magnitudes de las diferencias codificadas en las tramas residuales son normalmente pequeñas, pueden tomar valores dentro del rango de !4095 a 4095 (para una codificación de luma HDR de 12 bits). Obviamente, dichos valores no se pueden codificar utilizando un codificador MPEG de 8 bits. Aunque el estándar de MPEG proporciona una extensión para codificar los valores de luma en 12 bits, dicha extensión se implementa con poca frecuencia, especialmente en hardware. 35
El bloque 100 de cuantificación permite reducir la magnitud de los valores residuales, preferiblemente de forma
suficiente para que dichos valores se puedan codificar utilizando un codificador MPEG estándar de 8 bits. Se pueden utilizar varios esquemas de cuantificación. Por ejemplo, algunos modos de realización aplican una cuantificación no lineal, en la que se cuantifican fuertemente los valores absolutos grandes del residuo, mientras que los valores pequeños se mantienen con la máxima precisión. Como existen muy pocos píxeles que contengan un residuo con una magnitud grande, la mayoría de los píxeles no se ven afectados por la fuerte cuantificación. 5
Una fuerte cuantificación puede provocar que algunas imágenes tengan una calidad visual pobre. Esto se debe a que incluso aunque sean pocos los píxeles que tienen errores de cuantificación grandes, estos pueden sobresalir de modo que disminuya la calidad de la imagen percibida.
Una simple acotación de los valores residuales (por ejemplo a un rango de 8 bits) puede producir resultados visualmente mejores con el coste de perder detalles en regiones muy brillantes u oscuras. Además, en imágenes 10 típicas, con funciones de predicción elegidas de forma apropiada, únicamente unos pocos píxeles tienen valores residuales que exceden un rango de 8 bits.
En algunos modos de realización, con el fin de reducir la limitación al coste de una cuantificación más fuerte, los valores residuales se dividen por un factor de cuantificación constante. El factor se puede elegir basándose en un equilibrio entre errores debidos a la acotación y errores debidos a la cuantificación. Dichos factores de cuantificación 15 se pueden establecer de forma separada para cada uno de los contenedores, en función de la magnitud máxima del residuo de todos los píxeles que pertenecen a dicho contenedor. Por lo tanto, los valores residuales después de la cuantificación se pueden calcular mediante:
(18)
donde:
 El operador [·]-127+127 redondea el valor dentro de los corchetes al número entero más cercano y a continuación 20 acota el valor si es mayor que 127 o menor que -127;
 q(l) es un factor de cuantificación que se selecciona por separado para cada uno de los contenedores k.
El factor de cuantificación viene dado por
(19)
donde qmin es un factor de cuantificación mínimo que puede ser, por ejemplo, 1 ó 2.
Los factores de cuantificación q(l) se pueden almacenar junto con la función de predicción en el flujo de datos 25 auxiliar 84. Estos datos se pueden comprimir en primer lugar como en el bloque 95. En la mayoría de los casos, la mayoría de los factores de cuantificación q(l) tendrán el valor qmin. De este modo, la codificación por longitud de serie seguida de la codificación Huffman es un modo efectivo de comprimir los datos que representan los factores de cuantificación.
En el bloque 102 se codifican los valores residuales. Cuando los valores residuales son valores de 8 bits se pueden 30 codificar utilizando una compresión MPEG normal (por ejemplo una compresión MPEG-4). En un modo de realización del prototipo, los valores residuales cuantificados, , y los valores residuales de croma ru y rv se codifican con MPEG después de redondearlos al valor entero más próximo. Téngase en cuenta que las operaciones aplicadas con el fin de obtener los valores residuales son aproximadamente lineales en los casos en los que la función de predicción es casi lineal y el efecto de la cuantificación adaptativa de la Ecuación (18) es mínima. En 35 dichos casos, la información visual de una trama residual se encuentra en las mismas bandas de frecuencia que la trama HDR original, y la cuantificación DCT del residuo tiene un efecto parecido que para los valores de los píxeles HDR originales. Por lo tanto, se puede utilizar una matriz de cuantificación DCT estándar para codificar las tramas residuales.
Como la codificación MPEG en los bloques 88 y 102 es independiente, es posible configurar por separado los 40 parámetros de calidad MPEG para cada uno de los bloques 88 y 102. En la mayoría de las aplicaciones, no es ni intuitivo ni apropiado configurar dos conjuntos de parámetros de calidad MPEG. En los modos de realización preferidos, un único control de calidad configura los parámetros de calidad para ambos bloques 88 y 102. Se ha encontrado que, en general, el configurar que los parámetros de calidad en los bloques 88 y 102 sean iguales entre sí proporciona resultados satisfactorios. 45
Algunas configuraciones de calidad para los bloques 88 y 102 proporcionan mejores resultados de compresión que
otras. Con el fin de conseguir las imágenes HDR de la mejor calidad, el bloque 102 debería comprender una codificación que utilizara la mejor calidad. Las configuraciones de calidad en el bloque 88 afectan principalmente a la calidad de las imágenes LDR reconstruidas a partir del flujo 80 pero también pueden tener algún impacto en las imágenes HDR.
Algunos modos de realización de la invención utilizan el hecho de que ambas tramas LDR y HDR contienen las 5 mismas escenas. De este modo el flujo óptico debería ser el mismo para ambas. En dichos modos de realización, para las tramas residuales se utilizan los mismos vectores de movimiento que se han calculado para las tramas LDR. La estructura de datos 38 puede incluir únicamente un conjunto de vectores de movimiento. En modos de realización alternativos de la invención, los vectores de movimiento se calculan por separado para las tramas LDR y residual y ambos conjuntos de vectores de movimiento se almacenan en los datos 38 de la imagen codificada. 10
El software para poner en práctica los métodos de acuerdo con la invención se puede implementar de varias formas. En un modo de realización del prototipo, el software se implementa como una librería dinámica con el fin de simplificar la integración con software externo. Un conjunto independiente de herramientas de la línea de comandos permite la codificación y decodificación de flujos de vídeo desde y hasta archivos de imágenes HDR.
Como la reproducción de vídeo HDR supone la decodificación de dos flujos MPEG 80 y 82, constituye un reto mayor 15 conseguir una tasa de tramas aceptable que en el caso de la reproducción de vídeo LDR normal. La tasa de tramas de reproducción se puede aumentar ejecutando algunas partes del proceso de decodificación utilizando hardware para gráficos. Por ejemplos, tanto la conversión del espacio de color como el sobremuestreo de canales de color puede ser costoso en capacidad de cálculo cuando se ejecuta en una CPU y sin embargo se puede ejecutar de forma extremadamente eficiente en un procesador gráfico (GPU) como módulos de programa. Además, algunas 20 funciones de conversión del color se pueden acelerar de forma significativa con la utilización de aritmética en coma fija y tablas de búsqueda.
La Figura 6 ilustra el rendimiento del modo de realización del prototipo como una función de la configuración de la calidad. Los puntos inferiores se corresponden con el flujo LDR 80 mientras que los puntos superiores se corresponden con la suma el flujo LDR 80 y el flujo residual 82. Se puede observar que para los valores inferiores 25 del parámetro de calidad qscale (esto es para imágenes de mayor calidad) el porcentaje del flujo de datos global compuesto por el flujo residual 82 es menor que para los valores más altos del parámetro de calidad (correspondientes a las imágenes LDR de menor calidad).
Los codec tal como se han descrito en la presente solicitud se pueden utilizar para codificar y decodificar tanto imágenes individuales como secuencias de vídeo. Dichos codec se pueden utilizar para codificar y decodificar 30 películas para ser almacenadas en medios como DVD u otros medios de almacenamiento que puedan ser comunes en el futuro para el almacenamiento de películas.
Algunos aspectos de la invención proporcionan reproductores de medios que incluyen una salida para imágenes HDR a los que se conecta o se puede conectar un dispositivo de visualización HDR. Los reproductores de medios incluyen hardware, software o una combinación de hardware y software que implementan los métodos de 35 decodificación como los que, por ejemplo, se muestran en la Figura 2.
Algunas implementaciones de la invención comprenden procesadores de ordenador que ejecutan instrucciones de software que provocan que los procesadores pongan en práctica un método de la invención. Por ejemplo, uno o más procesadores en un sistema de procesamiento de datos pueden implementar los métodos de codificación de las Figuras 1 ó 3 o el método de decodificación de la Figura 2 mediante la ejecución de instrucciones de software 40 almacenadas en una memoria accesible a los procesadores. La invención también se puede proporcionar en forma de un producto en forma de programa. El producto en forma de programa puede comprender cualquier medio que incluya un conjunto de señales legibles por un ordenador que comprenda instrucciones, las cuales, cuando sean ejecutadas por un procesador de datos, den lugar a que el procesador de datos ejecute un método de la invención. Los productos en forma de programa de acuerdo con la invención pueden ser de cualquiera de una amplia variedad 45 de formas. El producto en forma de programa puede comprender, por ejemplo, un medio físico como, por ejemplo, un medio de almacenamiento de datos magnético incluyendo discos flexibles, discos duros, medios ópticos de almacenamiento de datos incluyendo CD ROM, DVD, medios electrónicos de almacenamiento de datos incluyendo ROM, flash, RAM, o similares. Las señales legibles por un ordenador del producto en forma de programa se pueden encontrar, alternativamente, comprimidas o cifradas. 50
A menos que se indique lo contrario, cuando más arriba se menciona un componente (por ejemplo un módulo software, un procesador, un montaje, un dispositivo, un circuito, etc.), la referencia a dicho componente (incluyendo una referencia a “medios”) se debe interpretar que incluye como equivalentes de dicho componente a cualquier componente que lleve a cabo la función del componente descrito (esto es, que es equivalente funcionalmente), incluyendo los componentes que no sean estructuralmente equivalentes a la estructura divulgada que lleve a cabo la 55 función en los ejemplos de modos de realización ilustrados en la invención.
Modos de realización adicionales de la invención:
1. Un método para codificar una imagen de alto rango dinámico, comprendiendo el método:
obtener una imagen de un rango dinámico menor que se corresponde con la imagen de alto rango dinámico; 5
identificar grupos de píxeles en la imagen de alto rango dinámico para los que todos los píxeles correspondientes en la imagen de menor rango dinámico tienen el mismo valor de píxel;
generar una función de predicción basada al menos parcialmente en valores de píxel de los píxeles en la imagen de alto rango dinámico que pertenecen a cada uno de una pluralidad de los grupos;
aplicar la función de predicción a la imagen de menor rango dinámico con el fin de obtener una imagen 10 prevista;
calcular una imagen residual que represente las diferencias entre los valores de los píxeles en la imagen prevista y los valores de los píxeles correspondientes en la imagen de alto rango dinámico; y,
codificar y almacenar los datos que representan la imagen de menor rango dinámico, la función de predicción y la imagen residual. 15
2. Un método en el que la obtención de la imagen de menor rango dinámico comprende codificar la imagen de menor rango dinámico y decodificar la imagen de menor rango dinámico.
3. Un método que comprende transformar la imagen de alto rango dinámico, la imagen de menor rango dinámico o tanto la imagen de alto rango dinámico como la imagen de menor rango dinámico entre espacios de color antes de establecer la función de predicción. 20
4. Un método en el que inmediatamente antes de generar la función de predicción, tanto la imagen de menor rango dinámico como la imagen de alto rango dinámico se expresan en espacios de color que incluyen un valor de luma o luminancia de los píxeles y dos o más valores de cromaticidad de los píxeles.
5. Un método en el que la imagen de menor rango dinámico está representada en un espacio de color que comprende un valor de intensidad de los píxeles y dos o más valores de croma de los píxeles. 25
6. Un método en el que la función de predicción es no lineal en el dominio logarítmico.
7. Un método en el que la generación de la función de predicción comprende calcular una media aritmética de los valores de píxel de los píxeles en la imagen de alto rango dinámico que pertenecen a cada uno de la pluralidad de los grupos.
8. Un método en el que la generación de la función de predicción comprende calcular una media de los valores 30 de píxel de los píxeles en la imagen de alto rango dinámico que pertenecen a cada uno de la pluralidad de los grupos.
9. Un método que genera la función de predicción que comprende calcular un promedio de los valores de píxel más altos y más bajos de los valores de píxel de los píxeles en la imagen de alto rango dinámico que pertenecen a cada uno de la pluralidad de los grupos. 35
10. Un método en el que la generación de la función de predicción comprende uno o más de los siguientes:
calcular una media aritmética de los valores de píxel de los píxeles en la imagen de alto rango dinámico que pertenecen a cada uno de la pluralidad de los grupos;
calcular una mediana de los valores de píxel de los píxeles en la imagen de alto rango dinámico que pertenecen a cada uno de la pluralidad de los grupos; 40
calcular un promedio de los valores de los píxeles más alto y más bajo de los valores de píxel de los píxeles en la imagen de alto rango dinámico que pertenecen a cada uno de la pluralidad de los grupos;
calcular un centroide de un subconjunto de los valores de píxel de los píxeles en la imagen de alto rango dinámico que pertenecen a cada uno de la pluralidad de los grupos; y,
combinaciones de los mismos. 45
11. Un método en el que la imagen de menor rango dinámico y la imagen de alto rango dinámico comprenden
cada una trama en una secuencia de vídeo.
12. Un método que comprende la generación de una nueva función de predicción para cada una de las tramas en la secuencia de vídeo.
13. Un método que comprende monitorizar una diferencia entre tramas sucesivas en la secuencia de vídeo y generar una nueva función de predicción cada vez que la diferencia indique que la trama actual es 5 significativamente distinta de una trama anterior.
14. Un método en el que los valores de los píxeles son valores de intensidad de los píxeles.
15. Un método en el que los valores de intensidad de los píxeles comprenden valores de luminancia, valores de luma o valores de radiancia.
16. Un método que comprende generar una función de predicción de croma para cada uno o más valores de 10 croma y para cada uno de los uno o más valores de croma:
aplicar la función de predicción de croma correspondiente a los valores de croma correspondientes para los píxeles en la imagen de menor rango dinámico con el fin de obtener una imagen prevista;
calcular una imagen de croma residual que represente las diferencias entre los valores de croma para los píxeles en las imágenes previstas y de alto rango dinámico; y, 15
codificar y almacenar los datos que representan las funciones de predicción de croma y las imágenes residuales de croma.
17. Un método que comprende submuestrear la imagen residual antes de almacenar los datos que representan la imagen residual.
18. Un método que comprende filtrar la imagen residual con el fin de eliminar el ruido antes de almacenar los 20 datos que representan la imagen residual.
19. Un método en el que el filtrado de la imagen residual comprende:
aplicar una transformada wavelet discreta a la imagen residual y a la imagen de alto rango dinámico para obtener una imagen residual transformada y una imagen de alto rango dinámico transformada;
establecer valores umbral para los coeficientes en la imagen residual transformada en función de los 25 valores de los coeficientes en la imagen de alto rango dinámico transformada; y,
asignar el valor cero a los coeficientes en la imagen residual transformada si los coeficientes tienen valores que no exceden los umbrales correspondientes.
20. Un método en el que el establecimiento de los valores umbral comprende aplicar una función de elevación de umbral a los coeficientes en la imagen de alto rango dinámico transformada. 30
21. Un método en el que la función de elevación de umbral comprende elevar los coeficientes a una potencia constante predeterminada.
22. Un método en el que la función de elevación de umbral comprende multiplicar los coeficientes por un número constante predeterminado.
23. Un método de acuerdo con una cualquiera de las reivindicaciones 20 a 22 en la que la función de elevación 35 viene dada por:
o un equivalente matemático de la misma.
24. Un método que comprende aplicar una función de sensibilidad al contraste predeterminada que pondere los factores de los coeficientes de la imagen de alto rango dinámico transformada antes de aplicar a los 40 coeficientes la función de elevación de umbral.
25. Un método que comprende aplicar una función de incertidumbre de fase a los coeficientes de la imagen de alto rango dinámico transformada antes de aplicar a los coeficientes la función de elevación de umbral.
26. Un método en el que la función de incertidumbre de fase viene dada por:
o un equivalente matemático de la misma, donde l representa el entorno de un coeficiente, LCSF es un coeficiente de wavelet y es el coeficiente de wavelet después de aplicar la función de incertidumbre de fase.
27. Un equipo para codificar una imagen de alto rango dinámico, comprendiendo el equipo un procesador de 5 datos que ejecuta instrucciones que hacen que el procesador de datos:
obtenga una imagen de un menor rango dinámico que el correspondiente a la imagen de alto rango dinámico;
identifique grupos de píxeles en la imagen de alto rango dinámico para los que todos los píxeles correspondientes en la imagen de menor rango dinámico tienen el mismo valor de píxel; 10
genere una función de predicción basada al menos parcialmente en valores de píxel de los píxeles en la imagen de alto rango dinámico que pertenecen a cada uno de una pluralidad de los grupos;
aplique la función de predicción a la imagen de menor rango dinámico con el fin de obtener una imagen prevista;
calcule una imagen residual que represente las diferencias entre valores de los píxeles en la imagen 15 prevista y valores de los píxeles correspondientes en la imagen de alto rango dinámico; y,
codifique y almacene los datos que representan la imagen de menor rango dinámico, la función de predicción y la imagen residual.
28. Un equipo para codificar una imagen de alto rango dinámico, comprendiendo el equipo:
unos medios para obtener una imagen de un menor rango dinámico correspondiente a la imagen de 20 alto rango dinámico;
unos medios para identificar grupos de píxeles en la imagen de alto rango dinámico para los que todos los píxeles correspondientes en la imagen de menor rango dinámico tienen el mismo valor de píxel;
unos medios para generar una función de predicción basada al menos parcialmente en valores de píxel de los píxeles en la imagen de alto rango dinámico que pertenecen a cada uno de una pluralidad de los 25 grupos;
unos medios para aplicar la función de predicción a la imagen de menor rango dinámico con el fin de obtener una imagen prevista;
unos medios para calcular una imagen residual que represente las diferencias entre valores de los píxeles en la imagen prevista y valores de los píxeles correspondientes en la imagen de alto rango dinámico; 30 y,
unos medios para codificar y almacenar los datos que representan la imagen de menor rango dinámico, la función de predicción y la imagen residual.
29. Un equipo para decodificar una imagen de alto rango dinámico, comprendiendo el equipo un procesador de datos que ejecute instrucciones que hagan que el procesador de datos: 35
recupere los datos que representan una imagen de menor rango dinámico correspondiente a la imagen de alto rango dinámico, una función de predicción y una imagen residual;
aplique la función de predicción a la imagen de menor rango dinámico con el fin de obtener una imagen de alto rango dinámico prevista; y,
combine la imagen residual con la imagen de alto rango dinámico prevista con el fin de obtener la 40 imagen de alto rango dinámico.
30. Un equipo para decodificar una imagen de alto rango dinámico, comprendiendo el equipo:
medios para recuperar los datos que representan una imagen de menor rango dinámico correspondiente a la imagen de alto rango dinámico, una función de predicción y una imagen residual;
medios para aplicar la función de predicción a la imagen de menor rango dinámico con el fin de obtener una imagen de alto rango dinámico prevista; y,
medios para combinar la imagen residual con la imagen de alto rango dinámico prevista con el fin de obtener la imagen de alto rango dinámico.
5

Claims (12)

  1. REIVINDICACIONES
    1. Un método para codificar una imagen de alto rango dinámico (12), comprendiendo el método los pasos de:
    - obtener una imagen de menor rango dinámico (14) correspondiente a la imagen de alto rango dinámico (12), pudiéndose obtener la imagen de menor rango dinámico (14) a partir de la imagen de alto rango dinámico (12) 5 mediante un proceso de reducción del rango dinámico y que contiene la misma escena que la imagen de alto rango dinámico (12);
    - generar una función de predicción (19) para predecir una imagen de alto rango dinámico (12) a partir de la imagen de menor rango dinámico (14), en donde la generación de la función de predicción supone:
    para cada valor de píxel representado en la imagen de menor rango dinámico, identificar el conjunto de estos 10 píxeles en la imagen de menor rango dinámico (14) que tienen dicho valor de píxel; y
    para cada uno de estos conjuntos, identificar los píxeles en la imagen de alto rango dinámico (12) que se corresponden con los píxeles en el conjunto respectivo, identificando, de ese modo, los valores de píxel en la imagen de alto rango dinámico (12) que se corresponden con cada valor de píxel representado en la imagen de menor rango dinámico (14), y 15
    en donde la función de predicción (19) se basa, al menos en parte, en los valores de píxel de los píxeles en la imagen de alto rango dinámico (12), para los cuales los píxeles correspondientes en la imagen de menor rango dinámico (14) tienen todos el mismo valor de píxel, y utiliza las relaciones estadísticas entre los valores de píxel de los píxeles en la imagen de menor rango dinámico y los valores de píxel correspondientes en la imagen de alto rango dinámico (12), determinando, de ese modo, para cada conjunto un valor de píxel previsto en la imagen de alto 20 rango dinámico (12);
    - aplicar la función de predicción (19) a la imagen de menor rango dinámico (14) para obtener una imagen de alto rango dinámico prevista (29);
    - obtener una imagen residual (32) a partir de la imagen de alto rango dinámico prevista (29) y de la imagen de alto rango dinámico (12); y 25
    - codificar y almacenar los datos que representan la imagen de menor rango dinámico (14), la función de predicción (19) y la imagen residual (32) en un flujo de video,
    en donde la imagen de alto rango dinámico (12) y la imagen de menor rango dinámico (14), cada una, comprende una trama en una secuencia de video, y la función de predicción (19) se actualiza para cada trama en la secuencia de video. 30
  2. 2. Un método de acuerdo con cualquiera de la reivindicación 1, en donde generar la función de predicción (19) comprende uno o más de:
    (a) generar una función que es no lineal en el dominio logarítmico;
    (b) calcular una media aritmética de los valores de píxel de los píxeles en el alto rango dinámico (12) que pertenecen a cada uno de la pluralidad de los grupos; 35
    (c) calcular una mediana de los valores de píxel de los píxeles en la imagen de alto rango dinámico (12) que pertenecen a cada uno de la pluralidad de los grupos;
    (d) calcular un promedio de los valores de píxel más alto y más bajo de los píxeles en la imagen de alto rango dinámico (12) que pertenecen a cada uno de la pluralidad de los grupos; y
    (f) combinaciones de estos. 40
  3. 3. Un método de acuerdo con cualquiera de las reivindicaciones 1 a 2, en donde la función de predicción (19) comprende una relación de uno a muchos entre los píxeles de la imagen de menor rango dinámico (14), que tiene un mismo valor de píxel y píxeles correspondientes que la imagen prevista.
  4. 4. Un método de acuerdo con una cualquiera de las reivindicaciones 1 a 3 que comprende filtrar la imagen residual (32) con el fin de eliminar el ruido antes de almacenar los datos que representan la imagen residual (32). 45
  5. 5. Un método de acuerdo con la reivindicación 4 en el que el filtrado de la imagen residual (32) comprende:
    aplicar una transformada wavelet (de ondículas) discreta a la imagen residual (32) y a la imagen de alto rango
    dinámico (12) con el fin de obtener una imagen residual transformada y una imagen de alto rango dinámico transformada;
    asignar el valor cero a los valores umbral para los coeficientes en la imagen residual transformada basados en valores de coeficientes en la imagen residual transformada si los coeficientes tienen valores que no exceden los umbrales correspondientes. 5
  6. 6. Un método de acuerdo con la reivindicación 5 en el que el establecimiento de los valores umbral comprende aplicar una función de evaluación de umbral a los coeficientes en la imagen de alto rango dinámico transformada.
  7. 7. Un método de acuerdo con la reivindicación 6 en el que la función de elevación de umbral comprende uno o más de los siguientes: 10
    (a) elevar los coeficientes a una potencia constante predeterminada;
    (b) multiplicar los coeficientes por un número constante predeterminado;
    (c) una función dada por
    o un equivalente matemático de los mismos. 15
  8. 8. Un método de acuerdo con una cualquiera de las reivindicaciones 6 a 7 que comprende aplicar factores de ponderación de una función de sensibilidad al contraste predeterminada a los coeficientes de la imagen de alto rango dinámico transformada antes de aplicar la función de elevación de umbral a los coeficientes.
  9. 9. Un método de acuerdo con una cualquiera de las reivindicaciones 6 a 8 que comprende aplicar una función de incertidumbre de fase a los coeficientes de la imagen de alto rango dinámico transformada antes de aplicar la 20 función de elevación de umbral a los coeficientes.
  10. 10. Un codificador de imágenes para codificar una imagen de alto rango dinámico (12), comprendiendo un procesador configurado para ejecutar instrucciones que hagan que el procesador:
    - obtenga una imagen de menor rango dinámico (14) correspondiente a la imagen de alto rango dinámico (12), pudiéndose obtener la imagen de menor rango dinámico (14) a partir de la imagen de alto rango dinámico (12) 25 mediante un proceso de reducción del rango dinámico y que contiene la misma escena que la imagen de alto rango dinámico (12);
    - genere una función de predicción (19) para predecir una imagen de alto rango dinámico (12) a partir de la imagen de menor rango dinámico (14), en donde la generación de la función de predicción (19) supone:
    para cada valor de píxel representado en la imagen de menor rango dinámico, identificar el conjunto de estos 30 píxeles en la imagen de menor rango dinámico (14) que tienen dicho valor de píxel; y
    para cada uno de estos conjuntos, identificar los píxeles en la imagen de alto rango dinámico (12) que se corresponden con los píxeles en el conjunto respectivo, identificando, de ese modo, los valores de píxel en la imagen de alto rango dinámico (12) que se corresponden con cada valor de píxel representado en la imagen de menor rango dinámico (14), y 35
    en donde la función de predicción (19) se basa, al menos en parte, en los valores de píxel de los píxeles en la imagen de alto rango dinámico, para los cuales los píxeles correspondientes en la imagen de menor rango dinámico (14) tienen todos el mismo valor de píxel, y utiliza las relaciones estadísticas entre los valores de píxel de los píxeles en la imagen de menor rango dinámico y los valores de píxel correspondientes en la imagen de alto rango dinámico (12), determinando, de ese modo, para cada conjunto un valor de píxel previsto en la imagen de alto rango dinámico 40 (12);
    - aplique la función de predicción (19) a la imagen de menor rango dinámico (14) con el fin de obtener una imagen de alto rango dinámico prevista (29);
    - obtenga una imagen residual (32) a partir de la imagen de alto rango dinámico prevista (29) y la imagen de alto rango dinámico (12); y 45
    - codifique y almacene los datos que representan la imagen de menor rango dinámico (14), la función de predicción (19) y la imagen residual (32) en un flujo de video,
    en donde la imagen de alto rango dinámico (12) y la imagen de menor rango dinámico (14), cada una, comprende una trama en una secuencia de video, y la función de predicción (19) se actualiza para cada trama en la secuencia de video.
  11. 11. Un equipo para decodificar una imagen de alto rango dinámico, comprendiendo el equipo:
    - medios para recuperar los datos que representan una imagen de menor rango dinámico (22) 5 correspondiente a la imagen de alto rango dinámico y a una imagen residual (35);
    - medios para recuperar los datos que representan una función de predicción (37), siendo transmitidos los datos desde un codificador;
    - medios para aplicar la función de predicción a la imagen de menor rango dinámico con el fin de obtener una imagen de alto rango dinámico prevista; y 10
    - medios para combinar la imagen residual con la imagen de alto rango dinámico prevista con el fin de obtener la imagen de alto rango dinámico,
    en donde la función de predicción se basa, al menos en parte, en los valores de píxel de los píxeles en la imagen de alto rango dinámico, para los cuales los píxeles correspondientes en la imagen de menor rango dinámico (22) tienen todos el mismo valor de píxel, y utiliza las relaciones estadísticas entre los valores de píxel de los píxeles 15 en la imagen de menor rango dinámico (22) y los valores de píxel correspondientes en la imagen de alto rango dinámico;
    en donde para cada valor de píxel representado en la imagen de menor rango dinámico (22), los valores de píxel correspondientes en la imagen de alto rango dinámico son los valores de píxel de aquellos píxeles en la imagen de alto rango dinámico que se corresponden con los píxeles en un conjunto respectivo de píxeles en la 20 imagen de menor rango dinámico (22) en el que tienen todos el valor de píxel respectivo en la imagen de menor rango dinámico;
    en donde la imagen de menor rango dinámico (22) se puede obtener a partir de la imagen de alto rango dinámico mediante un proceso de reducción del rango dinámico y contiene la misma escena que la imagen de alto rango dinámico; y 25
    en donde la imagen de alto rango dinámico (12) y la imagen de menor rango dinámico (14), cada una, comprende una trama en una secuencia de video, y la función de predicción (19) se actualiza para cada trama en la secuencia de video.
  12. 12. Un método para decodificar una imagen de alto rango dinámico en un decodificador, comprendiendo el método: 30
    - recuperar los datos que representan una imagen de menor rango dinámico (22) correspondiente a la imagen de alto rango dinámico y una imagen residual (35);
    - recuperar los datos que representan una función de predicción (37), donde los datos se transmiten desde un codificador;
    - aplicar la función de predicción a la imagen de menor rango dinámico con el fin de obtener una imagen de 35 alto rango dinámico prevista; y
    - combinar la imagen residual con la imagen de alto rango dinámico prevista con el fin de obtener la imagen de alto rango dinámico,
    en donde la función de predicción se basa, al menos en parte, en los valores de píxel de los píxeles en la imagen de alto rango dinámico, para los cuales los píxeles correspondientes en la imagen de menor rango dinámico 40 (22) tienen todos el mismo valor de píxel, y utiliza las relaciones estadísticas entre los valores de píxel de los píxeles en la imagen de menor rango dinámico (22) y los valores de píxel correspondientes en la imagen de alto rango dinámico;
    en donde para cada valor de píxel representado en la imagen de menor rango dinámico (22), los valores de píxel correspondientes en la imagen de alto rango dinámico son los valores de píxel de aquellos píxeles en la 45 imagen de alto rango dinámico que se corresponden con los píxeles en un conjunto respectivo de píxeles en la imagen de menor rango dinámico (22) en el que tienen todos el valor de píxel respectivo en la imagen de menor rango dinámico;
    en donde la imagen de menor rango dinámico (22) se puede obtener a partir de la imagen de alto rango dinámico mediante un proceso de reducción del rango dinámico y contiene la misma escena que la imagen de alto 50
    rango dinámico; y
    - en donde la imagen de alto rango dinámico (12) y la imagen de menor rango dinámico (14), cada una, comprende una trama en una secuencia de video, y la función de predicción (19) se actualiza para cada trama en la secuencia de video.
ES10185996.5T 2006-01-23 2006-09-07 Codecs de alto rango dinámico Active ES2551561T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US76151006P 2006-01-23 2006-01-23
US761510P 2006-01-23

Publications (1)

Publication Number Publication Date
ES2551561T3 true ES2551561T3 (es) 2015-11-19

Family

ID=38222685

Family Applications (2)

Application Number Title Priority Date Filing Date
ES10186006.2T Active ES2551562T3 (es) 2006-01-23 2006-09-07 Codecs de alto rango dinámico
ES10185996.5T Active ES2551561T3 (es) 2006-01-23 2006-09-07 Codecs de alto rango dinámico

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES10186006.2T Active ES2551562T3 (es) 2006-01-23 2006-09-07 Codecs de alto rango dinámico

Country Status (8)

Country Link
US (8) US8537893B2 (es)
EP (5) EP2988499B1 (es)
JP (2) JP5249784B2 (es)
KR (1) KR101356548B1 (es)
CN (2) CN101371583B (es)
ES (2) ES2551562T3 (es)
HK (1) HK1129181A1 (es)
WO (1) WO2007082562A2 (es)

Families Citing this family (137)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2893806A1 (fr) * 2005-11-21 2007-05-25 Thomson Licensing Sas Systeme de transmission d'images de dynamique elevee, unites et procedes de codage et de decodage pour ce systeme
WO2007082562A2 (en) 2006-01-23 2007-07-26 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. High dynamic range codecs
US8014445B2 (en) * 2006-02-24 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for high dynamic range video coding
CN101449586B (zh) * 2006-05-25 2012-08-29 汤姆逊许可证公司 用于加权编码的方法和系统
JP4991851B2 (ja) * 2006-07-17 2012-08-01 トムソン ライセンシング ビデオ色向上データをエンコードする方法および装置ならびにビデオ色向上データをデコードする方法および装置
US8665942B2 (en) 2007-01-23 2014-03-04 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction signaling
US8503524B2 (en) 2007-01-23 2013-08-06 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction
US8233536B2 (en) * 2007-01-23 2012-07-31 Sharp Laboratories Of America, Inc. Methods and systems for multiplication-free inter-layer image prediction
US8175158B2 (en) 2008-01-04 2012-05-08 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction parameter determination
US9338475B2 (en) * 2008-04-16 2016-05-10 Intel Corporation Tone mapping for bit-depth scalable video codec
US8165393B2 (en) 2008-06-05 2012-04-24 Microsoft Corp. High dynamic range texture compression
ES2389458T3 (es) * 2008-07-10 2012-10-26 The University Of Warwick Métodos y dispositivos para la compresión de datos de vídeo HDR
CN101415117B (zh) * 2008-11-18 2010-06-09 浙江大学 基于gpgpu的高真实感图像的传输方法
WO2010093432A1 (en) * 2009-02-11 2010-08-19 Thomson Licensing Methods and apparatus for bit depth scalable video encoding and decoding utilizing tone mapping and inverse tone mapping
RU2504011C2 (ru) * 2009-03-13 2014-01-10 Долби Лабораторис Лайсэнзин Корпорейшн Многоуровневое сжатие видеоизображения с расширенным динамическим диапазоном, визуальным динамическим диапазоном и широкой цветовой гаммой
RU2510150C2 (ru) * 2009-04-03 2014-03-20 Ай-Сес (Инновэйтив Компрешн Инджиниринг Солюшнз) Способ обработки цифрового файла, в частности, типа изображения, видео и/или аудио
CN101859430B (zh) * 2009-04-09 2014-01-01 恩斯迈电子(深圳)有限公司 产生高动态范围图像的方法及装置
WO2011002505A1 (en) 2009-06-29 2011-01-06 Thomson Licensing Zone-based tone mapping
EP2360926A1 (en) * 2010-01-19 2011-08-24 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Image encoder and image decoder
US8606009B2 (en) * 2010-02-04 2013-12-10 Microsoft Corporation High dynamic range image generation and rendering
WO2011126272A2 (en) * 2010-04-05 2011-10-13 Samsung Electronics Co., Ltd. Method and apparatus for encoding video by using dynamic-range transformation, and method and apparatus for decoding video by using dynamic-range transformation
KR101664123B1 (ko) * 2010-06-14 2016-10-11 삼성전자주식회사 필터링에 기반하여 고스트가 없는 hdri를 생성하는 장치 및 방법
WO2012004709A1 (en) * 2010-07-06 2012-01-12 Koninklijke Philips Electronics N.V. Generation of high dynamic range images from low dynamic range images
TWI479898B (zh) 2010-08-25 2015-04-01 Dolby Lab Licensing Corp 擴展影像動態範圍
US8462221B2 (en) * 2010-11-03 2013-06-11 Eastman Kodak Company Method for producing high dynamic range images
US8466976B2 (en) 2010-11-03 2013-06-18 Eastman Kodak Company Digital camera providing high dynamic range images
US9024951B2 (en) * 2011-02-16 2015-05-05 Apple Inc. Devices and methods for obtaining high-local-contrast image data
EP2993905B1 (en) 2011-02-21 2017-05-24 Dolby Laboratories Licensing Corporation Floating point video coding
CN103403759B (zh) 2011-03-02 2016-08-10 杜比实验室特许公司 局部多等级色调映射运算器
EP2498499B1 (en) 2011-03-08 2018-04-18 Dolby Laboratories Licensing Corporation Interpolation of color gamut for display on target display
US11049473B2 (en) 2011-03-24 2021-06-29 Koninklijke Philips N.V. Apparatuses and methods for analyzing image gradings
US8743291B2 (en) * 2011-04-12 2014-06-03 Dolby Laboratories Licensing Corporation Quality assessment for images that have extended dynamic ranges or wide color gamuts
TR201802291T4 (tr) 2011-04-14 2018-03-21 Dolby Laboratories Licensing Corp Çoklu renk kanallı çoklu regresyon öngörücü.
WO2012142506A1 (en) * 2011-04-14 2012-10-18 Dolby Laboratories Licensing Corporation Image prediction based on primary color grading model
US8334911B2 (en) 2011-04-15 2012-12-18 Dolby Laboratories Licensing Corporation Encoding, decoding, and representing high dynamic range images
TWI521973B (zh) * 2011-04-15 2016-02-11 杜比實驗室特許公司 高動態範圍影像的編碼、解碼及表示
US9036042B2 (en) 2011-04-15 2015-05-19 Dolby Laboratories Licensing Corporation Encoding, decoding, and representing high dynamic range images
EP2702764B1 (en) 2011-04-25 2016-08-31 Dolby Laboratories Licensing Corporation Non-linear vdr residual quantizer
CN103891294B (zh) * 2011-04-28 2017-09-01 皇家飞利浦有限公司 用于hdr图像编码和解码的装置与方法
JP5992997B2 (ja) * 2011-04-28 2016-09-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 映像符号化信号を発生する方法及び装置
WO2012158504A1 (en) * 2011-05-16 2012-11-22 Dolby Laboratories Licensing Corporation Efficient architecture for layered vdr coding
HUE058712T2 (hu) * 2011-05-27 2022-09-28 Dolby Laboratories Licensing Corp Skálázható rendszerek színkezelés vezérlésére, amelyek változó szintû metaadatokat tartalmaznak
US8891863B2 (en) * 2011-06-13 2014-11-18 Dolby Laboratories Licensing Corporation High dynamic range, backwards-compatible, digital cinema
WO2013039730A2 (en) 2011-09-15 2013-03-21 Dolby Laboratories Licensing Corporation Method and system for backward compatible, extended dynamic range encoding of video
CA2850037C (en) * 2011-09-27 2022-10-04 Koninklijke Philips N.V. Apparatus and method for dynamic range transforming of images
EP3217667B1 (en) * 2011-10-17 2020-08-12 Kabushiki Kaisha Toshiba Encoding method and decoding method
WO2013067113A1 (en) * 2011-11-01 2013-05-10 Dolby Laboratories Licensing Corporation Adaptive false contouring prevention in layered coding of images with extended dynamic range
TWI575933B (zh) 2011-11-04 2017-03-21 杜比實驗室特許公司 階層式視覺動態範圍編碼中之層分解技術
WO2013068132A1 (en) * 2011-11-09 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Inter-layer prediction between layers of different dynamic sample value range
BR112014011575A2 (pt) * 2011-11-18 2017-05-09 Koninklijke Philips Nv sistema para codificar imagens médicas de alta qualidade para transmissão utilizando protocolos da web padrão, método para codificar imagens médicas de alta qualidade acessíveis via web, meio legível por computador não transitório, método de decodificar imagens médicas de alta qualidade, e sistema para decodificar imagens médicas de alta qualidade
KR20130068823A (ko) * 2011-12-16 2013-06-26 삼성전자주식회사 영상 신호 처리를 위한 방법 및 장치
EP2613532A1 (en) 2012-01-06 2013-07-10 Thomson Licensing Method of and device for encoding an HDR video together with an LDR video, method of and device for reconstructing one of an HDR video and an LDR video coded together and non-transitory storage medium
EP2803190B1 (en) 2012-01-09 2017-10-25 Dolby Laboratories Licensing Corporation Hybrid reference picture reconstruction method for multiple layered video coding systems
US9420302B2 (en) 2012-01-24 2016-08-16 Dolby Laboratories Licensing Corporation Weighted multi-band cross color channel predictor
JP5905610B2 (ja) * 2012-03-12 2016-04-20 ドルビー ラボラトリーズ ライセンシング コーポレイション 3d視覚的ダイナミックレンジ符号化
US9129445B2 (en) 2012-03-14 2015-09-08 Dolby Laboratories Licensing Corporation Efficient tone-mapping of high-bit-depth video to low-bit-depth display
ES2737993T3 (es) * 2012-03-26 2020-01-17 Koninklijke Philips Nv Aparatos y métodos basados en región de brillo para codificación y decodificación de imágenes HDR
EP2873237B1 (en) 2012-07-13 2022-03-30 Koninklijke Philips N.V. Improved hdr image decoding methods and devices
US10148982B2 (en) * 2012-07-27 2018-12-04 Hewlett-Packard Development Company, L.P. Video compression using perceptual modeling
WO2014025588A1 (en) * 2012-08-08 2014-02-13 Dolby Laboratories Licensing Corporation Image processing for hdr images
KR101367777B1 (ko) * 2012-08-22 2014-03-06 주식회사 핀그램 적응 이미지 압축시스템 및 그 방법
EP2836983B1 (en) * 2012-10-08 2017-07-12 Koninklijke Philips N.V. Luminance changing image processing with color constraints
KR102004199B1 (ko) * 2012-11-16 2019-07-26 톰슨 라이센싱 높은 동적 범위 이미지들의 프로세싱
EP2962277A1 (en) * 2013-02-27 2016-01-06 Thomson Licensing Method and device for selecting an image dynamic range conversion operator
US9628808B2 (en) * 2013-03-26 2017-04-18 Dolby Laboratories Licensing Corporation Encoding perceptually-quantized video content in multi-layer VDR coding
US9979973B2 (en) * 2013-06-10 2018-05-22 Thomson Licensing Encoding and decoding methods for adapting the average luminance of high dynamic range pictures and corresponding encoder and decoder
CN105324997B (zh) * 2013-06-17 2018-06-29 杜比实验室特许公司 用于增强动态范围信号的分层编码的自适应整形
JP5639228B2 (ja) * 2013-06-18 2014-12-10 トムソン ライセンシングThomson Licensing 重み付け符号化する方法及びシステム
CN103391435A (zh) * 2013-07-02 2013-11-13 广东工业大学 一种兼容ldr的hdr图像编码方法及其解码方法
JP6174926B2 (ja) * 2013-07-11 2017-08-02 キヤノン株式会社 画像復号装置及びその制御方法
EP3022895B1 (en) * 2013-07-18 2019-03-13 Koninklijke Philips N.V. Methods and apparatuses for creating code mapping functions for encoding an hdr image, and methods and apparatuses for use of such encoded images
TWI630821B (zh) * 2013-07-19 2018-07-21 新力股份有限公司 File generation device, file generation method, file reproduction device, and file reproduction method
TWI632810B (zh) * 2013-07-19 2018-08-11 新力股份有限公司 Data generating device, data generating method, data reproducing device, and data reproducing method
TWI630820B (zh) * 2013-07-19 2018-07-21 新力股份有限公司 File generation device, file generation method, file reproduction device, and file reproduction method
WO2015025726A1 (ja) * 2013-08-20 2015-02-26 ソニー株式会社 再生装置、再生方法、および記録媒体
US9438827B2 (en) 2013-08-27 2016-09-06 Semiconductor Components Industries, Llc Imaging systems and methods for generating binned high-dynamic-range images
US9712834B2 (en) * 2013-10-01 2017-07-18 Dolby Laboratories Licensing Corporation Hardware efficient sparse FIR filtering in video codec
EP3069513B1 (en) * 2013-11-12 2019-03-13 Dolby Laboratories Licensing Corporation Pre-dithering in high dynamic range video coding
KR102414567B1 (ko) * 2014-02-25 2022-06-29 애플 인크. 비디오 인코딩 및 디코딩을 위한 적응형 전달 함수
EP3565251B1 (en) * 2014-03-04 2020-09-16 Microsoft Technology Licensing, LLC Adaptive switching of color spaces
EP3114835B1 (en) 2014-03-04 2020-04-22 Microsoft Technology Licensing, LLC Encoding strategies for adaptive switching of color spaces
CA2940015C (en) 2014-03-27 2020-10-27 Microsoft Technology Licensing, Llc Adjusting quantization/scaling and inverse quantization/scaling when switching color spaces
GB201408618D0 (en) * 2014-05-15 2014-06-25 Univ Warwick Compressing high dynamic range images
RU2667034C2 (ru) * 2014-05-28 2018-09-13 Конинклейке Филипс Н.В. Способы и устройства для кодирования hdr-изображений и способы и устройства для использования таких кодированных изображений
GB201410635D0 (en) 2014-06-13 2014-07-30 Univ Bangor Improvements in and relating to the display of images
EP2958075A1 (en) * 2014-06-20 2015-12-23 Thomson Licensing Method and apparatus for dynamic range expansion of LDR video sequence
JP6640122B2 (ja) * 2014-06-25 2020-02-05 インターデジタル ヴイシー ホールディングス, インコーポレイテッド 画像処理のための方法及びデバイス
KR20160003502A (ko) 2014-07-01 2016-01-11 삼성전자주식회사 병렬화 방법 및 전자 장치
JP7053259B6 (ja) * 2014-08-08 2022-06-01 コーニンクレッカ フィリップス エヌ ヴェ Hdr画像をエンコードする方法及び装置
WO2016040255A1 (en) * 2014-09-09 2016-03-17 Dolby Laboratories Licensing Corporation Self-adaptive prediction method for multi-layer codec
EP3118854B1 (en) * 2014-09-10 2019-01-30 Panasonic Intellectual Property Corporation of America Recording medium, playback device, and playback method
RU2648634C1 (ru) * 2014-09-26 2018-03-26 Долби Лабораторис Лайсэнзин Корпорейшн Кодирование и декодирование перцепционно квантованного видеосодержимого
EP3205093B1 (en) * 2014-10-07 2022-05-18 TRELLIS EUROPE S.r.l. Improved video and image encoding process
US10687069B2 (en) 2014-10-08 2020-06-16 Microsoft Technology Licensing, Llc Adjustments to encoding and decoding when switching color spaces
JP2016100039A (ja) * 2014-11-17 2016-05-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生方法、および再生装置
EP4093035B1 (en) * 2014-12-03 2023-11-15 Panasonic Intellectual Property Management Co., Ltd. Data generation device
JP6862830B2 (ja) * 2014-12-29 2021-04-21 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
EP3251351B1 (en) 2015-01-27 2021-07-14 Dolby International AB Predictive image encoding and decoding with pixel group based quantization
MY186061A (en) 2015-01-30 2021-06-17 Interdigital Vc Holdings Inc A method and apparatus of encoding and decoding a color picture
WO2016120354A1 (en) 2015-01-30 2016-08-04 Thomson Licensing Method and device for matching colors between color pictures of different dynamic range
EP3051818A1 (en) 2015-01-30 2016-08-03 Thomson Licensing Method and device for decoding a color picture
US10410398B2 (en) * 2015-02-20 2019-09-10 Qualcomm Incorporated Systems and methods for reducing memory bandwidth using low quality tiles
KR102291585B1 (ko) * 2015-03-03 2021-08-20 세종대학교산학협력단 단일 화질 값 기반의 hdr 이미지 부호화 장치의 전처리 방법 및 장치, 단일 화질 값 기반의 hdr 이미지 부호화 방법
US10080026B2 (en) 2015-03-20 2018-09-18 Dolby Laboratories Licensing Corporation Signal reshaping approximation
US20160286226A1 (en) * 2015-03-24 2016-09-29 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
US20160286241A1 (en) * 2015-03-24 2016-09-29 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
EP3096519A1 (en) 2015-05-18 2016-11-23 Thomson Licensing A method for encoding/decoding a picture block
US10607525B2 (en) 2015-05-19 2020-03-31 Irystec Software Inc. System and method for color retargeting
US10349127B2 (en) * 2015-06-01 2019-07-09 Disney Enterprises, Inc. Methods for creating and distributing art-directable continuous dynamic range video
EP3107300A1 (en) * 2015-06-15 2016-12-21 Thomson Licensing Method and device for encoding both a high-dynamic range frame and an imposed low-dynamic range frame
EP3113496A1 (en) 2015-06-30 2017-01-04 Thomson Licensing Method and device for encoding both a hdr picture and a sdr picture obtained from said hdr picture using color mapping functions
KR102309676B1 (ko) 2015-07-24 2021-10-07 삼성전자주식회사 사용자 적응 이미지 보상기
US10609395B2 (en) * 2015-07-28 2020-03-31 Vid Scale, Inc. High dynamic range video coding architectures with multiple operating modes
US10184835B2 (en) * 2015-09-23 2019-01-22 Agilent Technologies, Inc. High dynamic range infrared imaging spectroscopy
CN108431886B (zh) 2015-12-21 2021-07-20 皇家飞利浦有限公司 针对特定显示器优化高动态范围图像
KR20170098163A (ko) * 2016-02-19 2017-08-29 세종대학교산학협력단 이미지 부호화 및 복호화 방법, 이를 이용하는 이미지 부호화기 및 이미지 복호화기
WO2017142360A1 (ko) * 2016-02-19 2017-08-24 세종대학교산학협력단 이미지 부호화 및 복호화 방법, 이를 이용하는 이미지 부호화기 및 이미지
EP3433833B1 (en) * 2016-03-23 2021-07-07 Dolby Laboratories Licensing Corporation Encoding and decoding reversible production-quality single-layer video signals
GB201611253D0 (en) * 2016-06-29 2016-08-10 Dolby Laboratories Licensing Corp Efficient Histogram-based luma look matching
US10575028B2 (en) * 2016-09-09 2020-02-25 Dolby Laboratories Licensing Corporation Coding of high dynamic range video using segment-based reshaping
CN106506983B (zh) * 2016-12-12 2019-07-19 天津大学 一种适用于ldr视频的hdr视频生成方法
JP6852411B2 (ja) * 2017-01-19 2021-03-31 ソニー株式会社 映像信号処理装置、映像信号処理方法およびプログラム
EP3386198A1 (en) 2017-04-07 2018-10-10 Thomson Licensing Method and device for predictive picture encoding and decoding
EP3399497A1 (en) 2017-05-05 2018-11-07 Koninklijke Philips N.V. Optimizing decoded high dynamic range image saturation
EP3416363A1 (en) * 2017-06-13 2018-12-19 Koninklijke Philips N.V. Gamut mapping for hdr (de)coding
CN107944422B (zh) * 2017-12-08 2020-05-12 业成科技(成都)有限公司 三维摄像装置、三维摄像方法及人脸识别方法
US10778979B2 (en) * 2018-01-11 2020-09-15 Qualcomm Incorporated Signaling mechanisms for equal ranges and other DRA parameters for video coding
JP6584538B2 (ja) * 2018-01-16 2019-10-02 トムソン ライセンシングThomson Licensing 高ダイナミックレンジ画像の処理
CN108717690B (zh) * 2018-05-21 2022-03-04 电子科技大学 一种高动态范围图片的合成方法
KR20220002977A (ko) 2019-04-23 2022-01-07 돌비 레버러토리즈 라이쎈싱 코오포레이션 하이 다이내믹 레인지 이미지들에 대한 디스플레이 관리
CN110232669A (zh) * 2019-06-19 2019-09-13 湖北工业大学 一种高动态范围图像的色调映射方法及系统
TWI812874B (zh) 2019-10-01 2023-08-21 美商杜拜研究特許公司 張量乘積之b平滑曲線預測子
CN110933416B (zh) * 2019-11-12 2021-07-20 宁波大学 高动态范围视频自适应预处理方法
JP7434554B2 (ja) 2019-12-06 2024-02-20 ドルビー ラボラトリーズ ライセンシング コーポレイション カスケード予測
CN115811616A (zh) * 2021-09-15 2023-03-17 华为技术有限公司 一种视频编码、解码方法及装置
US20230102663A1 (en) * 2021-09-21 2023-03-30 Samsung Electronics Co., Ltd. Skin tone protection using a dual-core geometric skin tone model built in device-independent space
CN115115518B (zh) * 2022-07-01 2024-04-09 腾讯科技(深圳)有限公司 高动态范围图像的生成方法、装置、设备、介质及产品

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69413575T2 (de) * 1993-02-12 1999-05-20 Eastman Kodak Co Verfahren und Vorrichtung zur Transformation von Eingabefarbgrössen in einen Eingabefarbraum in Ausgabefarbgrössen in einen Ausgabefarbraum
EP0611231B1 (en) * 1993-02-12 1999-09-29 Eastman Kodak Company Method for cross-device color calibration and enhancement using explicit constraints
US6335983B1 (en) * 1998-09-28 2002-01-01 Eastman Kodak Company Representing an extended color gamut digital image in a limited color gamut color space
JP4362895B2 (ja) * 1999-06-21 2009-11-11 ソニー株式会社 データ処理装置およびデータ処理方法、並びに記録媒体
US6301393B1 (en) 2000-01-21 2001-10-09 Eastman Kodak Company Using a residual image formed from a clipped limited color gamut digital image to represent an extended color gamut digital image
US6748106B1 (en) * 2000-03-28 2004-06-08 Eastman Kodak Company Method for representing an extended color gamut digital image on a hard-copy output medium
JP4012669B2 (ja) * 2000-07-21 2007-11-21 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 画像処理方法および装置、記録媒体並びに画像撮影装置
US8374237B2 (en) * 2001-03-02 2013-02-12 Dolby Laboratories Licensing Corporation High precision encoding and decoding of video images
JP3948229B2 (ja) * 2001-08-01 2007-07-25 ソニー株式会社 画像撮像装置及び方法
US7046852B2 (en) * 2001-09-13 2006-05-16 Sharp Laboratories Of America, Inc. Fast image decompression via look up table
US7305144B2 (en) * 2002-01-15 2007-12-04 Yissum Research Development Company Of The Hebrew University Of Jerusalem System and method for compressing the dynamic range of an image
US6879731B2 (en) 2003-04-29 2005-04-12 Microsoft Corporation System and process for generating high dynamic range video
US7978764B2 (en) * 2003-06-27 2011-07-12 Nxp B.V. Method of video encoding for handheld apparatuses selecting best prediction function according to optimal rate-distortion value
US20050117799A1 (en) * 2003-12-01 2005-06-02 Chiou-Shann Fuh Method and apparatus for transforming a high dynamic range image into a low dynamic range image
JP2005284534A (ja) * 2004-03-29 2005-10-13 Inventec Appliances Corp 高ダイナミックレンジ画像を低ダイナミックレンジ画像に変換する方法及び関連装置
EP2492867B1 (en) * 2004-04-15 2016-08-03 Dolby Laboratories Licensing Corporation Methods and systems for converting images from low dynamic range to high dynamic range
US8218625B2 (en) * 2004-04-23 2012-07-10 Dolby Laboratories Licensing Corporation Encoding, decoding and representing high dynamic range images
US20050259730A1 (en) * 2004-05-18 2005-11-24 Sharp Laboratories Of America, Inc. Video coding with residual color conversion using reversible YCoCg
US20050259729A1 (en) * 2004-05-21 2005-11-24 Shijun Sun Video coding with quality scalability
US7483486B2 (en) * 2004-07-02 2009-01-27 Max-Planck-Gesellschaft Zur Forderung Der Wissenschaften E.V. Method and apparatus for encoding high dynamic range video
US8050512B2 (en) * 2004-11-16 2011-11-01 Sharp Laboratories Of America, Inc. High dynamic range images from low dynamic range images
US7433514B2 (en) * 2005-07-13 2008-10-07 Canon Kabushiki Kaisha Tone mapping of high dynamic range images
US20070076971A1 (en) * 2005-09-30 2007-04-05 Nokia Corporation Compression of images for computer graphics
US7932914B1 (en) * 2005-10-20 2011-04-26 Nvidia Corporation Storing high dynamic range data in a low dynamic range format
WO2007082562A2 (en) 2006-01-23 2007-07-26 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. High dynamic range codecs
WO2012004709A1 (en) * 2010-07-06 2012-01-12 Koninklijke Philips Electronics N.V. Generation of high dynamic range images from low dynamic range images

Also Published As

Publication number Publication date
EP3197157B1 (en) 2021-12-15
EP3197157A1 (en) 2017-07-26
WO2007082562A2 (en) 2007-07-26
EP2290983B1 (en) 2015-09-02
US20190052892A1 (en) 2019-02-14
EP2320653B1 (en) 2015-09-02
EP2988499A1 (en) 2016-02-24
CN101742306A (zh) 2010-06-16
US9544610B2 (en) 2017-01-10
US20150156506A1 (en) 2015-06-04
US20100172411A1 (en) 2010-07-08
US8611421B1 (en) 2013-12-17
US20170041626A1 (en) 2017-02-09
US20130322532A1 (en) 2013-12-05
KR101356548B1 (ko) 2014-01-28
US20180103263A1 (en) 2018-04-12
JP5249784B2 (ja) 2013-07-31
US20140086321A1 (en) 2014-03-27
EP2290983A3 (en) 2012-06-13
EP2988499B1 (en) 2017-03-22
EP2290983A2 (en) 2011-03-02
EP1989882B1 (en) 2015-11-11
JP2013153508A (ja) 2013-08-08
JP2009524371A (ja) 2009-06-25
US9894374B2 (en) 2018-02-13
US8989267B2 (en) 2015-03-24
KR20080107389A (ko) 2008-12-10
WO2007082562A3 (en) 2007-12-21
HK1129181A1 (en) 2009-11-20
US10165297B2 (en) 2018-12-25
US10931961B2 (en) 2021-02-23
EP2320653A3 (en) 2012-06-13
US8537893B2 (en) 2013-09-17
US20160119638A1 (en) 2016-04-28
CN101371583B (zh) 2012-03-21
CN101371583A (zh) 2009-02-18
ES2551562T3 (es) 2015-11-19
EP2320653A2 (en) 2011-05-11
US9210439B2 (en) 2015-12-08
EP1989882A2 (en) 2008-11-12
JP5558603B2 (ja) 2014-07-23

Similar Documents

Publication Publication Date Title
ES2551561T3 (es) Codecs de alto rango dinámico
JP6302600B2 (ja) 知覚的量子化されたビデオコンテンツの符号化および復号化
US7483486B2 (en) Method and apparatus for encoding high dynamic range video
EP3069513B1 (en) Pre-dithering in high dynamic range video coding
US20190014297A1 (en) High dynamic range color conversion correction
US10742986B2 (en) High dynamic range color conversion correction
Banterle et al. A GPU-friendly method for high dynamic range texture compression using inverse tone mapping
US10715772B2 (en) High dynamic range color conversion correction
WO2019071045A1 (en) HIGH DYNAMIC RANGE COLORING CORRECTION
Dolzhenko et al. Perceptual colour spaces for high dynamic range image compression
Efremov et al. Design and evaluation of backward compatible high dynamic range video compression