ES2750234T3 - Predictor de regresión múltiple de múltiples canales de color - Google Patents
Predictor de regresión múltiple de múltiples canales de color Download PDFInfo
- Publication number
- ES2750234T3 ES2750234T3 ES17204552T ES17204552T ES2750234T3 ES 2750234 T3 ES2750234 T3 ES 2750234T3 ES 17204552 T ES17204552 T ES 17204552T ES 17204552 T ES17204552 T ES 17204552T ES 2750234 T3 ES2750234 T3 ES 2750234T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- mmr
- model
- prediction
- color components
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims abstract description 48
- 241000023320 Luma <angiosperm> Species 0.000 claims abstract description 5
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 claims abstract description 5
- 230000001052 transient effect Effects 0.000 claims 1
- 239000011159 matrix material Substances 0.000 description 23
- 230000008569 process Effects 0.000 description 18
- 238000013459 approach Methods 0.000 description 15
- 239000003086 colorant Substances 0.000 description 7
- 238000013507 mapping Methods 0.000 description 7
- 238000007906 compression Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000013500 data storage Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/147—Data rate or code amount at the encoder output according to rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/16—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/192—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/98—Adaptive-dynamic-range coding [ADRC]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Optimization (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Algebra (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Operations Research (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
Abstract
En un sistema de video de codificación o decodificación, un método de predicción de imagen con un procesador, comprendiendo el método: recibir una primera imagen; recibir parámetros de predicción para un modelo de predicción de regresión múltiple multicanal (MMR), en el que el modelo de MMR se utiliza para predecir una segunda imagen a partir de una primera imagen, en el que la segunda imagen representa la misma escena que la primera imagen, y en el que un rango dinámico de la primera imagen es menor que un rango dinámico de la segunda imagen; y aplicar la primera imagen y los parámetros de predicción al modelo de predicción de MMR para generar una imagen de salida que se aproxime a la segunda imagen, en el que los valores de píxel de al menos una componente de color de la imagen de salida se calculan en base a los valores de píxel de al menos dos componentes de color en la primera imagen, en el que, para generar un valor de píxel de salida predicho (v, i) para una componente de luma y/o croma, el modelo de MMR comprende un modelo de MMR de primer orden con multiplicaciones cruzadas que comprenden: un valor constante (n), al menos una combinación lineal de valores de píxel de dos componentes de color diferentes y, al menos, un término de la multiplicación de valores de píxel de dos componentes de color diferentes.
Description
DESCRIPCIÓN
Predictor de regresión múltiple de múltiples canales de color
Referencia a solicitudes relacionadas
Esta solicitud es una solicitud divisional europea de la solicitud de patente europea EP 14171538.3 (referencia: D11020EP02), para la que su Formulario EPO 1001 fue presentado el 6 de junio de 2014. La propia EP 14171538.3 es una solicitud divisional europea de la solicitud de patente Euro-PCT EP 12717990.1 (referencia: D11020EP01), presentada el 13 de abril de 2012 y concedida como EP 2697971 el 8 de julio de 2015.
Tecnología
La presente invención se refiere, en general, a las imágenes. Más particularmente, una realización de la presente invención se refiere a un predictor de regresión múltiple, de múltiples canales de color entre imágenes de alto rango dinámico e imágenes de rango dinámico estándar.
Antecedentes
Tal como se utiliza en el presente documento, el término “rango dinámico” (DR - Dynamic Range, en inglés) puede referirse a una capacidad del sistema psicovisual humano (HVS - Human psychoVisual System, en inglés) para percibir un rango de intensidad (p. ej., luminancia, luma) en una imagen, p. ej., desde los oscuros más oscuros hasta los claros más claros. En este sentido, el DR se refiere a una intensidad “referida a la escena”. El DR también se puede relacionar con la capacidad de un dispositivo de visualización para presentar de manera adecuada o aproximada un rango de intensidad de una amplitud particular. En este sentido, el DR se refiere a una intensidad “referida a la visualización”. A menos que se especifique explícitamente que un sentido particular tiene un significado particular en cualquier punto de la descripción en el presente documento, se debe inferir que el término puede utilizarse en cualquier sentido, p. ej. indistintamente.
Tal como se utiliza en el presente documento, el término alto rango dinámico (HDR - High Dynamic Range, en inglés) se refiere a una amplitud de DR que abarca los aproximadamente 14-15 órdenes de magnitud del sistema visual humano (HVS). Por ejemplo, las personas bien adaptadas con esencialmente normal (p. ej., en uno o más de un sentido estadístico, biométrico u oftalmológico) tienen un rango de intensidad que abarca, aproximadamente, 15 órdenes de magnitud. Las personas adaptadas pueden percibir fuentes de luz tenue de tan solo algunos fotones. Sin embargo, estas mismas personas pueden percibir la intensidad casi dolorosa del sol del mediodía en el desierto, el mar o la nieve (o incluso mirar al sol, aunque sea brevemente para evitar daños). Sin embargo, este rango está disponible para personas “adaptadas” p. ej., cuyo HVS tiene un período de tiempo en el cual se reinicia y ajusta. Por el contrario, el DR a través del cual una persona puede percibir simultáneamente una amplitud extensa en el rango de intensidad puede verse de alguna manera truncado en relación con e1HDR. Tal como se utilizan en el presente documento, los términos “rango dinámico visual” o “rango dinámico variable” (VDR - Variable Dynamic Range, en inglés) pueden referirse de manera individual o indistintamente al DR que es perceptible simultáneamente por un HVS. Tal como se utiliza en el presente documento, el VDR puede relacionarse con un DR que abarca 5-6 órdenes de magnitud. Por lo tanto, aunque quizá un poco más estrecho en relación con e1HDR referido a la escena real, el VDR representa, no obstante, una extensa amplitud de DR. Tal como se utiliza en el presente documento, el término “rango dinámico simultáneo" puede referirse al VDR.
Hasta hace relativamente poco, las pantallas han tenido un DR significativamente más estrecho que e1HDR o el VDR. Los aparatos de televisión (TV) y los monitores de ordenadores que utilizan un tubo de rayos catódicos (CRT -Cathode Ray Tube, en inglés) típico, pantallas de cristal líquido (LCD - Liquid Crystal Display, en inglés) con iluminación de fondo blanca, fluorescente, constante, o tecnología de pantalla de plasma, pueden verse limitados en su capacidad de representación de DR a aproximadamente tres órdenes de magnitud. Tales pantallas convencionales tipifican, por lo tanto, un rango dinámico bajo (LDR - Low Dynamic Range, en inglés), también denominado rango dinámico estándar (SDR - Standard Dynamic Range, en inglés), en relación con el VDR y el HDR.
Sin embargo, los avances en su tecnología subyacente permiten a los diseños de visualización más modernos representar contenido de imagen y video con mejoras significativas en diversas características de calidad sobre el mismo contenido, que cuando se representa en pantallas menos modernas. Por ejemplo, los dispositivos de visualización más modernos pueden ser capaces de representar contenido de alta definición (HD - High Definition, en inglés) y/o contenido que puede escalarse de acuerdo con diversas capacidades de visualización, tales como un escalador de imágenes. Además, algunas pantallas más modernas son capaces de representar contenido con un DR que es más alto que el SDR de las pantallas convencionales.
Por ejemplo, algunas pantallas LCD modernas tienen una unidad de retroiluminación (BLU - BackLight Unit, en inglés) que comprende un conjunto de diodos emisores de luz (LED - Light Emitting Diode, en inglés). Los LED del conjunto de BLU pueden ser modulados por separado de la modulación de los estados de polarización de los elementos LCD activos. Este enfoque de modulación dual es extensible (p. ej., a N capas de modulación, en las que
N comprende un número entero mayor que dos), tal como con capas intermedias controlables entre el conjunto de BLU y los elementos de pantalla lCd . Sus BLU a base de conjuntos de LED y modulación dual (o N-) aumenta eficazmente el DR referido a la visualización de los monitores LCD que tienen tales características.
Tales “pantallas HDR” como a menudo se llaman (aunque en realidad, sus capacidades pueden aproximarse más al rango de VDR) y la extensión de DR de la que son capaces, en relación con las pantallas SDR convencionales representan un avance significativo en la capacidad de visualizar contenido de imágenes, video y otra información visual. La gama de colores que tal pantalla HDR puede representar también puede exceder significativamente la gama de colores de las pantallas más convencionales, incluso hasta el punto de representar una amplia gama de colores (WCG). El contenido de imágenes de HDR o VDR y WCG relacionado con escenas, tal como el que puede ser generado por cámaras cinematográficas y de TV de "próxima generación", ahora se pueden mostrar más fiel y eficazmente con las pantallas “HDR” (en adelante referidas como “pantallas HDR”).
Al igual que con las tecnologías de codificación de video escalable y de HDTV, extender el DR de la imagen normalmente implica un enfoque bifurcado. Por ejemplo, el contenido HDR referido a la escena que se captura con una cámara con capacidad HDR moderna se puede utilizar para generar una versión de SDR del contenido, que puede mostrarse en pantallas SDR convencionales. En un enfoque, generar la versión SDR a partir de la versión VDR capturada puede implicar la aplicación de un operador de mapeo tonal (TMO - Tone Mapping Operator, en inglés) global a los valores de píxel relacionados con la intensidad (p. ej., luminancia, luma) en el contenido HDR. En un segundo enfoque, tal como se describe en la Solicitud de Patente Internacional N° PCT/US2011/048861 presentada el 23 de agosto de 2011, incorporada en el presente documento como referencia para todos los fines, generar una imagen SDR puede implicar la aplicación de un operador (o predictor) invertible en los datos VDR. Para conservar el ancho de banda o debido a otras consideraciones, la transmisión del contenido de VDR capturado real puede no ser el mejor enfoque.
Por lo tanto, un operador de mapeo tonal inverso (iTMO - inverse Tone Mapping Operator, en inglés), invertido en relación con el TMO original, o un operador inverso en relación con el predictor original, puede aplicarse a la versión del contenido SDR que se generó, lo que permite predecir una versión del contenido de VDR. La versión del contenido VDR prevista se puede comparar con el contenido HDR capturado originalmente. Por ejemplo, sustraer la versión VDR prevista de la versión VDR original puede generar una imagen residual. Un codificador puede enviar el contenido SDR generado como una capa base (BL - Base Layer, en inglés), y empaquetar la versión del contenido SDR generado, cualquier imagen residual y el iTMO u otros predictores como una capa de mejora (EL -Enhancement Layer, en inglés) o como metadatos.
Enviar la EL y los metadatos, con su contenido SDR, residuo y predictores, en un flujo de bits normalmente consume menos ancho de banda del que se consumiría al enviar ambos contenidos HDR y SDR directamente en el flujo de bits. Los decodificadores compatibles que reciben el flujo de bits enviado por el codificador pueden decodificar y representar el SDR en pantallas convencionales. Sin embargo, los decodificadores compatibles también pueden utilizar la imagen residual, los predictores iTMO o los metadatos para calcular una versión prevista del contenido HDR a partir de los mismos, para la utilización en pantallas de mayor capacidad. El objeto de esta invención es proporcionar métodos novedosos para generar predictores que permiten la codificación, transmisión y decodificación eficaz de datos VDR utilizando los datos SDR correspondientes.
Los enfoques descritos en esta sección son enfoques que podrían aplicarse, pero no necesariamente enfoques que hayan sido previamente concebidos o aplicados. Por lo tanto, a menos que se indique lo contrario, no debe suponerse que cualquiera de los enfoques descritos en esta sección se califican como de la técnica anterior, meramente en virtud de su inclusión en esta sección. De manera similar, no se debe suponer que las cuestiones identificadas con respecto a uno o más enfoques han sido reconocidos en cualquier técnica anterior en base a esta sección, a menos que se indique otra cosa.
El documento EP 2009921 A2 da a conocer métodos para codificar y decodificar una secuencia de imágenes con profundidades de bit escalables. En particular, los métodos llevan a cabo una asignación tonal inversa de las imágenes.
El documento EP 2144444 A1 da a conocer métodos de compresión de una secuencia de datos de un fotograma de video, en los que se determinan funciones de mapeo tonal. Dichas funciones de mapeo tonal son diferentes de otra para fotogramas relativos a diferentes escenas, y las funciones de mapeo tonal están alteradas por fotogramas de la secuencia relativa a la misma escena.
El documento US 2009/097561 A1 da a conocer métodos relativos a la mejora de la profundidad de bits para codificación de video escalable.
El documento “Bit Depth”, 26. JVT MEETING; 83. MPEG MEETING; 13-1-2008-18-1-2008, ANTALYA, n° JVT-Z045, de YU Y ET AL, presentado el 22 de enero de 2008 describe un trabajo de investigación sobre la SVC de profundidad de bits. En particular, aplicando un filtro a la imagen reconstruida a partir de la capa inferior, se puede conseguir una media de 6,0 % BDb R o una media de 0,20 dB BDPSNR.
El documento 2008/128898 A1 da a conocer métodos para codificar / decodificar datos de video para el caso en que dos o más versiones del video con diferentes profundidades de bits de color utilicen diferente codificación de video. BREVE DESCRIPCIÓN DE LOS DIBUJOS
Una realización de la presente invención se ilustra a modo de ejemplo, y no a modo de limitación, en las figuras de los dibujos adjuntos, y en los que los mismos números de referencia se refieren a elementos similares, y en los que: la FIG. 1 representa un flujo de datos de ejemplo para un sistema VDR-SDR, de acuerdo con una realización de la presente invención;
la FIG. 2 representa un sistema de codificación VDR de ejemplo, de acuerdo con una realización de la presente invención;
la FIG. 3 representa las interfaces de entrada y salida de un predictor de regresión múltiple multivariante, de acuerdo con una realización de la presente invención;
la FIG. 4 representa un proceso de predicción de regresión múltiple multivariante de ejemplo, de acuerdo con una realización de la presente invención;
la FIG. 5 representa un proceso de ejemplo para decidir sobre el modelo de un predictor de regresión múltiple multivariante, de acuerdo con una realización de la presente invención;
la FIG. 6 representa un decodificador de imagen de ejemplo con un predictor que funciona de acuerdo con las realizaciones de esta invención.
Descripción de las realizaciones de ejemplo
La predicción de imagen entre colores basada en el modelado de regresión múltiple multivariante se describe en el presente documento. Dado un par de imágenes VDR y SDR correspondientes, es decir, imágenes que representan la misma escena, pero a diferentes niveles de rango dinámico, esta sección describe los métodos que permiten a un codificador aproximar la imagen VDR en términos de la imagen SDR, y de un predictor de regresión múltiple multivariante (MMR - Multivariante Multi-Regression, en inglés). En la siguiente descripción, para los fines de la explicación, se exponen numerosos detalles específicos para proporcionar una comprensión completa de la presente invención. Sin embargo, será evidente que la presente invención se puede poner en práctica sin estos detalles específicos. En otros casos, las estructuras y dispositivos bien conocidos no se describen exhaustivamente, para evitar ocluir, enmascarar u oscurecer innecesariamente la presente invención.
RESUMEN
Las realizaciones de ejemplo descritas en el presente documento se refieren a imágenes de codificación con alto rango dinámico. Una realización crea un predictor de MMR que permite expresar una imagen VDR en relación con su representación SDR correspondiente.
Sistema vdr-sdr de ejemplo
La FIG. 1 representa un flujo de datos de ejemplo en un sistema VDR-SDR 100 de acuerdo con una realización de la presente invención. Se captura una imagen o secuencia de video HDR utilizando la cámara HDR 110. Después de la captura, la imagen o video capturado se procesa mediante un proceso de masterización para crear una imagen VDR objetivo 125. El proceso de masterización puede incorporar una variedad de pasos de procesamiento, tales como: edición, corrección de color primaria y secundaria, transformación de color y filtrado de ruido. La salida VDR 125 de este proceso representa la intención del director sobre cómo se visualizará la imagen capturada en una pantalla VDR de destino.
El proceso de masterización también puede generar una imagen SDR 145 correspondiente, que representa la intención del director de cómo se visualizará la imagen capturada en una pantalla de SDR tradicional. La salida SDR 145 puede proporcionarse directamente desde el circuito de masterización 120 o puede generarse con un convertidor de VDR a SDR 140 separado.
En esta realización de ejemplo, las señales VDR 125 y SDR 145 se introducen en un codificador 130. El objetivo del codificador 130 es crear un flujo de bits codificado que reduzca el ancho de banda requerido para transmitir las señales VDR y SDR, pero también permite a un decodificador 150 correspondiente decodificar y representar cualquiera de las señales SDR o VDR. En una implementación de ejemplo, el codificador 130 puede ser un codificador en capas, tal como uno de los definidos por los estándares de codificación MPEG-2 y H.264, que representa su salida como una capa base, una capa de mejora opcional y metadatos. Tal como se utiliza en el presente documento, el término "metadatos" se refiere a cualquier información auxiliar que se transmite como parte del flujo de bits codificado y ayuda a un decodificador a representar una imagen decodificada. Tales metadatos pueden incluir, pero no están limitados a, datos tales como: espacio de color o información de gama, información de
rango dinámico, información de mapeo tonal, u operadores de predictor de MMR, tales como los descritos en el presente documento.
En el receptor, un decodificador 150, utiliza los flujos de bits codificados recibidos y los metadatos para representar una imagen SDR o una imagen VDR, de acuerdo con las capacidades de la pantalla de destino. Por ejemplo, una pantalla SDR puede utilizar solo la capa base y los metadatos para representar una imagen SDR. Por el contrario, una pantalla VDR puede utilizar información de todas las capas de entrada y los metadatos para representar una señal VDR.
La FIG. 2 muestra más en detalle una implementación de ejemplo del codificador 130 que incorpora los métodos de esta invención. En la FIG. 2, SDR’ denota una señal SDR mejorada. Hoy, el video SDR es de datos de 8 bits, 4:2:0, ITU Rec. 709. El SDR’ puede tener el mismo espacio de color (primarios y punto blanco) que el SDR, pero puede utilizar alta precisión, digamos, 12 bits por píxel, con todas las componentes de color a resolución espacial completa (p. ej., RGB 4:4:4). De la FIG. 2, el SDR puede derivarse fácilmente a partir de una señal SDR’ utilizando un conjunto de transformadas directas que pueden incluir cuantificación, digamos, de 12 bits por píxel a 8 bits por píxel, transformación de color, digamos, de RGB a YUV, y submuestreo de color, digamos, de 4:4:4 a 4:2:0. La salida SDR del convertidor 210 se aplica al sistema de compresión 220. Dependiendo de la aplicación, el sistema de compresión 220 puede ser con pérdidas, tal como H.264 o MPEG-2, o sin pérdidas. La salida del sistema de compresión 220 puede transmitirse como una capa base 225. Para reducir la desviación entre las señales codificadas y decodificadas, no es inusual que el codificador 130 siga al proceso de compresión 220 con un proceso de descompresión 230 correspondiente y las transformadas inversas 240, correspondientes a las transformadas directas de 210. Por lo tanto, el predictor 250 puede tener las siguientes entradas: entrada VDR 205 y cualquier señal SDR’ 245, que corresponde a la señal SDR’ tal como será recibida por un decodificador correspondiente, o entrada SDR’ 207. El predictor 250, utilizando los datos VDR y SDR’ de entrada, creará la señal 257 que representa una aproximación o estimación de la entrada VDR 205. El sumador 260 sustrae el VDR previsto 257 del VDR original 205 para formar la señal residual 265 de salida. Posteriormente (no mostrado), la señal residual 265 también puede ser codificada por otro codificador con pérdidas o sin pérdidas, y puede ser transmitida al decodificador como una capa de mejora.
El predictor 250 también puede proporcionar los parámetros de predicción que se utilizan en el proceso de predicción como metadatos 255. Dado que los parámetros de predicción pueden cambiar durante el proceso de codificación, por ejemplo, fotograma por fotograma o escena por escena, estos metadatos pueden transmitirse al decodificador como parte de los datos que también incluyen la capa base y la capa de mejora.
Dado que tanto el VDR 205 como el SDR’207 representan la misma escena, pero están dirigidos a diferentes pantallas con diferentes características, tales como el rango dinámico y la gama de colores, se espera que haya una correlación muy estrecha entre estas dos señales. En una realización de ejemplo de esta invención, se desarrolla un predictor de regresión múltiple (MMR), multivariante 250 novedoso que permite predecir la señal VDR de entrada utilizando su señal SDR’ correspondiente y un operador de MMR multivariante.
EJEMPLO DE MODELOS DE PREDICCIÓN
La FIG. 3 muestra las interfaces de entrada y salida de un predictor de MMR 300 de acuerdo con una implementación de ejemplo de esta invención. De la FIG. 3, el predictor 330 recibe los vectores de entrada v 310 y s 320, que representan los datos de imagen VDR y SDR, respectivamente, y da salida al vector v 340, que representa el valor previsto de la entrada v .
Notación y Nomenclatura de Ejemplo
Denotar las tres componentes de color del i-ésimo pixel en la imagen SDR 320 como
S* = k Si2 Si3. (1)
Denotar las tres componentes de color del i-ésimo pixel en la entrada VDR 310 como
Denotar las tres componentes de color previstas del /-ésimo pixel en el VDR previsto 340 como
Denotar el número total de píxeles en una componente de color como p.
En las ecuaciones (1-3), los píxeles de color pueden estar en RGB, YUV, YCbCr, XYZ o cualquier otra representación de color. Mientras las ecuaciones (1-3) suponen una representación de tres colores para cada uno
de los píxeles en una imagen o fotograma de video, como también se muestra más adelante, los métodos descritos en el presente documento pueden extenderse fácilmente a representaciones de imágenes y videos con más de tres componentes de color por píxel, o a la representación de imágenes donde una de las entradas puede tener píxeles con un número diferente de representaciones de color que la otra entrada.
Modelo de primer orden (MMR-1)
Utilizando un modelo de regresión múltiple multivariante (MMR), el modelo de predicción de primer orden se puede expresar como:
donde MI(1) es una matriz de 3x3 y n es un vector de 1x3 definido como:
Destacar que este es un modelo de predicción de múltiples canales de color. En v¡ de la ecuación (4), cada una de las componentes de color se expresa como una combinación lineal de todas las componentes de color en la entrada. En otras palabras, a diferencia de otros predictores de color de un solo canal, donde cada uno de los canales de color se procesa por sí mismo e independientemente el uno del otro, para cada uno de los píxeles de salida, este modelo toma en consideración todas las componentes de color de un píxel y, así, aprovecha al máximo cualquier correlación entre colores y redundancia.
Al recopilar todos los píxeles p de un fotograma (u otra porción o partición adecuada de una entrada) juntos, se puede tener la siguiente expresión de matriz,
representan los datos de entrada y de salida previstos, S’’ es una matriz de datos de px4, V es una matriz de px3, y M(1) es una matriz de 4x3. Tal como se utiliza en el presente documento, M(1) se puede referir, indistintamente, como un operador multivariante o como una matriz de predicción.
Basado en este sistema lineal de ecuaciones (8), se puede formular este sistema de MMR como dos problemas diferentes: (a) un problema de mínimos cuadrados, o (b) un problema de mínimos cuadrados totales; ambos pueden resolverse utilizando métodos numéricos bien conocidos. Por ejemplo, utilizando un enfoque de mínimos cuadrados, el problema de resolver M puede formularse como minimizar el error cuadrático medio residual o de predicción, o
m n l v - v l , (10)
M111 II II
donde V es una matriz de px3 formada utilizando los datos de entrada VDR correspondientes.
Dadas las ecuaciones (8) y (10), la solución óptima para M(1) viene dada por
donde, S’T denota la transposición de S’, y S’TS’ es una matriz de 4x4.
Si S’ tiene rango de columna completo, p. ej.,
entonces M(1) también se puede resolver utilizando una variedad de técnicas numéricas alternativas, que incluyen descomposiciones SVD, QR o LU.
Modelo de segundo orden (MMR-2)
La ecuación (4) representa un modelo de predicción de MMR de primer orden. También se puede considerar adoptar un orden superior de predicción tal como se describe a continuación.
El modelo de predicción de MMR de segundo orden se puede expresar como:
donde MI(2) es una matriz de 3x3,
Al recopilar todos los píxeles p juntos, se puede definir la siguiente expresión de matriz:
donde
La ecuación (14) puede resolverse utilizando la misma optimización y soluciones que se describieron en la sección anterior. La solución óptima para M(2) para el problema de mínimos cuadrados es
M (2)=(S(2)rS(2))“1S(2)ry , (19)
donde S(2)TS(2) es ahora una matriz de 7x7.
Los modelos de MMR de tercer orden o superiores también se pueden construir de una manera similar.
Modelo de primer orden con producto cruzado (MMR-1C)
En un modelo de MMR alternativo, el modelo de predicción de primer orden de la ecuación (4) se puede mejorar para incorporar multiplicaciones cruzadas entre las componentes de color de cada uno de los píxeles, como en:
y, =sc¿C(1)+s¿M (1)+n (20)
donde MI(1) es una matriz de 3x3 y n es un vector de 1x3, ambos tal como se define en la ecuación (5), y.
Siguiendo el mismo enfoque que antes, el modelo de MMR-1C de la ecuación (20) se puede simplificar utilizando una única matriz de predicción MC, tal como en:
donde
Al recopilar todos los píxeles p juntos, se puede derivar una expresión de matriz simplificada, como en
y = SC-MC(1) , (25)
donde
SC es una matriz de px(1 7 ) y la ecuación (25) se puede resolver utilizando la misma solución de mínimos cuadrados descrita anteriormente.
Modelo de segundo orden con productos cruzados (MMR-2C)
El modelo de primer orden MMR-1C puede extenderse para incluir también datos de segundo orden. Por ejemplo,
v¿ =sc;iCl‘J sijM í2) -t-scj:C'" siM 1I) n , (27)
donde
y las componentes de la ecuación (27) restantes son los mismas que las definidas anteriormente en las ecuaciones (5-26).
Como antes, la ecuación (27) puede simplificarse utilizando una matriz de predicción simple MC(2),
donde
y
sc|2)-[l s; sc; s2 se2]. (31)
Al recopilar todos los píxeles p juntos, se puede tener una expresión de matriz simplificada
donde
y SC(2) es una matriz de px(1 2 * 7) y se pueden aplicar las mismas soluciones de mínimos cuadrados tal como se ha descrito anteriormente.
Los modelos de tercer orden o superiores con parámetros de productos cruzados también se pueden construir de forma similar. Alternativamente, tal como se describe en el Capítulo 5.4.3 de “Digital Color Imaging Handbook’, CRC Press, 2002, editado por Gaurav Sharma, una representación de orden K del modelo de productos cruzados MMR también puede describirse utilizando la siguiente formulación:
(34)
y
K K K
% = £ £ £ nh * .v X s2s¡ > (36)
v-0.1-0 ;-0
donde K denota el orden más alto del predictor de MMR.
Extensión espacial basada en MMR (MMR-C-S)
En todos los modelos de MMR descritos hasta ahora, el valor de un píxel v, previsto solo depende de los valores de entrada correspondientes, colocados normalmente, de Si. Según la predicción basada en MMR, también se puede obtener beneficio tomando en consideración los datos de los píxeles vecinos. Este enfoque corresponde a la integración en el modelo de MMR de cualquier tipo de procesamiento lineal de las entradas en el dominio espacial, tal como el filtrado tipo FIR.
Si en una imagen se consideran los ocho píxeles vecinos posibles, este enfoque puede agregar hasta ocho variables de primer orden más por componente de color en nuestra matriz de predicción M. En la práctica, sin embargo, suele ser adecuado agregar solo las variables de predicción correspondientes a los dos píxeles vecinos horizontales y verticales, e ignorar los vecinos diagonales. Esto agregará hasta cuatro variables por componente de color en la matriz de predicción, es decir, aquellas correspondientes a los píxeles superior, izquierdo, inferior y derecho. De manera similar, también se pueden agregar los parámetros correspondientes al orden superior de los valores del píxel vecino.
Para simplificar los requisitos de complejidad y cálculo de dicho modelo de MMR espacial, se puede considerar agregar extensiones espaciales a los modelos tradicionales solo para una componente de color única, tal como la componente de luminancia (como en una representación Luma-Chroma) o la componente Verde (como en una representación RGB). Por ejemplo, suponiendo que se agrega la predicción de píxeles basada en el espacio para la componente de color solo verde, a partir de las ecuaciones (34-36), una expresión general para predecir un valor de píxel de salida verde sería
vg ( i , j ) = YJx=oZy=o 'Zz=o 'rng ,x ,y ,z S ? (¿ , j )S g ( i , j ) s % ( i , j )
Modelo de primer orden con extensión espacial (MMR-1-S)
Como otra implementación de ejemplo, se puede considerar nuevamente el modelo de MMR de primer orden (MMR-1) de la ecuación (4), pero ahora mejorado para incorporar extensiones espaciales en una o más de las componentes de color; Por ejemplo, cuando se aplica a cuatro píxeles vecinos de cada uno de los píxeles en la primera componente de color:
donde Ml(1) es una matriz de 3x3 y n es un vector de 1x3, ambos tal como se definen en la ecuación (5),
md\\) 0 0
jyn = mdl2i 0 0
m d f’ 0 0 ’
m d ^ 0 0_
y
s d ¿ = [5 ( i - l ) l s ( í l ) l S (¿-J?1)1 5 ( i+ m ) l ] , ( 39 )
donde m en la ecuación (39) denota el número de columnas en un fotograma de entrada con m columnas y n filas, o m x n = p píxeles totales. La ecuación (39) se puede extender fácilmente para aplicar estos métodos tanto a otras componentes de color como a configuraciones de píxeles vecinos alternativas.
Siguiendo los mismos enfoques que antes, la ecuación (38) se puede formular fácilmente como un sistema de ecuaciones lineales
V - SD ■ MD(1) , (40)
que se puede resolver tal como se ha descrito anteriormente.
Aplicación a señales VDR con más de tres colores primarios
Todos los modelos de predicción de MMR propuestos pueden extenderse fácilmente a espacios de señal con más de tres colores primarios. Como ejemplo, se puede considerar el caso en el que una señal SDR tiene tres colores primarios, digamos, RGB, pero la señal VDR se define en el espacio de color P6, con seis colores primarios. En este caso, las ecuaciones (1-3) se pueden reescribir como
Como antes, denótese el número de píxeles en una componente de color como p. Considerando ahora el modelo de predicción de MMR de primer orden (MMR-1) de la ecuación (4),
La ecuación (41) se puede expresar utilizando una única matriz de predicción M(1) tal como
donde
Al recopilar todos los píxeles p juntos, este problema de predicción se puede describir como
V - SMU) (49)
Los modelos de predicción de MMR de orden superior también se pueden extender de manera similar y las soluciones para las matrices de predicción se pueden obtener a través de los métodos presentados anteriormente. PROCESO DE EJEMPLO PARA LA PREDICCION DE REGRESION MULTIPLE MULTICANAL
La FIG. 4 muestra un proceso de ejemplo para la predicción de regresión múltiple multicanal de acuerdo con una implementación de ejemplo de nuestra invención.
El proceso comienza en el paso 410, en donde un predictor, tal como el predictor 250, recibe las señales VDR y SDR de entrada. Dadas las dos entradas, en el paso 420, el predictor decide qué modelo de MMR seleccionar. Tal como se ha descrito anteriormente, el predictor puede seleccionar entre una variedad de modelos de MMR, que incluyen (pero no necesariamente se limitan a): primer orden (MMR-1), segundo orden (MMR-2), tercer orden o superior, primer orden con producto cruzado (MMR-1C), segundo orden con producto cruzado (MMR-2C), tercer orden o superior con producto cruzado, o cualquiera de los modelos anteriores con extensiones espaciales agregadas.
La selección del modelo de MMR se puede realizar utilizando una variedad de métodos que tienen en cuenta una serie de criterios, que incluyen: conocimiento previo sobre las entradas SDR y VDR, recursos de cálculo y de memoria disponibles, y eficiencia de codificación objetivo. La FIG. 5 muestra una implementación de ejemplo del paso 420 en base al requisito de que la residual sea inferior a un umbral predeterminado.
Tal como se ha descrito anteriormente, cualquier modelo de MMR se puede representar como un conjunto de ecuaciones lineales de la forma
V - SM , (50)
donde M es una matriz de predicción.
En el paso 430, M puede resolverse utilizando una variedad de métodos numéricos. Por ejemplo, bajo la restricción de minimizar el cuadrado medio de la residual entre V y su estimación V ,
M =(SÍ S)^ 1SI V. (51)
Finalmente, en el paso 440, utilizando la ecuación (50), el predictor da salida a V ya M.
La FIG. 5 muestra un proceso 420 de ejemplo para seleccionar un modelo de MMR durante la predicción. El predictor 250 puede comenzar en el paso 510 con un modelo de MMR inicial, tal como el que se ha utilizado en un fotograma o escena anterior, por ejemplo, el modelo de segundo orden (MMR-2), o el modelo más simple posible, tal como el MMR-1. Después de resolver M, en el paso 520 el predictor calcula el error de predicción entre la entrada V y su valor previsto. En el paso 530, si el error de predicción es menor que un umbral dado, entonces el predictor selecciona el modelo existente y se detiene el proceso de selección (540), de lo contrario, en el paso 550, estudia si utiliza un modelo más complejo. Por ejemplo, si el modelo actual es MMR-2, el predictor puede decidir utilizar MMR-2-C o MMR-2-CS. Tal como se ha descrito anteriormente, esta decisión puede depender de una variedad de
criterios, incluyendo el valor del error de predicción, los requisitos de procesamiento de potencia y la eficiencia de codificación objetivo. Si es factible utilizar un modelo más complejo, se selecciona un nuevo modelo en el paso 560 y el proceso vuelve de nuevo al paso 520. De lo contrario, el predictor utilizará el modelo existente (540).
El proceso de predicción 400 se puede repetir en una variedad de intervalos que se consideren necesarios para mantener la eficiencia de codificación mientras se utilizan los recursos de cálculo disponibles. Por ejemplo, cuando se codifican señales de vídeo, el proceso 400 se puede repetir por tamaño de segmento de vídeo predefinido, para cada uno de los fotogramas, un grupo de fotogramas, o siempre que el residuo de predicción exceda un umbral particular.
El proceso de predicción 400 también puede utilizar todos los píxeles de entrada disponibles o una submuestra de esos píxeles. En una implementación de ejemplo, se pueden utilizar píxeles sólo de cada k-ésima fila de píxeles y de cada k-ésima columna de píxeles de los datos de entrada, donde k es un número entero igual o mayor que dos. En otra implementación de ejemplo se puede decidir saltarse píxeles de entrada que están por debajo de un cierto umbral de recorte (por ejemplo, muy cerca de cero) o píxeles que están por encima de un cierto umbral de saturación (por ejemplo, para datos de n bits, los valores de los píxeles que están muy cerca de 2n - 1). En otra implementación más, se puede utilizar una combinación de tales técnicas de submuestreo y de umbralización con el fin de reducir el tamaño de la muestra de píxeles y admitir las limitaciones de cálculo de una implementación particular.
DECODIFICACIÓN DE IMAGEN
Las realizaciones de la presente invención se pueden implementar ya sea en un codificador de imagen o en un decodificador de imagen. La FIG. 6 muestra una implementación de ejemplo del decodificador 150 de acuerdo con una realización de esta invención.
El sistema de decodificación 600 recibe un flujo de bits codificado que puede combinar una capa base 690, una capa de mejora (o residual) 665 opcional y los metadatos 645, que se extraen después de la descompresión 630 y de diversas transformadas inversas 640. Por ejemplo, en un sistema VDR-SDR, la capa base 690 puede representar la representación SDR de la señal codificada y los metadatos 645 pueden incluir la información sobre el modelo de predicción de MMR que se utilizó en el predictor codificador 250 y los correspondientes parámetros de predicción. En una implementación de ejemplo, cuando el codificador utiliza un predictor de MMR de acuerdo con los métodos de esta invención, los metadatos pueden incluir la identificación del modelo que se utiliza (por ejemplo, MMR-1, MMR-2, MMR-2C y similares) y todos los coeficientes de la matriz asociados con ese modelo específico. La capa base 690 s dada y los parámetros de color relacionados con MMR extraídos de los metadatos 645, el predictor 650 puede calcular el V 680 previsto utilizando cualquiera de las ecuaciones correspondientes descritas en el presente documento. Por ejemplo, si el modelo identificado es MMR-2C, entonces V 680 se puede calcular utilizando la ecuación (32). Si no hay residual, o la residual es insignificante, al valor 680 previsto se le puede dar salida directamente como la imagen VDR final. De lo contrario, en el sumador 660, la salida del predictor (680) se añade a la residual 665 para dar salida a la señal VDR 670.
IMPLEMENTACIÓN DEL SISTEMA INFORMÁTICO DE EJEMPLO
Las realizaciones de la presente invención pueden implementarse con un sistema informático, sistemas configurados en circuitería y componentes electrónicos, un dispositivo de circuito integrado (IC - Integrated Circuit, en inglés), tal como un microcontrolador, una matriz de puertas programables en campo (FPGA - Field Programmable Gate Array, en inglés), u otro dispositivo lógico configurable o programable (PLD - Programmable Logic Device, en inglés), un procesador de tiempo discreto o de señal digital (DSP - Digital Signal Processor, en inglés), un IC de aplicación específica (ASIC - Application Specific IC), y/o aparato que incluye uno o más de tales sistemas, dispositivos o componentes. El ordenador y/o IC puede realizar, controlar o ejecutar las instrucciones relativas a la predicción basada en MMR, tales como las descritas en el presente documento. El ordenador y/o IC puede calcular, cualquiera de una variedad de parámetros o valores que se refieren a la predicción de m Mr tal como se describe en el presente documento. Las realizaciones de extensión de rango dinámico de imagen y de vídeo pueden implementarse en hardware, software, firmware y diversas combinaciones de los mismos.
Ciertas implementaciones de la invención comprenden procesadores informáticos que ejecutan instrucciones de software que hacen que los procesadores realicen un método de la invención. Por ejemplo, uno o más procesadores en una pantalla, un codificador, un decodificador, un transcodificador o similares pueden implementar métodos de predicción basados en MMR tal como se ha descrito anteriormente mediante la ejecución de instrucciones de software en una memoria de programa accesible para los procesadores. La invención también se puede proporcionar en forma de un producto de programa. El producto de programa puede comprender cualquier medio que transporta un conjunto de señales legibles por ordenador que comprenden instrucciones que, cuando se ejecutan por un procesador de datos, hacen que el procesador de datos ejecute un método de la invención. Los productos de programa de acuerdo con la invención pueden estar en cualquiera de una amplia variedad de formas. El producto de programa puede comprender, por ejemplo, medios físicos tales como medios de almacenamiento de datos magnético que incluyen disquetes, discos duros, medios de almacenamiento de datos ópticos que incluyen
CD-ROM, DVD, medios de almacenamiento de datos electrónicos que incluyen ROM, RAM flash o similares. Las señales legibles por ordenador en el producto de programa pueden estar opcionalmente comprimidas o codificadas. Cuando un componente (p. ej. un módulo de software, procesador, conjunto, dispositivo, circuito, etc.) se refiere a lo anterior, a menos que se indique lo contrario, la referencia a ese componente (incluyendo una referencia a un "medio") debe interpretarse como incluyendo como equivalentes de ese componente cualquier componente que realiza la función del componente descrito (p. ej., que es equivalente funcionalmente), incluyendo componentes que no son equivalentes estructuralmente a la estructura dada a conocer que realiza la función en las realizaciones de ejemplo ilustradas de la invención.
EQUIVALENTES, EXTENSIONES, ALTERNATIVAS Y VARIOS
Las realizaciones de ejemplo que se refieren a aplicar la predicción de MMR en la codificación de imágenes VDR y SDR se describen así. En la memoria descriptiva anterior, las realizaciones de la presente invención se han descrito con referencia a numerosos detalles específicos que pueden variar de implementación a implementación. Por lo tanto, el único y exclusivo indicador de lo que es la invención, y se pretende por los solicitantes para ser la invención, es el conjunto de reivindicaciones que se facilitan de esta solicitud, en la forma específica en la cual se facilitan tales reivindicaciones, incluyendo cualquier corrección posterior. Definiciones cualesquiera expresamente establecidas en el presente documento para los términos contenidos en tales reivindicaciones regirán el significado de tales términos tal como se utilizan en las reivindicaciones. Por lo tanto, ninguna limitación, elemento, propiedad, característica, ventaja o atributo que no se cite expresamente en una reivindicación, de ninguna manera debe limitar el alcance de dicha reivindicación. La memoria descriptiva y los dibujos deben ser considerados, por consiguiente, en un sentido ilustrativo, en vez de restrictivo.
Claims (11)
1. En un sistema de video de codificación o decodificación, un método de predicción de imagen con un procesador, comprendiendo el método:
recibir una primera imagen;
recibir parámetros de predicción para un modelo de predicción de regresión múltiple multicanal (MMR), en el que el modelo de MMR se utiliza para predecir una segunda imagen a partir de una primera imagen, en el que la segunda imagen representa la misma escena que la primera imagen, y en el que un rango dinámico de la primera imagen es menor que un rango dinámico de la segunda imagen; y
aplicar la primera imagen y los parámetros de predicción al modelo de predicción de MMR para generar una imagen de salida que se aproxime a la segunda imagen, en el que los valores de píxel de al menos una componente de color de la imagen de salida se calculan en base a los valores de píxel de al menos dos componentes de color en la primera imagen, en el que, para generar un valor de píxel de salida predicho (v,) para una componente de luma y/o croma, el modelo de MMR comprende un modelo de MMR de primer orden con multiplicaciones cruzadas que comprenden:
un valor constante (n), al menos una combinación lineal de valores de píxel de dos componentes de color diferentes y, al menos, un término de la multiplicación de valores de píxel de dos componentes de color diferentes.
2. El método de la reivindicación 1, en el que el modelo de MMR calcula el valor del píxel de salida predicho (v,) de acuerdo con la fórmula:
mc\
(i)
Js i±si2s i3,
(i) donde s*, k = 1, 2 y 3, denotan las tres componentes de color del píxel i-ésimo de la primera imagen, y mk (para k = 1,2 y 3), n y i (J = 1, 2, 3, 4) denotan los parámetros de predicción del modelo de MMR.
3. El método de la reivindicación 1, en el que la primera imagen comprende una imagen de rango dinámico estándar y la segunda imagen comprende una imagen de alto rango dinámico.
4. El método de la reivindicación 1, en el que el modelo de MMR comprende, además, al menos un cuadrado del valor de píxel de una de las componentes de color y al menos un cuadrado de una multiplicación de valores de píxel de dos componentes de color diferentes para formar un segundo modelo de MMR con multiplicaciones cruzadas.
5. El método de la reivindicación 4, en el que el modelo de MMR calcula el valor de píxel de salida predicho (v,) de acuerdo con la fórmula:
.ij s ;is ¿2 i me2 (i; s n + , ntCg UJ si2Si3 , mc^ (1) s¿1s¿2s¿3
donde mk y mci para k = 1, 2, 3, yy = 1, 2, 3, 4 denotan parámetros adicionales del modelo de MMR.
6. Un sistema de video, comprendiendo el sistema:
una entrada, para recibir una primera imagen y parámetros de predicción para un modelo de predicción de regresión múltiple multicanal (MMR), en el que el modelo de MMR se utiliza para predecir una segunda imagen a partir de una primera imagen, en el que la segunda imagen representa la misma escena que la primera imagen, y en el que un rango dinámico de la primera imagen es menor que un rango dinámico de la segunda imagen; y
un procesador, para aplicar la primera imagen y los parámetros de predicción al modelo de predicción de MMR para generar una imagen de salida que se aproxime a la segunda imagen, en el que los valores de píxel de al menos una componente de color de la imagen de salida se calculan en base a los valores de píxel de al menos dos componentes de color en la primera imagen, en el que, para generar un valor de píxel de salida predicho (v,) para una componente de luma y/o croma, el modelo de MMR comprende un modelo de MMR de primer orden con multiplicaciones cruzadas que comprenden: un valor constante (n), al menos una combinación lineal de valores de píxel de dos componentes de color diferentes y, al menos, un término de la multiplicación de valores de píxel de dos componentes de color diferentes.
7. El sistema de la reivindicación 6, en el que el modelo de MMR calcula el valor del píxel de salida predicho (v,) de acuerdo con la fórmula:
donde s*, k = 1, 2 y 3, denotan las tres componentes de color del píxel i-ésimo de la primera imagen, y mx (para k „ ,(.o)
=1,2 y 3), ny i (J = 1, 2, 3, 4) denotan los parámetros de predicción del modelo de MMR.
8. El sistema de la reivindicación 6, en el que la primera imagen es una imagen de rango dinámico estándar y la segunda imagen es una imagen de alto rango dinámico.
9. El método de la reivindicación 6, en el que el modelo de MMR comprende, además, al menos un cuadrado del valor de píxel de una de las componentes de color y al menos un cuadrado de una multiplicación de valores de píxel de dos componentes de color diferentes.
11. Un medio de almacenamiento no transitorio, legible por ordenador, que tiene almacenadas en el mismo instrucciones ejecutables por ordenador para ejecutar con uno o más procesadores un método de acuerdo con cualquiera de las reivindicaciones 1-5.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161475359P | 2011-04-14 | 2011-04-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2750234T3 true ES2750234T3 (es) | 2020-03-25 |
Family
ID=46022694
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES14171538.3T Active ES2659961T3 (es) | 2011-04-14 | 2012-04-13 | Predictor de regresión múltiple de múltiples canales de color |
ES17204552T Active ES2750234T3 (es) | 2011-04-14 | 2012-04-13 | Predictor de regresión múltiple de múltiples canales de color |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES14171538.3T Active ES2659961T3 (es) | 2011-04-14 | 2012-04-13 | Predictor de regresión múltiple de múltiples canales de color |
Country Status (11)
Country | Link |
---|---|
US (5) | US8811490B2 (es) |
EP (3) | EP2782348B1 (es) |
JP (4) | JP5744318B2 (es) |
CN (3) | CN107105229B9 (es) |
DK (1) | DK3324622T3 (es) |
ES (2) | ES2659961T3 (es) |
HK (1) | HK1193688A1 (es) |
HU (1) | HUE046186T2 (es) |
PL (2) | PL2782348T3 (es) |
TR (1) | TR201802291T4 (es) |
WO (1) | WO2012142471A1 (es) |
Families Citing this family (90)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107105229B9 (zh) | 2011-04-14 | 2020-03-31 | 杜比实验室特许公司 | 图像解码方法、视频解码器和非暂态计算机可读存储介质 |
WO2012142506A1 (en) | 2011-04-14 | 2012-10-18 | Dolby Laboratories Licensing Corporation | Image prediction based on primary color grading model |
US8971408B2 (en) | 2011-04-14 | 2015-03-03 | Dolby Laboratories Licensing Corporation | Piecewise cross color channel predictor |
US9066070B2 (en) | 2011-04-25 | 2015-06-23 | Dolby Laboratories Licensing Corporation | Non-linear VDR residual quantizer |
CN103535038B (zh) | 2011-05-16 | 2017-10-13 | 杜比实验室特许公司 | 用于分层vdr编码的有效架构 |
EP2719176B1 (en) | 2011-06-13 | 2021-07-07 | Dolby Laboratories Licensing Corporation | Visual display resolution prediction based on fused regions |
US8873877B2 (en) | 2011-11-01 | 2014-10-28 | Dolby Laboratories Licensing Corporation | Adaptive false contouring prevention in layered coding of images with extended dynamic range |
EP2807823B1 (en) * | 2012-01-24 | 2018-03-28 | Dolby Laboratories Licensing Corporation | Piecewise cross color channel predictor |
US9420302B2 (en) | 2012-01-24 | 2016-08-16 | Dolby Laboratories Licensing Corporation | Weighted multi-band cross color channel predictor |
WO2013138127A1 (en) | 2012-03-12 | 2013-09-19 | Dolby Laboratories Licensing Corporation | 3d visual dynamic range coding |
US9357197B2 (en) | 2012-05-24 | 2016-05-31 | Dolby Laboratories Licensing Corporation | Multi-layer backwards-compatible video delivery for enhanced dynamic range and enhanced resolution formats |
EP2941872B1 (en) * | 2013-01-02 | 2018-09-26 | Dolby Laboratories Licensing Corporation | Backward-compatible coding for ultra high definition video signals with enhanced dynamic range |
JP6205000B2 (ja) | 2013-03-11 | 2017-09-27 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 階層符号化を用いたマルチフォーマットハイダイナミックレンジビデオの配信 |
US9628808B2 (en) | 2013-03-26 | 2017-04-18 | Dolby Laboratories Licensing Corporation | Encoding perceptually-quantized video content in multi-layer VDR coding |
EP2819414A3 (en) * | 2013-06-28 | 2015-02-25 | Samsung Electronics Co., Ltd | Image processing device and image processing method |
US9712834B2 (en) * | 2013-10-01 | 2017-07-18 | Dolby Laboratories Licensing Corporation | Hardware efficient sparse FIR filtering in video codec |
JP6355345B2 (ja) * | 2014-01-29 | 2018-07-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、表示装置、表示方法、及び、プログラム |
WO2015123067A1 (en) | 2014-02-13 | 2015-08-20 | Dolby International Ab | Piecewise inter-layer prediction for signals with enhanced dynamic range |
EP2958075A1 (en) * | 2014-06-20 | 2015-12-23 | Thomson Licensing | Method and apparatus for dynamic range expansion of LDR video sequence |
US9911179B2 (en) | 2014-07-18 | 2018-03-06 | Dolby Laboratories Licensing Corporation | Image decontouring in high dynamic range video processing |
US9866734B2 (en) | 2014-08-26 | 2018-01-09 | Dolby Laboratories Licensing Corporation | Scene-change detection using video stream pairs |
US10542265B2 (en) | 2014-09-09 | 2020-01-21 | Dolby Laboratories Licensing Corporation | Self-adaptive prediction method for multi-layer codec |
JP6302600B2 (ja) * | 2014-09-26 | 2018-03-28 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 知覚的量子化されたビデオコンテンツの符号化および復号化 |
EP3213291B1 (en) | 2014-10-27 | 2019-11-06 | Dolby Laboratories Licensing Corporation | Content mapping using extended color range |
US9747673B2 (en) | 2014-11-05 | 2017-08-29 | Dolby Laboratories Licensing Corporation | Systems and methods for rectifying image artifacts |
US10531109B2 (en) | 2015-01-27 | 2020-01-07 | Dolby Laboratories Licensing Corporation | Predictive image encoding and decoding with pixel group based quantization |
US9998742B2 (en) * | 2015-01-27 | 2018-06-12 | Qualcomm Incorporated | Adaptive cross component residual prediction |
WO2016120354A1 (en) * | 2015-01-30 | 2016-08-04 | Thomson Licensing | Method and device for matching colors between color pictures of different dynamic range |
KR101818900B1 (ko) | 2015-02-17 | 2018-02-21 | 돌비 레버러토리즈 라이쎈싱 코오포레이션 | 향상된 동적 범위를 갖는 신호들에 대한 계층간 예측 |
EP3264775B1 (en) * | 2015-02-27 | 2023-05-03 | Sony Group Corporation | Transmission apparatus, transmission method, reception apparatus and reception method |
US10687080B2 (en) * | 2015-08-28 | 2020-06-16 | Arris Enterprises Llc | Color volume transforms in coding of high dynamic range and wide color gamut sequences |
JP6581862B2 (ja) * | 2015-09-18 | 2019-09-25 | 日本放送協会 | Hdr−sdr一体化制作用ビデオカメラ |
FR3042327B1 (fr) * | 2015-10-07 | 2019-08-02 | Guillemot Corporation | Systeme de refroidissement d'un moteur electrique |
US9693011B2 (en) * | 2015-11-02 | 2017-06-27 | Barco N.V. | Upgraded image streaming to legacy and upgraded displays |
EP3387833B1 (en) | 2015-12-09 | 2019-11-06 | Dolby Laboratories Licensing Corporation | Low-complexity lookup table construction for hdr coding with reduced interpolation error |
JP6233424B2 (ja) * | 2016-01-05 | 2017-11-22 | ソニー株式会社 | 撮像システムおよび撮像方法 |
JP6237797B2 (ja) | 2016-01-05 | 2017-11-29 | ソニー株式会社 | ビデオシステム、ビデオ処理方法、プログラム、およびビデオコンバーター |
WO2017165494A2 (en) | 2016-03-23 | 2017-09-28 | Dolby Laboratories Licensing Corporation | Encoding and decoding reversible production-quality single-layer video signals |
WO2017163685A1 (ja) * | 2016-03-24 | 2017-09-28 | シャープ株式会社 | 映像処理装置、表示装置、映像処理方法、制御プログラム、および記録媒体 |
JP2017184220A (ja) * | 2016-03-24 | 2017-10-05 | シャープ株式会社 | 映像処理装置、表示装置、映像処理方法、制御プログラム、および記録媒体 |
US10440401B2 (en) | 2016-04-07 | 2019-10-08 | Dolby Laboratories Licensing Corporation | Backward-compatible HDR codecs with temporal scalability |
EP3249605A1 (en) * | 2016-05-23 | 2017-11-29 | Thomson Licensing | Inverse tone mapping method and corresponding device |
GB201611253D0 (en) | 2016-06-29 | 2016-08-10 | Dolby Laboratories Licensing Corp | Efficient Histogram-based luma look matching |
WO2018039665A1 (en) | 2016-08-26 | 2018-03-01 | Dolby Laboratories Licensing Corporation | Chroma reshaping based on just noticeable differences |
US10602110B2 (en) * | 2016-08-26 | 2020-03-24 | Dolby Laboratories Licensing Corporation | Chroma reshaping based on just noticeable differences |
TWI631505B (zh) * | 2016-08-26 | 2018-08-01 | 晨星半導體股份有限公司 | 應用於播放裝置的影像處理方法及相關的電路 |
WO2018044803A1 (en) | 2016-08-30 | 2018-03-08 | Dolby Laboratories Licensing Corporation | Real-time reshaping of single-layer backwards-compatible codec |
JP6771656B2 (ja) | 2016-08-30 | 2020-10-21 | ドルビー ラボラトリーズ ライセンシング コーポレイション | シングルレイヤー後方互換性コーデックのリアルタイム再構成 |
WO2018049335A1 (en) | 2016-09-09 | 2018-03-15 | Dolby Laboratories Licensing Corporation | Coding of high dynamic range video using segment-based reshaping |
US10575028B2 (en) | 2016-09-09 | 2020-02-25 | Dolby Laboratories Licensing Corporation | Coding of high dynamic range video using segment-based reshaping |
CN117499658A (zh) * | 2016-09-30 | 2024-02-02 | 渊慧科技有限公司 | 使用神经网络生成视频帧 |
EP3306563B1 (en) | 2016-10-05 | 2022-01-12 | Dolby Laboratories Licensing Corporation | Inverse luma/chroma mappings with histogram transfer and approximation |
US10264287B2 (en) * | 2016-10-05 | 2019-04-16 | Dolby Laboratories Licensing Corporation | Inverse luma/chroma mappings with histogram transfer and approximation |
CN107995497B (zh) | 2016-10-26 | 2021-05-28 | 杜比实验室特许公司 | 高动态范围视频的屏幕自适应解码 |
CN110178374B (zh) | 2017-01-18 | 2023-10-10 | 杜比实验室特许公司 | 用于对高动态范围视频进行编码的基于段的整形 |
WO2018136432A1 (en) * | 2017-01-18 | 2018-07-26 | Dolby Laboratories Licensing Corporation | Segment-based reshaping for coding high dynamic range video |
WO2018169571A1 (en) * | 2017-03-15 | 2018-09-20 | Google Llc | Segmentation-based parameterized motion models |
KR102301232B1 (ko) * | 2017-05-31 | 2021-09-10 | 삼성전자주식회사 | 다채널 특징맵 영상을 처리하는 방법 및 장치 |
CN110770787B (zh) | 2017-06-16 | 2023-04-07 | 杜比实验室特许公司 | 高效端到端单层逆向显示管理编码 |
US10609372B2 (en) * | 2017-09-29 | 2020-03-31 | Dolby Laboratories Licensing Corporation | Up-conversion to content adaptive perceptual quantization video signals |
JP6753386B2 (ja) * | 2017-10-25 | 2020-09-09 | ソニー株式会社 | カメラシステム、ビデオ処理方法およびプログラム |
BR112020016821B1 (pt) * | 2018-02-28 | 2022-08-09 | Dolby Laboratories Licensing Corporation | Método de geração de metadados de remodelagem de luma e croma com um sistema de processamento, meio legível por máquina e sistema de gerenciamento de exibição |
US10609424B2 (en) | 2018-03-09 | 2020-03-31 | Dolby Laboratories Licensing Corporation | Single-layer progressive coding for supporting multi-capability HDR composition |
CN110351509B (zh) * | 2018-04-03 | 2021-12-14 | 北京小鸟科技股份有限公司 | 一种基于fpga堆叠的多通道高带宽数据交换方法 |
WO2019199701A1 (en) * | 2018-04-09 | 2019-10-17 | Dolby Laboratories Licensing Corporation | Hdr image representations using neural network mappings |
CN112514359B (zh) * | 2018-06-18 | 2022-02-18 | 杜比实验室特许公司 | 图像捕获方法、装置、机器可读存储装置 |
JP7094451B2 (ja) | 2018-12-03 | 2022-07-01 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 再構成関数の補間 |
TWI734059B (zh) * | 2018-12-10 | 2021-07-21 | 財團法人工業技術研究院 | 動態預測模型建立方法、電子裝置及使用者介面 |
JP7299982B2 (ja) | 2018-12-18 | 2023-06-28 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 拡張標準ダイナミックレンジビデオ(sdr+)における機械学習ベースのダイナミックコンポージング |
US11895416B2 (en) | 2019-07-30 | 2024-02-06 | Dolby Laboratories Licensing Corporation | Electro-optical transfer function conversion and signal legalization |
US20220301124A1 (en) | 2019-08-15 | 2022-09-22 | Dolby Laboratories Licensing Corporation | Efficient user-defined sdr-to-hdr conversion with model templates |
TWI812874B (zh) * | 2019-10-01 | 2023-08-21 | 美商杜拜研究特許公司 | 張量乘積之b平滑曲線預測子 |
EP4070541A1 (en) | 2019-12-06 | 2022-10-12 | Dolby Laboratories Licensing Corp. | Cascade prediction |
WO2021216607A1 (en) | 2020-04-21 | 2021-10-28 | Dolby Laboratories Licensing Corporation | Reshaping functions for hdr imaging with continuity and reversibility constraints |
CN116157824A (zh) | 2020-06-24 | 2023-05-23 | 杜比实验室特许公司 | 用于开环编解码器中的hdr成像的图像预测 |
US20230291937A1 (en) | 2020-07-09 | 2023-09-14 | Dolby Laboratories Licensing Corporation | Workload allocation and processing in cloud-based coding of hdr video |
JP2023542897A (ja) | 2020-09-18 | 2023-10-12 | ドルビー ラボラトリーズ ライセンシング コーポレイション | Hdrビデオのクラウド・ベースの符号化のための再帰的なセグメントからシーンへのセグメンテーション |
US20230388555A1 (en) | 2020-09-18 | 2023-11-30 | Dolby Laboratories Licensing Corporation | Trim-pass correction for cloud-based coding of hdr video |
EP4229869A1 (en) | 2020-10-14 | 2023-08-23 | Dolby Laboratories Licensing Corporation | Color transformation for hdr video with a coding-efficiency constraint |
EP4245035A1 (en) | 2020-11-11 | 2023-09-20 | Dolby Laboratories Licensing Corporation | Wrapped reshaping for codeword augmentation with neighborhood consistency |
JP2024505493A (ja) | 2021-01-27 | 2024-02-06 | ドルビー ラボラトリーズ ライセンシング コーポレイション | グローバルおよびローカル再整形を介した画像向上 |
US20240171775A1 (en) | 2021-05-21 | 2024-05-23 | Dolby Laboratories Licensing Corporation | Patch-based reshaping and metadata for volumetric video |
EP4352964A1 (en) | 2021-06-08 | 2024-04-17 | Dolby Laboratories Licensing Corporation | Chained reshaping function optimization |
WO2023022956A1 (en) | 2021-08-16 | 2023-02-23 | Dolby Laboratories Licensing Corporation | Applying minimum and average distance constraint in video streaming |
WO2023033991A1 (en) | 2021-08-30 | 2023-03-09 | Dolby Laboratories Licensing Corporation | Reshaper for learning-based image/video coding |
CA3231530A1 (en) | 2021-09-09 | 2023-03-16 | Dolby Laboratories Licensing Corporation | Tensor-product b-spline prediction for hdr video in mobile applications |
WO2023072121A1 (en) * | 2021-11-01 | 2023-05-04 | Mediatek Singapore Pte. Ltd. | Method and apparatus for prediction based on cross component linear model in video coding system |
WO2023177863A1 (en) | 2022-03-18 | 2023-09-21 | Dolby Laboratories Licensing Corporation | Image optimization in mobile capture and editing applications |
WO2023177873A2 (en) | 2022-03-18 | 2023-09-21 | Dolby Laboratories Licensing Corporation | Image optimization in mobile capture and editing applications |
WO2023229898A1 (en) | 2022-05-24 | 2023-11-30 | Dolby Laboratories Licensing Corporation | Neutral color preservation for single-layer backward compatible codec |
Family Cites Families (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6560285B1 (en) | 1998-03-30 | 2003-05-06 | Sarnoff Corporation | Region-based information compaction as for digital images |
US7149262B1 (en) | 2000-07-06 | 2006-12-12 | The Trustees Of Columbia University In The City Of New York | Method and apparatus for enhancing data resolution |
US6771311B1 (en) | 2000-12-11 | 2004-08-03 | Eastman Kodak Company | Automatic color saturation enhancement |
AU2003220595A1 (en) | 2002-03-27 | 2003-10-13 | The Trustees Of Columbia University In The City Of New York | Imaging method and system |
US7035460B2 (en) | 2002-05-31 | 2006-04-25 | Eastman Kodak Company | Method for constructing an extended color gamut digital image from a limited color gamut digital image |
US7522774B2 (en) * | 2004-03-10 | 2009-04-21 | Sindhara Supermedia, Inc. | Methods and apparatuses for compressing digital image data |
CN101901480B (zh) | 2004-04-15 | 2013-03-06 | 杜比实验室特许公司 | 用于处理图像数据的设备和方法 |
US8218625B2 (en) | 2004-04-23 | 2012-07-10 | Dolby Laboratories Licensing Corporation | Encoding, decoding and representing high dynamic range images |
US20050259729A1 (en) * | 2004-05-21 | 2005-11-24 | Shijun Sun | Video coding with quality scalability |
US8050512B2 (en) | 2004-11-16 | 2011-11-01 | Sharp Laboratories Of America, Inc. | High dynamic range images from low dynamic range images |
JP5116208B2 (ja) | 2004-11-19 | 2013-01-09 | 株式会社ジャパンディスプレイイースト | 画像信号表示装置 |
US7733961B2 (en) * | 2005-04-15 | 2010-06-08 | Mississippi State University Research And Technology Corporation | Remote sensing imagery accuracy analysis method and apparatus |
US20070076971A1 (en) * | 2005-09-30 | 2007-04-05 | Nokia Corporation | Compression of images for computer graphics |
CN101371583B (zh) | 2006-01-23 | 2012-03-21 | 马普科技促进协会 | 编码/解码高动态范围图像的方法和设备 |
JP2007208736A (ja) * | 2006-02-02 | 2007-08-16 | Canon Inc | 色処理方法および装置 |
US8014445B2 (en) | 2006-02-24 | 2011-09-06 | Sharp Laboratories Of America, Inc. | Methods and systems for high dynamic range video coding |
WO2007099525A2 (en) * | 2006-03-03 | 2007-09-07 | Medic Vision - Brain Technologies Ltd. | System and method of automatic prioritization and analysis of medical images |
JP2010506440A (ja) * | 2006-09-30 | 2010-02-25 | トムソン ライセンシング | ビデオのカラーエンハンスメント層をエンコード及びデコードする方法及び装置 |
WO2008049445A1 (en) | 2006-10-25 | 2008-05-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Quality scalable coding |
US8774269B2 (en) | 2006-10-25 | 2014-07-08 | Franuhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Quality scalable coding with mapping different ranges of bit depths |
EP2098060B1 (en) | 2006-11-27 | 2012-10-24 | Dolby Laboratories Licensing Corporation | Apparatus and methods for boosting dynamic range in digital images |
CA2570090C (en) | 2006-12-06 | 2014-08-19 | Brightside Technologies Inc. | Representing and reconstructing high dynamic range images |
US8237865B2 (en) | 2006-12-18 | 2012-08-07 | Emanuele Salvucci | Multi-compatible low and high dynamic range and high bit-depth texture and video encoding system |
US7826673B2 (en) * | 2007-01-23 | 2010-11-02 | Sharp Laboratories Of America, Inc. | Methods and systems for inter-layer image prediction with color-conversion |
US8503524B2 (en) | 2007-01-23 | 2013-08-06 | Sharp Laboratories Of America, Inc. | Methods and systems for inter-layer image prediction |
US8665942B2 (en) | 2007-01-23 | 2014-03-04 | Sharp Laboratories Of America, Inc. | Methods and systems for inter-layer image prediction signaling |
US8233536B2 (en) | 2007-01-23 | 2012-07-31 | Sharp Laboratories Of America, Inc. | Methods and systems for multiplication-free inter-layer image prediction |
US7760949B2 (en) | 2007-02-08 | 2010-07-20 | Sharp Laboratories Of America, Inc. | Methods and systems for coding multiple dynamic range images |
US8014613B2 (en) | 2007-04-16 | 2011-09-06 | Sharp Laboratories Of America, Inc. | Methods and systems for inter-layer image parameter prediction |
CN101663896A (zh) * | 2007-04-23 | 2010-03-03 | 汤姆森许可贸易公司 | 用于对视频数据进行编码的方法和设备、用于对编码的视频数据和编码的视频信号进行解码的方法和设备 |
TW200845723A (en) * | 2007-04-23 | 2008-11-16 | Thomson Licensing | Method and apparatus for encoding video data, method and apparatus for decoding encoded video data and encoded video signal |
US7983496B2 (en) | 2007-06-26 | 2011-07-19 | Mitsubishi Electric Research Laboratories, Inc. | Inverse tone mapping for bit-depth scalable image coding adapted to variable block sizes |
US8085852B2 (en) * | 2007-06-26 | 2011-12-27 | Mitsubishi Electric Research Laboratories, Inc. | Inverse tone mapping for bit-depth scalable image coding |
EP2143279B1 (en) | 2007-06-29 | 2010-10-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Scalable video coding supporting pixel value refinement scalability |
KR101365596B1 (ko) | 2007-09-14 | 2014-03-12 | 삼성전자주식회사 | 영상 부호화장치 및 방법과 그 영상 복호화장치 및 방법 |
BRPI0818648A2 (pt) | 2007-10-15 | 2015-04-07 | Thomson Licensing | Métodos e aparelho para predição de resíduo interchamadas para vídeo escalável |
US8208560B2 (en) * | 2007-10-15 | 2012-06-26 | Intel Corporation | Bit depth enhancement for scalable video coding |
WO2009051704A1 (en) | 2007-10-16 | 2009-04-23 | Thomson Licensing | Methods and apparatus for artifact removal for bit depth scalability |
KR101365597B1 (ko) | 2007-10-24 | 2014-02-20 | 삼성전자주식회사 | 영상 부호화장치 및 방법과 그 영상 복호화장치 및 방법 |
US8175158B2 (en) * | 2008-01-04 | 2012-05-08 | Sharp Laboratories Of America, Inc. | Methods and systems for inter-layer image prediction parameter determination |
WO2009120928A2 (en) | 2008-03-28 | 2009-10-01 | The Trustees Of Columbia University In The City Of New York | Generalized assorted pixel camera systems and methods |
US8165395B2 (en) | 2008-04-15 | 2012-04-24 | Sony Corporation | Automatic image color tone correction |
CN102007768B (zh) | 2008-04-16 | 2013-05-29 | 弗朗霍夫应用科学研究促进协会 | 编码器、解码器、编码方法及解码方法 |
US8270759B2 (en) | 2008-06-16 | 2012-09-18 | International Business Machines Corporation | Transformation of a video image from a high dynamic range image to a low dynamic range image |
ES2389458T3 (es) | 2008-07-10 | 2012-10-26 | The University Of Warwick | Métodos y dispositivos para la compresión de datos de vídeo HDR |
WO2010043922A1 (en) | 2008-10-17 | 2010-04-22 | Trellis Management Co., Ltd. | High dynamic range texture and video coding |
US8406569B2 (en) * | 2009-01-19 | 2013-03-26 | Sharp Laboratories Of America, Inc. | Methods and systems for enhanced dynamic range images and video from multiple exposures |
US8290295B2 (en) * | 2009-03-03 | 2012-10-16 | Microsoft Corporation | Multi-modal tone-mapping of images |
CN104486605B (zh) | 2009-03-10 | 2017-04-12 | 杜比实验室特许公司 | 扩展动态范围和扩展维数图像信号转换 |
CN102388612B (zh) * | 2009-03-13 | 2014-10-08 | 杜比实验室特许公司 | 高动态范围、可视动态范围和宽色域视频的分层压缩 |
US8139857B2 (en) * | 2009-03-18 | 2012-03-20 | Xerox Corporation | Local regression methods and systems for image processing systems |
US8358839B2 (en) * | 2009-11-30 | 2013-01-22 | Xerox Corporation | Local regression methods and systems for image processing systems |
US8654141B2 (en) * | 2009-12-29 | 2014-02-18 | Intel Corporation | Techniques for adapting a color gamut |
US8606009B2 (en) * | 2010-02-04 | 2013-12-10 | Microsoft Corporation | High dynamic range image generation and rendering |
US9100661B2 (en) * | 2010-04-05 | 2015-08-04 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding video by using dynamic-range transformation, and method and apparatus for decoding video by using dynamic-range transformation |
TWI479898B (zh) | 2010-08-25 | 2015-04-01 | Dolby Lab Licensing Corp | 擴展影像動態範圍 |
US8611655B2 (en) * | 2011-02-04 | 2013-12-17 | Apple Inc. | Hue-based color matching |
CN107105229B9 (zh) | 2011-04-14 | 2020-03-31 | 杜比实验室特许公司 | 图像解码方法、视频解码器和非暂态计算机可读存储介质 |
US9036042B2 (en) * | 2011-04-15 | 2015-05-19 | Dolby Laboratories Licensing Corporation | Encoding, decoding, and representing high dynamic range images |
-
2012
- 2012-04-13 CN CN201611005691.XA patent/CN107105229B9/zh active Active
- 2012-04-13 PL PL14171538T patent/PL2782348T3/pl unknown
- 2012-04-13 EP EP14171538.3A patent/EP2782348B1/en active Active
- 2012-04-13 HU HUE17204552A patent/HUE046186T2/hu unknown
- 2012-04-13 TR TR2018/02291T patent/TR201802291T4/tr unknown
- 2012-04-13 DK DK17204552.8T patent/DK3324622T3/da active
- 2012-04-13 WO PCT/US2012/033605 patent/WO2012142471A1/en active Application Filing
- 2012-04-13 US US14/110,694 patent/US8811490B2/en active Active
- 2012-04-13 EP EP17204552.8A patent/EP3324622B1/en active Active
- 2012-04-13 CN CN201611027011.4A patent/CN106878707B/zh active Active
- 2012-04-13 PL PL17204552T patent/PL3324622T3/pl unknown
- 2012-04-13 JP JP2014505358A patent/JP5744318B2/ja active Active
- 2012-04-13 ES ES14171538.3T patent/ES2659961T3/es active Active
- 2012-04-13 EP EP12717990.1A patent/EP2697971B1/en active Active
- 2012-04-13 ES ES17204552T patent/ES2750234T3/es active Active
- 2012-04-13 CN CN201280018070.9A patent/CN103563372B/zh active Active
-
2014
- 2014-05-21 US US14/283,845 patent/US9386313B2/en active Active
- 2014-07-10 HK HK14107015.0A patent/HK1193688A1/xx unknown
-
2015
- 2015-03-17 JP JP2015053247A patent/JP5921741B2/ja active Active
-
2016
- 2016-04-12 JP JP2016079491A patent/JP6246255B2/ja active Active
- 2016-05-24 US US15/163,613 patent/US9699483B2/en active Active
-
2017
- 2017-05-30 US US15/608,433 patent/US10021390B2/en active Active
- 2017-11-14 JP JP2017218877A patent/JP6490178B2/ja active Active
-
2018
- 2018-05-24 US US15/988,937 patent/US10237552B2/en active Active
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2750234T3 (es) | Predictor de regresión múltiple de múltiples canales de color | |
ES2670504T3 (es) | Predictor de canal de color cruzado por tramos | |
US8837825B2 (en) | Image Prediction based on primary color grading model | |
US9374576B2 (en) | Fused region-based VDR prediction | |
US9877032B2 (en) | Weighted multi-band cross color channel predictor | |
US8971408B2 (en) | Piecewise cross color channel predictor |