ES2342365T3 - Codificacion y descodificacion de alta precision para imagenes de video. - Google Patents

Codificacion y descodificacion de alta precision para imagenes de video. Download PDF

Info

Publication number
ES2342365T3
ES2342365T3 ES02748364T ES02748364T ES2342365T3 ES 2342365 T3 ES2342365 T3 ES 2342365T3 ES 02748364 T ES02748364 T ES 02748364T ES 02748364 T ES02748364 T ES 02748364T ES 2342365 T3 ES2342365 T3 ES 2342365T3
Authority
ES
Spain
Prior art keywords
frame
values
bit
bits
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES02748364T
Other languages
English (en)
Inventor
Gary A. Demos
David Ruhoff
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby Laboratories Licensing Corp
Original Assignee
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Laboratories Licensing Corp filed Critical Dolby Laboratories Licensing Corp
Application granted granted Critical
Publication of ES2342365T3 publication Critical patent/ES2342365T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • H04N19/45Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder performing compensation of the inverse transform mismatch, e.g. Inverse Discrete Cosine Transform [IDCT] mismatch
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Color Television Systems (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Procedimiento para comprimir y descomprimir una secuencia de imágenes de vídeo digitalizadas que incluye una secuencia de tramas representadas con una primera precisión de bits en un primer espacio cromático, y el procedimiento se caracteriza por las etapas de a) transformación de la secuencia de tramas para obtener una representación en un segundo espacio cromático con una segunda precisión de bits superior a la primera precisión de bits; b) realización de posteriores etapas de codificación con la segunda precisión de bits para generar un flujo de bits comprimido; y c) realización de posteriores etapas de descodificación con la segunda precisión de bits en el flujo de bits comprimido, y las posteriores etapas de descodificación incluyen la aplicación de una transformada discreta de coseno inversa.

Description

Codificación y descodificación de alta precisión para imágenes de vídeo.
Campo de la invención
La presente invención se refiere a la compresión de vídeo, y más concretamente a una compresión de vídeo de calidad mejorada basada en mejoras novedosas referidas a los sistemas de codificación y descodificación de tipo MPEG.
Antecedentes de la invención Antecedentes del MPEG
MPEG-2 Y MPEG-4 son estándares internacionales de compresión de vídeo que definen una sintaxis de vídeo que proporciona una manera eficiente de representar secuencias de imágenes en forma de datos codificados más compactos. El lenguaje de los bits codificados constituye la "sintaxis". Por ejemplo, unos pocos testigos pueden representar un bloque de muestras completo (por ejemplo, 64 muestras para MPEG-2). Ambos estándares MPEG describen también un procedimiento de descodificación (reconstrucción) en el que para los bits codificados se establece una correspondencia entre la representación compacta y una aproximación del formato original de la secuencia de imágenes. Por ejemplo, la presencia de un indicador en el flujo de bits determina si los siguientes bits deben ir precedidos de un algoritmo de predicción antes de ser descodificados con un algoritmo basado en la transformada discreta de coseno (DCT). Los algoritmos que comprenden el procedimiento de descodificación se rigen por la semántica definida por estos estándares MPEG. Esta sintaxis se puede aplicar para obtener provecho de características de vídeo tales como la redundancia espacial, la redundancia temporal, el movimiento uniforme, el enmascaramiento espacial, etc. De hecho, estos estándares MPEG definen un lenguaje de programación así como un formato de datos. Un descodificador de MPEG debe ser capaz de interpretar y descodificar un flujo de datos entrante, pero, siempre que el flujo de datos observe la sintaxis MPEG correspondiente, se pueden usar una amplia variedad de posibles estructuras de datos y técnicas de compresión. También es posible trasladar la semántica necesaria a una sintaxis alternativa.
Estos estándares MPEG utilizan diversos procedimientos de compresión, entre los que se incluyen procedimientos intratrama e intertrama. En la mayoría de las escenas de vídeo, el fondo permanece relativamente estable, mientras que la acción tiene lugar en el primer plano. El fondo puede moverse, pero gran parte de la escena es redundante. Estos estándares MPEG comienzan la compresión creando una trama de referencia denominada "intratrama" o "trama I". Las tramas I se comprimen sin hacer referencia a otras tramas y, por lo tanto, contienen una trama completa de información de vídeo. Las tramas I proporcionan puntos de entrada a un flujo de bits para ofrecer un acceso aleatorio, pero solo se pueden comprimir hasta cierto punto. Por regla general, los datos que representan tramas I se colocan en el flujo de bits cada 12 a 15 tramas. A partir de aquí, ya que solo una pequeña parte de las tramas situadas entre las tramas I de referencia son diferentes de las tramas I entre las que están comprendidas, solo se capturan, comprimen y almacenan las diferencias en las imágenes. Para estas diferencias se usan dos tipos de tramas: tramas predictivas o tramas P, y tramas bidireccionales interpoladas o tramas B.
Las tramas P se codifican generalmente haciendo referencia a una trama anterior (una trama I o bien una trama P previa), y, en general, se usan como referencia para tramas P posteriores. Las tramas P reciben una cantidad de compresión bastante elevada. Las tramas B proporcionan la mayor cantidad de compresión, pero requieren una trama de referencia tanto previa como futura para que se pueda codificar. Nunca se usan tramas bidireccionales como tramas de referencia.
Los macrobloques son zonas de píxeles de imagen. Para MPEG-2, un macrobloque es un conjunto de 16x16 píxeles de cuatro bloques de DCT de 8x8, junto con un vector de movimiento para tramas P y uno o dos vectores de movimiento para tramas B. Los macrobloques contenidos en tramas P se pueden codificar de forma individual usando una codificación intratrama o intertrama (predictiva). Los macrobloques contenidos en tramas B se codifican de forma individual usando una codificación intratrama, una codificación predictiva hacia delante, una codificación predictiva hacia atrás, o una codificación predictiva tanto hacia delante como hacia atrás (es decir, interpolada bidireccionalmente).
Tras la codificación, un flujo de bits de datos en formato MPEG comprende una secuencia de tramas I, P y B. Una secuencia puede consistir en casi cualquier patrón de tramas I, P y B (en su colocación, existen ciertas restricciones semánticas de poca importancia). No obstante, en la práctica industrial, es común encontrar un patrón fijo (por ejemplo, IBBPBBPBBPBBPBB).
Desde hace algún tiempo se sabe que los cálculos se reducen cuando se determinan vectores de movimiento mediante la utilización de una búsqueda de movimiento jerárquica. Por ejemplo, los algoritmos MPEG intentan encontrar una concordancia entre zonas del "macrobloque". Los codificadores de tipo MPEG y otros codificadores basados en la DCT (transformada discreta de coseno) con compensación de movimiento intentan hacer que cada región de un macrobloque de una trama actual concuerde con una posición en un trama previa (trama P) o en una trama previa y posterior (trama B). No obstante, no siempre es necesario encontrar una buena concordancia, ya que MPEG puede codificar un nuevo macrobloque como un ("intra") nuevo macrobloque independiente en este caso sin usar tramas previas o posteriores. En tales sistemas de DCT con compensación de movimiento es necesario un vector de movimiento de macrobloque para cada zona del macrobloque para MPEG-2. En MPEG-4, un conjunto de 4 vectores de movimiento, correspondientes a un vector para cada región de 8x8 (es decir, 4 vectores por macrobloque) también constituye un modo de codificación opcional.
Precisión del MPEG
Las aplicaciones de los códecs de vídeo de MPEG-2 y MPEG-4 de referencia utilizan la siguiente metodología de codificación:
a) Al convertir un espacio cromático RGB en YUV, solo se mantiene el número de bits que se van a codificar (por ejemplo, MPEG-2 está limitado a una codificación de 8 bits, y por tanto los valores YUV también están limitados a 8 bits).
b) Al codificar y descodificar, solo se conserva el número de bits que se han codificado, aplicando un redondeo prudente para reducir las perturbaciones.
c) Al volver a pasar a RGB, la precisión es limitada debido a las limitaciones en el número de bits que se han conservado (un máximo de 8 bits para MPEG-2)
La fig. 1 es un diagrama de bloques de un procedimiento de codificación de vídeo de referencia de MPEG-2 de la técnica anterior. Las tramas de entrada RGB 102 codificadas a 8 bits/píxel por color se aplican a un convertidor de RGB a YUV 104, que está limitado intencionadamente a una precisión de 8 bits por color en su salida. El resultado se aplica a una función DCT 106, y después a una función de cuantificación 108, después a una función DCT inversa 110, y la salida final 212 se almacena con la misma precisión que los datos de entrada.
El codificador de vídeo de referencia de MPEG-4 se aplica con el mismo procedimiento, aunque la precisión intermedia se puede ampliar hasta 12 bits (aunque las tablas VLC -de codificación de longitud variable- no están adaptadas para el uso del intervalo completo).
Se utilizan técnicas para aplicación de vibraciones aleatorias (dithering) en los valores de precisión limitada (un máximo de 8 bits por componente cromático en MPEG-2) con el fin de reducir la evidente visibilidad de saltos bruscos. No obstante, en la codificación, a causa de esta vibración, se crean ruido y perturbaciones, que también se crean debido al uso de una precisión de procesamiento intermedio limitada.
Además de esta limitada precisión de procesamiento intermedio, MPEG-2 y MPEG-4 permiten que el algoritmo basado en una DCT inversa (IDCT) usado durante la codificación (a menudo incorporado en una representación de coma flotante de alta precisión) sea ligeramente diferente al algoritmo IDCT usado durante la descodificación. Esto se conoce como "discordancia en la IDCT". La discordancia en la IDCT provoca una deriva gradual impredecible en la señal, que la aleja de los valores de descodificación previstos. Esto se reduce, convencionalmente, mediante el uso de una vibración aleatoria o dithering del bit de orden inferior en la frecuencia más alta de la IDCT (séptimo armónico para el tamaño de bloque típico de la DCT de 8x8 usado en MPEG-2 y MPEG-4). Dicha vibración añade ruido y perturbaciones a la señal.
La fig. 2 es un diagrama de bloques de un procedimiento de descodificación de vídeo de referencia MPEG-2 de la técnica anterior. Se aplica un flujo de bits de entrada codificados 202 a una función de descuantificación 204 que posee una precisión limitada que concuerda con la precisión del flujo de bits de entrada (típicamente, 8 bits para MPEG-2). El resultado se aplica a una función IDCT 206 (que puede no coincidir con la función IDCT 110 del codificador), que produce una salida de valores de 8 bits con signo 208. Esta salida comprende una trama I 210, o bien se combina con datos de una trama previa 212 o de una trama posterior 214 (ambas con la misma precisión) para generar una nueva trama 216. De este modo, el procedimiento de descodificación de MPEG-2 limita la precisión de procesamiento intermedio hasta un máximo de 8 bits. Asimismo, la precisión de procesamiento intermedio para la descodificación de vídeo de MPEG-4 también está limitada al número de bits usados en la codificación (un máximo de 12 bits, pero a menudo se fija en 8 bits).
La precisión limitada en MPEG-2 y MPEG-4 también limita la gama dinámica (es decir, el número de niveles de iluminación que se pueden representar para una imagen) y la gama de contraste (es decir, el número de niveles distintos asignados a zonas de la imagen con un contraste similar). Por consiguiente, los procedimientos de codificación y descodificación usados en MPEG-2 y MPEG-4 reducen la calidad potencial de las imágenes de salida descomprimidas, en comparación con las imágenes de entrada originales. La presente invención se ocupa de estas limitaciones.
La solicitud de patente internacional WO94/08427 describe un sistema de codificación/descodificación de vídeo en movimiento en el que los coeficientes de la componente de corriente continua obtenidos a partir de una transformada discreta de coseno de una señal de vídeo se codifican con una precisión, expresada en función de los bits de cuantificación, que se puede modificar de acuerdo con la calidad de imagen deseada. No obstante, este sistema presenta inconvenientes, entre los que se incluye el inconveniente que supone la pérdida del detalle fino de la imagen transportado por los componentes de corriente alterna en una señal con una amplia gama dinámica.
Resumen
La invención se dirige a una compresión de vídeo con una calidad mejorada, basada en mejoras innovadoras en los sistemas de codificación y descodificación de tipo MPEG. En un aspecto, la invención proporciona un procedimiento para mejorar considerablemente la calidad de imagen de la codificación de vídeo de tipo MPEG mediante la conservación de un mayor número de bits durante las etapas intermedias del procesamiento de la codificación y la descodificación. Resulta sorprendente que esta mejora en la calidad no haga que el número total de bits necesarios para codificar una secuencia de imágenes sea proporcionalmente mayor. Además, los problemas de discordancia en la IDCT se pueden eliminar haciendo que el algoritmo numérico de la función IDCT del descodificador concuerde de manera exacta con el algoritmo numérico de la función IDCT usado para la parte de descodificación del codificador. La eliminación de la discordancia en la IDCT permite aumentar las relaciones de compresión reduciendo el número de tramas I necesarias.
Otro aspecto de la invención consiste en un procedimiento para comprimir y descomprimir una secuencia de imágenes de vídeo digitalizadas que incluyen una secuencia de tramas representadas con una primera precisión de bits en un primer espacio cromático, y el procedimiento incluye la transformación de la secuencia de tramas para obtener una representación en un segundo espacio cromático con una segunda precisión de bits superior a la primera precisión de bits; la realización de posteriores etapas de codificación con la segunda precisión de bits para generar un flujo de bits comprimido; y la descodificación del flujo de bits comprimido mediante la descuantificación del flujo de bits comprimido con la segunda precisión de bits para generar una salida descuantificada, la aplicación de una transformada discreta de coseno con la segunda precisión de bits en la salida descuantificada para producir una salida descomprimida, y la generación de tramas de imagen con la segunda precisión de bits a partir de la salida descomprimida.
Otro aspecto más de la invención consiste en un procedimiento para comprimir y descomprimir una secuencia de imágenes de vídeo digitalizadas que incluyen una secuencia de tramas representadas con una primera precisión de bits en un primer espacio cromático, y el procedimiento incluye la transformación de la secuencia de tramas para obtener una representación en un segundo espacio cromático con una segunda precisión de bits superior a la primera precisión de bits; la realización de posteriores etapas de codificación con la segunda precisión de bits para generar un flujo de bits comprimido, entre las que se incluye la aplicación de un algoritmo numérico basado en una transformada discreta de coseno inversa; y la realización de posteriores etapas de descodificación con la segunda precisión de bits en el flujo de bits comprimido, entre las que se incluye la aplicación de un algoritmo numérico concordante basado en una transformada discreta de coseno inversa.
La invención incluye las correspondientes aplicaciones para un programa informático y las aplicaciones para un aparato.
En los dibujos adjuntos y en la siguiente descripción se exponen los detalles de una o más formas de realización de la invención. A partir de la descripción y los dibujos, y de las reivindicaciones, se pondrán de manifiesto otras características, objetos y ventajas de la presente invención.
Breve descripción de las figuras
Figura 1. Diagrama de bloques de un procedimiento de codificación de vídeo de referencia MPEG-2 de la técnica anterior.
Figura 2. Diagrama de bloques de un procedimiento de descodificación de vídeo de referencia MPEG-2 de la técnica anterior.
Figura 3. Diagrama de bloques de un procedimiento de codificación de tipo MPEG de acuerdo con la presente invención.
Figura 4. Diagrama de bloques de un procedimiento de descodificación de tipo MPEG de acuerdo con la presente invención.
Figura 5. Diagrama de flujo que resume un procedimiento preferido para ampliar la gama dinámica y/o de contraste durante la compresión de la imagen.
Los símbolos de referencia similares de los diversos dibujos indican elementos similares.
Descripción detallada Procesamiento intermedio de imagen de alta precisión
Las condiciones de precisión limitada y las técnicas comprendidas en MPEG-2 y MPEG-4 están diseñadas para minimizar la cantidad de memoria necesaria para almacenar tramas I, B y P. No obstante, la memoria de trama posee actualmente un precio bastante asequible. La presente invención se basa, en parte, en el descubrimiento de que se puede lograr una calidad de imagen mejorada considerablemente a partir de la codificación de vídeo de tipo MPEG mediante la conservación de un mayor número de bits durante las etapas intermedias de procesamiento de codificación y descodificación. Resulta sorprendente que esta mejora en la calidad no haga que el número total de bits necesarios para codificar una secuencia de imágenes sea proporcionalmente mayor. De hecho, por lo general, el número de bits se reduce usando la presente invención.
La fig. 3 es un diagrama de bloques de un procedimiento de codificación de tipo MPEG de acuerdo con la presente invención. Las tramas de entrada RGB 302 se aplican a un convertidor de RGB a YUV 304. Se suelen preferir los modernos dispositivos de generación de tramas (por ejemplo, cámaras de vídeo y escáneres de película de alta definición) como fuente de entrada, debido a que dichos dispositivos pueden producir unas imágenes de salida con una mayor gama cromática (por ejemplo, 10 bits/píxel por color). No obstante, la fuente de entrada puede ser un dispositivo convencional de MPEG-2 o MPEG-4 de 8 bits. El resultado se aplica a una función DCT 306, que conserva más bits de precisión (por ejemplo, 16 bits) de los que se encuentran en la señal de entrada original. La salida de la función DCT 306 se aplica a una función de cuantificación 308, y después a una función IDCT 310, que, de nuevo, conserva más bits de precisión (por ejemplo, 16 bits) de los que se encuentran en la señal de entrada original (como por ejemplo, tramas I sin signo y tramas P y B con signo de 16 bits, siendo 16 bits una representación conveniente para sistemas digitales de hardware y software). La salida final 312 es, típicamente, una señal YUV almacenada con la misma precisión que la precisión de procesamiento intermedio. Una característica importante de tal aumento de precisión en la salida es que permite mejorar la predicción de las siguientes tramas P y B.
El concepto de discordancia de IDCT que se incorpora en la codificación de vídeo MPEG-2 y MPEG-4 se basa en la suposición de que el cálculo usado para la descodificación puede diferir con respecto al cálculo usado para la parte de descodificación de la codificación. Tal como se menciona anteriormente, esta discordancia provocará una deriva, incluso en presencia de la vibración aleatoria de discordancia de la DCT de bits inferiores y armónicos altos (que también añade ruido). La práctica habitual en MPEG-2 consiste en colocar tramas I, unas cerca de otras (aproximadamente, cada medio segundo), para volver a corregir esta deriva, y para limitar el alcance del error. No obstante, las tramas I resultan relativamente poco eficientes, con un coste, por lo general, de aproximadamente 3 veces el número de bits como tramas P, y 5 veces el número de bits como tramas B. Las tramas I también forman puntos de reinicio y de referencia durante la "sintonización" de una secuencia de imágenes en movimiento. No obstante, la frecuencia de su aparición en los medios almacenados podría aumentarse provechosamente hasta varios segundos (por ejemplo, en el intervalo de aproximadamente 1 a 5 segundos, de media) para mejorar la eficiencia, de no ser por la discordancia de la IDCT.
La discordancia de la IDCT se puede eliminar haciendo que los algoritmos numéricos de la función IDCT del descodificador concuerden de manera exacta con los de la función IDCT usada por la parte de descodificación del codificador. Cualquier limitación de precisión en estas funciones IDCT concordantes se corrige automáticamente en cada trama P, gracias al mecanismo de realimentación natural que surge al pasar de una trama P a la siguiente mediante la codificación de su señal de diferencia (que incluye la diferencia entre las limitaciones de precisión de la IDCT). La "concordancia exacta" de los algoritmos numéricos se refiere al hecho de que esas partes de los algoritmos que transforman la entrada en una salida deberían aplicar las mismas definiciones para las funciones de multiplicación y suma, las mismas representaciones numéricas, la misma precisión, etc. No obstante, no es necesario que los algoritmos numéricos sean idénticos, en lo que respecta a su aplicación en programas informáticos o circuitos integrados. De este modo, por ejemplo, se pueden usar diferentes lenguajes informáticos y modos de generación binarios (por ejemplo, interpretados frente a compilados).
De este modo, se puede lograr una codificación de alta calidad mediante la precisión suficiente en la función IDCT. No obstante, la función IDCT no requiere una precisión muy alta. Por ejemplo, en el software de referencia de vídeo de MPEG-4, se usa una aplicación de una IDCT con coma flotante de precisión doble (64 bits). Esto resulta totalmente innecesario, ya que una aplicación de la IDCT de 16 bits es suficiente para proporcionar las mejoras necesarias para codificar una gama dinámica de hasta 12 bits. Se pueden usar aplicaciones de la IDCT de codificador y descodificador (que concuerdan de forma exacta) superiores a 16 bits, tales como las aplicaciones de coma flotante de 32 bits, para ampliar la gama dinámica hasta 16 bits (lo cual produce una gama dinámica superior a 1 billón a uno en pasos logarítmicos de menos del diez por ciento, lo cual supera los límites de la visión humana). De este modo, al hacer que las aplicaciones de codificador y descodificador de la IDCT concuerden de forma exacta, el presente procedimiento reduce en gran medida la cantidad de cálculos necesarios para las aplicaciones de la IDCT, al tiempo que elimina los problemas de la discordancia de la IDCT. Además, contrariamente a lo esperado, el uso de aplicaciones de la IDCT de codificador y descodificador que concuerdan de forma exacta, en realidad aumenta la eficiencia global (es decir, se logra una relación de compresión más alta) incluso con un aumento en la precisión intermedia, ya que las tramas I, en las que cada bit resulta costoso, se pueden separar aún más en el tiempo (por ejemplo, en un intervalo de aproximadamente 1 a 5 segundos, de media). De hecho, la separación entre las tramas I intercaladas se puede multiplicar de forma virtualmente ilimitada, o limitada únicamente por el deseo de poder saltar en medio de un programa o para corregir errores generados por un canal de distribución con pérdidas.
La fig. 4 es un diagrama de bloques de un procedimiento de descodificación de tipo MPEG de acuerdo con la presente invención. Se aplica un flujo de bits de entrada codificado de alta precisión 402 a una función descuantificadora 404 que posee una precisión de procesamiento "intermedia" que concuerda con la precisión del flujo de bits de entrada. El resultado obtenido se aplica preferentemente a una función IDCT 406 que concuerda de forma exacta con la función IDCT 310 del codificador correspondiente. La función IDCT 406 produce una salida de valores con signo 408 de la misma precisión intermedia que todas las etapas de procesamiento interno previas (por ejemplo, 16 bits). Esta salida comprende una trama I 410, o bien se combina con datos precedentes de una trama previa 412 o de una trama posterior 414 (ambas con la misma precisión) para generar una nueva trama 416.
Además, se deberían eliminar todas las formas de vibración o dither, reduciendo de ese modo el ruido y las perturbaciones. Concretamente, se debería eliminar la aplicación de vibración en el redondeo (excepto con una precisión plena, como por ejemplo, de 16 bits, es decir, redondeo del 17º bit), y aplicación de la vibración del bit inferior del armónico alto de la discordancia de la IDCT. Además, en la forma de realización preferida, la precisión de píxel intermedia adicional se usa durante cualquier etapa de conversión del espacio cromático (por ejemplo, de YUV a RGB u otras conversiones, como por ejemplo de YUV 2:0 a YUV 4:2:2, para visualizar, utilizar o almacenar la imagen convertida) durante la descodificación, redondeando únicamente en la etapa final.
Cabe señalar que las técnicas de alta precisión que se muestran en la fig. 3 y en la fig. 4 se pueden usar para codificar y posteriormente descodificar una entrada de precisión estándar (por ejemplo, la entrada con precisión de 8 bits utilizada por MPEG-2). Aunque el resultado no posee una calidad tan alta como la codificación y la descodificación de una entrada de mayor precisión, el resultado seguirá constituyendo una mejora con respecto a la actual codificación y descodificación de MPEG. Además, tanto el procedimiento de codificación como el de descodificación se pueden mejorar mediante un aumento en la precisión durante el procesamiento intermedio y el almacenamiento. No es necesario que dicha precisión sea idéntica para obtener mejoras, pero la mejora se optimiza cuando las partes de descodificación de la codificación y descodificación concuerdan de forma exacta en la precisión y el algoritmo numérico.
A continuación, se presenta un resumen de la forma de realización preferida del presente procedimiento para mejorar la calidad de la imagen comprimida:
1) Conservar más bits de precisión durante el procesamiento intermedio que la precisión de la entrada (por ejemplo, conservar más bits de precisión de la etapa de conversión de RGB a YUV durante la codificación, y conservar más bits de precisión de la etapa de IDCT).
2) Almacenar el resultado del aumento en la precisión intermedia.
3) Utilizar, de forma opcional, una aplicación de la IDCT que concuerde de forma exacta en el codificador y el descodificador.
4) Eliminar, de forma opcional, todas las formas de vibración o dither.
5) Utilizar la precisión de píxel adicional durante la etapa final de conversión de espacio cromático durante la descodificación, redondeando únicamente en la etapa final.
Gama dinámica y ampliación del contraste
El presente inventor ha expuesto anteriormente el concepto de aumento gradual en la gama dinámica y colorimétrica de las representaciones de imágenes basadas en píxeles. Véase, por ejemplo, "The Use of Logarithmic and Density Units for Pixels", de Gary Demos, presentado en la conferencia de la SMPTE de octubre de 1990, y publicado en el SMPTE Journal (oct. de 1990, vol. 100, nº 10). Véase también "An Example Representation for Image Color and Dynamic Range which is Scalable, Interoperable, and Extensible", de Gary Demos, presentado en la conferencia de la SMPTE de octubre de 1993, y publicado en las actas y las ediciones preliminares.
El uso de una representación logarítmica para los valores de los píxeles posee muchas ventajas. Por ejemplo, la metodología de codificación de YUV calcula U como R-Y, y V como B-Y. En una representación logarítmica, U se convierte en R/Y y V se convierte en B/Y, las cuales son de igual luminancia (o "isoluminantes") según la terminología acuñada en la publicación de la SMPTE de 1993, "An Example Representation for Image Color and Dynamic Range which is Scalable, Interoperable, and Extensible", referida anteriormente. Es decir, ambos canales U y V no contienen ninguna señal bajo variación de iluminación si poseen una tonalidad constante. Esto permite una alta eficiencia en la codificación del color usando los canales U y V. Además, esta eficiencia en la codificación de la tonalidad se obtiene a lo largo de una gama dinámica muy amplia de brillo general. Una representación logarítmica también permite el uso de procedimientos sencillos de medida y calibrado de sistemas, además de ser perceptualmente uniforme a lo largo de una gama de brillo muy amplia.
La tabla 1 indica la gama y la capacidad de definición tonal de diversos números de bits en el intervalo de 9 a 14 bits/píxel. A partir de esta tabla, se puede observar que es posible aproximarse a la gama de la visión humana, que comprende una gama de aproximadamente 10.000.000 a 1 en gama de brillo, gama cromática y definición tonal (en pasos de 1/8 por ciento), usando una precisión de menos de 16 bits usando una representación logarítmica.
TABLA 1 Número de bits necesarios usando pasos logarítmicos entero, mitad, cuarto y octavo
1
Las actuales cámaras y proyectores electrónicos de alta calidad son capaces de funcionar a aproximadamente 10 bits/píxel por color de gama dinámica y cromática. Por ejemplo, la cámara Polaroid/Phillips LDK9000 proporciona una imagen con un bajo nivel de ruido y una amplia gama cromática. Esta cámara posee un tamaño de píxel CCD de 11 micrómetros y una cuenta de electrones a máxima capacidad de píxel (full well) de aproximadamente 25.000 electrones. Son perfectamente factibles tamaños de sensor más grandes, con el potencial de aumentar la cuenta de electrones a máxima capacidad hasta cientos o miles o millones de electrones. En el lado de proyección de la imagen, unos proyectores de microespejos con una entrada gamma de 10 bits son capaces de lograr una gama dinámica de 1000:1 con una distinción tonal razonable, aproximándose de este modo a la calidad cinematográfica. Aunque las mejores películas pueden alcanzar una gama dinámica más amplia (aproximadamente de 3000:1) con una alta fidelidad tonal y una amplia gama cromática, ahora es posible prever que la creación y presentación de imágenes digitales competirá con este rendimiento y, finalmente, lo superará.
Como se señala anteriormente, la calidad de la compresión de la imagen en movimiento se puede mejorar considerablemente mediante la conservación de una precisión ampliada durante el procesamiento intermedio. También se puede utilizar el mismo mecanismo para ampliar enormemente la gama dinámica de la información de la imagen que puede comprimirse de forma eficiente. Por ejemplo, si se conservan 14 bits de precisión intermedia, esta gama de bits puede representar una gama dinámica de 700.000.000:1 en pasos logarítmicos de 1/8%.
También resulta útil realizar la observación directa, que no se contempla en las publicaciones referidas, de que la distinción del brillo es local. De este modo, no es posible distinguir pequeñas variaciones de brillo en un área de sombras oscuras que esté situada justo al lado de un objeto muy brillante. De este modo, solo es necesario conservar la distinción en la gama tonal y dinámica con respecto al brillo local en esa misma zona de una imagen. No obstante, una parte diferente de la imagen podría tener sombras oscuras, y podría estar lo bastante alejada de la región luminosa como para que se observe una distinción sustancial en el detalle, lo cual requiere un detalle correspondiente en la gama tonal de la representación de brillo local.
Estos conceptos, combinados con el uso de la precisión ampliada durante el procesamiento intermedio, se pueden aplicar a la compresión de imágenes en movimiento. Concretamente, una vez que la precisión intermedia que se mantiene dentro del sistema de compresión se amplía a números de bits más altos, como por ejemplo 13, 14, 15 ó 16, esta precisión ampliada también será capaz de representar imágenes con una amplia gama dinámica. Además, para lograr una compresión eficiente, se puede utilizar la limitación perceptual de la distinción tonal en áreas luminosas frente a la distinción ampliada en sombras.
En los sistemas de compresión de tipo MPEG, la distinción tonal se determina mediante el "parámetro de cuantificación" o "QP". QP se divide en los coeficientes de frecuencia de la DCT para reducir el número de bits necesarios para codificar un flujo de imágenes en movimiento. Durante la descodificación, el QP se multiplica por los coeficientes de la DCT antes de calcular la IDCT. De este modo, aunque el QP se aplica en el espacio de frecuencia (DCT), sigue representando un parámetro de precisión tonal.
Atendiendo a las características de distinción de zonas descritas anteriormente, se puede utilizar un QP alto en áreas de alto brillo sin una pérdida visible de claridad o tono, ya que la distinción tonal es relativa al brillo completo. No obstante, en las zonas oscuras de las sombras de la imagen, se debe utilizar un QP bajo para permitir la precisión tonal fina.
En MPEG-1, MPEG-2 y MPEG-4, resulta habitual utilizar un factor lineal del QP en el intervalo de 1 a 32. Aunque esto resulta adecuado para una gama dinámica de 8 bits, como la que proporciona MPEG-2, esta gama resulta insuficiente para números de bits más altos (como 10 bits o 12 bits), o para una gama dinámica más amplia. En MPEG-2 y MPEG-4, es posible variar el QP de un macrobloque al siguiente. Normalmente, este es el mecanismo mediante el cual se ajusta la tasa de bits para mantener una tasa de bits constante. Un QP más alto produce menos bits codificados, mientras que un QP más bajo produce más bits codificados. De este modo, lo único que se requiere para mantener una tasa de bits constante en un sistema de precisión limitada tal como en la capacidad de 8 bits de MPEG-1 y MPEG-2 es variar el QP en el intervalo de 1 a 32. No obstante, para una precisión de 10 bits o de 12 bits, como en MPEG-4, si el grado de cambio en la escena varía mucho (alta tensión de escena), y se requiere una tasa de bits baja y constante, un intervalo de QP de 32 valores posibles puede resultar insuficiente. Un intervalo de QP de 32 valores para 10 bits es equivalente a un intervalo de QP de 8 valores para 8 bits, siendo únicamente un cuarto del intervalo disponible para sistemas de codificación de 8 bits tales como MPEG-2. Para sistemas de codificación de 12 bits, tales como MPEG-4, un intervalo de 32 valores es equivalente a un intervalo de QP de 2 valores para una codificación de 8 bits, estando únicamente los primeros dieciséis del intervalo de QP disponibles para un sistema de 8 bits.
Resulta útil ampliar el intervalo de QP en el caso general. No obstante, se puede observar que el uso de una codificación y/o descodificación intermedia de alta precisión junto con una correspondencia directa entre el intervalo de QP y los valores de QP (es decir, un valor x es el mismo que el número de representación x; de este modo, un valor 14 es igual al número de representación 14) puede dar lugar a una compresión y descompresión de alta calidad.
Es deseable mantener el pequeño número de pasos en el QP (por ejemplo, 32 ó 64 valores, o algún número pequeño como estos) si se desea una variación de QP dentro de una trama, ya que los bits necesarios para codificar variaciones de QP por macrobloque están limitados a 2 unidades en MPEG-4. Si se varía el QP sólo una vez por trama, o una vez por rebanada (slice) o gran estructura de este tipo, entonces el número de valores para QP puede ser grande.
Si fuera necesario, el intervalo eficaz de QP se puede ampliar hasta un amplio intervalo de valores (es decir, los valores de QP aplicados realmente durante la compresión y descompresión) dentro de un pequeño número de códigos de representación aprovechando la naturaleza perceptualmente logarítmica de la gama dinámica. Por consiguiente, se puede usar una tabla de consulta no lineal para establecer una correspondencia entre un pequeño número de códigos QP representativos (por ejemplo, el intervalo de 1 a 32, o de 1 a 128) y un intervalo mucho más amplio de valores de QP determinados (por ejemplo, de 1 a 128, de 1 a 256, de 1 a 1024, o de 1 a 4096). En dicha tabla, las entradas bajas de código de QP se corresponderían prácticamente uno a uno con determinados valores de QP. Por ejemplo, los códigos de QP 1 a 4 pueden corresponderse con determinados valores de salida de QP de 1 a 4. No obstante, la correspondencia irá adoptando gradualmente una pendiente más acentuada, en un modelo logarítmico, de tal forma que el código de QP 8 puede corresponderse con un valor de QP determinado 16, el código de QP 16 podría corresponderse con un valor de QP determinado 64, y el código QP 32 podría corresponderse con un valor de QP determinado 256. Se puede observar que MPEG-2 sí permite un modo de QP lineal de 1 a 31, un modo de QP de doble paso que establece una correspondencia entre cada código de 1 a 31 y dos veces su valor (es decir, de 2 a 62). Y un modo de QP no lineal que establece una correspondencia entre códigos de 1 a 31 y determinados valores de 1 a 112. En MPEG-2, estos grandes valores determinados de QP dan lugar a una codificación extremadamente tosca que usa valores de píxel de 8 bits. Por ejemplo, los valores de QP de 62 a 112 corresponden a la codificación de solo dos o un bit, respectivamente, de los valores de 8 bits. De este modo, cualquier imagen codificada que use estos valores tendrá una calidad extremadamente baja.
Otra posibilidad consiste en que, si se especifica el QP una vez por trama o rebanada u otra gran estructura, el número de bits disponibles para el QP no está limitado, y los valores de QP pueden representarse completamente a lo largo de un intervalo muy amplio dentro de cualquier número de bits, incluidos 16 bits, 32 bits, 32 bits con coma flotante, e incluso números de bits más altos. No obstante, el marco conceptual de las imágenes de amplia gama dinámica es tal que algunas partes de la imagen tienen un brillo alto, y requieren unos valores determinados de QP altos, y otras partes tienen un brillo bajo, y requieren unos valores determinados de QP bajos. De este modo, resulta útil usar un procedimiento para especificar eficientemente valores de QP en función de una zona. El mecanismo existente en los sistemas de codificación (tales como MPEG-4), de permitir que los valores de QP varíen \pm2 unidades por macrobloque, es suficiente si el intervalo de códigos de QP es limitado (por ejemplo, de 1 a 32, como en MPEG-4). No obstante, si se necesita un intervalo grande de valores de QP, existen otros procedimientos sencillos para especificar los valores de QP zonales que también resultan apropiados y útiles.
De este modo, el uso de valores de QP que varían zonalmente es lo suficientemente general como para permitir representaciones de una gama dinámica muy amplia que se pueden comprimir enormemente, y aún así ser visualmente indistinguibles de la imagen en movimiento original.
Es preciso prestar atención al número de bits disponibles para la representación codificada tras dividir por determinados valores de QP (la división de la salida de la DCT por QP se denomina también "cuantificación"). Tras la cuantificación, los bits restantes de deben codificar para obtener el flujo de bits. Los bits codificados, excepto en el caso de intratramas e intramacrobloques, representan la diferencia entre la mejor concordancia predicha mediante un vector de movimiento en una trama previa o posterior, y la trama actual y el macrobloque actual. La representación codificada de esta diferencia codificada con la DCT y cuantificada determinará la relación de compresión que se puede lograr.
En MPEG-2 y MPEG-4, el intervalo máximo de valores codificados es \pm2047 (limitado por la representación de la tabla de VLC). Esto corresponde a una precisión descuantificada de 8 bits. De este modo, para la codificación descuantificada (es decir, QP=1) de imágenes de 10 bits, resulta posible superar este intervalo máximo de codificación en un factor de cuatro. Esto puede suceder si el mejor bloque predictor de concordancias contiene una transición a escala completa de negro a blanco en CC, o el cambio de coeficiente de CA a escala completa (tal como un borde acentuado entre negro y blanco predicho a partir de una zona gris plana). Los predictores óptimos rara vez proporcionarán una concordancia tan escasa, y por ello, en el caso de este ejemplo de 10 bits, rara vez o nunca será necesaria una codificación a escala completa. No obstante, el intervalo de valores codificados en una imagen en movimiento de 12 bits, o de imágenes aún más amplias de 14 ó 16 bits, superará a menudo una limitación del intervalo como, por ejemplo, de \pm2047. Aunque el límite de \pm2047 se amplía fácilmente, resulta beneficioso desde el punto de vista conceptual tratar de limitar el número medio de bits que se codifican. Tanto el número medio de bits como el máximo intervalo codificado se reducen directamente mediante el uso de valores QP. Por ejemplo, un QP de 4 amplía la gama dinámica disponible con una representación codificada de \pm2047 para incluir todos los casos posibles de codificación de 10 bits, y todos los casos probables de codificación de imágenes en movimiento de 12 bits. Por lo tanto, se puede observar que la ampliación de los valores de QP a un mayor número de valores, como 16, 32 ó 64, puede ampliar aún más la gama dinámica de la imagen en movimiento que se puede representar mediante un número limitado de bits codificados, con lo cual se obtiene una alta compresión.
Una clave de este concepto consiste en que los valores altos de QP en imágenes con una amplia gama dinámica corresponden a zonas de la imagen que poseen un brillo elevado, que no requieren una distinción tonal fina. Este procedimiento de codificación de imágenes con una amplia gama dinámica, que mantiene una precisión ampliada para tramas, y utiliza valores altos de QP en zonas luminosas y valores bajos de QP en zonas oscuras, puede lograr relaciones de compresión elevadas con una codificación perceptualmente perfecta que resulta indistinguible del original.
Por lo tanto, la utilidad de las técnicas de compresión de tipo MPEG se puede ampliar para usarlas en la compresión de imágenes en movimiento con una amplia gama dinámica. A medida que las cámaras, proyectores y otros componentes de sistemas de imagen amplían sus capacidades de gama, esta metodología de compresión se puede aplicar para facilitar una compresión con una alta eficiencia. El sistema de compresión resultante puede ir ampliándose a lo largo de muchas generaciones de futuras mejoras tecnológicas en los sistemas de creación y manipulación de imágenes.
En resumen, un aspecto de los procedimientos ilustrativos incluye la aplicación de una compresión de alta precisión a imágenes con una amplia gama dinámica mediante la ampliación del intervalo de valores de QP. La ampliación puede lograrse aumentando el intervalo de valores de QP directamente, o indirectamente a través de una transformación no lineal (como, por ejemplo, una función o tabla de consulta) que establece una correspondencia entre un pequeño intervalo de códigos de QP y un intervalo más amplio de valores de QP para la división (compresión) y multiplicación (descompresión). Otro aspecto de los procedimientos consiste en la determinación de tales valores de QP de amplio intervalo basados en información zonal, o mediante el análisis de la información disponible durante la descompresión (por ejemplo, coeficientes de la DCT, o el número de bits generados para un número dado de valores de QP candidatos, de los que se selecciona uno que resulte apropiado), o una combinación de los dos procedimientos de determinación.
También se puede aplicar una precisión de procesamiento intermedio ampliada y un intervalo de valores de QP ampliado a la codificación de zonas de una imagen en movimiento con una gama de contraste tanto ampliada como reducida. Por ejemplo, en días neblinosos, es normal que haya un alto contraste en los objetos del primer plano, pero que disminuye con la distancia. Los objetos lejanos a menudo tendrán un contraste muy bajo. Otras situaciones comunes, tales como las escenas que tienen lugar tras las ventanas de un edificio o el parabrisas de un coche, también tienen un contraste reducido debido al cristal y la reflexión del cristal. Las reflexiones también presentan un contraste reducido.
Los principios de la ampliación en la precisión y el intervalo de valores de QP se pueden aplicar a zonas de contraste reducido de una imagen para ampliar la precisión con la que se codifican por compresión las partes de bajo contraste. Al igual que con la ampliación de la gama dinámica, que usa valores bajos de QP para zonas oscuras y valores altos de QP para regiones luminosas, se pueden utilizar valores bajos de QP con zonas de bajo contraste (a menudo, distantes), mientras que para zonas de alto contraste (normalmente, el primer plano) se utilizan valores altos de QP. De este modo, si el sensor de una cámara tiene la suficiente resolución de bits, los objetos distantes situados en el cielo o en el suelo en un día neblinoso se pueden distinguir perfectamente cuando se descomprimen. Se puede aumentar su contraste más tarde de manera artificial, con lo que se revela una imagen nítida con una gama dinámica normal.
Aunque las cámaras y películas actuales están limitadas a aproximadamente a 10 bits de gama dinámica de tipo gamma o logarítmica, es bastante probable que las futuras cámaras cuenten con una mayor precisión. Tal ampliación en la distinción del brillo de la imagen de la cámara resultaría útil para visualizar el detalle en áreas de bajo contraste, además de ampliar la gama dinámica. Al igual que las cámaras, al ampliarse la gama dinámica y el brillo máximo de los proyectores, resulta posible distinguir detalles de bajo contraste dentro de esta gama ampliada. Las variaciones sutiles en el brillo, como, por ejemplo, en el caso de la caída gotas de lluvia, se observan con mucha más facilidad en un proyector con una amplia gama dinámica que en un monitor de visualización con una gama dinámica limitada. Un objeto mostrado por un proyector de amplia gama dinámica se distingue fácilmente debido a que posee una amplia gama de variación de brillo para el observador, mientras que un monitor de ordenador de tipo CRT posee una pequeña gama de variación de brillo. De este modo, a medida que las cámaras y los dispositivos de visualización amplían su gama dinámica y distinción tonal (es decir, añaden más bits de resolución, más allá de las actuales capacidades de 10 bits), resultará deseable ampliar, no solo la gama dinámica, sino también la distinción tonal.
Básicamente las mismas técnicas que permiten una gama dinámica ampliada permiten también una alta codificación de la distinción de zonas de bajo contraste. Concretamente, se aplican valores de QP a coeficientes de CA de la salida de la DCT de una manera distinta al coeficiente de CC, que se suele codificar de forma especial (para mejorar la eficiencia de la codificación del término de CC). Por lo tanto, el escalamiento de los coeficientes de CA se dispone naturalmente alrededor del valor de CC predominante. Por ejemplo, una zona de bajo contraste en una neblina gris tendrá unos coeficientes de CA de baja amplitud alrededor del valor medio de neblina de CC. De este modo, al aplicar valores de QP bajos se conservarán de forma natural las sutiles variaciones de tono dentro de las zonas de bajo contraste. Al igual que con la gama dinámica ampliada, unos valores de QP altos permiten la codificación normal de zonas del primer plano con un alto contraste.
A fin de ajustar los valores de QP para que resulten apropiados para zonas oscuras y zonas neblinosas, y que sigan siendo adecuados para zonas de brillo completo y contraste normal, los valores de QP se deberían determinar de forma zonal con respecto al contraste y el brillo de cada zona de la imagen. Esto también se puede determinar automáticamente si se establecen unos valores de QP para cada macrobloque tales que cada macrobloque de una zona genere aproximadamente el mismo número de bits. Para una imagen que posea una amplia gama dinámica y que incluya zonas oscuras, así como zonas de bajo contraste, al dar a cada macrobloque un número constante de bits se optimizará automáticamente la representación a lo largo de toda la gama de brillo y contraste. No obstante, también resulta deseable proporcionar más bits para las zonas de alto detalle que para las zonas de bajo detalle, y proporcionar más bits a las zonas en movimiento que a las zonas estáticas.
La determinación de un valor de QP para cada macrobloque se puede automatizar analizando las amplitudes relativas de los coeficientes de la DCT de cada macrobloque. A los macrobloques que contienen coeficientes de la DCT que indican detalle y los que indican movimiento se les puede proporcionar más bits que a los macrobloques en los que los pesos relativos de los coeficientes indican un bajo nivel de detalle o un bajo nivel de cambio (movimiento). No obstante, el ruido del sensor de la cámara también se debe tener en cuenta, ya que el ruido tendrá un comportamiento tanto de cambio (movimiento) como de detalle (coeficientes de alta frecuencia). Cuando se usa con una gama dinámica verdaderamente amplia y un sensor de alta distinción con un bajo nivel de ruido que resulte adecuado, las propias medidas relativas del peso del coeficiente de la DCT pueden constituir un indicador apropiado para ajustar automáticamente el valor del QP. Concretamente, los coeficientes de la DCT más grandes, dan lugar a valores de QP más grandes. Por consiguiente, se puede determinar empíricamente una correspondencia o correlación entre coeficientes de la DCT y los correspondientes valores de QP deseados.
Otro procedimiento que se puede usar para determinar (o ayudar a determinar, junto con otros mecanismos) valores de QP apropiados es el de los algoritmos zonales simples, tales como el brillo y contraste máximos de la zona. También se puede proporcionar información adicional mediante algoritmos de medición de amplitud del detalle zonal (estático de alta frecuencia de la imagen). Cada procedimiento posee sus ventajas particulares. No obstante, los coeficientes de la DCT son en sí mismos suficientes para determinar valores de QP en el caso de intramacrobloques. Es decir, los coeficientes de la DCT constituyen una medida del detalle combinado con el movimiento para macrobloques predichos, de manera que el uso de una medida de detalle diferente (como, por ejemplo, una transformada paralela intra-DCT) puede ayudar a aislar los cambios en el detalle del movimiento (como, por ejemplo, las gotas de lluvia o las olas en el agua que se mueven en el horizonte) a partir del detalle del macrobloque de imagen de la trama actual (estático tras la compensación del movimiento, como, por ejemplo, hojas de hierba con una cámara que se mueve lentamente). La sencillez de uso de los propios coeficientes de la DCT para indicar el QP hace que resulte un procedimiento particularmente atractivo para su aplicación práctica.
La fig. 5 es un diagrama de flujo que resume un procedimiento preferido de ampliación de la gama dinámica y/o el contraste durante la compresión de la imagen.
Etapa 500: Comenzar con una imagen de fuente con una amplia gama dinámica o una amplia gama de contraste.
Etapa 502: Si fuera necesario, ampliar el intervalo de valores eficaces del conjunto de códigos del parámetro de cuantificación (QP). Esto se puede realizar, por ejemplo, mediante una de las siguientes técnicas:
1) Ampliar el conjunto de códigos de QP desde un intervalo nominal (típicamente, 32 niveles) hasta un intervalo actual más grande (128, 1024, o 4096 niveles, o lo que resulte apropiado para el intervalo de la imagen). De este modo, los valores nominales representan directamente un intervalo ampliado de posibles valores.
2) Usar una tabla de consulta o función de correspondencia no lineales para correlacionar códigos QP nominales de forma no lineal con un mayor intervalos de valores eficaces. La correspondencia sería típicamente lineal a valores bajos, pero aumentaría de tamaño de paso de multiplicación y división de QP eficaz, ya que los valores aumentan hacia un típico máximo del intervalo. Por ejemplo, se pueden ampliar 32 o 64 códigos usando una función de consulta o correspondencia no lineal para producir un intervalo eficaz más grande y que posee un valor máximo más grande, como, por ejemplo, 128, 1024, 4096, o lo que resulte apropiado para el intervalo de la imagen.
Etapa 504: Determinar el valor de QP que se debería codificar para cada macrobloque de una imagen que sufre una compresión, usando preferentemente uno de los siguientes procedimientos:
1) Determinar un valor de QP apropiado usando algoritmos para determinar el contraste de la zona de imagen local dentro de cada trama, la gama dinámica local dentro de cada trama, las amplitudes de detalle locales dentro de cada trama, y el movimiento local entre una o más tramas secuenciales (tal como se describe anteriormente), a partir de un análisis del flujo de imágenes en movimiento.
2) Determinar un valor de QP basado en una información generada en el procedimiento de compresión, que se basa en el número de bits generados (para un cierto número de valores candidatos de QP), y la amplitud y frecuencia de coeficientes de la DCT previas a la cuantificación.
3) Aplicar una combinación de la información procedente de 1) y 2), determinando un valor de QP para cada macrobloque utilizando tanto información local como información generada a partir del procedimiento de compresión.
Etapa 506: Usar una precisión ampliada para todo el procesamiento intermedio, tal como se describe anteriormente, para comprimir la imagen usando el valor o valores de QP determinados de la etapa 504. La imagen comprimida, junto con los códigos de QP nominales relacionados correspondientes a los valores de QP determinados que se usaron durante la compresión, se puede almacenar o transmitir, según se desee.
Etapa 508: Descomprimir la imagen transmitida o almacenada, usando una descompresión de alta precisión, tal como se describe anteriormente, para obtener una imagen de amplia gama dinámica, amplia gama de contraste y alta resolución para diversas aplicaciones. Los códigos de QP nominales relacionados se vuelven a correlacionar, si fuera necesario, con los correspondientes valores de QP determinados para tal descompresión. Entre dichas aplicaciones, se incluyen presentaciones domésticas y en salas de proyección de películas y deportes, archivado de imágenes almacenadas, usos comerciales de las presentaciones de imágenes en movimiento, aplicaciones gubernamentales (por ejemplo, vigilancia, comando y control militar), etc. Las imágenes descomprimidas se pueden visualizar en dispositivos de visualización de amplia gama dinámica y/o usarse como fuente para el análisis de la imagen usando algoritmos que se aprovechan de (o requieren) imágenes de alta calidad y amplia gama dinámica con el fin de proporcionar un análisis óptimo (tales algoritmos no constituyen el tema de la presente descripción).
Aplicación
La invención se puede aplicar en hardware o software, o en una combinación de ambos (por ejemplo, conjuntos lógicos programables). A menos que se especifique lo contrario, los algoritmos incluidos como parte de la invención no está relacionados intrínsecamente con ningún ordenador en particular o ningún otro aparato. En concreto, se pueden utilizar diversas máquinas de uso general con programas creados de acuerdo con lo expuesto en la presente descripción, o puede resultar más conveniente construir aparatos más especializados (por ejemplo, circuitos integrados) para llevar a cabo las etapas del procedimiento necesarias. De este modo, la invención se puede aplicar a uno o más programas informáticos que se ejecuten en uno o más sistemas informáticos programables, en los que cada uno comprende al menos un procesador, al menos un sistema de almacenamiento de datos (incluidos elementos de memoria volátil y no volátil y/o de almacenamiento), al menos un dispositivo o puerto de entrada, y al menos un dispositivo o puerto de salida. El código del programa se aplica a los datos de entrada para realizar las funciones descritas en la presente descripción y generar información de salida. La información de salida se aplica a uno o más dispositivos de salida, de manera conocida.
Cada uno de tales programas se puede aplicar a cualquier lenguaje informático que se desee (incluidos máquina, ensamblador o lenguajes de programación orientados a objetos, lógicos, procedimentales y de alto nivel) para comunicarse con un sistema informático. En cualquier caso, el lenguaje puede ser un lenguaje compilado o un lenguaje interpretado.
Cada uno de dichos programas informáticos se almacena preferentemente o se descarga en unos medios o dispositivo de almacenamiento (por ejemplo, unos medios o memoria de estado sólido, o medios magnéticos u ópticos) legibles por un ordenador programable de uso general o especial, para configurar y hacer funcionar el ordenador cuando el sistema informático lee los medios o el dispositivo de almacenamiento para realizar los procedimientos descritos en la presente descripción. También se puede considerar la aplicación del sistema de la invención como un medio de almacenamiento legible por ordenador, configurado con un programa informático, en el que el medio de almacenamiento configurado de este modo hace que un sistema informático funcione de una manera específica y predefinida para realizar las funciones descritas en la presente descripción.
Se han descrito varias de las formas de realización de la invención. Sin embargo, se entenderá que se pueden realizar diversas modificaciones sin alejarse del alcance de la invención, según se define en las reivindicaciones. Por ejemplo, algunas de las etapas descritas anteriormente pueden ser independientes del orden, y por ello se pueden realizar en un orden diferente al que se ha descrito.
\vskip1.000000\baselineskip
Referencias citadas en la descripción
Esta lista de referencias citadas por el solicitante está prevista únicamente para ayudar al lector y no forma parte del documento de patente europea. Aunque se ha puesto el máximo cuidado en su realización, no se pueden excluir errores u omisiones y la OEP declina cualquier responsabilidad al respecto.
Documentos de patente citados en la descripción
\bullet WO 9408427 A [0015]
Documentos no procedentes de patentes citados en la descripción
\bullet Gary Demos. The Use of Logarithmic and Density Units for Pixels. SMPTE conference, and published in in the SMPTE Journal, October 1990, vol. 100 (10 [0032]
\bullet Gary Demos. An Example Representation For Image Color And Dynamic Range Which Is Scalable, Interoperable, and Extensible. SMPTE conference and published in the proceedings and preprints, October 1993 [0032]
\bullet An Example Representation For Image Color And Dynamic Range Which Is Scalable, Interoperable, and Extensible. 1993 SMPTE paper, 1993 [0033]

Claims (17)

1. Procedimiento para comprimir y descomprimir una secuencia de imágenes de vídeo digitalizadas que incluye una secuencia de tramas representadas con una primera precisión de bits en un primer espacio cromático, y el procedimiento se caracteriza por las etapas de
a) transformación de la secuencia de tramas para obtener una representación en un segundo espacio cromático con una segunda precisión de bits superior a la primera precisión de bits;
b) realización de posteriores etapas de codificación con la segunda precisión de bits para generar un flujo de bits comprimido; y
c) realización de posteriores etapas de descodificación con la segunda precisión de bits en el flujo de bits comprimido, y las posteriores etapas de descodificación incluyen la aplicación de una transformada discreta de coseno inversa.
\vskip1.000000\baselineskip
2. El procedimiento de la reivindicación 1, en el que la etapa de realización de las posteriores etapas con la segunda precisión de bits en el flujo de bits comprimido comprende la descodificación del flujo de bits comprimido mediante la:
1) descuantificación del flujo de bits comprimido con la segunda precisión de bits para crear una salida descomprimida;
2) aplicación de una transformada discreta de coseno inversa con la segunda precisión de bits en la salida descuantificada para producir una salida descomprimida; y
3) generación de tramas de imagen con la segunda precisión de bits a partir de la salida descomprimida.
\vskip1.000000\baselineskip
3. El procedimiento de la reivindicación 1 ó 2, en el que las posteriores etapas de codificación incluyen la aplicación de un algoritmo numérico de transformada discreta de coseno inversa, y en el que la descodificación del flujo de bits comprimido incluye la aplicación de un algoritmo numérico de transformada discreta de coseno inversa que concuerde.
4. El procedimiento de la reivindicación 1, 2 ó 3, que además incluye la generación de tramas P con la segunda precisión de bits.
5. El procedimiento de cualquiera de las reivindicaciones 1 a 4, que además incluye la generación de tramas B con la segunda precisión de bits.
6. El procedimiento de cualquiera de las reivindicaciones 1 a 5, en el que cada trama incluye una pluralidad de macrobloques que definen zonas, y el procedimiento incluye la:
i) determinación de un parámetro de cuantificación, QP, que posee códigos que representan una correspondencia directa con posibles valores o bien un intervalo ampliado de posibles valores;
ii) determinación de un valor de QP para cada macrobloque de cada trama;
iii) compresión de cada trama con la segunda precisión de bits para crear una trama comprimida, y tal compresión incluye la aplicación de los valores de QP determinados para que dicha trama reduzca el número de bits necesario para codificar tal trama:
iv) asociación de códigos QP con los valores QP determinados, usados durante la compresión; y
v) la salida de cada una de las tramas comprimidas y los códigos de QP relacionados.
\vskip1.000000\baselineskip
7. El procedimiento de la reivindicación 6, que además incluye la ampliación directa del intervalo de posibles valores de QP mediante el aumento en el número de bits que representan códigos de QP.
8. El procedimiento de la reivindicación 6, que además incluye la ampliación eficaz del intervalo de posibles valores de QP mediante el establecimiento de una correspondencia entre los códigos de QP y un intervalo más grande de posibles valores de QP.
9. El procedimiento de la reivindicación 6, 7 u 8, en el que la determinación de un valor de QP para cada macrobloque de cada trama se basa en la información zonal con respecto a una o más tramas.
10. El procedimiento de la reivindicación 9, en el que la información zonal incluye un contraste de zona de imagen local dentro de cada trama.
11. El procedimiento de la reivindicación 9, en el que la información zonal incluye una gama dinámica local dentro de cada trama.
12. El procedimiento de la reivindicación 9, en el que la información zonal incluye amplitudes de detalle local dentro de cada trama.
13. El procedimiento de la reivindicación 9, en el que la información zonal incluye el movimiento local entre una o más tramas secuenciales.
14. El procedimiento de cualquiera de las reivindicaciones 6 a 13, en el que la determinación de un valor de QP para cada macrobloque de cada trama se basa en la información generada durante la etapa de compresión.
15. El procedimiento de la reivindicación 14, en el que la información generada durante la etapa de compresión incluye amplitudes relativas de coeficientes de la transformada discreta de coseno para cada macrobloque.
16. El procedimiento de la reivindicación 14, en el que la información generada durante la etapa de compresión incluye un número constante de bits asignados para codificar cada macrobloque dentro de una zona de una trama.
17. El procedimiento de cualquiera de las reivindicaciones 6 a 16, que además incluye:
a) para cada trama comprimida, la determinación por segunda vez de un valor de QP para cada código asociado con tal trama comprimida; y
b) la descompresión de cada trama comprimida con la segunda precisión de bits para crear una trama descomprimida que posea al menos una amplia gama dinámica o una amplia gama de contraste, y tal descompresión incluye la aplicación de los valores de QP que se vuelven a determinar para dicha trama.
ES02748364T 2001-03-02 2002-03-01 Codificacion y descodificacion de alta precision para imagenes de video. Expired - Lifetime ES2342365T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/798,346 US8374237B2 (en) 2001-03-02 2001-03-02 High precision encoding and decoding of video images
US798346 2001-03-02

Publications (1)

Publication Number Publication Date
ES2342365T3 true ES2342365T3 (es) 2010-07-06

Family

ID=25173162

Family Applications (1)

Application Number Title Priority Date Filing Date
ES02748364T Expired - Lifetime ES2342365T3 (es) 2001-03-02 2002-03-01 Codificacion y descodificacion de alta precision para imagenes de video.

Country Status (13)

Country Link
US (7) US8374237B2 (es)
EP (1) EP1380169B1 (es)
JP (1) JP2004519920A (es)
KR (1) KR20040010601A (es)
CN (1) CN1284355C (es)
AT (1) ATE467979T1 (es)
AU (1) AU2002306609A1 (es)
CA (1) CA2439727A1 (es)
DE (1) DE60236354D1 (es)
DK (1) DK1380169T3 (es)
ES (1) ES2342365T3 (es)
HK (1) HK1060676A1 (es)
WO (1) WO2002071735A2 (es)

Families Citing this family (112)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6957350B1 (en) 1996-01-30 2005-10-18 Dolby Laboratories Licensing Corporation Encrypted and watermarked temporal and resolution layering in advanced television
US8374237B2 (en) 2001-03-02 2013-02-12 Dolby Laboratories Licensing Corporation High precision encoding and decoding of video images
US7266150B2 (en) 2001-07-11 2007-09-04 Dolby Laboratories, Inc. Interpolation of video compression frames
US8111754B1 (en) 2001-07-11 2012-02-07 Dolby Laboratories Licensing Corporation Interpolation of video compression frames
US20030112863A1 (en) 2001-07-12 2003-06-19 Demos Gary A. Method and system for improving compressed image chroma information
US7123655B2 (en) * 2001-08-09 2006-10-17 Sharp Laboratories Of America, Inc. Method for reduced bit-depth quantization
US6912695B2 (en) * 2001-09-13 2005-06-28 Pixia Corp. Data storage and retrieval system and method
US6882685B2 (en) * 2001-09-18 2005-04-19 Microsoft Corporation Block transform and quantization for image and video coding
FR2832271A1 (fr) * 2001-11-13 2003-05-16 Koninkl Philips Electronics Nv Tuner comprenant un convertisseur de tension
US7027982B2 (en) 2001-12-14 2006-04-11 Microsoft Corporation Quality and rate control strategy for digital audio
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
US7242713B2 (en) 2002-05-02 2007-07-10 Microsoft Corporation 2-D transforms for image and video coding
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
JP4013657B2 (ja) * 2002-06-03 2007-11-28 セイコーエプソン株式会社 画像表示装置、画像表示方法および画像表示プログラムが記録されたコンピュータ読み取り可能な記録媒体
US7224731B2 (en) * 2002-06-28 2007-05-29 Microsoft Corporation Motion estimation/compensation for screen capture video
US6980695B2 (en) * 2002-06-28 2005-12-27 Microsoft Corporation Rate allocation for mixed content video
US7154952B2 (en) 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
US7343291B2 (en) * 2003-07-18 2008-03-11 Microsoft Corporation Multi-pass variable bitrate media encoding
US10554985B2 (en) 2003-07-18 2020-02-04 Microsoft Technology Licensing, Llc DC coefficient signaling at small quantization step sizes
US7383180B2 (en) * 2003-07-18 2008-06-03 Microsoft Corporation Constant bitrate media encoding techniques
US8218624B2 (en) 2003-07-18 2012-07-10 Microsoft Corporation Fractional quantization step sizes for high bit rates
US7738554B2 (en) 2003-07-18 2010-06-15 Microsoft Corporation DC coefficient signaling at small quantization step sizes
US7502415B2 (en) 2003-07-18 2009-03-10 Microsoft Corporation Range reduction
US7289679B2 (en) * 2003-08-12 2007-10-30 International Business Machines Corporation System and method for measuring image quality using compressed image data
US8064520B2 (en) 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US8014450B2 (en) 2003-09-07 2011-09-06 Microsoft Corporation Flexible range reduction
US7492375B2 (en) * 2003-11-14 2009-02-17 Microsoft Corporation High dynamic range image viewing on low dynamic range displays
US7649539B2 (en) * 2004-03-10 2010-01-19 Microsoft Corporation Image formats for video capture, processing and display
US7487193B2 (en) * 2004-05-14 2009-02-03 Microsoft Corporation Fast video codec transform implementations
US7801383B2 (en) 2004-05-15 2010-09-21 Microsoft Corporation Embedded scalar quantizers with arbitrary dead-zone ratios
US8045614B2 (en) 2005-05-11 2011-10-25 Dolby Laboratories Licensing Corporation Quantization control for variable bit depth
JP2008514115A (ja) 2004-09-14 2008-05-01 ギャリー デモス 高品質広帯域多層画像圧縮符号化システム
US20060233258A1 (en) * 2005-04-15 2006-10-19 Microsoft Corporation Scalable motion estimation
US8422546B2 (en) 2005-05-25 2013-04-16 Microsoft Corporation Adaptive video encoding using a perceptual model
US7689052B2 (en) * 2005-10-07 2010-03-30 Microsoft Corporation Multimedia signal processing using fixed-point approximations of linear transforms
ES2551561T3 (es) 2006-01-23 2015-11-19 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Codecs de alto rango dinámico
WO2007116551A1 (ja) * 2006-03-30 2007-10-18 Kabushiki Kaisha Toshiba 画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法
US8155195B2 (en) * 2006-04-07 2012-04-10 Microsoft Corporation Switching distortion metrics during motion estimation
US7995649B2 (en) 2006-04-07 2011-08-09 Microsoft Corporation Quantization adjustment based on texture level
US8494052B2 (en) * 2006-04-07 2013-07-23 Microsoft Corporation Dynamic selection of motion estimation search ranges and extended motion vector ranges
US7974340B2 (en) 2006-04-07 2011-07-05 Microsoft Corporation Adaptive B-picture quantization control
US8130828B2 (en) 2006-04-07 2012-03-06 Microsoft Corporation Adjusting quantization to preserve non-zero AC coefficients
US8503536B2 (en) 2006-04-07 2013-08-06 Microsoft Corporation Quantization adjustments for DC shift artifacts
US8059721B2 (en) 2006-04-07 2011-11-15 Microsoft Corporation Estimating sample-domain distortion in the transform domain with rounding compensation
US8711925B2 (en) 2006-05-05 2014-04-29 Microsoft Corporation Flexible quantization
US8880571B2 (en) * 2006-05-05 2014-11-04 Microsoft Corporation High dynamic range data format conversions for digital media
US20070268964A1 (en) * 2006-05-22 2007-11-22 Microsoft Corporation Unit co-location-based motion estimation
US8385424B2 (en) * 2006-06-26 2013-02-26 Qualcomm Incorporated Reduction of errors during computation of inverse discrete cosine transform
US8571340B2 (en) * 2006-06-26 2013-10-29 Qualcomm Incorporated Efficient fixed-point approximations of forward and inverse discrete cosine transforms
US8300698B2 (en) * 2006-10-23 2012-10-30 Qualcomm Incorporated Signalling of maximum dynamic range of inverse discrete cosine transform
US8238424B2 (en) 2007-02-09 2012-08-07 Microsoft Corporation Complexity-based adaptive preprocessing for multiple-pass video compression
US8942289B2 (en) * 2007-02-21 2015-01-27 Microsoft Corporation Computational complexity and precision control in transform-based digital media codec
US8054886B2 (en) * 2007-02-21 2011-11-08 Microsoft Corporation Signaling and use of chroma sample positioning information
US8498335B2 (en) 2007-03-26 2013-07-30 Microsoft Corporation Adaptive deadzone size adjustment in quantization
US8243797B2 (en) 2007-03-30 2012-08-14 Microsoft Corporation Regions of interest for quality adjustments
US8000554B2 (en) * 2007-04-04 2011-08-16 Xerox Corporation Automatic dynamic range adjustment in digital imaging
US8442337B2 (en) 2007-04-18 2013-05-14 Microsoft Corporation Encoding adjustments for animation content
US8331438B2 (en) 2007-06-05 2012-12-11 Microsoft Corporation Adaptive selection of picture-level quantization parameters for predicted video pictures
US8254455B2 (en) 2007-06-30 2012-08-28 Microsoft Corporation Computing collocated macroblock information for direct mode macroblocks
US8189933B2 (en) 2008-03-31 2012-05-29 Microsoft Corporation Classifying and controlling encoding quality for textured, dark smooth and smooth video content
US8325800B2 (en) 2008-05-07 2012-12-04 Microsoft Corporation Encoding streaming media as a high bit rate layer, a low bit rate layer, and one or more intermediate bit rate layers
US8379851B2 (en) 2008-05-12 2013-02-19 Microsoft Corporation Optimized client side rate control and indexed file layout for streaming media
US8370887B2 (en) 2008-05-30 2013-02-05 Microsoft Corporation Media streaming with enhanced seek operation
US8897359B2 (en) 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
CN102113326A (zh) 2008-08-04 2011-06-29 杜比实验室特许公司 重叠块差异估计和补偿体系结构
US8265140B2 (en) 2008-09-30 2012-09-11 Microsoft Corporation Fine-grained client-side control of scalable media delivery
US9215467B2 (en) 2008-11-17 2015-12-15 Checkvideo Llc Analytics-modulated coding of surveillance video
US8189666B2 (en) 2009-02-02 2012-05-29 Microsoft Corporation Local picture identifier and computation of co-located information
US8971413B2 (en) 2010-05-24 2015-03-03 Intel Corporation Techniques for storing and retrieving pixel data
US20110317759A1 (en) * 2010-06-25 2011-12-29 Thomas Vinay S System, method, and computer program product for parameter estimation for lossless video compression
TWI479898B (zh) 2010-08-25 2015-04-01 Dolby Lab Licensing Corp 擴展影像動態範圍
CN102420980B (zh) * 2010-09-27 2014-08-27 深圳市融创天下科技股份有限公司 一种帧层和宏块层量化参数调整方法和系统
JP5281623B2 (ja) 2010-09-29 2013-09-04 日本電信電話株式会社 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置およびそれらのプログラム
JP5281624B2 (ja) 2010-09-29 2013-09-04 日本電信電話株式会社 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置およびそれらのプログラム
US20120090035A1 (en) * 2010-10-12 2012-04-12 Synergetics Incorporated System and Tool for Logistics Data Management on Secured Smart Mobile Devices
PT2485488T (pt) * 2011-02-02 2017-06-30 Nagravision Sa Descodificador de média e método de descodificação que permite o seguimento do descodificador de média
JP5357199B2 (ja) 2011-03-14 2013-12-04 日本電信電話株式会社 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム
US9363522B2 (en) * 2011-04-28 2016-06-07 Warner Bros. Entertainment, Inc. Region-of-interest encoding enhancements for variable-bitrate mezzanine compression
US8537171B2 (en) * 2011-05-13 2013-09-17 Samsung Display Co., Ltd. Piecewise non-causal compression and subsequent decompression of quantized data for processing of decompressed data in higher precision processing space
US9654785B2 (en) 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
CA2834409C (en) 2011-07-12 2016-11-29 Nec Corporation Image quantization parameter encoding method and image quantization parameter decoding method
KR20130068823A (ko) * 2011-12-16 2013-06-26 삼성전자주식회사 영상 신호 처리를 위한 방법 및 장치
US9756353B2 (en) * 2012-01-09 2017-09-05 Dolby Laboratories Licensing Corporation Hybrid reference picture reconstruction method for single and multiple layered video coding systems
KR20160035603A (ko) * 2012-01-20 2016-03-31 소니 주식회사 크로마 양자화 파라미터 확장
KR101917224B1 (ko) * 2012-09-18 2018-11-13 엘지이노텍 주식회사 영상데이터 전송장치
US10055866B2 (en) 2013-02-21 2018-08-21 Dolby Laboratories Licensing Corporation Systems and methods for appearance mapping for compositing overlay graphics
CN105009567B (zh) 2013-02-21 2018-06-08 杜比实验室特许公司 用于合成叠加图形的外观映射的系统和方法
TW201507443A (zh) * 2013-05-15 2015-02-16 Vid Scale Inc 基於單迴路解碼之多層視訊編碼
GB2517416A (en) * 2013-08-15 2015-02-25 Sony Corp Data encoding and decoding
JP6185375B2 (ja) * 2013-11-26 2017-08-23 株式会社シキノハイテック 画像符号化装置
US10171833B2 (en) 2014-03-04 2019-01-01 Microsoft Technology Licensing, Llc Adaptive switching of color spaces, color sampling rates and/or bit depths
EP3114835B1 (en) 2014-03-04 2020-04-22 Microsoft Technology Licensing, LLC Encoding strategies for adaptive switching of color spaces
JP6367359B2 (ja) 2014-03-27 2018-08-01 マイクロソフト テクノロジー ライセンシング,エルエルシー 色空間を切り替えるときの量子化/スケーリング及び逆量子化/スケーリングの調整
US9883184B2 (en) * 2014-10-07 2018-01-30 Qualcomm Incorporated QP derivation and offset for adaptive color transform in video coding
US10687069B2 (en) 2014-10-08 2020-06-16 Microsoft Technology Licensing, Llc Adjustments to encoding and decoding when switching color spaces
CN108293124B (zh) * 2015-11-30 2022-05-13 瑞典爱立信有限公司 视频中画面的编码
CN107452039B (zh) * 2016-06-01 2023-03-31 上海东方传媒技术有限公司 压缩rgb颜色空间的方法及装置
CN109643456A (zh) 2016-06-17 2019-04-16 因默希弗机器人私人有限公司 图像压缩方法与设备
CN110494193A (zh) 2017-02-08 2019-11-22 因默希弗机器人私人有限公司 向多人游戏场地中的用户显示内容
KR102315524B1 (ko) 2017-06-16 2021-10-21 한화테크윈 주식회사 영상의 비트레이트 조절 방법 및 영상 획득 장치
US10218992B2 (en) * 2017-07-24 2019-02-26 Cisco Technology, Inc. Encoding, transmission and decoding of combined high motion and high fidelity content
US11153604B2 (en) 2017-11-21 2021-10-19 Immersive Robotics Pty Ltd Image compression for digital reality
AU2018373495B2 (en) 2017-11-21 2023-01-05 Immersive Robotics Pty Ltd Frequency component selection for image compression
US10593257B2 (en) 2018-03-15 2020-03-17 Samsung Display Co., Ltd. Stress profile compression
CA3039701A1 (en) * 2018-04-06 2019-10-06 Comcast Cable Communications, Llc Systems, methods, and apparatuses for processing video
JP7213364B2 (ja) 2018-10-31 2023-01-26 ノキア テクノロジーズ オーユー 空間オーディオパラメータの符号化及び対応する復号の決定
US10992960B2 (en) 2019-02-06 2021-04-27 Jared Michael Cohn Accelerated video exportation to multiple destinations
US11132944B2 (en) 2019-09-18 2021-09-28 Samsung Display Co., Ltd. Unbiased iterative compression on additive data using dither
US11188503B2 (en) 2020-02-18 2021-11-30 International Business Machines Corporation Record-based matching in data compression
US11955067B2 (en) 2021-03-17 2024-04-09 Samsung Display Co., Ltd. Simplified rate control for an additive iterative compression system
US20220405987A1 (en) * 2021-06-18 2022-12-22 Nvidia Corporation Pixel blending for neural network-based image generation
US11941397B1 (en) * 2022-05-31 2024-03-26 Amazon Technologies, Inc. Machine instructions for decoding acceleration including fuse input instructions to fuse multiple JPEG data blocks together to take advantage of a full SIMD width of a processor

Family Cites Families (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4654696A (en) 1985-04-09 1987-03-31 Grass Valley Group, Inc. Video signal format
JP2670259B2 (ja) 1985-11-29 1997-10-29 ソニー株式会社 高能率符号化装置
US4903317A (en) 1986-06-24 1990-02-20 Kabushiki Kaisha Toshiba Image processing apparatus
US5162925A (en) * 1988-11-17 1992-11-10 Canon Kabushiki Kaisha Color image processor capable of performing masking using a reduced number of bits
DE69031186D1 (de) 1989-03-10 1997-09-11 Canon Kk Verfahren und Vorrichtung zum Codieren von Bildinformation
JPH0474063A (ja) 1990-07-13 1992-03-09 Matsushita Electric Ind Co Ltd 画像の符号化方法
JPH04185172A (ja) 1990-11-20 1992-07-02 Matsushita Electric Ind Co Ltd ディジタル画像信号の高能率符号化装置
US5465119A (en) 1991-02-22 1995-11-07 Demografx Pixel interlacing apparatus and method
US5151784A (en) 1991-04-30 1992-09-29 At&T Bell Laboratories Multiple frame motion estimation
JP2507204B2 (ja) 1991-08-30 1996-06-12 松下電器産業株式会社 映像信号符号化装置
US5198901A (en) 1991-09-23 1993-03-30 Matsushita Electric Corporation Of America Derivation and use of motion vectors in a differential pulse code modulation system
FR2681962B1 (fr) * 1991-09-30 1993-12-24 Sgs Thomson Microelectronics Sa Procede et circuit de traitement de donnees par transformee cosinus.
JPH0595540A (ja) 1991-09-30 1993-04-16 Sony Corp 動画像符号化装置
US5231484A (en) 1991-11-08 1993-07-27 International Business Machines Corporation Motion video compression system with adaptive bit allocation and quantization
US5440344A (en) 1992-04-28 1995-08-08 Mitsubishi Denki Kabushiki Kaisha Video encoder using adjacent pixel difference for quantizer control
JP3245977B2 (ja) 1992-06-30 2002-01-15 ソニー株式会社 ディジタル画像信号の伝送装置
US5294974A (en) 1992-07-24 1994-03-15 Matsushita Electric Corporation Of America High-definition video encoding system having color-sensitive quantization
JP3348310B2 (ja) 1992-09-28 2002-11-20 ソニー株式会社 動画像符号化方法および動画像符号化装置
US5850261A (en) 1992-10-15 1998-12-15 Sony Corporation Efficient variable length encoder and decoder
US5329379A (en) 1992-10-22 1994-07-12 International Business Machines Corporation System and method of measuring fidelity of decompressed video signals and images
US5663763A (en) 1992-10-29 1997-09-02 Sony Corp. Picture signal encoding method and apparatus and picture signal decoding method and apparatus
JP3545000B2 (ja) 1992-11-02 2004-07-21 ソニー株式会社 画像信号符号化装置、画像信号復号化装置
JPH06165150A (ja) 1992-11-18 1994-06-10 Matsushita Electric Ind Co Ltd 動画像符号化/復号化装置
US5717816A (en) * 1993-01-13 1998-02-10 Hitachi America Ltd. Method and apparatus for the selection of data for use in VTR trick playback operation in a system using intra-coded video frames
JP2962083B2 (ja) 1993-01-22 1999-10-12 松下電器産業株式会社 解像度変換方法、解像度変換装置、画像符号化装置、画像復号化装置
US5426463A (en) 1993-02-22 1995-06-20 Rca Thomson Licensing Corporation Apparatus for controlling quantizing in a video signal compressor
TW224553B (en) 1993-03-01 1994-06-01 Sony Co Ltd Method and apparatus for inverse discrete consine transform and coding/decoding of moving picture
JPH06350995A (ja) 1993-06-10 1994-12-22 Casio Comput Co Ltd 動画像処理方法
US5877754A (en) 1993-06-16 1999-03-02 Intel Corporation Process, apparatus, and system for color conversion of image signals
US5408270A (en) 1993-06-24 1995-04-18 Massachusetts Institute Of Technology Advanced television system
CA2126467A1 (en) 1993-07-13 1995-01-14 Barin Geoffry Haskell Scalable encoding and decoding of high-resolution progressive video
WO1995004433A1 (en) 1993-07-30 1995-02-09 British Telecommunications Public Limited Company Processing image data
CA2127151A1 (en) 1993-09-21 1995-03-22 Atul Puri Spatially scalable video encoding and decoding
US5438374A (en) 1993-12-10 1995-08-01 At&T Corp. System and method for filtering video signals
US5604502A (en) 1994-03-21 1997-02-18 Lucent Technologies Inc. Motion video compression system with inverse discrete cosine transform mismatch control
US5442407A (en) 1994-03-22 1995-08-15 Matsushita Electric Corporation Of America Video signal noise reduction system using time-varying filter coefficients
JPH08256341A (ja) 1995-03-17 1996-10-01 Sony Corp 画像信号符号化方法、画像信号符号化装置、画像信号記録媒体、及び画像信号復号化装置
JP3669523B2 (ja) 1995-04-08 2005-07-06 ソニー株式会社 符号化装置及び方法
DE69533259T2 (de) * 1995-05-03 2005-08-18 Sony Corp. Nichtlineares quantisieren eines informationssignales
GB2301970B (en) 1995-06-06 2000-03-01 Sony Uk Ltd Motion compensated video processing
US5831872A (en) * 1995-06-27 1998-11-03 Motorola, Inc. Method and system for compressing a video signal using dynamic frame recovery
US5748903A (en) 1995-07-21 1998-05-05 Intel Corporation Encoding images using decode rate control
US5737032A (en) 1995-09-05 1998-04-07 Videotek, Inc. Serial digital video processing with concurrent adjustment in RGB and luminance/color difference
US5926222A (en) 1995-09-28 1999-07-20 Intel Corporation Bitrate estimator for selecting quantization levels for image encoding
US5835498A (en) 1995-10-05 1998-11-10 Silicon Image, Inc. System and method for sending multiple data signals over a serial link
KR100209793B1 (ko) 1995-10-28 1999-07-15 전주범 특징점 기반 움직임 추정을 이용하여 비디오 신호를 부호화 및 복호화하는 장치
JPH09182083A (ja) 1995-12-27 1997-07-11 Matsushita Electric Ind Co Ltd ビデオ画像符号化方法及び復号化方法とその装置
US5852565A (en) 1996-01-30 1998-12-22 Demografx Temporal and resolution layering in advanced television
US6957350B1 (en) 1996-01-30 2005-10-18 Dolby Laboratories Licensing Corporation Encrypted and watermarked temporal and resolution layering in advanced television
EP0788282B1 (en) * 1996-02-05 2010-01-20 Panasonic Corporation Quantization method
US5661524A (en) * 1996-03-08 1997-08-26 International Business Machines Corporation Method and apparatus for motion estimation using trajectory in a digital video encoder
US6115421A (en) * 1996-04-25 2000-09-05 Matsushita Electric Industrial Co., Ltd. Moving picture encoding apparatus and method
JPH11510989A (ja) 1996-06-05 1999-09-21 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ 符号化ディジタルビデオ信号を復号化する方法および装置
US5825680A (en) 1996-06-21 1998-10-20 Digital Equipment Corporation Method and apparatus for performing fast division
KR100238066B1 (ko) 1996-06-26 2000-01-15 윤종용 양자화활동도를 이용한 비트 발생량 제어방법 및 그 영상 부호화장치
JP3687080B2 (ja) 1996-07-17 2005-08-24 ソニー株式会社 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法、並びに記録媒体
US5886710A (en) * 1996-08-07 1999-03-23 Adobe Systems Incorporated Defining a time-variable property in digital compositions
JP3280888B2 (ja) 1996-08-19 2002-05-13 三星電子株式会社 量子化された平均−マッチングヒストグラム等化を用いた画質改善方法及びその回路
US6069914A (en) 1996-09-19 2000-05-30 Nec Research Institute, Inc. Watermarking of image data using MPEG/JPEG coefficients
US5920353A (en) * 1996-12-03 1999-07-06 St Microelectronics, Inc. Multi-standard decompression and/or compression device
JPH10164581A (ja) 1996-12-03 1998-06-19 Sony Corp 画像信号符号化方法及び装置、信号記録媒体
US6272175B1 (en) * 1997-02-13 2001-08-07 Conexant Systems, Inc. Video signal coding systems and processes using adaptive quantization
US7269219B1 (en) 1997-02-14 2007-09-11 At&T Corp. Non-linear quantizer for video coding
US6043844A (en) * 1997-02-18 2000-03-28 Conexant Systems, Inc. Perceptually motivated trellis based rate control method and apparatus for low bit rate video coding
KR100227336B1 (ko) * 1997-02-20 1999-11-01 서평원 고정 전송율 mpeg 영상 송신기용 전송율 제어 방법 및 그 장치
US6067321A (en) 1997-04-03 2000-05-23 Lsi Logic Corporation Method and apparatus for two-row macroblock decoding to improve caching efficiency
US6178203B1 (en) 1997-04-03 2001-01-23 Lsi Logic Corporation Method and apparatus for two-row decoding of MPEG video
JP3978810B2 (ja) 1997-05-28 2007-09-19 ソニー株式会社 符号化方法およびこれを使用した符号化装置
US6236727B1 (en) 1997-06-24 2001-05-22 International Business Machines Corporation Apparatus, method and computer program product for protecting copyright data within a computer system
US5987179A (en) * 1997-09-05 1999-11-16 Eastman Kodak Company Method and apparatus for encoding high-fidelity still images in MPEG bitstreams
US6014182A (en) 1997-10-10 2000-01-11 Faroudja Laboratories, Inc. Film source video detection
KR100235988B1 (ko) 1997-11-12 1999-12-15 구자홍 디티브이 영상 포맷 변환장치 및 그 방법
US5956026A (en) * 1997-12-19 1999-09-21 Sharp Laboratories Of America, Inc. Method for hierarchical summarization and browsing of digital video
US6654417B1 (en) * 1998-01-26 2003-11-25 Stmicroelectronics Asia Pacific Pte. Ltd. One-pass variable bit rate moving pictures encoding
US6172768B1 (en) 1998-02-05 2001-01-09 Canon Kabushiki Kaisha Halftoning with changeable error diffusion weights
JPH11239351A (ja) 1998-02-23 1999-08-31 Nippon Telegr & Teleph Corp <Ntt> 動画像符号化方法、復号方法、符号化器、復号器、動画像符号化プログラムおよび動画像復号プログラムを記録した記録媒体
US6434196B1 (en) 1998-04-03 2002-08-13 Sarnoff Corporation Method and apparatus for encoding video information
JP4123567B2 (ja) 1998-04-30 2008-07-23 ソニー株式会社 画像信号処理装置及び方法
US6215824B1 (en) 1998-05-01 2001-04-10 Boom Corporation Transcoding method for digital video networking
US6104757A (en) * 1998-05-15 2000-08-15 North Carolina State University System and method of error control for interactive low-bit rate video transmission
US6332194B1 (en) 1998-06-05 2001-12-18 Signafy, Inc. Method for data preparation and watermark insertion
US6301304B1 (en) 1998-06-17 2001-10-09 Lsi Logic Corporation Architecture and method for inverse quantization of discrete cosine transform coefficients in MPEG decoders
KR100275933B1 (ko) 1998-07-14 2000-12-15 구자홍 엠펙디코더의 역이산여현변환장치
JP3748717B2 (ja) * 1998-08-31 2006-02-22 シャープ株式会社 動画像符号化装置
US6256422B1 (en) * 1998-11-04 2001-07-03 International Business Machines Corporation Transform-domain correction of real-domain errors
US6535148B1 (en) 1999-02-12 2003-03-18 Sony Corporation Method and apparatus for truncated decoding
JP2001016457A (ja) 1999-06-30 2001-01-19 Ricoh Co Ltd 画像処理装置および画像処理方法
JP2001112000A (ja) * 1999-10-07 2001-04-20 Matsushita Electric Ind Co Ltd 映像信号符号化装置
JP3757088B2 (ja) * 1999-10-26 2006-03-22 日本電気株式会社 動画像符号化装置および方法
EP1142343A1 (en) 1999-10-29 2001-10-10 Koninklijke Philips Electronics N.V. Video encoding method
US6442203B1 (en) 1999-11-05 2002-08-27 Demografx System and method for motion compensation and frame rate conversion
JP2003519990A (ja) * 1999-12-29 2003-06-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像を符号化及び復号化する装置
US6810131B2 (en) 2000-01-05 2004-10-26 Canon Kabushiki Kaisha Information processing method and apparatus
US6629104B1 (en) 2000-11-22 2003-09-30 Eastman Kodak Company Method for adding personalized metadata to a collection of digital images
US7062084B2 (en) * 2000-12-01 2006-06-13 Sharp Laboratories Of America, Inc. Method for image description using color and local spatial information
US8374237B2 (en) 2001-03-02 2013-02-12 Dolby Laboratories Licensing Corporation High precision encoding and decoding of video images
US6816552B2 (en) 2001-07-11 2004-11-09 Dolby Laboratories Licensing Corporation Interpolation of video compression frames
US7266150B2 (en) 2001-07-11 2007-09-04 Dolby Laboratories, Inc. Interpolation of video compression frames
US20030112873A1 (en) 2001-07-11 2003-06-19 Demos Gary A. Motion estimation for video compression systems
US20030112863A1 (en) 2001-07-12 2003-06-19 Demos Gary A. Method and system for improving compressed image chroma information
KR100590301B1 (ko) 2001-11-06 2006-06-19 파이오니아 가부시키가이샤 전력 손실을 감소시킬 수 있는 구조를 갖는 표시 패널구동 장치
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation

Also Published As

Publication number Publication date
US20140098858A1 (en) 2014-04-10
US10264256B2 (en) 2019-04-16
JP2004519920A (ja) 2004-07-02
US20130148719A1 (en) 2013-06-13
KR20040010601A (ko) 2004-01-31
ATE467979T1 (de) 2010-05-15
EP1380169A4 (en) 2008-10-08
US8488670B2 (en) 2013-07-16
US8576907B2 (en) 2013-11-05
CA2439727A1 (en) 2002-09-12
CN1284355C (zh) 2006-11-08
US8594188B2 (en) 2013-11-26
WO2002071735A8 (en) 2004-05-27
DE60236354D1 (de) 2010-06-24
AU2002306609A1 (en) 2002-09-19
US20140036996A1 (en) 2014-02-06
US20020154693A1 (en) 2002-10-24
WO2002071735A3 (en) 2003-10-23
WO2002071735A2 (en) 2002-09-12
CN1550108A (zh) 2004-11-24
US20110103470A1 (en) 2011-05-05
EP1380169B1 (en) 2010-05-12
DK1380169T3 (da) 2010-07-12
US20110103471A1 (en) 2011-05-05
EP1380169A2 (en) 2004-01-14
HK1060676A1 (en) 2004-08-13
US9667957B2 (en) 2017-05-30
US8374237B2 (en) 2013-02-12
US20190356918A1 (en) 2019-11-21

Similar Documents

Publication Publication Date Title
ES2342365T3 (es) Codificacion y descodificacion de alta precision para imagenes de video.
US10979706B2 (en) Method for decoding a bitstream
JP7233501B2 (ja) ルックアップ・テーブルを符号化する方法および復号する方法、並びに対応する装置
CN103250182B (zh) 用于色调映射hdr数据视频流的方法和系统
ES2275037T3 (es) Procedimiento de codificacion de video con compensacion de fundido.
BR112020013979A2 (pt) Mecanismos de sinalização para faixas iguais e outros parâmetros dra para codificação de vídeo
CN105432077A (zh) 在切换色彩空间时调整量化/缩放和逆量化/缩放
JP2011083017A (ja) 圧縮画像クロマ情報を改良するための方法およびシステム
US20190068981A1 (en) Storing and retrieving lossy-compressed high bit depth image data
JP7401542B2 (ja) ピクチャのブロックのイントラ予測の方法
KR20230170817A (ko) 비디오 디코딩 방법 및 비디오 디코더
TW201944780A (zh) 在視訊寫碼中之基於變換之量化及動態範圍調整尺度推導之協調
TWI740830B (zh) 圖框之編碼方法和裝置及其解碼方法和裝置,電腦程式製品和處理器可讀式媒體,以及非暫態儲存媒體
JP2022031120A (ja) 映像圧縮および格納システムと映像圧縮および解凍方法
US10250899B1 (en) Storing and retrieving high bit depth image data
JP2008271039A (ja) 画像符号化装置及び画像復号化装置
Richter On the integer coding profile of JPEG XT
KR20220019220A (ko) 영상 압축 및 저장 시스템의 프레임 압축 방법
KR20160135670A (ko) 픽처 블록을 인코딩/디코딩하기 위한 방법
EP2958103A1 (en) Method and device for encoding a sequence of pictures
CN116965020A (zh) 视频编解码方法与系统、及视频编解码器
CN116783887A (zh) 点云的编码方法、解码方法、编码器以及解码器
CN117121485A (zh) 视频编解码方法与系统、及视频编解码器
CN116918326A (zh) 视频编解码方法与系统、及视频编码器与视频解码器