MXPA05009483A - Metodo para codificar una imagen de video considerando la parte relativa a un componente de un vector de movimiento. - Google Patents

Metodo para codificar una imagen de video considerando la parte relativa a un componente de un vector de movimiento.

Info

Publication number
MXPA05009483A
MXPA05009483A MXPA05009483A MXPA05009483A MXPA05009483A MX PA05009483 A MXPA05009483 A MX PA05009483A MX PA05009483 A MXPA05009483 A MX PA05009483A MX PA05009483 A MXPA05009483 A MX PA05009483A MX PA05009483 A MXPA05009483 A MX PA05009483A
Authority
MX
Mexico
Prior art keywords
movement
temporal
coding
context
spatial
Prior art date
Application number
MXPA05009483A
Other languages
English (en)
Inventor
Guillaume Boisson
Original Assignee
Thomson Licensing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing filed Critical Thomson Licensing
Publication of MXPA05009483A publication Critical patent/MXPA05009483A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/40Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/40Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code
    • H03M7/4006Conversion to or from arithmetic code
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Image Analysis (AREA)

Abstract

El metodo realiza las siguientes etapas: una estimacion de un movimiento entre un tiempo actual que corresponde a la imagen actual (11) y un tiempo de referencia que corresponde a una imagen de referencia (12) con objeto de suministrar un vector de movimiento (13), una codificacion de entropia (10, 25, 28) de una senal de alta frecuencia espacial relativa a la imagen actual considerando un contexto temporal (14, 17, 20) basado en la estimacion de un movimiento, uno de los parametros explotados para el calculo del contexto temporal siendo la paridad (21) de un componente del vector de movimiento. Las aplicaciones se refieren a compresion de video con prediccion temporal.

Description

MÉTODO PARA CODIFICAR UNA IMAGEN DE VÍDEO CONSIDERANDO LA PARTE RELATIVA A UN COMPONENTE DE UN VECTOR DE MOVIMIENTO La invención se refiere a un método para codificar una imagen de video dentro de una secuencia de imágenes comprendiendo una etapa para análisis espacial de la imagen y basándose en el uso de predicción temporal entre imágenes. Más particularmente, esta es una codificación de entropía basada en el contexto temporal de la imagen, las últimas características de explotación relacionándose con la información de movimiento. En estándares de codificación conocidos como estándares híbridos, por ejemplo, MPEG-1, MPEG-2, MPEG-4, h.264, como en la mayoría de los esquemas de codificación de sub-banda 2D+t, por ejemplo, MC-EZBC (Contexto de Bloqueo Cero Incluido en Movimiento Compensado) , la primer etapa en la secuencia de codificación consiste en tomar ventaja de la redundancia temporal entre las imágenes sucesivas, antes de explotar la redundancia espacial dentro de una imagen. La figura 1 muestra un esquema codificador de video de acuerdo a la técnica - 2 -anterior . La señal de video se transmite a un circuito de análisis temporal 1. Un circuito de estimación de movimiento 2 se conecta a este primer circuito para estimar el movimiento entre dos imágenes recibidas por el codificador. La información de movimiento se transmite al circuito 1 y a un circuito de codificación 6, por ejemplo, en la forma de campos de vector de movimiento. La salida del circuito 1 se transmite a un circuito de análisis espacial 3 que extrae los coeficientes de frecuencia de imagen de la textura. Estos coeficientes se cuantifican subsecuentemente, después se codifican por una codificación de entropía, circuito 4. Esta información codificada y la información de movimiento se transmiten a un circuito de generación de paquetes o empaquetador 5 que envía los datos de video en la forma de paquetes de video que forman la corriente de datos de video. El circuito de análisis temporal 1 realiza una predicción temporal compensada por movimiento en el caso de un esquema híbrido o MCTF (Filtración Temporal Compensada por Movimiento) en el caso de un esquema de codificación de sub- - 3 -banda. Los algoritmos de codificación con predicción temporal consisten en aplicar compensación de movimiento para generar imágenes de predicción que más tarde se utilizarán en el proceso de codificación. Estos algoritmos se basan en el mismo principio. Las imágenes a codificarse se predicen iniciando de una o más imágenes previamente codificadas, llamadas imágenes de referencia. Esto es el caso en los estándares de MPEG de video con imágenes Predichas (P) e imágenes Bi-direccionales o Bi-predichas (B) . La predicción consiste en realizar una compensación de movimiento utilizando estas imágenes de referencia y vectores de movimiento asociados con la imagen actual. Lo que se codifica subsecuentemente es el residuo de la predicción, en otras palabras la diferencia entre la imagen actual y las imágenes de predicción temporales. El movimiento se describe generalmente en bloques de pixeles y la compensación de movimiento se efectúa por bloque. El circuito de análisis espacial 3 realiza, por ejemplo, una descomposición en pequeñas ondas o una transformación de coseno discreta. La codificación de entropía del - 4 -circuito 4 puede ser una codificación del tipo VLC (Codificación de Longitud Variable) o una codificación del tipo aritmético. La función del circuito de formación de paquetes es dividir la textura e información de movimiento que Tienen respectivamente del circuito de codificación de entropía y del circuito de codificación para los campos de movimiento en sub-ensambles coherentes de acuerdo a su frecuencia temporal y espacial y su importancia, por ejemplo, su peso en un planteamiento de codificación de plano de bits. De esta manera, la corriente binaria obtenida es independientemente escalable en resolución, en frecuencia de cuadro y en fidelidad. Los campos de movimiento estimado corresponden a la resolución de la fuente. La etapa de compensación de movimiento del codificador, y también su inverso en el decodificador , ya sea hecha por filtración o predicción, por lo tanto, debe ejecutarse en imágenes de resolución completa con objeto de ser coherente . La estabilidad espacial - la posibilidad de transmitir y por lo tanto de reconstruir - 5 -imágenes a varios niveles de resolución, por ejemplo, imágenes en formato SD (Definición Estándar) , CIF o QCIF - actualmente con frecuencia se explota en la transmisión de datos de vídeo. Los esquemas de codificación convencionales por análisis espacio- temporal , tales como aquellos descritos previamente utilizando descomposición en ondas pequeñas o una transformación de coseno discreta, conducen ellos mismos a tal escalabilidad . Sin embargo, no se permite que la información de movimiento se adapte en una manera óptima a esta escalabilidad, en otras palabras a las diversas resoluciones de la imagen, y por lo tanto la compresión de datos a optimizarse. Un codificador de video que sigue la arquitectura descrita puede ser espacialmente escalable para la textura, pero no el movimiento. Y, esta información de movimiento no es insignificante. Como un ejemplo, representa aproximadamente 30% de la totalidad de la corriente binaria cuando una secuencia CIF de 15Hz de baja velocidad se codifica. Las arquitecturas por lo tanto sufren de una sobre-definición de la información de movimiento que substancialment e afecta el desempeño de compresión a baja resolución. - 6 - Existen soluciones p ra conservar la escalabilidad de tanto la textura como del movimiento. El medio más simple es estimar la última en la resolución espacial más baja permitida para la decodificación. Por lo tanto, la descomposición espacial se lleva a cabo inicialmente . La redundancia temporal existente entre las altas frecuencias espaciales sucesivas entonces debe explotarse. Para este propósito, varias soluciones se han propuesto, las cuales re-introducen las herramientas de decorrelación temporal convencionales: predicción o movimiento compensado por movimiento. Ahora, estas técnicas convencionales son menos eficientes en el dominio de transformación que en el dominio de píxel debido al problema de fase que genera el fenómeno conocido como 'varianza de cambio' de transformaciones espaciales. Sin embargo, tanto la trasformación de onda pequeña discreta (DWT) y la transformación de coseno discreto (DCT) son tales que los coeficientes de imagen sucesivos, correspondientes al mismo patrón de pixel, pueden ser muy diferentes en señal y en valor absoluto, dependiendo de la dirección y amplitud del movimiento, la dirección y longitud del filtro - 7 -espacial. La varianza de cambio intrínseca a transformación espaciales requiere un nuevo planteamiento para estimación de movimiento, ya que hace a las altas frecuencias temporales inadecuadas para codificación por predicción o filtración . El objeto de la invención es superar las desventajas arriba mencionadas. Un sujeto de la invención es un método para codificar una imagen dentro de una secuencia de imágenes, comprendiendo una etapa para análisis espacial de una imagen actual con objeto de suministrar una señal de baja frecuencia espacial y señales de alta frecuencia espacial y realizar una estimación de un movimiento entre un tiempo actual correspondiente a la imagen actual y un tiempo de referencia correspondiente a una imagen de referencia con objeto de suministrar un vector de movimiento, caracterizado porque realiza una codificación de entropía de al menos una de las señales de alta frecuencia espacial relativas a la imagen actual al considerar un contexto temporal en base a la estimación de movimiento, uno de los parámetros explotado para el cálculo del contexto temporal siendo la paridad relativa a un componente del - 8 -vector de movimiento. De acuerdo a una modalidad particular, uno de los parámetros explotado para el cálculo del contexto temporal es la parte fraccional relativa a un componente del vector de movimiento. De acuerdo a una modalidad particular, para una señal de alta frecuencia espacial, el componente considerado es aquel en la dirección de la filtración espacial de paso alto. De acuerdo a una modalidad particular, la codificación de entropía es una codificación de plano de bits aritmética y el contexto temporal corresponde al plano de bits del mismo nivel en la imagen de referencia temporal. De acuerdo a una modalidad particular, la codificación aritmética es una codificación N-aria y el contexto temporal corresponde a N planos de bits del mismo nivel en la imagen de referencia temporal . Otro sujeto de la invención es un método para decodificar una imagen, dentro de una secuencia de imágenes, codificada de acuerdo al método de decodificación descrito en la presente anterior, caracterizado porque realiza una decodificación de entropía relativa a al menos una - 9 -de las señales de alta frecuencia espacial al considerar un contexto temporal en base a la estimación de movimiento; uno de los parámetros explotado para el cálculo del contexto temporal siendo la paridad relativa a un componente del vector de movimiento. De acuerdo a una modalidad particular, el método de decodif i cación se caracteriza porgue un parámetro explotado para el cálculo del contexto es la parte fraccional relativa a un componente del vector de movimiento. Un sujeto adicional de la invención es un codificador de vídeo implement ado el método de codificación precedente, comprendiendo un circuito de análisis espacial que recibe una señal de vídeo y que suministra una señal de la frecuencia espacial más baja correspondiente a la resolución más baja y señales de alta frecuencia espacial para una o más resoluciones más altas, un circuito de estimación de movimiento para el cálculo de vectores de movimiento, caracterizado porque comprende un circuito para codificación de entropía ¦ de al menos una de las señales de alta frecuencia espacial considerando un contexto temporal basado en la estimación de un movimiento, - 10 -uno de los parámetros explotado para calcular el contexto temporal siendo la paridad relativa a un componente del vector de movimiento. Otro sujeto de la invención es un decodificador de vídeo de una imagen, dentro de una secuencia de imágenes, codificada de acuerdo al método de codificación descrito en la presente arriba, caracte izado porque comprende un circuito de decodificación de entropía implementando un algoritmo para el cálculo de un contexto temporal basado en la estimación de movimiento, uno de los parámetros explotado para el cálculo del contexto temporal siendo la paridad relativa a un componente del vector de movimiento. El método permite la redundancia temporal de las transformaciones espaciales de las imágenes sucesivas, en particular de las altas frecuencias, para explotarse mejor, mientras que al mismo tiempo se mantiene la e s c al abí 1 i dad espacial del movimiento y de la textura. Gracias a la descripción de muí i - resolución del movimiento, el desempeño de compresión en términos de velocidad-calidad, para cada resolución de la escalabilidad espacial, se mejora. La calidad objetiva y visual del vídeo - 11 -decodificado también se mejora gracias al uso de redundancia temporal sin filtración o predicción, que son fuentes de ruido artefacto, por ejemplo, los efectos de bloques si la estimación de movimiento se lleva a cabo en bloques. Otras características y ventajes especiales de la invención serán aparentes a partir de la siguiente descripción, presentada a manera de ejemplo no limitante y con la referencia a las figuras anexas, que muestran: Figura 1, un esquema de codificación de acuerdo a la técnica anterior, Figura 2, un diagrama de bloques simplificado de un circuito de codificación de acuerdo a la invención, Figura 3, una cercanía temporal para un píxel (x, y) de una imagen actual, Figura 4, una cercanía temporal y espacial para un píxel (x, y) - Figura 5, dos cercanías temporales para un píxel (x, y) Figura 6, la cercanía espacial y temporal de un píxel (m, n) Figura 7, la paridad y la parte fraccional de los componentes del vector de - 12 -movimiento , Figura 8 un diagrama de bloques de un circuito de codificación de acuerdo a la invención . Un circuito de codificación implementando el método de codificación de acuerdo a la invención se muestra en la figura 2. El caso, a pesar de no ser limitante, de una descomposición en ondas pequeñas es elegido. La fuente de vídeo se transmite a una circuito de análisis espacial 2D, con la referencia 7, que por lo tanto es un circuito de descomposición de ondas pequeñas. Realiza una descomposición espacial para suministrar coeficientes de sub-banda de varias resoluciones espaciales. Una primer salida que suministra los coeficientes de resolución más baja se conecta a un circuito de análisis temporal 8. Las otras salidas correspondientes a los coeficientes de sub-banda de resolución más alta se conectan a las entradas de un circuito de codificación aritmética explotando el contexto espacio-temporal compensado por movimiento o circuito C-STAC (Codificación Aritmética Espacio-Temporal Compensada por Movimiento) . El circuito de análisis temporal 8 - 13 -se conecta a una codificación aritmética a base de contexto o circuito CAE 9. Las salidas del circuito MC-STAC corresponden a las diversas resoluciones . Iniciando a partir de una imagen de video, el circuito de descomposición de onda pequeña espacial 2D genera imágenes de coeficiente de onda pequeña o sub- imágenes , cada una correspondiente a una banda de frecuencia espacial dada, hasta que la resolución más baja aceptada por la decodificación se alcanza. La imagen se descompone en banda base o banda baja (LL) y en bandas altas (LH, HL , HH) , dentro del dominio espacial . Solamente las imágenes correspondientes a la banda base se procesan por el circuito de análisis temporal 8. La señal de resolución espacial más baja (LL) , que viene del circuito de análisis espacial 7, es por lo tanto, transmitida al circuito de análisis temporal 8. Este circuito realiza una estimación de movimiento después una filtración temporal compensada por movimiento también denominada MCTF . El análisis temporal consiste en la generación de imágenes intermedias de las imágenes recibidas en la frecuencia de - 14 -entrada para obtener una escalabil idad temporal. Tal circuito analizador es, por ejemplo, del tipo MC-avance, explicado abajo. La filtración temporal consiste, por ejemplo, en la substracción de la imagen actual de una imagen predicha de una imagen precedente compensada por movimiento. Las imágenes diferentes a aquellas correspondientes a la banda base se procesan por la codificación aritmética de contexto espaciótemporal compensada por movimiento o circuito MCSTAC 10. Sin embargo, estas sub-bandas, requeridas para la reconstrucción de las resoluciones sucesivas hasta la resolución original, no son adecuadas para una filtración convencional o técnica de predicción temporal y por lo tanto se codifican inmediatamente de manera aritmética. Con objeto de hacer uso de la redundancia temporal residual, esta enlaza las altas frecuencias espaciales sucesivas, esta etapa de codificación aritmética contextual adaptable incluye el uso de información de movimiento como se explica a continuación. La distribución de los coeficientes de onda pequeña de una alta frecuencia espacial es como sigue: áreas conectadas grandes de ceros, o - 15 -de coeficientes de baja amplitud, que corresponden a las regiones uniformes de la imagen, se separan por los contornos, que son curvas convenc ionalmente continúas, a lo largo de las cuales la amplitud de los coeficientes varía rápidamente, a medida que hace su señal. De acuerdo con lo anterior, los datos del contexto espacial, que se difunden en los esquemas existentes, permite que la amplitud y la señal de los coeficientes se codifiquen para volverse más probables, por lo tanto la entropía de la sub-banda a reducirse y la proporción de compresión a incrementarse. Un algoritmo operacional para codificación aritmética contextual en base al contexto espacial es, por ejemplo, descrito en el artículo por G. Langdon y J. Rissanen titulado "Compression of black-white images with arithmetic coding" , IEEE Transactions on Communications, vol . 29, n. 6, pp. 858-867, Junio 1981. Esta codificación aritmética es contextual debido a que la estimación y el uso de tablas de probabilidad, en lugar de ser globales para la totalidad de la señal, dependen del contexto, en otras palabras se adaptan localmente de acuerdo a una clasificación de las configuraciones posibles de la cercanía. - 16 - Esta clase de codificación se adecúa bien a las coeficientes de codificación de alta frecuencia de un D T o DCT espacial, ya que toma ventaja de la correlación espacial, local, residual. Los diversos contextos se determinan usualmente por una combinación de los valores posibles de las cercanías inmediatas. La codificación aritmética es adaptable debido a que la estimación de las estadísticas se llevan a cabo por un proceso de aprendizaje, durante el proceso de codificación, iniciando de un valor de inicialización . La implementación de la dimensión temporal del contexto, de acuerdo con los métodos conocidos, no es un proceso muy eficiente. A pesar de la abundancia más alta de información que para un contexto estrictamente espacial, los datos de los coeficientes dirigidos por el vector de movimiento pueden conducirse mal para la fase de aprendizaje de estadísticas perteneciente al fenómeno de varianza de cambio que se ha evocado en la presente arriba. Dependiendo de las dinámicas de la variación espacial, el desplazamiento y la longitud del filtro espacial, la onda pequeña o coeficientes DCT de un patrón de píxel y su transformación, en principio, tendrán - 17 -amplitudes diferentes y una señal diferente. Si el desplazamiento es por un número par de pixeles totales, la transformación estará 'en fase'; si el desplazamiento es por un número impar de pixeles totales, la transformación será 'oposición en fase', etc. Este razonamiento puede seguirse cualquiera que sea la precisión del sub-pixel del movimiento estimado. Esta es la información discriminante que se propone atacar, en una manera innovadora, al contexto espacio- temporal , para permitir la evaluación de las estadísticas de la sucesión de altas frecuencias para mejor cobertura hacia su distribución condicional. El planteamiento propuesto consiste en utilizar una codificación de entropía contextual, en donde el contexto incluye un contexto temporal. La codificación de entropía y la codificación aritmética permiten una longitudi promedio de código debajo de un bit a utilizarse para valores altamente probables. Un punto de codificación de entropía esencial es la determinación de tablas de probabilidad caracterizando las estadísticas de la señal a codificarse . Antes que nada, la composición de una - 18 -tabla de probabilidad adaptable, considerando, por ejemplo, el contexto espacial, se volverá a llamar brevemente. El caso de una codificación de plano de bits se considerará. En este caso, los valores considerados en la codificación y el contexto son valores binarios : 0 o 1. Los valores de los pixeles que rodean el pixel actual y que se han procesado, por ejemplo las tres cercanías más próximas, se consideran. Por lo tanto, una lista de 23=8 diferentes contextos está disponible. Con cada contexto se asocia una tabla de probabilidades. Estas tablas de probabilidad son adaptables, en otras palabras se actualizan en el curso del proceso de codificación, de acuerdo a los valores de los coeficientes procesados . El algoritmo de codificación opera al correr a través de los coeficientes de la imagen en un orden predefinido. En cada etapa del proceso, un contexto se caracteriza por su número de ocurrencia hasta el momento en cuestión, junto con el número de veces, entre otras ocurrencias, en donde el valor 1 (o 0) se encuentra. De acuerdo con lo anterior, durante la codificación de un bit actual relativo a un plano de bits de un elemento dado, si el contexto - 19 -de este elemento es Cj , el número de ocurrencias relativas a Cj se incrementa y el número de veces donde el valor 1 se encuentra se incrementa si el valor del bit es 1.. La probabilidad de obtener un 'cero' o un 'uno' en el contexto Cj se calcula en la siguiente manera: La probabilidad de obtener un cero (po) es igual al número de ceros encontrados para el contexto dado dividido por el número total de ocurrencias de este contexto. De esta manera, el bit actual x en el contexto Cj se codifica conociendo la - probabilidad px de este bit en el contexto Cj . Por lo tanto, se propone operar una codificación de entropía al utilizar varias estadísticas de la señal y las tablas de probabilidad como una función del contexto espacio- temporal . La imagen predicha se denota Iprec Y la imagen actual a codificarse se denota ICur- Estas imágenes no son necesariamente imágenes de luminancia; puede ' ser imágenes de coeficiente de onda pequeña, imágenes de campo de movimiento, etc . Estas imágenes tienen respectivamente la referencia 12 y 11 en la figura 3, que representa - 20 -una cercanía temporal de un píxel (x, y) de una imagen actual. En cada píxel (x, y) de esta imagen actual, el valor de datos a procesarse se codificará como una función de su cercanía temporal. Esta cercanía temporal corresponde a los valores de datos de la imagen precedente, localizada en la- cercanía del píxel desplazado (pdx, pdy) con la referencia 14, en otras palabras dirigidos por el vector de movimiento del píxel (x, y) con la referencia 13 en esta figura 3. El contexto temporal, denotado C(pdx, pdy) , es una función de los datos de la cercanía temporal. Con objeto de resaltar las notaciones, C(pdx, pdy) , se denotará C en la siguiente descripción. De acuerdo al número k de coeficientes considerados en el contexto temporal, una lista de 2k contexto estará disponible. Para cada contexto, una tabla de probabilidades se define en una manera adaptable, en la misma manera como se describe en el caso de un contexto temporal . Es por su puesto posible utilizar diferentes campos · de movimiento para diferentes planos de bits, al explotar, por ejemplo, una descripción fuerte del movimiento para el primer - 21 -de bits, una versión más refinada para el segundo plano de bits, y así sucesivamente. El uso de un contexto temporal puede combinarse con el uso de un contexto espacial . Si el número de coeficientes formando el contexto espacial se denota j , y k el número de coeficientes formando el contexto temporal, una lista de 2j+k contextos está entonces disponible. La figura 4 ilustra una cercanía temporal 14 definida utilizando un vector de movimiento 13 asociado con el píxel (x, y) de coordenadas (x, y) y combinado con una cercanía espacial 15 alrededor de este píxel (x, y) . De acuerdo al mismo principio, el uso de más de un contexto temporal puede idearse, en una manera similar a la predicción utilizando varias imágenes de referencia, tal como se utiliza en los estándares MPEG con las imágenes bi-direccionales . La figura 5 muestra una imagen precedente y una siguiente imagen alrededor de la imagen actual . El vector de movimiento de avance (como en el estándar MPEG) 13 permite a la cercanía temporal 14 relativa a la imagen precedente Iprec definirse y el vector de movimiento hacia atrás 16 permite a la cercanía temporal 17 relativa a la siguiente - 22 -imagen I futura definirse. Uno de los aspectos más importantes de la invención se refiere al tipo de parámetros explotados con objeto de definir el contexto espacio- temporal . El fenómeno de 'varianza de cambioO, descrito en la presente arriba, tiende a * desorientar ' un código aritmético contextual .
Con objeto de que esa adaptación de las tablas de probabilidad no sufran a partir de este fenómeno, los parámetros que son determinantes de la 'varianza de cambio' se incorporan en el valor de datos de contexto. Los parámetros considerados, por lo tanto, son todos o una parte de los siguientes parámetros : una cercanía espacial de un número dado de coeficientes, una cercanía temporal compensada por movimiento de coeficientes de otra, ya codificada, muestra temporal de la sub-banda espacial que se considera , la paridad de al menos uno de los componentes del desplazamiento en la dirección de filtración de paso alto de la sub-banda espacial que se considera, - 23 - la parte fraccional de al menos uno de los componentes del desplazamiento en la dirección de la filtración de paso alto de la sub-banda espacial que se considera. La paridad de la parte entera del desplazamiento permite el caso en donde las cercanías, temporal y espacial, están en fase y en oposición en fase para distinguirse, la parte fraccional del desplazamiento permite que esta información en 'cambio de fase' inducida por el desplazamiento se dirija. Por último, para estos parámetros, es ventajoso que solamente el componente en la dirección de filtración de paso alto se considere, ya que este es el componente discriminante. Este será el componente vertical para la sub-banda de detalles horizontales (LH) y el componente horizontal de la sub-banda de detalles verticales (HL) . La sub-banda de detalles diagonales (HH) es un caso especial en que posee dos direcciones de filtración, respectivamente orientadas a +45° y -45°. Para esta banda, los dos componentes pueden considerarse simultáneamente, lo que incrementa el número de contextos, o alternativamente, con objetivo de limitar este número, ¦ funciones de los - 24 -parámetros de ambos componentes pueden utilizarse. De esta manera, la amplitud del desplazamiento puede por ejemplo, considerarse, o más simplemente, la suma de los dos componentes o, alternativamente, solamente aquella con la amplitud más alta retenerse. Para la amplitud de desplazamiento, la paridad se refiere a la distancia diagonal entre dos pixeles de cercanía. La figura 6 muestra un ejemplo de cercanía espacio- temporal en el caso de un número restringido de coeficientes de cercanía para cada contexto y de una precisión de movimiento razonable de un cuarto de un píxel . La cercanía espacial 18 de un coeficiente actual (m, n) situado en la fila m y la columna n de la imagen actual, mostrada en gris, corresponde a tres coeficientes de cercanía previamente procesados Lcur, Ucur y Dcur . La cercanía temporal 20 corresponde a los cuatro coeficientes Xref , ?Ge£_ Rref , y Dref designados por el vector de movimiento 19 señalando la imagen de referencia. El coeficiente Xref se sitúa en la fila m+k y la columna n+1. La figura 7 muestra los parámetros relativos a los componentes del vector de - 25 -desplazamiento. La graduación de los ejes, en el sistema coordinado ortonormal 21, corresponde a un cuarto de la distancia entre dos pixeles. La paridad se refiere a los componentes del vector de movimiento. La rejilla de sobre-muestreo alrededor del final del vector de movimiento permite la determinación de las partes fracciónales correspondientes, Fractdx=dl y una fracción de 2 cuartos en la dirección horizontal y de un cuarto en la dirección vertical en el ejemplo en la figura 6. dx = 1+dl es el componente horizontal del vector, dy = k+dk es el componente vertical del vector . Las paridades de los componentes horizontales y verticales son Parx = 1 mod2 y Pary = k mod2 , respectivamen e. Los coeficientes están en fase o en oposición de fase de acuerdo a si existe o no paridad. Los coeficientes de onda pequeña se codifican en planos de bits. Para cada plano de bits, el significado del coeficiente L, U y D, junto con aquel de los coeficientes X, B, R y D se determina. Esto se logra al medir si el valor de un coeficiente es mayor que el valor - 26 - correspondiente al peso del bit relativo al plano que se procesa. El fraccionamiento e información de paridad también se registra. Los contextos pueden por lo tanto indicarse con la siguiente corriente de datos binarios: Las partes fracciónales se codifican cada una sobre 2 bits (0 a 3 cuartos de un píxel), los otros parámetros sobre 1 bit. Los parámetros de f accionamiento y paridad de varios vectores pueden por supuesto considerarse, en el caso donde más de un vector de movimiento se asocia con un coeficiente o un píxel, por ejemplo, cuando varias imágenes de referencia se explotan. Esta estimación de movimiento del circuito de análisis temporal 8 se realiza en una manera convencional sobre las bandas de baja frecuencia transmitidas a la entrada de este circuito. El método de estimación de movimiento (ME) implementado por el circuito ME-MCSTAC 10 puede llevarse a cabo de acuerdo a los diversos planteamientos, por ejemplo: - estimación de movimiento sobre bandas - 27 -de ba a frecuencia sucesivas, estimación de movimiento directamente sobre las bandas de alta frecuencia. El primer caso es el más simple de implementar. En cada etapa en la descomposición espacial, un campo de movimiento se estima sobre la ba a frecuencia, antes de que el último se corte de nuevo en cuatro sub-bandas. Como la fuente puede entonces relacionarse con el dominio de píxel , esta estimación puede llevarse a cabo en una manera convencional por minimi zación del error de predicción. El movimiento es entonces coherente en resolución debido a que tiene las dimensiones de las tres bandas de alta frecuencia a codificarse con MC-STAC, y sin embargo, contiene la información de desplazamiento a la resolución deseada . De esta manera, el movimiento estimado en, por ejemplo, la resolución CIF se utiliza para codificar las tres bandas de detalles horizontales, verticales y diagonales con MC-STAC que se utilizan para ir de la resolución CIF a SD . En una manera similar, el movimiento estimado en la resolución QCIF, además de servir como un - 28 -soporte para MCTF convencional para la secuencia en la resolución QCIF, permite que las tres bandas de detalles horizontales, verticales y diagonales, que se utilizan para ir de QCIF a resolución CIF, se codifiquen con MC-STAC. Como se observará abajo, la figura 9 describe un codificador que explota esta solución. También puede ser deseable tener un campo de movimiento más dedicado a la aplicación MC-STAC. El movimiento en cada banda de alta frecuencia a codificarse entonces necesita estimarse; este es el segundo caso. Ya que las frecuencias altas contienen menos información que las frecuencias bajas, es razonable pensar que los campos estimados sobre las altas frecuencias son menos costosos que aquellos estimados sobre la baja frecuencia. Sin embargo, debido al fenómeno de varianza de cambio descrito en la presente arriba, los criterios utilizados para la estimación puede no consistir más de una simple minimización DFD . El criterio elegido es la minimización de la entropía condicional asociado implícitamente con MCSTAC. Tal criterio corresponde a una elección retrospectiva de vector, y puede ser muy costoso en términos de - 29 -recursos y comple idad. Sin embargo, esto por supuesto es el criterio óptimo. Otro criterio es la minimización de la diferencia en los valores absolutos. Esto es un criterio muy simple que permite que se supere un primer obstáculo de la varianza de cambio. Estas estimaciones de movimiento también pueden efectuarse en planos de bit. El circuito de análisis temporal 8 se basa, en un ejemplo, en una técnica conocida llamada MC-Avance o Avance Compensado por Movimiento, con objeto de obtener imágenes con las resoluciones temporales deseadas. MC-Avance consiste en construir, para un grupo de imágenes, varios niveles de resolución temporal. Para resolución temporal, excepto para la primera, las imágenes se construyen por predicción temporal iniciado a partir de las imágenes de la resolución temporal inferior. La figura 8 describe, en una manera más detallada, un dispositivo que implementa el método de acuerdo a la invención. La entrada de vídeo del codificador se conecta a un circuito de transformación de onda pequeña 2D (2dWT)22 que suministra la banda baja - 30 - LL y las altas bandas LH, HL y HH en su entrada. La banda baja LL se conecta a un segundo circuito de transformación de onda pequeña 2D 23 y a un circuito ME de estimación de movimiento 24. Las bandas altas LH , HL y HH se conectan a un circuito MC-STAC 25. El segundo circuito de transformación de onda pequeña 2D 23 suministra la banda baja LLL en una salida y las bandas altas LLLH, LLHL, y LLHH en las otras salidas. La banda baja LLLL se conecta a un circuito MCTF 26 y un circuito ME de estimación de movimiento 27. Las bandas altas se conectan a un segundo circuito MC-STAC 28. La información de movimiento del circuito ME 24 se transmite al circuito MC-STAC 25 y la información de movimiento del circuito ME 27 se transmite al circuito MCTF 26 y al circuito MC-STAC 28. Las salidas de los circuitos MC-STAC 25 y 28 suministran las texturas en las resoluciones CD y CIF. Las salidas de los circuitos ME 24 y 27 se conectan respectivamente a los circuitos para codificar el campo de movimiento 29 y 30 que suministran la información de movimiento SD para el circuito 29, información de movimiento QCIF y CIF para el circuito 30. La salida del circuito - 31 - MCTF 26 se conecta a un circuito CAE de codificación aritmético en base al contexto 31 que realiza una codificación de entropía para suministrar la textura codificada de resolución QCIF en su salida. De acuerdo con lo anterior, la señal de entrada de vídeo experimenta una descomposición de onda pequeña piramidal por el circuito 22 después el circuito 23. Las estimaciones de movimiento, como se indica arriba, se realizan sobre las bandas bajas. La estimación de movimiento calculada sobre una banda baja de resolución espacial dada se explota por los circuitos MC-STAC de codificación aritmética de contexto espacio-temporal compensado por movimiento que codifican las altas bandas de resolución correspondientes a esta banda baja. La banda base LLLL se procesa en una manera convencional por el circuito MCTF 26 que realiza una filtración temporal compensada por movimiento . Los métodos de decodificación y circuitos implementando la invención corresponde a los métodos de codificación y circuitos previamente descritos . - 32 - De esta manera, el método de decodificación calcula un contexto al basarse en la información en la corriente de datos codificados de acuerdo al método de codificación descrito. Esta información, ya decodificada durante el procesamiento del coeficiente actual, permite que las listas de contextos se calculen y actualicen continuamente, para los diversos parámetros elegidos en la codificación, para el cálculo de este coeficiente. El circuito de decodificación de entropía implementa un algoritmo para calcular las tablas de probabilidad y el contexto de acuerdo con el método previo. La codificación descrita es una codificación de plano de bits, por lo tanto, binario. Explotando una codificación N-aria, en otras palabras realizando la codificación simultánea de N planos de bits, puede también contemplarse. Por lo tanto, en lugar de un valor binario, aquel del plano de bits, los contextos explotados consideran el valor N-ario que comprende N bits. La lista de los diferentes contextos que resultan de esto es larga, incrementando el número de cálculos, pero la - 33 -eficiencia de codificación se mejora. La descripción se refiere a un esquema 'completamente escalable', en otras palabras un esquema que, al mismo tiempo, es escalable espacial, temporalmente y en fidelidad, permitiendo que cualquier decodifi cador explote la corriente de codificación. Otra clase de esquema, por ejemplo, que no tiene escalabilidad temporal, aún entrarla dentro del campo de la invención. La codificación de entropía utilizando el contexto temporal se describe solamente sobre las altas frecuencias espaciales, ya que las bajas frecuencias espaciales conducen ellas mismas a una filtración temporal iniciando a partir de un imagen predicha. La aplicación de tal codificación de entropía sobre todas las frecuencias espaciales de la señal puede por supuesto contemplarse, sin apartarse del campo de la invención. De manera similar, la estimación de movimiento puede llevarse a cabo sobre la banda base o en la imagen de fuente. La paridad se calcula en la parte entera del componente. Podría también calcularse en el valor entero más próximo. - 34 - La codificación de entropía descrita es una codificación aritmética. El método de acuerdo con la invención también puede aplicarse a otros tipos de codificación de entropía explotando las propiedades estadísticas de la señal, por ejemplo, una codificación del tipo VLC . Las aplicaciones de la invención se refieren a compresión de video con predicción temporal .

Claims (1)

  1. - 35 - REIVINDICACIONES 1. Método para codificar una imagen dentro de una secuencia de imágenes, comprendiendo una etapa (7, 22, 23) para análisis espacial de una imagen actual con objeto de suministrar una señal de baja frecuencia espacial y señales de alta frecuencia espacial y realizar una estimación de un movimiento entre un tiempo corriente que corresponde a la imagen actual (11) y un tiempo de referencia que corresponde a una imagen de referencia (12) con objeto de suministrar un vector de movimiento (13) , también comprendiendo una etapa de codificación de entropía (10, 25, 28) de al menos una de las señales de alta frecuencia espacial relativa a la imagen actual al considerar un contexto temporal (14, 17, 20) basado en la estimación de un movimiento, uno de los parámetros explotado para el calculo del contexto temporal siendo la paridad (21) relativa a un componente del vector de movimiento. 2. Método de acuerdo a la reivindicación 1, caracterizado porque uno de los parámetros explotado para el cálculo del contexto temporal es la parte fraccional (21) relativa a un componente del vector de movimiento. - 36 - 3. Método de acuerdo a la reivindicación 1, caracte izado porque para una señal de alta frecuencia espacial, el componente considerado es aquel en la dirección de la filtración espacial de paso alto. 4. Método de acuerdo a la reivindicación 1, caracterizado porque el contexto temporal (14, 17, 20) se combina con un contexto espacial (15, 18} . 5. Método de acuerdo a la reivindicación 1, caracterizado porque el contexto temporal (14, 17, 20) se basa en más de una estimación de movimiento (13, 16) utilizando más de una imagen de referencia (14, 17) . 6. Método de acuerdo a la reivindicación 1, caracterizado porque la codificación de entropía es una codificación aritmética. 7. Método de acuerdo a la reivindicación 6, carac erizado porque la codificación aritmética es una codificación por plano de bits y porque el contexto temporal corresponde al plano de bits del mismo nivel en la imagen de referencia temporal. 8. Método de acuerdo a la reivindicación 6, caracterizado porque la codificación aritmética es una codificación N-aria y porque el contexto - 37 -temporal corresponde a planos de N bits del mismo nivel en la imagen de referencia temporal . 9. Método de acuerdo a la reivindicación 1, caracterizado porque la estimación de movimiento (24, 27) se lleva a cabo utilizando una de las señales suministradas por el análisis espectral . 10. Método de acuerdo a la reivindicación 7, caracterizado porque . la estimación de movimiento (24, 27) se realiza por plano de bits y porque el contexto temporal, para un plano de bits, se basa en la estimación de movimiento sobre dicho plano de bits. 11. Método de acuerdo a la reivindicación 1, caracterizado porque el análisis espacial es una transformación de onda pequeña. 12. Método para decodif icar una imagen dentro de una secuencia de imágenes, codificada de acuerdo al método de codificación de la reivindicación 1, que comprende una etapa de decodificación de entropía relativa a al menos una de las señales de alta frecuencia espacial al considerar un contexto temporal (14, 17, 20) basando en la estimación de movimiento, uno de los parámetros explotado para el calculo del contexto - 38 -temporal siendo la paridad (21) relativa a un componente del vector de movimiento. 13. Método de decodificación de acuerdo a la reivindicación 12, caracterizado porgue uno de los parámetros explotado para el cálculo del contexto temporal es la parte fraccional (21) relativa a un componente del vector de movimiento. 14. Codificador de vídeo impl ement ando el método de codificación de acuerdo a la reivindicación 1 que comprende un circuito de análisis espacial (7, 22, 23) que recibe una señal de vídeo y suministrando una señal de la frecuencia espacial más baja correspondiente a la resolución más baj y señales de alta frecuencia espacial para una o más resoluciones más altas, un circuito de estimación de movimiento para el cálculo de vectores de movimiento, también comprendiendo un circuito para codificación de entropía de al menos una de las señales de alta frecuencia espacial considerando un contexto temporal (14, 17, 20) basado en la estimación de un movimiento, uno de los parámetros explotado para el cálculo del contexto temporal siendo la paridad (21) relativa a un componente del vector de movimiento. - 39 - 15. Decodificador de video para una imagen, dentro de una secuencia de imágenes, codificada de acuerdo al método de la reivindicación 1, comprendiendo un circuito de decodif cación de entropía implement ando un algoritmo para el cálculo de un contexto temporal basado en la estimación de movimiento, uno de los parámetros explotado para el cálculo del contexto temporal siendo la paridad (21) relativa a un componente del vector de movimiento.
MXPA05009483A 2003-03-06 2004-02-26 Metodo para codificar una imagen de video considerando la parte relativa a un componente de un vector de movimiento. MXPA05009483A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0302840A FR2852179A1 (fr) 2003-03-06 2003-03-06 Procede de codage d'une image video
PCT/FR2004/050084 WO2004082293A1 (fr) 2003-03-06 2004-02-26 Procede de codage d'une image video prenant en compte la partie relative a une composante du vecteur de mouvement

Publications (1)

Publication Number Publication Date
MXPA05009483A true MXPA05009483A (es) 2006-05-25

Family

ID=32865329

Family Applications (1)

Application Number Title Priority Date Filing Date
MXPA05009483A MXPA05009483A (es) 2003-03-06 2004-02-26 Metodo para codificar una imagen de video considerando la parte relativa a un componente de un vector de movimiento.

Country Status (8)

Country Link
US (1) US9628819B2 (es)
EP (1) EP1600003B1 (es)
JP (1) JP4438797B2 (es)
KR (1) KR101010420B1 (es)
CN (1) CN100534182C (es)
FR (1) FR2852179A1 (es)
MX (1) MXPA05009483A (es)
WO (1) WO2004082293A1 (es)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100949402B1 (ko) * 2003-02-21 2010-03-24 닛본 덴끼 가부시끼가이샤 화상 데이터 분배 시스템, 장치, 및 방법
US20050201468A1 (en) * 2004-03-11 2005-09-15 National Chiao Tung University Method and apparatus for interframe wavelet video coding
WO2006098586A1 (en) * 2005-03-18 2006-09-21 Samsung Electronics Co., Ltd. Video encoding/decoding method and apparatus using motion prediction between temporal levels
KR100763179B1 (ko) 2005-04-01 2007-10-04 삼성전자주식회사 비동기 픽쳐의 모션 벡터를 압축/복원하는 방법 및 그방법을 이용한 장치
WO2006104357A1 (en) * 2005-04-01 2006-10-05 Samsung Electronics Co., Ltd. Method for compressing/decompressing motion vectors of unsynchronized picture and apparatus using the same
JP2007028393A (ja) * 2005-07-20 2007-02-01 Matsushita Electric Ind Co Ltd 双方向予測符号化ピクチャの直接モードブロックの動きベクトルを求める方法
JP4826546B2 (ja) 2007-06-18 2011-11-30 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
FR2954035B1 (fr) * 2009-12-11 2012-01-20 Thales Sa Procede d'estimation de la qualite video a une resolution quelconque
EP2769544A4 (en) 2011-10-21 2015-12-23 Nokia Technologies Oy VIDEO ENCODING METHOD AND APPARATUS
US9571833B2 (en) 2011-11-04 2017-02-14 Nokia Technologies Oy Method for coding and an apparatus
US10554977B2 (en) * 2017-02-10 2020-02-04 Intel Corporation Method and system of high throughput arithmetic entropy coding for video coding

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0671368B2 (ja) 1988-07-19 1994-09-14 株式会社クボタ 田植機の泥圧検出装置
JP2631746B2 (ja) 1989-06-16 1997-07-16 新東工業株式会社 集塵袋詰め装置
US5748786A (en) 1994-09-21 1998-05-05 Ricoh Company, Ltd. Apparatus for compression using reversible embedded wavelets
US6195465B1 (en) 1994-09-21 2001-02-27 Ricoh Company, Ltd. Method and apparatus for compression using reversible wavelet transforms and an embedded codestream
US6049362A (en) * 1996-02-14 2000-04-11 International Business Machines Corporation Dual prime motion estimation system and method
EP0797348A3 (en) 1996-03-22 1999-01-20 Hewlett-Packard Company A one dimensional context model for entropy encoding digital halftone images with arithmetic coding
US6188795B1 (en) 1996-06-13 2001-02-13 Dublin City University Data compression
US5748116A (en) 1996-11-27 1998-05-05 Teralogic, Incorporated System and method for nested split coding of sparse data sets
US5959560A (en) 1997-02-07 1999-09-28 Said; Amir Data compression via alphabet partitioning and group partitioning
US7003168B1 (en) 1997-03-11 2006-02-21 Vianet Technologies, Inc. Image compression and decompression based on an integer wavelet transform using a lifting scheme and a correction method
JP3464767B2 (ja) 1998-12-29 2003-11-10 ソニー株式会社 ウェーブレット復号装置及び方法
US20020141499A1 (en) 1999-02-04 2002-10-03 Goertzen Kenbe D. Scalable programmable motion image system
JP2000295618A (ja) 1999-03-08 2000-10-20 Texas Instr Inc <Ti> 埋込み型ゼロトリーパターン及びビットプレーンを使用する画像符号化方法
EP1114555A1 (en) 1999-07-20 2001-07-11 Koninklijke Philips Electronics N.V. Encoding method for the compression of a video sequence
JP4545980B2 (ja) 2000-05-11 2010-09-15 キヤノン株式会社 符号化装置及び符号化方法並びに記憶媒体
AU2002228884A1 (en) 2000-11-03 2002-05-15 Compression Science Video data compression system
JP2002223446A (ja) 2001-01-26 2002-08-09 Ricoh Co Ltd 画像圧縮装置および画像撮像装置
GB2392338B (en) 2001-03-13 2005-10-05 Loronix Information Systems In Data compression by reducing redundancy
US6832005B2 (en) 2001-03-23 2004-12-14 Microsoft Corporation Adaptive encoding and decoding of bi-level images
KR100783396B1 (ko) * 2001-04-19 2007-12-10 엘지전자 주식회사 부호기의 서브밴드 분할을 이용한 시공간 스케일러빌러티방법
EP1404133A4 (en) 2001-06-29 2010-04-21 Ntt Docomo Inc IMAGE ENCODER, IMAGE DECODER, IMAGE ENCODING METHOD, AND IMAGE DECODING METHOD
US6944225B2 (en) * 2001-07-24 2005-09-13 Sharp Laboratories Of America, Inc. Resolution-scalable video compression
CN1620815A (zh) 2002-01-22 2005-05-25 皇家飞利浦电子股份有限公司 无漂移的视频编码和解码方法以及相应的设备
US7321625B2 (en) * 2002-12-13 2008-01-22 Ntt Docomo, Inc. Wavelet based multiresolution video representation with spatially scalable motion vectors
FR2886787A1 (fr) * 2005-06-06 2006-12-08 Thomson Licensing Sa Procede et dispositif de codage et de decodage d'une sequence d'images

Also Published As

Publication number Publication date
CN100534182C (zh) 2009-08-26
FR2852179A1 (fr) 2004-09-10
JP2006523396A (ja) 2006-10-12
CN1757238A (zh) 2006-04-05
US9628819B2 (en) 2017-04-18
US20070189389A1 (en) 2007-08-16
KR101010420B1 (ko) 2011-01-21
EP1600003B1 (fr) 2017-12-06
JP4438797B2 (ja) 2010-03-24
KR20050106490A (ko) 2005-11-09
EP1600003A1 (fr) 2005-11-30
WO2004082293A1 (fr) 2004-09-23

Similar Documents

Publication Publication Date Title
CN1244232C (zh) 用于视频序列压缩的编码方法
Andreopoulos et al. In-band motion compensated temporal filtering
CN101039419B (zh) 用于对图像序列的视频数据进行编码的方法
US6931068B2 (en) Three-dimensional wavelet-based scalable video compression
US7042946B2 (en) Wavelet based coding using motion compensated filtering based on both single and multiple reference frames
US20060008000A1 (en) Fully scalable 3-d overcomplete wavelet video coding using adaptive motion compensated temporal filtering
CN1926876B (zh) 空间和时间可扩展编码的图像序列的编码和解码方法
JP2007526704A (ja) 階層化時間解析による画像系列の符号化及び復号化の方法
WO2003094524A2 (en) Scalable wavelet based coding using motion compensated temporal filtering based on multiple reference frames
CN1878304B (zh) 编码和解码图像序列的方法和设备
US9628819B2 (en) Method for coding a video image taking into account the part relating to a component of a movement vector
US20020186772A1 (en) Wavelet domain motion compensation system
Ye et al. Fully scalable 3D overcomplete wavelet video coding using adaptive motion-compensated temporal filtering
KR100901178B1 (ko) 동화상의 부호화 방법 및 장치, 그리고 동화상의 복호 방법및 장치
Padmanabhan et al. A proficient video encoding system through a novel motion estimation algorithm
André et al. (N, 0) motion-compensated lifting-based wavelet transform
Kim et al. Multiresolution motion compensation in the wavelet domain for scalable video coding
Zan et al. Wavelet filters in multi-resolution motion estimation
Gao et al. Adaptive in-band motion compensated temporal filtering based on motion mismatch detection in the highpass subbands
KR20070028720A (ko) 웨이블릿 패킷 변환 기반의 동영상 인코딩 시스템 및 방법
Redondo et al. Compression of volumetric data sets using motion-compensated temporal filtering
CN1706197A (zh) 使用自适应运动补偿时间滤波的完全可分级3-d过完整小波视频编码
JP2006503475A (ja) ドリフトのないビデオ符号化及び復号化方法、並びに対応する装置
Yang et al. Wavelet-based Video Coding for Real-Time Transmission

Legal Events

Date Code Title Description
FG Grant or registration