ES2301828T3 - Estimacion de movimiento con prediccion del peso. - Google Patents

Estimacion de movimiento con prediccion del peso. Download PDF

Info

Publication number
ES2301828T3
ES2301828T3 ES03764471T ES03764471T ES2301828T3 ES 2301828 T3 ES2301828 T3 ES 2301828T3 ES 03764471 T ES03764471 T ES 03764471T ES 03764471 T ES03764471 T ES 03764471T ES 2301828 T3 ES2301828 T3 ES 2301828T3
Authority
ES
Spain
Prior art keywords
reference image
image
images
compensation
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES03764471T
Other languages
English (en)
Inventor
Jill Macdonald Boyce
Alan Jay Stein
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Application granted granted Critical
Publication of ES2301828T3 publication Critical patent/ES2301828T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/197Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Un codificador de vídeo (300) para codificar datos de señales de vídeo destinados a un bloque de imágenes relacionado con al menos una determinada imagen de referencia, caracterizándose por el hecho de que el codificador comprende: un selector de factores de ponderación de imágenes de referencia (372) que tiene una salida indicativa de un factor de ponderación correspondiente al menos a dicha determinada imagen de referencia; un aplicador de factores de ponderación (374) en comunicación de señal con el selector de factores de ponderación de imágenes de referencia para aportar una versión ponderada de al menos dicha determinada imagen de referencia; y un estimador de movimientos (380) en comunicación de señal con el aplicador de factores de ponderación para aportar vectores de movimientos correspondientes a la versión ponderada de al menos dicha determinada imagen de referencia.

Description

Estimación de movimiento con predicción del peso.
Ámbito del invento
El presente invento tiene por objeto los codificadores y descodificadores de vídeo, y en particular la estimación de movimientos integrados con predicción del peso en codificadores y descodificadores de señal de vídeo.
Antecedentes del invento
Los datos de vídeo suelen tratarse y transferirse en forma de secuencias de bits. Gran parte de la eficacia compresiva de los codificadores y descodificadores ("CODEC") de compresión de señal de vídeo típicos se obtiene formando una predicción de una imagen de referencia correspondiente a la imagen que vaya a codificarse, y codificando la diferencia entre la imagen real y la predicción. El grado de proximidad logrado por la correlación entre la predicción y la imagen real es inversamente proporcional al número de bits necesarios para comprimir esa imagen, con el consiguiente incremento de la eficacia del proceso. Por tanto, es algo deseable para conseguir la mejor predicción posible de la imagen de referencia.
En muchas normas de compresión de señales de vídeo, entre ellas las MPEG-1, MPEG-2 y MPEG-4 del Moving Picture Experts Group (MPEG), se utiliza una versión con compensación de movimientos de una imagen de referencia anterior como predicción de la imagen real, y sólo se codifica la diferencia entre la imagen real y la predicción. Cuando se utiliza una predicción de imagen única (imagen "P"), la imagen de referencia no se escala al formarse la predicción con compensación de movimientos. Si se utilizan predicciones de imágenes bidireccionales (imágenes "B"), se forman predicciones intermedias a partir de dos imágenes diferentes y seguidamente se calcula el promedio conjunto de las dos predicciones intermedias, utilizando factores de ponderación iguales de (½, ½) para cada una, a fin de formar una sola predicción promedio. En estas normas MPEG, las dos imágenes de referencia siempre son una procedente de la dirección de avance y otra de la de retroceso para las imágenes B.
En US-5.436.665 se describe un dispositivo codificador que contiene un predictor adaptado para producir diversas señales predictivas a partir de una señal de imagen de baja resolución y de una señal de imagen de alta resolución; formándose la imagen de baja resolución mediante la reducción de la frecuencia de muestreo de la imagen de alta resolución y utilizándose la señal predictiva que minimiza un error de predicción para producir los datos codificados por el dispositivo codificador durante la predicción interfotogramas.
US-6.122.318 revela un dispositivo codificador de vídeo que codifica una señal de mapa alfanumérico como información subsidiaria relacionada con una imagen que contiene un objeto y un fondo, expresando la señal de mapa alfanumérico la forma de un objeto y su posición en un fotograma. El dispositivo codificador de vídeo codifica la señal de mapa alfanumérico utilizando codificación de direcciones relativas, y codifica un símbolo que representa una posición del siguiente píxel de cambio a codificarse respecto a un píxel de cambio de referencia mediante el uso de una tabla de codificación de longitud variable como el píxel de cambio ya codificado.
US-5.488.482 describe una grabadora de cintas de vídeo que registra y reproduce las señales de vídeo y sonoras en formato digital. Esta grabadora de cintas de vídeo contiene un dispositivo codificador de los datos digitales que, además de mejorar la compresión de los datos, aporta una gran calidad de imagen, con la consiguiente reducción del consumo de cinta de grabación, y hace posible una grabadora de cintas de vídeo compacta y liviana.
US 6 108 040 describe un método para detectar datos del vector de movimientos indicador del movimiento de una zona parcial de una imagen recibida desde cualquier zona de una imagen de referencia, calculándose como primer valor de la evaluación una primera distorsión entre una zona parcial constituida por campos de la imagen recibida y una zona parcial constituida por campos de la imagen de referencia; detectándose una posición de la zona parcial constituida por los campos de la imagen de referencia en la cual el primer valor de la evaluación se convierte en el valor mínimo detectado; configurándose una ventana de búsqueda en un fotograma de la imagen de referencia, basándose en una posición detectada de la zona parcial constituida por los campos de la imagen de referencia previamente detectada; calculándose como segundo valor de la evaluación una segunda distorsión entre una zona parcial constituida por un fotograma en la ventana de búsqueda configurada y una zona parcial constituida por un fotograma de la imagen recibida, y detectándose una posición de la zona parcial constituida por el fotograma de la imagen de referencia en la que el segundo valor de la evaluación se convierte en el valor mínimo.
Por tanto, los vectores de fotogramas pueden detectarse partiendo de las posiciones de detección de los vectores del campo, de manera que la cantidad de cálculos necesarios para recuperar vectores de fotogramas pueda reducirse notablemente sin degradar la precisión de la detección de los vectores de fotogramas.
Resumen del invento
Éstos y otros inconvenientes y desventajas de la tecnología actual se abordan con el presente invento, consistente en un codificador de vídeo que codifica datos de señales de vídeo para un bloque de imágenes relativo como mínimo a una determinada imagen de referencia según la reivindicación 1 y en un método de codificación de datos de señales de vídeo para un bloque de imágenes según la reivindicación 10.
Otras características del invento se describen en las reivindicaciones correspondientes.
Se aportan un codificador y un descodificador de vídeo que codifican y descodifican datos de señales de vídeo para un bloque de imágenes y un determinado índice de imágenes de referencia para predecir el bloque de imágenes, comprendiendo el codificador un selector de factores de ponderación de imágenes de referencia que tiene una salida indicativa de un factor de ponderación correspondiente al índice determinado de imágenes de referencia, un multiplicador en comunicación de señal con el selector de factores de ponderación de imágenes de referencia para aportar una versión ponderada de la imagen de referencia, y un estimador de movimientos en comunicación de señal con el multiplicador para aportar vectores de movimiento correspondientes a la versión ponderada de la imagen de referencia; y comprendiendo el correspondiente descodificador una unidad de factores de ponderación de imágenes de referencia con una salida para determinar un factor de ponderación correspondiente al índice determinado de imágenes de referencia.
Un método correspondiente codificador de datos de vídeo para un bloque de imágenes comprende la recepción de un bloque de imágenes sustancialmente sin comprimir, la asignación de un factor de ponderación para el bloque de imágenes correspondiente a una determinada imagen de referencia, la ponderación de la imagen de referencia por el factor de ponderación, el cálculo de los vectores del movimiento correspondiente a la diferencia entre el bloque de imágenes y la imagen de referencia ponderada, la compensación de movimientos de la imagen de referencia ponderada en correspondencia con los vectores del movimiento, el refinamiento de la selección del factor de ponderación en respuesta a la imagen de referencia ponderada y de movimientos compensados, la compensación de los movimientos de la imagen de referencia sin ponderar original en correspondencia con los vectores del movimiento, la multiplicación de la imagen de referencia original y de movimientos compensados por el factor de ponderación asignado para formar una imagen de referencia de movimientos compensados y ponderada, la sustracción de la imagen de referencia de movimientos compensados y ponderada del bloque de imágenes sustancialmente sin comprimir, y la codificación de una señal indicativa de la diferencia entre el bloque de imágenes sustancialmente sin comprimir y la imagen de referencia de movimientos compensados y ponderada.
Éstos y otros aspectos, características y ventajas del presente invento se desprenderán de la siguiente descripción de ejemplos de formas de realización, que debe leerse junto con los dibujos que la acompañan.
Breve descripción de los dibujos
El presente invento incorpora la estimación de movimientos integrados con la predicción de ponderaciones en codificadores y descodificadores de vídeo, según los ejemplos de las figuras siguientes, en las que:
La figura 1 presenta un esquema funcional de un codificador normal de vídeo;
La figura 2 presenta un esquema funcional de un codificador de vídeo con ponderación de las imágenes de referencia;
La figura 3 presenta un esquema funcional de un codificador de vídeo con estimación de movimientos integrados y predicción de ponderaciones según los principios del presente invento;
La figura 4 presenta un esquema funcional de un descodificador normal de vídeo;
La figura 5 presenta un esquema funcional de un descodificador de de vídeo con bipredicción adaptativa;
La figura 6 presenta un diagrama de flujo de un proceso codificador según los principios del presente invento; y
La figura 7 presenta un diagrama de flujo de un proceso descodificador según los principios del presente invento.
Descripción detallada de las formas de realización preferentes
Se aporta un proceso eficaz para la estimación de vectores de movimientos integrados y la selección adaptativa de factores de ponderación de imágenes de referencia. Se utiliza un proceso iterativo consistente en estimar y utilizar un factor de ponderación inicial en el proceso de estimación de movimientos. La estimación del factor de ponderación se refina basándose en los resultados del proceso de estimación de los movimientos. Cuando se utilizan factores de ponderación para codificar, un codificador de vídeo determina tanto los factores de ponderación como los vectores de los movimientos, si bien la mejor opción para cada uno de ellos depende del otro. Normalmente, la estimación de los movimientos es la parte del codificador de compresión de señales de vídeo digitales que requiere más
cálculos.
En algunas secuencias de señales de vídeo, sobre todo si hay desvanecimiento, la imagen real o el bloque de imágenes a codificar presenta una correlación más fuerte con una imagen de referencia modificada por un factor de ponderación que con la propia imagen de referencia. Los CODEC de señales de vídeo sin factores de ponderación aplicados a imágenes de referencia codifican las secuencias de desvanecimiento de manera muy ineficaz.
En la norma de compresión de señales de vídeo Joint Video Team ("JVT") que se propone, cada imagen P puede utilizar múltiples imágenes de referencia para predecir una imagen, pero cada bloque de movimientos individuales o región 8x8 de un macrobloque utiliza únicamente una sola imagen de referencia para la predicción. Además de codificarse y transmitirse los vectores del movimiento, se transmite un índice de imágenes de referencia para cada bloque de movimientos o región 8x8, que indica la imagen de referencia utilizada. Tanto en el codificador como en el descodificador se almacena un conjunto limitado de posibles imágenes de referencia, transmitiéndose el número de imágenes de referencia admisibles.
En la norma JVT, para las imágenes bipredictivas (también llamadas imágenes "B") se forman dos predictores por cada bloque de movimientos o región 8x8, cada uno de los cuales puede proceder de una imagen de referencia distinta, promediándose conjuntamente los dos predictores para formar un único predictor promediado. Para los bloques de movimientos codificados bipredictivamente, ambas imágenes de referencia pueden proceder de la dirección de avance o de la de retroceso, o bien una de la dirección de avance y otra de la de retroceso. Se mantienen dos listas de las imágenes de referencia disponibles que pueden utilizarse para la predicción. Las dos imágenes de referencia se conocen como predictores de la lista 0 y de la lista 1. Se codifica y transmite un índice para cada imagen de referencia, ref_idx_I0 y ref_idx_I1, para las imágenes de referencia de la lista 0 y de la lista 1, respectivamente. Las imágenes Joint Video Team ("JVT") bipredictivas o "B" permiten la ponderación adaptativa entre las dos predicciones; es decir:
Pred = [(PO) * (Pred0)] + [(P1) * (Pred1)] + D,
siendo P0 y P1 los factores de ponderación, Pred0 y Pred1 las predicciones de imágenes de referencia para las listas 0 y 1, respectivamente, y D una compensación.
Se han propuesto dos métodos para indicar los factores de ponderación. En el primero, los factores de ponderación se determinan por las direcciones utilizadas para las imágenes de referencia. Según este método, si el índice ref_idx_I0 es inferior o igual al ref_idx_I1, se utilizan los factores de ponderación de (½, ½); en caso contrario, los factores utilizados son (2, -1).
En el segundo método, se transmite cualquier número de factores de ponderación para cada fragmento. Seguidamente se transmite un índice de factores de ponderación por cada bloque de movimientos o región 8x8 de un macrobloque que utilice la predicción bidireccional. El descodificador utiliza el índice de factores de ponderación recibido para escoger el factor de ponderación apropiado, del conjunto transmitido, a utilizar cuando se descodifique el bloque de movimientos o región 8x8. Por ejemplo, si en la capa de fragmentos se han enviado tres factores de ponderación, éstos corresponderían a los índices de factores de ponderación 0, 1 y 2, respectivamente.
Se apreciará que cualquier diagrama de flujo, diagrama de transición de estado, pseudocódigo y similares representa diversos procesos sustancialmente representables en medios legibles por un ordenador y en consecuencia ejecutables con un ordenador o procesador, aunque dicho ordenador o procesador no se muestre explícitamente.
Las funciones de los diversos elementos presentados en las figuras pueden aportarse mediante el uso de hardware exclusivo, así como de hardware capaz de ejecutar software en asociación con el software apropiado. Cuando las aporta un procesador, dichas funciones pueden aportarse mediante un solo procesador exclusivo, un solo procesador compartido, o una diversidad de procesadores individuales, algunos de los cuales pueden compartirse. Además, el uso explícito del término "procesador" o "controlador" no deberá entenderse referido exclusivamente a hardware capaz de ejecutar software, y podrá incluir implícitamente, sin limitación, hardware de procesadores de señales digitales ("DSP"), memoria fija de lectura ("ROM") para almacenar software, memoria de acceso aleatorio ("RAM") y memoria permanente. También podrán incluirse otros tipos de hardware, tanto convencionales como especiales. De manera similar, los conmutadores presentados en las figuras sólo tienen carácter conceptual. Su función podrá realizarse mediante el uso de lógica de programas, mediante lógica exclusiva, mediante la interacción de control de programas y lógica exclusiva, o incluso manualmente, pudiendo seleccionar el implementador la técnica concreta como se entienda más concretamente por el contexto.
Como se aprecia en la figura 1, un codificador normal de señales de vídeo se indica generalmente por el numeral de referencia 100. Una entrada del codificador 100 se conecta en comunicación de señal con una entrada no inversora de un punto de concurrencia 110. La salida del punto de concurrencia 110 se conecta en comunicación de señal con una función de transformación de bloques 120. La transformación 120 se conecta en comunicación de señal con un cuantizador 130. La salida del cuantizador 130 se conecta en comunicación de señal con un codificador de longitud variable ("VLC") 140, siendo la salida del VLC 140 una salida externamente disponible del codificador 100.
La salida del cuantizador 130 también se conecta en comunicación de señal con un cuantizador inverso 150. El cuantizador inverso 150 se conecta en comunicación de señal con un transformador de bloques inverso 160, conectado a su vez en comunicación de señal con una memoria de imágenes de referencia 170. Una primera salida de la memoria de imágenes de referencia 170 se conecta en comunicación de señal con una primera entrada de un estimador de movimientos 180. La entrada del codificador 100 también se conecta en comunicación de señal con una segunda entrada del estimador de movimientos 180. La salida del estimador de movimientos 180 se conecta en comunicación de señal con una primera entrada de un compensador de movimientos 190. Una segunda salida de la memoria de imágenes de referencia 170 se conecta en comunicación de señal con una segunda entrada del compensador de movimientos 190. La salida del compensador de movimientos 190 se conecta en comunicación de señal con una entrada inversora del punto de concurrencia 110.
Pasando a la figura 2, un codificador de señal de vídeo con ponderación de imágenes de referencia se indica generalmente por el numeral de referencia 200. Una entrada del codificador 200 se conecta en comunicación de señal con una entrada no inversora de un punto de concurrencia 210. La salida del punto de concurrencia 210 se conecta en comunicación de señal con un transformador de bloques 220. El transformador 220 se conecta en comunicación de señal con un cuantizador 230. La salida del cuantizador 230 se conecta en comunicación de señal con un VLC 240, siendo la salida del VLC 240 una salida externamente disponible del codificador 200.
La salida del cuantizador 230 también se conecta en comunicación de señal con un cuantizador inverso 250. El cuantizador inverso 250 se conecta en comunicación de señal con un transformador de bloques inverso 260, conectado a su vez en comunicación de señal con una memoria de imágenes de referencia 270. Una primera salida de la memoria de imágenes de referencia 270 se conecta en comunicación de señal con una primera entrada de un asignador de factores de ponderación de imágenes de referencia 272. La entrada del codificador 200 también se conecta en comunicación de señal con una segunda entrada del asignador de factores de ponderación de imágenes de referencia 272. La salida del asignador de factores de ponderación de imágenes de referencia 272, que indica un factor de ponderación, se conecta en comunicación de señal con una primera entrada de un estimador de movimientos 280. Una segunda salida de la memoria de imágenes de referencia 270 se conecta en comunicación de señal con una segunda entrada del estimador de movimientos 280.
La entrada del codificador 200 también se conecta en comunicación de señal con una tercera entrada del estimador de movimientos 280. La salida del estimador de movimientos 280, que indica vectores de movimientos, se conecta en comunicación de señal con una primera entrada de un compensador de movimientos 290. Una tercera salida de la memoria de imágenes de referencia 270 se conecta en comunicación de señal con una segunda entrada del compensador de movimientos 290. La salida del compensador de movimientos 290, que indica una imagen de referencia con compensación de movimientos, se conecta en comunicación de señal con una primera entrada de un multiplicador 292. La salida del asignador de factores de ponderación de imágenes de referencia 272, que indica un factor de ponderación, se conecta en comunicación de señal con una segunda entrada del multiplicador 292. La salida del multiplicador 292 se conecta en comunicación de señal con una entrada inversora del punto de concurrencia 210.
Pasando a la figura 3, un codificador de señal de vídeo con estimación de movimientos integrados y predicción de ponderaciones se indica generalmente por el numeral de referencia 300. Una entrada del codificador 300 se conecta en comunicación de señal con una entrada no inversora de un punto de concurrencia 310. La salida del punto de concurrencia 310 se conecta en comunicación de señal con un transformador de bloques 320. El transformador 320 se conecta en comunicación de señal con un cuantizador 330. La salida del cuantizador 330 se conecta en comunicación de señal con un VLC 340, siendo la salida del VLC 340 una salida externamente disponible del codificador 300.
La salida del cuantizador 330 también se conecta en comunicación de señal con un cuantizador inverso 350. El cuantizador inverso 350 se conecta en comunicación de señal con un transformador de bloques inverso 360, conectado a su vez en comunicación de señal con una memoria de imágenes de referencia 370. Una primera salida de la memoria de imágenes de referencia 370 se conecta en comunicación de señal con una primera entrada de un selector de factores de ponderación de imágenes de referencia 372. La entrada del codificador 300 también se conecta en comunicación de señal con una segunda entrada del selector de factores de ponderación de imágenes de referencia 372 para aportar la imagen real al selector. La salida del selector de factores de ponderación de imágenes de referencia 372, que indica un factor de ponderación, se conecta en comunicación de señal con una primera entrada de un multiplicador 374. Una segunda entrada del multiplicador 374 se conecta en comunicación de señal con la salida de imágenes de referencia de la memoria de imágenes de referencia 370. Aunque se aluda simplemente a un multiplicador 374, deberá tenerse en cuenta que pueden construirse otros tipos de aplicadores de factores de ponderación distintos de un multiplicador, como apreciarán los conocedores de estas tecnologías, quedando todos esos tipos comprendidos en el espíritu y el alcance del presente invento.
La salida del multiplicador 374 se conecta en comunicación de señal con una memoria de imágenes de referencia ponderadas 376. La salida de la memoria de imágenes de referencia ponderadas 376 se conecta en comunicación de señal con una primera entrada de un estimador de movimientos 380 para aportar una imagen de referencia ponderada. La salida del estimador de movimientos 380 se conecta en comunicación de señal con un primer compensador de movimientos 382 para aportar vectores de movimientos. La salida del estimador de movimientos 380 también se conecta en comunicación de señal con una primera entrada de un segundo compensador de movimientos 390. Una segunda salida de la memoria de imágenes de referencia ponderadas 376 se conecta en comunicación de señal con una segunda entrada del primer compensador de movimientos 382.
La salida del primer compensador de movimientos 382, que indica una imagen de referencia con compensación de movimientos ponderada, se conecta en comunicación de señal con una primera entrada de un generador de diferencias absolutas 384. La entrada del codificador 300, que es la imagen real, también se conecta en comunicación de señal con una segunda entrada del generador de diferencias absolutas 384. La salida de la función de diferencias absolutas 384 se conecta en comunicación de señal con una tercera entrada del selector de factores de ponderación de imágenes de referencia 372.
Una tercera salida de la memoria de imágenes de referencia 370 se conecta en comunicación de señal con una segunda entrada del segundo compensador de movimientos 390. La salida del segundo compensador de movimientos 390, que indica una imagen de referencia con compensación de movimientos, se conecta en comunicación de señal con una primera entrada de un multiplicador 392. La salida del selector de factores de ponderación de imágenes de referencia 372, que indica un factor de ponderación, se conecta en comunicación de señal con una segunda entrada del multiplicador 392. La salida del multiplicador 392 se conecta en comunicación de señal con una entrada inversora del punto de concurrencia 310.
Como se aprecia en la figura 4, un descodificador normal de señales de vídeo se indica generalmente por el numeral de referencia 400. El descodificador de señales de vídeo 400 comprende un descodificador de longitud variable ("VLD") 410 conectado en comunicación de señal con un cuantizador inverso 420. El cuantizador inverso 420 se conecta en comunicación de señal con un transformador inverso 430. El transformador inverso 430 se conecta en comunicación de señal con un primer terminal de entrada de un punto sumador o de concurrencia 440, aportando la salida del punto de concurrencia 440 la salida del descodificador de vídeo 400. La salida del punto de concurrencia 440 se conecta en comunicación de señal con una memoria de imágenes de referencia 450. La memoria de imágenes de referencia 450 se conecta en comunicación de señal con un compensador de movimientos 460, que se conecta en comunicación de señal con un segundo terminal de entrada del punto de concurrencia 440.
Pasando a la figura 5, un descodificador de vídeo con bipredicción adaptativa se indica generalmente por el numeral de referencia 500. El descodificador de vídeo 500 comprende un VLD 510 conectado en comunicación de señal con un cuantizador inverso 520. El cuantizador inverso 520 se conecta en comunicación de señal con un transformador inverso 530. El transformador inverso 530 se conecta en comunicación de señal con un primer terminal de entrada de un punto de concurrencia 540, aportando la salida del punto de concurrencia 540 la salida del descodificador de vídeo 500. La salida del punto de concurrencia 540 se conecta en comunicación de señal con una memoria de imágenes de referencia 550. La memoria de imágenes de referencia 550 se conecta en comunicación de señal con un compensador de movimientos 560, que se conecta en comunicación de señal con una primera entrada de un multiplicador 570.
El VLD 510 también se conecta en comunicación de señal con una búsqueda de factores de ponderación de imágenes de referencia 580 para aportar un índice de coeficientes de bipredicción adaptativa ("ABP") a la búsqueda 580. Una primera salida de la búsqueda 580 es para aportar un factor de ponderación, y se conecta en comunicación de señal con una segunda entrada del multiplicador 570. La salida del multiplicador 570 se conecta en comunicación de señal con una primera entrada de un punto de concurrencia 590. Una segunda salida de la búsqueda 580 es para aportar una compensación, y se conecta en comunicación de señal con una segunda entrada del punto de concurrencia 590. La salida del punto de concurrencia 590 se conecta en comunicación de señal con un segundo terminal de entrada del punto de concurrencia 540.
Pasando a la figura 6, un proceso de determinación de factores de ponderación y vectores de movimientos se indica generalmente por el numeral de referencia 600. Aquí, un bloque de funciones 610 obtiene la estimación del factor de ponderación inicial para la imagen real o el bloque de imágenes ("cur") y la imagen de referencia ("ref"), calculando el factor de ponderación "w" = avg(cur)/avg(ref). El bloque 610 pasa el control a un bloque de decisiones 612 que determina si el factor de ponderación w es mayor que un valor de umbral T1 y menor que un valor de umbral T2. Si w queda entre T1 y T2, el control se pasa a un bloque de retorno 614 y w = 1 se utiliza como factor de ponderación inicial. Si w no queda entre T1 y T2, el control se pasa a un bloque de funciones 616 que aplica el factor de ponderación w a la imagen de referencia para formar una imagen de referencia ponderada wref. El bloque 616 pasa el control a un bloque de funciones 618 para realizar la estimación de los movimientos mediante la obtención de los vectores de movimientos ("MV") utilizando la imagen de referencia ponderada wref. El bloque 618 pasa el control a un bloque de funciones 620 que forma una imagen de referencia ponderada y de movimientos compensados, mcwref, aplicando para ello los MV a la wref. El bloque 620 pasa el control a un bloque de funciones 622 que calcula una medida de la diferencia, diff, siendo diff igual al valor absoluto de la suma de las diferencias en píxeles entre cur y wmcref.
El bloque 622 pasa el control a un bloque de decisiones 624 que determina si diff es mayor que la mejor diff anterior. Si diff es mayor que la mejor diff anterior, el control se pasa a un bloque de retorno 626, que utiliza la mejor diff anterior. Si diff no es mayor que la mejor diff anterior, el control se pasa a un bloque de decisiones 628 que determina si diff es menor que un valor de umbral T. Si diff es menor que el valor de umbral T, el control se pasa a un bloque de retorno 634 que utiliza las estimaciones actuales. Si diff no es menor que el valor de umbral T, el control se pasa a un bloque de funciones 630 que forma una imagen de referencia con compensación de movimientos, mcref, aplicando para ello los MV a ref. El bloque 630 pasa el control a un bloque de funciones 632 que refina la estimación del factor de ponderación y establece la igualdad entre w y avg(cur)/avg(mcref). El bloque 632 devuelve el control al bloque de funciones 616 para continuar el proceso. En consecuencia, la decisión de seguir refinando el factor de ponderación se basa en la comparación de una medida de la diferencia con un valor de umbral o con una tolerancia.
Pasando a la figura 7, un proceso ilustrativo de descodificación de datos de señales de vídeo para un bloque de imágenes se indica generalmente por el numeral de referencia 700. Este proceso comprende un bloque de inicio 710 que pasa el control a un bloque de entrada 712. El bloque de entrada 712 recibe los datos comprimidos del bloque de imágenes y pasa el control a un bloque de entrada 714. El bloque de entrada 714 recibe al menos un índice de imágenes de referencia con los datos para el bloque de imágenes, correspondiendo cada índice de imágenes de referencia a una imagen de referencia determinada. El bloque de entrada 714 pasa el control a un bloque de funciones 716, que determina un factor de ponderación correspondiente a cada índice de imágenes de referencia recibido, y pasa el control a un bloque de funciones opcionales 717. El bloque de funciones opcionales 717 determina una compensación correspondiente a cada índice de imágenes de referencia recibido, y pasa el control a un bloque de funciones 718. El bloque de funciones 718 recupera una imagen de referencia correspondiente a cada índice de imágenes de referencia recibido, y pasa el control a un bloque de funciones 720. A su vez, el bloque de funciones 720 compensa con movimientos la imagen de referencia recuperada y pasa el control a un bloque de funciones 722. El bloque de funciones 722 multiplica la imagen de referencia con compensación de movimientos por el factor de ponderación correspondiente y pasa el control a un bloque de funciones opcionales 723. El bloque de funciones opcionales 723 añade la imagen de referencia con compensación de movimientos a la compensación correspondiente y pasa el control a un bloque de funciones 724. A su vez, el bloque de funciones 724 forma una imagen de referencia con compensación de movimientos y ponderada, y pasa el control a un bloque final 726.
En la presente forma de realización ilustrativa, por cada fragmento o imagen que se codifique, se asocia un factor de ponderación a cada imagen de referencia permisible, respecto a la cual los bloques de la imagen real puedan codificarse. Cuando cada bloque individual de la imagen real se codifica o descodifica, el o los factores de ponderación y la o las compensaciones que correspondan a sus índices de imágenes de referencia se aplican a la predicción de referencia para formar un predictor de ponderaciones. Todos los bloques del fragmento que se codifiquen respecto a la misma imagen de referencia aplican el mismo factor de ponderación a la predicción de la imagen de referencia.
La conveniencia de utilizar, o no, la ponderación adaptativa al codificar una imagen puede indicarse en el conjunto de parámetros de imágenes o en el conjunto de parámetros de secuencias, o en el encabezamiento de la imagen o del fragmento. Para cada fragmento o imagen que utilice la ponderación adaptativa, puede transmitirse un factor de ponderación por cada imagen de referencia permisible que pueda utilizarse para codificar este fragmento o esta imagen. El número de imágenes de referencia permisibles se transmite en el encabezamiento del fragmento. Por ejemplo, si pueden utilizarse tres imágenes de referencia para codificar el fragmento real, se transmiten hasta tres factores de ponderación, y se les asocia a la imagen de referencia con el mismo índice.
Si no se transmite ningún factor de ponderación, se utilizan ponderaciones predeterminadas. En una forma de realización del presente invento, se utilizan ponderaciones predeterminadas de (½, ½) cuando no se transmiten factores de ponderación. Los factores de ponderación pueden transmitirse utilizando códigos de longitud variable o fija.
A diferencia de los sistemas típicos, cada factor de ponderación transmitido con cada fragmento, bloque o imagen corresponde a un determinado índice de imágenes de referencia. Anteriormente, ningún conjunto de factores de ponderación transmitidos con cada fragmento o imagen se asociaba a ninguna imagen de referencia determinada. En lugar de ello, se transmitía un índice de ponderación de bipredicciones adaptativas por cada bloque de movimientos o región 8x8 a fin de seleccionar el factor de ponderación procedente del conjunto transmitido que debía aplicarse para ese bloque de movimientos o para esa región 8x8.
En la actual forma de realización del presente invento, el índice de factores de ponderación para cada bloque de movimientos o región 8x8 no se transmite explícitamente. En lugar de ello, se utiliza el factor de ponderación asociado al índice de imágenes de referencia transmitido. Esto reduce espectacularmente la cantidad de sobrecarga en la secuencia de bits transmitida para permitir la ponderación adaptativa de las imágenes de referencia.
Este sistema y esta técnica pueden aplicarse a imágenes "P" predictivas, que se codifican con un solo predictor, o a imágenes "B" bipredictivas, que se codifican con dos predictores. Los procesos de descodificación, presentes tanto en el codificador como en los descodificadores, se describen más adelante para los casos de las imágenes P y B. Otra posibilidad consiste en aplicar esta técnica a sistemas de codificación que utilicen conceptos similares a los de las imágenes I, B y P.
Los mismos factores de ponderación pueden utilizarse para la predicción unidireccional en imágenes B y para la predicción bidireccional en imágenes B. Cuando se utiliza un solo predictor para un macrobloque, en imágenes P o para la predicción unidireccional en imágenes B, se transmite un solo índice de imágenes de referencia para el bloque. Cuando la compensación de movimientos que forma parte del proceso de descodificación ha producido un predictor, el factor de ponderación se aplica al predictor. Seguidamente, se añade el predictor ponderado al resto codificado y se procede al recorte de la suma, para formar la imagen descodificada. Para el uso en bloques de imágenes P o en bloques de imágenes B que sólo utilizan la predicción de lista 0, el predictor ponderado se forma como:
(1)Pred = W0 * Pred0 + D0
siendo W0 el factor de ponderación asociado a la imagen de referencia de la lista 0, D0 la compensación asociada a la imagen de referencia de la lista 0, y Pred0 el bloque de predicciones con compensación de movimientos procedente de la imagen de referencia de la lista 0.
Para el uso en bloques de imágenes B que sólo utilizan la predicción de lista 1, el predictor ponderado se forma como:
(2)Pred = W1 * Pred1 + D1
siendo W1 el factor de ponderación asociado a la imagen de referencia de la lista 1, D1 la compensación asociada a la imagen de referencia de la lista 1, y Pred1 el bloque de predicciones con compensación de movimientos procedente de la imagen de referencia de la lista 1.
Los predictores ponderados pueden recortarse para garantizar que los valores resultantes quedarán dentro de la banda permisible de valores de píxel, típicamente 0 a 255. La precisión de la multiplicación en las fórmulas de ponderación puede limitarse a cualquier número predeterminado de bits de resolución.
En el caso bipredictivo, se transmiten índices de imágenes de referencia para cada uno de los dos predictores. Se realiza la compensación de movimientos para formar los dos predictores. Cada predictor utiliza el factor de ponderación asociado a su índice de imágenes de referencia para formar dos predictores ponderados. Seguidamente, se obtiene el promedio de los dos predictores ponderados para formar un predictor promediado, que entonces se añade al resto codificado.
Para uso en bloques de imágenes B que utilizan predicciones de lista 0 y de lista 1, el predictor ponderado se forma como:
(3)Pred = (P0 * Pred0 + D0 + P1 * Pred1 + D1)/2
Es posible recortar el predictor ponderado o cualquier valor intermedio en el cálculo del predictor ponderado para garantizar que los valores resultantes quedarán dentro de la banda permisible de valores de píxel, típicamente 0 a 255.
En consecuencia, se aplica un factor de ponderación a la predicción de imágenes de referencia de un codificador y descodificador de compresión de señales de vídeo que utiliza múltiples imágenes de referencia. El factor de ponderación se adapta para bloques de movimientos individuales dentro de una imagen, basándose en el índice de imágenes de referencia que se utiliza para ese bloque de movimientos. Como el índice de imágenes de referencia ya se ha transmitido en la secuencia de bits de señales de vídeo comprimidas, la sobrecarga adicional para adaptar el factor de ponderación en cada bloque de movimientos se reduce espectacularmente. Todos los bloques de movimientos que se codifiquen respecto a la misma imagen de referencia aplican el mismo factor de ponderación a la predicción de la imagen de referencia.
Las técnicas de estimación de los movimientos han sido objeto de amplios estudios. Para cada bloque de movimientos de una imagen que se esté codificando, se escoge un vector de movimientos que representa un desplazamiento del bloque de movimientos respecto a una imagen de referencia. En un método de búsqueda exhaustivo dentro de una región de búsqueda, se comprueban todos los desplazamientos comprendidos en una banda predeterminada de compensaciones relativas a la posición del bloque de movimientos. La comprobación comprende calcular la suma de la diferencia absoluta ("SAD") o del error medio cuadrático ("MSE") de cada píxel del bloque de movimientos de la imagen real respecto al bloque de movimientos desplazados de una imagen de referencia. La compensación con la SAD mínima o el MSE mínimo se selecciona como vector de movimientos. Se han propuesto numerosas variaciones de esta técnica, como la búsqueda en tres fases y la estimación de movimientos optimizados con distorsión de la velocidad, todas las cuales comprenden la fase del cálculo de la SAD o del MSE del bloque de movimientos reales respecto a un bloque de movimientos desplazados de una imagen de referencia.
Los costes de los cálculos necesarios para determinar los vectores de movimientos y los factores de ponderación de imágenes de referencia adaptativas pueden reducirse utilizando un proceso iterativo, sin renunciar a la selección de vectores de movimientos y de factores de ponderación capaces de conseguir grandes eficacias de compresión. Se describe un proceso de determinación de factores de ponderación y de vectores de movimientos en una forma de realización ilustrativa, partiendo del supuesto de que se aplica un único factor de ponderación a la totalidad de la imagen de referencia, aunque la aplicación de los principios del presente invento no se limite a dicho caso. Dicho proceso también podría aplicarse a regiones más pequeñas de la imagen, como fragmentos, por ejemplo. Además, aunque se describa una determinada forma de realización ilustrativa del invento que utiliza una sola imagen de referencia, el presente invento también puede aplicarse a la predicción de múltiples imágenes de referencia y a imágenes bipredictivas.
Normalmente, el cálculo del vector de movimientos para un bloque de movimientos puede efectuarse con la máxima precisión cuando se conoce el factor de ponderación a utilizar. En una forma de realización ilustrativa, la estimación del factor de ponderación se efectúa utilizando los valores en píxeles de la imagen de referencia y de la imagen real. El factor de ponderación puede limitarse a un número de bits de resolución. Si el factor de ponderación está muy próximo al 1, no hace falta considerar el factor de ponderación en el proceso de estimación de los movimientos, y la estimación normal de los movimientos puede efectuarse asumiendo que el factor de ponderación es igual a 1. En caso contrario, la estimación del factor de ponderación se aplica a la imagen de referencia. Seguidamente, la estimación de los movimientos se realiza utilizando cualquier método que calcule la SAD o el MSE, pero realizándose el cálculo de la SAD o del MSE entre el bloque de movimientos de la imagen real y el bloque de movimientos desplazados de la versión ponderada de la imagen de referencia, en lugar de la imagen de referencia sin ponderar. Una vez seleccionados los vectores de movimientos, la estimación del factor de ponderación puede refinarse, si es necesario.
Los vectores de movimientos reales se aplican a la imagen de referencia ponderada para formar la imagen de referencia con compensación de movimientos y ponderada. Se calcula una medida de la diferencia entre la imagen real y la imagen de referencia con compensación de movimientos y ponderada. Si la medida de la diferencia es inferior a un valor de umbral, o si es inferior a la mejor medida de la diferencia anterior, el proceso queda completado y se aceptan los vectores de movimientos candidatos reales y el factor de ponderación.
Si la medida de la diferencia es superior a algún valor de umbral, el factor de ponderación puede refinarse. En este caso, se forma una imagen de referencia con compensación de movimientos pero sin ponderar, basada en los vectores de movimientos candidatos reales. La estimación del factor de ponderación se refina utilizando la imagen de referencia con compensación de movimientos y la imagen real, en lugar de la imagen de referencia sin compensar, como se hizo al formar la estimación inicial del factor de ponderación.
El proceso de selección procede a iterar, aplicando a la imagen de referencia el factor de ponderación recién refinado, para formar la imagen de referencia ponderada. El proceso iterativo continúa hasta que la medida de la diferencia sea igual o superior a la mejor medida de la diferencia anterior, o inferior a un valor de umbral, o bien hasta que se complete un número definido de ciclos. Si la medida de la diferencia de la iteración actual es superior a la de la mejor iteración anterior, se utilizan el factor de ponderación y los vectores de movimientos correspondientes a la mejor iteración anterior. Si la medida de la diferencia de la iteración actual es inferior a un valor de umbral, se utilizan el factor de ponderación y los vectores de movimientos actuales. Si se ha completado el máximo número de ciclos de iteración, se utilizan el factor de ponderación y los vectores de movimientos de la iteración anterior que tuvo la mejor medida de la diferencia.
En una forma de realización posible, la estimación inicial del factor de ponderación, w, es la proporción existente entre el valor promedio de los píxeles de la imagen real, cur, dividido por el valor promedio de los píxeles de la imagen de referencia, ref, siendo:
(4)w = avg(cur)/avg(ref)
Las estimaciones del refinamiento son la proporción existente entre el promedio de los píxeles de la imagen real y el promedio de los píxeles de la imagen de referencia con compensación de movimientos, mcref, siendo:
(5)w = avg(cur)/avg(mcref)
La medida de la diferencia, diff, es el valor absoluto del promedio de las diferencias en píxeles entre la imagen real, cur, y la imagen de referencia con compensación de movimientos y ponderada, wmcref, siendo:
(6)diff = | \Sigma cur - wmcref |
En otra forma de realización, la medida de la diferencia es la suma de las diferencias absolutas de los píxeles de la imagen real y de los píxeles de la imagen de referencia con compensación de movimientos y ponderada, siendo:
(7)diff = \Sigma | cur - wmcref |
Cuando se realiza la estimación de los movimientos basándose en los bloques, el mismo píxel de una imagen de referencia sirve para numerosos cálculos de la SAD. En una forma de realización ilustrativa, durante el proceso de estimación de los movimientos, una vez que se ha aplicado un factor de ponderación a un píxel de una imagen de referencia, el píxel ponderado se almacena, además del píxel normal. El almacenamiento puede efectuarse para una región de la imagen o para la totalidad de la imagen.
Los valores de la imagen de referencia ponderada pueden recortarse para almacenarlos con el mismo número de bits que una referencia sin ponderar, por ejemplo 8 bits, o pueden almacenarse utilizando más bits. Si se realiza el recorte para el proceso de compensación de movimientos, lo cual es más eficaz en cuanto a la memoria, el factor de ponderación vuelve a aplicarse a la imagen de referencia para el vector de movimientos seleccionado real, la diferencia se calcula utilizando bits adicionales, y el recorte se realiza después de calcularse la diferencia para evitar desajustes con un descodificador, que podrían ocurrir si el descodificador no realiza el recorte después de aplicarse el factor de ponderación.
Cuando se utilizan múltiples imágenes de referencia para codificar una imagen, puede calcularse un factor de ponderación separado para cada imagen de referencia. Durante la estimación de los movimientos, se seleccionan un vector de movimientos y una imagen de referencia para cada bloque de movimientos. Para cada iteración del proceso, se obtienen vectores de movimientos y factores de ponderación para cada imagen de referencia.
En una forma de realización preferente, durante la estimación de los movimientos se determina la mejor imagen de referencia para un bloque de movimientos determinado. El cálculo de la medida de la diferencia se realiza separadamente para cada imagen de referencia, empleándose en el cálculo únicamente los bloques de movimientos que utilicen esa imagen de referencia. El refinamiento de la estimación del factor de ponderación para una imagen de referencia determinada también emplea únicamente los bloques de movimientos codificados utilizando esa imagen de referencia. En la codificación bipredictiva, los factores de ponderación y los vectores de movimientos pueden determinarse separadamente para cada una de las dos predicciones, con cuyo valor promedio se formará la predicción promediada.
Los principios del presente invento pueden aplicarse a muchos tipos diferentes de algoritmos de estimación de movimientos. Cuando se aplican con enfoques jerárquicos, la iteración de la selección de los factores de ponderación y de la selección de los vectores de movimientos puede utilizarse con cualquier nivel de la jerarquía de estimación de movimientos. Por ejemplo, el enfoque iterativo podría utilizarse para estimar los movimientos del elemento de imagen entero ("pel"). Una vez obtenidos el factor de ponderación y los vectores de movimientos enteros utilizando el algoritmo iterativo aportado, los vectores de movimientos "sub-pel" pueden obtenerse sin necesidad de otra iteración de la selección del factor de ponderación.
Es sumamente preferible que los principios del presente invento se implementen como una combinación de hardware y software. También es preferible que el software se implemente como un programa de aplicación perceptiblemente incorporado a una unidad de almacenamiento de programas. El programa de aplicación puede cargarse y ejecutarse en una máquina que comprenda cualquier arquitectura adecuada. Es preferible que dicha máquina se implemente en una plataforma informática constituida por hardware como, por ejemplo, una o más unidades centrales de proceso ("CPU"), una memoria de acceso aleatorio ("RAM") e interfaces de entrada/salida ("I/O"). Dicha plataforma informática también podrá comprender un sistema operativo y un código de microinstrucciones. Los diversos procesos y funciones descritos en el presente documento podrán formar parte del código de microinstrucciones o del programa de aplicación, o de cualquier combinación de ambos, que pueda ejecutarse por medio de una CPU. Además, podrán conectarse otras unidades periféricas diversas a la plataforma informática; por ejemplo, otra unidad de almacenamiento de datos y una impresora.

Claims (18)

1. Un codificador de vídeo (300) para codificar datos de señales de vídeo destinados a un bloque de imágenes relacionado con al menos una determinada imagen de referencia, caracterizándose por el hecho de que el codificador comprende: un selector de factores de ponderación de imágenes de referencia (372) que tiene una salida indicativa de un factor de ponderación correspondiente al menos a dicha determinada imagen de referencia; un aplicador de factores de ponderación (374) en comunicación de señal con el selector de factores de ponderación de imágenes de referencia para aportar una versión ponderada de al menos dicha determinada imagen de referencia; y un estimador de movimientos (380) en comunicación de señal con el aplicador de factores de ponderación para aportar vectores de movimientos correspondientes a la versión ponderada de al menos dicha determinada imagen de referencia.
2. Un codificador de vídeo (300) como el definido en la reivindicación 1, que también comprende una memoria de imágenes de referencia (370) en comunicación de señal con el selector de factores de ponderación de imágenes de referencia (372) para aportar al menos dicha determinada imagen de referencia y el correspondiente índice determinado de imágenes de referencia.
3. Un codificador de vídeo (300) como el definido en la reivindicación 2, que también comprende un codificador de longitud variable (340) en comunicación de señal con la memoria de imágenes de referencia (370) para codificar el índice determinado de imágenes de referencia correspondiente al menos a dicha determinada imagen de referencia.
4. Un codificador de vídeo (300) como el definido en la reivindicación 1, que también comprende una memoria de imágenes de referencia ponderadas (376) en comunicación de señal con el selector de factores de ponderación de imágenes de referencia para almacenar una versión ponderada de la imagen de referencia.
5. Un codificador de vídeo (300) como el definido en la reivindicación 1, que también comprende un compensador de movimientos (390) en comunicación de señal con el selector de factores de ponderación de imágenes de referencia (372) para aportar imágenes de referencia con compensación de movimientos que respondan al selector de factores de ponderación de imágenes de referencia.
6. Un codificador de vídeo (300) como el definido en la reivindicación 5, que también comprende un multiplicador (392) en comunicación de señal con el compensador de movimientos (390) y el selector de factores de ponderación de imágenes de referencia (372) para aplicar un factor de ponderación a una imagen de referencia con compensación de movimientos.
7. Un codificador de vídeo (300) como el definido en la reivindicación 1, que también comprende un compensador de movimientos (382) en comunicación de señal con el estimador de movimientos (380) para aportar imágenes de referencia con compensación de movimientos y ponderadas que respondan al selector de factores de ponderación de imágenes de referencia y al estimador de movimientos.
8. Un codificador de vídeo (300) como el definido en la reivindicación 7 utilizable con predictores de imágenes bipredictivas, comprendiendo además dicho codificador medios para formar predictores primero y segundo procedentes de dos imágenes de referencia diferentes.
9. Un codificador de vídeo (300) como el definido en la reivindicación 8, en el que las dos imágenes de referencia diferentes proceden de la misma dirección respecto al bloque de imágenes.
10. Un método (600) para codificar datos de vídeo destinados a un bloque de imágenes relacionado con al menos una determinada imagen de referencia, caracterizándose dicho método por las fases de: recepción de un bloque de imágenes que van a comprimirse; asignación (610) de un factor de ponderación al bloque de imágenes correspondiente al menos a dicha determinada imagen de referencia; ponderación (616) de al menos dicha determinada imagen de referencia por el factor de ponderación; cálculo (616) de los vectores de movimientos correspondientes a la diferencia entre el bloque de imágenes y la imagen de referencia ponderada; compensación de los movimientos (620) de la imagen de referencia ponderada en correspondencia con los vectores de movimientos; y refinamiento (632) de la selección del factor de ponderación en respuesta a la imagen de referencia con compensación de movimientos y ponderada.
11. Un método como el definido en la reivindicación 10, que también comprende: la compensación de los movimientos (630) de la imagen de referencia original sin ponderar en correspondencia con los vectores de movimientos; la multiplicación de la imagen de referencia original con compensación de movimientos por el factor de ponderación asignado, para formar una imagen de referencia con compensación de movimientos y ponderada; la sustracción de la imagen de referencia con compensación de movimientos y ponderada, del bloque de imágenes sustancialmente sin comprimir; y la codificación de una señal indicativa de la diferencia entre el bloque de imágenes sustancialmente sin comprimir y la imagen de referencia con compensación de movimientos y ponderada.
12. Un método como el definido en la reivindicación 10, en el que el cálculo de los vectores de movimientos comprende: la comprobación dentro de una región de búsqueda de todos los desplazamientos ocurridos dentro de una banda predeterminada de compensaciones respecto al bloque de imágenes; el cálculo de al menos una suma de la diferencia absoluta y del error medio cuadrático de cada píxel del bloque de imágenes con una imagen de referencia con compensación de movimientos; y la selección, como vector de movimientos, de la compensación con la suma más baja de la diferencia absoluta y del error cuadrático medio.
13. Un método como el definido en la reivindicación 10, en el que se utilizan predictores de imágenes bipredictivas, comprendiendo además dicho método: la asignación de un segundo factor de ponderación al bloque de imágenes correspondiente a una segunda determinada imagen de referencia; la ponderación de la segunda imagen de referencia por el segundo factor de ponderación; el cálculo de los segundos vectores de movimientos correspondientes a la diferencia entre el bloque de imágenes y la segunda imagen de referencia ponderada; la compensación de los movimientos de la segunda imagen de referencia ponderada en correspondencia con los segundos vectores de movimientos; y el refinamiento de la selección del segundo factor de ponderación en respuesta a la segunda imagen de referencia con compensación de movimientos y ponderada.
14. Un método como el definido en la reivindicación 11, en el que se utilizan predictores de imágenes bipredictivas, comprendiendo además dicho método: la asignación de un segundo factor de ponderación al bloque de imágenes correspondiente a una segunda determinada imagen de referencia; la ponderación de la segunda imagen de referencia por el segundo factor de ponderación; el cálculo de los segundos vectores de movimientos correspondientes a la diferencia entre el bloque de imágenes y la segunda imagen de referencia ponderada; la compensación de los movimientos de la segunda imagen de referencia ponderada en correspondencia con los segundos vectores de movimientos; el refinamiento de la selección del segundo factor de ponderación en respuesta a la segunda imagen de referencia con compensación de movimientos y ponderada; la compensación de los movimientos de la segunda imagen de referencia original sin ponderar en correspondencia con los segundos vectores de movimientos; la multiplicación de la segunda imagen de referencia original con compensación de movimientos por el segundo factor de ponderación asignado, para formar una segunda imagen de referencia con compensación de movimientos y ponderada; la sustracción de la segunda imagen de referencia con compensación de movimientos y ponderada, del bloque de imágenes sustancialmente sin comprimir; y la codificación de una señal indicativa de la diferencia entre el bloque de imágenes sustancialmente sin comprimir y la segunda imagen de referencia con compensación de movimientos y ponderada.
15. Un método como el definido en la reivindicación 13, en el que las imágenes de referencia determinadas primera y segunda proceden de la misma dirección respecto al bloque de imágenes.
16. Un método como el definido en la reivindicación 13, en el que el cálculo de los vectores de movimientos comprende: la comprobación dentro de una región de búsqueda de todos los desplazamientos ocurridos dentro de una banda predeterminada de compensaciones respecto al bloque de imágenes; el cálculo de al menos una suma de la diferencia absoluta y del error medio cuadrático de cada píxel del bloque de imágenes con una primera imagen de referencia con compensación de movimientos correspondiente al primer predictor; la selección, como vector de movimientos para el primer predictor, de una compensación con la suma más baja de la diferencia absoluta y del error cuadrático medio; el cálculo de al menos una suma de la diferencia absoluta y del error medio cuadrático de cada píxel del bloque de imágenes con una segunda imagen de referencia con compensación de movimientos correspondiente al segundo predictor; y la selección, como vector de movimientos para el segundo predictor, de una compensación con la suma más baja de la diferencia absoluta y del error cuadrático medio.
17. Un método como el definido en la reivindicación 10, en el que la ponderación de la imagen de referencia por el factor de ponderación comprende: la determinación de si el factor de ponderación se acerca a un valor aproximado de 1; y la utilización de la imagen de referencia original como imagen de referencia ponderada, si el factor de ponderación se acerca a un valor aproximado de 1.
18. Un método como el definido en la reivindicación 10, en el que el refinamiento de la selección del factor de ponderación en respuesta a la imagen de referencia con compensación de movimientos y ponderada comprende: el cálculo de una diferencia entre el bloque de imágenes y la imagen de referencia con compensación de movimientos y ponderada; la comparación de la diferencia calculada con una tolerancia predeterminada; y el nuevo refinamiento del factor de ponderación, si la diferencia calculada queda fuera de la tolerancia predeterminada.
ES03764471T 2002-07-15 2003-07-11 Estimacion de movimiento con prediccion del peso. Expired - Lifetime ES2301828T3 (es)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US410479 1995-03-24
US39584302P 2002-07-15 2002-07-15
US39587402P 2002-07-15 2002-07-15
US395843P 2002-07-15
US395874P 2002-07-15
US10/410,479 US7376186B2 (en) 2002-07-15 2003-04-09 Motion estimation with weighting prediction

Publications (1)

Publication Number Publication Date
ES2301828T3 true ES2301828T3 (es) 2008-07-01

Family

ID=30119144

Family Applications (1)

Application Number Title Priority Date Filing Date
ES03764471T Expired - Lifetime ES2301828T3 (es) 2002-07-15 2003-07-11 Estimacion de movimiento con prediccion del peso.

Country Status (12)

Country Link
US (1) US7376186B2 (es)
EP (1) EP1540824B1 (es)
JP (1) JP4533841B2 (es)
CN (1) CN100450185C (es)
AU (1) AU2003259110A1 (es)
BR (2) BRPI0305517B1 (es)
DE (1) DE60319239T2 (es)
ES (1) ES2301828T3 (es)
MX (1) MXPA05000672A (es)
MY (1) MY137057A (es)
TW (1) TWI234402B (es)
WO (1) WO2004008642A2 (es)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8255989B2 (en) * 2001-09-26 2012-08-28 General Instrument Corporation Access control and key management system for streaming media
JP4015934B2 (ja) * 2002-04-18 2007-11-28 株式会社東芝 動画像符号化方法及び装置
US8406301B2 (en) 2002-07-15 2013-03-26 Thomson Licensing Adaptive weighting of reference pictures in video encoding
EP2835975A3 (en) * 2002-10-01 2016-03-09 Godo Kaisha IP Bridge 1 Image encoding device and method
US7801217B2 (en) * 2002-10-01 2010-09-21 Thomson Licensing Implicit weighting of reference pictures in a video encoder
JP2004179687A (ja) * 2002-11-22 2004-06-24 Toshiba Corp 動画像符号化/復号化方法及び装置
US20060093038A1 (en) * 2002-12-04 2006-05-04 Boyce Jill M Encoding of video cross-fades using weighted prediction
WO2005004492A2 (en) * 2003-06-25 2005-01-13 Thomson Licensing S.A. Method and apparatus for weighted prediction estimation using a displaced frame differential
ES2383655T3 (es) * 2004-04-28 2012-06-25 Panasonic Corporation Aparato de generación de flujos de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento
US8731054B2 (en) * 2004-05-04 2014-05-20 Qualcomm Incorporated Method and apparatus for weighted prediction in predictive frames
KR100813958B1 (ko) * 2004-06-07 2008-03-14 세종대학교산학협력단 동영상의 무손실 인코딩 및 디코딩 방법, 그 장치
US8462850B2 (en) * 2004-07-02 2013-06-11 Qualcomm Incorporated Motion estimation in video compression systems
EP3133813B1 (en) 2004-09-16 2020-06-17 InterDigital VC Holdings, Inc. Method and apparatus for weighted prediction video codec utilizing local brightness variation
US20060146932A1 (en) * 2004-12-30 2006-07-06 Krit Panusopone Method and apparatus for providing motion estimation with weight prediction
KR100703770B1 (ko) 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
KR100763182B1 (ko) * 2005-05-02 2007-10-05 삼성전자주식회사 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
CN101228794B (zh) * 2005-07-21 2011-05-11 汤姆森许可贸易公司 针对加权预测的可分级视频编码方法及设备
US8239766B2 (en) * 2005-09-27 2012-08-07 Qualcomm Incorporated Multimedia coding techniques for transitional effects
US20070092007A1 (en) * 2005-10-24 2007-04-26 Mediatek Inc. Methods and systems for video data processing employing frame/field region predictions in motion estimation
CN101379835B (zh) * 2006-02-02 2011-08-24 汤姆逊许可公司 使用组合参考双向预测进行运动估计的方法和设备
EP1980112B1 (en) * 2006-02-02 2012-10-24 Thomson Licensing Method and apparatus for adaptive weight selection for motion compensated prediction
WO2007091779A1 (en) 2006-02-10 2007-08-16 Lg Electronics Inc. Digital broadcasting receiver and method of processing data
WO2007126196A1 (en) 2006-04-29 2007-11-08 Lg Electronics Inc. Digital broadcasting system and method of processing data
WO2007136166A1 (en) 2006-05-23 2007-11-29 Lg Electronics Inc. Digital broadcasting system and method of processing data
US7873104B2 (en) 2006-10-12 2011-01-18 Lg Electronics Inc. Digital television transmitting system and receiving system and method of processing broadcasting data
EP2082585A2 (en) * 2006-10-18 2009-07-29 Thomson Licensing Method and apparatus for video coding using prediction data refinement
JP2008219100A (ja) * 2007-02-28 2008-09-18 Oki Electric Ind Co Ltd 予測画像生成装置、方法及びプログラム、並びに、画像符号化装置、方法及びプログラム
KR101285887B1 (ko) 2007-03-26 2013-07-11 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
KR101253185B1 (ko) 2007-03-26 2013-04-10 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
KR101285888B1 (ko) 2007-03-30 2013-07-11 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
KR20090132629A (ko) * 2007-04-09 2009-12-30 가부시키가이샤 엔.티.티.도코모 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램
US8433973B2 (en) 2007-07-04 2013-04-30 Lg Electronics Inc. Digital broadcasting system and method of processing data
WO2009005326A2 (en) 2007-07-04 2009-01-08 Lg Electronics Inc. Digital broadcasting system and method of processing data
US7982776B2 (en) * 2007-07-13 2011-07-19 Ethicon Endo-Surgery, Inc. SBI motion artifact removal apparatus and method
KR20090012180A (ko) * 2007-07-28 2009-02-02 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
EP2191644A4 (en) 2007-08-24 2015-01-07 Lg Electronics Inc DIGITAL BROADCASTING SYSTEM AND METHOD OF PROCESSING DATA IN A DIGITAL BROADCASTING SYSTEM
US20100195723A1 (en) * 2007-09-25 2010-08-05 Tomohiro Ikai Moving image encoder and moving image decoder
US8467451B2 (en) * 2007-11-07 2013-06-18 Industrial Technology Research Institute Methods for selecting a prediction mode
US8320455B2 (en) 2009-03-05 2012-11-27 Qualcomm Incorporated System and method to process motion vectors of video data
WO2011050641A1 (en) * 2009-10-28 2011-05-05 Mediatek Singapore Pte. Ltd. Video coding methods and video encoders and decoders with localized weighted prediction
JP2011147049A (ja) * 2010-01-18 2011-07-28 Sony Corp 画像処理装置および方法、並びにプログラム
EP2466580A1 (en) * 2010-12-14 2012-06-20 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Encoder and method for predictively encoding, decoder and method for decoding, system and method for predictively encoding and decoding and predictively encoded information signal
US8837582B2 (en) * 2011-06-22 2014-09-16 Blackberry Limited Compressing image data
US8768082B2 (en) 2011-06-22 2014-07-01 Blackberry Limited Compressing image data
US9083983B2 (en) 2011-10-04 2015-07-14 Qualcomm Incorporated Motion vector predictor candidate clipping removal for video coding
WO2013059504A1 (en) * 2011-10-21 2013-04-25 Dolby Laboratories Licensing Corporation Hierarchical motion estimation for video compression and motion analysis
US20140321551A1 (en) * 2011-10-21 2014-10-30 Dolby Laboratories Licensing Corporation Weighted predictions based on motion information
WO2014047885A1 (en) * 2012-09-28 2014-04-03 Intel Corporation Enhanced reference region utilization for scalable video coding
KR102226893B1 (ko) 2012-09-28 2021-03-11 엘지전자 주식회사 영상 복호화 방법 및 이를 이용하는 장치
CN103024390B (zh) * 2012-12-21 2015-09-09 天津大学 用于视频编码中的运动估计的自适应搜索方法
EP4178204A1 (en) * 2015-08-20 2023-05-10 Nippon Hoso Kyokai Image decoding device, and image decoding method
EP3456049B1 (en) 2016-05-13 2022-05-04 VID SCALE, Inc. Systems and methods for generalized multi-hypothesis prediction for video coding
WO2020179713A1 (en) * 2019-03-06 2020-09-10 Sharp Kabushiki Kaisha Systems and methods for signaling tile group information in video coding
WO2021055360A1 (en) * 2019-09-20 2021-03-25 Interdigital Vc Holdings, Inc. Video compression based on long range end-to-end deep learning
US11533498B2 (en) * 2019-11-21 2022-12-20 Tencent America LLC Geometric partitioning mode in video coding

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4985768A (en) * 1989-01-20 1991-01-15 Victor Company Of Japan, Ltd. Inter-frame predictive encoding system with encoded and transmitted prediction error
US5488482A (en) 1992-01-29 1996-01-30 Mitsubishi Denki Kabushiki Kaisha High-efficiency encoder and video information recording/reproducing apparatus
US6104439A (en) * 1992-02-08 2000-08-15 Samsung Electronics Co., Ltd. Method and apparatus for motion estimation
US5436665A (en) 1992-03-03 1995-07-25 Kabushiki Kaisha Toshiba Motion picture coding apparatus
US5592228A (en) 1993-03-04 1997-01-07 Kabushiki Kaisha Toshiba Video encoder using global motion estimation and polygonal patch motion estimation
JP3468856B2 (ja) 1994-07-28 2003-11-17 株式会社東芝 動きベクトル検出方法及び装置
US5781788A (en) 1995-05-08 1998-07-14 Avc Technology, Inc. Full duplex single clip video codec
JPH09121358A (ja) 1995-10-25 1997-05-06 Matsushita Electric Ind Co Ltd 画像符号化及び復号化装置と方法
US6049362A (en) * 1996-02-14 2000-04-11 International Business Machines Corporation Dual prime motion estimation system and method
JP4034380B2 (ja) 1996-10-31 2008-01-16 株式会社東芝 画像符号化/復号化方法及び装置
US6175592B1 (en) 1997-03-12 2001-01-16 Matsushita Electric Industrial Co., Ltd. Frequency domain filtering for down conversion of a DCT encoded picture
US6151075A (en) 1997-06-11 2000-11-21 Lg Electronics Inc. Device and method for converting frame rate
US6310919B1 (en) * 1998-05-07 2001-10-30 Sarnoff Corporation Method and apparatus for adaptively scaling motion vector information in an information stream decoder

Also Published As

Publication number Publication date
JP2005533464A (ja) 2005-11-04
AU2003259110A1 (en) 2004-02-02
WO2004008642A3 (en) 2004-04-08
US20040008782A1 (en) 2004-01-15
AU2003259110A8 (en) 2004-02-02
BR0305517A (pt) 2004-12-28
US7376186B2 (en) 2008-05-20
MY137057A (en) 2008-12-31
EP1540824A2 (en) 2005-06-15
MXPA05000672A (es) 2005-03-31
CN100450185C (zh) 2009-01-07
DE60319239D1 (de) 2008-04-03
JP4533841B2 (ja) 2010-09-01
DE60319239T2 (de) 2009-02-26
EP1540824B1 (en) 2008-02-20
BRPI0305517B1 (pt) 2018-04-17
CN1669330A (zh) 2005-09-14
WO2004008642A2 (en) 2004-01-22
TWI234402B (en) 2005-06-11
TW200412799A (en) 2004-07-16
EP1540824A4 (en) 2005-08-24

Similar Documents

Publication Publication Date Title
ES2301828T3 (es) Estimacion de movimiento con prediccion del peso.
JP6496056B2 (ja) ビデオ符号化における参照ピクチャの適応重み付け
KR101713354B1 (ko) 움직임 추정에 대한 검색 범위 선택 방법과 그의 시스템 및 컴퓨터 판독가능 저장 매체
JP5580453B2 (ja) 直接モード符号化及び復号化装置
CA2500307C (en) Implicit weighting of reference pictures in a video encoder
JP2017085617A (ja) ビデオ復号化における参照ピクチャの適応重み付け
JP2004007379A (ja) 動画像符号化方法及び動画像復号化方法
KR20050084138A (ko) 가중된 예측을 이용하는 비디오 크로스-페이드의 인코딩
US7801217B2 (en) Implicit weighting of reference pictures in a video encoder
JP2007049744A (ja) 動画像符号化方法及び動画像復号化方法
EP3163879B1 (en) Video encoding device and video encoding method
RU2333615C2 (ru) Адаптивное взвешивание эталонных изображений при декодировании видеосигнала
BRPI0318823B1 (pt) “Método para codificação dados de sinal de vídeo para um bloco de imagem”
BRPI0318818B1 (pt) "Método para decodificar dados de sinal de vídeo para um bloco de imagem"