ES2301828T3 - Estimacion de movimiento con prediccion del peso. - Google Patents
Estimacion de movimiento con prediccion del peso. Download PDFInfo
- Publication number
- ES2301828T3 ES2301828T3 ES03764471T ES03764471T ES2301828T3 ES 2301828 T3 ES2301828 T3 ES 2301828T3 ES 03764471 T ES03764471 T ES 03764471T ES 03764471 T ES03764471 T ES 03764471T ES 2301828 T3 ES2301828 T3 ES 2301828T3
- Authority
- ES
- Spain
- Prior art keywords
- reference image
- image
- images
- compensation
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/149—Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/192—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
- H04N19/197—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Algebra (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Un codificador de vídeo (300) para codificar datos de señales de vídeo destinados a un bloque de imágenes relacionado con al menos una determinada imagen de referencia, caracterizándose por el hecho de que el codificador comprende: un selector de factores de ponderación de imágenes de referencia (372) que tiene una salida indicativa de un factor de ponderación correspondiente al menos a dicha determinada imagen de referencia; un aplicador de factores de ponderación (374) en comunicación de señal con el selector de factores de ponderación de imágenes de referencia para aportar una versión ponderada de al menos dicha determinada imagen de referencia; y un estimador de movimientos (380) en comunicación de señal con el aplicador de factores de ponderación para aportar vectores de movimientos correspondientes a la versión ponderada de al menos dicha determinada imagen de referencia.
Description
Estimación de movimiento con predicción del
peso.
El presente invento tiene por objeto los
codificadores y descodificadores de vídeo, y en particular la
estimación de movimientos integrados con predicción del peso en
codificadores y descodificadores de señal de vídeo.
Los datos de vídeo suelen tratarse y
transferirse en forma de secuencias de bits. Gran parte de la
eficacia compresiva de los codificadores y descodificadores
("CODEC") de compresión de señal de vídeo típicos se obtiene
formando una predicción de una imagen de referencia correspondiente
a la imagen que vaya a codificarse, y codificando la diferencia
entre la imagen real y la predicción. El grado de proximidad logrado
por la correlación entre la predicción y la imagen real es
inversamente proporcional al número de bits necesarios para
comprimir esa imagen, con el consiguiente incremento de la eficacia
del proceso. Por tanto, es algo deseable para conseguir la mejor
predicción posible de la imagen de referencia.
En muchas normas de compresión de señales de
vídeo, entre ellas las MPEG-1,
MPEG-2 y MPEG-4 del Moving Picture
Experts Group (MPEG), se utiliza una versión con compensación de
movimientos de una imagen de referencia anterior como predicción de
la imagen real, y sólo se codifica la diferencia entre la imagen
real y la predicción. Cuando se utiliza una predicción de imagen
única (imagen "P"), la imagen de referencia no se escala al
formarse la predicción con compensación de movimientos. Si se
utilizan predicciones de imágenes bidireccionales (imágenes
"B"), se forman predicciones intermedias a partir de dos
imágenes diferentes y seguidamente se calcula el promedio conjunto
de las dos predicciones intermedias, utilizando factores de
ponderación iguales de (½, ½) para cada una, a fin de formar una
sola predicción promedio. En estas normas MPEG, las dos imágenes de
referencia siempre son una procedente de la dirección de avance y
otra de la de retroceso para las imágenes B.
En US-5.436.665 se describe un
dispositivo codificador que contiene un predictor adaptado para
producir diversas señales predictivas a partir de una señal de
imagen de baja resolución y de una señal de imagen de alta
resolución; formándose la imagen de baja resolución mediante la
reducción de la frecuencia de muestreo de la imagen de alta
resolución y utilizándose la señal predictiva que minimiza un error
de predicción para producir los datos codificados por el
dispositivo codificador durante la predicción interfotogramas.
US-6.122.318 revela un
dispositivo codificador de vídeo que codifica una señal de mapa
alfanumérico como información subsidiaria relacionada con una
imagen que contiene un objeto y un fondo, expresando la señal de
mapa alfanumérico la forma de un objeto y su posición en un
fotograma. El dispositivo codificador de vídeo codifica la señal de
mapa alfanumérico utilizando codificación de direcciones relativas,
y codifica un símbolo que representa una posición del siguiente
píxel de cambio a codificarse respecto a un píxel de cambio de
referencia mediante el uso de una tabla de codificación de longitud
variable como el píxel de cambio ya codificado.
US-5.488.482 describe una
grabadora de cintas de vídeo que registra y reproduce las señales de
vídeo y sonoras en formato digital. Esta grabadora de cintas de
vídeo contiene un dispositivo codificador de los datos digitales
que, además de mejorar la compresión de los datos, aporta una gran
calidad de imagen, con la consiguiente reducción del consumo de
cinta de grabación, y hace posible una grabadora de cintas de vídeo
compacta y liviana.
US 6 108 040 describe un método para detectar
datos del vector de movimientos indicador del movimiento de una
zona parcial de una imagen recibida desde cualquier zona de una
imagen de referencia, calculándose como primer valor de la
evaluación una primera distorsión entre una zona parcial constituida
por campos de la imagen recibida y una zona parcial constituida por
campos de la imagen de referencia; detectándose una posición de la
zona parcial constituida por los campos de la imagen de referencia
en la cual el primer valor de la evaluación se convierte en el
valor mínimo detectado; configurándose una ventana de búsqueda en un
fotograma de la imagen de referencia, basándose en una posición
detectada de la zona parcial constituida por los campos de la imagen
de referencia previamente detectada; calculándose como segundo
valor de la evaluación una segunda distorsión entre una zona
parcial constituida por un fotograma en la ventana de búsqueda
configurada y una zona parcial constituida por un fotograma de la
imagen recibida, y detectándose una posición de la zona parcial
constituida por el fotograma de la imagen de referencia en la que
el segundo valor de la evaluación se convierte en el valor
mínimo.
Por tanto, los vectores de fotogramas pueden
detectarse partiendo de las posiciones de detección de los vectores
del campo, de manera que la cantidad de cálculos necesarios para
recuperar vectores de fotogramas pueda reducirse notablemente sin
degradar la precisión de la detección de los vectores de
fotogramas.
Éstos y otros inconvenientes y desventajas de la
tecnología actual se abordan con el presente invento, consistente
en un codificador de vídeo que codifica datos de señales de vídeo
para un bloque de imágenes relativo como mínimo a una determinada
imagen de referencia según la reivindicación 1 y en un método de
codificación de datos de señales de vídeo para un bloque de
imágenes según la reivindicación 10.
Otras características del invento se describen
en las reivindicaciones correspondientes.
Se aportan un codificador y un descodificador de
vídeo que codifican y descodifican datos de señales de vídeo para
un bloque de imágenes y un determinado índice de imágenes de
referencia para predecir el bloque de imágenes, comprendiendo el
codificador un selector de factores de ponderación de imágenes de
referencia que tiene una salida indicativa de un factor de
ponderación correspondiente al índice determinado de imágenes de
referencia, un multiplicador en comunicación de señal con el
selector de factores de ponderación de imágenes de referencia para
aportar una versión ponderada de la imagen de referencia, y un
estimador de movimientos en comunicación de señal con el
multiplicador para aportar vectores de movimiento correspondientes a
la versión ponderada de la imagen de referencia; y comprendiendo el
correspondiente descodificador una unidad de factores de ponderación
de imágenes de referencia con una salida para determinar un factor
de ponderación correspondiente al índice determinado de imágenes de
referencia.
Un método correspondiente codificador de datos
de vídeo para un bloque de imágenes comprende la recepción de un
bloque de imágenes sustancialmente sin comprimir, la asignación de
un factor de ponderación para el bloque de imágenes correspondiente
a una determinada imagen de referencia, la ponderación de la imagen
de referencia por el factor de ponderación, el cálculo de los
vectores del movimiento correspondiente a la diferencia entre el
bloque de imágenes y la imagen de referencia ponderada, la
compensación de movimientos de la imagen de referencia ponderada en
correspondencia con los vectores del movimiento, el refinamiento de
la selección del factor de ponderación en respuesta a la imagen de
referencia ponderada y de movimientos compensados, la compensación
de los movimientos de la imagen de referencia sin ponderar original
en correspondencia con los vectores del movimiento, la
multiplicación de la imagen de referencia original y de movimientos
compensados por el factor de ponderación asignado para formar una
imagen de referencia de movimientos compensados y ponderada, la
sustracción de la imagen de referencia de movimientos compensados y
ponderada del bloque de imágenes sustancialmente sin comprimir, y
la codificación de una señal indicativa de la diferencia entre el
bloque de imágenes sustancialmente sin comprimir y la imagen de
referencia de movimientos compensados y ponderada.
Éstos y otros aspectos, características y
ventajas del presente invento se desprenderán de la siguiente
descripción de ejemplos de formas de realización, que debe leerse
junto con los dibujos que la acompañan.
El presente invento incorpora la estimación de
movimientos integrados con la predicción de ponderaciones en
codificadores y descodificadores de vídeo, según los ejemplos de las
figuras siguientes, en las que:
La figura 1 presenta un esquema funcional de un
codificador normal de vídeo;
La figura 2 presenta un esquema funcional de un
codificador de vídeo con ponderación de las imágenes de
referencia;
La figura 3 presenta un esquema funcional de un
codificador de vídeo con estimación de movimientos integrados y
predicción de ponderaciones según los principios del presente
invento;
La figura 4 presenta un esquema funcional de un
descodificador normal de vídeo;
La figura 5 presenta un esquema funcional de un
descodificador de de vídeo con bipredicción adaptativa;
La figura 6 presenta un diagrama de flujo de un
proceso codificador según los principios del presente invento; y
La figura 7 presenta un diagrama de flujo de un
proceso descodificador según los principios del presente
invento.
Se aporta un proceso eficaz para la estimación
de vectores de movimientos integrados y la selección adaptativa de
factores de ponderación de imágenes de referencia. Se utiliza un
proceso iterativo consistente en estimar y utilizar un factor de
ponderación inicial en el proceso de estimación de movimientos. La
estimación del factor de ponderación se refina basándose en los
resultados del proceso de estimación de los movimientos. Cuando se
utilizan factores de ponderación para codificar, un codificador de
vídeo determina tanto los factores de ponderación como los vectores
de los movimientos, si bien la mejor opción para cada uno de ellos
depende del otro. Normalmente, la estimación de los movimientos es
la parte del codificador de compresión de señales de vídeo digitales
que requiere más
cálculos.
cálculos.
En algunas secuencias de señales de vídeo, sobre
todo si hay desvanecimiento, la imagen real o el bloque de imágenes
a codificar presenta una correlación más fuerte con una imagen de
referencia modificada por un factor de ponderación que con la
propia imagen de referencia. Los CODEC de señales de vídeo sin
factores de ponderación aplicados a imágenes de referencia
codifican las secuencias de desvanecimiento de manera muy
ineficaz.
En la norma de compresión de señales de vídeo
Joint Video Team ("JVT") que se propone, cada imagen P puede
utilizar múltiples imágenes de referencia para predecir una imagen,
pero cada bloque de movimientos individuales o región 8x8 de un
macrobloque utiliza únicamente una sola imagen de referencia para la
predicción. Además de codificarse y transmitirse los vectores del
movimiento, se transmite un índice de imágenes de referencia para
cada bloque de movimientos o región 8x8, que indica la imagen de
referencia utilizada. Tanto en el codificador como en el
descodificador se almacena un conjunto limitado de posibles imágenes
de referencia, transmitiéndose el número de imágenes de referencia
admisibles.
En la norma JVT, para las imágenes bipredictivas
(también llamadas imágenes "B") se forman dos predictores por
cada bloque de movimientos o región 8x8, cada uno de los cuales
puede proceder de una imagen de referencia distinta, promediándose
conjuntamente los dos predictores para formar un único predictor
promediado. Para los bloques de movimientos codificados
bipredictivamente, ambas imágenes de referencia pueden proceder de
la dirección de avance o de la de retroceso, o bien una de la
dirección de avance y otra de la de retroceso. Se mantienen dos
listas de las imágenes de referencia disponibles que pueden
utilizarse para la predicción. Las dos imágenes de referencia se
conocen como predictores de la lista 0 y de la lista 1. Se codifica
y transmite un índice para cada imagen de referencia, ref_idx_I0 y
ref_idx_I1, para las imágenes de referencia de la lista 0 y de la
lista 1, respectivamente. Las imágenes Joint Video Team ("JVT")
bipredictivas o "B" permiten la ponderación adaptativa entre
las dos predicciones; es decir:
Pred = [(PO) *
(Pred0)] + [(P1) * (Pred1)] +
D,
siendo P0 y P1 los factores de
ponderación, Pred0 y Pred1 las predicciones de imágenes de
referencia para las listas 0 y 1, respectivamente, y D una
compensación.
Se han propuesto dos métodos para indicar los
factores de ponderación. En el primero, los factores de ponderación
se determinan por las direcciones utilizadas para las imágenes de
referencia. Según este método, si el índice ref_idx_I0 es inferior
o igual al ref_idx_I1, se utilizan los factores de ponderación de
(½, ½); en caso contrario, los factores utilizados son (2, -1).
En el segundo método, se transmite cualquier
número de factores de ponderación para cada fragmento. Seguidamente
se transmite un índice de factores de ponderación por cada bloque de
movimientos o región 8x8 de un macrobloque que utilice la
predicción bidireccional. El descodificador utiliza el índice de
factores de ponderación recibido para escoger el factor de
ponderación apropiado, del conjunto transmitido, a utilizar cuando
se descodifique el bloque de movimientos o región 8x8. Por ejemplo,
si en la capa de fragmentos se han enviado tres factores de
ponderación, éstos corresponderían a los índices de factores de
ponderación 0, 1 y 2, respectivamente.
Se apreciará que cualquier diagrama de flujo,
diagrama de transición de estado, pseudocódigo y similares
representa diversos procesos sustancialmente representables en
medios legibles por un ordenador y en consecuencia ejecutables con
un ordenador o procesador, aunque dicho ordenador o procesador no se
muestre explícitamente.
Las funciones de los diversos elementos
presentados en las figuras pueden aportarse mediante el uso de
hardware exclusivo, así como de hardware capaz de ejecutar software
en asociación con el software apropiado. Cuando las aporta un
procesador, dichas funciones pueden aportarse mediante un solo
procesador exclusivo, un solo procesador compartido, o una
diversidad de procesadores individuales, algunos de los cuales
pueden compartirse. Además, el uso explícito del término
"procesador" o "controlador" no deberá entenderse referido
exclusivamente a hardware capaz de ejecutar software, y podrá
incluir implícitamente, sin limitación, hardware de procesadores de
señales digitales ("DSP"), memoria fija de lectura ("ROM")
para almacenar software, memoria de acceso aleatorio ("RAM") y
memoria permanente. También podrán incluirse otros tipos de
hardware, tanto convencionales como especiales. De manera similar,
los conmutadores presentados en las figuras sólo tienen carácter
conceptual. Su función podrá realizarse mediante el uso de lógica
de programas, mediante lógica exclusiva, mediante la interacción de
control de programas y lógica exclusiva, o incluso manualmente,
pudiendo seleccionar el implementador la técnica concreta como se
entienda más concretamente por el contexto.
Como se aprecia en la figura 1, un codificador
normal de señales de vídeo se indica generalmente por el numeral de
referencia 100. Una entrada del codificador 100 se conecta en
comunicación de señal con una entrada no inversora de un punto de
concurrencia 110. La salida del punto de concurrencia 110 se conecta
en comunicación de señal con una función de transformación de
bloques 120. La transformación 120 se conecta en comunicación de
señal con un cuantizador 130. La salida del cuantizador 130 se
conecta en comunicación de señal con un codificador de longitud
variable ("VLC") 140, siendo la salida del VLC 140 una salida
externamente disponible del codificador 100.
La salida del cuantizador 130 también se conecta
en comunicación de señal con un cuantizador inverso 150. El
cuantizador inverso 150 se conecta en comunicación de señal con un
transformador de bloques inverso 160, conectado a su vez en
comunicación de señal con una memoria de imágenes de referencia 170.
Una primera salida de la memoria de imágenes de referencia 170 se
conecta en comunicación de señal con una primera entrada de un
estimador de movimientos 180. La entrada del codificador 100 también
se conecta en comunicación de señal con una segunda entrada del
estimador de movimientos 180. La salida del estimador de movimientos
180 se conecta en comunicación de señal con una primera entrada de
un compensador de movimientos 190. Una segunda salida de la memoria
de imágenes de referencia 170 se conecta en comunicación de señal
con una segunda entrada del compensador de movimientos 190. La
salida del compensador de movimientos 190 se conecta en comunicación
de señal con una entrada inversora del punto de concurrencia
110.
Pasando a la figura 2, un codificador de señal
de vídeo con ponderación de imágenes de referencia se indica
generalmente por el numeral de referencia 200. Una entrada del
codificador 200 se conecta en comunicación de señal con una entrada
no inversora de un punto de concurrencia 210. La salida del punto de
concurrencia 210 se conecta en comunicación de señal con un
transformador de bloques 220. El transformador 220 se conecta en
comunicación de señal con un cuantizador 230. La salida del
cuantizador 230 se conecta en comunicación de señal con un VLC 240,
siendo la salida del VLC 240 una salida externamente disponible del
codificador 200.
La salida del cuantizador 230 también se conecta
en comunicación de señal con un cuantizador inverso 250. El
cuantizador inverso 250 se conecta en comunicación de señal con un
transformador de bloques inverso 260, conectado a su vez en
comunicación de señal con una memoria de imágenes de referencia 270.
Una primera salida de la memoria de imágenes de referencia 270 se
conecta en comunicación de señal con una primera entrada de un
asignador de factores de ponderación de imágenes de referencia 272.
La entrada del codificador 200 también se conecta en comunicación
de señal con una segunda entrada del asignador de factores de
ponderación de imágenes de referencia 272. La salida del asignador
de factores de ponderación de imágenes de referencia 272, que indica
un factor de ponderación, se conecta en comunicación de señal con
una primera entrada de un estimador de movimientos 280. Una segunda
salida de la memoria de imágenes de referencia 270 se conecta en
comunicación de señal con una segunda entrada del estimador de
movimientos 280.
La entrada del codificador 200 también se
conecta en comunicación de señal con una tercera entrada del
estimador de movimientos 280. La salida del estimador de
movimientos 280, que indica vectores de movimientos, se conecta en
comunicación de señal con una primera entrada de un compensador de
movimientos 290. Una tercera salida de la memoria de imágenes de
referencia 270 se conecta en comunicación de señal con una segunda
entrada del compensador de movimientos 290. La salida del
compensador de movimientos 290, que indica una imagen de referencia
con compensación de movimientos, se conecta en comunicación de señal
con una primera entrada de un multiplicador 292. La salida del
asignador de factores de ponderación de imágenes de referencia 272,
que indica un factor de ponderación, se conecta en comunicación de
señal con una segunda entrada del multiplicador 292. La salida del
multiplicador 292 se conecta en comunicación de señal con una
entrada inversora del punto de concurrencia 210.
Pasando a la figura 3, un codificador de señal
de vídeo con estimación de movimientos integrados y predicción de
ponderaciones se indica generalmente por el numeral de referencia
300. Una entrada del codificador 300 se conecta en comunicación de
señal con una entrada no inversora de un punto de concurrencia 310.
La salida del punto de concurrencia 310 se conecta en comunicación
de señal con un transformador de bloques 320. El transformador 320
se conecta en comunicación de señal con un cuantizador 330. La
salida del cuantizador 330 se conecta en comunicación de señal con
un VLC 340, siendo la salida del VLC 340 una salida externamente
disponible del codificador 300.
La salida del cuantizador 330 también se conecta
en comunicación de señal con un cuantizador inverso 350. El
cuantizador inverso 350 se conecta en comunicación de señal con un
transformador de bloques inverso 360, conectado a su vez en
comunicación de señal con una memoria de imágenes de referencia 370.
Una primera salida de la memoria de imágenes de referencia 370 se
conecta en comunicación de señal con una primera entrada de un
selector de factores de ponderación de imágenes de referencia 372.
La entrada del codificador 300 también se conecta en comunicación
de señal con una segunda entrada del selector de factores de
ponderación de imágenes de referencia 372 para aportar la imagen
real al selector. La salida del selector de factores de ponderación
de imágenes de referencia 372, que indica un factor de ponderación,
se conecta en comunicación de señal con una primera entrada de un
multiplicador 374. Una segunda entrada del multiplicador 374 se
conecta en comunicación de señal con la salida de imágenes de
referencia de la memoria de imágenes de referencia 370. Aunque se
aluda simplemente a un multiplicador 374, deberá tenerse en cuenta
que pueden construirse otros tipos de aplicadores de factores de
ponderación distintos de un multiplicador, como apreciarán los
conocedores de estas tecnologías, quedando todos esos tipos
comprendidos en el espíritu y el alcance del presente invento.
La salida del multiplicador 374 se conecta en
comunicación de señal con una memoria de imágenes de referencia
ponderadas 376. La salida de la memoria de imágenes de referencia
ponderadas 376 se conecta en comunicación de señal con una primera
entrada de un estimador de movimientos 380 para aportar una imagen
de referencia ponderada. La salida del estimador de movimientos 380
se conecta en comunicación de señal con un primer compensador de
movimientos 382 para aportar vectores de movimientos. La salida del
estimador de movimientos 380 también se conecta en comunicación de
señal con una primera entrada de un segundo compensador de
movimientos 390. Una segunda salida de la memoria de imágenes de
referencia ponderadas 376 se conecta en comunicación de señal con
una segunda entrada del primer compensador de movimientos 382.
La salida del primer compensador de movimientos
382, que indica una imagen de referencia con compensación de
movimientos ponderada, se conecta en comunicación de señal con una
primera entrada de un generador de diferencias absolutas 384. La
entrada del codificador 300, que es la imagen real, también se
conecta en comunicación de señal con una segunda entrada del
generador de diferencias absolutas 384. La salida de la función de
diferencias absolutas 384 se conecta en comunicación de señal con
una tercera entrada del selector de factores de ponderación de
imágenes de referencia 372.
Una tercera salida de la memoria de imágenes de
referencia 370 se conecta en comunicación de señal con una segunda
entrada del segundo compensador de movimientos 390. La salida del
segundo compensador de movimientos 390, que indica una imagen de
referencia con compensación de movimientos, se conecta en
comunicación de señal con una primera entrada de un multiplicador
392. La salida del selector de factores de ponderación de imágenes
de referencia 372, que indica un factor de ponderación, se conecta
en comunicación de señal con una segunda entrada del multiplicador
392. La salida del multiplicador 392 se conecta en comunicación de
señal con una entrada inversora del punto de concurrencia 310.
Como se aprecia en la figura 4, un
descodificador normal de señales de vídeo se indica generalmente por
el numeral de referencia 400. El descodificador de señales de vídeo
400 comprende un descodificador de longitud variable ("VLD")
410 conectado en comunicación de señal con un cuantizador inverso
420. El cuantizador inverso 420 se conecta en comunicación de señal
con un transformador inverso 430. El transformador inverso 430 se
conecta en comunicación de señal con un primer terminal de entrada
de un punto sumador o de concurrencia 440, aportando la salida del
punto de concurrencia 440 la salida del descodificador de vídeo 400.
La salida del punto de concurrencia 440 se conecta en comunicación
de señal con una memoria de imágenes de referencia 450. La memoria
de imágenes de referencia 450 se conecta en comunicación de señal
con un compensador de movimientos 460, que se conecta en
comunicación de señal con un segundo terminal de entrada del punto
de concurrencia 440.
Pasando a la figura 5, un descodificador de
vídeo con bipredicción adaptativa se indica generalmente por el
numeral de referencia 500. El descodificador de vídeo 500 comprende
un VLD 510 conectado en comunicación de señal con un cuantizador
inverso 520. El cuantizador inverso 520 se conecta en comunicación
de señal con un transformador inverso 530. El transformador inverso
530 se conecta en comunicación de señal con un primer terminal de
entrada de un punto de concurrencia 540, aportando la salida del
punto de concurrencia 540 la salida del descodificador de vídeo
500. La salida del punto de concurrencia 540 se conecta en
comunicación de señal con una memoria de imágenes de referencia
550. La memoria de imágenes de referencia 550 se conecta en
comunicación de señal con un compensador de movimientos 560, que se
conecta en comunicación de señal con una primera entrada de un
multiplicador 570.
El VLD 510 también se conecta en comunicación de
señal con una búsqueda de factores de ponderación de imágenes de
referencia 580 para aportar un índice de coeficientes de
bipredicción adaptativa ("ABP") a la búsqueda 580. Una primera
salida de la búsqueda 580 es para aportar un factor de ponderación,
y se conecta en comunicación de señal con una segunda entrada del
multiplicador 570. La salida del multiplicador 570 se conecta en
comunicación de señal con una primera entrada de un punto de
concurrencia 590. Una segunda salida de la búsqueda 580 es para
aportar una compensación, y se conecta en comunicación de señal con
una segunda entrada del punto de concurrencia 590. La salida del
punto de concurrencia 590 se conecta en comunicación de señal con un
segundo terminal de entrada del punto de concurrencia 540.
Pasando a la figura 6, un proceso de
determinación de factores de ponderación y vectores de movimientos
se indica generalmente por el numeral de referencia 600. Aquí, un
bloque de funciones 610 obtiene la estimación del factor de
ponderación inicial para la imagen real o el bloque de imágenes
("cur") y la imagen de referencia ("ref"),
calculando el factor de ponderación "w" =
avg(cur)/avg(ref). El bloque 610 pasa el control a un
bloque de decisiones 612 que determina si el factor de ponderación
w es mayor que un valor de umbral T1 y menor que un
valor de umbral T2. Si w queda entre T1 y
T2, el control se pasa a un bloque de retorno 614 y w
= 1 se utiliza como factor de ponderación inicial. Si w no
queda entre T1 y T2, el control se pasa a un bloque
de funciones 616 que aplica el factor de ponderación w a la
imagen de referencia para formar una imagen de referencia ponderada
wref. El bloque 616 pasa el control a un bloque de funciones
618 para realizar la estimación de los movimientos mediante la
obtención de los vectores de movimientos ("MV") utilizando la
imagen de referencia ponderada wref. El bloque 618 pasa el
control a un bloque de funciones 620 que forma una imagen de
referencia ponderada y de movimientos compensados, mcwref,
aplicando para ello los MV a la wref. El bloque 620 pasa el
control a un bloque de funciones 622 que calcula una medida de la
diferencia, diff, siendo diff igual al valor absoluto
de la suma de las diferencias en píxeles entre cur y
wmcref.
El bloque 622 pasa el control a un bloque de
decisiones 624 que determina si diff es mayor que la mejor
diff anterior. Si diff es mayor que la mejor
diff anterior, el control se pasa a un bloque de retorno
626, que utiliza la mejor diff anterior. Si diff no es
mayor que la mejor diff anterior, el control se pasa a un
bloque de decisiones 628 que determina si diff es menor que
un valor de umbral T. Si diff es menor que el valor
de umbral T, el control se pasa a un bloque de retorno 634
que utiliza las estimaciones actuales. Si diff no es menor
que el valor de umbral T, el control se pasa a un bloque de
funciones 630 que forma una imagen de referencia con compensación de
movimientos, mcref, aplicando para ello los MV a ref.
El bloque 630 pasa el control a un bloque de funciones 632 que
refina la estimación del factor de ponderación y establece la
igualdad entre w y avg(cur)/avg(mcref). El
bloque 632 devuelve el control al bloque de funciones 616 para
continuar el proceso. En consecuencia, la decisión de seguir
refinando el factor de ponderación se basa en la comparación de una
medida de la diferencia con un valor de umbral o con una
tolerancia.
Pasando a la figura 7, un proceso ilustrativo de
descodificación de datos de señales de vídeo para un bloque de
imágenes se indica generalmente por el numeral de referencia 700.
Este proceso comprende un bloque de inicio 710 que pasa el control
a un bloque de entrada 712. El bloque de entrada 712 recibe los
datos comprimidos del bloque de imágenes y pasa el control a un
bloque de entrada 714. El bloque de entrada 714 recibe al menos un
índice de imágenes de referencia con los datos para el bloque de
imágenes, correspondiendo cada índice de imágenes de referencia a
una imagen de referencia determinada. El bloque de entrada 714 pasa
el control a un bloque de funciones 716, que determina un factor de
ponderación correspondiente a cada índice de imágenes de referencia
recibido, y pasa el control a un bloque de funciones opcionales 717.
El bloque de funciones opcionales 717 determina una compensación
correspondiente a cada índice de imágenes de referencia recibido, y
pasa el control a un bloque de funciones 718. El bloque de funciones
718 recupera una imagen de referencia correspondiente a cada índice
de imágenes de referencia recibido, y pasa el control a un bloque de
funciones 720. A su vez, el bloque de funciones 720 compensa con
movimientos la imagen de referencia recuperada y pasa el control a
un bloque de funciones 722. El bloque de funciones 722 multiplica la
imagen de referencia con compensación de movimientos por el factor
de ponderación correspondiente y pasa el control a un bloque de
funciones opcionales 723. El bloque de funciones opcionales 723
añade la imagen de referencia con compensación de movimientos a la
compensación correspondiente y pasa el control a un bloque de
funciones 724. A su vez, el bloque de funciones 724 forma una
imagen de referencia con compensación de movimientos y ponderada, y
pasa el control a un bloque final 726.
En la presente forma de realización ilustrativa,
por cada fragmento o imagen que se codifique, se asocia un factor
de ponderación a cada imagen de referencia permisible, respecto a la
cual los bloques de la imagen real puedan codificarse. Cuando cada
bloque individual de la imagen real se codifica o descodifica, el o
los factores de ponderación y la o las compensaciones que
correspondan a sus índices de imágenes de referencia se aplican a
la predicción de referencia para formar un predictor de
ponderaciones. Todos los bloques del fragmento que se codifiquen
respecto a la misma imagen de referencia aplican el mismo factor de
ponderación a la predicción de la imagen de referencia.
La conveniencia de utilizar, o no, la
ponderación adaptativa al codificar una imagen puede indicarse en el
conjunto de parámetros de imágenes o en el conjunto de parámetros
de secuencias, o en el encabezamiento de la imagen o del fragmento.
Para cada fragmento o imagen que utilice la ponderación adaptativa,
puede transmitirse un factor de ponderación por cada imagen de
referencia permisible que pueda utilizarse para codificar este
fragmento o esta imagen. El número de imágenes de referencia
permisibles se transmite en el encabezamiento del fragmento. Por
ejemplo, si pueden utilizarse tres imágenes de referencia para
codificar el fragmento real, se transmiten hasta tres factores de
ponderación, y se les asocia a la imagen de referencia con el mismo
índice.
Si no se transmite ningún factor de ponderación,
se utilizan ponderaciones predeterminadas. En una forma de
realización del presente invento, se utilizan ponderaciones
predeterminadas de (½, ½) cuando no se transmiten factores de
ponderación. Los factores de ponderación pueden transmitirse
utilizando códigos de longitud variable o fija.
A diferencia de los sistemas típicos, cada
factor de ponderación transmitido con cada fragmento, bloque o
imagen corresponde a un determinado índice de imágenes de
referencia. Anteriormente, ningún conjunto de factores de
ponderación transmitidos con cada fragmento o imagen se asociaba a
ninguna imagen de referencia determinada. En lugar de ello, se
transmitía un índice de ponderación de bipredicciones adaptativas
por cada bloque de movimientos o región 8x8 a fin de seleccionar el
factor de ponderación procedente del conjunto transmitido que debía
aplicarse para ese bloque de movimientos o para esa región 8x8.
En la actual forma de realización del presente
invento, el índice de factores de ponderación para cada bloque de
movimientos o región 8x8 no se transmite explícitamente. En lugar de
ello, se utiliza el factor de ponderación asociado al índice de
imágenes de referencia transmitido. Esto reduce espectacularmente la
cantidad de sobrecarga en la secuencia de bits transmitida para
permitir la ponderación adaptativa de las imágenes de
referencia.
Este sistema y esta técnica pueden aplicarse a
imágenes "P" predictivas, que se codifican con un solo
predictor, o a imágenes "B" bipredictivas, que se codifican
con dos predictores. Los procesos de descodificación, presentes
tanto en el codificador como en los descodificadores, se describen
más adelante para los casos de las imágenes P y B. Otra posibilidad
consiste en aplicar esta técnica a sistemas de codificación que
utilicen conceptos similares a los de las imágenes I, B y P.
Los mismos factores de ponderación pueden
utilizarse para la predicción unidireccional en imágenes B y para
la predicción bidireccional en imágenes B. Cuando se utiliza un solo
predictor para un macrobloque, en imágenes P o para la predicción
unidireccional en imágenes B, se transmite un solo índice de
imágenes de referencia para el bloque. Cuando la compensación de
movimientos que forma parte del proceso de descodificación ha
producido un predictor, el factor de ponderación se aplica al
predictor. Seguidamente, se añade el predictor ponderado al resto
codificado y se procede al recorte de la suma, para formar la imagen
descodificada. Para el uso en bloques de imágenes P o en bloques de
imágenes B que sólo utilizan la predicción de lista 0, el predictor
ponderado se forma como:
(1)Pred = W0 *
Pred0 +
D0
siendo W0 el factor de ponderación
asociado a la imagen de referencia de la lista 0, D0 la compensación
asociada a la imagen de referencia de la lista 0, y Pred0 el bloque
de predicciones con compensación de movimientos procedente de la
imagen de referencia de la lista
0.
Para el uso en bloques de imágenes B que sólo
utilizan la predicción de lista 1, el predictor ponderado se forma
como:
(2)Pred = W1 *
Pred1 +
D1
siendo W1 el factor de ponderación
asociado a la imagen de referencia de la lista 1, D1 la compensación
asociada a la imagen de referencia de la lista 1, y Pred1 el bloque
de predicciones con compensación de movimientos procedente de la
imagen de referencia de la lista
1.
Los predictores ponderados pueden recortarse
para garantizar que los valores resultantes quedarán dentro de la
banda permisible de valores de píxel, típicamente 0 a 255. La
precisión de la multiplicación en las fórmulas de ponderación puede
limitarse a cualquier número predeterminado de bits de
resolución.
En el caso bipredictivo, se transmiten índices
de imágenes de referencia para cada uno de los dos predictores. Se
realiza la compensación de movimientos para formar los dos
predictores. Cada predictor utiliza el factor de ponderación
asociado a su índice de imágenes de referencia para formar dos
predictores ponderados. Seguidamente, se obtiene el promedio de los
dos predictores ponderados para formar un predictor promediado, que
entonces se añade al resto codificado.
Para uso en bloques de imágenes B que utilizan
predicciones de lista 0 y de lista 1, el predictor ponderado se
forma como:
(3)Pred = (P0 *
Pred0 + D0 + P1 * Pred1 +
D1)/2
Es posible recortar el predictor ponderado o
cualquier valor intermedio en el cálculo del predictor ponderado
para garantizar que los valores resultantes quedarán dentro de la
banda permisible de valores de píxel, típicamente 0 a 255.
En consecuencia, se aplica un factor de
ponderación a la predicción de imágenes de referencia de un
codificador y descodificador de compresión de señales de vídeo que
utiliza múltiples imágenes de referencia. El factor de ponderación
se adapta para bloques de movimientos individuales dentro de una
imagen, basándose en el índice de imágenes de referencia que se
utiliza para ese bloque de movimientos. Como el índice de imágenes
de referencia ya se ha transmitido en la secuencia de bits de
señales de vídeo comprimidas, la sobrecarga adicional para adaptar
el factor de ponderación en cada bloque de movimientos se reduce
espectacularmente. Todos los bloques de movimientos que se
codifiquen respecto a la misma imagen de referencia aplican el mismo
factor de ponderación a la predicción de la imagen de
referencia.
Las técnicas de estimación de los movimientos
han sido objeto de amplios estudios. Para cada bloque de movimientos
de una imagen que se esté codificando, se escoge un vector de
movimientos que representa un desplazamiento del bloque de
movimientos respecto a una imagen de referencia. En un método de
búsqueda exhaustivo dentro de una región de búsqueda, se comprueban
todos los desplazamientos comprendidos en una banda predeterminada
de compensaciones relativas a la posición del bloque de movimientos.
La comprobación comprende calcular la suma de la diferencia
absoluta ("SAD") o del error medio cuadrático ("MSE") de
cada píxel del bloque de movimientos de la imagen real respecto al
bloque de movimientos desplazados de una imagen de referencia. La
compensación con la SAD mínima o el MSE mínimo se selecciona como
vector de movimientos. Se han propuesto numerosas variaciones de
esta técnica, como la búsqueda en tres fases y la estimación de
movimientos optimizados con distorsión de la velocidad, todas las
cuales comprenden la fase del cálculo de la SAD o del MSE del bloque
de movimientos reales respecto a un bloque de movimientos
desplazados de una imagen de referencia.
Los costes de los cálculos necesarios para
determinar los vectores de movimientos y los factores de ponderación
de imágenes de referencia adaptativas pueden reducirse utilizando
un proceso iterativo, sin renunciar a la selección de vectores de
movimientos y de factores de ponderación capaces de conseguir
grandes eficacias de compresión. Se describe un proceso de
determinación de factores de ponderación y de vectores de
movimientos en una forma de realización ilustrativa, partiendo del
supuesto de que se aplica un único factor de ponderación a la
totalidad de la imagen de referencia, aunque la aplicación de los
principios del presente invento no se limite a dicho caso. Dicho
proceso también podría aplicarse a regiones más pequeñas de la
imagen, como fragmentos, por ejemplo. Además, aunque se describa
una determinada forma de realización ilustrativa del invento que
utiliza una sola imagen de referencia, el presente invento también
puede aplicarse a la predicción de múltiples imágenes de referencia
y a imágenes bipredictivas.
Normalmente, el cálculo del vector de
movimientos para un bloque de movimientos puede efectuarse con la
máxima precisión cuando se conoce el factor de ponderación a
utilizar. En una forma de realización ilustrativa, la estimación
del factor de ponderación se efectúa utilizando los valores en
píxeles de la imagen de referencia y de la imagen real. El factor
de ponderación puede limitarse a un número de bits de resolución. Si
el factor de ponderación está muy próximo al 1, no hace falta
considerar el factor de ponderación en el proceso de estimación de
los movimientos, y la estimación normal de los movimientos puede
efectuarse asumiendo que el factor de ponderación es igual a 1. En
caso contrario, la estimación del factor de ponderación se aplica a
la imagen de referencia. Seguidamente, la estimación de los
movimientos se realiza utilizando cualquier método que calcule la
SAD o el MSE, pero realizándose el cálculo de la SAD o del MSE entre
el bloque de movimientos de la imagen real y el bloque de
movimientos desplazados de la versión ponderada de la imagen de
referencia, en lugar de la imagen de referencia sin ponderar. Una
vez seleccionados los vectores de movimientos, la estimación del
factor de ponderación puede refinarse, si es necesario.
Los vectores de movimientos reales se aplican a
la imagen de referencia ponderada para formar la imagen de
referencia con compensación de movimientos y ponderada. Se calcula
una medida de la diferencia entre la imagen real y la imagen de
referencia con compensación de movimientos y ponderada. Si la medida
de la diferencia es inferior a un valor de umbral, o si es inferior
a la mejor medida de la diferencia anterior, el proceso queda
completado y se aceptan los vectores de movimientos candidatos
reales y el factor de ponderación.
Si la medida de la diferencia es superior a
algún valor de umbral, el factor de ponderación puede refinarse. En
este caso, se forma una imagen de referencia con compensación de
movimientos pero sin ponderar, basada en los vectores de
movimientos candidatos reales. La estimación del factor de
ponderación se refina utilizando la imagen de referencia con
compensación de movimientos y la imagen real, en lugar de la imagen
de referencia sin compensar, como se hizo al formar la estimación
inicial del factor de ponderación.
El proceso de selección procede a iterar,
aplicando a la imagen de referencia el factor de ponderación recién
refinado, para formar la imagen de referencia ponderada. El proceso
iterativo continúa hasta que la medida de la diferencia sea igual o
superior a la mejor medida de la diferencia anterior, o inferior a
un valor de umbral, o bien hasta que se complete un número definido
de ciclos. Si la medida de la diferencia de la iteración actual es
superior a la de la mejor iteración anterior, se utilizan el factor
de ponderación y los vectores de movimientos correspondientes a la
mejor iteración anterior. Si la medida de la diferencia de la
iteración actual es inferior a un valor de umbral, se utilizan el
factor de ponderación y los vectores de movimientos actuales. Si se
ha completado el máximo número de ciclos de iteración, se utilizan
el factor de ponderación y los vectores de movimientos de la
iteración anterior que tuvo la mejor medida de la diferencia.
En una forma de realización posible, la
estimación inicial del factor de ponderación, w, es la
proporción existente entre el valor promedio de los píxeles de la
imagen real, cur, dividido por el valor promedio de los
píxeles de la imagen de referencia, ref, siendo:
(4)w =
avg(cur)/avg(ref)
Las estimaciones del refinamiento son la
proporción existente entre el promedio de los píxeles de la imagen
real y el promedio de los píxeles de la imagen de referencia con
compensación de movimientos, mcref, siendo:
(5)w =
avg(cur)/avg(mcref)
La medida de la diferencia, diff, es el
valor absoluto del promedio de las diferencias en píxeles entre la
imagen real, cur, y la imagen de referencia con compensación
de movimientos y ponderada, wmcref, siendo:
(6)diff = |
\Sigma cur - wmcref
|
En otra forma de realización, la medida de la
diferencia es la suma de las diferencias absolutas de los píxeles
de la imagen real y de los píxeles de la imagen de referencia con
compensación de movimientos y ponderada, siendo:
(7)diff =
\Sigma | cur - wmcref
|
Cuando se realiza la estimación de los
movimientos basándose en los bloques, el mismo píxel de una imagen
de referencia sirve para numerosos cálculos de la SAD. En una forma
de realización ilustrativa, durante el proceso de estimación de los
movimientos, una vez que se ha aplicado un factor de ponderación a
un píxel de una imagen de referencia, el píxel ponderado se
almacena, además del píxel normal. El almacenamiento puede
efectuarse para una región de la imagen o para la totalidad de la
imagen.
Los valores de la imagen de referencia ponderada
pueden recortarse para almacenarlos con el mismo número de bits que
una referencia sin ponderar, por ejemplo 8 bits, o pueden
almacenarse utilizando más bits. Si se realiza el recorte para el
proceso de compensación de movimientos, lo cual es más eficaz en
cuanto a la memoria, el factor de ponderación vuelve a aplicarse a
la imagen de referencia para el vector de movimientos seleccionado
real, la diferencia se calcula utilizando bits adicionales, y el
recorte se realiza después de calcularse la diferencia para evitar
desajustes con un descodificador, que podrían ocurrir si el
descodificador no realiza el recorte después de aplicarse el factor
de ponderación.
Cuando se utilizan múltiples imágenes de
referencia para codificar una imagen, puede calcularse un factor de
ponderación separado para cada imagen de referencia. Durante la
estimación de los movimientos, se seleccionan un vector de
movimientos y una imagen de referencia para cada bloque de
movimientos. Para cada iteración del proceso, se obtienen vectores
de movimientos y factores de ponderación para cada imagen de
referencia.
En una forma de realización preferente, durante
la estimación de los movimientos se determina la mejor imagen de
referencia para un bloque de movimientos determinado. El cálculo de
la medida de la diferencia se realiza separadamente para cada
imagen de referencia, empleándose en el cálculo únicamente los
bloques de movimientos que utilicen esa imagen de referencia. El
refinamiento de la estimación del factor de ponderación para una
imagen de referencia determinada también emplea únicamente los
bloques de movimientos codificados utilizando esa imagen de
referencia. En la codificación bipredictiva, los factores de
ponderación y los vectores de movimientos pueden determinarse
separadamente para cada una de las dos predicciones, con cuyo valor
promedio se formará la predicción promediada.
Los principios del presente invento pueden
aplicarse a muchos tipos diferentes de algoritmos de estimación de
movimientos. Cuando se aplican con enfoques jerárquicos, la
iteración de la selección de los factores de ponderación y de la
selección de los vectores de movimientos puede utilizarse con
cualquier nivel de la jerarquía de estimación de movimientos. Por
ejemplo, el enfoque iterativo podría utilizarse para estimar los
movimientos del elemento de imagen entero ("pel"). Una vez
obtenidos el factor de ponderación y los vectores de movimientos
enteros utilizando el algoritmo iterativo aportado, los vectores de
movimientos "sub-pel" pueden obtenerse sin
necesidad de otra iteración de la selección del factor de
ponderación.
Es sumamente preferible que los principios del
presente invento se implementen como una combinación de hardware y
software. También es preferible que el software se implemente como
un programa de aplicación perceptiblemente incorporado a una unidad
de almacenamiento de programas. El programa de aplicación puede
cargarse y ejecutarse en una máquina que comprenda cualquier
arquitectura adecuada. Es preferible que dicha máquina se implemente
en una plataforma informática constituida por hardware como, por
ejemplo, una o más unidades centrales de proceso ("CPU"), una
memoria de acceso aleatorio ("RAM") e interfaces de
entrada/salida ("I/O"). Dicha plataforma informática también
podrá comprender un sistema operativo y un código de
microinstrucciones. Los diversos procesos y funciones descritos en
el presente documento podrán formar parte del código de
microinstrucciones o del programa de aplicación, o de cualquier
combinación de ambos, que pueda ejecutarse por medio de una CPU.
Además, podrán conectarse otras unidades periféricas diversas a la
plataforma informática; por ejemplo, otra unidad de almacenamiento
de datos y una impresora.
Claims (18)
1. Un codificador de vídeo (300) para codificar
datos de señales de vídeo destinados a un bloque de imágenes
relacionado con al menos una determinada imagen de referencia,
caracterizándose por el hecho de que el codificador
comprende: un selector de factores de ponderación de imágenes de
referencia (372) que tiene una salida indicativa de un factor de
ponderación correspondiente al menos a dicha determinada imagen de
referencia; un aplicador de factores de ponderación (374) en
comunicación de señal con el selector de factores de ponderación de
imágenes de referencia para aportar una versión ponderada de al
menos dicha determinada imagen de referencia; y un estimador de
movimientos (380) en comunicación de señal con el aplicador de
factores de ponderación para aportar vectores de movimientos
correspondientes a la versión ponderada de al menos dicha
determinada imagen de referencia.
2. Un codificador de vídeo (300) como el
definido en la reivindicación 1, que también comprende una memoria
de imágenes de referencia (370) en comunicación de señal con el
selector de factores de ponderación de imágenes de referencia (372)
para aportar al menos dicha determinada imagen de referencia y el
correspondiente índice determinado de imágenes de referencia.
3. Un codificador de vídeo (300) como el
definido en la reivindicación 2, que también comprende un
codificador de longitud variable (340) en comunicación de señal con
la memoria de imágenes de referencia (370) para codificar el índice
determinado de imágenes de referencia correspondiente al menos a
dicha determinada imagen de referencia.
4. Un codificador de vídeo (300) como el
definido en la reivindicación 1, que también comprende una memoria
de imágenes de referencia ponderadas (376) en comunicación de señal
con el selector de factores de ponderación de imágenes de
referencia para almacenar una versión ponderada de la imagen de
referencia.
5. Un codificador de vídeo (300) como el
definido en la reivindicación 1, que también comprende un
compensador de movimientos (390) en comunicación de señal con el
selector de factores de ponderación de imágenes de referencia (372)
para aportar imágenes de referencia con compensación de movimientos
que respondan al selector de factores de ponderación de imágenes de
referencia.
6. Un codificador de vídeo (300) como el
definido en la reivindicación 5, que también comprende un
multiplicador (392) en comunicación de señal con el compensador de
movimientos (390) y el selector de factores de ponderación de
imágenes de referencia (372) para aplicar un factor de ponderación a
una imagen de referencia con compensación de movimientos.
7. Un codificador de vídeo (300) como el
definido en la reivindicación 1, que también comprende un
compensador de movimientos (382) en comunicación de señal con el
estimador de movimientos (380) para aportar imágenes de referencia
con compensación de movimientos y ponderadas que respondan al
selector de factores de ponderación de imágenes de referencia y al
estimador de movimientos.
8. Un codificador de vídeo (300) como el
definido en la reivindicación 7 utilizable con predictores de
imágenes bipredictivas, comprendiendo además dicho codificador
medios para formar predictores primero y segundo procedentes de dos
imágenes de referencia diferentes.
9. Un codificador de vídeo (300) como el
definido en la reivindicación 8, en el que las dos imágenes de
referencia diferentes proceden de la misma dirección respecto al
bloque de imágenes.
10. Un método (600) para codificar datos de
vídeo destinados a un bloque de imágenes relacionado con al menos
una determinada imagen de referencia, caracterizándose dicho
método por las fases de: recepción de un bloque de imágenes que van
a comprimirse; asignación (610) de un factor de ponderación al
bloque de imágenes correspondiente al menos a dicha determinada
imagen de referencia; ponderación (616) de al menos dicha
determinada imagen de referencia por el factor de ponderación;
cálculo (616) de los vectores de movimientos correspondientes a la
diferencia entre el bloque de imágenes y la imagen de referencia
ponderada; compensación de los movimientos (620) de la imagen de
referencia ponderada en correspondencia con los vectores de
movimientos; y refinamiento (632) de la selección del factor de
ponderación en respuesta a la imagen de referencia con compensación
de movimientos y ponderada.
11. Un método como el definido en la
reivindicación 10, que también comprende: la compensación de los
movimientos (630) de la imagen de referencia original sin ponderar
en correspondencia con los vectores de movimientos; la
multiplicación de la imagen de referencia original con compensación
de movimientos por el factor de ponderación asignado, para formar
una imagen de referencia con compensación de movimientos y
ponderada; la sustracción de la imagen de referencia con
compensación de movimientos y ponderada, del bloque de imágenes
sustancialmente sin comprimir; y la codificación de una señal
indicativa de la diferencia entre el bloque de imágenes
sustancialmente sin comprimir y la imagen de referencia con
compensación de movimientos y ponderada.
12. Un método como el definido en la
reivindicación 10, en el que el cálculo de los vectores de
movimientos comprende: la comprobación dentro de una región de
búsqueda de todos los desplazamientos ocurridos dentro de una banda
predeterminada de compensaciones respecto al bloque de imágenes; el
cálculo de al menos una suma de la diferencia absoluta y del error
medio cuadrático de cada píxel del bloque de imágenes con una imagen
de referencia con compensación de movimientos; y la selección, como
vector de movimientos, de la compensación con la suma más baja de
la diferencia absoluta y del error cuadrático medio.
13. Un método como el definido en la
reivindicación 10, en el que se utilizan predictores de imágenes
bipredictivas, comprendiendo además dicho método: la asignación de
un segundo factor de ponderación al bloque de imágenes
correspondiente a una segunda determinada imagen de referencia; la
ponderación de la segunda imagen de referencia por el segundo
factor de ponderación; el cálculo de los segundos vectores de
movimientos correspondientes a la diferencia entre el bloque de
imágenes y la segunda imagen de referencia ponderada; la
compensación de los movimientos de la segunda imagen de referencia
ponderada en correspondencia con los segundos vectores de
movimientos; y el refinamiento de la selección del segundo factor de
ponderación en respuesta a la segunda imagen de referencia con
compensación de movimientos y ponderada.
14. Un método como el definido en la
reivindicación 11, en el que se utilizan predictores de imágenes
bipredictivas, comprendiendo además dicho método: la asignación de
un segundo factor de ponderación al bloque de imágenes
correspondiente a una segunda determinada imagen de referencia; la
ponderación de la segunda imagen de referencia por el segundo
factor de ponderación; el cálculo de los segundos vectores de
movimientos correspondientes a la diferencia entre el bloque de
imágenes y la segunda imagen de referencia ponderada; la
compensación de los movimientos de la segunda imagen de referencia
ponderada en correspondencia con los segundos vectores de
movimientos; el refinamiento de la selección del segundo factor de
ponderación en respuesta a la segunda imagen de referencia con
compensación de movimientos y ponderada; la compensación de los
movimientos de la segunda imagen de referencia original sin
ponderar en correspondencia con los segundos vectores de
movimientos; la multiplicación de la segunda imagen de referencia
original con compensación de movimientos por el segundo factor de
ponderación asignado, para formar una segunda imagen de referencia
con compensación de movimientos y ponderada; la sustracción de la
segunda imagen de referencia con compensación de movimientos y
ponderada, del bloque de imágenes sustancialmente sin comprimir; y
la codificación de una señal indicativa de la diferencia entre el
bloque de imágenes sustancialmente sin comprimir y la segunda imagen
de referencia con compensación de movimientos y ponderada.
15. Un método como el definido en la
reivindicación 13, en el que las imágenes de referencia determinadas
primera y segunda proceden de la misma dirección respecto al bloque
de imágenes.
16. Un método como el definido en la
reivindicación 13, en el que el cálculo de los vectores de
movimientos comprende: la comprobación dentro de una región de
búsqueda de todos los desplazamientos ocurridos dentro de una banda
predeterminada de compensaciones respecto al bloque de imágenes; el
cálculo de al menos una suma de la diferencia absoluta y del error
medio cuadrático de cada píxel del bloque de imágenes con una
primera imagen de referencia con compensación de movimientos
correspondiente al primer predictor; la selección, como vector de
movimientos para el primer predictor, de una compensación con la
suma más baja de la diferencia absoluta y del error cuadrático
medio; el cálculo de al menos una suma de la diferencia absoluta y
del error medio cuadrático de cada píxel del bloque de imágenes con
una segunda imagen de referencia con compensación de movimientos
correspondiente al segundo predictor; y la selección, como vector de
movimientos para el segundo predictor, de una compensación con la
suma más baja de la diferencia absoluta y del error cuadrático
medio.
17. Un método como el definido en la
reivindicación 10, en el que la ponderación de la imagen de
referencia por el factor de ponderación comprende: la determinación
de si el factor de ponderación se acerca a un valor aproximado de
1; y la utilización de la imagen de referencia original como imagen
de referencia ponderada, si el factor de ponderación se acerca a un
valor aproximado de 1.
18. Un método como el definido en la
reivindicación 10, en el que el refinamiento de la selección del
factor de ponderación en respuesta a la imagen de referencia con
compensación de movimientos y ponderada comprende: el cálculo de
una diferencia entre el bloque de imágenes y la imagen de referencia
con compensación de movimientos y ponderada; la comparación de la
diferencia calculada con una tolerancia predeterminada; y el nuevo
refinamiento del factor de ponderación, si la diferencia calculada
queda fuera de la tolerancia predeterminada.
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US410479 | 1995-03-24 | ||
US39584302P | 2002-07-15 | 2002-07-15 | |
US39587402P | 2002-07-15 | 2002-07-15 | |
US395843P | 2002-07-15 | ||
US395874P | 2002-07-15 | ||
US10/410,479 US7376186B2 (en) | 2002-07-15 | 2003-04-09 | Motion estimation with weighting prediction |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2301828T3 true ES2301828T3 (es) | 2008-07-01 |
Family
ID=30119144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES03764471T Expired - Lifetime ES2301828T3 (es) | 2002-07-15 | 2003-07-11 | Estimacion de movimiento con prediccion del peso. |
Country Status (12)
Country | Link |
---|---|
US (1) | US7376186B2 (es) |
EP (1) | EP1540824B1 (es) |
JP (1) | JP4533841B2 (es) |
CN (1) | CN100450185C (es) |
AU (1) | AU2003259110A1 (es) |
BR (2) | BRPI0305517B1 (es) |
DE (1) | DE60319239T2 (es) |
ES (1) | ES2301828T3 (es) |
MX (1) | MXPA05000672A (es) |
MY (1) | MY137057A (es) |
TW (1) | TWI234402B (es) |
WO (1) | WO2004008642A2 (es) |
Families Citing this family (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8255989B2 (en) * | 2001-09-26 | 2012-08-28 | General Instrument Corporation | Access control and key management system for streaming media |
JP4015934B2 (ja) * | 2002-04-18 | 2007-11-28 | 株式会社東芝 | 動画像符号化方法及び装置 |
US8406301B2 (en) | 2002-07-15 | 2013-03-26 | Thomson Licensing | Adaptive weighting of reference pictures in video encoding |
EP2835975A3 (en) * | 2002-10-01 | 2016-03-09 | Godo Kaisha IP Bridge 1 | Image encoding device and method |
US7801217B2 (en) * | 2002-10-01 | 2010-09-21 | Thomson Licensing | Implicit weighting of reference pictures in a video encoder |
JP2004179687A (ja) * | 2002-11-22 | 2004-06-24 | Toshiba Corp | 動画像符号化/復号化方法及び装置 |
US20060093038A1 (en) * | 2002-12-04 | 2006-05-04 | Boyce Jill M | Encoding of video cross-fades using weighted prediction |
WO2005004492A2 (en) * | 2003-06-25 | 2005-01-13 | Thomson Licensing S.A. | Method and apparatus for weighted prediction estimation using a displaced frame differential |
ES2383655T3 (es) * | 2004-04-28 | 2012-06-25 | Panasonic Corporation | Aparato de generación de flujos de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento |
US8731054B2 (en) * | 2004-05-04 | 2014-05-20 | Qualcomm Incorporated | Method and apparatus for weighted prediction in predictive frames |
KR100813958B1 (ko) * | 2004-06-07 | 2008-03-14 | 세종대학교산학협력단 | 동영상의 무손실 인코딩 및 디코딩 방법, 그 장치 |
US8462850B2 (en) * | 2004-07-02 | 2013-06-11 | Qualcomm Incorporated | Motion estimation in video compression systems |
EP3133813B1 (en) | 2004-09-16 | 2020-06-17 | InterDigital VC Holdings, Inc. | Method and apparatus for weighted prediction video codec utilizing local brightness variation |
US20060146932A1 (en) * | 2004-12-30 | 2006-07-06 | Krit Panusopone | Method and apparatus for providing motion estimation with weight prediction |
KR100703770B1 (ko) | 2005-03-25 | 2007-04-06 | 삼성전자주식회사 | 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치 |
KR100763182B1 (ko) * | 2005-05-02 | 2007-10-05 | 삼성전자주식회사 | 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치 |
CN101228794B (zh) * | 2005-07-21 | 2011-05-11 | 汤姆森许可贸易公司 | 针对加权预测的可分级视频编码方法及设备 |
US8239766B2 (en) * | 2005-09-27 | 2012-08-07 | Qualcomm Incorporated | Multimedia coding techniques for transitional effects |
US20070092007A1 (en) * | 2005-10-24 | 2007-04-26 | Mediatek Inc. | Methods and systems for video data processing employing frame/field region predictions in motion estimation |
CN101379835B (zh) * | 2006-02-02 | 2011-08-24 | 汤姆逊许可公司 | 使用组合参考双向预测进行运动估计的方法和设备 |
EP1980112B1 (en) * | 2006-02-02 | 2012-10-24 | Thomson Licensing | Method and apparatus for adaptive weight selection for motion compensated prediction |
WO2007091779A1 (en) | 2006-02-10 | 2007-08-16 | Lg Electronics Inc. | Digital broadcasting receiver and method of processing data |
WO2007126196A1 (en) | 2006-04-29 | 2007-11-08 | Lg Electronics Inc. | Digital broadcasting system and method of processing data |
WO2007136166A1 (en) | 2006-05-23 | 2007-11-29 | Lg Electronics Inc. | Digital broadcasting system and method of processing data |
US7873104B2 (en) | 2006-10-12 | 2011-01-18 | Lg Electronics Inc. | Digital television transmitting system and receiving system and method of processing broadcasting data |
EP2082585A2 (en) * | 2006-10-18 | 2009-07-29 | Thomson Licensing | Method and apparatus for video coding using prediction data refinement |
JP2008219100A (ja) * | 2007-02-28 | 2008-09-18 | Oki Electric Ind Co Ltd | 予測画像生成装置、方法及びプログラム、並びに、画像符号化装置、方法及びプログラム |
KR101285887B1 (ko) | 2007-03-26 | 2013-07-11 | 엘지전자 주식회사 | 디지털 방송 시스템 및 데이터 처리 방법 |
KR101253185B1 (ko) | 2007-03-26 | 2013-04-10 | 엘지전자 주식회사 | 디지털 방송 시스템 및 데이터 처리 방법 |
KR101285888B1 (ko) | 2007-03-30 | 2013-07-11 | 엘지전자 주식회사 | 디지털 방송 시스템 및 데이터 처리 방법 |
KR20090132629A (ko) * | 2007-04-09 | 2009-12-30 | 가부시키가이샤 엔.티.티.도코모 | 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 |
US8433973B2 (en) | 2007-07-04 | 2013-04-30 | Lg Electronics Inc. | Digital broadcasting system and method of processing data |
WO2009005326A2 (en) | 2007-07-04 | 2009-01-08 | Lg Electronics Inc. | Digital broadcasting system and method of processing data |
US7982776B2 (en) * | 2007-07-13 | 2011-07-19 | Ethicon Endo-Surgery, Inc. | SBI motion artifact removal apparatus and method |
KR20090012180A (ko) * | 2007-07-28 | 2009-02-02 | 엘지전자 주식회사 | 디지털 방송 시스템 및 데이터 처리 방법 |
EP2191644A4 (en) | 2007-08-24 | 2015-01-07 | Lg Electronics Inc | DIGITAL BROADCASTING SYSTEM AND METHOD OF PROCESSING DATA IN A DIGITAL BROADCASTING SYSTEM |
US20100195723A1 (en) * | 2007-09-25 | 2010-08-05 | Tomohiro Ikai | Moving image encoder and moving image decoder |
US8467451B2 (en) * | 2007-11-07 | 2013-06-18 | Industrial Technology Research Institute | Methods for selecting a prediction mode |
US8320455B2 (en) | 2009-03-05 | 2012-11-27 | Qualcomm Incorporated | System and method to process motion vectors of video data |
WO2011050641A1 (en) * | 2009-10-28 | 2011-05-05 | Mediatek Singapore Pte. Ltd. | Video coding methods and video encoders and decoders with localized weighted prediction |
JP2011147049A (ja) * | 2010-01-18 | 2011-07-28 | Sony Corp | 画像処理装置および方法、並びにプログラム |
EP2466580A1 (en) * | 2010-12-14 | 2012-06-20 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | Encoder and method for predictively encoding, decoder and method for decoding, system and method for predictively encoding and decoding and predictively encoded information signal |
US8837582B2 (en) * | 2011-06-22 | 2014-09-16 | Blackberry Limited | Compressing image data |
US8768082B2 (en) | 2011-06-22 | 2014-07-01 | Blackberry Limited | Compressing image data |
US9083983B2 (en) | 2011-10-04 | 2015-07-14 | Qualcomm Incorporated | Motion vector predictor candidate clipping removal for video coding |
WO2013059504A1 (en) * | 2011-10-21 | 2013-04-25 | Dolby Laboratories Licensing Corporation | Hierarchical motion estimation for video compression and motion analysis |
US20140321551A1 (en) * | 2011-10-21 | 2014-10-30 | Dolby Laboratories Licensing Corporation | Weighted predictions based on motion information |
WO2014047885A1 (en) * | 2012-09-28 | 2014-04-03 | Intel Corporation | Enhanced reference region utilization for scalable video coding |
KR102226893B1 (ko) | 2012-09-28 | 2021-03-11 | 엘지전자 주식회사 | 영상 복호화 방법 및 이를 이용하는 장치 |
CN103024390B (zh) * | 2012-12-21 | 2015-09-09 | 天津大学 | 用于视频编码中的运动估计的自适应搜索方法 |
EP4178204A1 (en) * | 2015-08-20 | 2023-05-10 | Nippon Hoso Kyokai | Image decoding device, and image decoding method |
EP3456049B1 (en) | 2016-05-13 | 2022-05-04 | VID SCALE, Inc. | Systems and methods for generalized multi-hypothesis prediction for video coding |
WO2020179713A1 (en) * | 2019-03-06 | 2020-09-10 | Sharp Kabushiki Kaisha | Systems and methods for signaling tile group information in video coding |
WO2021055360A1 (en) * | 2019-09-20 | 2021-03-25 | Interdigital Vc Holdings, Inc. | Video compression based on long range end-to-end deep learning |
US11533498B2 (en) * | 2019-11-21 | 2022-12-20 | Tencent America LLC | Geometric partitioning mode in video coding |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4985768A (en) * | 1989-01-20 | 1991-01-15 | Victor Company Of Japan, Ltd. | Inter-frame predictive encoding system with encoded and transmitted prediction error |
US5488482A (en) | 1992-01-29 | 1996-01-30 | Mitsubishi Denki Kabushiki Kaisha | High-efficiency encoder and video information recording/reproducing apparatus |
US6104439A (en) * | 1992-02-08 | 2000-08-15 | Samsung Electronics Co., Ltd. | Method and apparatus for motion estimation |
US5436665A (en) | 1992-03-03 | 1995-07-25 | Kabushiki Kaisha Toshiba | Motion picture coding apparatus |
US5592228A (en) | 1993-03-04 | 1997-01-07 | Kabushiki Kaisha Toshiba | Video encoder using global motion estimation and polygonal patch motion estimation |
JP3468856B2 (ja) | 1994-07-28 | 2003-11-17 | 株式会社東芝 | 動きベクトル検出方法及び装置 |
US5781788A (en) | 1995-05-08 | 1998-07-14 | Avc Technology, Inc. | Full duplex single clip video codec |
JPH09121358A (ja) | 1995-10-25 | 1997-05-06 | Matsushita Electric Ind Co Ltd | 画像符号化及び復号化装置と方法 |
US6049362A (en) * | 1996-02-14 | 2000-04-11 | International Business Machines Corporation | Dual prime motion estimation system and method |
JP4034380B2 (ja) | 1996-10-31 | 2008-01-16 | 株式会社東芝 | 画像符号化/復号化方法及び装置 |
US6175592B1 (en) | 1997-03-12 | 2001-01-16 | Matsushita Electric Industrial Co., Ltd. | Frequency domain filtering for down conversion of a DCT encoded picture |
US6151075A (en) | 1997-06-11 | 2000-11-21 | Lg Electronics Inc. | Device and method for converting frame rate |
US6310919B1 (en) * | 1998-05-07 | 2001-10-30 | Sarnoff Corporation | Method and apparatus for adaptively scaling motion vector information in an information stream decoder |
-
2003
- 2003-04-09 US US10/410,479 patent/US7376186B2/en active Active
- 2003-07-11 EP EP03764471A patent/EP1540824B1/en not_active Expired - Lifetime
- 2003-07-11 ES ES03764471T patent/ES2301828T3/es not_active Expired - Lifetime
- 2003-07-11 WO PCT/US2003/021653 patent/WO2004008642A2/en active IP Right Grant
- 2003-07-11 CN CNB038170329A patent/CN100450185C/zh not_active Expired - Lifetime
- 2003-07-11 AU AU2003259110A patent/AU2003259110A1/en not_active Abandoned
- 2003-07-11 JP JP2005505118A patent/JP4533841B2/ja not_active Expired - Fee Related
- 2003-07-11 MX MXPA05000672A patent/MXPA05000672A/es active IP Right Grant
- 2003-07-11 BR BRPI0305517-5A patent/BRPI0305517B1/pt unknown
- 2003-07-11 DE DE60319239T patent/DE60319239T2/de not_active Expired - Lifetime
- 2003-07-11 BR BR0305517-5A patent/BR0305517A/pt active IP Right Grant
- 2003-07-14 MY MYPI20032623A patent/MY137057A/en unknown
- 2003-07-15 TW TW092119266A patent/TWI234402B/zh not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
JP2005533464A (ja) | 2005-11-04 |
AU2003259110A1 (en) | 2004-02-02 |
WO2004008642A3 (en) | 2004-04-08 |
US20040008782A1 (en) | 2004-01-15 |
AU2003259110A8 (en) | 2004-02-02 |
BR0305517A (pt) | 2004-12-28 |
US7376186B2 (en) | 2008-05-20 |
MY137057A (en) | 2008-12-31 |
EP1540824A2 (en) | 2005-06-15 |
MXPA05000672A (es) | 2005-03-31 |
CN100450185C (zh) | 2009-01-07 |
DE60319239D1 (de) | 2008-04-03 |
JP4533841B2 (ja) | 2010-09-01 |
DE60319239T2 (de) | 2009-02-26 |
EP1540824B1 (en) | 2008-02-20 |
BRPI0305517B1 (pt) | 2018-04-17 |
CN1669330A (zh) | 2005-09-14 |
WO2004008642A2 (en) | 2004-01-22 |
TWI234402B (en) | 2005-06-11 |
TW200412799A (en) | 2004-07-16 |
EP1540824A4 (en) | 2005-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2301828T3 (es) | Estimacion de movimiento con prediccion del peso. | |
JP6496056B2 (ja) | ビデオ符号化における参照ピクチャの適応重み付け | |
KR101713354B1 (ko) | 움직임 추정에 대한 검색 범위 선택 방법과 그의 시스템 및 컴퓨터 판독가능 저장 매체 | |
JP5580453B2 (ja) | 直接モード符号化及び復号化装置 | |
CA2500307C (en) | Implicit weighting of reference pictures in a video encoder | |
JP2017085617A (ja) | ビデオ復号化における参照ピクチャの適応重み付け | |
JP2004007379A (ja) | 動画像符号化方法及び動画像復号化方法 | |
KR20050084138A (ko) | 가중된 예측을 이용하는 비디오 크로스-페이드의 인코딩 | |
US7801217B2 (en) | Implicit weighting of reference pictures in a video encoder | |
JP2007049744A (ja) | 動画像符号化方法及び動画像復号化方法 | |
EP3163879B1 (en) | Video encoding device and video encoding method | |
RU2333615C2 (ru) | Адаптивное взвешивание эталонных изображений при декодировании видеосигнала | |
BRPI0318823B1 (pt) | Método para codificação dados de sinal de vídeo para um bloco de imagem | |
BRPI0318818B1 (pt) | "Método para decodificar dados de sinal de vídeo para um bloco de imagem" |