MXPA05005988A - Codificacion de desvanecimientos de video con el uso de una prediccion ponderada. - Google Patents

Codificacion de desvanecimientos de video con el uso de una prediccion ponderada.

Info

Publication number
MXPA05005988A
MXPA05005988A MXPA05005988A MXPA05005988A MXPA05005988A MX PA05005988 A MXPA05005988 A MX PA05005988A MX PA05005988 A MXPA05005988 A MX PA05005988A MX PA05005988 A MXPA05005988 A MX PA05005988A MX PA05005988 A MXPA05005988 A MX PA05005988A
Authority
MX
Mexico
Prior art keywords
image
fade
reference image
output
weighting
Prior art date
Application number
MXPA05005988A
Other languages
English (en)
Inventor
Macdonald Boyce Jill
Original Assignee
Thomson Licensing Sa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing Sa filed Critical Thomson Licensing Sa
Publication of MXPA05005988A publication Critical patent/MXPA05005988A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Circuits (AREA)

Abstract

Se proporciona un codificador (200, 300) de video y un metodo (700) para codificar datos de una senal de video para por lo menos una imagen de desvanecimiento cruzado dispuesta entre la imagen de inicio de desvanecimiento de salida y la imagen de fin de desvanecimiento de entrada. La porcion del codificador incluye una unidad (272, 372) del factor de ponderacion de la imagen de referencia para asignar factores de ponderacion correspondientes a cada una de la imagen de inicio de desvanecimiento de salida y de la imagen de fin de desvanecimiento de entrada, respectivamente y el metodo para codificar los desvanecimientos cruzados entre las imagenes que incluyen identificar imagenes entre las cuales se desea el desvanecimiento cruzado, determinar (714, 716) los puntos de fin apropiados para el desvanecimiento cruzado, y codificar (718, 720) los puntos de fin antes de codificar (722) la imagen con desvanecimiento cruzado.

Description

CODIFICACIÓN DE DESVANECIMIENTOS DE VIDEO CON EL USO DE UNA PREDICCIÓN PONDERADA REFERENCIA CRUZADA CON SOLICITUDES RELACIONADAS Esta solicitud reclama el beneficio de la Solicitud Provisional de Patente de Estados Unidos No. de serie 60/430,793, (Referencia del abogado No. PU020487) presentada el 4 de diciembre de 2002, titulada "ENCODING OF VIDEO CROSS-FADES USING WEIGHTED PREDICTION" (CODIFICACIÓN DE DESVANECIMIENTOS DE VIDEO CON EL USO DE PREDICCIÓN PONDERADA), la cual es incorporada como referencia en su totalidad en la presente.
CAMPO DE LA INVENCIÓN La presente invención está dirigida a los codificadores de video y en particular, a un aparato y método para producir efectivamente desvanecimientos cruzados de video entre imágenes.
ANTECEDENTES DE LA INVENCIÓN Por lo general, los datos de video se procesan y transfieren en forma de corrientes de bits. Los codificadores y decodificadores típicos de video ("CODEC") adquieren la mayoría de su eficiencia en compresión al formar una predicción de imagen de referencia de una imagen a ser codificada, y al codificar la diferencia entre la imagen real y la predicción. Entre más correlacionada esté la predicción con la imagen real, menor será la cantidad de bits necesaria para comprimir esa imagen, lo cual aumenta la efectividad del proceso. De este modo, es deseable que se forme el mejor predicción de imagen de referencia posible. En muchas de las normas de compresión de video, entre las que se incluye Moving Pictures Experts Group ("MPEG")-1 , MPEG-2 y MPEG-4, una versión compensada de movimiento de una imagen de referencia previa se utiliza como la predicción para la imagen real, y solamente se codifica la diferencia entre la imagen real y la predicción. Cuando se utiliza una única predicción de imagen (imagen "P"), la imagen de referencia no se escala cuando se forma la predicción compensada de movimiento. Cuando se utilizan predicciones de imagen bidireccionales (imágenes "B"), se forman las predicciones intermedias a partir de dos imágenes diferentes, y entonces las dos predicciones intermedias se promedian juntas, con el uso de factores de ponderación de (½, ½) para cada uno para formar una única predicción promediada. En algunas secuencias de video, en particular aquellas con desvanecimientos, la imagen real a ser codificada está más fuertemente correlacionada con la imagen de referencia escalda por un factor de ponderación que con la imagen de región en sí. La norma de compresión de video de Joint Video Team ("JVT") permite enviar factores de ponderación y desplazamientos para cada imagen de referencia. La norma especifica la forma en que el decodificador utilizará los factores de ponderación, pero no especifica la forma en que un codificador puede determinar un factor de ponderación apropiado. Para las secuencias que incluyen desvanecimientos cruzados, el determinar los factores de ponderación apropiados e imagen de referencia que serán utilizados es un poco difícil.
BREVE DESCRIPCIÓN DE LA INVENCIÓN Estas y otras desventajas de la técnica previa se resuelven con un aparato y método para comprimir en forma eficiente desvanecimientos cruzados de video con el uso de una predicción ponderada. Los puntos finales de un desvanecimiento cruzado se determinan y se utilizan como imágenes de referencia para codificar imágenes en la región de desvanecimiento cruzado. Se proporcionan un aparato y método para codificar datos de señal de video para una imagen de desvanecimiento cruzado dispuesta entre el desvanecimiento de salida o una imagen de inicio o un desvanecimiento de entrada o en una imagen final, en donde la porción del codificador incluye una unidad del factor de ponderación de la imagen de referencia para asignar factores de ponderación correspondientes a cada una de la imagen de inicio de desvanecimiento de salida y la imagen de fin de desvanecimiento de entrada, respectivamente, y el método para codificar los desvanecimientos cruzados entre imágenes que incluyen identificar imágenes entre el desvanecimiento cruzado deseado, determinar los puntos finales apropiados para el desvanecimiento cruzado y codificar los puntos finales antes de la codificación de la imagen con desvanecimiento cruzado.
Estos y otros aspectos, características y ventajas de la presente invención serán evidentes a partir de la siguiente descripción de las modalidades ejemplificativas cuando se leen junto con los dibujos acompañantes.
BREVE DESCRIPCIÓN DE LOS DIBUJOS La presente invención se puede comprender mejor con referencia a las siguientes Figuras ejemplificativas, en las cuales: La Figura 1 muestra un diagrama en bloque para un codificador de video estándar. La Figura 2 muestra un diagrama en bloque para un codificador de video con ponderación implícita de imagen de referencia para los desvanecimientos cruzados de video. La Figura 3 muestra un diagrama en bloque para un codificador de video con ponderación de imagen de referencia explícita para los desvanecimientos cruzados. La Figura 4 muestra un diagrama en bloque para un decodlficador de video para la ponderación de imagen de referencia explícita para desvanecimientos cruzados de video. La Figura 5 muestra una representación pictórica para la desvanecimiento cruzado de video entre un par de imágenes; y La Figura 6 muestra un diagrama de flujo para un proceso de codificación ejemplificativo.
DESCRIPCIÓN DETALLADA DE LAS MODALIDADES PREFERIDAS Se exponen un aparato y método para codificar desvanecimientos cruzados de video con el uso de predicción ponderada, incluyendo el cálculo del vector de movimiento y la asignación de factor de ponderación de imagen de referencia adaptable. En algunas secuencias de video, en particular las que tienen desvanecimientos, la imagen real o el bloque de imagen a ser codificada se correlaciona más fuertemente con una imagen de referencia escalada por un factor de referencia que con la imagen de referencia en sí. Los codificadores de video sin factores de ponderación aplicados en las imágenes de referencia codifican las secuencias de desvanecimiento en forma muy poco eficiente. Cuando se utilizan los factores de ponderación para codificar, un codificador de video necesita determinar tanto los factores de ponderación como los vectores de movimiento, pero la mejor opción para cada uno de ellos depende del otro. Por lo tanto, se describe un método para comprimir en forma eficiente desvanecimientos cruzados de video con el uso de una predicción ponderada JVT. Los puntos finales de un desvanecimiento cruzado se determinan primero y se utilizan como las imágenes de referencia para codificar las imágenes en la región del desvanecimiento cruzado.
La presente descripción solamente ilustra los principios de la invención. Por lo tanto, las personas experimentadas en la técnica podrán apreciar que varios arreglos, aunque no se describen o muestran explícitamente aquí, incorporan los principios de la invención y están incluidos dentro de su espíritu y alcance. Todos los ejemplos y el lenguaje condicional utilizados aquí, tienen la intención de expresar los propósitos pedagógicos para ayudar al lector a comprender los principios y los conceptos otorgados por el inventor a la técnica, y se deben considerar sin limitación para los ejemplos y condiciones específicamente descritos aquí. También, todas las declaraciones que describen principios, aspectos y modalidades de la invención, así como los ejemplos específicos de la misma, tienen la intención de abarcar tanto los equivalentes estructurales como funcionales de la misma. Además, se tiene la intención de que tales equivalentes incluyan los equivalentes ya conocidos como los equivalentes desarrollados en un futuro, es decir, cualquier elemento desarrollado para llevar a cabo la misma función, sin importar su estructura. De este modo, por ejemplo, las personas experimentadas en la técnica podrán apreciar que los diagramas en bloque representan las vistas conceptuales de la circuitería ilustrativa que incorpora los principios de la invención. De manera similar, se debe observar que los diagramas de flujo, diagramas de transición de estado, pseudo códigos, y sus semejantes representan varios procesos que pueden representarse esencialmente en un medio legible por computadora y por ello pueden ser ejecutados por una computadora o con un procesador, ya sea que la computadora y el procesador se muestren o no explícitamente. Las funciones de los diferentes elementos mostrados en las Figuras pueden ser provistas con el uso de un hardware dedicado, así como con un hardware con la capacidad de ejecutar un software asociado con el software apropiado. Cuando se proporcionan por un procesador, las funciones pueden ser provistas por un único procesador dedicado, por un único procesador compartido, o por una pluralidad de procesadores individuales, algunos de los cuales pueden ser compartidos. Además, el uso explícito del término "procesador" o "controlador" no debe ser considerado como refiriéndose exclusivamente a un hardware con la capacidad de ejecutar software, y puede implícitamente incluir, sin limitación un hardware procesador de señal digital ("DSP"), una memoria de solamente lectura ("ROM") para almacenar el software, una memoria de acceso aleatorio ("RAM") y un almacenamiento no volátil. Otro hardware convencional y/o personalizado, también se puede incluir. De igual forma, cualquier conmutador mostrado en las Figuras es solamente conceptual. Su función puede ser llevada a cabo a través de la operación de un programa lógico, con lógicos dedicados, con la interacción de un control de programa y lógicos dedicados, o incluso en forma manual, o una técnica particular a ser seleccionada por ei usuario, según se entienda mejor a partir del contexto. Dentro de las reivindicaciones cualquier elemento expresado como un medio para llevar a cabo una función específica tiene la intención de abarcar cualquier forma para llevar a cabo esa función, por ejemplo, a) en combinación de elementos de circuito que lleven a cabo esa función o b) un software en cualquier forma, incluyendo, firmware, microcódigo o su semejante combinado con la circuitería apropiada para ejecutar ese software para llevar a cabo la función. La invención según se define por tales reivindicaciones reside en el hecho de que las funciones provistas por varios medios descritos se combinan y se llevan a cabo juntas en la manera en que se describe en las reivindicaciones. Por lo tanto, el solicitante considera cualquier medio que pueda proporcionar esas funciones como un equivalente a los mostrados aquí. En algunas secuencias de video, en particular aquellas con desvanecimientos, la imagen real o bloque de imagen a ser codificado está correlacionado más fuertemente con una imagen de referencia escalda por un factor de ponderación que con la imagen de referencia en sí. Los codificadores de video sin factores de ponderación aplicados en las imágenes de referencia codifican las secuencias de desvanecimiento muy deficientemente. En la norma de compresión de video ("JVT"), cada imagen P puede utilizar múltiples imágenes de referencia para formar una predicción de la imagen, pero cada macrobloque individual o división de macrobloque, (de tamaño 16x8, 8x16 u 8x8) utiliza solamente una única imagen de referencia para predicción. Además de codificar y transmitir los vectores de movimiento, el índice de la imagen de referencia se transmite para cada macrobloque o división de macrobloque, el cual indica la imagen de referencia que se está utilizando. Un grupo limitado de imágenes de referencia se almacena tanto en el codificador como en el decodificador, y se transmite el número de imágenes de referencia permisibles. A diferencia de las normas previas, tal como MPEG-2, un codificador JVT tiene una flexibilidad importante, ya que las imágenes codificadas previamente se pueden utilizar como las imágenes de referencia. En la norma JVT para las imágenes bi-predictivas (también llamadas imágenes "B"), se forman dos predictores para cada macrobloque o división de macrobloque, cada uno de los cuales puede ser de una imagen de referencia separada, y los dos predictores se promedian juntos para formar un único predictor promediado. Para los bloques de movimiento codificados en forma bi-predictiva, las imágenes de referencia pueden tanto ser en la dirección delantera, como de la dirección trasera o uno de cada una de las direcciones delantera y trasera. Se mantienen dos listas de imágenes de referencia disponibles que se pueden utilizar para la predicción. Las dos imágenes de referencia son llamadas como predictores de lista 0 y de lista 1. Un índice para cada imagen de referencia se codifica y se transmite, ref_idx_IO y ref_idx_M, para las imágenes de referencia de lista 0 y de lista 1, respectivamente. La norma JVT proporciona dos modos de predicción ponderada, lo que permite aplicar factores de ponderación y/o desplazamientos a las imágenes de referencia cuando forman una predicción. El factor de ponderación a ser usado está con base en el índice de la imagen de referencia (o índices en el caso de bi-predicción) para el macrobloque actual o la división de macrobloque. Los índices de la imagen de referencia se codifican en la corriente de bits o pueden derivarse, como para los macrobloques de modo directo o saltado. Un único factor de ponderación y un único desplazamiento están asociados con cada índice de la imagen de referencia para todas las rebanadas de la imagen actual. En el modo explícito, estos parámetros se codifican en el encabezado de rebanada. En el modo implícito, estos parámetros se derivan. Los factores de ponderación y los valores de parámetro de desplazamiento están restringidos para permitir las operaciones aritméticas de 16 bits en el proceso de inter-predicción. El codificador puede seleccionar el modo implícito o el modo explícito para cada imagen codificada. Las imágenes "B" o bi-predictivas JVT permiten la predicción adaptable entre las dos predicciones, es decir: Pred = ((PO) * (PredO)) + ((P1)) * (Predi)) + D, en donde PO y P1 son los factores de ponderación, PredO y Pred 1 son las predicciones de la imagen de referencia para la lista 0 y la lista 1, respectivamente, y D es un desplazamiento.
Como se muestra en la Figura 1, un codificador de video estándar se indica por lo general con el número de referencia 100. Una entrada del codificador 100 se conecta en comunicación de señal con una entrada no invertida de un empalme 110 sumador. La salida del empalme 110 sumador se conecta en comunicación de señal con una función del transformador 120 de bloque. El transformador 120 se conecta en comunicación de señal con un cuantificador 130. La salida del cuantificador 130 se conecta en comunicación de señal con un codificador de longitud variable ("VLC") 140, en donde la salida del VLC 140 es una salida disponible en forma externa del codificador 100. La salida del cuantificador 130 también se conecta en comunicación de señal con un cuantificador 150 inverso. El cuantificador 150 inverso se conecta en comunicación de señal con un transformador 160 en bloque inverso, que a su vez, se conecta en comunicación de señal con un almacenamiento 170 de la imagen de referencia. Una primera salida del almacenamiento 170 de imagen de referencia se conecta en comunicación de señal con una primera entrada del calculador 180 de movimiento. La entrada del codificador 100 también se conecta en comunicación de señal con una segunda entrada del calculador 180 de movimiento. La salida del calculador 180 de movimiento se conecta en comunicación de señal con una primera entrada de un compensador 190 de movimiento. Una segunda salida del almacenamiento 170 de imagen de referencia se conecta en comunicación de señal con una segunda entrada del compensador 190 de movimiento. La salida del compensador 190 de movimiento se conecta en comunicación de señal con una entrada invertida de un empalme 110 sumador. Con referencia ahora a la Figura 2, un codificador de video con una ponderación implícita de imagen de referencia se indica por lo general con el número 200 de referencia. Una entrada del codificador 200 se conecta en comunicación de señal con una entrada no invertida de un empalme 210 sumador. La salida del empalme 210 sumador se conecta en comunicación de señal con un transformador 220 en bloque. El transformador 220 se conecta en comunicación de señal con un cuantificador 230. La salida del cuantificador 230 se conecta en comunicación de señal con un VLC 240, en donde la salida del VLC 240 es una salida disponible externa del codificador 200. La salida del cuantificador 230 también se conecta en comunicación de señal con un cuantificador 250 inverso. El cuantificador 250 inverso se conecta en comunicación de señal con un transformador 260 en bloque inverso, que a su vez, se conecta en comunicación de señal con un almacenamiento 270 de imagen de referencia. Una primera salida del almacenamiento 270 de imagen de referencia se conecta en comunicación de señal con una primera entrada de un asignador 272 de factor de ponderación de imagen de referencia. La entrada del codificador 200 se conecta en comunicación de señal con una segunda entrada del asignador 272 del factor de ponderación de imagen de referencia. La segunda salida del almacenamiento 270 de imagen de referencia se conecta en comunicación de señal con una segunda entrada del calculador 280 de movimiento. La entrada del codificador 200 también se conecta en comunicación de señal con una tercera entrada del calculador 280 de movimiento. La salida del calculador 280 de movimiento, que es indicativa de los vectores de movimiento, se conecta en comunicación de señal con una primera entrada de un compensador 290 de movimiento. Una tercera salida del almacenamiento 270 de imagen de referencia se conecta en comunicación de señal con una segunda entrada de un compensador 290 de movimiento. La salida del compensador 290 de movimiento, que es indicativa de una imagen de referencia compensada de movimiento, se conecta en comunicación de señal con una primera entrada de un multiplicador o aplicador 292 de ponderación de imagen de referencia. Aunque se muestra una modalidad ejemplificativa del multiplicador, el aplicador 292 de ponderación de la imagen de referencia se puede implementar en formas diferentes, como por ejemplo, por un registro de desplazamiento. La salida del asignador 272 de factor de ponderación de imagen de referencia, que es indicativa del factor de ponderación, se conecta en comunicación de señal con una segunda entrada del multiplicador 292. La salida del aplicador 292 de ponderación de la imagen de referencia se conecta en comunicación de señal con una entrada invertida de un empalme 210 sumador.
Con referencia ahora a la Figura 3, un codificador de video con una ponderación explícita de imagen de referencia se indica por lo general con el número 300 de referencia. Una entrada del codificador 300 se conecta en comunicación de señal con una entrada no invertida de un empalme 310 sumador. La salida del empalme 310 sumador se conecta en comunicación de señal con un transformador 320 en bloque. El transformador 320 se conecta en comunicación de señal con un cuantificador 330. La salida del cuantif icador 330 se conecta en comunicación de señal con un VLC 340, en donde la salida del VLC 340 es una salida disponible externa del codificador 300. La salida del cuantificador 330 también se conecta en comunicación de señal con un cuantificador 350 inverso. El cuantificador 350 inverso se conecta en comunicación de señal con un transformador 360 en bloque inverso, que a su vez, se conecta en comunicación de señal con un almacenamiento 370 de imagen de referencia. Una primera salida del almacenamiento 370 de imagen de referencia se conecta en comunicación de señal con una primera entrada de un asignador 372 de factor de ponderación de imagen de referencia. La entrada del codificador 300 se conecta en comunicación de señal con una segunda entrada del asignador 372 del factor de ponderación de imagen de referencia. Una primera salida del asignador 372 del factor de ponderación de la imagen de referencia que es indicativa del factor de ponderación, se conecta en comunicación de señal con una primera entrada del cálculo 380 de movimiento. La segunda salida del almacenamiento 370 de imagen de referencia se conecta en comunicación de señal con una segunda entrada del calculador 380 de movimiento. La entrada del codificador 300 también se conecta en comunicación de señal con una tercera entrada del calculador 380 de movimiento. La salida del calculador 380 de movimiento, que es indicativa de los vectores de movimiento, se conecta en comunicación de señal con una primera entrada de un compensador 390 de movimiento. Una tercera salida del almacenamiento 370 de imagen de referencia se conecta en comunicación de señal con una segunda entrada de un compensador 390 de movimiento. La salida del compensador 390 de movimiento, que es indicativa de una imagen de referencia compensada de movimiento, se conecta en comunicación de señal con una primera entrada de un multiplicador o aplicador 392 de ponderación de imagen de referencia. Una segunda salida del asignador 372 de factor de ponderación de imagen de referencia, que es indicativa del factor de ponderación, se conecta en comunicación de señal con una segunda entrada del aplicador 392 de ponderación de la imagen de referencia. La salida del aplicador 392 de ponderación de la imagen de referencia se conecta en comunicación de señal con una entrada invertida de un empalme 394 sumador. Una tercera salida del asignador 372 del factor de ponderación de la imagen de referencia, que es indicativa de un desplazamiento, se conecta en comunicación de señal con una segunda entrada no invertida del empalme 394 sumador. La salida del empalme 394 sumador se conecta en comunicación de señal con una entrada invertida del empalme 310 sumador. Como se muestra en la Figura 4, un decodificador de video con una ponderación explícita de imagen de referencia se indica por lo general con el número 500 de referencia. El decodificador 500 de video incluye un decodificador de longitud variable (VLD) 510 conectado en comunicación de señal con un cuantificador 520 inverso. El cuantificador 520 inverso se conecta en comunicación de señal con un transformador 530 inverso. El transformador 530 inverso se conecta en comunicación de señal con una primera terminal de entrada de un empalme 540 sumador, en donde la salida del empalme 540 sumador proporciona la salida del decodificador 500 de video. La salida del empalme 540 sumador se conecta en comunicación de señal con un almacenamiento 550 de imagen de referencia. El almacenamiento 550 de imagen de referencia se conecta en comunicación de señal con un compensador 560 de movimiento, el cual se conecta en comunicación de señal con una primera entrada de un multiplicador o un aplicador 570 de ponderación de imagen de referencia. Las personas experimentadas en la técnica podrán reconocer que el decodificador 500 para la predicción ponderada explícita también se puede utilizar para la predicción ponderada implícita. El VLD 50 también se conecta en comunicación de señal con una consulta 580 de factor de ponderación de la imagen de referencia para proporcionar un índice de coeficiente a la consulta 580. Una primera salida de la consulta 580 es para proporcionar un factor de ponderación y se conecta en comunicación de señal con una segunda entrada del aplicador 570 de ponderación de imagen de referencia. La salida del aplicador 570 de ponderación de imagen de referencia se conecta en comunicación de señal con una primera entrada del empalme 590 sumador. Una segunda salida de la consulta 580 es para proporcionar un desplazamiento, y se conecta en comunicación de señal con una segunda entrada del empalme 590 sumador. La salida del empalme 590 sumador se conecta en comunicación de señal con una segunda terminal de entrada del empalme 540 sumador. Como se muestra en la Figura 5, un desvanecimiento cruzado de imagen se indica por lo general con el número 600 de referencia. El desvanecimiento 600 cruzado de imagen ejemplif icativo incluye un desvanecimiento de salida o imagen 610 de inicio, identificada como FP0 y un desvanecimiento de entrada o imagen 612 de fin, identificada como FP1. Con referencia ahora a la Figura 6, se muestra un proceso ejemplificativo para codificar datos de una señal de video para un bloque de imagen y se indica con el número 700 de referencia. El proceso 700 se implementa con un codificador, como el codificador 200 ó 300 de las Figuras 2 y 3, respectivamente. El proceso 700 incluye un bloque 710 de inicio que pasa el control a un bloque 712 de decisión. El bloque 712 de decisión determina si está presente un desvanecimiento cruzado y cuando no hay ninguno presente, pasa e! control a un bloque de función 713. El bloque 713 de función lleva a cabo la codificación normal y pasa el control a un bloque de fin 724. Sin embargo, cuando el bloque 712 de decisión encuentra un desvanecimiento cruzado, pasa el control a un bloque 714 de función. El bloque 714 de función encuentra el punto de inicio de desvanecimiento de salida, FPO y pasa el control a un bloque 716 de función, el cual encuentra el punto de fin FP1 del desvanecimiento de entrada. El bloque 716 pasa el control a un bloque 718 de función, el cual codifica la imagen FPO de inicio de desvanecimiento de salida y pasa el control a un bloque 720 de función. El bloque 720 codifica la imagen FP1 de fin de desvanecimiento de entrada y pasa el control a un bloque 722 de función. El bloque 722 de función, a su vez, codifica imágenes dispuestas en el orden de despliegue entre FPO y FP1, con el uso de la predicción ponderada con la FPO de imagen como la lista 0 de referencia y el FP1 de imagen como la lista 1 de referencia. El bloque 722 de función pasa el control a un bloque 724 de fin. Una herramienta de composición utilizada para los desvanecimientos cruzados de video entre un par de imágenes incluye un codificador de video, como el codificador 200 de la Figura 2 y opera en un contenido de video pre-almacenado. Además del contenido de video no comprimido, cierta información adicional puede estar disponible como listas de decisión y puntos de edición de rebanada. El codificador de video en una herramienta de composición no necesariamente necesita operar en tiempo real. Los efectos especiales como desvanecimientos y desvanecimientos cruzados se pueden aplicar en la herramienta de composición. Varias técnicas son bien conocidas para detectar desvanecimientos y desvanecimientos cruzados, también conocidos como disoluciones, en secuencias de video. Cuando se codifica una imagen particular, para cada macrobloque o división de macrobloque, un codificador JVT debe seleccionar un modo de decisión de codificación, una o dos imágenes de referencia, y uno o más vectores de movimiento. Cuando un codificador JVT utiliza la predicción ponderada, una vez por imagen o rebanada, también puede seleccionar un factor de ponderación a ser aplicado para cada índice de referencia utilizado. Uno o más índices de referencia se refieren a cada imagen de referencia permisible, de modo que se pueden utilizar múltiples ponderaciones para cada imagen de referencia individual. La herramienta de composición detecta cuando se está llevando a cabo un desvanecimiento cruzado. La herramienta de composición tiene suficiente información para detectar cuando se está llevando a cabo un desvanecimiento cruzado ya sea porque se aplicó el desvanecimiento cruzado en sí o porque se leyó desde la lista de decisión, o porque emplea un algoritmo de detección de desvanecimiento. Para un desvanecimiento cruzado, una imagen identificada como punto de inicio de desvanecimiento de salida se identifica como FPO y la imagen de punto de fin de desvanecimiento de entrada se identifica como FP1. Cuando se detecta el desvanecimiento cruzado, el codificador codifica imágenes FPO y FP1 antes de codificar imágenes entre FPO y FP1 en el orden de despliegue, que son referidas como imágenes de desvanecimiento cruzado. De esta manera, una característica de la presente invención es que la imagen de fin de) desvanecimiento de entrada FP1, se codifica antes de las imágenes intermedias. Es común en los codificadores de video utilizar un patrón fijo de los tipos de codificación de las imágenes I, P y B y que el orden de codificación difiere del orden de despliegue. Por ejemplo, tal patrón común puede comprender: Orden de codificación común: 10 P3 B1 B2 P6 B4 B5 P9 B7 B8 Orden de despliegue común: I0 B1 B2 P3 B4 B5 P6 B7 B8 P9 Para este patrón común, la imagen P3 se codifica antes de las imágenes B1 y B2 intermedias. Las imágenes B1 y B2 utilizan I0 y P3 como la imagen de referencia en su proceso de predicción. La norma JVT no requiere el uso de patrones de tipo de codificación de imagen fijos, y no sugiere métodos para que el codificador pueda ajustar los patrones para maximizar la efectividad de codificación. De conformidad con la presente invención, la efectividad de codificación de las secuencias de desvanecimiento cruzado se puede mejorar al ajustar el tipo de codificación de imagen y el orden de codificación. Cuando por ejemplo, la imagen 0 y la imagen 9 son identificadas como las imágenes de inicio del desvanecimiento de entrada y de fin del desvanecimiento de salida, respectivamente, se puede utilizar el siguiente orden de codificación y despliegue: Orden de codificación inventivo: 10 P9 B1 B2 B3 B4 B5 B6 B7 B8 Orden de despliegue inventivo: I0 B1 B2 B3 B4 B5 B6 B7 B8 P9 Cuando se codifica una imagen de desvanecimiento cruzado, el codificador ordena las listas de la imagen de referencia con el uso del re-ordenamiento de selección de la imagen de referencia, si es necesario, como FPO en la primera imagen en la Lista 0 y FP1 es la primera imagen en la lista 1. Esto proporciona eficiencia de codificación adicional, ya que el índice de referencia de 0, que se refiere a la primera imagen en la lista de imágenes de referencia, se puede codificar con el uso de un número menor de bits que otros índices de referencia. Entonces se selecciona un factor de ponderación para los índices de referencia correspondientes a cada uno de FPO y FP1, con base en la contribución relativa de la primera imagen y la segunda imagen en la composición de la imagen actual. Cuando se conoce la fórmula utilizada para crear la imagen de desvanecimiento cruzado, ya sea porque la herramienta de composición creó el desvanecimiento cruzado, o desde la información lateral, entonces se puede utilizar el factor de ponderación de la fórmula de composición. Cuando la fórmula exacta no es conocida, un factor de ponderación se puede computar con el uso de cualquiera de los diferentes algoritmos, como los que están con base en la distancia relativa de la imagen real desde FPO y FP1, por ejemplo.
Este algoritmo antes descrito se puede aplicar para todas las imágenes codificadas en la región de desvanecimiento cruzado, o se puede aplicar solamente por las imágenes que están marcadas para almacenarse como imágenes de referencia. En modalidades alternativas, ya sea en la predicción ponderada del modo implícito o del modo explícito se puede utilizar para codificar las imágenes de desvanecimiento cruzado. Cuando se utiliza el modo explícito, se pueden utilizar cualquier factor de ponderación. Cuando se utiliza el modo implícito, los factores de ponderación dependen de la distancia relativa de la imagen real desde FPO y FP1.
Este sistema y técnica se pueden aplicar en cualquier imagen "P" predictiva, que están codificadas con un solo predictor, o las imágenes "B" bi-predictivas, que se codifican con dos predictores. Los procesos de decodificación, que están presentes en los codificadores y decodificadores, se describen a continuación para los casos de imágenes P y B. De manera alternativa, esta técnica también se puede aplicar en sistemas de codificación que utilizan los conceptos similares a los de las imágenes I, B y P. Se pueden utilizar los mismos factores de ponderación para una única predicción direccional en las imágenes B y para la predicción bi-direccional para las imágenes B. Cuando se utiliza un solo predictor para un macrobloque, en las imágenes P o para una única predicción direccional en las imágenes B, se transmite un único índice de imagen de referencia para el bloque. Después del paso del proceso de decodificación de compensación de movimiento produce un predictor, el factor de ponderación se aplica en el predictor. El predictor ponderado entonces se suma al residuo codificado, y se lleva a cabo un adjunto en la suma, para formar la imagen decodificada. Para usarse para bloques en las imágenes P o para bloques en las imágenes B que utilizan solamente la predicción de lista 0, el predictor ponderado se forma como: Pred = W0 * PredO + DO (1) En donde W0 es el factor de ponderación asociado con la imagen de referencia de lista 0, DO es el desplazamiento asociado con la imagen de referencia de lista 0 y PredO es el bloque de predicción compensado de movimiento desde la imagen de referencia de lista 0. Para usarse para bloques en las imágenes B que utilizan solamente la predicción de lista 1, el predictor ponderado se forma como: Pred = W1 * Predi + D1 (2) En donde W1 es el factor de ponderación asociado con la imagen de referencia de lista 1, D1 es el desplazamiento asociado con la imagen de referencia de lista 1, y Predi es el bloque de predicción compensado de movimiento de la imagen de referencia de la lista 1. Los predictores ponderados se pueden adjuntar para garantizar que los valores resultantes estarán dentro de un rango permisible de valores de píxel, típicamente de 0 a 255. La precisión de la multiplicación en las fórmulas de ponderación pueden estar limitados a cualquier número de bits predeterminado de resolución.
En el caso bi-predictivo, los índices de imagen de referencia se transmiten para cada uno de los dos predictores. La compensación de movimiento se lleva a cabo para formar los dos predictores. Cada predictor utiliza el factor de ponderación asociado con su índice de imagen de referencia para formar dos predictores ponderados. Los dos predictores ponderados entonces se promedian juntos para formar un predictor promediado, que entonces se agrega al residual codificado. Para usarse para bloques en las imágenes B que utilizan los predictores de lista 0 y de lista 1, el predictor ponderado se forma como: Pred = (P0 * PredO + DO + P1 * Predi D1)/2 (3) Se puede aplicar el adjunto con el predictor ponderado o cualquiera de los valores intermedios en el cálculo del predictor ponderado para garantizar que los valores resultantes estarán dentro del rango permisible de valores de píxel, típicamente de 0 a 255. De esta manera, un factor de ponderación se aplica en la predicción de la imagen de referencia de un codificador y decodificador de compresión de video que utiliza múltiples imágenes de referencia. El factor de ponderación adapta los bloques de movimiento individual dentro de una imagen, con base en el índice de la imagen de referencia que se utiliza para ese bloque de movimiento. Debido a que el índice de la imagen de referencia ya se transmitió en la corriente de bits de video comprimido, el encabezado adicional para adaptar el factor de ponderación en base del bloque de movimiento se reduce dramáticamente. Todos los bloques de movimiento que se codifican con respecto a la misma imagen de referencia aplican el mismo factor de ponderación con la predicción de la imagen de referencia. En el software de Joint Model ("JM") del comité JVT, un método a posterior! que utiliza la optimización de distorsión de velocidad se utiliza para la selección de los vectores de movimiento, la división del macrobloque, el modo de predicción, y los índices de imagen de referencia. En este método, el rango de valores permisibles para cada una de las opciones se prueba y se determina el costo para cada opción. Se selecciona la opción que lleva a un costo mínimo. Las técnicas de cálculo de movimiento han sido ampliamente investigadas. Para cada bloque de movimiento de una imagen a ser codificada, se selecciona un vector de movimiento que representa un desplazamiento del bloque de movimiento de una imagen de referencia. En un método de búsqueda exhaustivo dentro de una región de búsqueda, se prueba cada desplazamiento dentro de un intervalo predeterminado de desplazamientos con relación a la posición del bloque de movimiento. La prueba incluye calcular la suma de la diferencia absoluta ("SAD") o el error de media cuadrada ("MSE") de cada píxel en el bloque de movimiento en la imagen actual con el bloque de movimiento desplazado en una imagen de referencia. Se selecciona el desplazamiento con la SAD o MSE más baja como el vector de movimiento. Se han propuesto muchas variaciones en esta técnica, como una búsqueda de tres pasos y el cálculo de movimiento optimizado con distorsión de velocidad, todas ellas incluyen el paso de computar SAD o MSE del bloque de movimiento actual con un bloque de movimiento desplazado en una imagen de referencia. Los costos de computación para determinar los vectores de movimiento y los factores de ponderación de imagen de referencia adaptable se puede reducir al utilizar un proceso iterativo, mientras se seleccionan los vectores de movimiento y los factores de ponderación que tienen la capacidad de alcanzar una gran efectividad de compresión. Un proceso de determinación de factor de ponderación y de vector de movimiento de una modalidad ejemplificativa se describe, el cual supone que se aplica un único factor de ponderación a la imagen de referencia completa, aunque los principios de la invención no deben considerarse como limitantes. El proceso también se puede aplicar sobre regiones más pequeñas de la imagen, como rebanadas, por ejemplo. Además, aunque se describe una modalidad ejemplificativa como usando solamente una imagen de referencia, los principios también se pueden aplicar a múltiples imágenes bi-predictiva y múltiples predicciones de la imagen de referencia. El cálculo del vector de movimiento para un bloque de movimiento se puede llevar a cabo típicamente mejor cuando se conoce el factor de ponderación a ser utilizado. En una modalidad ejemplificativa, se forma un cálculo del factor de ponderación, con el uso de la imagen de referencia y los valores de píxel de la imagen actual. El factor de ponderación se puede limitar a un número de bits de resolución. Cuando el factor de ponderación está muy cerca de 1, no existe la necesidad de considerar el factor de ponderación en el proceso de cálculo de movimiento y el cálculo de movimiento normal puede llevarse a cabo con el factor de ponderación supuesto para ser igual a 1. De otra forma, el cálculo del factor de ponderación se aplica con la imagen de referencia. El cálculo de movimiento se lleva a cabo con el uso de cualquier método que calcule SAD o MSE, pero con el cálculo SAD o SE llevado a cabo entre el bloque de movimiento de la imagen real y el bloque de movimiento desplazado en la versión ponderada de la imagen de referencia, mejor que la imagen de referencia no ponderada. El cálculo del factor de ponderación puede ser refinado después de que se han seleccionado los vectores de movimiento, cuando es necesario. Los vectores de movimiento real se aplican a la imagen de referencia ponderada para formar la imagen de referencia compensada de movimiento, ponderada. Se computa una medida de diferencia entre la imagen de referencia compensada de movimiento, ponderada y la imagen real. Cuando la medida de diferencia es menor que un umbral, o menor que la mejor medida de diferencia previa, el proceso está completo, y se aceptan los vectores de movimiento y el factor de ponderación candidatos actuales.
Cuando la medida de diferencia es más alta que el umbral, el factor de ponderación se puede refinar. En este caso, una imagen de referencia no ponderada pero compensada de movimiento se forma con base en los vectores de movimiento candidato. El cálculo del factor de ponderación se refina con el uso de la imagen de referencia compensada de movimiento y la imagen actual, mejor que utilizar la imagen de referencia no compensada, como se hizo para formar el cálculo inicial del factor de ponderación. En una modalidad, el cálculo inicial del factor de ponderación, w es la relación entre el valor promedio de pixeles en la imagen actual, cur, dividido por el valor promedio de pixeles en la imagen de referencia, reí, en donde: w = prom(cur)/prom(ref) (4) Los cálculos de refinamiento son la relación entre el promedio de pixeles en la imagen actual y el promedio de pixeles en la imagen de referencia compensada de movimiento, mcref, en donde: W = prom(cur) / prom(mcref) (5) La medida diff de diferencia es el valor absoluto del promedio de diferencias de píxel entre la imagen actual, cur, y la imagen de referencia compensada de movimiento, ponderada, mcref, en donde: diff = I ?cur-wmcref I (6) En otra modalidad, la medida de diferencia es la suma de las diferencias absolutas de los pixeles en la imagen actual y la imagen de referencia compensada de movimiento, ponderada, en donde: diff= ? I cur - wmcref | Cuando se lleva a cabo el cálculo del movimiento con base en el bloque, se utiliza el mismo píxel en una imagen de referencia para muchos cálculos SAD. En una modalidad ejemplificativa, durante el proceso de cálculo de movimiento, una vez que se ha aplicado el factor de ponderación en un píxel en una imagen de referencia, el píxel ponderado se almacena, además del píxel normal. El almacenamiento se puede llevar a cabo para una región de la imagen o para la imagen completa. Los valores de imagen de referencia ponderada se pueden adjuntar para almacenarse con el mismo número de bits como la referencia no ponderada, como 8 bits, por ejemplo, o puede almacenarse con el uso de más bits. Cuando se lleva a cabo el adjuntado para el proceso de compensación de movimiento, que es más eficiente de memoria, el factor de ponderación se vuelve a aplicar con la imagen de referencia para el vector de movimiento actual seleccionado, la diferencia se calcula con el uso de bits adicionales y el adjuntado se lleva a cabo después de la diferencia con el fin de evitar cualquier disparidad con el decodificador, que de otra forma pueden ocurrir cuando el decodificador no lleva el adjuntado después de que se aplica el factor de ponderación. Cuando se utilizan múltiples imágenes de referencia para codificar una imagen, se puede calcular un factor de ponderación separado para cada imagen de referencia. Durante el cálculo de movimiento, se seleccionan un vector de movimiento y un índice de la imagen de referencia para cada bloque de movimiento. Para cada iteración del proceso, se encuentran los vectores de movimiento y los factores de ponderación para cada imagen de referencia. En una modalidad preferida, durante el cálculo de movimiento, se determina la mejor imagen de referencia para un bloque de movimiento determinado. El cálculo de la medida de diferencia se lleva a cabo en forma separada para cada imagen de referencia, solamente con el uso de los bloques de movimiento que utilizan esa imagen de referencia a ser utilizada en el cálculo. El refinamiento del cálculo del factor de ponderación para una imagen de referencia determinada también utiliza los bloque de movimiento que están codificados con el uso de esa imagen de referencia. Para la codificación bi-predictiva, los factores de ponderación y los vectores de movimiento se pueden determinar en forma separada para cada una de las dos predicciones, que serán promediadas juntas para formar una predicción promediada. Los principios de la presente invención se pueden aplicar en muchos tipos de algoritmos de cálculo de movimiento. Cuando se utilizan con medidas jerárquicas, la iteración de selección del factor de ponderación y de la selección del vector de movimiento se pueden utilizar con cualquier nivel de jerarquía del cálculo de movimiento. Por ejemplo, la medida iterativa se puede utilizar con un cálculo de movimiento del elemento de imagen de enteros ("peí"). Después de que se encuentran el factor de ponderación y los vectores de movimiento enteros con el uso del algoritmo iterativo provisto, los vectores de movimiento sub-pel se pueden encontrar sin requerir otra iteración en la selección del factor de ponderación. Estas y otras características y ventajas de la presente invención se pueden lograr fácilmente por las personas experimentadas en la técnica con base en las técnicas aquí descritas. Se debe entender que los principios de la presente invención se pueden implementar en varias formas de hardware, software, firmware, y procesadores de propósitos especiales o combinaciones de los mismos. Con mayor preferencia, los principios de la presente invención se implementan como una combinación de hardware y software. Además, de preferencia, el software se impiementa como un programa de aplicación incorporado tangiblemente en una unidad de almacenamiento de programas. El programa de aplicación se puede carga y ejecutarse por una máquina que comprende la arquitectura apropiada. De preferencia, la máquina se impiementa en una plataforma de computadora que tenga el hardware, tal como una o más unidades de procesamiento central (CPU), una memoria de acceso aleatorio (RAM), interfaces de entrada/salida (l/O)- La plataforma de computadora también puede incluir un sistema operativo y un código de microinstrucción. Los diferentes procesos y funciones aquí descritos pueden ser parte del código de microinstrucción o parte de un programa de aplicación, o una combinación de los mismos, que se puedan ejecutar por la CPU.
Además, se pueden conectar otras unidades periféricas en ia plataforma de computadora, tal como una unidad de almacenamiento de datos adicional y una unidad de impresión. También se debe entender que debido a que algunos componentes del sistema y métodos ilustrados en los dibujos acompañantes se implementan de preferencia, en el software, las conexiones reales entre los componentes del sistema o los bloques de función del proceso pueden diferir dependiendo de la manera en que se programe la presente invención. Dadas estas enseñanzas, las personas experimentadas en la técnica podrán contemplar estas y otras implementaciones similares o configuraciones de la presente invención . Aunque se han descrito las modalidades ilustrativas con referencia a los dibujos acompañantes, se debe entender que la presente invención no está limitada a esas modalidades precisas, y que se pueden efectuar varios cambios y modificaciones por las personas experimentadas en la técnica sin apartarse del alcance y espíritu de la presente invención. Todos los cambios y modificaciones tienen el propósito de estar incluidos dentro del alcance de la presente invención como se establece en las reivindicaciones anexas.

Claims (25)

REIVINDICACIONES
1. Un codificador(200, 300) para codificar datos de señal de video para por lo menos una imagen de desvanecimiento cruzado dispuesto en forma temporal entre la imagen de inicio de desvanecimiento de salida y la imagen de fin de desvanecimiento de entrada, que se utilizan como las imágenes de referencia para codificar la por lo menos una imagen con desvanecimiento cruzado, el codificador está caracterizado porque comprende: un aplicador (292, 392) de ponderación de imagen de referencia; y una unidad (272, 372) de factor de ponderación de imagen de referencia en comunicación de señal con el aplicador de ponderación de la imagen de referencia para asignar los factores de ponderación correspondientes a cada una de la imagen de inicio de desvanecimiento de salida y la imagen de fin de desvanecimiento de entrada, respectivamente, para codificar la por lo menos una imagen con desvanecimiento cruzado.
2. El codificador de video de conformidad con la reivindicación 1, caracterizado porque además comprende una unidad (290, 390) de compensación de movimiento en comunicación de señal con el aplicador de ponderación de la imagen de referencia para proporcionar por lo menos una de una imagen de inicio de desvanecimiento de salida y una imagen de fin de desvanecimiento de entrada compensadas de movimiento que responden a la unidad de factor de ponderación de la imagen de referencia para codificar por lo menos una imagen con desvanecimiento cruzado.
3. El codificador de video de conformidad con la reivindicación 2, caracterizado porque además comprende un almacenamiento (270, 370) de imagen de referencia en comunicación de señal con cada una de la unidad de factor de ponderación de la imagen de referencia y la unidad de compensación de movimiento para almacenar cada una de la imagen de inicio de desvanecimiento de salida y de la imagen de fin de desvanecimiento de entrada.
4. El codificador de video de conformidad con la reivindicación 2, caracterizado porque el aplicador de ponderación de la imagen de referencia aplica un factor de ponderación seleccionado por la unidad de factor de ponderación de la imagen de referencia con por lo menos una de la imagen de inicio de desvanecimiento de salida compensada de movimiento y la imagen de fin de desvanecimiento de entrada compensada de movimiento.
5. El codificador de video de conformidad con la reivindicación 4, caracterizado porque se puede utilizar con predictores de imagen bi-predictiva, el codificador también comprende un medio de predicción para formar el primer y segundo predictores de las imágenes de inicio de desvanecimiento de salida compensada de movimiento y de las imágenes de fin de desvanecimiento de entrada, respectivamente.
6. El codificador de video de conformidad con la reivindicación 5, caracterizado porque las imágenes de inicio de desvanecimiento de salida y las imágenes de fin de desvanecimiento de entrada compensadas de movimiento y ponderadas, respectivamente, son cada una desde direcciones opuestas con relación a todas de las por lo menos una imágenes con desvanecimiento cruzado.
7. El codificador de video de conformidad con la reivindicación 1, caracterizado porque además comprende una unidad (380) de cálculo de movimiento en comunicación de señal con la unidad de factor de ponderación de imagen de referencia para proporcionar el cálculo de movimiento que responde al factor de ponderación en un modo de operación explícito.
8. El codificador de video de conformidad con la reivindicación 2, caracterizado porque además comprende una unidad (394) sumadora en comunicación de señal con la unidad de factor de ponderación de la imagen de referencia para aplicar un desplazamiento con la imagen de referencia compensada de movimiento, ponderada en un modo de operación explícito.
9. Un método (700) para codificar desvanecimientos cruzados entre imágenes, el método está caracterizado porque comprende: identificar imágenes para las cuales se define el desvanecimiento cruzado; determinar (714, 716) puntos de fin apropiados de imágenes para las cuales se define el desvanecimiento cruzado; y codificar (718, 720) los puntos de fin antes de codificar (722) la por lo menos una imagen intermedia a los puntos de fin.
10. El método de conformidad con la reivindicación 9, caracterizado porque los puntos de fin de las imágenes para las cuales se define el desvanecimiento cruzado se utilizan como imágenes de referencia cuando se codifica por lo menos una imagen intermedia en los puntos de fin.
11. El método de conformidad con la reivindicación 9, caracterizado porque además comprende: recibir una imagen de inicio de desvanecimiento de salida esencialmente no comprimida; recibir una imagen de fin de desvanecimiento de entrada esencialmente no comprimida; asignar un factor de ponderación a la por lo menos una imagen correspondiente a la imagen de inicio de desvanecimiento de salida; y asignar un factor de ponderación para la por lo menos una imagen correspondiente a la imagen de fin de desvanecimiento de entrada.
12. El método de conformidad con la reivindicación 11, caracterizado porque además comprende: computar vectores de movimiento correspondientes a la diferencia entre la por lo menos una imagen con desvanecimiento cruzado y la por lo menos una imagen de inicio de desvanecimiento de salida y una imagen de fin de desvanecimiento de entrada; compensar de movimiento por lo menos una de la imagen de inicio de desvanecimiento de salida y la imagen de fin de desvanecimiento de entrada en correspondencia con los vectores de movimiento; multiplicar la por lo menos una imagen de inicio de desvanecimiento de salida y la imagen de fin de desvanecimiento de entrada, compensadas de movimiento por el factor de ponderación asignado, respectivamente, para formar por lo menos una imagen de referencia compensada de movimiento, ponderada; y restar la por lo menos una imagen de referencia compensada de movimiento, ponderada de la por lo menos una imagen de desvanecimiento cruzado, y codificar una señal indicativa de la diferencia entre la por lo menos una imagen de desvanecimiento cruzado y la por lo menos una imagen de referencia compensada de movimiento, ponderada.
13. El método de conformidad con la reivindicación 12, caracterizado porque se utilizan exactamente dos imágenes de referencia, las dos imágenes de referencia exactas comprenden una imagen de inicio de desvanecimiento de salida pre-codificada, FPO, y la imagen de fin de desvanecimiento de entrada, FP1.
14. El método de conformidad con la reivindicación 13, caracterizado porque además comprende: combinar la imagen de inicio de desvanecimiento de salida compensada de movimiento con la imagen de fin de desvanecimiento de entrada compensada de movimiento antes de restar la por lo menos una imagen de desvanecimiento cruzado.
15. El método de conformidad con la reivindicación 12, caracterizado porque computar los vectores de movimiento comprende: probar dentro de una región de búsqueda para cada desplazamiento dentro de un rango predeterminado de desplazamientos con relación a la por lo menos una imagen de desvanecimiento cruzado; calcular la por lo menos una de la suma de la diferencia absoluta y el error de media cuadrada para cada píxel en la por lo menos una imagen de desvanecimiento cruzado con una imagen de referencia compensada de movimiento; y seleccionar el desplazamiento con la menor suma de la diferencia absoluta y el error de media cuadrada como el vector de movimiento.
16. El método de conformidad con la reivindicación 12, caracterizado porque computar los vectores de movimiento, comprende: probar dentro de cada región de búsqueda cada desplazamiento dentro de un intervalo predeterminado de desplazamientos con relación a la por lo menos una imagen de desvanecimiento cruzado; calcular la por lo menos una suma de la diferencia absoluta y el error de media cuadrada para cada píxel en la por lo menos una imagen de desvanecimiento cruzado con una primera imagen de referencia compensada de movimiento correspondiente a la imagen de inicio de desvanecimiento de salida; seleccionar un desplazamiento con la menor suma de la diferencia absoluta y el error de media cuadrada como el vector de movimiento para la imagen de inicio de desvanecimiento de salida; calcular la por lo menos una suma de la diferencia absoluta y el error de media cuadrada de cada píxel en el bloque de imagen con una segunda imagen de referencia compensada de movimiento correspondiente a la imagen de fin de desvanecimiento de entrada; y seleccionar un desplazamiento con la menor suma de la diferencia absoluta y el error de media cuadrada como el vector de movimiento para la imagen de fin de desvanecimiento de entrada.
17. El método de conformidad con la reivindicación 11, caracterizado porque los factores de ponderación para la imagen de inicio de desvanecimiento de salida y la imagen de fin de desvanecimiento de entrada, respectivamente, cada uno responde a la distancia relativa entre la por lo menos una imagen de desvanecimiento cruzado y la imagen de inicio de desvanecimiento de salida o la imagen de fin de desvanecimiento de entrada, respectivamente, en un modo de operación implícito.
18. Un CODEC de video caracterizado porque comprende un codificador de conformidad con la reivindicación 1, y un decodificador (500) para decodificar datos de una señal de video para una imagen de desvanecimiento cruzado con relación a cada imagen de inicio de desvanecimiento de salida y una imagen de fin de desvanecimiento de entrada para pronosticar la imagen de desvanecimiento cruzado, el decodificador comprende una unidad (580) de factor de ponderación de imagen de referencia que tiene una salida para determinar los factores de ponderación correspondientes a cada una de la imagen de inicio de desvanecimiento de salida y de la imagen de fin de desvanecimiento de entrada.
19. El CODEC de video de conformidad con la reivindicación 18, caracterizado porque la unidad de factor de ponderación de imagen de referencia tiene una segunda salida para determinar desplazamientos correspondientes a cada una de la imagen de inicio de desvanecimiento de salida y de la imagen de fin de desvanecimiento de entrada.
20. El CODEC de video de conformidad con la reivindicación 18, caracterizado porque además comprende un decodificador (510) de longitud variable en comunicación de señal con la unidad de factor de ponderación de imagen de referencia para proporcionar índices correspondientes a cada una de la imagen de inicio de desvanecimiento de salida y de la imagen de fin de desvanecimiento de entrada para la unidad de factor de ponderación de la imagen de referencia.
21. El CODEC de video de conformidad con la reivindicación 18, caracterizado porque además comprende un compensador (560) de movimiento en comunicación de señal con la unidad de factor de ponderación de la imagen de referencia para proporcionar las imágenes de referencia compensadas de movimiento que responden a la unidad de factor de ponderación de imagen de referencia.
22. El CODEC de video de conformidad con la reivindicación 21, caracterizado porque además comprende un aplicador (570) de ponderación de imagen de referencia en comunicación de señal con el compensador de movimiento y la unidad de factor de ponderación de la imagen de referencia para aplicar un factor de ponderación para cada imagen de referencia compensada de movimiento.
23. El CODEC de video de conformidad con la reivindicación 21, caracterizado porque además comprende un sumador (590) en comunicación de señal con el compensador de movimiento y la unidad de factor de ponderación de la imagen de referencia para aplicar un desplazamiento a cada imagen de referencia compensada de movimiento.
24. El CODEC de video de conformidad con la reivindicación 18, caracterizado porque los datos de señal de video son una corriente de datos de señal de video que comprende coeficientes de transformación en bloque.
25. El CODEC de video de conformidad con la reivindicación 18, caracterizado porque se puede utilizar con los predictores de imagen bi-predictiva, el decodificador también comprende: un medio de predicción para formar el primer y segundo predictores desde dos diferentes imágenes de referencia; un medio de promedio para promediar el primer y el segundo predictores juntos con el uso de sus factores de ponderación correspondientes para formar un único predictor promediado.
MXPA05005988A 2002-12-04 2003-11-13 Codificacion de desvanecimientos de video con el uso de una prediccion ponderada. MXPA05005988A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US43079302P 2002-12-04 2002-12-04
PCT/US2003/036413 WO2004054225A2 (en) 2002-12-04 2003-11-13 Encoding of video cross-fades using weighted prediction

Publications (1)

Publication Number Publication Date
MXPA05005988A true MXPA05005988A (es) 2005-08-18

Family

ID=32507656

Family Applications (1)

Application Number Title Priority Date Filing Date
MXPA05005988A MXPA05005988A (es) 2002-12-04 2003-11-13 Codificacion de desvanecimientos de video con el uso de una prediccion ponderada.

Country Status (10)

Country Link
US (1) US20060093038A1 (es)
EP (1) EP1568222B1 (es)
JP (1) JP4756573B2 (es)
KR (1) KR101017907B1 (es)
CN (1) CN100403793C (es)
AU (1) AU2003290895A1 (es)
BR (1) BR0316963A (es)
MX (1) MXPA05005988A (es)
MY (1) MY165549A (es)
WO (1) WO2004054225A2 (es)

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4015934B2 (ja) * 2002-04-18 2007-11-28 株式会社東芝 動画像符号化方法及び装置
DE10214397A1 (de) * 2002-03-30 2003-10-16 Bts Media Solutions Gmbh Verfahren und Vorrichtung zum Verarbeiten von Signalen
WO2004008775A1 (ja) 2002-07-15 2004-01-22 Hitachi, Ltd. 動画像符号化方法及び復号化方法
KR100984517B1 (ko) * 2003-01-10 2010-10-01 톰슨 라이센싱 인터프레임 인코딩을 위한 빠른 모드 결정 방법
KR20060055472A (ko) * 2003-06-25 2006-05-23 톰슨 라이센싱 변위된 프레임 차분을 이용하여 가중된 예측 추정을 위한방법 및 장치
US20050129111A1 (en) * 2003-12-16 2005-06-16 Nokia Corporation Transform-domain video editing
BRPI0418423A (pt) * 2004-02-27 2007-05-15 Thomson Licensing técnica de ocultação de erro utilização previsão ponderada
JP5062833B2 (ja) * 2004-09-16 2012-10-31 トムソン ライセンシング 局在的な輝度変動を利用した重み付き予測ビデオ・コーデックのための方法および装置
JP2006209082A (ja) * 2004-12-27 2006-08-10 Matsushita Electric Ind Co Ltd 表示処理装置
JP5202960B2 (ja) 2005-01-31 2013-06-05 スカイプ 通信システムにおけるフレームの連結方法
WO2006112272A1 (ja) 2005-04-13 2006-10-26 Ntt Docomo, Inc. 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、および動画像復号プログラム
US8239766B2 (en) * 2005-09-27 2012-08-07 Qualcomm Incorporated Multimedia coding techniques for transitional effects
EP1806930A1 (en) * 2006-01-10 2007-07-11 Thomson Licensing Method and apparatus for constructing reference picture lists for scalable video
EP1980112B1 (en) 2006-02-02 2012-10-24 Thomson Licensing Method and apparatus for adaptive weight selection for motion compensated prediction
WO2007092192A2 (en) 2006-02-02 2007-08-16 Thomson Licensing Method and apparatus for motion estimation using combined reference bi-prediction
BRPI0600823B1 (pt) * 2006-03-14 2018-02-14 Whirlpool S.A. Sistema de programação de equipamentos eletrodomésticos e método de programação de equipamentos eletrodomésticos programáveis em linha de montagem
KR100771879B1 (ko) * 2006-08-17 2007-11-01 삼성전자주식회사 내부 메모리 용량을 감소시키는 디블록킹 필터링 방법 및그 방법을 이용하는 영상 처리 장치
JP2008193503A (ja) * 2007-02-06 2008-08-21 Oki Electric Ind Co Ltd 動画像符号化装置および動画像符号化方法
JP2008219100A (ja) * 2007-02-28 2008-09-18 Oki Electric Ind Co Ltd 予測画像生成装置、方法及びプログラム、並びに、画像符号化装置、方法及びプログラム
US8238432B2 (en) 2007-03-05 2012-08-07 Nec Corportion Weighted prediction information calculation method, apparatus, and program, and video coding method, apparatus, and program
JP2008227702A (ja) * 2007-03-09 2008-09-25 Oki Electric Ind Co Ltd 動きベクトル探索装置、動きベクトル探索方法及び動きベクトル探索プログラム
CN101653009B (zh) * 2007-04-09 2013-07-31 株式会社Ntt都科摩 图像预测编码装置、图像预测编码方法、图像预测解码装置、图像预测解码方法
US8044830B2 (en) 2007-09-20 2011-10-25 Lg Electronics Inc. Method and an apparatus for processing a signal
EP2154893A1 (en) * 2008-08-13 2010-02-17 Thomson Licensing Method for modifying a reference block of a reference image, method for encoding or decoding a block of an image by help of a reference block and device therefor and storage medium or signal carrying a block encoded by help of a modified reference block
US8326075B2 (en) 2008-09-11 2012-12-04 Google Inc. System and method for video encoding using adaptive loop filter
CN101686403B (zh) * 2008-09-28 2011-08-17 扬智科技股份有限公司 图片交互淡入淡出的处理方法及装置
US8995526B2 (en) * 2009-07-09 2015-03-31 Qualcomm Incorporated Different weights for uni-directional prediction and bi-directional prediction in video coding
US9161057B2 (en) * 2009-07-09 2015-10-13 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
WO2011019384A1 (en) * 2009-08-11 2011-02-17 Thomson Licensing Methods and apparatus for generalized weighted prediction
CN102656890B (zh) 2009-12-17 2016-01-06 瑞典爱立信有限公司 用于视频编码的方法和设备
JP2011147049A (ja) * 2010-01-18 2011-07-28 Sony Corp 画像処理装置および方法、並びにプログラム
US9628788B2 (en) * 2010-03-16 2017-04-18 Thomson Licensing Methods and apparatus for implicit adaptive motion vector predictor selection for video encoding and decoding
US9161058B2 (en) * 2010-03-27 2015-10-13 Texas Instruments Incorporated Method and system for detecting global brightness change for weighted prediction in video encoding
EP2596636A1 (en) 2010-07-21 2013-05-29 Dolby Laboratories Licensing Corporation Reference processing using advanced motion models for video coding
US9524523B2 (en) * 2010-09-01 2016-12-20 Vigor Systems Inc. Fail-safe switch for media insertion server in a broadcast stream
US8503528B2 (en) * 2010-09-15 2013-08-06 Google Inc. System and method for encoding video using temporal filter
US9532059B2 (en) 2010-10-05 2016-12-27 Google Technology Holdings LLC Method and apparatus for spatial scalability for video coding
US8693547B2 (en) * 2011-04-06 2014-04-08 Google Inc. Apparatus and method for coding using motion vector segmentation
US8780996B2 (en) 2011-04-07 2014-07-15 Google, Inc. System and method for encoding and decoding video data
US8780971B1 (en) 2011-04-07 2014-07-15 Google, Inc. System and method of encoding using selectable loop filters
US8781004B1 (en) 2011-04-07 2014-07-15 Google Inc. System and method for encoding video using variable loop filter
US8989256B2 (en) 2011-05-25 2015-03-24 Google Inc. Method and apparatus for using segmentation-based coding of prediction information
US8885706B2 (en) 2011-09-16 2014-11-11 Google Inc. Apparatus and methodology for a video codec system with noise reduction capability
LT3217667T (lt) 2011-10-17 2020-11-10 Kabushiki Kaisha Toshiba Kodavimo būdas ir dekodavimo būdas
WO2013158804A1 (en) * 2012-04-17 2013-10-24 Sirius Xm Radio Inc. Systems and methods for implementing efficient cross-fading between compressed audio streams
WO2013075138A1 (en) 2011-11-18 2013-05-23 Sirius Xm Radio Inc. Systems and methods for implementing cross-fading, interstitials and other effects downstream
US9247257B1 (en) 2011-11-30 2016-01-26 Google Inc. Segmentation based entropy encoding and decoding
US9094681B1 (en) 2012-02-28 2015-07-28 Google Inc. Adaptive segmentation
US9131073B1 (en) 2012-03-02 2015-09-08 Google Inc. Motion estimation aided noise reduction
US20150309844A1 (en) 2012-03-06 2015-10-29 Sirius Xm Radio Inc. Systems and Methods for Audio Attribute Mapping
US10390041B2 (en) * 2012-03-30 2019-08-20 Sun Patent Trust Predictive image coding and decoding using two reference pictures
KR101639965B1 (ko) 2012-06-27 2016-07-14 가부시끼가이샤 도시바 복호 장치 및 복호 방법
US9344729B1 (en) 2012-07-11 2016-05-17 Google Inc. Selective prediction signal filtering
US9332276B1 (en) 2012-08-09 2016-05-03 Google Inc. Variable-sized super block based direct prediction mode
US9380298B1 (en) 2012-08-10 2016-06-28 Google Inc. Object-based intra-prediction
US20140267679A1 (en) * 2013-03-13 2014-09-18 Leco Corporation Indentation hardness test system having an autolearning shading corrector
JP6087747B2 (ja) * 2013-06-27 2017-03-01 Kddi株式会社 映像符号化装置、映像復号装置、映像システム、映像符号化方法、映像復号方法、およびプログラム
US20150341659A1 (en) * 2014-05-22 2015-11-26 Apple Inc. Use of pipelined hierarchical motion estimator in video coding
US10102613B2 (en) 2014-09-25 2018-10-16 Google Llc Frequency-domain denoising
US10869042B2 (en) 2018-03-30 2020-12-15 Hulu, LLC Template based adaptive weighted bi-prediction for video coding
EP3550834A1 (en) * 2018-04-06 2019-10-09 Comcast Cable Communications LLC Encoding of video cross-fades using weighted inter-prediction
US11706404B2 (en) * 2018-04-28 2023-07-18 Intel Corporaton Weighted prediction mechanism

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2853553B2 (ja) * 1994-02-22 1999-02-03 日本電気株式会社 動画像符号化方式
CN1166751A (zh) * 1996-04-27 1997-12-03 日本胜利株式会社 图象切换装置
US6195458B1 (en) * 1997-07-29 2001-02-27 Eastman Kodak Company Method for content-based temporal segmentation of video
US5978029A (en) * 1997-10-10 1999-11-02 International Business Machines Corporation Real-time encoding of video sequence employing two encoders and statistical analysis
GB2356997A (en) * 1999-12-02 2001-06-06 Sony Uk Ltd Video signal processing
US7376186B2 (en) * 2002-07-15 2008-05-20 Thomson Licensing Motion estimation with weighting prediction
US7903742B2 (en) * 2002-07-15 2011-03-08 Thomson Licensing Adaptive weighting of reference pictures in video decoding

Also Published As

Publication number Publication date
BR0316963A (pt) 2005-10-25
CN1720730A (zh) 2006-01-11
MY165549A (en) 2018-04-03
EP1568222A4 (en) 2012-10-03
KR101017907B1 (ko) 2011-03-04
WO2004054225A2 (en) 2004-06-24
WO2004054225A3 (en) 2004-10-07
JP2006509467A (ja) 2006-03-16
AU2003290895A8 (en) 2004-06-30
EP1568222A2 (en) 2005-08-31
KR20050084138A (ko) 2005-08-26
CN100403793C (zh) 2008-07-16
US20060093038A1 (en) 2006-05-04
JP4756573B2 (ja) 2011-08-24
AU2003290895A1 (en) 2004-06-30
EP1568222B1 (en) 2019-01-02

Similar Documents

Publication Publication Date Title
MXPA05005988A (es) Codificacion de desvanecimientos de video con el uso de una prediccion ponderada.
US11558618B2 (en) Adaptive weighting of reference pictures in video CODEC
US7376186B2 (en) Motion estimation with weighting prediction
AU2010202555B2 (en) Adaptive weighting of reference pictures in video decoding
JP2006501761A (ja) ビデオ・エンコーダにおける参照画像の陰解法による重みづけ
US7801217B2 (en) Implicit weighting of reference pictures in a video encoder
AU2008201158C1 (en) Adaptive weighting of reference pictures in video encoding
ZA200500416B (en) Adaptive weighting of reference pictures in video encoding

Legal Events

Date Code Title Description
FG Grant or registration