MX2013000666A - Dispositivo de codificacion de prediccion de imagen, metodo de codificacion de prediccion de imagen, programa de codificacion de prediccion de imagen, dispositivo de descodificacion de prediccion de imagen, metodo de descodificacion de prediccion de imagen y programa de descodificacion de prediccion de imagen. - Google Patents

Dispositivo de codificacion de prediccion de imagen, metodo de codificacion de prediccion de imagen, programa de codificacion de prediccion de imagen, dispositivo de descodificacion de prediccion de imagen, metodo de descodificacion de prediccion de imagen y programa de descodificacion de prediccion de imagen.

Info

Publication number
MX2013000666A
MX2013000666A MX2013000666A MX2013000666A MX2013000666A MX 2013000666 A MX2013000666 A MX 2013000666A MX 2013000666 A MX2013000666 A MX 2013000666A MX 2013000666 A MX2013000666 A MX 2013000666A MX 2013000666 A MX2013000666 A MX 2013000666A
Authority
MX
Mexico
Prior art keywords
prediction
target
region
information
division
Prior art date
Application number
MX2013000666A
Other languages
English (en)
Inventor
Choong Seng Boon
Yoshinori Suzuki
Thiow Keng Tan
Junya Takiue
Original Assignee
Ntt Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45496857&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=MX2013000666(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Ntt Docomo Inc filed Critical Ntt Docomo Inc
Publication of MX2013000666A publication Critical patent/MX2013000666A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks

Abstract

Un aspecto de la presente invención es concerniente con un dispositivo de codificación predictivo de imagen, método de codificación predictivo de imagen y programa de codificación predictivo de imagen. Otro aspecto de la presente invención es concerniente con un dispositivo de descodificación predictivo de imagen, método de descodificación predictivo de imagen y programa de descodificación predictivo de imagen. Particularmente, estos aspectos son concernientes con un dispositivo de codificación predictivo de imagen, método de codificación predictivo de imagen, programa de codificación predictivo de imagen, dispositivo de descodificación predictivo de imagen, método de descodificación predictivo de imagen y programa de descodificación predictivo de imagen para generar una señal predicha de un bloque objetivo usando información de movimiento y bloques de los alrededores. Todavía otro aspecto de la presente invención es concerniente con un dispositivo de codificación de video, método de codificación de video, programa de codificación de video, dispositivo de descodificación de video, método de descodificación de video y programa de descodificación de video para generar una señal predicha con compensación de movimiento mediante un vector de movimiento.

Description

DISPOSITIVO DE CODIFICACION DE PREDICCION DE IMAGEN, METODO DE CODIFICACION DE PREDICCION DE IMAGEN, PROGRAMA DE CODIFICACIÓN DE PREDICCION DE IMAGEN, DISPOSITIVO DE DESCODIFICACION DE PREDICCION DE IMAGEN, METODO DE DESCODIFICACION DE PREDICCION DE IMAGEN Y PROGRAMA DE DESCODIFICACION DE PREDICCION DE IMAGEN CAMPO TÉCNICO Un aspecto de la presente invención es concerniente con un dispositivo de codificación predictivo de imagen, método de codificación predictivo de imagen y programa de codificación predictivo de imagen. Otro aspecto de la presente invención es concerniente con un dispositivo de descodificación predictivo de imagen, método de descodificación predictivo de imagen y programa de descodificación predictivo de imagen. Particularmente, estos aspectos son concernientes con un dispositivo de codificación predictivo de imagen, método de codificación predictivo de imagen, programa de codificación predictivo de imagen, dispositivo de descodificación predictivo de imagen, método de descodificación predictivo de imagen y programa de descodificación predictivo de imagen para generar una señal predicha de un bloque objetivo utilizando información de movimiento de los bloques circundantes. Todavía otro aspecto de la presente invención es concerniente con un dispositivo de codificación de video, método de codificación de video, programa de codificación de video, dispositivo de descodificación de video, método de descodificación de video y programa de descodificación de video para generar una señal predicha con compensación de movimiento mediante un vector de movimiento .
ANTECEDENTES DE LA INVENCIÓN Las tecnologías de codificación por compresión son mostradas para la transmisión y almacenamiento eficiente de imágenes fijas y datos de video. Los sistemas de MPEG-1 a 4 e ITU (Sindicato de Telecomunicaciones Internacional) H.261 a H.264 son usados comúnmente para datos de video.
En estos sistemas de codificación, una imagen que sirve como objetivo de codificación es dividida en una pluralidad de bloques y luego se lleva a cabo un proceso de codificación o un proceso de descodificación. En la codificación predictiva de intra-imagen, una señal predicha es generada utilizando una señal de imagen previamente reconstruida vecina (esto es, señal reconstruida a partir de datos de imagen comprimidos) presente en la misma imagen como un bloque objetivo y luego una señal diferencial obtenida al restar la señal predicha de una señal del bloque objetivo es codificada. En la codificación predictiva de inter-imagen, la compensación es efectuada con referencia a una señal de imagen previamente reconstruida vecina presente en una imagen diferente de un bloque objetivo para generar una señal predicha y una señal de diferencia obtenida al restar la señal predicha de una señal del bloque objetivo es codificada.
Por ejemplo, la codificación predictiva de intra- imagen de H.264 emplea un método para generar la señal predicha al extrapolar valores de pixel previamente reconstruidos vecinos a un grupo que sirve como un objetivo de codificación, en una dirección predeterminada. La Figura 22 es un diagrama esquemática para explicar el método de predicción de intra-imagen usado en H.264 de ITU. En (A) de la Figura 22, el bloque objetivo 802 es un bloque que sirve como objetivo de codificación y un grupo de pixeles 801 que consiste de los pixeles PA-PL vecinos a una frontera del bloque objetivo 802 es una región vecina, que es una señal de imagen previamente reconstruida en el procesamiento del pasado.
En el caso mostrado en (A) de la Figura 22, la señal predicha es generada al extender hacia abajo el grupo de pixeles 801 que incluye pixeles vecinos ubicados inmediatamente por encima del bloque objetivo 802. En el caso mostrado en (B) de la Figura 22, la señal predicha es generada al extender hacia la derecha pixeles previamente reconstruidos (PI-PL) ubicados a la izquierda del bloque objetivo 804. Métodos específicos para la generación de la señal predicha son descritos por ejemplo, en la Literatura de Patentes 1. Se calcula una diferencia entre cada una de nueve señales predichas generadas por los métodos mostrados en (A) a (I) de la Figura 22 de la manera descrita anteriormente y la señal de pixel del bloque objetivo y la señal predicha con la diferencia más pequeña es seleccionada como una señal predicha óptima. Como se describe anteriormente, la señal predicha puede ser generada mediante extrapolación de pixeles. El contenido anterior es descrito en la Literatura de Patentes 1 descrita posteriormente en la presente.
En la codificación predictiva de inter-imagen típica, la señal predicha para un bloque que sirve como un objetivo de codificación es generada mediante un método de búsqueda de imágenes reconstruidas previamente para una señal similar a una señal de pixel del bloque objetivo. Un vector de movimiento que esta una cantidad de desplazamiento axial entre el bloque objetivo y una región compuesta de la señal detectada y una señal residual entre la señal de pixel del bloque objetivo y la señal predicha son luego codificados. La técnica de búsqueda para un vector de movimiento para cada bloque como se describe anteriormente es llamada coincidencia de bloques .
La Figura 21 es un diagrama esquemático para explicar un proceso de coincidencia de bloques. A continuación se describirá un procedimiento para generar una señal predicha para un ejemplo del bloque objetivo 702 en la codificación de la imagen objetivo 701. La imagen 703 es una imagen reconstruida previamente y la región 704 es una región ubicada espacialmente en la misma posición como el bloque objetivo 702. En la coincidencia de bloques, un intervalo de búsqueda 705 alrededor de la región 704 es establecido y una región 706 para minimizar la suma de diferencias absolutas de la señal de pixel del bloque objetivo 702 es detectada de una señal de pixel de este intervalo de búsqueda. Se determina que la región de esta señal 706 es una señal predicha y una cantidad del tratamiento de la región 704 a la región 706 es detectada como vector de movimiento 707. También se emplea un método de preparar una pluralidad de imágenes de referencia 703, seleccionar una imagen de referencia a ser usada en la coincidencia de bloques para cada bloque objetivo y detectar información de selección de imagen de referencia. En H.264 hay una pluralidad de tipos de predicción de diferentes tamaños de bloque para la codificación de vectores de movimiento son preparados. Con el fin de adaptarse por cambios de elementos locales de imágenes . Los tipos de predicción de H.264 son descritos por ejemplo en la Literatura de Patentes 2.
En la codificación por compresión de datos de video, el orden de codificación de las imágenes (cuadros o campos) puede ser opcional. Por esta razón, hay tres tipos de técnicas alrededor del orden de codificación en la predicción de ínter-imagen para generar la señal predicha con referencia a imágenes reconstruidas previamente. La primera técnica es predicción directa para generar la señal predicha con referencia a una imagen reconstruida previamente del pasado en un orden de reproducción, la segunda técnica es predicción hacia atrás para generar la señal predicha con referencia a una imagen reconstruida previamente futura en el orden de reproducción y la tercera técnica es predicción bidireccional para efectuar tanto predicción delantera como predicción hacia atrás y promedio de dos señales predichas . Los tipos de predicciones de inter-imagen son descritos por ejemplo en la Literatura de Patentes 3.
En HEVC (codificación de video de alta eficiencia) bajo estandarización como sistema de codificación de video de próxima generación, la introducción de divisiones asimétricas como se muestra en (E) a (F) de la Figura 20 está también en revisión, además de bisecciones rectangulares mostradas en (B) y (C) de la Figura 20 y división en cuadros mostrados en (D) de la Figura 20, como tipos de división de un bloque de predicción. En HEVC, una técnica adicional en revisión es usar información de movimiento (el vector de movimiento, la información de imagen de referencia y el modo de predicción de inter-imagen para identificar la predicción delantera/hacia atrás/bidireccional) de un bloque vecino un bloque de predicción objetivo que sirve como objetivo de predicción, en la ocasión de generar la señal predicha del bloque de predicción dividido de esta manera. Esta técnica de predicción es llamada fusión de bloques y está caracterizada por predecir la codificación eficiente de información de movimiento. (A) de la Figura 2 es un dibujo que ilustra esquemáticamente bloques vecinos en la fusión de bloques con el bloque de predicción TI generado mediante división vertical del bloque de codificación 400. La señal predicha del bloque de predicción TI es generada utilizando 1) información de movimiento del bloque vecino A, 2) información de movimiento del bloque vecino B, o (3) información de movimiento detectada en la coincidencia de bloques . Por ejemplo, cuando un codificador selecciona la información de movimiento del bloque vecino A, el codificador primero establece o ajusta la información de identificación de fusión (fusión_bandera) indicador del uso de la información de movimiento del bloque vecino a "fusión_bandera=l" y transmite la información de identificación de fusión (fusión_bande a) a un descodificador . En segundo lugar, el codificador establece información de selección de bloque de fusión ( fusión_bandera_izquierda) indicadora del uso del bloque vecino A del bloque vecino A y bloque vecino B para "fusión_bandera_izquierdo=l" y transmite la información de selección de bloque de fusión (fusión_bandera_izquierdo) al descodificado . El descodificador, que recibe las dos piezas de información, puede identificar que la señal predicha del bloque de predicción objetivo debe ser generada utilizando la información de movimiento del bloque vecino A. similarmente , cuando el codificador recibe "fusión_bandera=l" y "fusión_bandera_izquierda=0" (selección del bloque vecino B) , puede identificar que la señal predicha del bloque de predicción objetivo debe ser generada utilizando la información de movimiento del bloque vecino B; cuando recibe "fusión_bandera=0" , puede identificar que debe recibir adicionalmente la información de movimiento del codificador y restaurar la información de movimiento del bloque de predicción objetivo. La fusión de bloques descrita en la presente es descrita en la Literatura que no es de Patentes 1.
En la predicción de inter-cuadro en estándares tal como MPEG-1, 2 y MEPG-4, cada imagen es dividía en un conjunto de bloques rectangulares sin un traslape o superposición entre ellos y un vector de movimiento es asociado con cada uno de los bloques . El vector de movimiento es uno obtenido mediante búsqueda de movimiento por cada bloque y representa un desplazamiento horizontal y un desplazamiento vertical de un bloque actual de un segundo bloque usado para la predicción de la señal de imagen del bloque actual .
La Literatura de Patentes 4 a continuación describe un método para llevar a cabo predicción de compensación de movimiento con exactitud superior en situaciones en donde existe una frontera de movimiento en una dirección oblicua en un bloque. Este método es dividir adicionalmente un bloque en sub-divisiones no rectangulares y efectuar predicción compensada de movimiento para cada una de las sub-divisiones.
La Literatura de Patentes 5 describe un método de división adicional de un bloque en sub-divisiones rectangulares pequeñas y efectuar la predicción de compensación de movimiento para cada una de las sub-divisiones. En este método, para codificación de un vector de movimiento de una sub-división objetivo de procesamiento, un predictor de vector de movimiento es generado a partir de un vector de movimiento de un bloque que está en contacto con la sub-división objetivo de procesamiento ubicado antes en un orden de procesamiento a la sub-división y una diferencia entre el vector de movimiento de la sub-división objetivo de procesamiento y el predictor de vector de movimiento, esto es, un vector de movimiento diferencial solamente es codificado .
En este método, si la sub-división objetivo de procesamiento no tiene contacto con un bloque previo en el orden de procesamiento, el predictor de vector de movimiento de la sub-división objetivo de procesamiento es generado de un vector de movimiento de otra sub-división antes en el orden de procesamiento en el bloque que incluye la sub-división objetivo de procesamiento.
Lista de citas Literatura de Patentes Literatura de Patentes 1 : Patente Estadounidense 6, 765, 964 Literatura de Patentes 2 : Patente Estadounidense 7, 003, 035 Literatura de Patentes 3 : Patente Estadounidense 6,259,739 Literatura de Patentes 4 : Solicitud de Patente Japonesa No examinada 2005-277968 Literatura de Patentes 1: Solicitud de Patente Japonesa No examinada 2009-246972.
Literatura que no es de patentes Literatura que no es de Patentes 1: Test Model under Consideration, Joint Collaborative Team on Video Coding (JCT-VC) de ITU-T SG16 WP3 e ISO/IEC JTC1/SC29/WG11 , lst Meeting: Dresden, DE, 15-23 Abril, 2010, Documento: JCTVC-A205.
BREVE DESCRIPCIÓN DE LA INVENCIÓN PROBLEMA TÉCNICO En la Literatura que no es de Patentes 1 anterior, candidatos para información de movimiento hacer usados en la fusión de bloques de una . pluralidad de bloques de predicción resultantes de la división de un bloque de codificación objetivo que sirve como objetivo de codificación son seleccionados por el mismo método, sin consideración de los bloques de predicción y situaciones circundantes. Por esta razón, por ejemplo como se muestra en la Figura (B) de la Figura 2, los candidatos para información de movimiento en la generación de la señal predicha del bloque de predicción T2 incluyen la información de movimiento del bloque de predicción TI en el mismo bloque de codificación. El tipo de división de bloques de predicción que consiste del bloque de predicción TI y el bloque de predicción T2 es preparado con la suposición de que las señales predichas de los dos bloques son generadas utilizando piezas diferentes de información de movimiento. Por consiguiente, es desfavorable que la información de movimiento del bloque de predicción TI sea incluida en los candidatos para información de movimiento del bloque de predicción T2. Es decir, puede dar como resultado codificación ineficiente.
Es así un objeto de la presente invención, en algunos aspectos, proveer un dispositivo de codificación predictivo de imagen, método de codificación predictivo de imagen, programa de codificación predictivo de imagen, dispositivo de descodificación predictivo de imagen, método de descodificación predictivo de imagen y programa de descodificación predictivo de imagen en el cual candidatos para información de movimiento a ser usados en la generación de la señal predicha del bloque de predicción objetivo son seleccionados en base a información de predicción previamente codificada o previamente descodificada (información de movimiento y tipo de división del bloque de predicción) del bloque de codificación objetivo y bloques de codificación circundantes para ' suprimir la presencia de codificación ineficiente. Es decir, en estos aspectos el objeto de la presente invención es proveer el dispositivo de codificación predictivo de imagen método de codificación predictivo de imagen, programa de codificación predictivo de imagen, dispositivo de descodificación predictivo de imagen, método de descodificación predictivo de imagen y programa de descodificación predictivo de imagen aptos de obtener mejora en eficiencia de codificación.
Además, hay métodos para llevar a cabo la predicción de compensación de movimiento para cada una de las subdivisiones obtenidas mediante la división del bloque objetivo de procesamiento, como se describe en la Literatura de Patentes 4 o Literatura de Patentes 5. En esta predicción de compensación de movimiento, es preferible generar el predictor de vector de movimiento para cada sub-división en base a un vector de movimiento de un bloque previo en el orden de procesamiento a una sub-división objetivo de procesamiento y codificar solamente el vector de movimiento diferencial entre el vector de movimiento de la sub-división y el predictor de vector de movimiento, en términos de una cantidad de códigos.
La Figura 23 es un dibujo para explicar la predicción de compensación de movimiento. Como se muestra en la Figura 23, un bloque objetivo de procesamiento T puede tener una subdivisión SP1 en contacto con por lo menos un bloque CP antes en un orden de procesamiento al bloque P y una sub-división SP2 que no tiene contacto con el bloque de CP. Un vector de movimiento V2 de tal sub-división SP2 es codificado tal cual, sin el uso del predictor de vector de movimiento en el método descrito en la Literatura de Patentes 4. Este método es equivalente a un método de establecer el predictor de vector de movimiento a un vector 0.
Por otra parte, en el método descrito en la Literatura de Patente 5, un predictor de vector de movimiento de la subdivisión SP2 es generado del vector de movimiento VI de la sub-división SP1 que es otra sub-división en el bloque P y que es previo en el orden de procesamiento a la sub-división SP2. Sin embargo, el vector de movimiento de la sub-división SP1 y el vector de movimiento de la sub-división SP2 son originalmente considerados diferentes entre sí. Por consiguiente, el método descrito en la Literatura de Patentes 5 puede fallar para codificar eficientemente el vector de movimiento de la sub-división SP2.
Es por consiguiente un objeto de la presente invención, en algunos otros aspectos, también proveer un dispositivo de codificación de video, método . de codificación de video y programa de codificación de video apto de obtener mejoras en la eficiencia de codificación y un dispositivo de descodificación de video, método de descodificación de video y programa de descodificación de video correspondiente a la codificación de video.
SOLUCIÓN AL PROBLEMA.
El primer aspecto de la presente invención es concerniente con la codificación de predicción de imagen.
Un dispositivo de codificación predictivo de imagen de acuerdo con el primer aspecto de la presente invención comprende: medios de división de región que dividen una imagen de entrada en una pluralidad de regiones; medios de estimación de información de predicción que subdividen una región objetivo que sirve como un objetivo de codificación resultante de la división por los medios de división de región en una pluralidad de regiones de predicción que determinan un tipo de división de bloque de predicción que indica el número y formas de región de las regiones de predicción apropiadas para la región de predictivo, que predice información de movimiento para adquisición de cada una de las señales altamente correlacionadas con las regiones de proyección respectivas de una señal previamente reconstruida y que obtiene información de predicción que contiene el tipo de división del bloque de predicción y la información de movimiento; medios de codificación de información de predicción que codifican la información de predicción asociada con la región objetivo; medios de generación de señal predicha que generan una señal predicha de la región objetivo, en base a la información de predicción asociada con la región objetivo; medios de generación de señal residual que generan una señal residual en base a la señal predicha de la región objetivo y una señal de predicción de la región objetivo; medios de codificación de4 señal individual que codifican la señal generada por los medios de señal residual; medios de restauración de señal residual que codifican la señal residual generada por los medios de generación de señal residual, medios de restauración de señal residual que descodifican los datos codificados de la señal residual para generar una señal residual reconstruida y medios de graduación que agregan la señal predicha a la señal residual reconstruida para generar una señal de pixel restaurada de la región objetivo y que almacena la señal de pixel restaurada como la señal previamente reconstruida. Los medios de codificación e información de predicción están configurados como sigue: los medios de codificación de formación de predicción tienen medios de almacenamiento de información de predicción que almacenan la información de predicción previamente codificada; los medios de codificación de información de predicción codifican el tipo de división del bloque de predicción de la región objetivo y almacenan el tipo de división de bloque de predicción a los medios de almacenamiento de información en base a: la información de predicción de una región vecina de la región objetivo, en el número de regiones de predicción previamente codificadas en la región objetivo y la información de predicción previamente codificada de la región objetivo,- los medios de codificación de información de predicción seleccionan un candidato para información de movimiento hacer usado en la generación de una señal predicha de una región de predicción objetivo que sirve como una siguiente región de predicción, de información de movimiento previamente codificada de una región vecina de la región de predicción objetivo; de acuerdo con el número de candidatos para la información de movimiento seleccionada, los medios de codificación de información de predicción codifican información de bloques de fusión indicadoras de la señal de generación de la señal predicha de la región de predicción objetivo utilizando el candidato seleccionado de la información de movimiento y la información de movimiento detectada por los medios de información de predicción o codifica ya sea una de la información de bloques de fusión y la información de movimiento y almacena la información de movimiento a ser usada en la generación de la señal predicha de la región de predicción objetivo a los medios de almacenamiento de información de predicción.
Un método de codificación predictivo de imagen de acuerdo con un primer aspecto de la presente invención comprende: una etapa de división de región para dividir una imagen de entrada en una pluralidad de regiones; una etapa de estimación de información de predicción de sub-dividir una región objetivo que sirve como un objetivo de codificación resultante de la división de la etapa de la división de región en una pluralidad de regiones de predicción, determinar un tipo de división del bloque de predicción que incluye un número y formas de región de regiones de predicción apropiadas para la región objetivo, estimación de información de movimiento para la adquisición de cada una de las señales altamente correlacionadas con las regiones de predicción respectivas de una señal previamente reconstruida y obtener información de predicción que contiene el tipo de división del bloque de proyección y la información de movimiento; una etapa de codificación de información de región para codificar la información de predicción asociada con la región objetivo; una etapa de generación de señal de predicción para generar una señal predicha de la región objetivo en base a la información de predicción asociada con la región objetivo; una etapa de generación de señal residual para generar una señal residual en base a la señal predicha de la señal objetivo y una señal de pixel para la región objetivo; una etapa de codificación de señal residual para codificar la señal residual generada en la etapa de generación de señal residual, una etapa de restauración de señal residual para descodificar los datos codificados de la señal residual para generar una señal residual reconstruida y una etapa de grabación para agregar la señal predicha a la señal residual reconstruida para generar una señal de pixel restaurada de la región objetivo y almacenar la señal de pixel restaurada como la señal previamente reconstruida. La etapa de codificación de información de predicción está configurada como sigue: la etapa de codificación de información de predicción comprende codificar el tipo de división del bloque de predicción de la región objetivo y almacenar el tipo de división del bloque de predicción a medios de almacenamiento de información de proyección que almacena la información de predicción previamente codificada; la etapa de codificación de información de predicción comprende, en base a la información de predicción de una región vecina de la región objetivo, el número de regiones de predicción previamente codificadas en la región objetivo y la información de predicción previamente codificada de la región objetivo, seleccionar un candidato para la información de movimiento a ser usado en la generación de una señal predicha de una región de predicción objetivo que¦ sirve como una siguiente región de predicción de la información de movimiento previamente codificada de una región vecina a la región de predicción objetivo; la etapa de codificación de información de predicción comprende, de acuerdo con el número de candidatos para información de movimiento seleccionada, información de bloque de fusión de codificación indicadora de la señal predicha de la región de predicción objetivo que utiliza el candidato seleccionado para información de movimiento y la información de movimiento detectada en la etapa de estimación de información de proyección o codificación ya sea de una u otra de la información de bloque de fusión y la información de movimiento y almacenar la información de movimiento a ser usada en la generación de la señal predicha de la región de predicción objetivo a los medios de almacenamiento de información de predicción.
Un programa de codificación predictivo de imagen de acuerdo con el primer aspecto de la presente invención provoca que una computadora fusione como cada uno de los medios del dispositivo de codificación predictivo de imagen descrito anteriormente .
De acuerdo con el primer aspecto de la presente invención, el candidato para la información de movimiento a ser usado en la generación de la señal predicha del bloque de predicción objetivo es seleccionada en base a la información de predicción previamente codificada (información . de movimiento y tipo de división del bloque predictivo) del bloque de codificación objetivo y bloques de codificación circundantes, que suprime presencia de la codificación ineficiente .
En una modalidad, en base al número de regiones de predicción previamente codificadas en la región objetivo, el tipo de división del bloque de predicción de la región objetivo y el tipo de división del bloque de predicción de la región vecina de la región objetivo, el candidato para información de. movimiento de la región de predicción objetivo que sirve como la siguiente región de predicción puede ser seleccionada de la información de movimiento previamente codificada de la región vecina de la región de predicción objetivo.
En una modalidad, en base al número de regiones de predicción previamente codificadas en la región objetivo y el tipo de división del bloque de predicción de la región objetivo, el candidato para información de movimiento de la región de predicción objetivo que sirve como la siguiente región de predicción puede ser seleccionada de la información de movimiento previamente codificada de la región vecina de la región de predicción objetivo, cuando la región objetivo es dividida en dos regiones de predicción y cuando la región de predicción objetivo es una región de predicción a ser codificada en segundo lugar en la región objetivo, información de movimiento de una región que es vecina a la región de predicción objetivo y que no está incluida en la región objetivo puede ser seleccionada como el candidato para información de movimiento a ser usada en la generación de la señal predicha de la región de predicción objetivo.
En una modalidad, en base al número de regiones de predicción previamente codificadas en la región objetivo, el tipo de división del bloque de predicción de la región objetivo, la información de movimiento previamente codificada en la región objetivo y la información de movimiento de la región vecina de la región objetivo; el candidato para información de movimiento a ser usada en la generación de la señal predicha de la región de predicción objetivo que sirve como la siguiente región de predicción puede ser seleccionada de la información de movimiento previamente codificada de la región vecina a la región de predicción objetivo; cuando la región objetivo es dividida en dos regiones de predicción, cuando la región de predicción objetivo es una región de predicción a ser codificada en segundo lugar en la región objetivo y cuando la información de movimiento de la región de predicción codificada primero en la región objetivo es la misma como la información de movimiento de una región que es vecina a la región de predicción objetivo y que no está incluida en la región objetivo, se puede determinar que la información de movimiento de la región vecina a la región de predicción objetivo no es usada en la generación de la señal predicha de la región de predicción objetivo y la información de movimiento puede ser codificada.
El segundo aspecto de la presente invención es concerniente con descodificación predictiva de imagen.
Un dispositivo de descodificación predictivo de imagen de acuerdo con el segundo aspecto de la presente invención comprende: medios de análisis de datos que extraen de los datos comprimidos de una imagen resultante de la división en una pluralidad de regiones y codificación: datos codificados de información de predicción para indicar un método de predicción a ser usado en la predicción de una señal de una región objetivo que sirve como un objetivo de descodificación, datos codificados de una señal predicha de la región objetivo y datos codificados de una señal residual; medios de descodificación de información de predicción que descodifican los datos codificados de la información de predicción para restaurar un tipo de división del bloque de predicción que indica el número y formas de región que son regiones sub-dividas de la región objetivo e información de movimiento para adquisición de cada una de las señales predichas de las respectivas regiones de predicción de una señal previamente reconstruida; medios de generación de señal predicha que generan la señal predicha de la señal objetivo en base a la información de predicción asociada con la región objetivo; medios de restauración de señal residual que restauran una señal residual reconstruida de la región objetivo a partir de los datos codificados de la señal residual y medios de grabación que agregan la señal predicha a la señal residual reconstruida para restaurar una señal de pixel de la región objetivo y que almacena la señal de pixel como la señal previamente reconstruida. Los medios de descodificación de información de predicción están configurados como sigue: los medios de descodificación de información de predicción tienen medios de almacenamiento de información de predicción que almacenan la información de predicción previamente descodificada; los medios de descodificación de información de predicción descodifican el tipo de división del bloque de predicción de la región objetivo y almacenan el tipo de división del bloque de predicción a los medios de almacenamiento de información de predicción en base a la información de predicción de la región vecina de la región objetivo, el número de regiones de predicción previamente descodificadas en la región objetivo y la información de predicción previamente descodificada de la región objetivo, los medios de descodificación de información de predicción seleccionan un candidato para información de movimiento a ser usado en la generación de una señal predicha de una región de proyección objetivo como una siguiente región de predicción de información de movimiento previamente descodificada de una región vecina de la región de predicción objetivo de acuerdo con el número de candidatos para la información de movimiento seleccionado, los medios de descodificación de información de predicción descodifican la información de bloques de fusión indicadoras de la generación de la señal predicha y la región de predicción objetivo utilizando el candidato seleccionado para información de movimiento y la información de movimiento o ya sea descodifica uno de la información de bloque de fusión y la información de movimiento y almacena la información de movimiento a ser usada en la generación de la señal predicha de la región de predicción objetivo a los medios de almacenamiento de información de predicción.
Un método de descodificación predictivo de imagen de acuerdo con el segundo aspecto de la presente invención comprende: una etapa de análisis de datos de extraer, a partir de los datos comprimidos de una imagen resultante de la división en una pluralidad de regiones y codificación: datos codificados de información de predicción para indicar un método de predicción a ser usado en la predicción de una señal de una región objetivo que sirve como un objetivo de descodificación, datos codificados de una señal predicha de la región objetivo y datos codificados de una señal residual; una etapa de descodificación de información de predicción para descodificar los datos codificados de la información de predicción para restaurar un tipo de división de bloque de división que indica el número y formas de región de las regiones de predicción que son regiones sub-divididas de la región objetivo e información de movimiento para la adquisición de las señales predichas de las respectivas regiones de predicción de una señal previamente reconstruida; una etapa de generación de señal predicha para generar la señal predicha de la región objetivo, en base a la información de predicción asociada con la región objetivo; una etapa de restauración de señal residual para generar una señal reconstruida de la región objetivo a partir de los datos codificados de la señal residual y una etapa de grabación para agregar la señal predicha a la señal residual reconstruida para restaurar una señal de pixel para la región objetivo y almacenar la señal de pixel como la señal previamente reconstruida. La etapa de descodificación de información de predicción está configurada como sigue: la etapa de descodificación de información de predicción comprende descodificar el tipo de división del bloque de predicción de la región objetivo y almacenar el tipo de división del bloque de predicción como información de predicción previamente descodificada a los medios de almacenamiento de información de predicción que almacenan la información de predicción previamente descodificada; la etapa de descodificación de información de predicción comprende en base a la información de predicción de una región vecina de la región objetivo, el número de regiones de predicciones previamente descodificadas en la región objetivo y la información de predicción previamente descodificada de la región objetivo; seleccionar un candidato para información de movimiento a ser usado en la generación de una señal predicha de una región de predicción objetivo que sirve como una siguiente región de predicción de la información de movimiento previamente descodificada de una región vecina a una región de predicción objetivo y la etapa de descodificación de información de predicción comprende; de acuerdo con el número de candidatos para información de movimiento seleccionados, descodificación de información de bloques de fusión indicadora de la generación de la señal predicha de la región de predicción objetivo utilizando el candidato seleccionado para información de movimiento y la información de movimiento o descodificación ya sea de una u otra de la información de bloque de fusión y la información de movimiento y almacenar la información de movimiento en base a la generación de la señal predicha de la región de predicción objetivo a los medios de almacenamiento de información de predicción.
Un programa de descodificación predictivo de imagen de acuerdo ' con el segundo aspecto de la presente invención provoca que una computadora funcione como cada uno de los medios del dispositivo de codificación predictivo de imagen descrito anteriormente.
De acuerdo con el segundo aspecto de la presente invención, una imagen puede ser descodificada de los datos comprimidos generados por la codificación predictiva de imagen mencionada anteriormente.
En una modalidad, en base al número de regiones de predicción previamente descodificadas en la región objetivo, el tipo de división de bloque de predicción de la región objetivo y el tipo de división de bloque de predicción de la región vecina de la región objetivo, el candidato para información de movimiento de la región de predicción objetivo que sirve como la siguiente región de predicción puede ser seleccionada de la información de movimiento previamente descodificada de la región vecina a la región de predicción objetivo.
En una modalidad, en base al número de regiones de predicción previamente descodificadas en la región objetivo y el tipo de división de bloque de predicción de la región objetivo, el candidato para información de movimiento hacer usado con la generación de la señal predicha de la región de predicción objetivo que sirve como la siguiente región de predicción puede ser seleccionada de la información de movimiento previamente descodificada de la región vecina de la región de predicción objetivo, cuando la región objetivo es dividida en dos regiones de predicción y cuando la región de predicción objetivo es una región de predicción a ser descodificada en segundo lugar en la región objetivo, la información de movimiento de una región que es vecina de la región de predicción objetivo y que no está incluida en la región objetivo puede ser seleccionada como el candidato para información de movimiento de la región de predicción objetivo.
En una modalidad, en base al número de regiones de predicción previamente descodificadas en la región objetivo, el tipo de división de bloque de predicción de la región objetivo, la región de movimiento previamente descodificada en la región objetivo y la información de movimiento de la región vecina de la región, objetivo, el candidato para información de movimiento a ser usado en la generación de la señal predicha de la región de predicción objetivo que sirve como la siguiente región de predicción puede ser seleccionada de la información de movimiento previamente descodificada de la región vecina a la región de predicción objetivo; cuando la región objetivo es dividida en dos regiones de predicción, cuando la región de predicción objetivo es una región de predicción a ser descodificada en segundo lugar en la región objetivo y la cuando información de movimiento de la región de predicción descodificada en primer lugar en la región objetivo es la misma como la información de movimiento de una región que es vecina de la región de predicción objetivo y que no está incluida en la región objetivo; se puede determinar que la información de movimiento de la región vecina a la región de predicción objetivo no es usada en la generación de la señal predicha de la región de predicción objetivo y la información de movimiento puede ser descodificada.
El tercer aspecto de la invención es concerniente con codificación de video.
Un dispositivo de codificación de video de acuerdo con el tercer aspecto comprende medios de división, medios de generación de sub-división, medios de detección de movimiento, medios de generación de señal predicha, medios de predicción de movimiento, medios de generación de vector de movimiento diferencial, medios de generación de señal residual, medios de adición, medios de almacenamiento y medios de codificación. Los medios de división dividen una imagen de entrada en una secuencia de video en una pluralidad de particiones. Los medios de generación de su-división dividen una división objetivo de procesamiento generada por los medios de división a una pluralidad de sub-divisiones y genera información de forma para especificar las formas de la sub-divisiones . Los medios de detección de movimiento detectan un vector de movimiento de la división objetivo de procesamiento. Los medios de generación de la señal predicha generan una señal predicha de la división objetivo de procesamiento de una señal de imagen previamente reconstruida utilizando el vector de movimiento detectado con los medios de detección de movimiento. Los medios de predicción de movimiento generan un predictor de vector de movimiento de la división objetivo de procesamiento, en base a la información de forma generada por los medios de generación de subdivisión y un vector de movimiento de una región parcial previamente procesada. La región parcial previamente procesada puede ser una división o una sub-división antes en el orden de procesamiento a la división objetivo de procesamiento. Los medios de generación de vector de movimiento diferencial generan un vector de movimiento diferencial, en base a la diferencia entre el vector de movimiento usado en la generación de la señal predicha de la región objetivo de procesamiento y el predictor de vector de movimiento. Los medios de generación de señal residual generan una señal residual en base a una diferencia entre la señal predicha y una señal de pixel de la división objetivo de procesamiento. Los medios de adición agregan la señal residual a la señal predicha para generar una señal de imagen reconstruida. Los medios de almacenamiento almacenan la señal de imagen reconstruida como una señal de imagen previamente reconstruida. Los medios de codificación codifican: la señal residual generada por los medios de generación de señal residual, el vector de movimiento diferencial generado por los medios de generación de vector diferencial y la información de forma generada por los medios de generación de sub-división para generar datos comprimidos. Cuando una subdivisión objetivo de procesamiento en la división objetivo de procesamiento no tiene contacto con una división antes en el orden de procesamiento a la sub-división objetivo de procesamiento, los medios de predicción de movimiento generan un predictor de vector de movimiento de la sub-división objetivo de procesamiento, en base a un vector de movimiento de una región parcial previamente procesada perteneciente a un dominio que también contiene la sub-división objetivo de procesamiento u otro dominio. El dominio y el otro dominio pueden ser divididos por una línea de extensión de una frontera entre la sub-división objetivo de procesamiento y otra sub-división en la división objetivo de procesamiento.
Un método de codificación de video de acuerdo con el tercer aspecto comprende: (a) una etapa de división para dividir una imagen de entrada de una secuencia de video en una pluralidad de divisiones; (b) una etapa de generación de sub-división para dividir una división objetivo de procesamiento generada en la etapa de división a una pluralidad de sub-divisiones y generar información de forma para especificar las formas de las sub-divisiones ; (c) una etapa de detección de movimiento para detectar un vector de movimiento de la división objetivo de procesamiento; (d) una etapa de generación de señal predicha para generar una señal predicha de la división objetivo de procesamiento de una señal de imagen previamente reconstruida utilizando el vector de movimiento detectado en la etapa de detección de movimiento; (e) una etapa de predicción de movimiento para generar un predictor de vector de movimiento de la división objetivo de procesamiento en base a la información de forma generada en la etapa de generación de sub-división y un vector de movimiento de una región parcial previamente procesada como una división o una sub-división antes en el orden de procesamiento a la división objetivo de procesamiento; (f) una etapa de generación de vector de movimiento diferencial para generar un vector de movimiento diferencial, en base a la diferencia entre el vector de movimiento usado en la generación de la señal predicha de la división objetivo de procesamiento y el predictor de vector de movimiento; (g) una etapa de generación de señal residual para generar una señal residual en base a una diferencia entre la señal predicha y una señal de pixel de la división objetivo de procesamiento; (h) una etapa de adición para agregar la señal residual a la señal predicha para generar una señal de imagen reconstruida; (i) una etapa de almacenamiento para almacenar la señal de imagen reconstruida como una señal de imagen previamente reconstruida y (j) una etapa de codificación para codificar la señal residual generada en la etapa de generación de señal residual, el vector de movimiento diferencial generado en la etapa de generación de vector de movimiento diferencial y la información de forma generada en la etapa de generación de sub-división para generar datos comprimidos. Cuando una sub-división objetivo de procesamiento en la división objetivo de procesamiento no tiene contacto con una división antes en el orden de procesamiento a la sub-divisan objetivo de procesamiento, la etapa de predicción de movimiento comprende generar un predictor de vector de movimiento de la sub-división objetivo de procesamiento en base a un vector de movimiento de una región parcial previamente procesada que pertenece ya sea a un dominio que contiene la sub-divisan objetivo de procesamiento u otro dominio. El dominio y otro dominio pueden ser divididos por una línea de extensión de una frontera entre la sub-división objetivo de procesamiento y otra sub-división en la divisan objetivo de procesamiento.
Un programa de codificación de video de acuerdo con el tercer aspecto provoca que la computadora funcione como cada uno de los medios del dispositivo de codificación de video descrito anteriormente.
El dominio que incluye una sub-división que no tiene contacto con una división antes en orden de procesamiento, de los dos dominios definidos por la línea de extensión mencionada anteriormente de la frontera, es altamente probable de tener un movimiento similar a un movimiento de la sub-división. Por consiguiente, de acuerdo con el tercer aspecto, la exactitud del predictor de vector de movimiento mejora, el valor de vector de movimiento diferencial se hace más pequeño y el vector de movimiento es codificado con una cantidad de códigos más pequeña, por consiguiente, la eficiencia de codificación mejora.
El cuarto aspecto de la presente invención es concerniente con descodificación de video.
Un dispositivo de descodificación de video de acuerdo con el cuarto aspecto comprende medios de descodificación, medios de predicción de movimiento, medios de adición de vector, medios de generación de señal predicha, medios de adición y medios de almacenamiento. Los medios de descodificación descodifican los datos comprimidos para generar una señal residual reconstruida de una división objetivo de procesamiento en una imagen, un vector de movimiento diferencial de la división objetivo de procesamiento e información de forma para especificar las formas de una pluralidad de. sub-divisiones en la división objetivo de procesamiento. Los medios de predicción de movimiento generan un predictor de vector de movimiento del predictor objetivo de procesamiento en base a la información de forma y un vector de movimiento de una región parcial previamente procesada que es una división o una sub-división antes en el orden de procesamiento a la división objetivo de procesamiento. Los medios de adición de vector agregan el predictor de vector de movimiento generado por los medios de predicción de movimiento al vector de movimiento diferencial generado por los medios de descodificación para generar un vector de movimiento de la división objetivo de procesamiento. Los medios de generación de señal predicha generan una señal predicha de la división objetivo de procesamiento de una señal de imagen previamente reconstruida, en base al vector de movimiento de la división objetivo de procesamiento. Los medios de adición agregan la señal predicha a la señal residual reconstruida generada por los medios de descodificación para generar una señal de imagen reconstruida. Los medios de almacenamiento almacenan la señal de imagen reconstruida como una señal de imagen previamente reconstruida. Cuando una sub-división objetivo de procesamiento en la división objetivo de procesamiento no tiene contacto con una división antes en el orden de procesamiento a la sub-división objetivo de procesamiento. Los medios de predicción de movimiento generan un predictor de vector de movimiento de la sub-división objetivo de procesamiento en base a un vector de movimiento de una región parcial previamente procesada perteneciente ya sea a un dominio que contiene la sub-división objetivo de procesamiento u otro dominio. El dominio y el otro dominio pueden ser divididos por una línea de extensión de una frontera entre la sub-división objetivo de procesamiento y otra sub-división en la división objetivo de procesamiento.
Un método de descodificación de video de acuerdo con el cuarto aspecto es un método para descodificar datos comprimidos para generar la secuencia de video que comprende : (a) una etapa de descodificación para descodificar los datos comprimidos para generar una señal residual reconstruida de una división objetivo de procesamiento en una imagen, un vector de movimiento diferencial de la división objetivo de procesamiento e información de forma para especificar formas de una pluralidad de sub-divisiones en la división objetivo de procesamiento; (b) una etapa de predicción de movimiento para generar un predictor de vector de movimiento de la división objetivo de procesamiento en base a información de forma y un vector de movimiento de una región parcial previamente procesada como una división o sub-división antes del procesamiento a la división objetivo de procesamiento; (c) una etapa de adición de vector para agregar el predictor de vector de movimiento generado en la etapa de predicción de movimiento al vector de movimiento diferencial generado en la etapa de descodificación para generar un vector de movimiento de la división objetivo de procesamiento; (b) una etapa de generación de señal predicha para generar una señal predicha de la división objetivo de procesamiento de una señal de imagen previamente reconstruida en base al vector de movimiento del divisor objetivo de procesamiento; (e) una etapa de adición para agregar la señal predicha a la señal residual reconstruida generada en la etapa de descodificación para generar una señal de imagen reconstruida y (f) una etapa de almacenamiento para almacenar la señal de imagen reconstruida como una señal de imagen previamente reconstruida. Cuando una sub-división objetivo de procesamiento en la división objetivo de procesamiento no tiene contacto con una división antes en el orden de procesamiento a la sub-división objetivo de procesamiento, la etapa de predicción de movimiento comprende generar un predictor de vector de movimiento de la sub-división objetivo de procesamiento en base a un vector de movimiento de una región parcial previamente atravesada perteneciente ya sea a un dominio que contiene la sub-división objetivo de procesamiento y otro dominio. El dominio y el otro dominio son divididos con una línea de extensión y una frontera entre la sub-divisan objetivo de procesamiento y otra sub-división en la división objetivo de procesamiento.
Un programa de descodificación de video de acuerdo con el cuarto aspecto provoca que una computadora funcione como cada uno de los medios del dispositivo de descodificación de video descrito anteriormente.
De acuerdo con el cuarto aspecto, el predictor de vector de movimiento de la sub-división es generado de un vector de movimiento previamente descodificado en el dominio que contiene la sub-división que no tiene contacto con la división en el orden de procesamiento. Este predictor de vector de movimiento es altamente probable de ser similar al vector de movimiento de la sub-división de vector. De acuerdo con las modalidades anteriores, por consiguiente, la exactitud del predictor de vector de movimiento mejora, el valor del vector de movimiento diferencial se hace más pequeño y se hace factible efectuar la descodificación de datos comprimidos con una cantidad de bits más pequeña. Por consiguiente, se obtiene descodificación eficiente.
Efectos ventajosos de la invención El dispositivo de descodificación predictivo de imagen, método de codificación predictivo de imagen, programa de codificación predictivo de imagen, dispositivo de descodificación predictivo de imagen, método de descodificación predictivo de imagen y programa de descodificación predictivo de imagen de acuerdo con algunos aspectos de la presente invención proveen el efecto de codificación más eficiente de la información de movimiento debido a que el candidato para información de movimiento a ser usada en generación de la señal predicha del bloque de predicción objetivo puede ser seleccionada en base a información previamente codificada o previamente descodificada de los alrededores.
Algunos otros aspectos de la presente invención proveen el dispositivo de codificación de video, método de codificación de video y programa de codificación de video apto de mejorar la eficiencia de codificación. Además, se provee el dispositivo de descodificación de video, método de descodificación de video y programa de descodificacion de video correspondiente a la descodificación de video anterior.
BREVE DESCRIPCIÓN DE LAS FIGURAS La Figura 1 es un diagrama de bloque que muestra un dispositivo de codificación predictivo de imagen de acuerdo con una modalidad.
La Figura 2 es un diagrama esquemático para explicar candidatos para información de movimiento en la fusión de bloques convencional.
La Figura 3 es un diagrama esquemática para explicar candidatos para información de movimiento en fusión de bloques de acuerdo con una modalidad.
La Figura 4 es un diagrama de flujo para ilustrar un procedimiento de procesamiento de un codificador de información de predicción basado en la Figura 1.
La Figura 5 es un diagrama de flujo que muestra un procedimiento de un método de codificación predictivo de imagen del dispositivo de predicción de imagen mostrado en la Figura 1.
La Figura 6 es un diagrama de bloques que muestra el dispositivo de descodificación predictivo de imagen de acuerdo con una modalidad.
La Figura 7 es un diagrama de flujo para ilustrar un procedimiento de procesamiento de un descodificador de información de predicción mostrado en la Figura 6.
La Figura 8 es un diagrama de flujo que muestra un procedimiento del método de descodificación predictivo de imagen o del dispositivo de descodificación predictivo de imagen mostrado en la Figura 6.
La Figura 9 es un primer dibujo esquemático para explicar procesos que utilizan información de movimiento de una pluralidad de bloques vecinos de un bloque de predicción objetivo, como información de movimiento del bloque de predicción objetivo.
La Figura 10 es un segundo dibujo esquemático para explicar procesos que utilizan información de movimiento de una pluralidad de bloques vecinos de un bloque de predicción objetivo como información de movimiento del bloque de predicción objetivo.
La Figura 11 es un diagrama de flujo para ilustrar un proceso que utiliza información de movimiento de una pluralidad de bloques vecinos de un bloque de predicción objetivo como información de movimiento del bloque de predicción objetivo.
La Figura 12 es un tercer dibujo esquemático para explicar procesos que utilizan información de movimiento de una pluralidad de bloques vecinos de un bloque de predicción objetivo como información de movimiento del bloque de predicción objetivo.
La Figura 13 es un segundo ejemplo, de un diagrama de flujo para ilustrar un proceso que utiliza información de movimiento de una pluralidad de bloques vecinos de un bloque de predicción objetivo como información de movimiento del bloque de predicción objetivo.
La Figura 14 es un segundo ejemplo de un diagrama esquemático para explicar candidatos para información de movimiento en fusión de bloques de acuerdo con una modalidad.
La Figura 15 es un tercer ejemplo de un diagrama esquemático para explicar candidatos para información de movimiento en fusión de bloques de acuerdo con una modalidad.
La Figura 16 es un diagrama de bloques que muestra un programa apto de ejecutar- el método de codificación predictivo de imagen de acuerdo con una modalidad.
La Figura 17 es un diagrama de bloques que muestra un programa apto de ejecutar el método de descodificación predictivo de imagen de acuerdo con una modalidad.
La Figura 18 es un dibujo que muestra una configuración de elementos físicos de una computadora para ejecutar un programa grabado en un medio de grabación.
La Figura 19 es una vista en perspectiva de una computadora para ejecutar un programa almacenado en el medio de grabación.
La Figura 20 es un diagrama esquemático para explicar tipos de divisan de bloques de predicción de bloques de codificación .
La Figura 21 es un diagrama esquemática acerca de un proceso de información de movimiento (A) y un proceso de coincidencia de plantilla (B) en predicción de inter-imagen.
La Figura 22 es un diagrama esquemático para explicar el método de predicción de intra- imagen convencional.
La Figura 23 es un dibujo para explicar la predicción compensada de movimiento.
La Figura 24 es un dibujo que muestra esquemáticamente una configuración de un dispositivo de codificación de video de acuerdo con una modalidad.
La Figura 25 es un dibujo para explicar la generación de sub-divisiones .
La Figura 26 es un dibujo que muestra la configuración de un predictor de movimiento en una modalidad.
La Figura 27 es un diagrama de flujo de un método de codificación de video de acuerdo con una modalidad.
La Figura 28 es un diagrama de flujo que muestra un proceso de predictor de movimiento de acuerdo con una modalidad .
La Figura 29 es un dibujo que muestra un ejemplo de subdivisiones de una división objetivo y regiones parciales circundantes .
La Figura 30 es un dibujo que muestra otro ejemplo de sub-divisiones de un bloque objetivo y regiones parciales circundantes .
La Figura 31 es un dibujo que muestra todavía otros ejemplos de sub-divisiones de un bloque objetivo y regiones parciales circundantes.
La Figura 32 es un dibujo que muestra todavía otro ejemplo de sub-divisiones de un bloque objetivo y una región parcial circundante.
La Figura 33 es un dibujo que muestra todavía otro ejemplo de sub-divisiones de un bloque objetivo y una región parcial circundante.
La Figura 34 es un dibujo que muestra esquemáticamente una configuración de un dispositivo de descodificación de video de acuerdo con una modalidad.
La Figura 35 es un dibujo que muestra una configuración de un predictor de movimiento de acuerdo con una modalidad.
La Figura 36 es un diagrama de flujo de un método de descodificación de video de acuerdo con una modalidad.
La Figura 37 es un diagrama de flujo que muestra un proceso del predictor de movimiento de acuerdo con una modalidad .
La Figura 38 es un dibujo que muestra una configuración de un programa de codificación de video de acuerdo con una modalidad.
La Figura 39 es un dibujo que muestra una configuración de un programa de descodificación de video de acuerdo con una modalidad .
DESCRIPCIÓN DE MODALIDADES Una variedad de modalidades serán descritas a continuación en detalle con referencia a las figuras adjuntas. En la descripción de las figuras, los elementos idénticos o equivalentes serán denotados por los mismos signos de referencia, sin descripción redundante.
La Figura 1 es un diagrama de bloques que muestra un dispositivo de codificación predictiva de imagen 100 de acuerdo con una modalidad. El dispositivo de codificación predictivo de imagen 100 es provisto con la terminal de entrada 101, divisor de bloques 102, generador de señal predicha 103, memoria de cuadro 104, sustractor 105, transformador 106, cuantificador 107, cuantificador inverso 108, transformador inverso 109, adicionador 110, codificador de coeficiente de transformada cuantificado 111, terminal de salida 112, selector de tipo de división de bloque de predicción 113, estimador de información de movimientos 114, memoria de información de predicción 115 y codificador de información de predicción 116.
El transformador 106, cuantificador 107 y codificador de coeficiente de transformada cuantificado 111 funcionan como medios de codificación de señal residual y el cuantificador inverso y transformador inverso funciona como medios de restauración de señal residual. El selector de tipo de división de bloque de predicción 113 y estimador de información de movimiento 114 funcionan como medios de información de predicción y la memoria de información de predicción 115 y codificador de información de predicción 116 como medios de codificación de información de predicción.
La terminal de entrada 101 es una terminal que acepta la entrada de una señal de una secuencia de video que consiste de una pluralidad de imágenes.
El divisor de bloques 102 divide una imagen que sirve como objetivo de codificación representada por una señal de entrada de la termina de entrada 110 a una pluralidad de regiones (bloques de codificación) . En la presente modalidad, la imagen objetivo de codificación es dividida en bloques que consisten cada uno de 16 x 16 pixeles. Pero la imagen puede ser dividida en bloques de cualquier otro tamaño o forma. Además, bloques de diferentes tamaños pueden ser mezclados en cuadro .
El selector de tipo de división de bloques de predicción 113 divide una región objetivo (bloque de codificación objetivo) como un objetivo de codificación a regiones de predicción a ser sometidas a un proceso de predicción. Por ejemplo, selecciona uno de (A) a (H) en la Figura 20 por cada bloque de codificación y sub-divide el bloque de codificación de acuerdo con el modo seleccionado. Cada región dividida es llamada una región de predicción (bloque de predicción) y cada uno de los métodos de división (A) a (H) de la Figura 20 es llamado un tipo de división de bloque de predicción. Un método disponible para seleccionar un tipo de división de bloque de división es por ejemplo un método para llevar a cabo cada una de las sub-divisiones de la señal del bloque de codificación objetivo alimentado vía la línea L112, que realmente lleva a cabo el procesamiento de predicción descrito a continuación y procesamiento de codificación y seleccionar un tipo de división para minimizar un valor de velocidad-distorsión calculado de la potencia de una señal de error de codificación entre la señal original del bloque de codificación y una señal reconstruida y una cantidad de códigos necesaria para la codificación del bloque de codificación, pero no está limitada a la misma. El tipo de división de bloque de predicción del bloque de codificación objetivo es emitido vía la línea L113a, vía la línea L113b y vía la línea L113c a la memoria de información de predicción 115, al estimador de información de movimiento 114 y al generador de señal predicha 103, respectivamente.
El estimador de información de movimiento 114 detecta la información de movimiento necesario para la generación de una señal predicha de cada bloque de predicción en el bloque de codificación objetivo. Un método aplicable para la generación de la señal predicha (método de predicción) es la predicción de inter- imagen . y la predicción intra- imagen (la predicción de intra- imagen no es mostrada) como se describe en los antecedentes de la invención pero no está limitado al mismo. Se supone en la presente que la información de movimiento es detectada por la coincidencia de bloques mostrada en la Figura 21. Una señal original del bloque de predicción objetivo que es un objetivo de predicción puede ser generada a partir de la señal original del bloque de codificación alimentada la línea L102a y el tipo de división de bloque de predicción del bloque de codificación objetivo alimentado la línea L113b. una señal predicha para minimizar la suma de diferencias absolutas para la señal original del bloque de predicción objetivo es detectada de las señales de imágenes adquiridas vía la línea L104. En este caso, la información de movimiento contiene un vector de movimiento, un modo de predicción de ínter-imagen (predicción delantera/hacia atrás/bidireccional) , un elemento de cuadro de referencia y así sucesivamente. La información de movimiento detectada es emitida cada una vía la línea L114 a la memoria de información de predicción 115 y el codificador de información de predicción 116.
La memoria de información de predicción 115 almacena la información de movimiento de entrada y el tipo de división del bloque de predicción.
El codificador de información de predicción 116 selecciona candidatos para la información de movimiento a ser usada en la fusión de bloques de cada bloque de predicción, codifica por entropía la información de predicción del bloque de codificación objetivo y emite los codificados vía la línea L116 a la terminal de salida 112. Un método aplicable de codificación por entropía incluye la codificación aritmética, la codificación de longitud variable y así sucesivamente pero no está limitado a las mismas. La información de predicción contiene información de fusión de bloques para la ejecución de fusión de bloques utilizando información de movimiento de bloques vecinos al bloque de predicción, además del tipo de división de bloques de predicción del bloque de codificación objetivo y la información de movimiento del bloque de predicción. El proceso del codificador de información de predicción 116 será descrito más tarde.
El generador de señal predicha 103 adquiere señales previamente reconstruidas de la memoria de cuadro 104 en base a la información de movimiento de cada bloque de predicción en el bloque de codificación objetivo alimentado vía la línea L114 y el tipo de división de bloque de predicción alimentado vía la línea 113c y genera una señal predicha de cada bloque de predicción en el bloque de codificación objetivo.
La señal predicha generada en el generador de señal predicha 103 es emitida vía la línea L103 al sustractor 105 y al adicionador 110.
El sustractor 105 resta la señal predicha para el bloque de codificación objetivo alimentado vía la línea 103, de la señal de pixel del bloque de codificación objetivo alimentado vía la línea L102b después de la división por el divisor de bloque 102 para generar una señal residual. El sustractor 105 emite la señal residual obtenida mediante la sustracción, vía la línea L105 al transformador 106.
El transformador 106 es una parte que efectúa una transformada de coseno discreta sobre la señal residual de entrada. El cuantificador 107 es una parte que codifica los coeficientes de transformada obtenidos por la transformada de coseno discreta por el transformador 106. El codificador de coeficiente de transformada cuantificado 111 codifica por entropía los coeficientes de transformada cuantificados obtenidos mediante el cuantificador 107. Los datos codificados son emitidos vía la línea Lili a la terminal de salida 112. Un método aplicable de codificación por entropía la incluye la codificación aritmética, la codificación de longitud variable y así sucesivamente, pero no está limitado a los mismos .
La terminal de salida 112 emite las piezas de información introducidas del codificador de información de predicción 116 y el codificador de coeficiente de transformada cuantificado 111, conjuntamente al exterior.
El cuantificador inverso 108 efectúa la cuantificación inversa sobre el coeficiente de transformada cuantificado . El transformador inverso 109 efectúa una transformada de coseno discreta inversa para restaurar una señal residual. El adicionador 110 agrega la señal residual restaurada a la señal predicha alimentada vía la línea L103 para reconstruir una señal del bloque de codificación objetiva y almacena la señal reconstruida a la memoria de cuadro 104. La modalidad presente emplea el transformador 106 y el transformador inverso 109, pero otro proceso de transformada puede ser empleado en lugar de estos transformadores. Además, el transformador 106 y el transformador inverso 109 no son siempre esenciales. De esta manera, para uso en la generación de la señal predicha de bloque de codificación objetivo subsecuente, la señal reconstruida del bloque de codificación objetivo sometido a codificación es restaurada por el proceso inverso para ser almacenada en la memoria de cuadro 104.
Enseguida, se describirá el proceso del codificador de información de predicción 116. El codificador de información de predicción 116 selecciona primero candidatos para información de movimiento a ser usados en la fusión de bloques de cada bloque de predicción (candidatos para información de movimiento a ser usados y la generación de una señal predicha de una región de predicción objetivo) de la información de movimiento de bloques vecinos del bloque de predicción objetivo. La fusión de bloques se refiere a la generación de la señal predicha del bloque de predicción objetivo utilizando la información de movimiento de los bloques vecinos. Enseguida, el codificador de información de predicción 116 compara la información de movimiento detectada por el estimador de información de movimiento 114, con los candidatos para información de movimiento así seleccionados, para determinar si se lleva a cabo la fusión de bloques. Luego, de acuerdo con el número de candidatos para información de movimiento a ser usados en la fusión de bloques y la posibilidad de aplicación de ejecución de fusión de bloques, el codificador de información de predicción 116 codifica por entropía ya sea una u otra o ambas de la información de fusión de bloques y la información de movimiento, junto con el tipo de división de bloques de predicción. La información de fusión de bloques incluye información de identificación de fusión (fusión_bandera) para indicar si la señal predicha del bloque de predicción objetivo va a ser generada utilizando información de movimiento de un bloque vecino, esto es, si se va a llevar a cabo la fusión de bloques y la información de selección de bloques de fusión (fusión_bandera_izquierdo) para indicar cuál debe ser usada entre piezas de información de movimiento de dos o más bloques vecinos del bloque de predicción objetivo para generar la señal predicha del bloque de predicción objetivo.
Si no hay ningún candidato para información de movimiento a ser usado en la fusión de bloques de cada bloque de predicción, no hay necesidad de codificar estas dos piezas de información, esto es, la información de identificación de fusión y la información de selección de bloque de fusión. Si hay un candidato para información de movimiento, la información de identificación de fusión es codificada; si hay dos o más candidatos para información de movimiento y si se lleva a la cabo fusión de bloques, las dos piezas de información, esto es, las piezas de información de identificación de fusión e información de selección de bloques de fusión son codificadas. Aun con dos o más candidatos para información de movimiento no hay necesidad de codificación de la información de selección de bloques de fusión si la fusión de bloques no se lleva a cabo.
La Figura 3 es un diagrama esquemático para explicar un proceso de seleccionar candidatos para información de movimiento a ser usados en la fusión de bloques de un bloque de predicción de acuerdo con una modalidad. La Figura 3 muestra un ejemplo de un tipo de división de bloque de predicción para bisectar verticalmente el bloque de codificación (o para dividir el bloque de codificación en bloques derecho e izquierdo) como en el caso del bloque 301 mostrado en (B) de la Figura 20. A continuación se describirá el bloque 301 como un ejemplo, pero la misma descripción se aplica a los bloques 302, 304, 305, 306 y 307.
La selección de un candidato para información de movimiento se lleva a cabo en base a la información a continuación. 1) El número de bloques de predicción ya codificados/ya descodificados en el bloque de codificación objetivo. 2) El tipo de división de bloque de predicción del bloque de codificación objetivo. 3) El tipo de división de bloque de predicción de un bloque vecino de un bloque de predicción objetivo. 4) La información de movimiento de los bloques de predicción ya codificados/ya descodificados en el bloque de codificación objetivo. 5) La información de movimiento y el modo de predicción (predicción de intra-imagen/predicción de inter-imagen) del bloque vecino al bloque de predicción objetivo.
En el ejemplo de la Figura 3, un candidato para información de movimiento a ser usado en la fusión de bloques es seleccionado utilizando las piezas de información de 1) , 2) , 4) y 5) .
En primer lugar, se encuentra de la información de 2) que el número total de bloques de predicción en el bloque de codificación objetivo 400 es 2, los bloques de predicción TI y T2 y que el bloque de codificación es dividido verticalmente en dos sub-divisiones . Se encuentra de la información de 1) que el siguiente bloque de predicción es ya sea el bloque de predicción TI o el bloque de predicción T2.
Cuando el siguiente de predicción es el bloque de predicción TI (o cuando el número de bloques de predicción ya codificados/ya descodificados en el bloque de codificación objetivo es 0) , piezas de información de movimiento del bloque vecino A y el bloque vecino B son ajustados como candidatos a la información de movimiento para la fusión de bloques (las flechas en las figuras indican que las piezas de información de movimiento de los bloques vecinos A y B, son candidatos para información de movimiento a ser usados en la generación de la señal predicha del bloque de predicción TI) . En esta ocasión, si el bloque vecino A o B es un bloque generado por predicción de intra-imagen o un bloque fuera de la imagen, la información de movimiento del bloque puede ser excluida de los candidatos para información de movimiento para la fusión de bloques (también es posible ajustar la información de movimiento a un valor seudo determinado; por ejemplo, el vector de movimiento es ajustado a 0 y el número de cuadros de referencia a 0) . Si las piezas de información de movimiento de los bloques vecinos A y B son idénticas entre sí, la información de movimiento de un bloque vecino puede ser excluida de los candidatos .
Cuando el siguiente bloque de predicción es el bloque de predicción T2 (o cuando el número de bloques de predicción ya codificados/ya descodificados en el bloque de codificación objetivo es uno), como se muestra en (A) de la Figura 3, la información de movimiento del bloque vecino TI es excluida de los candidatos para información de movimiento para la fusión de bloques. Esto es debido a que el bloque de codificación objetivo es originalmente dividido en dos bloques en la suposición de que las señales predichas del bloque de predicción TI y el bloque de predicción T2 son generadas de piezas diferentes de información de movimiento. Es decir, esto es para evitar tal situación que la información de movimiento del bloque de predicción T2 se convierte en la misma como la información de movimiento del bloque de predicción TI. Puesto que este proceso provee solamente una pieza de información de movimiento para la fusión de bloques del bloque de predicción T2, el costo para la codificación de la información de selección de bloques de fusión puede ser reducido (una flecha en la figura indica que la información de movimiento del bloque vecino D es aplicable para la generación de la señal predicha del bloque de predicción T2) .
Además, en base a las piezas de información de 4) e 5) anteriores, la información de movimiento del bloque de predicción TI es comparada con la información de movimiento del bloque vecino D y si estas piezas de información de movimiento del bloque de predicción TI y el bloque vecino D son idénticas entre sí, la información de movimiento del bloque vecino D es también excluida de los candidatos para información de movimiento para la fusión de bloques como se muestra en (B) de la Figura 3. La razón por esto es que si la señal predicha del bloque de predicción T2 es generada utilizando la información de movimiento del bloque vecino D, las piezas de información de movimiento de los bloques de predicción TI y T2 se vuelven idénticas entre sí. Debido a este proceso, la información de movimiento para la fusión de bloques del bloque de predicción T2 se vuelve nula, lo que puede reducir el costo para la codificación de la información de identificación de fusión e información de selección de bloques de fusión.
La Figura 4 es un diagrama de flujo del codificador de información de predicción 116 para sustancializar el proceso de la Figura 3.
En primer lugar, el codificador de información de predicción 116 codifica el tipo de división de bloques de predicción del bloque de codificación objetivo y almacena el tipo de división de bloque de predicción a la memoria de información de predicción 115. Al mismo tiempo, el codificador de información de predicción 116 ajusta el numero N de bloques de predicción en el bloque de predicción objetivo, en base al tipo de división de bloques de predicción codificado y restablece un numero de bloques de predicción objetivo i a 0 (etapa S151) . Enseguida, el codificador de información de predicción 116 determina si un bloque de predicción objetivo es un bloque de predicción a ser codificado al último en el bloque de codificación objetivo y si el número de bloques de predicción en el bloque de codificación objetivo no es menor de 2 (etapa S152) . Por ejemplo, en el caso de N = 2 , la decisión es si con i = 1 y el procesamiento procede a la etapa S157. En el caso de N = 4 ( (D) de la Figura 20) , la decisión se convierte en si con i = 3. Cuando la decisión es no, el procesamiento procede a la etapa S153. En el caso de la Figura 3, el procesamiento procede a la etapa S153 cuando el bloque de predicción objetivo es el bloque de predicción TI; el procesamiento procede a la etapa S157 cuando el bloque de predicción objetivo es el bloque de predicción T2.
En la etapa S153, la información de identificación de fusión es codificada. La información de identificación de fusión se vuelve si (fusión_bandera = 1, generación de la señal predicha del bloque de predicción objetivo utilizando un candidato para información de movimiento) si la información de movimiento del bloque de predicción objetivo coincide con un candidato para información de movimiento para fusión de bloques; de otra manera la información de identificación de fusión se vuelve no ( fusión_bandera = 0, generación de la señal predicha del bloque de predicción objetivo utilizando la información de movimiento codificada) . Enseguida, cuando la información de movimiento del¦ bloque de predicción objetivo coincide con un candidato para información de movimiento para la fusión de bloques, el procesamiento procede a la etapa S164. En la etapa S164, el codificador de información de predicción 116 determina si hay dos candidatos para información de movimiento y si el número de candidatos para información de movimiento es 2, codifica la información de selección de bloque de fusión y el procesamiento procede a la etapa S155. Cuando el número de candidatos para información de movimiento es 1, el procesamiento procede a la etapa S165. Por otra parte, si la información de movimiento del bloque de predicción objetivo no coincide con cualquier candidato para información de movimiento para la fusión de bloques, el procesamiento procede a la etapa S156 y el codificador de información de predicción 116 codifica la información de movimiento detectada por el estimador de información de movimiento 114 y luego procede a la etapa S165.
En la etapa S157, el codificador de información de predicción 116 determina si cada pieza de la información de movimiento ya codificada del bloque de codificación objetivo coincide4 con la información de movimiento de un bloque vecino que no pertenece al bloque de codificación objetivo. La descripción de esta etapa S157 significa que, en el caso de N = 2 , la información de movimiento del bloque de predicción TI mostrado en la Figura 3 es comparada con la información de movimiento del bloque vecino D. además, la descripción de la etapa S157 significa que, en el caso de N = 4 (D) de la Figura 20), el bloque de predicción objetivo es el bloque dividido a la derecha más inferior y las piezas de información de movimiento de los otros tres bloques de predicción (superior izquierdo, superior derecho e inferior izquierdo) son comparados entre sí. Cuando la determinación es si (o cuando las piezas de información de movimiento en comparación son coincidentes) , el número de candidatos para información de movimiento a ser usados en la fusión de bloques de bloques de predicción objetivo es 0 como se muestra en el ejemplo de (B) de la Figura 3 y así el codificador de información de predicción 116 codifica la información de movimiento detectada por el estimador de información de movimiento 114 sin transmitir la información de fusión de bloques y luego el procesamiento procede a la etapa S165 (etapa S160) . Por otra parte, cuando la determinación es no (o cuando las piezas de información de movimiento en comparación no son coincidentes) , el procesamiento procede a la etapa S163. En el caso de N = 4, las piezas de información de movimiento en los bloques superior derecho e inferior izquierdo en el bloque de codificación objetivo son aquellas de bloques vecinos a bloques de predicción objetivo. Por esta razón, la aplicación de fusión de bloques al bloque de predicción objetivo (inferior derecho) con coincidencia de la información de movimiento de los tres bloques de predicción (superior izquierdo, superior derecho e inferior izquierdo) significa que las señales predichas de los cuatros bloques de predicación en el bloque de predicción objetivo son todas generadas utilizando la misma información de movimiento. Por esta razón, en el caso en donde N = 4 y en donde las piezas de información de movimiento de los tres bloques de predicción (superior izquierdo, superior derecho e inferior izquierdo) son idénticos entre sí, el número de candidatos para información de movimiento del bloque de predicción objetivo (inferior derecho) es ajustado a 0.
En la etapa S163, el codificador de información de predicción 116 determina si el tipo de división de bloques de predicción del bloque de codificación objetivo es un tipo biseccional y si la determinación es no, procede a la etapa S153 (la descripción posteriormente en la presente es omitida) . Cuando la determinación en la etapa S163 es si, el procesamiento procede a la etapa S158 en la cual, el codificador de información de predicción 116 codifica la información de identificación de fusión. En este caso, puesto que el número de candidatos para información de movimiento a ser usados en la fusión de bloques del bloque de predicción objetivo es 1, como en el ejemplo de (A) de la Figura 3, no hay necesidad de la codificación de la información de selección de bloques de fusión. Enseguida, si la información de movimiento del bloque de predicción objetivo coincide con el candidato a la información de movimiento para fusión de bloques, el procesamiento procede a la etapa S165. Cuando la información de movimiento del bloque de predicción objetivo no coincide con el candidato para información de movimiento para la fusión de bloques, el procesamiento procede a la etapa S160, en la cual el codificador de información de predicción 116 codifica la información de movimiento detectada por el estimador de información de movimiento 114 y luego el procesamiento procede a la etapa S165.
En la etapa S165, la información de movimiento del bloque objetivo es almacenada a la memoria de información de predicción 115. Subsecuentemente, en la etapa S161, el codificador de información de predicción 116 determina si la codificación esta consumada para todos los bloques de predicción en el bloque de codificación objetivo (si i = N -1); cuando i = N - 1, esto procesamiento de codificación de información de predicción del bloque de codificación objetivo es terminado; cuando i < N - 1, el numero i es actualizado en la etapa S162 (i = i + 1) y el procesamiento regresa a la etapa S152 al efectuar el procesamiento de codificación de información de movimiento del siguiente bloque de predicción.
Puesto que. los candidatos para información de movimiento a ser usados en la fusión de bloques del bloque de proyección pueden ser seleccionados por adelantado utilizando las piezas de información a continuación, como se describe anteriormente, se hace factible transmitir eficientemente la información de fusión de bloques . 1) El número de bloques de predicción ya codificados/ya descodificados en el bloque de codificación objetivo. 2) El tipo de división de bloques de predicción del bloque de codificación objetivo. 4) La información de movimiento de los bloques de predicción ya codificados/ya descodificados en el bloque de codificación objetivo. 5) La información de movimiento y modo de predicción (predicción de intra- imagen/predicción de inter- imagen) del bloque vecino del bloque de predicción objetivo.
La Figura 5 es un diagrama de flujo que muestra un procedimiento de un método de codificación predictivo de imagen en el dispositivo de codificación predictivo de imagen 100 de acuerdo con la presente modalidad. En primer lugar, el divisor de bloques 102 divide una imagen de entrada en 16 x 16 bloques de codificación (la imagen puede ser dividida en bloques de otro tamaño o forma o bloques de diferentes tamaños pueden ser mezclados en el cuadro) . Luego, el selector de tipo de división de bloque de predicción 113 y el estimador de información de movimiento 114 determinan el tipo de división de bloque de predicción del bloque de codificación objetivo que sirve como objetivo de codificación y la información de movimiento de cada uno de los bloques de predicción de los mismos (etapa S101) . Enseguida, el codificador de información de predicción 116 codifica la información de predicción (etapa S102, Figura 4) .
Enseguida, el generador de señal predicha 103 genera la señal predicha del bloque de codificación objetivo, en base al tipo de división del bloque de predicción del bloque de codificación objetivo y la información de movimiento de cada uno de los bloques de predicción y una señal residual indicadora de una diferencia entre señal de pixel del bloque de codificación objetivo y la señal predicha es transformada y codificada por el transformador 106, cuantificador 107 y codificador de coeficiente de transformada codificado 111 (etapa S103) . Los datos codificados de la información de predicción y los coeficientes de transformada cuantificados son luego emitidos a través de la terminal de salida 112 (etapa S104) .
Para la codificación predictiva del bloque de codificación objetivo subsecuente, la señal residual codificada es descodificada por el cuantificador inverso 108 y el transformador inverso 109 después de estos procesos o en paralelo con estos procesos. Luego, el adicionador 110 agrega la señal residual descodificada a la señal predicha para reconstruir una señal del bloque de codificación objetivo. La señal reconstruida es almacenada como una imagen de referencia a la memoria de cuadro 104 (etapa S105) . Si el procesamiento no es consumado para todos los bloques de codificación objetivo, el procesamiento regresa a la etapa S101 para llevar a cabo el procesamiento para el siguiente bloque de codificación objetivo. Cuando el procesamiento esta consumado para todos los bloques 1 de codificación objetivo, el procesamiento es terminado (etapa S106) .
Enseguida, se describirá la descodificación predictiva de imagen de acuerdo con una modalidad. La Figura 6 es un diagrama de bloques que muestra un dispositivo de descodificación predictivo de imagen 200 de acuerdo con una modalidad. Este dispositivo de descodificación predictivo de imagen 200 es provisto con la terminal de entrada 201, analizador de datos 202, cuantificador inverso 203, transformador inverso 204, adicionador 205, terminal de salida 206, descodificador de coeficiente de transformada cuantificado 207, descodificador de información de predicción 208, memoria de cuadro 104, generador de señal predicha 103 y memoria de información de predicción 115.
El cuantificador inverso 203, transformador inverso 204 y descodificador de coeficiente de transformada cuantificado 207 funciona como medios de descodificación de señal residual. Los medios de descodificación por el cuantificador inverso 203 y el transformador inverso 204 son iraplementados utilizando cualesquier medios diferentes de estos. Además, el transformador inverso 204 puede ser excluido. La memoria de información de predicción 115 y el descodificador de información de predicción 208 funcionan como medios de déscodificación de información de predicción.
La terminal de entrada 201 acepta entrada de datos comprimidos resultantes de la codificación por compresión mediante el método de codificación predictivo de imagen mencionado anteriormente. Estos datos comprimidos contienen la información de coeficientes de transformada cuantificados resultantes de la transformación, cuantificación y codificación por entropía de la señal residual, para cada uno de una pluralidad de bloques de codificación divididos y datos codificados de la información de predicción para la generación de la señal predicha de los bloques. La información de predicción en la presente contiene la información de fusión de bloques para ejecución de fusión de bloques utilizando la información de movimiento como candidatos para fusión de bloques, además del tipo de división de bloques de predicción del bloque codificado objetivo y la información de movimiento de bloques de predicción. Además, la información de movimiento contiene el vector de movimiento, el modo de predicción de inter-imagen (predicción delantera/hacia atrás/bidireccional) , el número de cuadro de referencia y así sucesivamente.
El analizador de datos 202 analiza los datos comprimidos introducidos a través de la terminal de entrada 201 separa los datos acerca del bloque codificado objetivo que sirven como objetivo de descodificación a los datos codificados de los coeficientes de transformada cuantificados y datos codificados de información de predicción y los emite vía la línea L202a y vía la línea L202b al descodificación del coeficiente de transformada cuantificado 207 y al descodificador de información de predicción 208, respectivamente .
El descodificador de información de predicción 208 selecciona un candidato para la información de movimiento a ser usada en la fusión de bloques de cada bloque de proyección y descodifica por entropía los datos codificados de la información de predicción asociada con el bloque codificado objetivo. La información de predicción descodificada es emitida vía la línea L208a y vía la línea L208b al generador de señal predicha 103 y a la memoria de información de predicción 115, respectivamente. La memoria de información de predicción 115 almacena la información de predicción de entrada. El procesamiento del descodificador de información de predicción 208 será descrito más tarde.
El generador de señal predicha 103 adquiere señales previamente reconstruidas de la memoria de cuadro 104, en base a la información de predicción del bloque codificado objetivo alimentado vía la Línea L208a y genera una señal predicha de cada bloque de predicción en el bloque codificado objetivo. La señal predicha así generada es emitida vía la línea L103 al adicionador 205.
El descodificador de coeficiente de transformada codificado 207 descodifica por entropía los datos codificados de los coeficientes de transformada codificados de la señal residual en el bloque codificado objetivo y emite el resultado vía la línea L207 al cuantificador inverso 203.
El cuantificador inverso 203 efectúa la cuantificación inversa de la información de señal residual del bloque codificado objetivo alimentada vía la línea L207. El transformador inverso 204 efectúa una transformada de coseno discreto inversa de los datos cuantificados inversamente.
El adicionador 205 agrega la señal predicha generada por el generador de señal predicha 103 a la señal residual restaurada por el cuantificador inverso 203 y el transformador inverso 204 y emite una señal de pixel reconstruida del bloque codificado objetivo vía la línea L205 a la terminal de salida 206 y la memoria de cuadro 104. La terminal de salida 206 emite la señal al exterior del dispositivo de codificación 200 (por ejemplo, a una pantalla) .
La memoria de cuadro 104 almacena la salida de imagen reconstruida del adicionador 205 como una imagen de referencia que es almacenada como una imagen reconstruida para referencia para el siguiente procesamiento de descodificación.
La Figura 7 es un diagrama de flujo del descodificador de información de predicción 208 para implementar el procesamiento de la Figura 3.
En primer lugar, el descodificador de información de predicción 208 descodifica el tipo de división de bloque de predicción del bloque codificado objetivo y lo almacena en memoria de información de predicción 115. Al mismo tiempo, el descodificador de información de predicción 208 ajusta el numero N de bloques de predicción en el bloque codificado objetivo, en base al tipo de división de bloques de predicción descodificados y restablece el número de bloques de predicción objetivo i a 0 (etapa S251) . Enseguida, el descodificador de información de predicción 208 determina si un bloque de predicción objetivo es un bloque de predicción a ser descodificado al último en el bloque codificado objetivo y si el número de bloques de predicción en el bloque codificado objetivo no es menor (etapa S252) . Por ejemplo, en el caso de N = 2, la determinación es si con i = 1 y el procesamiento procede a la etapa S258. En el caso de N = 4 ((D) de la Figura 20). La determinación es si con i = 3. Cuando la determinación es no, el procesamiento procede a la etapa S253. En la Figura 3, el procesamiento procede a la etapa S253 cuando el bloque de predicción objetivo es el bloque de predicción TI . El procesamiento procede a la etapa S258 cuando el bloque de predicción objetivo es el bloque de predicción T2.
En la etapa S253, la información de identificación de fusión es descodificada. Cuando la información de identificación de fusión es si (fusión_bandera = 1) en la presente, la información de identificación de fusión indica que la señal predicha del bloque de predicción objetivo va a ser generada utilizando un candidato para información de movimiento. Por otra parte, cuando la información de identificación de fusión es no (fusión_bandera = 0) la señal predicha del bloque de predicción objetivo es generada utilizando la información de movimiento descodificada. En la etapa S254, el descodificador de información de predicción 208 determina si la información de identificación de fusión indica descodificación de información de movimiento, esto es, si el valor de la fusión_bandera es 0. Cuando el valor descodificado de fusión_bandera es 0, el identificador de predicción 208 descodifica la información de movimiento para la generación de la señal predicha del bloque de predicción objetivo (etapa S257) y luego el procesamiento procede a la etapa S267. Cuando el valor de fusión_bandera es 1, el descodificador de información de predicción 208 determina en la etapa S266 si el número de candidatos para información de movimiento a ser usados en la fusión de bloques es 2 y cuando el número de candidatos es 2, la información de selección de bloques de fusión es descodificada y el procesamiento procede a la etapa S256 (etapa S255) . Cuando el número de candidatos para información de movimiento a ser usada en la fusión de bloques del bloque de predicción objetivo es 1, el procesamiento procede a la etapa S256. En la etapa S256, cuando el número de candidatos para información de movimiento es 1, el descodificador de información de predicción 208 determina la información de movimiento del mismo como la información de movimiento del bloque de predicción objetivo. Cuando el número de candidatos para información de movimiento es 2, el descodificador de información de predicción 208 determina la información de movimiento del bloque vecino indicado por la información de e selección de bloque de fusión, como la información de movimiento del bloque de predicción objetivo.
En la etapa S258, el descodificador de información de predicción 208 determina si cada pieza de la información de movimiento ya descodificada del bloque codificado objetivo coincide con la información de movimiento de un bloque vecino que no pertenece al bloque codificado objetivo. La descripción de esta etapa S258 significa que, en el caso de N = 2, la información de movimiento del bloque de predicción TI mostrado en la Figura 3 es comparada con la información de movimiento del bloque vecino B. además, la descripción de esta etapa S258 significa que, en el caso de N = 4 ( (D) de la Figura 20) , el bloque de predicción objetivo es el bloque dividido de la derecha inferior y las piezas de información de movimiento de los otros tres bloques de predicción (superior izquierdo, superior derecho e inferior izquierdo) son comparados entre sí. Cuando la determinación es si (o cuando las piezas de información de movimiento en comparación son coincidentes) , el número de candidatos para información de movimiento a ser usados en la fusión de bloques del bloque de predicción objetivo es 0, como se muestra en el ejemplo de (B) en la Figura 3, el descodificador de información de predicción 208 descodificad la información de movimiento a ser usada para la generación de la señal predicha del bloque de predicción objetivo, sin descodificar la información de fusión de bloques y el procesamiento procede a la etapa S267 (etapa S262) . Por otra parte, cuando la determinación es no (o cuando las piezas de información de movimiento en comparación no son coincidentes) , el procesamiento procede a la etapa S265. En el caso de N = 4 , las piezas de información de movimiento de los bloques superior derecho e inferior izquierdo en el bloque codificado objetivo son aquellas de bloques vecinos al bloque de predicción objetivo. Por esta razón, la aplicación de fusión de bloques al bloque de predicción objetivo (inferior derecho) cuando la coincidencia de las piezas de información de movimiento de los tres bloques de predicción (superior izquierdo, superior derecho e inferior izquierdo) significa que las señales predichas de los cuatro bloques de predicción en el bloque codificado objetivo son todas generadas a partir de la misma información de movimiento. Por esta razón, en el caso en donde N = 4 y en donde las piezas de información de movimiento de los tres bloques de predicción (superior izquierdo, superior derecho e inferior izquierdo) son idénticas entre sí, el número de candidatos para información de movimiento del bloque de predicción objetivo (inferior derecho) es ajustado a 0.
En la etapa S265, el descodificador de información de predicción 208 determina si el tipo de división del bloque de predicción del bloque codificado objetivo es un tipo biseccional y si la determinación es no, el procesamiento procede a la etapa S253 (la descripción posteriormente en la presente es omitida) . Cuando la determinación en la etapa S265 es si, el procesamiento procede a la etapa S259, en la cual el descodificador de información de predicción 208 descodifica la información de identificación de fusión. En este caso, como en el ejemplo de (A) de la Figura 3, el número de candidatos para información de movimiento a ser usados en la fusión de bloques del bloque de predicción objetivo es uno y por consiguiente, no hay necesidad de descodificación de la información de selección del bloque de fusión.
En la siguiente etapa S260, el descodificador de información de predicción 208 determina si la información de identificación de fusión indica descodificación de información de movimiento, esto es, si el valor de "fusión_bandera es 0. Cuando el valor descodificado de fusión_bandera es 0, el descodificador de información de predicción 208 descodifica la información de movimiento para la generación de la señal predicha del bloque de predicción objetivo (etapa S262) y el procesamiento procede a la etapa S267. Cuando el valor de fusión_bandera es 1, el procesamiento procede a la etapa 261. En la etapa S261, puesto que el número de candidatos para información de movimiento es 1, como se muestra en (A) de la Figura 3, el descodificador de información de predicción 208 determina la información de movimiento del bloque vecino D como la información de movimiento del bloque de predicción objetivo y el procesamiento procede a la etapa S267.
En la etapa S267, la información de movimiento del bloque de predicción restaurado es almacenada a la memoria de información de predicción 115. Subsecuentemente, en la etapa 263, el descodificador de información de predicción 208 determina si la descodificación está completa para todos los bloques de predicción en el bloque codificado objetivo (si i = N - 1) ; cuando i = N - 1, este procesamiento de descodificación de información de predicción del bloque codificado objetivo es terminado; cuando i < N - 1, el numero i es actualizado en la etapa S264 (i = i + 1) y el procesamiento regresa a la etapa S252 para efectuar el procesamiento de descodificación de la información de movimiento del siguiente bloque de predicción.
Enseguida, un método de descodificación predictivo de imagen en el dispositivo de descodificación predictivo de imagen 200 mostrado en la Figura 6 será descrito utilizando la Figura 8. En primer lugar, los datos comprimidos son introducidos a través de la terminal de entrada 201 (etapa S201) . Luego, el analizador de datos 202 efectúa el análisis de datos de los datos comprimidos para extraer los datos codificados de la información de predicción y los coeficientes de transformada cuantificados alrededor de una región objetivo de un objetivo de descodificación. La información de predicción es descodificada por el descodificador de información de predicción 208 (S203) .
Después de esto, en base a la información de predicción restaurada, el generador de señal predicha 103 genera la señal predicha del bloque codificado objetivo (S204) .
Los coeficientes de transformada codificados descodificados por el descodificador de coeficiente de transformada cuantificado 207 son sometidos a la cuantificación inversa en el cuantificador inverso 203 y a la transformación inversa en el transformador inverso 204 para generar una señal residual reconstruida (S205) . Luego, la señal predicha generada es agregada a la señal residual reconstruida para generar una señal reconstruida y esta señal reconstruida es almacenada a la memoria de cuatro 104 para reconstrucción del siguiente bloque codificado objetivo (etapa 206) . Si hay próximos datos comprimidos, el proceso de S204 a S206 se llevan a cabo repetidamente (S207) para procesar todos los datos al último.
Lo anterior descrito en los ejemplos en los cuales el número de bloques vecinos al bloque de predicción no es de más de dos y a continuación se enfocara la atención en situaciones en las cuales el número de bloques vecinos en contacto con las fronteras superior e izquierda a un bloque de predicción no es menor de 3.
El ejemplo de la Figura 3 concerniente con el caso en donde había dos bloques vecinos en contacto con un bloque de predicción, pero hay situaciones en las cuales un bloque de predicción está en contacto con dos o más bloques vecinos, dependiendo de combinaciones de los tipos de divisiones del bloque de predicción de un bloque de codificación y bloques vecinos al mismo. La Figura 9 muestra un ejemplo en donde tres bloques vecinos están en contacto con un bloque de predicción. El bloque 301 de la Figura 20 será descrito como un ejemplo en la presente, pero la misma descripción se aplica a los bloques 302, 304, 305, 306 y 307.
En (A) y (B) de la Figura 9, un bloque codificado objetivo 400 tiene dos bloques de predicción resultantes de la bisección vertical del bloque 400, mientras que un bloque 401 en contacto con el lado izquierdo del bloque de predicción TI es bisectado horizontalmente (o divido en dos bloques superiores e inferiores) . Por esta razón, el bloque de predicción TI está en contacto con tres bloques vecinos A, B y C. en este caso, cuando se determina preliminarmente en el lado de codificación y en el lado de descodificación que bloques vecinos son representados por dos bloques vecinos A y B, en contacto con la esquina izquierda superior del bloque de predicción objetivo, el número de bloques vecinos es siempre limitado a 2 y por consiguiente la técnica descrita anteriormente es aplicable.
Por otra parte, también es posible emplear una técnica de bisectar visualmente de manera horizontal el bloque de predicción TI de acuerdo con el tipo de división del bloque de predicción del bloque vecino 401, como se muestra en (B) de la Figura 9. En este caso, el bloque de predicción objetivo TI es dividido en los bloques Tía y Tlb y la señal predicha del bloque Tía y la señal predicha de Tlb son generadas utilizando dos piezas de información de movimiento pertenecientes a los bloques vecinos A y C, respectivamente.
En esta ocasión, la información de selección de bloque de fusión puede ser codificada eficientemente sin cambio en la configuración de la información de fusión de bloques, mediante tal regla que candidatos seleccionados para la información de selección de bloques de fusión son dos piezas de la información de movimiento del bloque vecino B en (A) de la Figura 9 y la combinación de piezas de información de movimiento de los bloques vecinos A y C (B) de la Figura 9.
Por otra parte, en el caso en donde ya sea uno u otro de (A) de la Figura 9 y (B) de la Figura 9 es identificado por la información de selección de bloque de fusión y en donde (B) de la Figura 9 es seleccionado, también es posible adaptar un método de transmitir adicionalmente segunda información de identificación de fusión para cada bloque virtual y generación de identificación de la señal predicha del bloque virtual en base a la información de movimiento del bloque vecino o codificación/descodificación de la información de movimiento .
También es posible adaptar un método sin división del bloque de predicción TI en el cual candidatos seleccionados para la información de selección de bloque de fusión en el bloque de predicción TI son tres piezas de información de movimiento de los bloques vecinos A, B y C y en los cuales la información de movimiento a ser usada en la generación de la señal predicha de TI es seleccionado de las tres piezas de información, pero los cambios a continuación son necesarios en este caso. 1. Un flujo de "adquirir el tipo de división de bloque de predicción del bloque vecino y derivar el número de bloques vecinos al bloque de predicción" es agregado antes de la etapa S164 en la Figura 4 y la etapa S266 en la Figura 7. 2. Etapa S164 en la Figura 4 y etapa S266 en la Figura 7 son cambiadas a "¿hay dos o más piezas de información de movimiento de candidatos seleccionados?" . 3. La información de selección de bloques de fusión es extendida a información para seleccionar uno de tres o más candidatos .
Este procesamiento de fusión de bloques mostrado en (A) y (B) de la Figura 9 puede ser implementado al extender la etapa S256 en la Figura 7 al procesamiento mostrado en la Figura 11. En primer lugar, en la etapa S256a, el tipo de división del bloque de predicción de un bloque codificado en contacto con el bloque de predicción objetivo es adquirido. En la siguiente etapa S256b, el número M de bloques de predicción vecinos a las fronteras de bloques indicados por la información de selección de bloques de fusión descodificada es derivado del tipo de división del bloque de predicción adquirido. Por ejemplo, en el caso de (B) de la Figura 9, M = 2. Además, en la etapa S256c se determina si el valor de M es mayor de 1 ( > 1) . En el caso de M > 1, el bloque de predicción objetivo es dividido en M bloques virtuales y las piezas de información de movimiento de los M bloques vecinos son ajustadas a los M bloques virtuales divididos (también se pueden contemplar que la información de identificación de fusión sea enviada adicionalmente para cada bloque virtual y se determina si la información de movimiento va a ser descodificada) . En el caso de = 1, la información de movimiento de un bloque vecino que sirve como candidato para la fusión de bloques es ajustada a la información de movimiento del bloque de predicción objetivo.
De acuerdo con las Figuras 7 y 11, como se describe anteriormente, la selección del candidato para información de movimiento en el ejemplo de la Figura 9 se lleva a cabo en base a las piezas de información a continuación. 1) El número de bloques de predicción ya codificados/ya descodificados en el bloque- codificado objetivo. 2) El tipo de división de bloque de predicción del bloque codificado objetivo. 3) El tipo de división del bloque de predicción del bloque vecino al bloque de predicción objetivo.
De esta manera, la información de 3) , que no es usada en la selección de candidato para la información de movimiento en el ejemplo de la Figura 3 es usada en los casos en donde hay tres o más candidatos para información de movimiento.
(C) de la Figura 9 muestra un ejemplo en el cual el bloque vecino al lado izquierdo del bloque de predicción 400 es bisectado asimétricamente. En este caso, también es posible adoptar la técnica de bisectar virtualmente de manera horizontal el bloque de predicción TI de acuerdo con el tipo de división del bloque de predicción del bloque vecino 401 (a los bloques Tía y Tlb) . Es decir, la señal predicha del bloque de predicción objetivo TI puede ser generada utilizando una combinación de piezas de información de movimiento de bloques vecinos A y C en (C) de la Figura 9. Como candidatos para información de movimiento para fusión de bloques del bloque de predicción TI.
En casos en donde el tipo de división del bloque de predicción del bloque de codificación es un tipo en el cual el número de bloques de predicción es 1 como el bloque 300 en la Figura 20, como se muestra en (D) a (F) de la Figura 9, también es posible aplicar la técnica de dividir virtualmente de manera horizontal el bloque de predicción TI (bloque 400) de acuerdo con el tipo de división del bloque de predicción del bloque vecino 401 (división en una pluralidad de bloques dispuestos en dirección vertical ) y general la señal predicha para cada bloque. Además, en casos en donde el bloque vecino 402 es dividido verticalmente (en una pluralidad de bloques dispuestos en dirección horizontal) , que no son mostrados, es posible aplicar una técnica de dividir virtualmente de manera vertical el bloque de predicción TI (bloque 400) de acuerdo con el tipo de división del bloque de predicción del bloque vecino 402 y generar la señal predicha para cada bloque .
En casos en donde un bloque vecino a bloques de predicción incluye un bloque predicho de intra-imagen (intra) , también es posible aplicar la técnica de dividir virtualmente el bloque de predicción y generar la señal predicha mediante reglas determinadas preliminarmente . (A) a (F) de la Figura 10 muestran ejemplos en los cuales el bloque predicho de intra-imagen (intra) está incluido en una pluralidad de bloques vecinos A, C, E y G en contacto con el lado izquierdo del bloque de predicción. En base al tipo de división del bloque de predicción del bloque vecino y el modo de predicción (predicción de inter-imagen/intra-imagen) en la información de predicción, el bloque predicho de intra- imagen en el bloque vecino es integrado virtualmente con un bloque predicho de inter- imagen con información de movimiento (líneas gruesas en las figuras) . Estos ejemplos, un bloque predicho de intra- imagen es integrado virtualmente con un bloque predicho de inter- imagen que está más cercano a la esquina izquierda superior del bloque vecino y que está más cercano al bloque de intra- imagen. Como consecuencia, el bloque de predicción TI es divido virtualmente de acuerdo con el número de bloques predichos de inter- imagen en el bloque vecino, como se muestra en (A) a (F) de la Figura 10. De esta manera, aun en los casos en donde el bloque vecino incluye un bloque predicho de intra- imagen (intra) , la generación de la señal predicha mediante fusión de bloques se puede llevar a cabo utilizando la información de movimiento del bloque predicho de inter- imagen en el bloque vecino.
No hay restricciones en cuanto a las reglas para integrar el bloque predicho de intra-imagen con el bloque predicho de inter- imagen en el bloque vecino. Se puede contemplar que una pluralidad de reglas como se describe anteriormente son preparadas y una regla es seleccionada para cada cuadro o para cada rebanada para implementar la codificación.
En este caso, la selección de un candidato para información de movimiento se lleva a cabo en base a las piezas de información a continuación. 1) El número de bloques de predicción ya codificados/ya descodificados en el bloque de codificación objetivo/bloque codificado . 2) El tipo de división del bloque de predicción del bloque de codificación objetivo/bloque codificado. 3) El tipo de división de bloque de predicción del bloque vecino al bloque de predicción objetivo. 5) El modo de predicción (predicción de intra-imagen/predicción de ínter-imagen) del bloque vecino al bloque de predicción objetivo.
La Figura 12 muestra ejemplos en los cuales el bloque de codificación 400 y el bloque vecino 402 son bisectados similarmente de manera vertical pero sus formas de división son diferentes. En estos ejemplos, el bloque de predicción TI (bloque que incluye los bloques Tía y Tlb) en (A) de la Figura 12 y el bloque de predicción T2 (bloque que incluye los bloques T2a y T2b) en (B) de la Figura 12 también tiene tres bloques vecinos. Para TI en (A) de la Figura 12, el flujo de procesamiento de la Figura 11 es aplicado a la etapa S256 de la Figura 7, mediante lo cual se vuelve factible ef3ectuar la fusión de bloques al ajustar piezas de información de movimiento de los bloques Ba y Bb a los bloques respectivos Tía y Tlb resultantes de la bisección vertical virtual del bloque de predicción TI. Para T2 en (B) de la Figura 12, el flujo de procesamiento de la Figura 13 descrito a continuación es aplicado a la etapa S261 en la Figura 7, mediante lo cual se hace factible ejecutar la fusión de bloques al ajustar piezas de información de movimiento de los bloques Ba y Bb a los bloques respectivos T2a y T2v resultantes de la bisección vertical virtual del bloque de predicción T2. En esta ocasión también es posible adoptar el método de transmitir una segunda información de identificación de fusión para cada bloque virtual e identificar ya sea uno u otro de la generación de la señal predicha del bloque virtual en base a la información de movimiento del bloque vecino o codificación/descodificación de la información de movimiento.
También es posible adoptar un método en el cual el bloque de predicción T2 no es dividido, dos piezas de información de movimiento del bloque Ba y el bloque Bb son definidas como candidatos para información de movimiento a ser usada en la fusión de bloques del bloque de predicción T2 y una de las piezas de información de movimiento del bloque Ba y el bloque Bb es seleccionada como información de movimiento a ser usada en la generación de la señal predicha de T2, pero en este caso, es necesario extender el flujo de la Figura 7 como se describe a continuación. 1. Se agrega un flujo de "adquirir el tipo de división de bloque de predicción del bloque vecino y derivar el número de bloques vecinos al bloque de predicción" después de la etapa S158 de la Figura 4 y después de la etapa S259 en la Figura 7. 2. Etapa S159 en la Figura 4 y etapa S260 en la Figura 7 son cambiadas a "¿hay dos o más piezas de información de movimiento de candidatos seleccionados?" . 3. Una etapa de efectuar la codificación/descodificación de la información de selección de bloques es agregada después de la etapa S159 de la Figura 4 y después de la etapa S260 en la Figura 7.
El flujo de la Figura 13 será descrito a continuación. En la Figura 13, primero en la etapa S261a, el tipo de división del bloque de predicción del bloque codificado en contacto con el bloque de predicción objetivo es adquirido. En la siguiente S261b, el numero M de bloques de predicción vecinos a las fronteras de bloques en contacto con el bloque vecino que pertenecen al bloque codificado objetivo es derivado del tipo de división del bloque de predicción adquirido. Por ejemplo, en el caso mostrado en (B) de la Figura 12, M = 2. Además, se determina en la etapa S261c si el valor de M es mayor de 1 (M > 1) . En el caso de M > 1, el bloque de predicción objetivo es dividido en M bloques virtuales y piezas de información de movimiento de M bloques vecinos son ajustadas a los M bloques virtuales divididos (también es posible enviar adicionalmente la información de identificación de fusión para cada bloque virtual y determinar si la información de movimiento va a ser descodificada) . En el caso de M = 1, la información de movimiento del bloque vecino como candidato para la fusión de bloques es ajustada como la información de movimiento del bloque de predicción objetivo.
De acuerdo con las Figuras 12 y 13 como se describe anteriormente, la selección de un candidato para la información de movimiento en el ejemplo de la Figura 11 se lleva a cabo en las piezas de información a continuación. 1) El número de bloques de predicción ya codificados/ya descodificados en el bloque de codificación objetivo/bloque codificado . 2) El tipo de división del bloque de predicción del bloque de codificación objetivo/bloque codificado. 3) El tipo de división del bloque de predicción del bloque vecino al bloque de predicción objetivo.
Se debe notar que aunque la Figura 11 describe el ejemplo de división vertical, el mismo procesamiento es también aplicable a ejemplos de división horizontal (división en una pluralidad de bloques dispuestos en dirección vertical) como en el bloque 306 y 307 de la Figura 20.
Es posible adoptar modificaciones adicionales descritas posteriormente en la presente.
Candidatos para información de movimiento En la descripción anterior, las piezas de información de movimiento de los bloques en contacto con el lado superior y el lado izquierdo del bloque de predicción fueron definidas como candidatos para la fusión de bloques, pero también es posible establecer una limitación en base a los tipos de división del bloque de predicción del bloque de codificación objetivo/bloque codificado y bloques vecinos, como se muestra en (A) y (B) de la Figura 14 y (A) de la Figura 15. (A) y (B) de la Figura 14 muestran ejemplos en donde hay dos bloques vecinos y en donde la información de movimiento de bloques vecinos en el lado en contacto con dos o más bloques vecinos del lado superior y el lado izquierdo del bloque de predicción es excluida de los candidatos para la fusión de bloques. En este caso, no hay necesidad de codificación de la información de selección de bloques de fusión, lo que puede reducir información adicional, los candidatos para información de movimiento a ser usados en la fusión de bloques del bloque de predicción TI en (A) de la Figura 14 y el bloque de predicción TI en (B) de la Figura 14 se determinan que son piezas de información de movimiento del bloque B y bloque A, respectivamente .
(A) de la Figura 15 muestra una técnica para seleccionar automáticamente candidatos para información de movimiento a ser usados en la fusión de bloques de los bloques de predicción TI y T2 en base al tipo de división del bloque de predicción del bloque de codificación ob etivo/bloque codificado .
(B) de la Figura 15 muestra un ejemplo en el cual el bloque de predicción al cual la fusión de bloques es aplicada es limitado de acuerdo con el tipo de división del bloque de predicción del bloque de codificación objetivo y el número de bloques ya codificados/ya descodificados en el bloque de codificación objetivo. En el ejemplo mostrado en la Figura 3, cuando la información de movimiento del bloque TI es coincidente con aquella del bloque B, la información de movimiento del bloque D es excluida de los candidatos par información de movimiento a ser usados para la fusión de bloques del bloque T2 ; mientras que en el caso mostrado en (A) de la Figura 15, sin comparación entre la información de movimiento del bloque TI y la información de movimiento D, el bloque D es excluido de los candidatos de la fusión de bloques en base al número de bloques de predicción ya codificados/ya descodificados en el bloque de codificación objetivo/bloque codificado. De esta manera, el bloque de predicción al cual la fusión de bloque es aplicada puede ser limitado por el número de vectores de movimiento a ser codificados en el bloque de codificación objetivo.
Además, también es posible colocar una limitación de acuerdo con los tamaños de bloques de dos bloques vecinos en contacto con la esquina izquierda superior del bloque de predicción y el tamaño de bloques del bloque de predicción. Por ejemplo, cuando el tamaño del lado izquierdo del bloque vecino en contacto con el lado izquierdo del bloque de predicción objetivo es más pequeño que un tamaño pre-establecido (por ejemplo, la mitad o una cuarta parte de la longitud del lado izquierdo del bloque de predicción) , la información de movimiento del bloque vecino puede ser excluida de los candidatos para la fusión de bloques del bloque de predicción objetivo.
Cuando la limitación es establecida sobre candidatos para la información de movimiento como se describe anteriormente, se puede reducir la cantidad de códigos de información de fusión de bloques.
Selección de candidatos para información de movimiento La selección de candidatos para la información de movimiento se lleva a cabo en base a las piezas de información a continuación, pero un método para usar la información no está limitado a los métodos descritos anteriormente. Los medios para seleccionar los candidatos para información de movimiento utilizando estas piezas de información pueden ser implementados por las configuraciones de la Figura 1 y Figura 6. 1) El número de bloques de predicción ya codificados/ya descodificados en el bloque de codificación objetivo/bloque codificado . 2) El tipo de división del bloque de predicción del bloque de codificación objetivo/bloque codificado. 3) El tipo de división del bloque de predicción del bloque vecino al bloque de predicción objetivo. 4) La información de movimiento de los bloques de predicción ya codificados/ya descodificados en el bloque de codificación objetivo/bloque codificado. 5) La información de movimiento y el modo de predicción (predicción de intra-imagen predicción de inter-imagen) del bloque vecino al bloque de predicción objetivo.
Codificación del bloque de predicción En la descripción anterior de la codificación/descodificación de los bloques de predicción en el bloque de codificación se lleva a cabo en un orden de barrido de trama, pero la selección descrita anteriormente de candidato para información de movimiento a ser usado en la fusión de bloques es también aplicable a casos en donde los bloques de predicción son codificados/descodificados en cualquier orden. Por ejemplo, en el ejemplo de la Figura 3, en donde el bloque de predicción T2 del bloque de predicción objetivo/bloque codificado por 400 es codificado/descodificado primero el vector de movimiento del vector del bloque de predicción T2 no es incluido como candidato para información de movimiento a ser usada en la fusión de bloques del bloque de predicción TI.
Forma del bloque En la descripción anterior, las regiones parciales en el bloque de codificación eran siempre rectangulares, pero pueden ser de cualquier forma. En este caso, la información de forma puede ser incluida en la información del bloque de predicción de codificación.
Transformador y transformador inverso El proceso de transformación de la señal residual se puede llevar a cabo en un tamaño de bloque fijo o el proceso de transformación se puede llevar a cabo después que una región objetivo es sub-dividida de acuerdo con regiones parciales .
Información de predicción En la descripción anterior, el método de generación de la señal predicha fue descrito como predicción de inter-imagen (predicción utilizando el vector de movimiento e información de cuadro de referencia) , pero el método de generación de la señal predicha no está limitado a este. El proceso de generación de la señal predicha mencionado anteriormente es también aplicable a la predicción de intra-imagen y el método de predicción que incluye compensación de luminancia o los semejantes. En este caso, la información de predicción contiene información de modo, parámetros de compensación de luminancia y así sucesivamente.
En la Figura 10 el bloque predicho de intra- imagen en el bloque vecino es integrado virtualmente con el bloque predicho de inter-imagen, pero también es posible adoptar un método en el cual el bloque de predicción es dividido virtualmente, sin consideración del modo de predicción del bloque vecino y señales parciales en el bloque de predicción son predichas mediante predicción de intra- imagen.
Señal de color La descripción anterior no contiene ninguna descripción particular del formato de color, pero el proceso de generación de señal predicha también se puede llevar a cabo para la señal de color o señal de diferencia de color, independientemente de la señal de luminancia. El proceso de generación de señal predicha también se puede llevar a cabo en sincronismo con el proceso de señal de luminancia.
Proceso de remoción de ruido del bloque Aunque la descripción anterior no afirma nada, la imagen reconstruida puede ser sometida a un proceso de remoción de ruido del bloque y en aquel caso, es preferible efectuar el proceso de remoción de ruido para porciones frontera de regiones parciales. En los casos en donde el bloque de predicción es dividido virtualmente en los ejemplos mostrados en las Figuras 9, 10 y 12, el proceso de remoción de ruido del bloque puede también ser aplicado a una frontera entre bloques divididos virtualmente .
El método de codificación predictivo de imagen y el método de descodificación predictivo de imagen de acuerdo con las modalidades de la presente invención pueden también ser provistos almacenados en formas de programas en medio de grabación. Ejemplos de medios de grabación incluyen medios de grabación, tales como discos flexibles (marca comercial registrada) , CD-ROM, DVD o ROM o memorias semiconductoras o los semejantes.
La Figura 16 es un diagrama de bloques que muestra módulos de un programa que puede ejecutar el método de codificación predictivo de imagen. El programa de codificación predictivo de imagen P100 es provisto con el módulo de división de bloques P101, módulo de estimación de información de movimiento P102, módulo de generación de señal predicha P103, módulo de almacenamiento P104, módulo de sustracción P105, módulo de transformada P106, módulo de cuantificación P107, módulo de cuantificación inversa P108, módulo de transformación inversa P109, módulo de adición P110, módulo de codificación de coeficiente de transformada cuantificado Pili, módulo de selección de tipo de división de predicción P112, módulo de almacenamiento de información de predicción P113 y módulo de codificación de información de predicción P114. Las funciones implementadas después de la ejecución de los módulos respectivos por una computadora son las mismas como las funciones del dispositivo de codificación predictivo de imagen mencionado anteriormente 100. Es decir, el módulo de división de bloques P101, módulo de estimación de información de movimiento P102, módulo de generación de señal predicha P103, módulo de almacenamiento P104, módulo de sustracción P105, módulo de transformada P106, módulo de cuantificación P107, módulo de cuantificación inversa P108, módulo de transformación inversa PIO9, módulo de adición P110, módulo de codificación de coeficiente de transformada cuantificado Pili, módulo de selección de tipo de división de predicción P112, módulo de almacenamiento de información de predicción P113 y módulo de codificación de información de predicción P114 provocan que la computadora ejecute las mismas funciones como el divisor de bloque 102, estimador de información de movimiento 114 , generador de señal predicha 103, memoria de cuadro 104, sustractor 105, transformador 106, cuantificador 107, cuantificador inverso 108, transformador inverso 109, adicionador 110, codificador de coeficiente de transformada cuantificados 111, selector de tipo de división de bloque de predicción 113, memoria de información de predicción 115 y codificador de información de predicción 116, respectivamente.
La Figura 17 es un diagrama de bloques que muestra' módulos de un programa que puede ejecutar el método de descodificación predictivo de imagen. El programa de descodificación predictivo de imagen P200 es provisto con el módulo de descodificación de coeficiente de transformada cuantificado P201, módulo de descodificación de predicción P202, módulo de almacenamiento de información de predicción P113, módulo de cuantificación inversa P206, módulo de transformada inversa P207, módulo de adición P208, módulo de generación de señal predicha P103 y módulo de almacenamiento P104.
Las funciones implementadas después de la ejecución de los módulos respectivos son las mismas como aquellas de los componentes respectivos del dispositivo de descodificación predictivo de imagen mencionado anteriormente 200. Es decir, el módulo de descodificación de coeficiente de transformada cuantificado P201, módulo de descodificación de predicción P202, módulo de almacenamiento de información de predicción P113, módulo .de cuantificación inversa P206, módulo de transformada inversa P207, módulo de adición P208, módulo de generación de señal predicha P103 y módulo de almacenamiento P104. Provocan que la computadora ejecute las mismas funciones como el descodificador . de coeficiente de transformada codificado 207, descodificador de información de predicción 208, memoria de información de predicción 115, cuantificador inverso 203, transformador inverso 204, adicionador 205, generador de señal predicha 103 y memoria de cuadro 104, respectivamente.
El programa de codificación predictivo de imagen P100 o el programa de descodificación predictiva de imagen P200, configurados como se describe anteriormente es almacenado en un medio de grabación SM y ejecutado por la computadora descrita a continuación.
La Figura 18 es un dibujo que muestra una configuración de elementos físicos de la computadora para ejecutar los programas grabados en el medio de grabación y la Figura 19 es un vista en perspectiva de la computadora para ejecutar los programas almacenados en el medio de grabación. El equipo para ejecutar los programas almacenados en el medio de grabación no está limitado a computadora, sino que puede que puede ser un reproductor de DVD, un descodificador, un teléfono celular o los semejantes provisto con una CPU y configurado para efectuar el procesamiento y control a base de elementos de programación.
Como se muestra en la Figura 19, la computadora CIO es provista con un dispositivo de lectura C12 tal como una unidad de disco flexible, una unidad de CD-ROM o una unidad de DVD, una memoria de trabajo (RAM) CD14 en la cual un sistema operativo es residente, una memoria T16 para almacenar programas almacenados en el medio de grabación SM, un dispositivo de monitor CD18 tal como una pantalla, un ratón C20 y un teclado C22 como dispositivo de entrada, un dispositivo de comunicación C24 para transmisión y recepción de datos y una CPU C26 para controlar la ejecución de los programas. Cuando el medio de grabación SM es puesto en el dispositivo de lectura C12, la computadora CIO se vuelve accesible al programa de codificación/descodificación predictivo de imagen almacenado en el medio de grabación SM, a través del dispositivo de lectura C12 y se vuelve apta de operar como el dispositivo de codificación de imagen o el dispositivo de descodificación de imagen de acuerdo con la modalidad de la presente invención, en base al programa codificación o descodificación de imagen.
Como se muestra en la Figura 18, el programa de codificación predictivo de imagen y el programa de descodificación de imagen pueden ser provistos en forma de una señal de datos de computadora CW superpuesta en una onda portadora, a través de una red. En este caso, la computadora CIO se vuelve apta de ejecutar el programa de codificación predictivo de imagen o el programa de descodificación predictivo de imagen predictivo de imagen después que el programa de codificación predictivo de imagen o el programa de descodificación de imagen recibido por el dispositivo de comunicación 24 es almacenado en la memoria C16.
Todavía otra modalidad será descrita a continuación. La Figura 24 es un dibujo que muestra esquemáticamente una configuración de un dispositivo de codificación de video de acuerdo con una modalidad. El dispositivo de descodificación de video 10 mostrado en la Figura 24 es provisto con el divisor de bloques 501, generador de sub-división 502, memoria de cuadro 503, detector de movimiento 504, generador de señal predicha 505, predictor de movimiento 506, sustractor 507, generador de señal residual 508, transformador 509, cuantificador 510, cuantificador inverso 508, transformador inverso 512, adicionador 513 y codificador de entropía 514. Una señal de imagen de entrada (señal de video) alimentada a este dispositivo de codificación de video 10 está compuesta de una secuencia en el tiempo de señales de imagen de unidades de cuadro (denominadas posteriormente en la presente como señales de imagen de cuadro) .
El divisor de bloques 501 selecciona secuencialmente las señales de imagen de cuadro o imágenes de entrada que sirven como objetivos de codificación de la señal de imagen de entrada alimentada vía la línea L501. El divisor de bloques 501 divide una imagen de entrada en una pluralidad de divisiones o bloques. El divisor de bloques 501 selecciona secuencialmente la pluralidad de bloques como bloques objetivos de codificación y emite una señal de pixel de cada uno de los bloques objetivo (de aquí en adelante en la presente denominada como una señal de bloque objetivo) vía la línea L502.
El dispositivo de codificación de video 10, el procesamiento de codificación descrito a continuación es llevado a cabo en unidades de bloques. El divisor de bloques 501 puede dividir, por ejemplo una imagen de entrada en una pluralidad de bloques que tienen cada uno 8 x 8 pixeles . Sin embargo, los bloques pueden ser de cualquier tamaño y forma. Los bloques pueden por ejemplo ser bloques que tienen cada uno 32 x 16 pixeles o bloques que cada uno consisten de 16 x 64 pixeles .
El generador su-división 502 divide un bloque objetivo alimentado vía la línea L502 en una pluralidad de sub-divisiones. La Figura 15 es un dibujo para explicar la generación de sub-divisiones . Como se muestra en la Figura 25, el generador de sub-división 502 divide el bloque objetivo P en dos sub-divisiones SPl y SP2 por una línea recta Ln expresada por la expresión lineal de fórmula (1) . y = mx + k (1) Por ejemplo, el generador de su-división 502 puede ser configurado como sigue: con cambios de los parámetros m y k, obtiene una señal predicha de la sub-división SPl y una señal predicha de la sub-división SP2 y determina m y k que minimizan un error entre la señal predicha de la sub-división SP1 y una señal de imagen de la sub-división SP1 y un error entre la señal predicha de la sub-división SP2 y una señal de imagen de la sub-división SP2, como parámetros de la línea recta Ln.
El generador de sub-división 502 emite los parámetros m y k en la fórmula (1) así determinada, como información de forma para especificar las formas de la sub-divisiones en el bloque objetivo P, esto es, de forma para especificar las formas de la primera sub-división SP1 y la segunda subdivisión SP2 vía la línea L504.
La expresión lineal que expresa la línea recta Ln puede ser cualquiera. Por ejemplo, la línea recta Ln puede ser expresada por la fórmula (2) . y = x/tan9 + p/sen9 (2) En este caso, la información de forma es T y p.
La información de forma puede ser información indicadora de dos puntos arbitrarios por los que pasa la línea recta Ln, por ejemplo intersecciones entre la línea recta y fronteras del bloque P. El bloque no siempre tiene que ser dividido por una línea recta, sino que las sub-divisiones pueden ser generadas en base a un patrón seleccionado de una pluralidad de patrones preparados por adelantado. En este caso, información tal como un Indice para especificar el patrón seleccionado puede ser usada como información de forma.
En la descripción a continuación, se establecen coordenadas con un origen en la posición superior e inferior del bloque objetivo, una sub-división que incluye el pixel superior e inferior en el bloque objetivo P es definido como una primera sub-división y el otro como una segunda subdivisión. Sin embargo, se notara que cualquier método de definición es aplicable en la presente: por ejemplo, una sub-división que no incluye la posición del centro en el bloque objetivo puede ser definida como una primera su-división y la otra como una segunda sub-división. En este caso, la información de forma puede ser información de intersección de las fronteras de bloque o información de identificación de patrón.
La memoria de cuadro 503 almacena señales de imágenes previamente reconstruidas alimentadas vía la línea L505, esto es, señales de imagen de cuadro que han sido codificadas en el pasado (que serán denominadas posteriormente en la presente como señales de imagen de cuadro de referencia) . La memoria de cuadro 503 emite la señal de imágenes de cuadro de referencia vía la línea L506.
El detector de movimiento 504 recibe la señal de bloque objetivo alimentada a través de la línea 502, la información de forma del bloque alimentado a través de la línea L504 y las señales de imagen de cuadro de referencia a través de la línea L506. El detector de movimiento 504 busca señales de imagen en un intervalo predeterminado de las señales de imagen del cuadro de referencia, por una señal similar a una señal de imagen de una sub-división que sirve como un objetivo de procesamiento y calcula un vector de movimiento. Este vector de movimiento es una cantidad de desplazamiento espacial entre una región en una señal de imagen de cuadro de referencia que tiene una señal de pixel similar a la señal de imagen de la sub-división que sirve como objetivo de procesamiento y el bloque objetivo. El detector de movimiento 504 emite el vector de movimiento así calculado vía la línea L507.
El detector de movimiento 504 puede ser configurado al mismo tiempo para también detectar un vector de movimiento para un bloque objetivo y para determinar si una señal predicha va a ser generada para cada una de dos subdivisiones resultantes de la división del bloque objetivo. Esta determinación puede ser de tal manera que la determinación que si un error entre la señal predicha del bloque objetivo y la señal de imagen del bloque objetivo es más pequeño que errores entre las señales predichas de dos sub-divisiones generadas por la división del bloque objetivo y las señales de imagen de las dos sub-divisiones, el bloque objetivo no es divido en sub-divisiones. Cuando se hace esta determinación, la información indicadora de resultado de la determinación es codificada como información de posibilidad de aplicación de división y la información de forma puede ser codificada solamente si la información de posibilidad de aplicación de división indica que un bloque objetivo va a ser dividido en sub-divisiones .
El generador de señal predicha 505 genera la señal predicha de la señal de imagen de la sub-división que sirve como objetivo de procesamiento, en base al vector de movimiento alimentad vía la línea L507 y la información de forma de bloque alimentada vía la línea L504, de la señal de imagen en el intervalo predeterminado de la señal de imagen de cuadro de referencia alimentada vía la línea L506.
El generador de señal predicha 505 combina las señales predichas de las sub-divisiones respectivas en el bloque objetivo para generar la señal predicha del bloque objetivo. El generador de señal predicha 505 emite la señal predicha así generada vía la línea L508. La señal predicha puede ser generada mediante predicción de intra-imagen, en lugar de predicción de inter- imagen.
El predictor de movimiento 506 genera un predictor de vector de movimiento de una sub-división objetivo de procesamiento en un bloque objetivo, en base a la información de forma de bloque alimentada vía la línea L504, el vector de movimiento alimentado vía la lineal 507 y un vector de movimiento de un bloque previo en orden a la sub-división objetivo de procesamiento o un vector de movimiento de una región parcial ya procesada que es una sub-división. El predictor de movimiento 506 emite el predictor de vector de movimiento así generado vía la líneja L509.
El predictor de movimiento 506 puede seleccionar un predictor de vector de movimiento de una pluralidad de candidatos para el predictor de vector de movimiento. En este caso, el predictor de movimiento 506 también emite información de indicación para especificar el predictor de vector de movimiento seleccionado, vía la línea L510. Si los candidatos para el candidato de vector de movimiento de las sub-divisiones objetivos de procesamiento son estrechados de acuerdo con una regla predeterminada compartida con el lado del descodificador, la salida de la información de indicación puede ser omitida.
El sustractor 507 resta el predictor de vector de movimiento alimentado vía la línea L509 del vector de movimiento de la sub-división objetivo de procesamiento alimentada vía la línea L507 para generar un vector de movimiento diferencial. El sustractor 507 emite el vector de movimiento diferencial así generado vía la línea L511.
El generador de señal residual 508 resta la señal predicha del bloque objetivo alimentado vía la línea L508, de la señal del bloque objetivo alimentada vía la línea L502 para generar una señal residual. El generador de señal residual 508 emite la señal residual así generada vía la línea L512.
El transformador 509 efectúa la transformación ortogonal de la señal residual alimentada vía la línea L512 para generar coeficientes de transformada. El transformador 509 emite los coeficientes de transformada así generados vía la línea L513. Esta transformación ortogonal puede ser efectuada por ejemplo mediante DCT. Sin embargo, la transformación usada por el transformador 509 puede usar cualquier transformación.
El cuantificador 510 cuantifica los coeficientes de transformada alimentados vía la línea L513 para generar coeficientes de transformada cuantificados . El cuantificador 510 emite los coeficientes de transformada cuantificados así generados vía la línea L514.
El cuantificador inverso 511 efectúa la cuantificación inversa de los coeficientes de transformada cuantificados alimentados vía la línea L514 para generar coeficientes de transformada cuantificados inversamente. El cuantificador inverso 511 emite los coeficientes de transformada cuantificados inversamente así generados vía la línea L515.
El transformador inverso 512 efectúa la transformación ortogonal inversa de los coeficientes de transformada cuantificados inversamente alimentados vía la línea L515 para generar una señal residual reconstruida. El transformador inverso 512 emite la señal residual reconstruida así generada vía la línea L516. La transformación inversa usada por el transformador inverso 512 es un proceso simétrico con la transformación del transformador 509.
La transformación no está siempre esencial y el dispositivo de codificación de video no siempre tiene que ser provisto con el transformador 509 y el transformador inverso 512. Asimismo, la cuantificación no es siempre esencial y el dispositivo de codificación de video n o siempre tiene que provisto con el cuantificador 510 y el cuantificador inverso 511.
El adicionador 513 agrega la señal residual reconstruida introducida vía la línea L516 a la señal predicha del bloque objetivo alimentado vía la línea L508 para generar una señal de imagen reconstruida. El adicionador 513 emite la señal de imagen reconstruida como una señal de imagen previamente reconstruida vía la línea L505.
El codificador de entropía 514 codifica los coeficientes de transformada cuantificados alimentados vía la línea L514, la información de forma del bloque objetivo alimentada vía la línea L504, la información de indicación del predictor de vector de movimiento alimentada vía la línea L510 y el vector de movimiento diferencial alimentada vía la línea L511. El codificador de entropía 514 mutliplexa códigos generados mediante codificación, para generar una corriente comprimida y luego emite la corriente comprimida a través de la línea L517.
El codificador de entropía 514 puede usar cualquier método de codificación tal como codificación aritmético o codificación de corrida-longitud. El codificador de entropía 514 puede determinar de manera adaptable una probabilidad de presencia en codificación aritmética de la información de indicación del predictor de vector de movimiento alimentado vía la línea L510, en base a la información de forma del bloque objetivo alimentada vía la línea L504. El codificador de entropía 514 puede establecer un valor alto como una probabilidad de presencia de la información de indicación para indicar un vector de movimiento de una región parcial en contacto con una sub-división objetivo de procesamiento.
La Figura 26 es un dibujo que muestra una configuración del predictor de movimiento de acuerdo con una modalidad. Como se muestra en la Figura 26, el predictor de movimiento 506 tiene una memoria de vector de movimiento 5061, un generador de candidato de referencia de movimiento 5062 y un generador de predictor de vector de movimiento 5063.
La memoria del vector de movimiento 5061 almacena vectores de movimiento de regiones parciales previamente procesadas y emite los vectores de movimiento previamente codificados vía la línea L5061 para derivación de un predictor de vector de movimiento de una sub-división objetivo de procesamiento.
El generador de candidatos de referencia de movimiento 5062 genera candidatos para el predictor de vector de movimiento a partir de los vectores de movimiento de las regiones parciales alimentadas vía la lineal L5061 mediante un método descrito a continuación, en base a la información de forma alimentada vía la línea L504. El generador de candidato de referencia de movimiento 5062 emite los candidatos para el predictor de vector de movimiento así generados vía la línea L5062.
El generador de predictor de vector de movimiento 5063 selecciona un candidato que minimiza la diferencia del vector de movimiento de la sub-división objetivo de procesamiento de los candidatos para el predictor de vector de movimiento alimentados vía la línea L5062. El generador de predictor de vector de movimiento 5063 emite el candidato seleccionado como un predictor de vector de movimiento vía la línea L509. También emite la información de indicación para especificar el candidato seleccionado vía la línea L510.
Si el número de candidatos generados en el generador de candidatos de referencia de movimiento es limitado a uno, la salida de la información de la indicación puede ser omitida. No hay restricciones en cuanto al método para limitar el número de candidatos a uno, pero se puede aplicar cualquier método, por ejemplo tal como el método de usar un valor intermedio de tres candidatos, un método de usar un promedio de dos candidatos y un método de definir un orden de prioridad para sección de uno de una pluralidad de candidatos .
A continuación se describirá la operación del dispositivo de codificación de video 10 y también se describirá un método de codificación de video de acuerdo con una modalidad. La Figura 27 es un diagrama de flujo del método de codificación de video de acuerdo con un una modalidad.
En una modalidad, como se muestra en la Figura 27, el divisor de bloques 501 divide primero una imagen de entrada en una pluralidad de bloques en la etapa S501. En la siguiente etapa S502, el generador de sub-división 502 divide un bloque objetivo en una pluralidad de sub-divisiones como se describe anteriormente. El generador de sub-divisiones 502 también genera la información de forma como se describe anteriormente .
En la etapa S503, el detector de movimiento 504 obtiene luego un vector de movimiento de una sub-división objetivo de procesamiento, como se describe anteriormente. En la etapa subsecuente S504, el generador de señal predicha 505 genera una señal predicha del bloque objetivo utilizando los vectores de movimiento de las sub-divisiones respectivas en el bloque objetivo y las señales de imagen de cuadro de referencia como se describe anteriormente.
En la etapa S505, el predictor de movimiento 506 obtiene luego un predictor de vector de movimiento. Además, el predictor de movimiento 506 genera la información de indicación para especificar un candidato seleccionado de una pluralidad de candidatos para el predictor de vector de movimiento. Los detalles del proceso de esta etapa S505, serán descritos posteriormente. En la etapa subsecuente S506, el sustractor 507 calcula la diferencia entre el vector de movimiento de cada su-bloque y el predictor de vector de movimiento para generar un vector de movimiento diferencial como se describe anteriormente .
En la etapa S507, el generador de señal residual 508 obtiene luego la diferencia entre la señal de imagen del bloque objetivo y la señal predicha para generar una señal residual. En la etapa subsecuente S508, el transformador 509 efectúa la transformación ortogonal de la señal residual para generar coeficientes de transformada. En la etapa subsecuente S509, el cuantificador 510 cuantifica los coeficientes de transformada para generar coeficientes de transformada cuantificados . En la etapa subsecuente S510, el cuantificador inverso 511 efectúa la cuantificación inversa de los coeficientes de transformada cuantificados para generar coeficientes de transformada cuantificados inversamente. En la etapa subsecuente S511, el transformador inverso 512 efectúa la transformación inversa de los coeficientes de transformada cuantificados inversamente para generar una señal residual reconstruida.
En la etapa S512, el adicionador 513 agrega luego la señal predicha del bloque objetivo a la señal residual reconstruida para generar una señal de imagen reconstruida. En la etapa subsecuente S513, la señal de imagen reconstruida es almacenada como una señal de imagen previamente reconstruida en la memoria d cuadro 503.
En la etapa S514, el codificador de entropía 514 codifica luego los coeficientes de transformada cuantificados , la información de forma del bloque objetivo, la información de indicación del predictor de vector de movimiento y el vector de movimiento diferencial.
En la siguiente etapa S515, se determina si todos los bloques han sido procesados. Si el procesamiento no está consumado para todos los bloques, el procesamiento de la etapa S502 es proseguido para un bloque sin procesar como objetivo. Por otra parte, si el procesamiento esta consumado para todos los bloques, el procesamiento es terminado.
La operación del predictor de movimiento 506 será descrita a continuación en más detalle. La Figura 28 es un diagrama de flujo que muestra el proceso del predictor de movimiento de acuerdo con una modalidad. El predictor de movimiento 506 emite el predictor de vector de movimiento (de aquí en adelante en la presente PMV) y la información de indicación para especificar el PMV, de acuerdo con el diagrama de flujo mostrado en la Figura 28.
En el proceso del predictor de movimiento 506, como se muestra en la Figura 28, el valor del contador i es ajustado primero a 0, en la etapa S505-1. Se supone a continuación que el proceso para la primera sub-división se lleva a cabo con i = 0 y el proceso para la segunda sub-división se lleva a cabo con i = 1.
Enseguida, la etapa S505-2 es para generar candidatos para PMV de una sub-división objetivo de procesamiento de vectores de movimiento de regiones parciales previamente procesadas, de acuerdo con un método descrito posteriormente en la presente . El número de candidatos para PMV es 2 en el ejemplo presente. Es decir, los candidatos para PMV pueden ser ajustados como sigue: un vector de movimiento de una región parcial previamente procesada ubicada a la izquierda de la sub-división objetivo de procesamiento y un vector de movimiento de una región parcial previamente procesada ubicada por encima de la sub-división objetivo de procesamiento son establecidos como candidatos para el predictor de vector de movimiento de la sub-división objetivo de procesamiento. En la etapa S505-2, el número de candidatos generados es ajustado a NCand.
Enseguida, en la etapa S505-3, se determina si NCand es "O". Cuando NCand es "0" (si) el procesamiento procede a la etapa S505-4. Cuando NCand no es "0" (no), el procesamiento procede a la etapa S505-5.
En la etapa S505-4, PMV es ajustado a un vector cero y el procesamiento procede a la etapa S505-10. En esta ocasión, PMV puede ser ajustado a un vector de movimiento de un bloque predeterminado, un vector de movimiento de una región parcial procesada inmediatamente antes de la sub-división objetivo de procesamiento o los semejantes, en lugar del vector cero.
En la etapa S505-5, se determina si NCand es "1". Cuando NCand es "1" (si) , el procesamiento procede a la etapa S505-10. Cuando NCand no es "1" (no), el procesamiento procede a la etapa S505-6.
En la etapa S505-6, un PMV es seleccionado de los candidatos para PMV generados en la etapa S505-2. El PMV a ser seleccionado puede ser un candidato que minimiza la diferencia del vector de movimiento de la sub-división objetivo de procesamiento.
Enseguida S505-7 es para determinar si el PMV seleccionado en la etapa S505-6 es un candidato izquierdo, esto es, un vector de movimiento de la región parcial izquierda. Cuando el PMV seleccionado en la etapa S505-6 es el candidato izquierdo (si) , el procesamiento procede a la etapa S505-8. Cuando el PMV seleccionado en la etapa S505-6 no es el candidato izquierdo (no) , el procesamiento procede a la etapa S505-9.
En la etapa S505-8, la información de indicación PMV_izquierda_bandera=l para indicar que el PMV es el vector de movimiento de la región parcial ubicada a la izquierda de la sub-división objetivo de procesamiento es emitida. Por otra parte, en la etapa S505-9, la información de indicación PMV_izquierda_bandera=0 para indicar que el PMV es un detector de movimiento de la región parcial ubicada por encima de la sub-división objetivo de procesamiento es emitida .
Enseguida, en la etapa S505-10, el PMV restante como candidato es emitido. En la etapa subsecuente S505-11, se agrega "1" al valor de contador i.
Enseguida, en la etapa S505-12, se determina si el valor de contador i es menor de "2" . Cuando el valor del contador i es menor de "2" (si) , g el procesamiento procede a la etapa S505-2. Cuando el valor de contador i no es menor de "2" (no) el procesamiento es terminado.
Si la etapa S505-2 está configurada para limitar el número de candidatos generados a 1, las etapas 5505-5, S505-6, S505-7, S505-8 y S505-9 pueden ser omitidas. No hay restricciones en cuanto a este método de limitación, pero es posible adoptar por ejemplo tal método como un método de usar un valor intermedio de tres candidatos, un método de usar un promedio de dos candidatos o un método de determinar un orden de prioridad para selección de uno de una pluralidad de candidatos, como se describe anteriormente en la descripción del generador del predictor del vector de movimiento 5063. En la configuración en donde el número de candidatos generados en la etapa S505-2 está limitado a uno, cuando NCand no es "0" en la etapa S505-3 (no) , el procesamiento procede a la etapa S505-10.
El método para generar candidatos para el predictor de vector de movimiento de la sub-división objetivo de procesamiento en la etapa S505-2 será descrito a continuación en más detalle.
La Figura 29 es un dibujo que muestra un ejemplo de subdivisiones del bloque objetivo y regiones parciales circundantes.
El generador de candidatos de referencia de movimiento 5062, como se muestra en la Figura 29 se refiere a la región parcial Ul y región parcial Ll para la primera sub-división SP1 y cuando cada una de las regiones parciales es una que ha sido procesada mediante predicción de inter-imagen, el generador del candidato de referencia de movimiento 5062 emplea el vector de movimiento de la región parcial como candidato para el predictor de vector de movimiento de la primera sub-división SP1. Similarmente, el generador del candidato de referencia de movimiento 5062 se refiere a la región parcial U2 o la región parcial L2 para la segunda subdivisión para generar candidatos para el predictor de vector de movimiento de la segunda sub-división. Las regiones parciales Ul, Ll, U2 y L2 en la presente son bloques o sub-divisiones alrededor del bloque objetivo P y regiones que sirven como unidades de generación de la señal predicha. Las regiones parciales pueden ser bloques preparadas para generación de candidatos para el predictor de vector de movimiento (por ejemplo, bloques generados mediante división en una sola forma) , sin consideración de las unidades de generación de la señal predicha.
La región parcial Ul es una región parcial que incluye un pixel Pil (0,-1) vecino por encima al pixel superior e izquierdo F (0,0) de la primera sub-división SP1, que es una región parcial previamente procesada en contacto con la subdivisión SP1. La región parcial Ll es una región parcial que incluye un pixel Pi2 (-1,0) vecino a la izquierda al pixel superior e izquierdo F (0,0) de la primera sub-división SP1, que es una región parcial en contacto con las primeras sub-divisiones SP1. La región parcial U2 es una región parcial vecina a la derecha a una región parcial que incluye un pixel Pi3(xl,-1), que es una región parcial en contacto con el eje X. la región parcial L2 es una región parcial vecina por debajo a una región parcial que incluye un pixel Pi4 (-1, y 1) que es una región parcial en contacto con el eje y.
La coordenada x, xl del pixel Pi3 y la coordenada de y yl del pixel Pi4 puede ser calculada por la fórmula (3) y fórmula (4) . xl = techo (-k/m) (3) yl = techo (k) (4) Las fórmulas (3) y (4) son fórmulas obtenidas al aplicar la función techo (z) a valores resultantes de la sustitución de y = 0 y x = 0, respectivamente, a la expresión lineal (1) para expresar una línea de extensión Ln de una frontera como una división entre las primeras sub-divisiones SP1 y las segunda sub-división SP2. La función techo (z) es llamada una función de techo, que es una función para derivar un numero entero mínimo de no menos que z, para el número real Z.
Se puede emplear una función de piso en lugar de la función de techo. La función de piso (z) es llamada una función de piso que es una función para derivar un número entero máximo de no más de z , para el número real z .
Además, xl e yl pueden ser calculados por las fórmulas (5) y (6) . xl = techo ((-l-k)/m) (5) yl = techo ( -m + k) (6) Las fórmulas (5) y (6) son fórmulas obtenidas al aplicar la función techo (z) a valores resultantes de la sustitución de y = -l y x = -l, respectivamente a la fórmula (1) .
Ya sea que las regiones parciales U2 y L2 sean existentes es determinado como se describe posteriormente en la presente. Las condiciones para la existencia de la región parcial U2 son que es una imagen y que se satisfaga la fórmula (7) . Las condiciones para la existencia de la región parcial L2 son que sea una imagen y que se satisfaga la fórmula (8) . 0 < xl (7) 0 < yl (8) Cuando se no se satisface la condición de la fórmula (7) la región parcial L2 existe entre la segunda sub-división SP2 y la región parcial U2. En aquel caso, la región parcial U2 más distante de la segunda sub-división SP2 de la región parcial L2 más cercana a la segunda sub-división SP2 es menos probable de tener un vector de movimiento cercano a aquel de la segunda sub-división SP2. En este caso, el vector de movimiento de la región parcial U2 puede ser excluido de los candidatos para el predictor de vector de movimiento por la condición de la fórmula (7) .
Asimismo, cuando no se satisface la condición de la fórmula (8) , la región parcial U2 existe entre la segunda sub-división SP2 y la región parcial L2. En aquel caso, la región parcial L2 más distante de la segunda sub-división y la sub-división SP2 que la región parcial U2 más cercana a la segunda sub-división SP2 es menos probable de tener un vector de movimiento cercano a aquel de la segunda sub-división SP2.
En aquel caso, el vector de movimiento de la región parcial U2 , puede ser excluido de los candidatos del predictor del vector de movimiento por la condición de la fórmula (8) .
En un ejemplo, las condiciones definidas por las fórmulas (9) y (10) , a continuación pueden ser usadas en lugar de las condiciones de las fórmulas (7) y (8) . 0 < xl < tamaño de bloque X (9) 0 < yl < tamaño de bloque y (10) Aquí, tamaño de bloque x y tamaño de bloque y son el número de pixeles horizontales y el número de pixeles verticales en el bloque objetivo P. por ejemplo, cuando el bloque objetivo P es un bloque de 8 x 8 pixeles, tamaño de bloque X = 8 y tamaño de bloque Y = 8.
Al usar la condición de la fórmula (9) o la fórmula (10) es posible excluir de los candidatos para el predictor de vector de movimiento, un vector de movimiento de una región parcial que no tiene ningún contacto con se segunda subdivisión SP2, de la región parcial U2 y la región parcial L2. Esto permite que solamente candidatos para el predictor de vector de movimiento con exactitud de predicción concebiblemente alta queden.
Cuando las regiones parciales Ul, Ll, U2 y L2 son establecidos como se describe anteriormente, los candidatos para el predictor de vector de movimiento de cada sub-división son generados de vectores de movimiento de regiones parciales previamente procesadas ubicadas en el mismo lado con respecto a la línea de extensión entre sub-divisiones.
En tanto que los candidatos para el predictor de vector de movimiento de la sub-división SP2 sean generados de vectores de movimiento de regiones parciales en el mismo dominio como las sub-divisiones de SP2 con respecto a la línea de extensión Ln de la frontera en la sub-división SP2 y las otras sub-divisiones del bloque objetivo incluyendo la sub-división SP2, el método de generación del predictor de movimiento no está limitado a aquel de la modalidad descrita anteriormente. Por ejemplo, la región parcial U2 puede ser una región parcial que incluye el pixel Pi3 y la región parcial L2 puede ser una región parcial que incluye el pixel Pi4.
Una condición de que toda la región parcial esté presente en el mismo dominio como la sub-división SP2 con respecto a la línea Ln puede ser agregada como condición para el vector de movimiento de la región parcial sea agregado a candidatos para el vector de movimiento de la sub-división SP2. En este caso, es posible emplear por ejemplo un método de inspeccionar posiciones de todas las esquinas de la región parcial .
Aun si una región parcial no está completamente incluida en el mismo domino como una sub-división con respecto a la línea de extensión, el vector de movimiento de la región parcial puede ser empleado como candidato para el predictor de vector de movimiento de la sub-división. La Figura 30 es un dibujo que muestra otro ejemplo de sub-divisiones de un bloque objetivo y regiones parciales circundantes. Como se muestra como un ejemplo en la Figura 30, los vectores de movimiento de regiones parciales RA/ RB, & y RE pueden ser usados como candidatos para el predictor de vector de movimiento de la primera sub-división SP1. Un predictor de vector de movimiento de la región parcial RE puede ser agregado a candidatos para el predictor de vector de movimiento de la segunda sub-división SP2.
En la descripción acerca de la Figura 28 y 29, el número de vectores de movimiento que sirven como candidatos para el predictor de vector de movimiento fue a lo más dos, pero también es posible seleccionar dos de los vectores de movimiento obtenidos mediante cualquiera de las condiciones descritas anteriormente. Por ejemplo, el vector de movimiento de la región parcial U2 mostrada en la Figura 29 y un vector de movimiento de una región parcial vecina a la región parcial U2 pueden ser seleccionados como candidatos para el predictor de vector de movimiento. Asimismo, el vector de movimiento de la región parcial L2 y un vector de movimiento de una región parcial vecina a la región parcial U2 pueden ser seleccionados como candidatos . para el predictor de vector de movimiento. Además, tres o más vectores de movimiento pueden ser seleccionados como candidatos para el predictor de vector de movimiento de los vectores de movimiento especificados desde cualquiera de las condiciones descritas anteriormente . Además , un promedio o una mediana de una pluralidad de candidatos para el predictor de vector de movimiento pueden ser agregados a candidatos para el predictor de vector de movimiento.
La información de forma de bloque puede ser usada como método para limitar el número de candidatos para el predictor de vector de movimiento S505-2 en la Figura 28 a uno a lo más. Por ejemplo, de las regiones parciales previamente codificadas en contacto con una sub-división objetivo de procesamiento, un vector de movimiento de una región parcial con una longitud máxima de una porción en contacto con la sub-división puede ser agregado como candidato para el predictor de vector de movimiento. También es posible emplear un vector de movimiento de una región parcial previamente codificada con una distancia más corta mínima de una subdivisión de procesamiento como candidato para el predictor de vector de movimiento de la sub-división.
Los métodos de generación descritos anteriormente de candidatos para el predictor de vector de movimiento pueden ser aplicados a sub-divisiones de cualquier forma. La Figura 31 es un dibujo que muestra ejemplos adicionales de sub-divisiones de un bloque objetivo en regiones parciales circundantes. (A) de la Figura 31 muestra sub-divisiones definidas por una línea Ln con una coordenada de intersección (y) una pendiente diferente de aquella de la línea Ln son mostrada en la Figura 29. (B) de la Figura 31 muestra sub-divisiones definidas por una línea Ln con una pendiente aproximadamente simétrica con aquella de la línea Ln con respecto al eje y y con una coordenada de intersección con el eje y diferente de aquel de la línea Ln mostrada en la Figura 29. (C) de la Figura 31 muestra sub-divisiones definidas por líneas Ln2. (D) de la Figura 31 muestra sub-divisiones definidas por dos líneas Lnl y Ln2 que se intersectan entre sí. Cuando la línea de extensión de la frontera como se muestra en (A) a (D) de la Figura 31 es usada como referencia, las regiones parciales L2 y U2 con vectores de movimiento que pueden ser candidatos para el predictor de vector de movimiento de la sub-división SP2 pueden ser especificadas por los métodos de generación mencionados anteriormente de candidatos para el predictor de vector de movimiento .
Se notará que las sub-divisiones no están limitadas solamente a aquellas dividas por una línea recta. Por ejemplo, en el caso en donde las formas de las sub-divisiones son seleccionadas de patrones predeterminados, un vector de movimiento de una región parcial previamente codificada perteneciente al mismo dominio como una sub-división objetivo de procesamiento con respecto a una línea de extensión de una frontera entre sub-divisiones puede ser usado como candidato para el predictor de vector de movimiento. Si los patrones de las formas de sub-división son definidos preliminarmente, también es posible determinar preliminarmente una región parcial con un vector de movimiento a ser adoptado como candidato para el vector de predictor de movimiento para cada patrón de forma. Los patrones pueden incluir los patrones para dividir un bloque objetivo en sub-divisiones rectangulares.
El método de selección mencionado anteriormente del predictor de vector de movimiento puede también ser aplicado como un método para seleccionar un vector de movimiento en la generación de una señal predicha de una sub-división objetivo de procesamiento utilizando vectores de movimiento de regiones parciales previamente codificadas. Es decir, la señal predicha de la sub-división objetivo de procesamiento puede ser generada utilizando el predictor de vector de movimiento seleccionado en la etapa S505-2 en la Figura 28. En este caso, no hay necesidad de codificación de vector de movimiento diferencial y por consiguiente el predictor de vector de movimiento emitido del predictor de movimiento 506 no es emitido al sustractor 507 sino al generador de señal predicha 505.
Además, el dispositivo de codificación de video 10 puede estar configurado para determinar si el vector de movimiento diferencial va a ser codificado y para codificar la información de aplicación para especificar resultados de la determinación. En esta modificación, el predictor de movimiento 506 puede incluir una función para cambiar la salida del predictor del vector de movimiento ya sea al sustractor 507 o al generador de señal predicha 105, en base a la información de aplicación.
En esta modificación, es desfavorable que los vectores de movimiento de todas las sub-divisiones en un bloque objetivo se vuelvan idénticos entre sí, debido a que la división del bloque objetivo se vuelve sin significado. Es decir, en la ocasión de generar los candidatos para el vector de movimiento de una sub-división objetivo de procesamiento en la etapa S505-2 en la Figura 28, un vector de movimiento de una sub-división previamente codificada en el bloque objetivo puede ser excluida de los candidatos. Por ejemplo, en el caso en donde el bloque objetivo es dividido en dos sub-divisiones y en donde el vector de movimiento de las primeras sub-divisiones es codificado primero, el vector de movimiento de las primeras sub-divisiones es excluido de los candidatos para el predictor de vector de movimiento de la segunda sub-divisiones. Si el vector de movimiento de las primeras sub-divisiones es el mismo como aquel de la región parcial U2, el vector de movimiento de la región parcial U2 no tiene que ser usado en la generación del predictor de vector de movimiento de la segunda sub-división.
Si ya sea se indica que el vector de movimiento diferencial va a ser codificado, la probabilidad de presencia en codificación aritmética de la información de aplicación mencionada anteriormente puede ser determinada de manera adaptable de acuerdo con la información de forma de la subdivisión. Por ejemplo, la probabilidad de presencia para la información de aplicación para indicar que el vector movimiento diferencial de la primera sub-división no es codificado puede ser ajustada más alto que aquel para la información de aplicación para indicar que el vector de movimiento diferencial de la segunda sub-división no es codificado. La razón por esto es como sigue: la segunda sub-división puede no tener contacto con ninguna región parcial previamente codificada, mientras que la primera sub-división siempre tiene contacto con una región parcial previamente codificada; por consiguiente, el ajuste de las probabilidades de presencia como se describen anteriormente pueden reducir la cantidad de códigos de la información de aplicación.
El efecto de una modalidad será descrito con referencia a la Figura 32 que muestra un ejemplo de división de un bloque objetivo en sub-divisiones rectangulares por simplicidad. En este ejemplo, . el bloque objetivo P es dividido en una sub-división izquierda SPl y una sub-división derecha SP2 por una línea recta Ln. En este ejemplo, un vector de movimiento de la primera sub-división SP1 y' un vector de movimiento de una región parcial RB son candidatos para el predictor de vector de movimiento de la segunda sub-división SP2.
En el ejemplo en la Figura 32, si la señal predicha de la segunda sub-división SP2 es generada utilizando el vector de movimiento de la primera sub-división SP1, la señal predicha de la primera sub-división SP1 y la señal predicha de la segunda sub-división SP2 será generada utilizando el mismo vector de movimiento, lo que hace la división del bloque objetivo en dos sub-divisiones sin significado. Por esta razón, la señal predicha de la segunda sub-división SP2 puede ser generada utilizando el vector de movimiento de la región parcial RB por encima de la sub-división SP2. El ejemplo mostrado en la Figura 62, por consiguiente, se determina preliminarmente entre el dispositivo de codificación y el dispositivo de descodificación que la señal predicha de la segunda sub-división SP2 va a ser generada utilizando el vector de movimiento de la región parcial RB, lo que reduce candidatos para el predictor de vector de movimiento y lo que elimina la necesidad de transmitir información de indicación para indicar un predictor de vector de movimiento de una pluralidad de candidatos para el predictor de vector de movimiento.
Además, un método para que el dispositivo de codificación de video 10 determine si el vector de movimiento diferencial necesita ser codificado (en el cual el predictor de movimiento 506 cambia la salida del predictor de vector de movimiento ya sea a uno u otro al sustractor 507 o al generador de señal predicha 505 en base a la información de aplicación) es discutido. En este tiempo, si el vector de movimiento de la región parcial RB es el mismo como aquel de la primera sub-división SP1, la selección ya sea de uno u otro de los dos candidatos para el predictor de vector de movimiento da como resultado el mismo predictor de movimiento de la segunda sub-división SP2 como el vector de movimiento de la primera su-división SP1. Por consiguiente, se determina preliminarmente entre el dispositivo de codificación y el dispositivo de descodificación que si los dos candidatos para el predictor de vector de movimiento son idénticos entre sí, la señal predicha de la segunda sub-división ¾ SP2 va a ser generada por el vector de movimiento resultante de la adición de vector de movimiento diferencial y el predictor de vector de movimiento, lo que elimina la necesidad de transmitir la información de aplicación para indicar si el vector de movimiento diferencial va a ser codificado, además de la información de indicación.
En casos en donde un bloque objetivo es dividido en tres o más sub-divisiones como se muestra en la Figura 33, la división de bloque objetivo es significativa si la primera sub-división SP1, segunda sub-división SP2 y tercera subdivisión SP3 tienen el mismo vector de movimiento y la cuarta sub-división SP4 solamente tiene un vector de movimiento diferente. En tales casos, por consiguiente, la señal predicha de la segunda sub-división SP2 y la señal predicha de la tercera sub-división SP3 pueden ser generadas utilizando el vector de movimiento de la primera sub-división SP1, en lugar de vectores de movimiento de la región parcial RB y región parcial RE, respectivamente. Sin embargo, para la cuarta sub-división SP4, si los vectores de movimiento de la segunda sub-división SP2 y la tercera sub-división SP3 son los mismos, dos candidatos para el predictor de vector de movimiento se vuelven idénticos entre sí; por consiguiente, al determinar preliminarmente una regla entre el dispositivo de codificación y el dispositivo de descodificación, se hace innecesario transmitir la información de indicación para indicar un predictor de vector de movimiento. Además, si la primera sub-división es SP1, segunda sub-división SP2 y tercera sub-división SP3 tienen el mismo vector de movimiento y si la señal predicha de la cuarta sub-división SP4 es generada utilizando el vector de movimiento de la segunda sub-división SP2 para tercer sub-división SP3 , las cuatro sub-divisiones tendrán todas el mismo vector de movimiento; por consiguiente, al determinar preliminarmente una regla entre el dispositivo de codificación y el dispositivo de descodificación, también se hace innecesario transmitir la información de aplicación para indicar que el vector de movimiento diferencial va a ser codificado, además de la información de indicación.
Un dispositivo de descodificación de video de acuerdo con una modalidad será descrito a continuación. La Figura 34 es un dibujo que muestra esquemáticamente una configuración del dispositivo de descodificación de video de acuerdo con una modalidad. El dispositivo de descodificación de video 20 mostrado en la Figura 34 es un dispositivo que puede generar una secuencia de video al descodificar la corriente comprimida generada por el dispositivo de codificación de video 10.
Como se muestra en la Figura 34, el dispositivo de descodificación de video 20 es provisto con el descodificador de datos 601, predictor de movimiento 602, adicionador 603, cuantificador inverso 604, transformador inverso 605, memoria de cuadro 606, generador de señal predicha 607 y adicionador 608.
El descodificador de datos 601 analiza una corriente comprimida introducida vía la línea L601. El descodificador de datos 601 efectúa secuencialmente el procesamiento descrito a continuación para cada bloque como un objeto de descodificación (de aquí en adelante en la presente un bloque objetivo) .
El descodificador de datos 601 descodifica los datos codificados asociados con el bloque objetivo en la corriente comprimida para restaurar los coeficientes de transformada cuantificados del bloque objetivo y admiten los coeficientes de transformada cuantificados vía la línea L602. El descodificador de datos 601 también descodifica los datos codificados para restaurar la información de forma del bloque objetivo y emite la información de forma vía la línea L603. En esta ocasión, la información de posibilidad de aplicación de predicción para indicar si el bloque objetivo necesita ser dividido es restaurada y si la información de posibilidad de aplicación de división indica que no hay necesidad de dividir el bloque objetivo, la información de forma no tiene que ser restaurada.
El descodificador de datos 601 también descodifica los datos codificados para restaurar la información de indicación para cada sub-división en el bloque objetivo, esto es, la información para indicar uno de una pluralidad de candidatos para el predictor de vector de movimiento y emite la información de indicación vía la línea L604. El descodificador de datos 601 también descodifica los datos codificados para restaurar el vector de movimiento diferencial del bloque objetivo y emite el vector de movimiento diferencial vía la línea L605. Además, el descodificador de datos 601 puede determinar de manera adaptable la probabilidad de presencia en la descodificación de los datos codificados en la ocasión de restaurar la información de indicación del predictor de vector de movimiento, en base a la información de formas del bloque objetivo. Un método para implementación puede ser por ejemplo establecer una probabilidad de presencia más alta para la información de indicación para indicar un vector de movimiento de una región parcial en contacto con una subdivisión objetivo de procesamiento, como un predictor de vector de movimiento.
El predictor de movimiento 602 genera un predictor de vector de movimiento de una sub-división objetivo de procesamiento, en base a la información de forma alimentada vía la línea L603 y vectores de movimiento de regiones parciales antes en un orden de procesamiento, alimentados vía la línea L606 y en base a la información de indicación alimentada vía la línea L604 y emite el predictor de vector de movimiento vía la línea L607. Al estrechar los candidatos para el predictor de vector de movimiento Al por un método predeterminado, también es posible omitir la entrada de la información de indicación.
El adicionador 603 agrega el predictor de vector de movimiento alimentado vía la línea L607 al vector de movimiento diferencial alimentado vía la línea L605 para generar un vector de movimiento de un bloque objetivo o un vector de movimiento de una sub-división en el bloque objetivo y emite el vector de movimiento vía la línea L606.
El cuantificador inverso 604 efectúa la cuantificación inversa de los coeficientes de transformada cuantificados alimentados vía la línea L602 para generar coeficientes de transformada cuantificados inversamente. El cuantificador inverso 604 emite los coeficientes de transformada cuantificados inversamente así generados vía la línea L608.
El transformador inverso 605 efectúa la transformación ortogonal inversa de los coeficientes de transformada cuantificados inversamente alimentados vía la línea L608 para generar una señal residual reconstruida. El transformador inverso 605 emite la señal residual reconstruida así generada vía la línea L609.
Si la señal reconstruida generada no es una sometida a cuantificación, el dispositivo de descodificación de video 20 no tiene que ser provisto con el cuantificador inverso 604. Similarmente, si la señal residual reconstruida generada no es una sometida a transformación, el dispositivo de descodificación de video 20 no tiene que ser provisto con el transformador inverso 605.
La memoria de cuadro 606 almacena señales de imagen previamente reconstruida alimentadas vía la L610, esto es, señales de imagen de cuadro previas en el orden de procesamiento a la imagen de entrada de objetivo de procesamiento (que será denominada posteriormente en la presente como señales de imagen de cuadro de referencia) . Además, la memoria de cuadro 606 emite las señales de imagen de cuadro de referencia vía la línea L611.
El generador de señal predicha 607 genera una señal predicha de cada imagen de sub-división en el bloque objetivo, en base al vector de movimiento alimentado vía la línea L606 y la información de forma alimentada vía la línea L603 de una señal de imagen en un intervalo predeterminado de las señales de imagen de cuadro de referencia alimentadas vía la línea L611. El generador de señal predicha 607 emite la señal predicha así generada vía la línea L612. Aunque la descripción es omitida en la presente especificación, la señal predicha puede ser generada mediante predicción de intra- imagen además de predicción de ínter- imagen.
El adicionador 608 agrega la señal residual reconstruida alimentada vía la línea L609 a la señal predicha del bloque objetivo alimentado vía la línea L612 para generar una señal de imagen reconstruida. El adicionador 608 emite la señal de imagen reconstruida vía la línea L610.
La Figura 35 es un dibujo que muestra una configuración del predictor de movimiento de acuerdo con una modalidad. Como se muestra en la Figura 35, el predictor de movimiento 602 tiene una memoria de vector de movimiento 6021, un generador de candidato de referencia de movimiento 6022 y un generador de predictor de vector de movimiento 6023.
La memoria del vector de movimiento 6021 almacena vectores de movimiento alimentados vía la línea L606. Los vectores de movimiento almacenados en la .memoria del vector de movimiento 6021 son vectores de movimiento de regiones parciales previamente procesadas previas en el orden de procesamiento al bloque objetivo o la sub-división objetivo de procesamiento. La memoria del vector de movimiento 6021 emite los vectores de movimiento almacenados vía la línea L6021, para activación del predictor de vector de movimiento para la sub-división objetivo de procesamiento.
El generador de candidato de referencia de movimiento 6022 genera candidatos para el predictor de vector de movimiento de los vectores de movimiento alimentados vía la línea L6021, mediante un método descrito a continuación, en base a la información de forma alimentada vía la línea L603 y los emite vía la línea L6022.
El generador de predictor de vector de movimiento 6023 determina un predictor de vector de movimiento, en base a la información de indicación del predictor de vector de movimiento alimentado vía la línea L604 de los candidatos para el predictor de vector de movimiento alimentados vía la línea L6022 y emite el predictor de vector de movimiento determinado vía la línea L607. Si el número de candidatos a ser generados en el generador de candidatos de referencia en movimiento es limitado a uno, la entrada de la información de indicación para especificar el candidato a ser seleccionado puede ser omitida.
A continuación se describirá la operación del dispositivo de descodificación de video 20 y un método de descodificación de video de acuerdo con una modalidad. La Figura 36 es un diagrama de flujo de un método de descodificación de video de acuerdo con una modalidad. De acuerdo con una modalidad, como se muestra en la Figura 36, en la etapa S621, el descodificador de datos 601 descodifica primeros lo datos codificados en los datos comprimidos alrededor de un bloque objetivo como se describe anteriormente, para restaurar los coeficientes de transformada cuantificados , información de forma y vector de movimiento diferencial del bloque objetivo. En la etapa S621, la información de posibilidad de aplicación de división y la información de indicación pueden ser restauradas. Además, en la etapa S621, el cuantificador inverso 604 puede generar los coeficientes de transformada cuantificados inversamente de los coeficientes de transformada cuantificados restaurados y el transformador inverso 605 puede generar una señal residual reconstruida de los coeficientes de transformada cuantificados inversamente.
En la etapa S622, el predictor de movimiento 602 determina luego el predictor de vector de movimiento de la etapa objetivo de procesamiento S621, para cada etapa S621 en el bloque objetivo que sirve como objetivo de procesamiento. En la etapa subsecuente S623, el adicionador 603 agrega el predictor de vector de movimiento de la etapa objetivo de procesamiento S621 al vector de movimiento diferencial para generar un vector de movimiento.
En la etapa S624, el generador de señal predicha 607 genera luego la señal predicha de las señales de imagen de cuadro de referencia en la memoria de cuadro 606, utilizando el vector de movimiento del bloque objetivo. En la etapa subsecuente S625, el adicionador 608 agrega la señal predicha del bloque objetivo a la señal residual reconstruida para generar una señal de imagen reconstruida.
En la etapa S626, la señal de imagen reconstruida generada en la etapa S625 es luego almacenada como una señal de imagen previamente reconstruida a la memoria de cuadro 606. En la etapa subsecuente S627, se determina si el procesamiento esta consumado para todos los bloques. Si el procesamiento no está consumado para todos los bloques, el procesamiento de la etapa S621 es proseguido utilizando un bloque sin procesar como bloque objetivo, por otra parte, cuando el procesamiento esta consumado para todos los bloques, el procesamiento es terminado.
La operación del predictor de movimiento 602 será descrita posteriormente en la presente en detalle. La Figura 37 es un diagrama de flujo que muestra el procesamiento del predictor de movimiento de acuerdo con una modalidad. El predictor de movimiento 602 genera el predictor de vector de movimiento de acuerdo con el diagrama de flujo mostrado en 1 Figura 37.
En una modalidad, en la etapa S615-1, el valor del contador i es ajustado a "0" . Se supone posteriormente en la presente que el procesamiento para la primera sub-división se lleva a cabo con i = 0 y el procesamiento para la segunda sub-división se lleva a cabo con i = 1.
En la siguiente etapa S615-2, dos candidatos (candidato izquierdo y candidato superior) que puede ser el predictor de vector de movimiento de la sub-división objetivo de procesamiento son determinados de acuerdo con uno de los métodos descritos anteriormente utilizando las Figuras 29, 30, 31, 32 y 33 de vectores de movimiento de regiones parciales previas en el orden de procesamiento a la subdivisión objetivo de procesamiento.
En la etapa S615-3, se determina luego si el número NCand de los candidatos generados en la etapa S615-2 es "0" . Cuando NCand es "0" (si) , el procesamiento procede a la etapa S615-4. Cuando NCand no es "0" (no), el procesamiento procede a la etapa S615-5.
En la etapa S615-4, el predictor de vector de movimiento PMV es ajustado a un vector de 0 y el procesamiento procede la etapa S615-11. En esta ocasión, también es posible establecer un vector de movimiento de un bloque predeterminado o un vector de movimiento de una región parcial inmediatamente previo en el orden de procesamiento a la sub-división objetivo de procesamiento, el lugar del vector 0 como el predictor como el vector de movimiento PMV.
En la etapa S615-5, se determina si el número NCand de los candidatos generado en la etapa S615-2 es "1". Cuando NCand es "1" (si) , el procesamiento procede a la etapa S615-6. Cuando NCand no es "1" (no), el procesamiento procede a la etapa S615-7.
En la etapa S615-6, el candidato generado en la etapa S615-2 es ajustado como PMV. Luego el procesamiento procede a la etapa S615-11.
En la etapa S615-7, la información PMV_izquierda_bandera para indicar el PMV a ser seleccionado es adquirida de los candidatos generados en la etapa S615-2. Luego el procesamiento procede a la etapa S615-8.
En la etapa S615-8, se determina si el valor de PMV_izquierdo_bandera es "1" . Cuando el valor de PMV_izquierdo_bandera es "1" (si) , el procesamiento procede a la etapa S615-9. Cuando el valor de PMV_izquierdo_bandera no es "1" (no), el procesamiento procede a la etapa S615-10.
La etapa S615-9 es para ajustar un vector de movimiento de una región parcial en el lado izquierdo de la sub-división objetivo de procesamiento como PMV. Luego, el procesamiento procede a la etapa S615-11.
La etapa S615-10 es para establecer un vector de movimiento de una región parcial en el lado izquierdo de la sub-división objetivo de procesamiento como PMV. Luego, el procesamiento procede a la etapa S615-11.
La etapa S615-11 es para emitir el PMV así establecido. Luego, el procesamiento procede a la etapa S615-12.
Enseguida, la etapa S615-12 es para agregar "1" al valor del contador i. luego, el procesamiento procede a la etapa S615-13.
Enseguida, la etapa S615-13 es para determinar si el valor del contador i es menor de "2" . Cuando el valor del contador i es menor de "2" (si) , el procesamiento procede a la etapa S615-2. Por otra parte, Cuando el valor del contador i es menor de "2" (no) , el procesamiento es terminado .
Al limitar el número de candidatos para el predictor de vector de movimiento a ser generado a uno en la etapa S615-2, los procesos de las etapas S615-5, S615-6, S615-7, S615-8, S615-9 y S615-10 puede ser omitidos. No hay restricción en cuanto a un método para esta limitación, como se describe anteriormente en cuanto al generador del predictor de vector de movimiento 6023, pero es posible usar por ejemplo tal método como un método que utiliza un valor intermedio de tres candidatos , un método que usa un promedio de dos candidatos o un método de determinar preliminarmente un orden de prioridad para selección de un predictor de vector de movimiento de una pluralidad de candidatos para el predictor de vector de movimiento. En aquel caso, cuando NCand no es "0" (No) en la etapa S615-03, el procesamiento procede a la etapa S615-6.
El método descrito anteriormente puede ser aplicado como método de selección de vector de movimiento en el caso en donde la señal predicha de la sub-división objetivo de procesamiento es generada utilizando vectores de movimiento previamente descodificados. Es decir, la señal predicha de la sub-divisan objetivo de procesamiento puede ser generada utilizando el predictor de vector de movimiento seleccionado en la etapa S615-2 en la Figura 37. En este caso, no hay necesidad de descodificar el vector de movimiento diferencial y por consiguiente el predictor de vector de movimiento emitido del predictor de movimiento 602 no es emitido al adicionador 603 sino al generador de señal predicha 607.
Además, el descodificador de datos 601 puede estar configurado para descodificador información de aplicación para especificar si el vector de movimiento diferencial va a ser descodificado. En esta modificación, el predictor de movimiento 602 puede incluir una función para cambiar la salida del predictor de vector de movimiento ya sea al adicionador 603 o al generador de señal predicha 607, en base a la información de aplicación.
En esta modificación, es desfavorable que los vectores de movimiento de toda sub-divisiones en el bloque objetivo se vuelvan idénticos entre sí, debido a que la división del bloque objetivo se vuelve sin significado. En esta modificación, por consiguiente, un vector de movimiento de una sub-división incluida en el bloque objetivo y ubicado previo en el orden de procesamiento a la sub-división objetivo de procesamiento puede ser excluido de los candidatos para el predictor de vector de movimiento en la ocasión de generar los candidatos para el predictor de vector de movimiento de la sub-división objetivo de procesamiento en la etapa S615-2 en la Figura 37. Por ejemplo, en el caso en donde el bloque objetivo es dividido en dos sub-divisiones y en donde el vector de movimiento de la primera sub-división es restaurado primero, el vector de movimiento de las primeras sub-divisiones es excluido de los candidatos para el predictor de vector de movimiento de la segunda sub-división. Si el vector de movimiento de la primera sub-división es el mismo como aquel de la región parcial U2 , el vector de movimiento de la región parcial U2 no tiene que ser usado en la generación del predictor de vector de movimiento de la segunda sub-división.
En esta modificación, la probabilidad de presencia en la descodificación aritmética de la información de aplicación para indicar si el vector de movimiento diferencial va a ser descodificado puede ser determinada de manera adaptable de acuerdo con la información de forma. Este método puede ser configurado, por ejemplo para establecer una probabilidad más alta de no codificar el vector de movimiento diferencial, para que la primera sub-división siempre este en contacto con una región previamente codificada, que aquella de la segunda sub-división posiblemente que no tiene contacto con cualquier región parcial previamente descodificada. Puesto que el efecto de esta modificación ya fue descrito utilizando las Figuras 34 y 35, la descripción de la misma es omitida en la presente .
A continuación se describirá un programa de codificación de video para permitir que una computadora opere como el dispositivo de codificación de video 10 y un programa de descodificación de video para permitir que una computadora opere como el dispositivo de descodificación de video 20.
La Figura 38 es un dibujo que muestra una configuración del programa de codificación de video de acuerdo con una modalidad. La Figura 39 es una figura que muestra una configuración del programa de descodificación de video de acuerdo con una modalidad. A continuación se hará referencia a la Figura 18 que muestra la configuración de elementos físicos de la computadora de acuerdo con una modalidad y la Figura 19 que muestra la vista en perspectiva de la computadora de acuerdo con una modalidad, también como la Figura 38 y 39.
El programa de codificación de video PIO mostrado en la Figura 38 puede ser provisto almacenado en el medio de grabación SM. El programa de descodificación de video P20 mostrado en la Figura 38 puede también ser provisto almacenado en el medio de grabación SM. Ejemplos de medios de grabación de SM incluyen medios de grabación tales como discos flexibles, CD-ROM, DVD o ROM o memorias semiconductoras o los semejantes.
Como se describe anteriormente, la computadora CIO puede ser provista con el dispositivo de lectura C12 tal como una unidad de disco flexible, una unidad de CD-ROM o una unidad de DVD, la memoria de trabajo (RAM) C14 en la cual un sistema operativo es residente, la memoria C16 almacena programas almacenados en el medio de grabación SM, el dispositivo de monitor C18 tal como una pantalla, el ratón C20 y teclado C22 como dispositivos de entrada, el dispositivo de comunicación C24 para transmisión y recepción de datos y otros y la CPU C26 para controlar la ejecución de los programas.
Cuando el medio de grabación SM es puesto en el dispositivo de lectura C12, la computadora CIO se hace accesible al programa de codificación de video PIO almacenado en el medio de grabación SM a través del dispositivo de lectura C12 y se vuelve apto para operar como el dispositivo de codificación de video 10, en base al programa PIO.
Cuando el medio de grabación SM es puesto en el dispositivo de lectura C12, la computadora CIO se hace accesible al programa de descodificación de video P20 almacenado en el medio de grabación SM, a través del dispositivo de lectura C12 y se vuelve apta para operar como el dispositivo de descodificación de video 20. En base al programa P20.
Como se muestra en la Figura 19, el programa de codificación de video PIO y el programa de descodificación de video P20 pueden ser aquellos provistos en forma de la señal de datos de computadora CW superpuesta sobre una onda portadora, a través de una red. En este caso, la computadora CIO puede ejecutar el programa PIO o P20 después que el programa de codificación de video PIO o el programa de descodificación de video P20 recibido por el dispositivo de comunicación C24 es almacenado a la memoria C16.
Como se muestra en la Figura 38, el programa de codificación de video PIO incluye el módulo de división de bloques M101, módulo de generador de sub-división M102, módulo de almacenamiento M103, módulo de detección de movimiento M104, módulo de generación de señal predicha M105, módulo de predicción de movimiento M106, módulo de sustracción M107, módulo de generación de señal residual M108, módulo de transformada M109, módulo de cuantificación M110, módulo de cuantificación inversa Mili, módulo de transformada inversa M112, módulo de adicción M113 y módulo de codificación por entropía M114.
En una modalidad, el módulo de división de bloques M101, módulo generador de sub-división M102, módulo de almacenamiento M103, módulo de detección de movimiento M104, módulo de generación de señal predicha M105, módulo de predicción de movimiento M106, módulo de sustracción M107, módulo de generación de señal residual M108, módulo de transformada M109, módulo de cuantificación M110, módulo de cuantificación inversa Mili, módulo de transformada inversa M112, módulo de adicción M113 y módulo de codificación por entropía M114 provocan que la computadora CIO ejecute las mismas funciones como el divisor de bloques 501, generador de sub-división 502, memoria de cuadro 503, detector de movimiento 504, generador de señal predicha 505, predictor de movimiento 506, sustractor 507, generador de señal residual 508, transformador 509, cuantificador 510, cuantificador inverso 511, transformador inverso 512, adicionador 513 y codificador de entropía 514, respectivamente en el dispositivo de codificación de video 10. En base a este programa de codificación de video PIO, la computadora CIO se vuelve apta de operar como el dispositivo de codificación de video 10.
Como se muestra en la Figura 39, el programa de descodificación de video P20 incluye el módulo de descodificación de datos M201, módulo de predicción de movimiento 202, módulo de adición M203, módulo de cuantificacion inversa M204, módulo de transformada inversa M205, módulo de almacenamiento M206, módulo de generación de señal predicha M207 y módulo de adición M208.
En una modalidad, el módulo de descodificación de datos M201, módulo de predicción de movimiento M202, módulo de adición M203, módulo de cuantificación inversa M204, módulo de transformada inversa M205, módulo de almacenamiento M206, módulo de generación de señal predicha M207 y módulo de adición M208 provocan que la computadora PIO ejecute las mismas funciones como el descodificador de datos 601, predictor de movimiento 602, adicionador 603, cuantificador inverso 604, transformador inverso 605, memoria de cuadro 606, generador de señal predicha 607 y adicionador 608, respectivamente en el dispositivo de descodificación de video 20. En base a este programa de descodificación de video P20, la computadora CIO se vuelve apta de operar como el dispositivo de descodificación de video 20.
Una variedad de modalidades fueron descritas anteriormente en detalle. Sin embargo, se notara que la presente invención no pretende por ningún medio estar limitada a las modalidades anteriores. La presente invención puede ser modificada de muchas maneras sin desviarse del alcance y espíritu de la invención.
Lista de signos de referencia 100 dispositivo de codificación predictivo de imagen; 101 terminal de entrada; 102 divisor de bloques; 103 generador de señal predicha; 104 memoria de cuadro; 105 sustractor; 106 transformador; 107 cuantificador; 108 cuantificador inverso; 109 transformador inverso; 110 adicionador; 111 codificador de coeficiente de transformada cuantificado; 112 terminal de salida; 113 selector de tipo de división de bloques de predicción; 114 estimador de información de movimiento; 115 memoria de información de predicción; 116 codificador de información de predicción; 201 terminal de entrada; 202 analizador de datos; 203 cuantificador inverso; 204 transformador inverso; 205 adicionador; 206 terminal de salida; 207 descodificador de coeficiente de transformada cuantificado; 208 descodificador de información de predicción; 10 dispositivo de codificación de video; 20 dispositivo de descodificación de video; 501 divisor de bloques; 502 generador de sub-división; 503 memoria de cuadro; 504 detector de movimiento; 505 generador de señal predicha; 506 predictor de movimiento; 507 sustractor; 508 generador de señal residual; 509 transformador; 510 cuantificador ; 511 cuantificador inverso; 512 transformador inverso; 513 adicionador; 514 codificador de entropía; 601 descodificador de datos; 602 predictor de movimiento; 603 adicionador; 604 cuantificador inverso; 605 transformador inverso; 606 memoria de cuadro; 607 generador de señal predicha; 608 adicionador; 5061 memoria del vector de movimiento; 5062 generador de candidato de referencia de movimiento; 5063 generador de predictor de vector de movimiento; 6021 memoria del vector de movimiento; 6022 generador del candidato de referencia de movimiento; 6023 generador del predictor de vector de movimiento.

Claims (18)

REIVINDICACIONES
1. Un dispositivo predictivo de imagen caracterizado porque comprende : medios de división de región aptos para dividir una imagen de entrada en una pluralidad de regiones que incluyen una región objetivo que sirve como objetivo de codificación; medios de estimación de información de predicción aptos para sub-dividir la región objetivo en una pluralidad de regiones de predicción, determinar un tipo de división del bloque de predicción para la región objetivo, predecir información de movimiento de una señal previamente reconstruida para la adquisición de cada una de una pluralidad de señales altamente correlacionadas con las regiones de predicción respectivas y obtener información de predicción que contiene el tipo de división de bloque de predicción y la información de movimiento, el tipo de división de bloques de predicción indica el número y formas de región de las regiones de predicción; medios de codificación de información de predicción aptos para codificar la información de predicción asociada con la región objetivo; medios de generación de señal predicha aptos para generar una señal predicha de la región objetivo en base a la información de predicción asociada con la región objetivo; medios de generación de señal residual aptos para generar una señal residual en base a la señal predicha de la señal objetivo y una señal de pixel de la región objetivo; medios de codificación de señal residual aptos para codificar la señal residual generada por los medios de generación de señal residual; medios de restauración de señal residual aptos para descodificar la señal residual codificada para generar una señal residual reconstruida y medios de grabación aptos para agregar la señal predicha a la señal residual reconstruida para generar una señal de pixel restaurada de la región objetivo y para almacenar la señal de pixel restaurada como la señal previamente reconstruida, en donde los medios de codificación de información de predicción incluyen medios de almacenamiento de información de predicción aptos para almacenar información de predicción previamente codificada y los medios de codificación de información de predicción son aptos además para codificar el tipo de división de bloques de predicción de la región objetivo y almacenar el tipo de división de bloques de predicción a los medios de almacenamiento de información de predicción en base a la información de predicción de una región vecina de la región objetivo, un numero de regiones de predicción previamente codificadas en la región objetivo y la información de predicción previamente codificada de la región obj etivo; los medios de codificación de información de predicción aptos además para seleccionar un candidato para información de movimiento, el candidato para información de movimiento para uso en la generación de una señal predicha de una región de predicción objetivo que sirve como una siguiente región de predicción y el candidato para información de movimiento seleccionado de información de movimiento previamente codificada de una región vecina de la región de predicción objetivo; los medios de codificación de información de predicción aptos además para codificar, de acuerdo con el número de candidatos para la información de movimiento seleccionado, información de bloques de fusión indicadora de la generación de la señal predicha de la región de predicción objetivo o codificar ya sea una de la información de bloques de fusión o la información de movimiento, en donde la información de bloques de fusión es codificada utilizando el candidato seleccionado para información de' movimiento y la información de movimiento detectada por los medios de estimación de información de predicción y los medios de codificación de información de predicción aptos además para almacenar la información de movimiento para uso en la generación de la señal predicha de la predicción objetivo a los medios de almacenamiento de información de predicción .
2. El dispositivo de codificación predictivo de imagen de acuerdo con la reivindicación 1, caracterizado porque los medios de codificación de información de predicción son aptos además para seleccionar el candidato para información de movimiento de región de predicción objetivo que sirve como la siguiente región de predicción de la información de movimiento previamente codificada de la región vecina a la región de predicción objetivo, el candidato para información de movimiento seleccionado en base al "numero de regiones de predicción previamente codificadas en la región objetivo, el tipo de división de bloques de predicción de la región objetivo y el tipo de división de bloques de predicción de la región vecina a la región objetivo.
3. El dispositivo de codificación predictivo de imagen de acuerdo con la reivindicación 1, caracterizado porque los medios de codificación de información de predicción son aptos además para seleccionar el candidato para información de movimiento de la región de predicción objetivo que sirve como la siguiente región de predicción de la información de movimiento previamente codificada de la región vecina a la región de predicción objetivo, el candidato para información de movimiento seleccionado en base al número de regiones de predicción previamente codificadas en la región objetivo y el tipo de división de bloques de predicción de la región objetivo y en donde los medios de codificación de información de predicción son aptos para seleccionar información de movimiento de una región vecina de región de predicción objetivo que no está incluida en la región objetivo cuando la región objetivo es dividida en dos regiones de predicción y la región de predicción objetivo es una región de predicción codificada en segundo lugar en la región objetivo, la información de movimiento seleccionada como el candidato para información de movimiento para uso en la generación de la señal predicha de la región de predicción objetivo.
4. El dispositivo de codificación predictivo de imagen de acuerdo con la reivindicación 1, caracterizado porque los medios de codificación de información de predicción son aptos además para seleccionar el candidato para información de movimiento para uso en la generación de la señal predicha de la región de predicción objetivo que sirve como la siguiente región de predicción, el candidato para información seleccionado en base al "numero de regiones de predicción previamente codificadas en la región objetivo, el tipo de división del bloque de predicción de la región objetivo, la información de movimiento previamente codificada en la región objetivo y la información de movimiento de la región vecina a la región objetivo, en donde el candidato para información de movimiento es seleccionado de la información de movimiento previamente codificada de la región vecina a la región de predicción objetivo y en donde los medios de codificación de información de predicción son aptos para determinar información de movimiento de la región vecina a la región de predicción objetivo no es usada en la generación de la señal predicha de la región de predicción objetivo y para codificar la información de movimiento cuando la región objetivo es dividida en dos regiones de predicción, la región de predicción objetivo es una región de predicción a ser codificada en segundo lugar en la región objetivo y la información de movimiento de la región de predicción codificada primero en la región objetivo es la misma como la información de movimiento de una región vecina a la región de predicción objetivo que no está incluida en la región objetivo.
5. Un dispositivo de descodificación predictiva de imagen, caracterizado porque comprende: medios de análisis de datos aptos para extraer de los datos comprimidos de una imagen: datos codificados de información de predicción para indicar un método de predicción a ser usado en la predicción de una señal de una región objetivo que sirve como objetivo de descodificación, datos codificados de una señal predicha de una región objetivo y datos codificados de una señal residual; los datos comprimidos de imagen resultantes de la división en una pluralidad de regiones y codificación de la región objetivo; medios de descodificación de información de predicción aptos para descodificar los datos codificados de la información de predicción para restaurar un tipo de división de bloque de predicción e información de movimiento, el tipo de división del bloque de predicción indica el número de regiones de predicción y formas de región de las regiones de predicción, en donde las regiones de predicción son regiones sub-divididas de la región objetivo y la información de movimiento es usada para la adquisición de cada una pluralidad de señales predichas de las regiones de predicción respectivas de una señal previamente reconstruida; medios de generación de señal predicha aptos para generar la señal predicha de la región objetivo en base a la información de predicción asociada con la región objetivo; medios de restauración de señal residual aptos para restaurar una señal residual reconstruida de la región objetivo de los datos codificados de la señal residual y medios de grabación aptos para agregar la señal predicha a la señal residual reconstruida para restaurar la señal de pixel de la región objetivo y para almacenar la señal de pixel como la señal previamente reconstruida, en donde los medios de descodificación de información de predicción incluyen medios de almacenamiento de información de predicción aptos para almacenar la información de predicción previamente descodificada de la región objetivo y los medios de descodificación de información de predicción son aptos además para descodificar el tipo de división del bloque de predicción de la región objetivo y almacenar el tipo de división del bloque de predicción a los medios de almacenamiento de información de predicción; los medios de descodificación de información de predicción aptos además para seleccionar un candidato para información de movimiento a ser usada en la generación de una señal predicha de una región de predicción objetivo que sirve como una siguiente región de predicción, el candidato para información de movimiento seleccionado en base a: la información de predicción de una región vecina a la región objetivo, un numero de regiones de predicción previamente descodificadas de la región objetivo en donde el candidato para información de movimiento es seleccionado de información de movimiento previamente descodificada de una región vecina a la región de predicción objetivo y de acuerdo con el número de candidatos para información de movimiento seleccionados, los medios de descodificación de información de predicción aptos además para descodificar información de bloques de fusión utilizando el candidato seleccionado para información de movimiento y la información de movimiento o descodificar ya sea uno de la información de bloque de fusión o la información de movimiento, en donde la información de bloque de fusión es indicadora de la generación de la señal predicha de la región de predicción objetivo; los medios de descodificación de información de predicción aptos además para almacenar la información de movimiento a ser usado en la generación de la señal predicha de la región de predicción objetivo a los medios de almacenamiento de información de predicción.
6. El dispositivo de descodificación predictivo de imagen de acuerdo con la reivindicación 5, caracterizado porque los medios de descodificación de información de predicción son aptos además para seleccionar el candidato para información de movimiento de la región de predicción objetivo que sirve como la siguiente región de predicción de la información de movimiento previamente descodificada de la región vecina a la región de predicción objetivo, el candidato para información de movimiento seleccionado en base al número de regiones de predicción previamente descodificadas en la región objetivo, el tipo de predicción del bloque de predicción de la región objetivo y el tipo de división del bloque de predicción de la región vecina a la región objetivo. '
7. El dispositivo de descodificación predictivo de imagen de acuerdo con la reivindicación 5, caracterizado porque los medios de descodificación de información de predicción son aptos además para seleccionar el candidato para información de movimiento a ser usado en la generación de la señal predicha de la región de predicción objetivo que sirve como la siguiente de predicción en base al número de regiones de predicción previamente descodificadas en la región objetivo y el tipo de división del bloque de predicción en donde el candidato para información de movimiento es seleccionado de la información de movimiento previamente descodificada de la región vecina a la región de predicción objetivo en donde los medios de descodificación de información de predicción son aptos además para seleccionar información de movimiento de una región vecina a la región de predicción objetivo como el candidato para información de movimiento de la región de predicción objetivo cuando la región objetivo es dividida en dos regiones de predicción y la región de predicción objetivo es una región de predicción a ser descodificada en segundo lugar en la región objetivo, la región vecina a la región de predicción objetivo no incluida en la región objetivo.
8. El dispositivo de descodificación predictivo de imagen de acuerdo con la reivindicación 5, caracterizado porque los medios de descodificación de información de predicción son aptos además para seleccionar el candidato para información de movimiento a ser usado en la generación de la señal predicha de la región de predicción objetivo que sirve como la siguiente de predicción en base al número de regiones de predicción previamente descodificadas en la región objetivo, el tipo de división del bloque de predicción, la región de movimiento previamente descodificada en la región objetivo y la información de movimiento de la región vecina a la región objetivo, en donde el candidato para información de movimiento es seleccionado de la información de movimiento previamente descodificada de la región vecina a la región de predicción objetivo y en donde los medios de descodificación de información de predicción son aptos además para determinar la información de movimiento de la región vecina a la región de predicción objetivo no es usada en la generación de la señal predicha de la región de predicción objetivo y descodificar la información de movimiento cuando la región objetivo es dividida en dos regiones de predicción, la región de predicción objetivo es una región de predicción a ser descodificada en segundo lugar en la región objetivo y la información de movimiento de la región de predicción descodificada en primer lugar en la región objetivo es la misma como la información de movimiento de una región vecina a la región de predicción objetivo que no está incluida en la región objetivo.
9. Un método de codificación predictivo de imagen, caracterizado porque comprende: una etapa de división de región para dividir una imagen de entrada en una pluralidad de regiones que incluyen una región objetivo que sirve como un objetivo de codificación; una etapa de estimación de - información de predicción para sub-dividir la región objetivo en una pluralidad de regiones de predicción, determinar el tipo de divisan del bloque de predicción que indica el número y formas de región de las regiones de predicción, estimar información de movimiento de una señal previamente reconstruida para adquisición de cada una de una pluralidad de señales altamente correlacionados con las regiones de predicción respectivas y obtener información de predicción que contiene el tipo de divisan del bloque de predicción y la información de movimiento. una etapa de codificación de información de predicción para codificar la información de predicción asociada con la región objetivo; una etapa de generación de señal predicha para generar una señal predicha de la región objetivo en base a la información de predicción asociada con la región objetivo; una etapa de generación de señal residual para generar una señal residual en base a la señal predicha de la región objetivo y una señal de pixel de la región objetivo; una etapa de codificación de señal residual para codificar la señal residual generada en la etapa de generación de señal residual; una etapa de restauración de« señal residual para descodificar la señal residual codificada para generar una señal residual reconstruida y una etapa de grabación para agregar la señal predicha a la señal residual reconstruida para generar una señal de pixel restaurada de la señal objetivo y almacenar la señal de pixel restaurada como la señal previamente reconstruida, en donde la etapa de codificación de información de predicción comprende además las etapas de: codificación del tipo de división del bloque de predicción de la región objetivo y almacenamiento del tipo de divisan del bloque de predicción a medios de almacenamiento de información de predicción aptos para almacenar la información de predicción previamente codificadas, seleccionar un candidato para información de movimiento a ser usado en la generación de una señal predicha de una región de predicción objetivo que sirve como una siguiente región de predicción de información de movimiento previamente codificada de una región vecina a la región de predicción objetivo, el candidato para información de movimiento seleccionado en base a: la información de predicción de una región vecina a la región objetivo, un numero de regiones de predicciones previamente codificadas en la región objetivo y la información de predicción previamente codificada de la región objetivo; codificar, de acuerdo con el número de candidatos para información de movimiento seleccionados, información de bloques de fusión indicadora de la generación de la señal predicha de la región de predicción objetivo utilizando el candidato seleccionado para información de movimiento y la información de movimiento detectada en la etapa de estimación de información de predicción o codificación ya sea de una de la información de bloques de fusión o la información de movimiento y almacenar la información de movimiento a ser usada en la generación de la señal predicha de la región de predicción objetivo a los medios de almacenamiento de información de predicción .
10. Un programa de codificación predictivo de imagen, caracterizado porque es para provocar que una computadora funcione como: medios de división de región aptos para dividir una imagen de entrada en una pluralidad de regiones que incluyen una región objetivo que sirve como objetivo de codificación; medios de estimación de información de predicción aptos para sub-dividir la región objetivo en una pluralidad de regiones de predicción, determinar un tipo de división del bloque de fusión para la región objetivo, predecir información de movimiento de una señal previamente reconstruida para adquisición de cada una de una pluralidad de señales altamente correlacionadas con las regiones de predicción respectivas y obtener información de predicción que contiene el tipo de divisan del bloque de predicción y la información de movimiento, en donde el tipo de divisan del bloque de predicción indica el número y formas de región de las regiones de predicción respectivas para la región objetivo. medios de codificación de información' de predicción aptos para codificar la información de predicción asociada con la región objetivo; medios de generación de señal predicha aptos para generar una señal predicha de la región objetivo en base a la información de predicción asociada con la región objetivo; medios de generación de señal residual aptos para generar una señal residual en base a la señal predicha de la región objetivo y un señal de pixel de la región objetivo; medios de codificación de señal residual aptos para codificar la señal residual generada por los medios de generación de señal residual; medios de restauración de señal residual aptos para descodificar la señal residual codificada para generar una señal residual reconstruida y medios de grabación aptos para agregar la señal predicha a la señal residual reconstruida para generar una señal de pixel restaurada de la señal objetivo y para almacenar de la señal de pixel restaurada como la señal previamente reconstruida; en donde los medios de codificación de información de predicción incluyen medios de almacenamiento de información de predicción aptos para almacenar información de predicción previamente codificada y los medios de codificación de información de predicción son aptos para codificar el tipo de división del bloque de predicción de la región objetivo y almacenar el tipo de división del bloque de predicción a los medios de almacenamiento de información de predicción en base a: la información de predicción de una región vecina a la región objetivo, un numero de regiones de predicción previamente codificadas en la región objetivo y la información de predicción previamente codificada de la región obj etivo; los medios de codificación de información de predicción aptos además para seleccionar un candidato para información de movimiento de información de movimiento previamente codificada de una región vecina a la región de predicción objetivo, el candidato para información de movimiento a ser usado en la generación de una señal predicha de una región de predicción objetivo que sirve como una siguiente región de predicción; los medios de codificación de información de predicción aptos además para codificar, de acuerdo con el número de candidatos para la información de movimiento seleccionados, información de bloques de fusión indicadora de la generación de la señal predicha de la región de predicción objetivo utilizando el candidato seleccionado para información de movimiento y la información de movimiento detectada por los medios de estimación de información de predicción o codificar ya sea una de la información de los bloques de fusión o la información de movimiento y los medios de codificación de información de predicción aptos además para almacenar la información de movimiento a ser usada en la generación de la señal predicha de la región de predicción objetivo a los medios de almacenamiento de información de predicción.
11. Un método de descodificación predictivo de imagen caracterizado porque comprende: una etapa de análisis de datos para extraer a partir de los datos comprimidos de una imagen, datos codificados de información de predicción para indicar un método de predicción a ser usado en la predicción de una señal de una región objetivo que sirve como objetivo de descodificación, datos codificados de una señal predicha de una región objetivo y datos codificados de una señal residual, en donde los datos comprimidos de la imagen son el resultado de la división en una pluralidad de regiones y codificación de la región objetivo; una etapa de descodificación de información de predicción para descodificar los datos codificados de la información de predicción para restaurar el tipo de división del bloque de predicción e información de movimiento, el tipo de división del bloque de predicción indica el número de regiones de predicción y formas de región de las regiones de predicción, en donde las regiones de predicción son regiones sub-divididas de la región objetivo y la información de movimiento es usada para la adquisición de cada una de una pluralidad de señales predichas de las regiones de predicción respectivas de una señal previamente reconstruida; una etapa de generación de señal predicha para generar la señal predicha de la región objetivo en base a la información de predicción asociada con la región objetivo; una etapa de restauración de señal residual para restaurar una señal residual reconstruida de la región objetivo de los datos codificados de la señal residual y una etapa de grabación para agregar la señal predicha a la señal residual reconstruida para restaurar una señal de pixel a la región objetivo y almacenar la señal de pixel como la señal previamente reconstruida, en donde la etapa de descodificación de información de predicción comprende además las etapas de: descodificación del tipo de divisan del bloque de predicción de la región objetivo y almacenamiento del tipo de división del bloque de predicción como información de predicción previamente descodificada a medios de almacenamiento de información de predicción que almacenan la información de predicción previamente descodificadas; seleccionar un candidato para información de movimiento a ser usado en la generación de una señal predicha de una región de predicción objetivo que sirve como una siguiente región de predicción en base a: la información de predicción de una región vecina a la región objetivo, el número de regiones de predicción previamente descodificadas en la región objetivo y la información de predicción previamente descodificadas de la región objetivo, en donde el candidato para información de movimiento es seleccionado de información de movimiento previamente descodificada de una región vecina a la región de predicción objetivo; descodificación de acuerdo con el número de candidatos para información de movimiento seleccionados, de información de bloques de fusión utilizando el candidato seleccionado para información de movimiento y la información de movimiento o descodificación ya sea de una de la información de bloques de fusión o la información de movimiento, en donde la información de bloques de fusión es indicadora de la generación de la señal predicha de la región de predicción objetivo y almacenar la información de movimiento a ser usada en la generación de la señal predicha de la región de predicción objetivo a los medios de almacenamiento de información de predicción.
12. Un programa de descodificación predictivo de imagen, caracterizado porque es para provocar que una computadora funciona como: medios de análisis de datos aptos para extraer de los datos comprimidos de una imagen, datos codificados de información de predicción para indicar un método de predicción a ser usado en la predicción de una señal de una región objetivo que sirve como objetivo de descodificación, datos codificados de una señal predicha de una región objetivo y datos codificados de una señal residual, en donde los datos comprimidos de la imagen resultan de la divisan en una pluralidad de regiones y codificación de la región objetivo; medios de descodificación de información de predicción aptos para descodificar los datos codificados de la información de predicción para restaurar el tipo de divisan del bloque de predicción e información de movimiento, el tipo de división del bloque de predicción indica el número de regiones de predicción y formas de región de las regiones de predicción, en donde las regiones de predicción son regiones sub-divididas de la región objetivo y la información de movimiento es usada para la adquisición de cada una de una pluralidad de señales predichas de las regiones de predicción respectivas de una señal previamente reconstruida; medios de generación de señal predicha aptos para generar la señal predicha de la región objetivo en base a la información de predicción asociada con la región objetivo; medios de restauración de señal residual aptos para restaurar una señal residual reconstruida de la señal objetivo de lós datos codificados de la señal residual y medios de grabación aptos para agregar la señal predicha a la señal residual reconstruida para restaurar la señal de pixel de la región objetivo y para almacenar la señal de pixel como la señal previamente reconstruida; en donde los medios de descodificación de información de predicción incluyen medios de almacenamiento de información de predicción aptos para almacenar información de predicción previamente descodificada de la región objetivo, los medios de descodificación de información de predicción son aptos además para descodificar el tipo de división del bloque de predicción objetivo y almacenar el tipo de división del bloque de predicción a los medios de almacenamiento de información de predicción; los medios de descodificación de información de predicción aptos además para seleccionar un candidato para información de movimiento a ser usado en la generación de una señal predicha de una región de predicción objetivo que sirve como una región de predicción siguiente de información de movimiento previamente descodificada de una región vecina a la región de predicción objetivo, el candidato para información de movimiento seleccionado en base a: la información de predicción de la región vecina a la región objetivo, el número de regiones de predicción previamente descodificadas en la región objetivo y la información de predicción previamente descodificada de la región objetivo; los medios de descodificación de información de predicción aptos además para descodificar, de acuerdo con el número de candidatos para información de movimiento seleccionados, información de bloques de fusión y utiliza el candidato seleccionado para información de movimiento y la información de movimiento o descodificar 4ya sea una de la información de bloques de fusión o la información de movimiento, en donde la información de bloques de fusión es indicadora de la generación de la señal predicha de la región de predicción objetivo y los medios de descodificación de información de predicción aptos además para almacenar la información de movimiento a ser usada en la generación de la señal predicha de la región de predicción objetivo a los medios de almacenamiento de información de predicción.
13. Un dispositivo de codificación de video, caracterizado porque comprende: medios de división aptos para dividir una imagen de entrada en una secuencia de video en una pluralidad de divisiones ; medios de generación de sub-división aptos para dividir una división objetivo de procesamiento generada por los medios de división en una pluralidad de sub-divisiones para generar información de formas para especificar formas de la sub-divisiones ; medios de detección de movimiento aptos para detectar un vector de movimiento de la división objetivo de procesamiento; medios de generación de señal predicha aptos para generar una señal predicha de la división objetivo de procesamiento de una señal de imagen previamente reconstruida utilizando el vector de movimiento detectado por los medios de detección de movimiento; medios de predicción de movimiento aptos para generar un predictor detector de movimiento de la división objetivo de procesamiento en base a la información de forma generada por los medios de generación de sub-división y un vector de movimiento de una región parcial previamente procesada, la región parcial previamente procesada es una división o una sub-división previa en un orden de procesamiento a la división objetivo de procesamiento; medios de generación de vector de movimiento diferencial aptos para generar un vector de movimiento diferencial en base a una diferencia entre el vector de movimiento usado en la generación de la señal predicha de la división objetivo de procesamiento y el predictor de vector de movimiento; medios de generación de señal residual aptos para generar una señal residual en base a una diferencia entre la señal predicha y una señal de pixel de la división objetivo de procesamiento; medios de adición aptos para agregar la señal residual a la señal predicha para generar una señal de imagen reconstruida; medios de almacenamiento aptos para almacenar la señal de imagen reconstruida como una señal de imagen previamente reconstruida y medios de codificación aptos para codificar la señal residual generada por los medios de generación de señal residual, el vector de movimiento diferencial generado por los medios de generación de vector diferencial y la información de forma generada por los medios de generación de sub-división para generar datos comprimidos, en donde, cuando una sub-división objetivo de procesamiento en la división objetivo de procesamiento no tiene contacto con una división previa en el orden de procesamiento a la sub-división objetivo de procesamiento, los medios de predicción de movimiento son aptos para generar el predictor de vector de movimiento de la sub-división objetivo de procesamiento en base al vector de movimiento de una región parcial previamente procesada que pertenece ya sea a un dominio que también contiene la sub-división objetivo de procesamiento u otro dominio, en donde el dominio y el otro dominio son divididos por una línea de extensión de una frontera entre la sub-división objetivo de procesamiento y otra sub-división en la división objetivo de procesamiento.
14. Un método para codificar una secuencia de video, caracterizado porque comprende: una etapa de división para dividir una imagen de entrada en la secuencia de video en una pluralidad de divisiones; una etapa de generación de sub-división para dividir una división objetivo de procesamiento generada en la etapa de división en una pluralidad de sub-divisiones y generar información de forma para especificar las formas de la subdivisiones ; una etapa de detección de movimiento para detectar un vector de movimiento de la división objetivo de procesamiento; una etapa de generación de señal predicha para generar una señal predicha de la división objetivo de procesamiento de una señal de imagen previamente reconstruida, utilizando el vector de movimiento detectado en la etapa de detección de movimiento; una etapa de predicción de movimiento para generar un predictor de vector de movimiento de la división objetivo de procesamiento, en base a la información de forma generada en la etapa de generación de sub-división y un vector de movimiento de una región parcial previamente procesada, en donde la región parcial previamente procesada es una división o una sub-división previa en un orden de procesamiento a la división objetivo de procesamiento; una etapa de generación de vector de movimiento diferencial para generar un vector de movimiento diferencial en base a una diferencia entre el vector de movimiento de la división objetivo.de procesamiento y el predictor de vector de movimiento; una etapa de generación de señal residual para generar una señal residual en base a una diferencia entre la señal predicha de la división objetivo de procesamiento y una señal de pixel de la división objetivo de procesamiento; una etapa de adición para agregar la señal residual a la señal predicha para generar una señal de imagen reconstruida; una etapa de almacenamiento para almacenar la señal de imagen reconstruida como una señal de imagen previamente reconstruida y una etapa de. codificación para codificar, para generar los datos comprimidos, la señal residual generada en la etapa de generación de señal residual, el vector de movimiento diferencial generado en la etapa de generación de vector de movimiento diferencial y la información de forma generada en la etapa de generación de sub-división; en donde, cuando una sub-división objetivo de procesamiento en la división objetivo de procesamiento no tiene contacto con una división previa en el orden de procesamiento a la sub-división objetivo de procesamiento, la etapa de predicción de movimiento comprende generar un predictor de vector de movimiento de la sub-división objetivo de procesamiento en base al vector de movimiento de la región parcial previamente procesada que pertenece ya sea a un dominio que también contiene la sub-división objetivo de procesamiento u otro dominio, el dominio y el otro dominio son divididos por una línea de extensión de una frontera entre la sub-división objetivo de procesamiento y otra sub-división en la división objetivo de procesamiento.
15. Un programa de codificación de video, caracterizado porque es para provocar que una computadora funcione como: medios de división aptos para dividir una imagen de entrada en una secuencia de video en una pluralidad de divisiones; medios de generación de sub-división aptos para dividir una división objetivo de procesamiento generada por los medios de división en una pluralidad de sub-divisiones y para generar información de forma para especificar las formas de las sub-divisiones; medios de detección de movimiento aptos para detectar un vector de movimiento de la división objetivo de procesamiento ; medios de generación de señal predicha aptos para generar una señal predicha de la división objetivo de procesamiento de una señal de imagen previamente reconstruida, utilizando el vector de movimiento detectado por los medios de detección de movimiento; medios de predicción de movimiento aptos para generar un predictor de vector de movimiento de la división objetivo de procesamiento, en base a la información de forma generada por los medios de generación de sub-división y un vector de movimiento de una región parcial previamente procesada, la región previamente procesada es una división o una sub-división previa en el orden de procesamiento a la división objetivo de procesamiento; medios de generación de vector de movimiento diferencial aptos para generar un vector de movimiento diferencial en base a una diferencia entre el vector de movimiento usado en la generación de la señal predicha de la división objetivo de procesamiento y el predictor de vector de movimiento; medios de generación de señal residual aptos para generar una señal residual en base a una diferencia entre la señal predicha y una señal de pixel de la división objetivo de procesamiento; medios de adición aptos para agregar la señal residual a la señal predicha para generar un señal de imagen reconstruida ; medios de almacenamiento aptos para almacenar la señal de imagen reconstruida como una señal de imagen previamente reconstruida y medios de codificación aptos para codificar la señal residual generada por los medios de generación de señal residual, el vector de movimiento diferencial generado por los medios de generación vector diferencial y la información de forma generada por los medios de generación de subdivisión para generar datos comprimidos, en donde, cuando una sub-división objetivo de procesamiento en la división objetivo de procesamiento no tiene contacto con una división previa en el orden de procesamiento a la sub-división objetivo de procesamiento, los medios de predicción de movimiento son aptos además para generar un predictor de vector de movimiento de la subdivisión objetivo de procesamiento en base al vector de movimiento de la región parcial previamente procesada que pertenece ya sea a uno u otro de un dominio que también contiene la su-división objetivo de procesamiento u otro dominio, el dominio y el otro dominio son divididos por una línea de extensión de una frontera entre la sub-división objetivo de procesamiento y otra sub-división en la división objetivo de procesamiento.
16. Un dispositivo de descodificación de video, caracterizado porque comprende: medios de descodificación aptos para descodificar los datos comprimidos para generar una señal residual reconstruida de una división objetivo de procesamiento en una imagen, un vector de movimiento diferencial de la división objetivo de procesamiento e información de forma para especificar las formas de una pluralidad de sub-divisiones en la división objetivo de procesamiento; medios de predicción de movimiento aptos para generar un predictor de vector de movimiento de la división objetivo de procesamiento, en base a la información de forma y un vector de movimiento de una región parcial previamente procesada, la región parcial previamente procesada es una división o una sub-división previa en el orden de procesamiento a la división objetivo de procesamiento; medios de adición de vector aptos para agregar el predictor de vector de movimiento generado por los medios de predicción de movimiento al vector de movimiento diferencial generado por los medios de descodificación y para generar un vector de movimiento de la división objetivo de procesamiento; medios de generación de señal predicha aptos para generar una señal predicha de la región objetivo de procesamiento de una señal de imagen previamente reconstruida en base al vector de movimiento de la división objetivo de procesamiento; medios de adición aptos para agregar la señal predicha a la señal residual reconstruida generada por los medios de descodificación para generar una señal de imagen reconstruida y medios de almacenamiento aptos para generar la señal de imagen reconstruida como una señal de imagen previamente reconstruida, en donde, cuando la sub-división objetivo de procesamiento en la división objetivo de procesamiento no tiene contacto con una división previa en el orden de procesamiento a la sub-división objetivo de procesamiento, los medios de predicción de movimiento son aptos además para generar un predictor de vector de movimiento de la subdivisión objetivo de procesamiento, en base a un vector de movimiento de una región parcial previamente procesada que pertenece ya sea a un dominio que también contiene la sub-división objetivo de procesamiento u otro dominio, el dominio y el otro dominio son divididos por una línea de extensión e una frontera entre la sub-división objetivo de procesamiento y otra sub-división en la división objetivo de procesamiento.
17. Un método para descodificar datos comprimidos para generar una secuencia de video, caracterizado porque comprende : una etapa de descodificación para descodificar los datos comprimidos para generar una señal residual reconstruida de una división objetivo de procesamiento en una imagen, un vector de movimiento diferencial de la división objetivo de procesamiento e información de forma para especificar las formas de una pluralidad de sub-divisiones en la división objetivo de procesamiento; una etapa de predicción de movimiento para generar un predictor de vector de movimiento de la división objetivo de procesamiento en base a la información de forma y un vector de movimiento de una región parcial previamente procesada, la región parcial previamente procesada es una división o una sub-división previa en el orden de procesamiento a la división objetivo de procesamiento; una etapa de adición de vector para agregar el predictor de vector de movimiento generado en la etapa de predicción de movimiento al vector de movimiento diferencial generado en la etapa de descodificación para generar un vector de movimiento de la división objetivo de procesamiento; una etapa de generación de señal predicha para generar una señal predicha de la división objetivo de procesamiento de una señal de imagen previamente reconstruida en base al vector de movimiento de la región objetivo de procesamiento; una etapa de adición para agregar la señal predicha a la señal residual reconstruida generada en la etapa de descodificación para generar una señal de imagen reconstruida y una etapa de almacenamiento para almacenar la señal de imagen reconstruida como una señal de imagen previamente reconstruida, en donde, cuando la sub-división objetivo de procesamiento en la división objetivo de procesamiento no tiene contacto con una división previa en el orden de procesamiento a la sub-división objetivo de procesamiento, la etapa de predicción de movimiento comprende generar un predictor de vector de movimiento de la sub-división objetivo de procesamiento, en base al vector de movimiento de la región parcial previamente procesada que pertenece ya sea a un dominio que también contiene la sub-división objetivo de procesamiento u otro dominio, el dominio y el otro dominio son divididos por una línea de extensión de una frontera entre la sub-división objetivo de procesamiento y otra su-división en la división objetivo de procesamiento.
18. Un programa de descodificación de video, caracterizado porque es para permitir que una computadora funcione como: medios de descodificación aptos para descodificar datos comprimidos para generar una señal residual reconstruida de una división objetivo de procesamiento en una imagen, un vector de movimiento diferencial de la división objetivo de procesamiento e información de forma para especificar formas de una pluralidad de sub-divisiones en la división objetivo de procesamiento; medios de predicción de movimiento aptos para generar un vector de predictor de vector de movimiento de la división objetivo de procesamiento en base a la información de forma y un vector de movimiento de una región parcial previamente procesada, la región parcial previamente procesada es una división o una sub-división previa en el orden de procesamiento a la división objetivo de procesamiento; medios de división de vector aptos para agregar el predictor de vector de movimiento generado por los medios de predicción de movimiento a vector de movimiento diferencial generado por los medios de descodificación para generar un vector de movimiento de la división objetivo de procesamiento; medios de generación de señal predicha aptos para generar . una señal predicha de la división objetivo de procesamiento de una señal de imagen previamente reconstruida en base al vector de movimiento de la división objetivo de procesamiento; medios de adición aptos para agregar la señal predicha a la señal residual reconstruida generada por los medios de descodificación para generar una señal de imagen reconstruida y medios de almacenamiento aptos para almacenar la señal de imagen reconstruida como una señal de imagen previamente reconstruida, en donde, cuando una sub-división objetivo de procesamiento en la división objetivo de procesamiento no tiene contacto con una división previa en el orden de procesamiento a la sub-división objetivo de procesamiento, los medios de predicción de movimiento son aptos además para generar un predictor de vector de movimiento de la subdivisión objetivo de procesamiento, en base al vector de movimiento de una región parcial previamente procesada que pertenece ya sea a un dominio que contienen la sub-división objetivo de procesamiento u otro dominio, el dominio y el otro dominio son divididos por una línea de extensión de una frontera entre la sub-división objetivo de procesamiento y otra sub-división en la división objetivo de procesamiento.
MX2013000666A 2010-07-20 2011-07-14 Dispositivo de codificacion de prediccion de imagen, metodo de codificacion de prediccion de imagen, programa de codificacion de prediccion de imagen, dispositivo de descodificacion de prediccion de imagen, metodo de descodificacion de prediccion de imagen y programa de descodificacion de prediccion de imagen. MX2013000666A (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010163245 2010-07-20
JP2010174869 2010-08-03
PCT/JP2011/066120 WO2012011432A1 (ja) 2010-07-20 2011-07-14 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び、画像予測復号プログラム

Publications (1)

Publication Number Publication Date
MX2013000666A true MX2013000666A (es) 2013-02-26

Family

ID=45496857

Family Applications (5)

Application Number Title Priority Date Filing Date
MX2017011451A MX367864B (es) 2010-07-20 2011-07-14 Dispositivo de codificacion de prediccion de imagen, metodo de codificacion de prediccion de imagen, programa de codificación de prediccion de imagen, dispositivo de descodificacion de prediccion de imagen, metodo de descodificacion de prediccion de imagen y programa de descodificacion de prediccion de imagen.
MX2016004440A MX350471B (es) 2010-07-20 2011-07-14 Dispositivo de codificacion de prediccion de imagen, metodo de codificacion de prediccion de imagen, programa de codificacion de prediccion de imagen, dispositivo de descodificacion de prediccion de imagen, metodo de descodificacion de prediccion de imagen y programa de descodificacion de prediccion de imagen.
MX2015006752A MX338236B (es) 2010-07-20 2011-07-14 Dispositivo de codificacion de prediccion de imagen, metodo de codificacion de prediccion de imagen, programa de codificacion de prediccion de imagen, dispositivo de descodificacion de prediccion de imagen, metodo de descodificacion de prediccion de imagen y programa de descodificacion de prediccion de imagen.
MX2013000666A MX2013000666A (es) 2010-07-20 2011-07-14 Dispositivo de codificacion de prediccion de imagen, metodo de codificacion de prediccion de imagen, programa de codificacion de prediccion de imagen, dispositivo de descodificacion de prediccion de imagen, metodo de descodificacion de prediccion de imagen y programa de descodificacion de prediccion de imagen.
MX2019010472A MX2019010472A (es) 2010-07-20 2013-01-17 Dispositivo de codificacion de prediccion de imagen, metodo de codificacion de prediccion de imagen, programa de codificacion de prediccion de imagen, dispositivo de descodificacion de prediccion de imagen, metodo de descodificacion de prediccion de imagen y programa de descodificacion de prediccion de imagen.

Family Applications Before (3)

Application Number Title Priority Date Filing Date
MX2017011451A MX367864B (es) 2010-07-20 2011-07-14 Dispositivo de codificacion de prediccion de imagen, metodo de codificacion de prediccion de imagen, programa de codificación de prediccion de imagen, dispositivo de descodificacion de prediccion de imagen, metodo de descodificacion de prediccion de imagen y programa de descodificacion de prediccion de imagen.
MX2016004440A MX350471B (es) 2010-07-20 2011-07-14 Dispositivo de codificacion de prediccion de imagen, metodo de codificacion de prediccion de imagen, programa de codificacion de prediccion de imagen, dispositivo de descodificacion de prediccion de imagen, metodo de descodificacion de prediccion de imagen y programa de descodificacion de prediccion de imagen.
MX2015006752A MX338236B (es) 2010-07-20 2011-07-14 Dispositivo de codificacion de prediccion de imagen, metodo de codificacion de prediccion de imagen, programa de codificacion de prediccion de imagen, dispositivo de descodificacion de prediccion de imagen, metodo de descodificacion de prediccion de imagen y programa de descodificacion de prediccion de imagen.

Family Applications After (1)

Application Number Title Priority Date Filing Date
MX2019010472A MX2019010472A (es) 2010-07-20 2013-01-17 Dispositivo de codificacion de prediccion de imagen, metodo de codificacion de prediccion de imagen, programa de codificacion de prediccion de imagen, dispositivo de descodificacion de prediccion de imagen, metodo de descodificacion de prediccion de imagen y programa de descodificacion de prediccion de imagen.

Country Status (19)

Country Link
US (8) US9185409B2 (es)
EP (6) EP3661204B8 (es)
JP (8) JP5661114B2 (es)
KR (7) KR101695170B1 (es)
CN (7) CN105898326B (es)
AU (1) AU2011280629B2 (es)
BR (1) BR112013001351B1 (es)
CA (8) CA2805735C (es)
DK (6) DK3070945T3 (es)
ES (6) ES2887236T3 (es)
FI (1) FI3661210T3 (es)
HU (4) HUE056566T2 (es)
MX (5) MX367864B (es)
PL (3) PL3661211T3 (es)
PT (6) PT3661210T (es)
RU (8) RU2573208C2 (es)
SG (1) SG187094A1 (es)
TW (2) TWI469646B (es)
WO (1) WO2012011432A1 (es)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI1011698B1 (pt) 2009-03-23 2019-04-02 Ntt Docomo, Inc. Método de decodificação preditiva de imagem, dispositivo de decodificação preditiva de imagem, método de codificação preditiva de imagem, e dispositivo de codificação preditiva de imagem
WO2012077928A1 (ko) * 2010-12-07 2012-06-14 한국전자통신연구원 초고해상도 영상을 부호화하는 장치 및 방법, 그리고 복호화 장치 및 방법
SG187094A1 (en) 2010-07-20 2013-03-28 Ntt Docomo Inc Image prediction encoding device, image prediction encoding method, image prediction encoding program, image prediction decoding device, image prediction decoding method, and image prediction decoding program
JP5698541B2 (ja) * 2011-01-12 2015-04-08 株式会社Nttドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
CN102884794B (zh) * 2011-03-07 2016-08-10 松下知识产权经营株式会社 运动补偿装置、运动图像编码装置、运动图像解码装置、运动补偿方法、以及集成电路
JP2013207402A (ja) * 2012-03-27 2013-10-07 Nippon Hoso Kyokai <Nhk> 画像符号化装置及びプログラム
TWI666915B (zh) * 2012-04-06 2019-07-21 日商Jvc建伍股份有限公司 Image coding device, image coding method, and recording medium storing image coding program
TWI597976B (zh) * 2012-04-16 2017-09-01 Jvc Kenwood Corp Motion picture encoding apparatus, motion picture encoding method, and recording medium for moving picture encoding program
GB2501535A (en) 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
JP5972687B2 (ja) * 2012-07-02 2016-08-17 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP5798539B2 (ja) * 2012-09-24 2015-10-21 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP5719401B2 (ja) * 2013-04-02 2015-05-20 日本電信電話株式会社 ブロックサイズ決定方法、映像符号化装置、及びプログラム
CN103702127B (zh) * 2013-12-30 2016-10-12 清华大学 基于运动向量相关性的运动估计搜索范围预测方法和系统
WO2015100729A1 (en) * 2014-01-03 2015-07-09 Mediatek Singapore Pte. Ltd. Improved merging candidate list construction in 3dvc
CN103841405B (zh) * 2014-03-21 2016-07-06 华为技术有限公司 深度图像的编解码方法和编解码装置
WO2016044979A1 (en) * 2014-09-22 2016-03-31 Mediatek Singapore Pte. Ltd. Segmental prediction for video coding
WO2015196966A1 (en) * 2014-06-23 2015-12-30 Mediatek Singapore Pte. Ltd. Method of segmental prediction for depth and texture data in 3d and multi-view coding systems
WO2015196333A1 (en) * 2014-06-23 2015-12-30 Mediatek Singapore Pte. Ltd. Segmental prediction for video coding
KR20180006411A (ko) 2015-06-07 2018-01-17 엘지전자 주식회사 디블록킹 필터링을 수행하는 방법 및 장치
KR20180040517A (ko) * 2015-09-10 2018-04-20 삼성전자주식회사 비디오 부호화, 복호화 방법 및 장치
US10602157B2 (en) 2015-09-11 2020-03-24 Facebook, Inc. Variable bitrate control for distributed video encoding
US10506235B2 (en) 2015-09-11 2019-12-10 Facebook, Inc. Distributed control of video encoding speeds
US10499070B2 (en) 2015-09-11 2019-12-03 Facebook, Inc. Key frame placement for distributed video encoding
US10063872B2 (en) 2015-09-11 2018-08-28 Facebook, Inc. Segment based encoding of video
US10602153B2 (en) 2015-09-11 2020-03-24 Facebook, Inc. Ultra-high video compression
US10341561B2 (en) * 2015-09-11 2019-07-02 Facebook, Inc. Distributed image stabilization
US10375156B2 (en) 2015-09-11 2019-08-06 Facebook, Inc. Using worker nodes in a distributed video encoding system
FR3047379A1 (fr) * 2016-01-29 2017-08-04 Orange Procede de codage et decodage de donnees, dispositif de codage et decodage de donnees et programmes d'ordinateur correspondants
CN109565595B (zh) * 2016-06-24 2021-06-22 华为技术有限公司 一种使用基于分割的视频编码块划分的视频编码设备和方法
US20190253624A1 (en) * 2017-07-17 2019-08-15 Ki Baek Kim Image data encoding/decoding method and apparatus
US10957068B2 (en) * 2017-01-06 2021-03-23 Canon Kabushiki Kaisha Information processing apparatus and method of controlling the same
JP6894707B2 (ja) * 2017-01-06 2021-06-30 キヤノン株式会社 情報処理装置およびその制御方法、プログラム
US10218448B2 (en) * 2017-02-02 2019-02-26 Osram Sylvania Inc. System and method for determining vehicle position based upon light-based communication and time-of-flight measurements
US10531085B2 (en) * 2017-05-09 2020-01-07 Futurewei Technologies, Inc. Coding chroma samples in video compression
KR20200038943A (ko) * 2017-08-22 2020-04-14 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 이미지 인코더, 이미지 디코더, 이미지 인코딩 방법 및 이미지 디코딩 방법
CN116320470A (zh) * 2017-10-20 2023-06-23 富士通株式会社 动态图像解码装置、动态图像解码方法和存储介质
CN107659804B (zh) * 2017-10-30 2019-03-12 河海大学 一种针对虚拟现实头戴式显示设备的屏幕内容视频编码算法
US11025904B2 (en) * 2018-06-08 2021-06-01 Tencent America LLC Method and apparatus for temporal motion vector prediction
CN110662076B (zh) * 2018-06-29 2022-10-04 北京字节跳动网络技术有限公司 子块的边界增强
CN110677678B (zh) * 2018-07-01 2022-09-23 北京字节跳动网络技术有限公司 依赖形状的帧间编码
CN117834908A (zh) * 2018-07-02 2024-04-05 英迪股份有限公司 对视频进行解码的方法和对视频进行编码的方法
US10404980B1 (en) * 2018-07-10 2019-09-03 Tencent America LLC Intra prediction with wide angle mode in video coding
EP3855739A4 (en) * 2018-09-19 2021-07-28 Fujitsu Limited VIDEO CODING DEVICE, VIDEO CODING METHOD, VIDEO CODING PROGRAM, VIDEO DECODING DEVICE, VIDEO DECODING METHOD AND VIDEO DECODING PROGRAM
CN109547781B (zh) * 2018-10-26 2020-12-22 嘉兴奥恒进出口有限公司 基于图像预测的压缩方法及设备
FR3088511B1 (fr) * 2018-11-09 2021-05-28 Fond B Com Procede de decodage d’au moins une image, procede de codage, dispositifs, signal et programmes d’ordinateur correspondants.
CN115348443A (zh) * 2018-11-30 2022-11-15 杭州海康威视数字技术股份有限公司 一种运动信息确定方法、装置及其设备
US11102513B2 (en) 2018-12-06 2021-08-24 Tencent America LLC One-level transform split and adaptive sub-block transform
US11533506B2 (en) * 2019-02-08 2022-12-20 Tencent America LLC Method and apparatus for video coding
CN116800960A (zh) * 2019-03-12 2023-09-22 北京达佳互联信息技术有限公司 用于视频解码的方法、装置和存储介质
US11877010B2 (en) * 2019-06-23 2024-01-16 Lg Electronics Inc. Signaling method and device for merge data syntax in video/image coding system

Family Cites Families (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3869672A (en) 1972-05-13 1975-03-04 Int Standard Electric Corp Method and arrangements for the digital control of operating functions, radio and television receivers
KR0166716B1 (ko) 1992-06-18 1999-03-20 강진구 블럭 dpcm을 이용한 부호화/복호화방법 및 장치
JPH07264598A (ja) 1994-03-23 1995-10-13 Nippon Telegr & Teleph Corp <Ntt> 動き補償方法、動きベクトル検出回路および動き補償回路
US5608458A (en) 1994-10-13 1997-03-04 Lucent Technologies Inc. Method and apparatus for a region-based approach to coding a sequence of video images
US5682204A (en) 1995-12-26 1997-10-28 C Cube Microsystems, Inc. Video encoder which uses intra-coding when an activity level of a current macro-block is smaller than a threshold level
EP1229740A3 (en) 1996-01-22 2005-02-09 Matsushita Electric Industrial Co., Ltd. Method and device for digital image encoding and decoding
KR100371130B1 (ko) 1996-05-28 2003-02-07 마쯔시다덴기산교 가부시키가이샤 화상예측 복호화 장치 및 그 방법과 화상예측 부호화 장치및 그 방법
EP0817499A3 (en) 1996-06-28 2002-05-22 Matsushita Electric Industrial Co., Ltd. Image coding method using extrapolated pixels in insignificant areas of blocks
JP2004343788A (ja) 1996-10-31 2004-12-02 Toshiba Corp 画像符号化装置および画像復号化装置および画像符号化データを記録した記録媒体
US6687405B1 (en) 1996-11-13 2004-02-03 Koninklijke Philips Electronics N.V. Image segmentation
CN1155259C (zh) * 1996-11-26 2004-06-23 松下电器产业株式会社 运动图象可变比特率编码装置和编码方法
US6359929B1 (en) 1997-07-04 2002-03-19 Matsushita Electric Industrial Co., Ltd. Image predictive decoding method, image predictive decoding apparatus, image predictive coding apparatus, and data storage medium
EP1788815A3 (en) * 1997-11-05 2008-10-15 Sony Corporation Rate control for video transcoding with resolution conversion
US6483521B1 (en) 1998-02-02 2002-11-19 Matsushita Electric Industrial Co., Ltd. Image composition method, image composition apparatus, and data recording media
US7184482B2 (en) * 1999-04-17 2007-02-27 Altera Corporation Encoding system using motion vectors to represent frame-to-frame changes, wherein a decoder uses predictions of motion vectors in decoding
US6765964B1 (en) 2000-12-06 2004-07-20 Realnetworks, Inc. System and method for intracoding video data
US7643559B2 (en) 2001-09-14 2010-01-05 Ntt Docomo, Inc. Coding method, decoding method, coding apparatus, decoding apparatus, image processing system, coding program, and decoding program
US7336711B2 (en) 2001-11-16 2008-02-26 Ntt Docomo, Inc. Image encoding method, image decoding method, image encoder, image decode, program, computer data signal, and image transmission system
JP3861698B2 (ja) * 2002-01-23 2006-12-20 ソニー株式会社 画像情報符号化装置及び方法、画像情報復号装置及び方法、並びにプログラム
US7003035B2 (en) * 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
HUE045566T2 (hu) 2002-04-19 2020-01-28 Panasonic Ip Corp America Mozgásvektor-számítási eljárás
CN1312927C (zh) 2002-07-15 2007-04-25 株式会社日立制作所 动态图像编码方法及解码方法
JP3504256B1 (ja) 2002-12-10 2004-03-08 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化方法、動画像復号方法、動画像符号化装置、及び動画像復号装置
KR100560843B1 (ko) 2003-04-10 2006-03-13 에스케이 텔레콤주식회사 비디오 부호기에서 적응 움직임 벡터의 탐색 영역을결정하는 방법 및 장치
JP4373702B2 (ja) 2003-05-07 2009-11-25 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
JP2005005844A (ja) 2003-06-10 2005-01-06 Hitachi Ltd 計算装置及び符号化処理プログラム
US9210441B2 (en) 2003-06-25 2015-12-08 Thomson Licensing Fast mode-decision encoding for interframes
US7646815B2 (en) * 2003-07-15 2010-01-12 Lsi Corporation Intra estimation chroma mode 0 sub-block dependent prediction
US20050013498A1 (en) 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US8064520B2 (en) 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US7400681B2 (en) 2003-11-28 2008-07-15 Scientific-Atlanta, Inc. Low-complexity motion vector prediction for video codec with two lists of reference pictures
JP4213646B2 (ja) 2003-12-26 2009-01-21 株式会社エヌ・ティ・ティ・ドコモ 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法、及び画像復号プログラム。
JP4313710B2 (ja) 2004-03-25 2009-08-12 パナソニック株式会社 画像符号化方法および画像復号化方法
JP4414904B2 (ja) 2004-04-16 2010-02-17 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム
CN101023672A (zh) * 2004-07-12 2007-08-22 诺基亚公司 在可调整视频编码中用于运动预测的系统和方法
AR049593A1 (es) * 2004-07-20 2006-08-16 Qualcomm Inc Metodo y aparato para predecir el vector de movimiento en compresion de video temporal.
US8085846B2 (en) 2004-08-24 2011-12-27 Thomson Licensing Method and apparatus for decoding hybrid intra-inter coded blocks
CN100471280C (zh) * 2005-01-07 2009-03-18 株式会社Ntt都科摩 运动图像编码及译码装置、方法
KR101108681B1 (ko) 2005-01-19 2012-01-25 삼성전자주식회사 동영상 코덱에서의 주파수 변환 계수 예측 방법 및 장치,이를 구비한 부호화 및 복호화 장치와 방법
US7580456B2 (en) * 2005-03-01 2009-08-25 Microsoft Corporation Prediction-based directional fractional pixel motion estimation for video coding
US20070025444A1 (en) 2005-07-28 2007-02-01 Shigeyuki Okada Coding Method
US8446954B2 (en) 2005-09-27 2013-05-21 Qualcomm Incorporated Mode selection techniques for multimedia coding
RU2369038C1 (ru) 2005-11-30 2009-09-27 Кабусики Кайся Тосиба Способ кодирования изображения/декодирования изображения, устройство кодирования изображения/декодирования изображения
US8446956B2 (en) * 2006-01-05 2013-05-21 Thomson Licensing Inter-layer motion prediction method using resampling
TW200806040A (en) * 2006-01-05 2008-01-16 Nippon Telegraph & Telephone Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
CN102611892B (zh) 2006-03-16 2014-10-08 华为技术有限公司 在编码过程中实现自适应量化的方法及装置
JP5002286B2 (ja) 2006-04-27 2012-08-15 キヤノン株式会社 画像符号化装置、画像符号化方法、プログラム及び記憶媒体
JPWO2007136088A1 (ja) * 2006-05-24 2009-10-01 パナソニック株式会社 画像符号化装置、画像符号化方法、及び画像符号化用集積回路
US20080026729A1 (en) 2006-07-31 2008-01-31 Research In Motion Limited Method and apparatus for configuring unique profile settings for multiple services
EP2047687B1 (en) 2006-08-02 2018-05-16 Thomson Licensing DTV Adaptive geometric partitioning for video encoding
BRPI0715770B1 (pt) * 2006-08-25 2020-03-10 Interdigital Vc Holdings, Inc. Método, aparelho e mídia de armazenamento para particionamento com menor resolução
JP4999859B2 (ja) * 2006-10-30 2012-08-15 日本電信電話株式会社 予測参照情報生成方法、動画像符号化及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体
KR101383540B1 (ko) 2007-01-03 2014-04-09 삼성전자주식회사 복수의 움직임 벡터 프리딕터들을 사용하여 움직임 벡터를추정하는 방법, 장치, 인코더, 디코더 및 복호화 방법
DE602007010835D1 (de) * 2007-01-18 2011-01-05 Fraunhofer Ges Forschung Qualitätsskalierbarer videodatenstrom
US20080240242A1 (en) 2007-03-27 2008-10-02 Nokia Corporation Method and system for motion vector predictions
KR20090132629A (ko) 2007-04-09 2009-12-30 가부시키가이샤 엔.티.티.도코모 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램
BRPI0809512A2 (pt) 2007-04-12 2016-03-15 Thomson Licensing método e aparelho para mesclagem dependente de contexto para modos salto-direto para codificação e decodificação de vídeo
JP4788649B2 (ja) 2007-04-27 2011-10-05 株式会社日立製作所 動画像記録方法及びその装置
JP5188875B2 (ja) * 2007-06-04 2013-04-24 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、画像予測復号装置、画像予測符号化方法、画像予測復号方法、画像予測符号化プログラム、及び画像予測復号プログラム
JP2008311781A (ja) 2007-06-12 2008-12-25 Ntt Docomo Inc 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
JP4947364B2 (ja) 2007-06-22 2012-06-06 ソニー株式会社 情報処理システムおよび方法、情報処理装置および方法、並びにプログラム
KR100901874B1 (ko) 2007-07-11 2009-06-09 한국전자통신연구원 비디오 인코딩을 위한 인터 모드 결정 방법
JP4678015B2 (ja) * 2007-07-13 2011-04-27 富士通株式会社 動画像符号化装置及び動画像符号化方法
KR101408698B1 (ko) 2007-07-31 2014-06-18 삼성전자주식회사 가중치 예측을 이용한 영상 부호화, 복호화 방법 및 장치
JP2009111691A (ja) 2007-10-30 2009-05-21 Hitachi Ltd 画像符号化装置及び符号化方法、画像復号化装置及び復号化方法
US20090168871A1 (en) * 2007-12-31 2009-07-02 Ning Lu Video motion estimation
JP4990927B2 (ja) 2008-03-28 2012-08-01 三星電子株式会社 動きベクトル情報の符号化/復号化方法及び装置
JP5406465B2 (ja) * 2008-04-24 2014-02-05 株式会社Nttドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
US8548041B2 (en) * 2008-09-25 2013-10-01 Mediatek Inc. Adaptive filter
JP5240530B2 (ja) 2008-10-02 2013-07-17 ソニー株式会社 画像処理装置および方法
KR20110091000A (ko) 2008-11-07 2011-08-10 미쓰비시덴키 가부시키가이샤 화상 부호화 장치 및 화상 복호 장치
CN103647972B (zh) * 2008-12-03 2017-04-12 日立麦克赛尔株式会社 运动图像解码方法和运动图像编码方法
BRPI1011698B1 (pt) 2009-03-23 2019-04-02 Ntt Docomo, Inc. Método de decodificação preditiva de imagem, dispositivo de decodificação preditiva de imagem, método de codificação preditiva de imagem, e dispositivo de codificação preditiva de imagem
US9626769B2 (en) * 2009-09-04 2017-04-18 Stmicroelectronics International N.V. Digital video encoder system, method, and non-transitory computer-readable medium for tracking object regions
KR101447796B1 (ko) * 2010-04-13 2014-10-07 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 평면 간 예측
JP5701291B2 (ja) * 2010-04-13 2015-04-15 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 動き補償方法、画像復号方法、画像符号化方法、動き補償装置、プログラム、及び集積回路
KR101484281B1 (ko) * 2010-07-09 2015-01-21 삼성전자주식회사 블록 병합을 이용한 비디오 부호화 방법 및 그 장치, 블록 병합을 이용한 비디오 복호화 방법 및 그 장치
SI2924995T1 (sl) 2010-07-09 2018-10-30 Samsung Electronics Co., Ltd. Postopek za dekodiranje videa z uporabo združevanja blokov
SG187094A1 (en) 2010-07-20 2013-03-28 Ntt Docomo Inc Image prediction encoding device, image prediction encoding method, image prediction encoding program, image prediction decoding device, image prediction decoding method, and image prediction decoding program
ES2773774T3 (es) * 2010-10-06 2020-07-14 Ntt Docomo Inc Dispositivo, método y programa de codificación bipredictiva de imágenes, y dispositivo, método y programa de decodificación bipredictiva de imágenes
KR20120140181A (ko) * 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
CA2824755C (en) * 2011-09-23 2018-01-16 Kt Corporation Method for deriving a merge candidate block and device using same

Also Published As

Publication number Publication date
TW201215161A (en) 2012-04-01
RU2667716C1 (ru) 2018-09-24
MX338236B (es) 2016-04-08
KR101729051B1 (ko) 2017-04-21
KR20130041146A (ko) 2013-04-24
US10230987B2 (en) 2019-03-12
JP2015065690A (ja) 2015-04-09
JP2019140703A (ja) 2019-08-22
RU2685390C1 (ru) 2019-04-17
WO2012011432A1 (ja) 2012-01-26
EP2597874A1 (en) 2013-05-29
JP2016165135A (ja) 2016-09-08
TWI519140B (zh) 2016-01-21
ES2887307T3 (es) 2021-12-22
DK2597874T3 (da) 2020-09-28
ES2785606T3 (es) 2020-10-07
CN105120280A (zh) 2015-12-02
CA3011241C (en) 2019-09-10
AU2011280629B2 (en) 2015-08-06
US20180014032A1 (en) 2018-01-11
PT3664453T (pt) 2022-09-20
CN105847837B (zh) 2019-01-04
BR112013001351A2 (pt) 2016-05-17
CN105120278A (zh) 2015-12-02
US20180249180A1 (en) 2018-08-30
EP3661204A1 (en) 2020-06-03
RU2685389C1 (ru) 2019-04-17
CA2805735C (en) 2016-02-09
US20160021389A1 (en) 2016-01-21
MX350471B (es) 2017-09-07
CN105898327A (zh) 2016-08-24
MX2019010472A (es) 2019-10-15
US10542287B2 (en) 2020-01-21
US10225580B2 (en) 2019-03-05
RU2013107368A (ru) 2014-10-20
JP5951063B2 (ja) 2016-07-13
CN105847837A (zh) 2016-08-10
CA3011236A1 (en) 2012-01-26
CA3102661A1 (en) 2012-01-26
CN105898327B (zh) 2019-03-01
US20130136184A1 (en) 2013-05-30
ES2887236T3 (es) 2021-12-22
US9185409B2 (en) 2015-11-10
DK3661210T3 (da) 2023-09-11
KR101903643B1 (ko) 2018-10-02
KR20170003736A (ko) 2017-01-09
DK3664453T3 (da) 2022-09-12
CA2903530C (en) 2018-08-28
SG187094A1 (en) 2013-03-28
RU2573208C2 (ru) 2016-01-20
KR20170137962A (ko) 2017-12-13
EP3664453A2 (en) 2020-06-10
PL3664453T3 (pl) 2022-11-21
CN105120280B (zh) 2018-04-20
KR20170045368A (ko) 2017-04-26
CN103004206A (zh) 2013-03-27
EP3661210A1 (en) 2020-06-03
US9794592B2 (en) 2017-10-17
PT3661204T (pt) 2021-09-22
JP5661114B2 (ja) 2015-01-28
KR101772183B1 (ko) 2017-08-28
PL3661210T3 (pl) 2023-11-06
TW201507445A (zh) 2015-02-16
US20180249181A1 (en) 2018-08-30
EP3661211A1 (en) 2020-06-03
US20180278959A1 (en) 2018-09-27
BR112013001351B1 (pt) 2019-01-29
EP2597874B1 (en) 2020-08-26
ES2820437T3 (es) 2021-04-21
JP6535780B2 (ja) 2019-06-26
EP3664453A3 (en) 2020-07-29
MX367864B (es) 2019-09-05
PT3661211T (pt) 2021-09-24
EP3661210B1 (en) 2023-08-09
CA3011221C (en) 2019-09-03
RU2685393C1 (ru) 2019-04-17
ES2955687T3 (es) 2023-12-05
KR20170098990A (ko) 2017-08-30
EP3664453B1 (en) 2022-08-24
JPWO2012011432A1 (ja) 2013-09-09
CA3011236C (en) 2019-09-03
TWI469646B (zh) 2015-01-11
CA2805735A1 (en) 2012-01-26
RU2685388C1 (ru) 2019-04-17
CN105898326A (zh) 2016-08-24
HUE056566T2 (hu) 2022-02-28
US20170034531A1 (en) 2017-02-02
CN105120279A (zh) 2015-12-02
US10063888B1 (en) 2018-08-28
RU2658798C1 (ru) 2018-06-22
AU2011280629A1 (en) 2013-02-21
US9986261B2 (en) 2018-05-29
JP2019165499A (ja) 2019-09-26
EP2597874A4 (en) 2016-03-09
FI3661210T3 (fi) 2023-08-31
KR101770662B1 (ko) 2017-08-23
HUE056567T2 (hu) 2022-02-28
PL3661211T3 (pl) 2021-12-13
CN105120278B (zh) 2016-11-30
EP3070945A1 (en) 2016-09-21
JP2015130692A (ja) 2015-07-16
KR101600919B1 (ko) 2016-03-21
KR20160030322A (ko) 2016-03-16
PT3070945T (pt) 2020-04-22
US9497480B2 (en) 2016-11-15
CA3011217C (en) 2021-08-03
JP2019140704A (ja) 2019-08-22
US20180332307A1 (en) 2018-11-15
CA3011221A1 (en) 2012-01-26
CN105120279B (zh) 2018-05-29
PT2597874T (pt) 2020-09-25
CA2903530A1 (en) 2012-01-26
KR20170044764A (ko) 2017-04-25
CA3102661C (en) 2022-05-17
CN103004206B (zh) 2016-06-01
HUE063032T2 (hu) 2023-12-28
RU2619202C1 (ru) 2017-05-12
CN105898326B (zh) 2019-01-29
HUE059918T2 (hu) 2023-01-28
JP5712330B2 (ja) 2015-05-07
PT3661210T (pt) 2023-09-04
KR101695170B1 (ko) 2017-01-11
CA3011241A1 (en) 2012-01-26
JP2018121354A (ja) 2018-08-02
EP3661211B1 (en) 2021-08-25
EP3661204B1 (en) 2021-08-18
CA3050052A1 (en) 2012-01-26
DK3661204T3 (da) 2021-09-20
DK3070945T3 (da) 2020-04-06
EP3661204B8 (en) 2021-09-22
DK3661211T3 (da) 2021-09-27
CA3011217A1 (en) 2012-01-26
ES2926898T3 (es) 2022-10-31
EP3070945B1 (en) 2020-03-11
KR101809187B1 (ko) 2017-12-14

Similar Documents

Publication Publication Date Title
MX2013000666A (es) Dispositivo de codificacion de prediccion de imagen, metodo de codificacion de prediccion de imagen, programa de codificacion de prediccion de imagen, dispositivo de descodificacion de prediccion de imagen, metodo de descodificacion de prediccion de imagen y programa de descodificacion de prediccion de imagen.
AU2020201373B2 (en) Image prediction encoding device, image prediction encoding method, image prediction encoding program, image prediction decoding device, image prediction decoding method, and image prediction decoding program
AU2015252039A1 (en) Image prediction encoding device, image prediction encoding method, image prediction encoding program, image prediction decoding device, image prediction decoding method, and image prediction decoding program

Legal Events

Date Code Title Description
FG Grant or registration