ES2778227T3 - Dispositivo, método y programa de decodificación bipredictiva de imágenes - Google Patents

Dispositivo, método y programa de decodificación bipredictiva de imágenes Download PDF

Info

Publication number
ES2778227T3
ES2778227T3 ES15191817T ES15191817T ES2778227T3 ES 2778227 T3 ES2778227 T3 ES 2778227T3 ES 15191817 T ES15191817 T ES 15191817T ES 15191817 T ES15191817 T ES 15191817T ES 2778227 T3 ES2778227 T3 ES 2778227T3
Authority
ES
Spain
Prior art keywords
motion information
information
target region
motion
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15191817T
Other languages
English (en)
Inventor
Yoshinori Suzuki
Choong Seng Boon
Thiow Keng Tan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Application granted granted Critical
Publication of ES2778227T3 publication Critical patent/ES2778227T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Dispositivo de decodificación predictiva de imágenes para generar una señal predicha de una región objetivo, comprendiendo el dispositivo: medios (202) de análisis de datos adaptados para extraer, a partir de datos comprimidos, datos codificados de información de indicación de la región objetivo y datos codificados de una señal residual de la región objetivo, identificando los datos codificados de información de indicación un conjunto de información de movimiento incluyendo dos fragmentos de información de movimiento asociados con regiones adyacentes, adyacentes a la región objetivo, incluyendo cada uno de los dos fragmentos de información de movimiento un número de trama y un vector de movimiento, identificándose el número de trama por una identificación de lista de imágenes de referencia y un índice de imágenes de referencia; medios (208) de decodificación de información de predicción adaptados para decodificar los datos codificados de información de indicación para restaurar la información de indicación; medios (121) de derivación de información de movimiento adaptados para derivar un conjunto de conjuntos de información de movimiento candidata, comprendiendo cada conjunto de información de movimiento dos fragmentos de información de movimiento para decodificación bipredictiva, en el que el conjunto de conjuntos información de movimiento candidata comprende todas las combinaciones por pares posibles de información de movimiento seleccionada de una pluralidad de regiones adyacentes de la región objetivo, en el que en cada uno de los conjuntos de información de movimiento candidata entre los dos fragmentos de información de movimiento y los números de trama respectivos son diferentes entre sí, o los vectores de movimiento respectivos son diferentes entre sí; medios (209) de determinación de información de movimiento adaptados para seleccionar, de los conjuntos de información de movimiento candidata, un conjunto de información de movimiento que va a usarse en la generación de la señal predicha de la región objetivo basándose en la información de indicación; medios (216) de compensación de movimiento adaptados para generar la señal predicha de la región objetivo combinando dos señales obtenidas a partir de una o más imágenes reconstruidas almacenadas en la memoria basándose en los dos fragmentos de información de movimiento que se identifican mediante el conjunto de información de movimiento seleccionado en los medios (209) de determinación de información de movimiento; medios (104) de grabación de información de movimiento adaptados para almacenar información de movimiento utilizada para la generación de la señal predicha de la región objetivo en la memoria; medios (203, 204, 207) de restauración de señal residual adaptados para restaurar una señal residual de la región objetivo a partir de los datos codificados de la señal residual; medios (205, 104) de grabación de imagen adaptados para reconstruir una señal de píxel de la región objetivo basándose en la señal predicha y la señal residual restaurada, y para almacenar la señal de píxel reconstruida como una parte de una imagen reconstruida.

Description

DESCRIPCIÓN
Dispositivo, método y programa de decodificación bipredictiva de imágenes
Campo técnico
Realizaciones de la presente invención se refieren a un dispositivo de codificación predictiva de imágenes, a un método de codificación predictiva de imágenes, a un programa de codificación predictiva de imágenes, a un dispositivo de decodificación predictiva de imágenes, a un método de decodificación predictiva de imágenes y a un programa de decodificación predictiva de imágenes y, más particularmente, a un dispositivo de codificación predictiva de imágenes, a un método de codificación predictiva de imágenes, a un programa de codificación predictiva de imágenes, a un dispositivo de decodificación predictiva de imágenes, a un método de decodificación predictiva de imágenes y a un programa de decodificación predictiva de imágenes para generar una señal predicha de un bloque objetivo, usando información de movimiento de bloques adyacentes.
Técnica anterior
Las tecnologías de codificación por compresión se usan para una transmisión y un almacenamiento eficientes de datos de vídeo e imágenes fijas. Las técnicas definidas en las normas MPEG-1 a 4 y las normas H.261 a H.264 de la ITU (Unión Internacional de Telecomunicaciones) se usan habitualmente para datos de vídeo.
En estas técnicas de codificación, una imagen como objetivo de codificación se divide para dar una pluralidad de bloques y luego se llevan a cabo un procedimiento de codificación y un procedimiento de decodificación bloque a bloque. En la codificación predictiva intraimagen, se genera una señal predicha usando una señal de imagen reconstruida (o una señal restaurada de datos de imagen comprimidos) de una región adyacente presente en la misma imagen que un bloque objetivo y luego se codifica una señal de diferencia de una diferencia entre la señal predicha y una señal de píxel del bloque objetivo. En la codificación predictiva interimagen, se genera una señal predicha con compensación de movimiento con referencia a una señal de imagen reconstruida de una región adyacente presente en una imagen diferente de un bloque objetivo, y se codifica una señal de diferencia de una diferencia entre la señal predicha y una señal del bloque objetivo.
Por ejemplo, la codificación predictiva intraimagen de la norma H.264 emplea un método de generación de la señal predicha extrapolando valores de píxel anteriormente reproducidos de una región contigua a un bloque que sirve como objetivo de codificación, en direcciones predeterminadas. La figura 17 es un diagrama esquemático para explicar el método de predicción intraimagen usado en la norma H.264 de la ITU. En (A) de la figura 17, un bloque 802 objetivo es un bloque que sirve como objetivo de codificación, y un grupo 801 de píxeles que consiste en píxeles A a M contiguos a un límite del bloque 802 objetivo es una región adyacente, que es una señal de imagen anteriormente reproducida en un procesamiento anterior.
En la predicción mostrada en (A) de la figura 17, la señal predicha se genera extendiendo hacia abajo el grupo 801 de píxeles como píxeles adyacentes ubicados inmediatamente por encima del bloque 802 objetivo. En la predicción mostrada en (B) de la figura 17, la señal predicha se genera extendiendo hacia la derecha píxeles anteriormente reproducidos (I a L) ubicados en el lado izquierdo del bloque 804 objetivo. Para métodos específicos para la generación de la señal predicha, se hace referencia, por ejemplo, al documento de patente 1. Se calcula una diferencia entre cada una de nueve señales predichas generadas mediante los métodos mostrados en (A) a (I) de la figura 17 de la manera descrita anteriormente, y la señal de píxel del bloque objetivo, y estas diferencias obtenidas se comparan para seleccionar un candidato para proporcionar una diferencia mínima, como señal predicha óptima. Tal como se describió anteriormente, la señal predicha puede generarse mediante extrapolación de píxeles. El contenido anterior se describe en el documento de patente 1 a continuación.
En la codificación predictiva interimagen habitual, la señal predicha se genera mediante un método de búsqueda en imágenes reconstruidas de una señal similar a la señal de píxel del bloque objetivo. Luego se realiza la codificación de un vector de movimiento como una cantidad de desplazamiento espacial entre el bloque objetivo y una región compuesta por la señal detectada, y una señal residual de la diferencia entre la señal de píxel del bloque objetivo y la señal predicha. La técnica de búsqueda del vector de movimiento para cada bloque tal como se describió anteriormente se denomina concordancia de bloques.
La figura 16 es un diagrama esquemático para explicar un procedimiento de concordancia de bloques. A continuación se describirá un procedimiento de generación de una señal predicha para un ejemplo de un bloque 702 objetivo en una imagen 701 objetivo de codificación. Una imagen 703 es una imagen reconstruida y una región 704 en la imagen reconstruida es una región ubicada espacialmente en la misma posición que el bloque 702 objetivo. En la concordancia de bloques, se establece un intervalo 705 de búsqueda que incluye la región 704. Una región 706 con una señal para minimizar la suma de diferencias absolutas con respecto a la señal de píxel del bloque 702 objetivo se detecta a partir de este intervalo de búsqueda. Se determina que la señal de esta región 706 es una señal predicha, y se detecta una cantidad de desplazamiento desde la región 704 hasta la región 706 como vector 707 de movimiento. También se emplea a menudo un método de preparar una pluralidad de imágenes de referencia, seleccionar una imagen de referencia que va a aplicarse a la concordancia de bloques para cada bloque objetivo, y detectar información de selección de imagen de referencia. En algunos casos en la norma H.264 se prepara una pluralidad de tipos de predicción de diferentes tamaños de bloque para la codificación de un vector de movimiento, con el fin de adaptarse a cambios de características locales de imágenes. Los tipos de predicción de la norma H.264 se describen, por ejemplo, en el documento de patente 2.
En la codificación por compresión de datos de vídeo, un orden de codificación de imágenes (tramas o campos) puede ser opcional. Por este motivo, hay tres tipos de técnicas en relación con el orden de codificación en la predicción interimagen para generar la señal predicha con referencia a imágenes reconstruidas. La primera técnica es una predicción hacia adelante para generar la señal predicha con referencia a una imagen reconstruida anterior en un orden de visualización, la segunda técnica es una predicción hacia atrás para generar la señal predicha con referencia a una imagen reconstruida futura en el orden de visualización, y la tercera técnica es una predicción bidireccional para realizar tanto una predicción hacia adelante como una predicción hacia atrás y promediar dos señales predichas. Los tipos de predicciones interimagen se describen, por ejemplo, en el documento de patente 3. En la norma H.264, la tercera técnica se realiza usando dos listas de imágenes de referencia que consisten cada una en una pluralidad de imágenes reconstruidas como candidatas para una imagen de referencia. Más específicamente, la concordancia de bloques se lleva a cabo usando la pluralidad de imágenes de referencia registradas en cada lista de imágenes de referencia para detectar dos regiones correspondientes a la región 706, y se promedian dos señales predichas así detectadas.
Se describirá un ejemplo de listas de imágenes de referencia con las figuras 5 y 6. En (A) de la figura 5, una imagen 505 indica una imagen objetivo de codificación y las imágenes 501 a 504 indican imágenes reconstruidas. Cada imagen se identifica mediante un número de trama (frame_num). Las identificaciones de lista de imágenes de referencia List0 y List1 en (A) de la figura 6 indican dos listas de imágenes de referencia y, en este ejemplo, cuatro imágenes de referencia están registradas en cada una de las dos listas de imágenes de referencia. Cada imagen de referencia se identifica mediante un índice de referencia (ref_idx).
Las imágenes reconstruidas que pueden registrarse en las listas de imágenes de referencia son básicamente opcionales. Al igual que en la tabla 521 mostrada en (A) de la figura 6, todas las imágenes de referencia registradas en las dos listas de imágenes de referencia pueden ser imágenes reconstruidas anteriores. Dado que las dos señales predichas son ambas señales predichas hacia adelante en este caso, la técnica de predicción para promediar las dos señales predichas se denomina predicción bipredictiva, en lugar de la predicción bidireccional. En la predicción bipredictiva, es necesario codificar dos combinaciones (información de movimiento) de vectores de movimiento e índices de referencia. Por tanto, con el fin de disminuir el recuento de bits, hay una técnica para realizar la predicción bipredictiva usando la información de movimiento identificada mediante List0 y la información de movimiento identificada mediante List1, a partir de la información de movimiento de bloques adyacentes.
Lista de referencias
Bibliografía de patentes
Documento de patente 1: patente estadounidense n.° 6.765.964
Documento de patente 2: patente estadounidense n.° 7.003.035
Documento de patente 3: patente estadounidense n.° 6.259.739
El documento US 2005/117646 A1 describe un método de predicción de vector de movimiento para su uso en codificación de vector de movimiento diferencial dentro de un codificador de vídeo basado en compensación de movimiento de bloque. El codificador de vídeo emplea una memoria intermedia de múltiples imágenes de referencia generalizadas que puede contener múltiples imágenes de referencia tanto en la dirección temporal hacia adelante como hacia atrás de la imagen actual.
En el documento US 2004/264570 A1 al codificar una imagen que va a usarse como una imagen de referencia por otra imagen, se almacena un vector de movimiento usado en codificación predictiva interimagen bajo control de una unidad de control de codificación de tal manera que se almacenan los vectores de movimiento de imágenes, menores en número que el número de imágenes de referencia.
En el documento “Video coding technology proposal by BBC (and Samsung)” por Davies (BBC) T, n.° JCTVC-A125, 16 de abril de 2010 se divulga la selección del mejor elemento de predicción (movimiento) de un conjunto dado. El índice del mejor elemento de predicción se señala desde el codificador hasta el decodificador.
Sumario de la invención
Problema técnico
La predicción bipredictiva implica promediar dos señales predichas similares, mediante lo cual puede eliminarse ruido en las señales predichas de manera más eficaz mediante un efecto de suavizado. Con este propósito, resulta eficaz adquirir dos señales con vectores de movimiento ligeramente diferentes a partir de una imagen de referencia idéntica. Sin embargo, en los métodos convencionales de predicción bipredictiva que usan la información de movimiento de bloques adyacentes, la selección de la información de movimiento que va a usarse en la generación de dos señales predichas se restringe mediante listas de imágenes de referencia. A causa de esta restricción, aunque un conjunto de dos fragmentos de información de movimiento de bloques adyacentes incluya vectores de movimiento de valores cercanos basados en la misma imagen de referencia, no pueden seleccionarse.
En el presente documento se supone que cuando un bloque 400 en la figura 7 es un bloque objetivo de codificación y los bloques 401 a 403 son bloques adyacentes al bloque objetivo, cada uno de los tres bloques adyacentes tiene dos fragmentos de información de movimiento identificados mediante List0 y List1. Según la técnica de la técnica anterior, las dos señales predichas se generan seleccionando uno de los tres fragmentos de información de movimiento identificados mediante List0 y uno de los tres fragmentos de información de movimiento identificados mediante List1, que son la información de movimiento de los tres bloques adyacentes. En general, el recuento de bits necesario para el índice de referencia ref_idx se vuelve más pequeño cuando el índice de referencia ref_idx es “0”; por tanto, a menudo se da el caso de que todos los índices de referencia ref_idx en la información de movimiento de bloques adyacentes son 0. En el caso en el que el índice de referencia es “0”, el uso de las listas (521) de imágenes de referencia en (A) de la figura 6 da como resultado la adquisición de las dos señales predichas a partir de una imagen de referencia con el número de trama (frame_num) de “3” y a partir de una imagen de referencia con el número de trama de “2”, respectivamente. En este caso, no es factible lograr un efecto de suavizado alto.
Como otro ejemplo, se supone una situación en la que dos listas de imágenes de referencia están compuestas por imágenes de referencia diferentes. En el caso, tal como se muestra en (B) de la figura 5, en el que una imagen 510 identificada mediante el número de trama de “3” es una imagen objetivo de codificación, en el que las imágenes 507, 508, 509 y 511 identificadas mediante los números de trama de “0”, “1”, “2” y “4”, respectivamente, son imágenes reconstruidas, y en el que las listas de imágenes de referencia son las listas 522 mostradas en (B) de la figura 6, las dos señales predichas se generan a partir de imágenes de referencia diferentes. En este caso, tampoco es factible lograr un efecto de suavizado alto.
Por tanto, existe la necesidad de un dispositivo de codificación predictiva de imágenes, un método de codificación predictiva de imágenes, un programa de codificación predictiva de imágenes, un dispositivo de decodificación predictiva de imágenes, un método de decodificación predictiva de imágenes y un programa de decodificación predictiva de imágenes capaces de suprimir el ruido de señales predichas.
Solución al problema
La invención se establece en el juego adjunto de reivindicaciones. Aspectos y realizaciones adicionales en la descripción se presentan sólo como ejemplos ilustrativos.
La codificación predictiva de imágenes según un ejemplo permite que dos fragmentos de información de movimiento entre los cuales cualquier elemento constituyente difiere en cuanto al valor se seleccionen sin estar restringidos por listas de imágenes de referencia. Como resultado, puede lograrse el efecto de suavizado para la generación de la señal predicha.
En una realización, la codificación predictiva de imágenes puede configurarse de la siguiente manera: los medios de grabación de imagen almacenan una pluralidad de imágenes reconstruidas, cada fragmento de la información de movimiento contiene información para identificar la imagen reconstruida, y un vector de movimiento, las imágenes reconstruidas almacenadas en los medios de grabación de imagen se identifican usando números de trama respectivos en la codificación de las imágenes reconstruidas, y un conjunto de información de movimiento derivado es un conjunto de información de movimiento que incluye dos fragmentos de información de movimiento que tienen un número de trama idéntico de la imagen reconstruida y valores diferentes de vectores de movimiento.
En una realización, la codificación predictiva de imágenes puede configurarse de la siguiente manera: los medios de grabación de imagen almacenan una pluralidad de imágenes reconstruidas, la pluralidad de imágenes reconstruidas almacenadas en los medios de grabación de imagen se identifican usando dos listas de imágenes de referencia que consisten cada una en una o más imágenes reconstruidas, cada fragmento de la información de movimiento contiene información para identificar las dos listas de imágenes de referencia, y el vector de movimiento, y un conjunto de información de movimiento derivado es un conjunto de información de movimiento que incluye dos fragmentos de información de movimiento que tienen información idéntica para identificar las listas de imágenes de referencia, y valores diferentes de vectores de movimiento.
En una realización, la codificación predictiva de imágenes puede configurarse de la siguiente manera: el conjunto de información de movimiento que va a usarse en la generación de la señal predicha de la región objetivo se selecciona a partir de una pluralidad de fragmentos de información de movimiento asociados con una región adyacente a la región objetivo.
En una realización, la codificación predictiva de imágenes puede configurarse de la siguiente manera: se codifica información para indicar el conjunto de información de movimiento seleccionado que consiste en los dos fragmentos de información de movimiento.
Un aspecto de la presente invención se refiere a la decodificación predictiva de imágenes.
Un dispositivo de decodificación predictiva de imágenes según un aspecto de la presente invención es un dispositivo de decodificación predictivo de imágenes según la reivindicación 1.
Un dispositivo de decodificación predictiva de imágenes según un aspecto de la presente invención es un método de decodificación predictivo de imágenes según la reivindicación 2.
Un programa de decodificación predictiva de imágenes según un aspecto de la presente invención es un programa de decodificación predictivo de imágenes según la reivindicación 3.
La decodificación predictiva de imágenes según un aspecto de la presente invención permite que una imagen se restaure a partir de datos comprimidos generados por la codificación predictiva de imágenes del aspecto mencionado anteriormente. El ruido puede reducirse en esta imagen restaurada.
En una realización, la decodificación predictiva de imágenes puede configurarse de la siguiente manera: comprende extraer datos codificados de información de indicación, consistiendo los datos codificados extraídos de una pluralidad de fragmentos de información de movimiento almacenados en los medios de grabación de información de movimiento para identificar un conjunto de información de movimiento en dos fragmentos de información de movimiento entre los cuales uno cualquiera de los elementos constituyentes difiere en cuanto al valor, hacer que los medios de decodificación de información de predicción decodifiquen la información de indicación, y extraer un conjunto de información de movimiento que va a usarse en la generación de la señal predicha de la región objetivo a partir del uno o más conjuntos de información de movimiento derivados por los medios de derivación de información de movimiento, basándose en la información de indicación decodificada.
En una realización, la decodificación predictiva de imágenes puede configurarse de la siguiente manera: los medios de grabación de imagen almacenan una pluralidad de imágenes reconstruidas, la información de movimiento contiene información para identificar la pluralidad de imágenes reconstruidas, y vectores de movimiento, la pluralidad de imágenes reconstruidas almacenadas en los medios de grabación de imagen se identifican usando números de trama respectivos al decodificar las imágenes reconstruidas respectivas, y un conjunto de información de movimiento derivado es un conjunto de información de movimiento que incluye dos fragmentos de información de movimiento que tienen un número de trama idéntico de la imagen reconstruida y valores diferentes de vectores de movimiento.
En una realización, la decodificación predictiva de imágenes puede configurarse de la siguiente manera: los medios de grabación de imagen almacenan una pluralidad de imágenes reconstruidas, la pluralidad de imágenes reconstruidas almacenadas en los medios de grabación de imagen se identifican usando dos listas de imágenes de referencia que consisten cada una en una o más imágenes reconstruidas, cada fragmento de la información de movimiento se configura de manera que contiene información para identificar las dos listas de imágenes de referencia, y el vector de movimiento, y un conjunto de información de movimiento derivado es un conjunto de información de movimiento que incluye dos fragmentos de información de movimiento que tienen información idéntica para identificar las listas de imágenes de referencia, y valores diferentes de vectores de movimiento.
En una realización, la decodificación predictiva de imágenes puede configurarse de la siguiente manera: el conjunto de información de movimiento que va a usarse en la generación de la señal predicha de la región objetivo se deriva a partir de una pluralidad de fragmentos de información de movimiento asociados con una región adyacente a la región objetivo.
Efectos ventajosos de la invención
Tal como se describió anteriormente, varios aspectos de la presente invención proporcionan el dispositivo de codificación predictiva de imágenes, el método de codificación predictiva de imágenes, el programa de codificación predictiva de imágenes, el dispositivo de decodificación predictiva de imágenes, el método de decodificación predictiva de imágenes y el programa de decodificación predictiva de imágenes capaces de suprimir el ruido de la señal predicha.
Breve descripción de los dibujos
La figura 1 es un dibujo que muestra una configuración de un dispositivo de codificación predictiva de imágenes según una realización.
La figura 2 es un dibujo que muestra una configuración de una unidad de generación de señal predicha mostrada en la figura 1.
La figura 3 es un diagrama de flujo que muestra un procedimiento de una unidad de derivación de información de movimiento mostrada en la figura 2.
La figura 4 es un diagrama esquemático para explicar un ejemplo de una técnica para seleccionar un fragmento de información de predicción candidata a partir de información de predicción de movimiento candidata (combinación de dos fragmentos de información de movimiento) usando píxeles adyacentes a un bloque objetivo.
La figura 5 es un diagrama esquemático para explicar ejemplos de órdenes de codificación de imágenes.
La figura 6 es un dibujo para explicar ejemplos de listas de imágenes de referencia.
La figura 7 es un dibujo para explicar ejemplos de bloques adyacentes.
La figura 8 es un dibujo para explicar otros ejemplos de bloques adyacentes.
La figura 9 es un diagrama de flujo que muestra un procedimiento de un método de codificación predictiva de imágenes según una realización.
La figura 10 es un dibujo que muestra una configuración de un dispositivo de decodificación predictiva de imágenes según una realización.
La figura 11 es un diagrama de flujo que muestra un procedimiento de un método de decodificación predictiva de imágenes según una realización.
La figura 12 es un dibujo que muestra una configuración de un programa para hacer que un ordenador ejecute el método de codificación predictiva de imágenes según una realización.
La figura 13 es un dibujo que muestra una configuración de un programa para hacer que un ordenador ejecute el método de decodificación predictiva de imágenes según una realización.
La figura 14 es un dibujo que muestra una configuración de hardware de un ordenador para ejecutar un programa grabado en un medio de grabación.
La figura 15 es una vista en perspectiva de un ordenador para ejecutar un programa almacenado en un medio de grabación.
La figura 16 es un dibujo esquemático para explicar un procedimiento de estimación de movimiento en predicción interimagen.
La figura 17 es un diagrama esquemático para explicar el método convencional de predicción intraimagen.
Descripción de realizaciones
A continuación se describirán en detalle algunas realizaciones con referencia a los dibujos. En los dibujos, las partes idénticas o equivalentes se indicarán mediante los mismos signos de referencia, sin una descripción redundante. En la presente memoria descriptiva, “tramas” e “imágenes” (501 a 511 en la figura 5) significan lo mismo.
La figura 1 es un dibujo que muestra una configuración de un dispositivo de codificación predictiva de imágenes según una realización. El dispositivo 100 de codificación predictiva de imágenes mostrado en la figura 1 está dotado de un terminal 101 de entrada, una unidad 102 de división en bloques, una unidad 103 de generación de señal predicha, una memoria 104 de tramas, una unidad 105 de resta, una unidad 106 de transformada, una unidad 107 de cuantificación, una unidad 108 de cuantificación inversa, una unidad 109 de transformada inversa, una unidad 110 de suma, una unidad 111 de codificación de coeficientes de transformada cuantificados, un terminal 112 de salida, una memoria 113 de información de predicción y una unidad 114 de codificación de información de predicción. En una realización, la unidad 106 de transformada y la unidad 107 de cuantificación funcionan como medios de codificación de señal residual, la unidad 108 de cuantificación inversa y la unidad 109 de transformada inversa funcionan como medios de restauración de señal residual, y la memoria de información de predicción funciona como medios de grabación de información de movimiento. Se observa que la memoria 113 de información de predicción puede incorporarse en la unidad 103 de generación de señal predicha. En una realización, la unidad 111 de codificación de coeficientes de transformada cuantificados puede funcionar también como una parte de los medios de codificación de señal residual y, en este caso, un elemento que decodifica datos generados por la unidad 111 de codificación de coeficientes de transformada cuantificados y emite los datos decodificados a la unidad 108 de cuantificación inversa constituye una parte de los medios de restauración de señal residual.
El terminal 101 de entrada es un terminal que implementa la introducción de una señal de una secuencia de vídeo que consiste en una pluralidad de imágenes.
La unidad 102 de división en bloques divide cada imagen de un objetivo de codificación representado por una señal introducida desde el terminal 101 de entrada, para dar una pluralidad de regiones. En una realización, una imagen objetivo de codificación puede dividirse para dar una pluralidad de bloques que consisten cada uno en 8x8 píxeles. Estas regiones o bloques son regiones objetivo o bloques objetivo a los que se aplica el procesamiento descrito a continuación. El tamaño y la forma de los bloques no se limitan a este ejemplo. Pueden mezclarse bloques de diferentes tamaños en cada imagen.
La unidad 103 de generación de señal predicha detecta la información de movimiento necesaria para la generación de una señal predicha de cada bloque de predicción en un bloque objetivo y genera la señal predicha. No hay restricciones particulares con respecto a un método de generación de la señal predicha, pero puede ser la predicción interimagen o la predicción intraimagen tal como se describió en la técnica anterior (aunque la predicción intraimagen no se ilustra). En una realización, la información de movimiento puede detectarse mediante la concordancia de bloques mostrada en la figura 16. En la concordancia de bloques, la señal predicha para minimizar la suma de diferencias absolutas con respecto a la señal original (señal de píxel) del bloque objetivo se detecta a partir de una imagen reconstruida adquirida mediante la línea L104.
En una realización, la información de movimiento puede contener un vector de movimiento, una identificación de una lista de imágenes de referencia (List0 y List1 en la figura 5) y un índice de referencia (ref_idx en la figura 5).
Cuando cada lista de imágenes de referencia está compuesta por una pluralidad de imágenes de referencia tal como se muestra en la figura 6, el índice de referencia se detecta simultáneamente con el vector de movimiento, con el fin de indicar qué imagen de referencia es un objetivo del vector de movimiento en la información de movimiento. Cuando se usa predicción bipredictiva, también se determina al mismo tiempo el tipo de predicción (hacia adelante/hacia atrás/bidireccional). Cuando el tipo de predicción es la predicción hacia adelante, se detecta la información de movimiento con la identificación de lista de imágenes de referencia de List0; cuando el tipo de predicción es la predicción hacia atrás, se detecta la información de movimiento con la identificación de lista de imágenes de referencia de List1. En el caso de la predicción bipredictiva, se detectan dos fragmentos de información de movimiento identificados mediante List0 y List1. Las imágenes reconstruidas registradas en las listas de imágenes de referencia mostradas en la figura 6 pueden determinarse automáticamente según una regla predeterminada, o información para especificar las imágenes reconstruidas registradas en las listas de imágenes de referencia puede codificarse explícitamente en unidades de trama o en unidades de secuencia. En una realización, pueden usarse números de trama como la información, tal como se muestra en las figuras 5 y 6.
Volviendo a hacer referencia a la figura 1, la información de movimiento y el tipo de predicción se emiten mediante la línea L103c y mediante la línea L103b a la memoria 113 de información de predicción y a la unidad 114 de codificación de información de predicción, respectivamente.
La memoria 113 de información de predicción almacena el tipo de predicción y la información de movimiento de entrada.
La unidad 114 de codificación de información de predicción codifica por entropía la información de movimiento del bloque objetivo de codificación y emite datos codificados mediante la línea L114 al terminal 112 de salida. No hay restricciones particulares con respecto a un método de la codificación por entropía, pero puede ser la codificación aritmética, codificación de longitud variable o similares.
La señal predicha generada por la unidad 103 de generación de señal predicha se emite mediante la línea L103a a la unidad 105 de resta ya la unidad 110 de suma.
La unidad 105 de resta resta la señal predicha del bloque objetivo introducida mediante la línea L103a, a partir de la señal de píxel del bloque objetivo para generar una señal residual. La unidad 105 de resta emite la señal residual mediante la línea L105 a la unidad 106 de transformada.
La unidad 106 de transformada realiza una transformada de coseno discreta de la señal residual de entrada para generar coeficientes de transformada. La unidad 107 de cuantificación cuantifica los coeficientes de transformada generados por la unidad 106 de transformada, para generar coeficientes de transformada cuantificados. La unidad 111 de codificación de coeficientes de transformada cuantificados codifica por entropía los coeficientes de transformada cuantificados generados por la unidad 107 de cuantificación. Los datos codificados generados por la unidad 111 de codificación de coeficientes de transformada cuantificados se emiten mediante la línea L111 al terminal 112 de salida. No hay restricciones particulares con respecto a un método de la codificación por entropía en la unidad 111 de codificación de coeficientes de transformada cuantificados, pero puede ser codificación aritmética, codificación de longitud variable o similares.
El terminal 112 de salida emite la información recibida desde la unidad 114 de codificación de información de predicción y la información procedente de la unidad 111 de codificación de coeficientes de transformada cuantificados, de manera conjunta al exterior.
La unidad 108 de cuantificación inversa realiza una cuantificación inversa de los coeficientes de transformada cuantificados generados por la unidad 107 de cuantificación, para generar coeficientes de transformada. La unidad 109 de transformada inversa aplica una transformada de coseno discreta inversa a los coeficientes de transformada generados por la unidad 108 de cuantificación inversa, para restaurar una señal residual. La unidad 110 de suma suma la señal residual restaurada a la entrada de señal predicha proporcionada mediante la línea L103a, para generar una señal de píxel reconstruida del bloque objetivo de codificación y almacena la señal de píxel reconstruida en la memoria 104 de tramas. También es posible adoptar otros procedimientos de transformada que sustituyen a los procedimientos de la unidad 106 de transformada y la unidad 109 de transformada inversa. También se observa que la unidad 106 de transformada y la unidad 109 de transformada inversa no siempre son esenciales. De esta manera, la señal de píxel reconstruida del bloque objetivo de codificación se almacena como parte de una imagen de referencia o imagen reconstruida en la memoria 104 de tramas, con el fin de usarse para la generación de una señal predicha de un bloque objetivo de codificación posterior.
En una realización, la unidad 103 de generación de señal predicha también puede generar la señal predicha del bloque objetivo haciendo uso de la información de movimiento asociada con bloques adyacentes al bloque objetivo (bloques adyacentes). La información de movimiento asociada con un bloque adyacente es información de movimiento usada para la generación de la señal predicha cuando el bloque adyacente era un objetivo de codificación. La información de movimiento asociada con los bloques adyacentes se almacena en la memoria 113 de información de predicción. Para cada bloque, puede incluirse en un estado codificado en datos comprimidos información para indicar que la señal predicha se generó haciendo uso de la información de movimiento asociada con los bloques adyacentes, o información para indicar que la señal predicha se generó haciendo uso del vector de movimiento detectado por la concordancia de bloques.
Ahora, va a considerarse el caso en el que la señal predicha del bloque objetivo se genera mediante la predicción bipredictiva. Se describirá a continuación usando un ejemplo de (A) en la figura 7. Los bloques adyacentes son dos bloques 401 y 402 adyacentes al bloque 400 objetivo, que están ubicados inmediatamente a la izquierda e inmediatamente por encima del bloque 400 objetivo, y la información de movimiento asociada con estos bloques se usa para la predicción. En este caso, si el tipo de predicción asociado con los dos bloques adyacentes es la predicción bipredictiva, pueden usarse hasta cuatro fragmentos de información de movimiento para la generación de la señal predicha del bloque objetivo. La unidad 103 de generación de señal predicha selecciona dos fragmentos de información de movimiento que tienen valores diferentes de vectores de movimiento o valores diferentes de números de trama de imágenes de referencia, a partir de los cuatro fragmentos de información de movimiento como candidatos (cuatro fragmentos de información de movimiento candidata). Un número de trama (frame_num) de una imagen de referencia puede identificarse mediante una combinación de una identificación de lista de imágenes de referencia (List0 o List1) y un índice de referencia (ref_idex). Luego se adquieren dos señales predichas desde la memoria 104 de tramas basándose en los fragmentos respectivos de información de movimiento, y las dos señales predichas se promedian en unidades de píxel para obtener una señal predicha. Si las dos señales predichas se parecen entre sí, el rendimiento de predicción se mejora por el efecto de eliminación de ruido debido al suavizado. La unidad 114 de codificación de información de predicción codifica información (información de indicación) para identificar los dos fragmentos de información de movimiento usados en la generación de la señal predicha del bloque objetivo a partir de los cuatro fragmentos de información de movimiento candidata, en lugar de la información de movimiento. Por tanto, la señal predicha puede generarse en un recuento de bits que es menor que el de los datos codificados obtenidos codificando la información de movimiento. La información de indicación puede ser dos fragmentos de información de indicación para identificar los fragmentos respectivos de información de movimiento candidata, o puede ser un fragmento de información de indicación para identificar la combinación de los dos fragmentos de información de movimiento candidata.
La memoria 113 de información de predicción almacena los dos fragmentos de información de movimiento usados en realidad en la generación de la señal predicha del bloque objetivo, como información de movimiento asociada con el bloque objetivo. Los dos fragmentos de información de movimiento pueden almacenarse tal cual, pero dado que los procedimientos existentes de codificación y decodificación predictiva de imágenes presentan la restricción de hacer referencia a las dos listas de imágenes de referencia de List0 y List1, los dos fragmentos de información de movimiento pueden almacenarse tal como se describe a continuación.
Concretamente, cuando los dos fragmentos de información de movimiento tienen la misma identificación de lista de imágenes de referencia, la identificación de lista de imágenes de referencia en los dos fragmentos de información de movimiento puede modificarse según una regla predeterminada. Por ejemplo, de los dos fragmentos de información de movimiento, la identificación de lista de imágenes de referencia de un fragmento de información de movimiento con un índice de referencia (ref_idx) menor se asigna a Listo, y la identificación de lista de imágenes de referencia del otro fragmento de información de movimiento se asigna a List1.
Cuando los dos fragmentos de información de movimiento también tienen el mismo índice de referencia, la identificación de lista de imágenes de referencia de un fragmento de información de movimiento con el vector de movimiento que tiene la menor suma de valores absolutos de componentes respectivos del mismo se asigna a List0, y la identificación de lista de imágenes de referencia del otro fragmento de información de movimiento se asigna a List1.
Si esta asignación da como resultado que se hace referencia a un número de trama diferente del número de trama antes de la asignación, el índice de referencia (ref_idx) puede modificarse para permitir la referencia al número de trama antes de la asignación.
Si las dos listas de imágenes de referencia no incluyen ningún número de trama idéntico tal como se muestra en (B) de la figura 6, la información de movimiento puede gestionarse usando listas (523) de imágenes de referencia ampliadas para incluir los mismos números de trama tal como se muestra en (C) de la figura 6. Las listas de imágenes de referencia ampliadas pueden usarse directamente en el caso en el que la señal predicha del bloque objetivo se genera usando la información de movimiento asociada con bloques adyacentes. Dado que los números de trama se graban, también pueden aplicarse a casos en los que el vector de movimiento se ajusta a escala según la distancia en la dirección temporal entre imágenes (por ejemplo, cada componente de vector se duplica cuando el vector de movimiento con respecto al objetivo de la imagen 504 en (A) de la figura 5 se convierte en el vector de movimiento con respecto al objetivo de la imagen 503). Dado que los métodos de almacenamiento de vectores de movimiento descritos en el presente documento pueden convertirse de uno a otro, puede aplicarse uno cualquiera de los métodos de almacenamiento sin ninguna influencia sobre el resultado de codificación.
El procesamiento de la unidad 103 de generación de señal predicha se describirá adicionalmente en detalle. La figura 2 es un dibujo que muestra una configuración de la unidad 103 de generación de señal predicha según una realización. Tal como se muestra en la figura 2, la unidad 103 de generación de señal predicha está dotada de una unidad 121 de derivación de información de movimiento, una unidad 122 de selección de información de predicción de movimiento y una unidad 123 de compensación de movimiento. En este dibujo, se omite la parte de detección de movimiento mediante la concordancia de bloques convencional.
Cuando ambos tipos de predicción de los bloques inmediatamente superior e inmediatamente izquierdo usados como bloques adyacentes son una predicción bipredictiva, la unidad 121 de derivación de información de movimiento compara cuatro fragmentos de información de movimiento asociados con estos bloques adyacentes. La unidad 121 de derivación de información de movimiento define información de movimiento que tiene un valor diferente de uno cualquiera de los elementos que constituyen la información de movimiento, que son el vector de movimiento, la identificación de lista de imágenes de referencia y el índice de referencia, con respecto a los de los otros tres fragmentos de información de movimiento, como información de movimiento candidata aplicable a la predicción del bloque objetivo. Si hay dos o más fragmentos de información de movimiento con el mismo valor de vector de movimiento y el mismo valor de número de trama de la imagen de referencia (el número de trama de la imagen de referencia puede identificarse mediante la combinación de la lista de imágenes de referencia y el índice de referencia), uno de ellos se define como información de movimiento candidata. Luego la unidad 121 de derivación de información de movimiento deriva un conjunto de dos fragmentos cualesquiera de información de movimiento candidata, como información de predicción bipredictiva candidata. En este caso, pueden derivarse hasta seis fragmentos de información de predicción bipredictiva candidata. En casos en los que al menos uno de los bloques inmediatamente superior e inmediatamente izquierdo con respecto al bloque objetivo se emplea como bloque adyacente y en los que la predicción es una predicción bipredictiva, a partir de los bloques adyacentes pueden derivarse patrones de combinación de dos fragmentos de información de movimiento en un número igual al de los patrones descritos a continuación. Concretamente, los patrones de combinación son de la siguiente manera.
(1) 2 patrones: en casos en los que se emplean dos fragmentos de información de movimiento del bloque (402) inmediatamente superior o el bloque (401) inmediatamente izquierdo.
(2) 4 patrones: en casos en los que se emplean un fragmento de información de movimiento del bloque (402) inmediatamente superior y un fragmento de información de movimiento del bloque (401) inmediatamente izquierdo y en los que las listas de imágenes de referencia en los dos fragmentos seleccionados de información de movimiento son diferentes.
(3) 2 patrones: en casos en los que se emplean un fragmento de información de movimiento del bloque (402) inmediatamente superior y un fragmento de información de movimiento del bloque (401) inmediatamente izquierdo y en los que las listas de imágenes de referencia en los dos fragmentos seleccionados de información de movimiento son iguales.
La figura 3 muestra un diagrama de flujo del procesamiento llevado a cabo por la unidad 121 de derivación de información de movimiento. En primer lugar, en la etapa S301 se establece el número N de bloques adyacentes que van a usarse en la predicción del bloque objetivo y el número n de bloque adyacente actual se establece a 0” . Por ejemplo, se establece n=0 para el bloque 401 y n=1 para el bloque 402. Además, el número L de fragmentos de información de movimiento candidata se inicializa a 0. Luego se adquieren la información de movimiento y el tipo de predicción del n-ésimo bloque desde la memoria 113 de información de predicción (etapa S302). Después de eso, se establece el número M de fragmentos de información de movimiento asociados con el n-ésimo bloque adyacente basándose en el tipo de predicción (etapa S303).
A continuación, la m-ésima información de movimiento del n-ésimo bloque adyacente se compara con los L fragmentos de información de movimiento candidata (etapa S304). Si todos los fragmentos de información de movimiento candidata son diferentes de la información de movimiento del objetivo de comparación, o si L=0, el procesamiento avanza a la etapa S305. En la etapa S305, la m-ésima información de movimiento del n-ésimo bloque adyacente se suma a la información de movimiento candidata y el valor de L recibe un incremento de 1. Después de eso, el procesamiento avanza a la etapa S306.
Si la etapa S304 da como resultado que se encuentra lo mismo que la m-ésima información de movimiento en la información de movimiento candidata, el procesamiento avanza a la etapa S306. En la etapa S304, si los valores de dos vectores de movimiento que se comparan son idénticos y si los números de trama correspondientes a dos conjuntos de índices de referencia e identificaciones de lista de imágenes de referencia que se comparan son idénticos, se determina que la información de movimiento es idéntica incluso con una diferencia de las listas de imágenes de referencia. Un motivo para ello es que cuando los vectores de movimiento de dos fragmentos de información de movimiento y los números de trama de imágenes de referencia de los mismos son idénticos, las señales predichas generadas a partir de estos fragmentos de información de movimiento pasan a ser coincidentes. En la etapa S306, el valor de m recibe un incremento de 1. En la etapa S307 posterior, se determina si los procedimientos de las etapas S304 a S306 se han completado, para todos los fragmentos de información de movimiento asociados con el n-ésimo bloque adyacente; si se han completado, el procesamiento avanza a la etapa S308; si no se han completado, el procesamiento vuelve a la etapa S304.
En la etapa S308, el valor del número n del bloque adyacente recibe un incremento de 1. Luego, en la etapa S309, se determina si el procesamiento se ha completado para todos los bloques adyacentes. Si se ha completado, el procesamiento avanza a la etapa S310; si no se ha completado, el procesamiento vuelve a la etapa S302.
Finalmente, en la etapa S310, cada conjunto de dos fragmentos de información de movimiento que tienen valores diferentes de vectores de movimiento o valores diferentes de números de trama de imágenes de referencia (el número de trama de cada imagen de referencia puede identificarse mediante la combinación de la lista de imágenes de referencia y el índice de referencia) se deriva a partir de los L fragmentos de información de movimiento candidata y se establece como información de predicción bipredictiva candidata.
En lo que respecta a la información de movimiento cuyos bloques adyacentes usa la unidad 121 de derivación de información de movimiento, puede determinarse de manera preliminar tanto para el lado de codificación como para el lado de decodificación. Además, la información para especificar la información de movimiento cuyos bloques adyacentes usó la unidad 121 de derivación de información de movimiento puede transmitirse en un estado codificado al lado de decodificación.
La unidad 122 de selección de información de predicción de movimiento selecciona un fragmento óptimo a partir de la información de predicción bipredictiva candidata introducida mediante la línea L121 desde la unidad 121 de derivación de información de movimiento. Específicamente, selecciona la información de predicción bipredictiva candidata para minimizar la suma de diferencias absolutas entre la “señal obtenida como promedio de dos señales adquiridas mediante la línea L104 desde la memoria 104 de tramas basándose en dos fragmentos de información de movimiento candidata” y la “señal de píxel del bloque objetivo adquirida mediante la línea L102”. Luego se emite información de indicación para identificar la información de predicción bipredictiva candidata seleccionada o para identificar los dos fragmentos de información de movimiento candidata que constituyen la información de predicción bipredictiva candidata seleccionada, mediante la línea L103b, a la unidad de codificación de información de predicción.
Además, la unidad 122 de selección de información de predicción de movimiento emite los dos fragmentos seleccionados de información de movimiento mediante la línea L103c a la memoria 113 de información de predicción para hacer que la información se almacene en la misma, y emite la información mediante la línea L122 a la unidad 123 de compensación de movimiento. La unidad 123 de compensación de movimiento promedia dos señales de píxel reconstruidas extraídas a partir de las imágenes reconstruidas adquiridas mediante la línea L104, basándose en los dos fragmentos de entrada de información de movimiento, para generar una señal predicha, y emite la señal predicha mediante la línea L103a a la unidad 105 de resta ya la unidad 110 de suma.
No hay restricciones particulares con respecto a la técnica de selección de un fragmento óptimo de información de predicción bipredictiva candidata en la unidad 122 de selección de información de predicción de movimiento. Por ejemplo, tal como se muestra en la figura 4, en lugar de una señal de píxel de un bloque 461 objetivo en una imagen 451 objetivo de codificación, puede usarse una región (462) reconstruida que tiene forma de L invertida adyacente al bloque 461. Dado que la región 462 es la región reconstruida, el dispositivo de decodificación también puede usarla. Tal como se muestra en el dibujo, una región (472) predicha correspondiente a la región 462 puede adquirirse a partir de la imagen 452 de referencia basándose en un fragmento de información 473 de movimiento. Para cada fragmento de información de predicción bipredictiva candidata, pueden adquirirse regiones en forma de L invertida a partir de dos fragmentos de información de movimiento candidata y se promedian señales de los mismos para encontrar la información de predicción bipredictiva candidata para minimizar la suma de diferencias absolutas con respecto a la región 462. Esta técnica permite que el dispositivo de decodificación seleccione la misma información de predicción bipredictiva candidata que la seleccionada por el dispositivo de codificación, y por tanto proporciona la ventaja de eliminar la necesidad de la transmisión de la información de indicación.
De esta manera, la señal predicha con una pequeña diferencia con respecto a la señal original se genera a partir de la información de movimiento asociada con los bloques adyacentes al bloque objetivo y se seleccionan dos fragmentos de información de movimiento que tienen valores diferentes de vectores de movimiento o valores diferentes de números de trama de imágenes de referencia (el número de trama de cada imagen de referencia puede identificarse mediante la combinación de la lista de imágenes de referencia y el índice de referencia), mediante lo cual la predicción bipredictiva del bloque objetivo puede implementarse sin la transmisión de la información de movimiento. Dado que la información de movimiento contiene la información para identificar la lista de imágenes de referencia, pasa a ser factible realizar la predicción bipredictiva usando la información de movimiento con la misma lista de imágenes de referencia. Por tanto, aunque las imágenes de referencia en dos listas de imágenes de referencia sean completamente diferentes, la predicción bipredictiva puede llevarse a cabo usando vectores de movimiento de la misma imagen de referencia. Por ejemplo, cuando la predicción bipredictiva con dos señales similares se lleva a cabo usando los vectores de movimiento de la misma imagen de referencia, puede esperarse una mejora del rendimiento de predicción basándose en el efecto de suavizado.
La figura 9 es un diagrama de flujo que muestra un procedimiento de un método de codificación predictiva de imágenes según una realización. En primer lugar, la unidad 102 de división en bloques divide una imagen de entrada para dar bloques de codificación de 8x8 (la imagen de entrada puede dividirse para dar cualquier otro tamaño o forma de bloque o pueden mezclarse bloques de diferentes tamaños en una imagen).
A continuación, la unidad 121 de derivación de información de movimiento adquiere la información de movimiento asociada con bloques adyacentes a un bloque objetivo de un objetivo de codificación, desde la memoria 113 de información de predicción y extrae información de movimiento que tiene un valor diferente de uno cualquiera de los elementos constituyentes de la misma a partir de la otra información de movimiento, como información de movimiento candidata aplicable a la predicción del bloque objetivo. Luego se deriva un conjunto de dos fragmentos cualesquiera de información de movimiento candidata como información de predicción bipredictiva candidata (etapa S300). Los detalles de esta etapa S300 ya se describieron con referencia a la figura 3.
A continuación, la unidad 122 de selección de información de predicción de movimiento selecciona uno que va a usarse en la generación de la señal predicha del bloque objetivo, a partir de una pluralidad de fragmentos de información de predicción bipredictiva candidata. Luego la unidad 122 de selección de información de predicción de movimiento determina la información de indicación para identificar el fragmento seleccionado de información de predicción bipredictiva candidata o para identificar los dos fragmentos de información de movimiento candidata que constituyen el fragmento seleccionado de información de predicción bipredictiva candidata (etapa S320). En la etapa S101 posterior, los dos fragmentos seleccionados de información de movimiento se almacenan en la memoria 113 de información de predicción y la unidad 114 de codificación de información de predicción codifica la información de indicación.
A continuación, en la etapa S102 la unidad 123 de compensación de movimiento adquiere señales de píxel a partir de dos imágenes reconstruidas adquiridas desde la memoria 104 de tramas, basándose en la información de movimiento seleccionada, y promedia estas señales de píxel para generar una señal predicha del bloque objetivo. En la técnica de predicción que no usa la información de movimiento de bloques adyacentes, la información de movimiento se detecta mediante la concordancia de bloques descrita en la figura 16 y la señal predicha del bloque objetivo se genera basándose en la información de movimiento. La unidad 114 de codificación de información de predicción codifica la información de movimiento e información para la conmutación de las dos técnicas de predicción. La información de movimiento se almacena en la memoria 113 de información de predicción.
A continuación, la señal residual indicativa de la diferencia entre la señal de píxel del bloque objetivo de codificación y la señal predicha se transforma y se codifica mediante la unidad 106 de transformada, la unidad 107 de cuantificación y la unidad 111 de codificación de coeficientes de transformada cuantificados (etapa S103). Los datos codificados de la información de indicación y los coeficientes de transformada cuantificados se emiten a través del terminal 112 de salida (etapa S104).
Después de estos procedimientos o en paralelo a estos procedimientos, la señal residual codificada se decodifica mediante la unidad 108 de cuantificación inversa y la unidad 109 de transformada inversa, para la codificación predictiva de un bloque objetivo de codificación posterior. Luego la unidad 110 de suma suma la señal residual decodificada a la señal predicha para reconstruir una señal del bloque objetivo de codificación. La señal reconstruida se almacena como imagen de referencia (señal de imagen reconstruida) en la memoria 104 de tramas (etapa S105). Si el procesamiento no se ha completado para todos los bloques objetivo de codificación, el procesamiento vuelve a la etapa S101 para llevar a cabo el procesamiento para el siguiente bloque objetivo de codificación. Si el procesamiento se ha completado para todos los bloques objetivo de codificación, se termina el procesamiento (etapa S106).
A continuación, se describirá un dispositivo de decodificación predictiva de imágenes según una realización. La figura 10 es un diagrama de bloques que muestra el dispositivo de decodificación predictiva de imágenes según una realización. El dispositivo 200 de decodificación predictiva de imágenes mostrado en la figura 10 está dotado de un terminal 201 de entrada, una unidad 202 de análisis de datos, una unidad 203 de cuantificación inversa, una unidad 204 de transformada inversa, una unidad 205 de suma, un terminal 206 de salida, una unidad 207 de decodificación de coeficientes de transformada cuantificados, una unidad 208 de decodificación de información de predicción, una memoria 104 de tramas, una unidad 209 de determinación de información de movimiento, una unidad 121 de derivación de información de movimiento, una memoria 113 de información de predicción y una unidad 126 de compensación de movimiento. La unidad 203 de cuantificación inversa y la unidad 204 de transformada inversa funcionan como medios de decodificación de señal residual y la memoria 113 de información de predicción funciona como medios de grabación de información de movimiento. Los medios de decodificación mediante la unidad 203 de cuantificación inversa y la unidad 204 de transformada inversa pueden ser cualquier medio distinto de los de otras realizaciones. Además, la unidad 204 de transformada inversa puede excluirse en otras realizaciones.
El terminal 201 de entrada implementa la introducción de datos comprimidos codificados por compresión mediante el método de codificación predictiva de imágenes mencionado anteriormente. Estos datos comprimidos contienen, para cada uno de los bloques, datos codificados obtenidos mediante la codificación por entropía de coeficientes de transformada cuantificados generados mediante la transformada y la cuantificación de la señal residual, datos codificados de la información de predicción, es decir, datos codificados de información de movimiento para la generación de la señal predicha del bloque o información de indicación para identificar la información de movimiento que va a usarse en la generación de la señal predicha del bloque objetivo de decodificación a partir de la información de movimiento asociada con bloques adyacentes, y datos codificados de información para indicar cuál de la información de movimiento y la información de indicación se codifica.
La unidad 202 de análisis de datos analiza los datos comprimidos introducidos en el terminal 201 de entrada, separa los datos comprimidos para dar datos codificados de coeficientes de transformada cuantificados y datos codificados de información de predicción, para un bloque objetivo de decodificación, y emite estos datos codificados mediante la línea L202a y mediante la línea L202b a la unidad 207 de decodificación de coeficientes de transformada cuantificados y a la unidad 208 de decodificación de información de predicción, respectivamente.
La unidad 208 de decodificación de información de predicción decodifica por entropía los datos codificados de información de movimiento o información de indicación. La información de movimiento decodificada se envía mediante la línea L208 a la unidad 209 de determinación de información de movimiento y se emite luego sin cambios mediante la línea L207a y la línea L207b a la unidad 126 de compensación de movimiento y la memoria 113 de información de predicción. La memoria 113 de información de predicción almacena la información de movimiento y la unidad 126 de compensación de movimiento adquiere una señal de píxel a partir de una imagen reconstruida adquirida desde la memoria 104 de tramas, basándose en la información de movimiento, y genera la señal predicha de cada bloque de predicción en el bloque objetivo de decodificación, usando la señal de píxel. La señal predicha generada se emite mediante la línea L126 a la unidad 205 de suma.
Por otra parte, cuando la unidad 208 de decodificación de información de predicción decodifica por entropía los datos codificados de información de indicación, la unidad 121 de derivación de información de movimiento funciona. La unidad 121 de derivación de información de movimiento, tal como se describió en detalle con referencia a la figura 3, adquiere la información de movimiento asociada con bloques adyacentes al bloque objetivo de decodificación, desde la memoria 113 de información de predicción, y extrae información que tiene valores diferentes de uno cualquiera de los elementos constituyentes de la misma, como información de movimiento candidata aplicable a la predicción del bloque objetivo de decodificación. Luego la unidad 121 de derivación de información de movimiento deriva un conjunto de dos fragmentos cualesquiera de información de movimiento candidata como información de predicción bipredictiva candidata y emite la información de predicción bipredictiva candidata mediante la línea L121 a la unidad 209 de determinación de información de movimiento.
La unidad 209 de determinación de información de movimiento selecciona un fragmento de información de predicción bipredictiva candidata identificada mediante la información de indicación introducida mediante la línea L208, a partir de una pluralidad de fragmentos de información de predicción bipredictiva candidata introducida mediante la línea L121. Los dos fragmentos de información de movimiento que constituyen la información de predicción bipredictiva candidata seleccionada se emiten mediante la línea L207a y mediante la línea L207b a la unidad 126 de compensación de movimiento y a la memoria 113 de información de predicción. La memoria 113 de información de predicción almacena la información de movimiento y la unidad 126 de compensación de movimiento adquiere señales de píxel a partir de imágenes reconstruidas adquiridas desde la memoria 104 de tramas, basándose en los dos fragmentos de información de movimiento, y genera una señal predicha de cada bloque de predicción en el bloque objetivo de decodificación, usando las señales de píxel. La señal predicha generada se emite mediante L126 a la unidad 205 de suma.
La unidad 207 de decodificación de coeficientes de transformada cuantificados decodifica por entropía los datos codificados de coeficientes de transformada cuantificados de la señal residual en el bloque objetivo de codificación, y emite los coeficientes de transformada cuantificados restaurados mediante la línea L207 a la unidad 203 de cuantificación inversa.
La unidad 203 de cuantificación inversa realiza una cuantificación inversa de los coeficientes de transformada cuantificados del bloque objetivo de decodificación introducido mediante la línea L207, para generar coeficientes de transformada. La unidad 204 de transformada inversa realiza una transformada de coseno discreta inversa de los coeficientes de transformada para restaurar una señal residual.
La unidad 205 de suma suma la señal predicha generada por la unidad 103 de generación de señal predicha, a la señal residual restaurada por la unidad 203 de cuantificación inversa y la unidad 204 de transformada inversa, para generar una señal de píxel decodificada del bloque objetivo de decodificación. La señal de píxel decodificada se emite mediante la línea L205 al terminal 206 de salida y la memoria 104 de tramas. El terminal 206 de salida emite una imagen reconstruida que incluye la señal de píxel decodificada, al exterior (por ejemplo, un dispositivo de visualización).
La memoria 104 de tramas almacena como imagen de referencia la imagen reconstruida emitida desde la unidad 205 de suma, que se usa como imagen reconstruida para referencia para el siguiente procedimiento de decodificación.
A continuación se describirá un método de decodificación predictiva de imágenes según una realización con referencia a la figura 11. En primer lugar, se introducen datos comprimidos a través del terminal 201 de entrada (etapa S201). Luego la unidad 202 de análisis de datos realiza el análisis de datos de los datos comprimidos y extrae los datos codificados de la información de movimiento para la generación de la señal predicha del bloque o la información de indicación para identificar la información de movimiento usada para la generación de la señal predicha del bloque objetivo de decodificación a partir de la información de movimiento asociada con bloques adyacentes, los datos codificados de la información para indicar cuál de la información de movimiento y la información de indicación se codifica, y los datos codificados de los coeficientes de transformada cuantificados. Los datos codificados de la información de movimiento o los datos codificados de la información de indicación se decodifican mediante la unidad 208 de decodificación de información de predicción.
Cuando se restaura la información de movimiento, la unidad 126 de compensación de movimiento genera la señal predicha del bloque objetivo de decodificación, basándose en la información de movimiento restaurada. La información de movimiento restaurada se almacena en la memoria 113 de información de predicción.
Cuando se restaura la información de indicación, la unidad 121 de derivación de información de movimiento adquiere la información de movimiento de bloques adyacentes desde la memoria 113 de información de predicción. La unidad 121 de derivación de información de movimiento puede adquirir la información de movimiento a partir de bloques adyacentes predeterminados. La información de movimiento puede adquirirse a partir de bloques adyacentes, basándose en la información transmitida desde el lado de codificación.
A continuación, la unidad 121 de derivación de información de movimiento, tal como se muestra en detalle en la figura 3, extrae información de movimiento entre la cual uno cualquiera de los elementos constituyentes de los fragmentos adquiridos de información de movimiento difiere en cuanto al valor, como información de movimiento candidata aplicable a la predicción del bloque objetivo de decodificación. Luego la unidad 121 de derivación de información de movimiento deriva un conjunto de dos fragmentos cualesquiera de información de movimiento candidata como información de predicción bipredictiva candidata (etapa S300).
A continuación, la unidad 209 de determinación de información de movimiento selecciona un fragmento de información de predicción bipredictiva a partir de los fragmentos derivados de información de predicción bipredictiva candidata, usando la información de indicación restaurada, para restaurar dos fragmentos de información de movimiento (etapa S203).
Después de eso, la unidad 126 de compensación de movimiento genera la señal predicha del bloque objetivo de decodificación, basándose en los dos fragmentos restaurados de información de movimiento, y almacena los dos fragmentos de información de movimiento en la memoria de información de predicción (S207).
A continuación, los coeficientes de transformada cuantificados decodificados por la unidad 207 de decodificación de coeficientes de transformada cuantificados se cuantifican de manera inversa mediante la unidad 203 de cuantificación inversa y la unidad 204 de transformada inversa aplica adicionalmente la transformada inversa a la salida procedente de la unidad 203 de cuantificación inversa para generar una señal residual decodificada (S208).
A continuación, la señal predicha generada se suma a la señal residual decodificada para generar una señal decodificada, y esta señal decodificada se almacena en la memoria 104 de tramas, para la decodificación del siguiente bloque objetivo de decodificación (etapa S209). Después de eso, cuando la determinación en la etapa S210 da como resultado que se determina que hay siguientes datos comprimidos, se repiten los procedimientos de S202 a S209 (S210), procesándose así todos los datos hasta el último.
La figura 12 es un dibujo que muestra una configuración de un programa para hacer que un ordenador ejecute el método de codificación predictiva de imágenes según una realización. El programa P100 de codificación predictiva de imágenes está dotado de un módulo P101 de división en bloques, un módulo P103 de generación de señal predicha, un módulo P104 de almacenamiento, un módulo P105 de resta, un módulo P106 de transformada, un módulo P107 de cuantificación, un módulo P108 de cuantificación inversa, un módulo P109 de transformada inversa, un módulo P110 de suma, un módulo P111 de codificación de coeficientes de transformada cuantificados, un módulo P113 de almacenamiento de información de predicción y un módulo P114 de codificación de información de predicción. El módulo P103 de generación de señal predicha incluye un módulo P121 de derivación de información de movimiento, un módulo P122 de selección de información de predicción de movimiento y un módulo P123 de compensación de movimiento.
Las funciones que el módulo P101 de división en bloques, el módulo P103 de generación de señal predicha, el módulo P104 de almacenamiento, el módulo P105 de resta, el módulo P106 de transformada, el módulo P107 de cuantificación, el módulo P108 de cuantificación inversa, el módulo P109 de transformada inversa, el módulo P110 de suma, el módulo P111 de codificación de coeficientes de transformada cuantificados, el módulo P113 de almacenamiento de información de predicción, el módulo P114 de codificación de información de predicción, el módulo P121 de derivación de información de movimiento, el módulo P122 de selección de información de predicción de movimiento y el módulo P123 de compensación de movimiento hacen que ejecute un ordenador son las mismas que las funciones respectivas de la unidad 102 de división en bloques, la unidad 103 de generación de señal predicha, la memoria 104 de tramas, la unidad 105 de resta, la unidad 106 de transformada, la unidad 107 de cuantificación, la unidad 108 de cuantificación inversa, la unidad 109 de transformada inversa, la unidad 110 de suma, la unidad 111 de codificación de coeficientes de transformada cuantificados, la memoria 113 de información de predicción, la unidad 114 de codificación de información de predicción, la unidad 121 de derivación de información de movimiento, la unidad 122 de selección de información de predicción de movimiento y la unidad 123 de compensación de movimiento.
La figura 13 es un dibujo que muestra una configuración de un programa para hacer que un ordenador ejecute el método de decodificación predictiva de imágenes según una realización. El programa P200 de decodificación predictiva de imágenes está dotado de un módulo P201 de análisis de datos, un módulo P202 de decodificación de información de predicción, un módulo P121 de derivación de información de movimiento, un módulo P203 de determinación de información de movimiento, un módulo P205 de almacenamiento de información de predicción, un módulo P126 de compensación de movimiento, un módulo P206 de decodificación de coeficientes de transformada cuantificados, un módulo P207 de cuantificación inversa, un módulo P208 de transformada inversa, un módulo P209 de suma y un módulo P104 de almacenamiento.
Las funciones que el módulo P201 de análisis de datos, el módulo P202 de decodificación de información de predicción, el módulo P121 de derivación de información de movimiento, el módulo P203 de determinación de información de movimiento, el módulo P205 de almacenamiento de información de predicción, el módulo P126 de compensación de movimiento, el módulo P206 de decodificación de coeficientes de transformada cuantificados, el módulo P207 de cuantificación inversa, el módulo P208 de transformada inversa, el módulo P209 de suma y el módulo P104 de almacenamiento hacen que ejecute un ordenador son las mismas que las funciones respectivas de la unidad 202 de análisis de datos, la unidad 208 de decodificación de información de predicción, la unidad 121 de derivación de información de movimiento, la unidad 209 de determinación de información de movimiento, la memoria 113 de información de predicción, la unidad 126 de compensación de movimiento, la unidad 207 de decodificación de coeficientes de transformada cuantificados, la unidad 203 de cuantificación inversa, la unidad 204 de transformada inversa, la unidad 205 de suma y la memoria 104 de tramas.
El programa P100 de codificación predictiva de imágenes o el programa P200 de decodificación predictiva de imágenes configurados tal como se describió anteriormente se almacenan en un medio 10 de grabación y se ejecutan por un ordenador descrito a continuación.
La figura 14 es un dibujo que muestra una configuración de hardware de un ordenador para ejecutar un programa grabado en un medio de grabación y la figura 15 es una vista en perspectiva de un ordenador para ejecutar un programa almacenado en un medio de grabación. El equipo que ejecuta un programa grabado en un medio de grabación no se limita a ordenadores, sino que puede ser un reproductor de DVD, un descodificador, un teléfono celular o similares, dotado de una CPU y configurado para realizar procesamiento y control basándose en software. Tal como se muestra en la figura 14, un ordenador 30 está dotado de un dispositivo 12 de lectura tal como una unidad de disquete, una unidad de CD-ROM o una unidad de DVD, una memoria 14 de trabajo (RAM) en la que reside un sistema operativo, una memoria 16 que almacena un programa almacenado en un medio 10 de grabación, un dispositivo 18 de monitor tal como un dispositivo de visualización, un ratón 20 y un teclado 22 como dispositivos de entrada, un dispositivo 24 de comunicación para la transmisión/recepción de datos y otros, y una CPU 26 para controlar la ejecución del programa. Cuando el medio 10 de grabación se pone en el dispositivo 12 de lectura, el ordenador 30 pasa a ser accesible para el programa P100 de codificación predictiva de imágenes o el programa P200 de decodificación predictiva de imágenes almacenado en el medio 10 de grabación, a través del dispositivo 12 de lectura, y pasa a ser capaz de funcionar como el dispositivo 100 de codificación predictiva de imágenes o el dispositivo 200 de decodificación predictiva de imágenes, basándose en el programa P100 de codificación predictiva de imágenes o el programa P200 de decodificación predictiva de imágenes.
Tal como se muestra en la figura 15, el programa de codificación predictiva de imágenes y el programa de decodificación predictiva de imágenes pueden ser los proporcionados en forma de señal 40 de datos de ordenador superpuesta sobre una onda portadora, a través de una red. En este caso, el ordenador 30 puede guardar el programa de codificación predictiva de imágenes o el programa de decodificación predictiva de imágenes recibido por el dispositivo 24 de comunicación, en la memoria 16 y ejecutar el programa de codificación predictiva de imágenes o el programa de decodificación predictiva de imágenes.
Las diversas realizaciones se describieron anteriormente, pero debe observarse que la presente invención puede incluir además modificaciones tal como se describe a continuación.
(Candidatos a información de movimiento)
En la realización anterior la información de movimiento está compuesta por el vector de movimiento, la identificación de lista de imágenes de referencia (List0 y List1 en la figura 5) y el índice de referencia (ref_idx en la figura 5), pero la información de movimiento puede configurarse sustituyendo la identificación de lista de imágenes de referencia y el índice de referencia con un número de trama. Un motivo para ello es que usando los números de trama puede lograrse el mismo resultado y efecto que en la realización descrita anteriormente que usa la información de movimiento asociada con bloques adyacentes.
(Restricciones con respecto a la información de movimiento bidireccional candidata)
En la realización anterior la unidad de derivación de información de movimiento usó todas las combinaciones de información de movimiento candidata como información de movimiento bidireccional candidata, pero sólo los conjuntos de información de movimiento que satisfagan las siguientes condiciones pueden adoptarse como información de movimiento bidireccional candidata.
1) Sólo los bloques inmediatamente superior e inmediatamente izquierdo con respecto al bloque objetivo.
2) Dos fragmentos de información de movimiento para indicar la misma imagen de referencia.
3) Dos vectores de movimiento que no son idénticos pero tienen valores cercanos (cuya diferencia de valores absolutos es menor que un determinado valor). Concretamente, el vector de movimiento (MVXa, MVYa) del bloque inmediatamente superior y el vector de movimiento (MVXb, MVYb) del bloque inmediatamente izquierdo satisfacen las dos siguientes relaciones:
(|MVXa - MVXb| != 0)||(|MVYa - MVYb| != 0); y
(|MVXa - MVXb| <= N) && (|MVYa - MVYb| <= N) (donde N es un valor pequeño).
Si no hay información de movimiento bidireccional candidata que satisfaga las condiciones, puede usarse el otro procedimiento de predicción sin transmisión de la información de indicación.
El número de la información de movimiento bidireccional candidata puede designarse en unidades de trama o en unidades de bloque y la información para especificar el número designado puede incluirse en datos comprimidos. Además, la información para indicar tal aplicación de las restricciones con respecto a la información de movimiento bidireccional candidata puede codificarse en unidades de trama.
(Identificación de información de indicación)
Al determinar la identificación de la información de indicación, un orden de prioridad del bloque (401) inmediatamente izquierdo y el bloque (402) inmediatamente superior puede determinarse usando la información de movimiento del bloque (404) superior derecho (en la figura 8) con respecto al bloque (400) objetivo (en la figura 8). Si el vector de movimiento del bloque inmediatamente superior (MVXa, MVYa), el vector de movimiento del bloque inmediatamente izquierdo (MVXb, MVYb) y el vector de movimiento del bloque superior izquierdo (MVXc, MVYc) satisfacen la relación de |MVXa - MVXc| |MVYa - MVYc| < |MVXb - MVXc| |MVYb - MVYc|, la información de movimiento del bloque inmediatamente izquierdo recibe una identificación con un recuento de bits menor. Si no se satisface la relación, la información de movimiento del bloque inmediatamente superior recibe una identificación con un recuento de bits menor. Cuando se otorga una prioridad más alta a la información de movimiento del bloque adyacente que se supone que tiene una correlación más alta con el bloque objetivo de esta manera, puede reducirse el recuento de bits de la información de indicación.
(Derivación y selección de vector de movimiento candidato)
En la realización anterior la derivación y la selección de vector de movimiento candidato se llevan a cabo para las componentes horizontal y vertical del vector de movimiento de manera conjunta, pero la derivación y la selección de vector de movimiento candidato pueden realizarse de manera individual para la componente horizontal y la componente vertical del vector de movimiento. En la realización anterior se definió un único vector de movimiento de un bloque adyacente como vector de movimiento candidato, pero también es posible definir como vector de movimiento candidato un promedio de dos vectores de movimiento o un vector de movimiento ajustado a escala según la distancia en la dirección temporal entre imágenes (por ejemplo, cada componente de vector se duplica cuando el vector de movimiento con respecto al objetivo de la imagen 504 en (A) de la figura 5 se convierte en el vector de movimiento con respecto al objetivo de la imagen 503).
(Tipo de predicción)
En la realización anterior el tipo de predicción para ambos de los dos bloques adyacentes es la predicción bipredictiva, pero la presente invención también puede aplicarse a casos en los que uno de ellos es la predicción hacia adelante o hacia atrás. En tales casos, se derivan hasta tres fragmentos de información de predicción bipredictiva candidata. En estos casos, pueden derivarse patrones de combinación de dos fragmentos de información de movimiento en un número igual al de los patrones descritos a continuación, a partir de bloques adyacentes. Concretamente, los patrones de combinación son de la siguiente manera:
(1) 1 patrón: en casos en los que se adoptan dos fragmentos de información de movimiento del bloque (402) inmediatamente superior o el bloque (401) inmediatamente izquierdo;
(2) 1 patrón: en casos en los que se emplean un fragmento de información de movimiento del bloque (402) inmediatamente superior y un fragmento de información de movimiento del bloque (401) inmediatamente izquierdo y en los que las listas de imágenes de referencia acerca de los dos fragmentos de información de movimiento son diferentes;
(3) 1 patrón: en casos en los que se emplean un fragmento de información de movimiento del bloque (402) inmediatamente superior y un fragmento de información de movimiento del bloque (401) inmediatamente izquierdo y en los que las listas de imágenes de referencia acerca de los dos fragmentos de información de movimiento son idénticas.
Además, ambos de los dos bloques adyacentes pueden ser la predicción hacia adelante o hacia atrás, o uno de ellos puede ser la predicción hacia adelante y el otro la predicción hacia atrás.
(Número de bloques adyacentes)
No hay restricciones particulares con respecto al número de bloques adyacentes aplicables a la predicción del bloque objetivo. Tal como en (B) de la figura 7, pueden usarse tres bloques 401 a 403 como bloques adyacentes. También es posible usar información de movimiento asociada con un bloque de una trama anterior. Si los bloques (401-405) adyacentes se dividen adicionalmente tal como se muestra en la figura 8, la información de movimiento asociada con tales bloques más pequeños puede incluirse en la información de movimiento candidata. También es posible usar información de movimiento de un bloque que no es contiguo al bloque objetivo.
(Predicción N-predictiva)
En la realización anterior el método de predicción del bloque objetivo realizado usando la información de movimiento asociada con los bloques adyacentes es la predicción bipredictiva, pero el método de predicción no tiene que limitarse a la misma, y puede ser una predicción unipredictiva o una predicción tripredictiva. En este caso, la etapa S310 en la figura 3 puede configurarse para derivar información de predicción N-predictiva candidata y seleccionar una a partir de la misma. En ese caso pueden almacenarse N fragmentos de información de movimiento, pero en el caso en el que N es tres o más, la información de movimiento que va a almacenarse puede limitarse a dos, por los índices de referencia o los valores de los vectores de movimiento.
(Unidad de transformada y unidad de transformada inversa)
El procedimiento de transformada de la señal residual puede llevarse a cabo en un tamaño de bloque fijo o el procedimiento de transformada puede llevarse a cabo dividiendo adicionalmente la región objetivo según una región parcial.
(Señal de color)
En la descripción de la realización anterior no hay ninguna descripción particular acerca del formato de color, pero el procedimiento de generación de señal predicha puede llevarse a cabo de manera individual a partir de una señal de luminancia, para una señal de color o una señal de diferencia de color. El procesamiento también puede llevarse a cabo de manera sincronizada con el procesamiento de la señal de luminancia.
La presente invención se describió anteriormente en detalle basándose en algunas realizaciones de la misma. Sin embargo, debe observarse que la presente invención no se limita en modo alguno a las realizaciones anteriores. Lista de signos de referencia
100 dispositivo de codificación predictiva de imágenes; 101 terminal de entrada; 102 unidad de división en bloques; 103 unidad de generación de señal predicha; 104 memoria de tramas; 105 unidad de resta; 106 unidad de transformada; 107 unidad de cuantificación; 108 unidad de cuantificación inversa; 109 unidad de transformada inversa; 110 unidad de suma; 111 unidad de codificación de coeficientes de transformada cuantificados; 112 terminal de salida; 113 memoria de información de predicción; 114 unidad de codificación de información de predicción; 121 unidad de derivación de información de movimiento; 122 unidad de selección de información de predicción de movimiento; 123 unidad de compensación de movimiento; 201 terminal de entrada; 202 unidad de análisis de datos; 203 unidad de cuantificación inversa; 204 unidad de transformada inversa; 205 unidad de suma; 206 terminal de salida; 207 unidad de decodificación de coeficientes de transformada cuantificados; 208 unidad de decodificación de información de predicción; 209 unidad de determinación de información de movimiento.

Claims (1)

  1. REIVINDICACIONES
    Dispositivo de decodificación predictiva de imágenes para generar una señal predicha de una región objetivo, comprendiendo el dispositivo:
    medios (202) de análisis de datos adaptados para extraer, a partir de datos comprimidos, datos codificados de información de indicación de la región objetivo y datos codificados de una señal residual de la región objetivo, identificando los datos codificados de información de indicación un conjunto de información de movimiento incluyendo dos fragmentos de información de movimiento asociados con regiones adyacentes, adyacentes a la región objetivo, incluyendo cada uno de los dos fragmentos de información de movimiento un número de trama y un vector de movimiento, identificándose el número de trama por una identificación de lista de imágenes de referencia y un índice de imágenes de referencia;
    medios (208) de decodificación de información de predicción adaptados para decodificar los datos codificados de información de indicación para restaurar la información de indicación;
    medios (121) de derivación de información de movimiento adaptados para derivar un conjunto de conjuntos de información de movimiento candidata, comprendiendo cada conjunto de información de movimiento dos fragmentos de información de movimiento para decodificación bipredictiva, en el que el conjunto de conjuntos información de movimiento candidata comprende todas las combinaciones por pares posibles de información de movimiento seleccionada de una pluralidad de regiones adyacentes de la región objetivo, en el que en cada uno de los conjuntos de información de movimiento candidata entre los dos fragmentos de información de movimiento y los números de trama respectivos son diferentes entre sí, o los vectores de movimiento respectivos son diferentes entre sí;
    medios (209) de determinación de información de movimiento adaptados para seleccionar, de los conjuntos de información de movimiento candidata, un conjunto de información de movimiento que va a usarse en la generación de la señal predicha de la región objetivo basándose en la información de indicación;
    medios (216) de compensación de movimiento adaptados para generar la señal predicha de la región objetivo combinando dos señales obtenidas a partir de una o más imágenes reconstruidas almacenadas en la memoria basándose en los dos fragmentos de información de movimiento que se identifican mediante el conjunto de información de movimiento seleccionado en los medios (209) de determinación de información de movimiento;
    medios (104) de grabación de información de movimiento adaptados para almacenar información de movimiento utilizada para la generación de la señal predicha de la región objetivo en la memoria;
    medios (203, 204, 207) de restauración de señal residual adaptados para restaurar una señal residual de la región objetivo a partir de los datos codificados de la señal residual;
    medios (205, 104) de grabación de imagen adaptados para reconstruir una señal de píxel de la región objetivo basándose en la señal predicha y la señal residual restaurada, y para almacenar la señal de píxel reconstruida como una parte de una imagen reconstruida.
    Método de decodificación predictiva de imágenes para generar una señal predicha de una región objetivo, comprendiendo el método:
    extraer a partir de datos comprimidos, datos codificados de información de indicación, de la región objetivo y datos codificados de una señal residual de la región objetivo, identificando los datos codificados de información de indicación un conjunto de información de movimiento que incluye dos fragmentos de información de movimiento asociados con regiones adyacentes, adyacentes a la región objetivo, incluyendo cada uno de los dos fragmentos de información de movimiento un número de trama y un vector de movimiento, identificándose el número de trama mediante una identificación de lista de imágenes de referencia y un índice de imagen de referencia (S202);
    decodificar los datos codificados de información de indicación para restaurar la información (S202) de indicación;
    derivar un conjunto de conjuntos de información de movimiento candidata, comprendiendo cada conjunto de información de movimiento dos fragmentos de información de movimiento para codificación bipredictiva, en la que el conjunto de conjuntos de información de movimiento candidata comprende todas las combinaciones por pares posibles de información de movimiento seleccionada de una pluralidad de regiones adyacentes de la región objetivo, en el que en cada uno de los conjuntos de información de movimiento candidata entre los dos fragmentos de información de movimiento y los números de trama respectivos son diferentes entre sí, o los vectores (S300) de movimiento respectivos son diferentes entre sí; seleccionar, a partir de los conjuntos de información de movimiento candidata, un conjunto de información de movimiento que va a usarse en la generación de la señal predicha de la región objetivo basándose en la información (S300) de indicación;
    generar la señal predicha de la región objetivo combinando dos señales obtenidas a partir de una o más imágenes reconstruidas almacenadas en la memoria basándose en los dos fragmentos de información de movimiento que se identifican mediante el conjunto (S207) de información de movimiento seleccionado; almacenar información de movimiento utilizada para la generación de la señal predicha de la región objetivo en la memoria (207);
    restaurar una señal residual de la región objetivo a partir de los datos codificados de la señal (S208) residual;
    reconstruir una señal de píxel de la región objetivo basándose en la señal predicha y la señal (S209) residual restaurada; y
    almacenar la señal de píxel reconstruida, como parte de una imagen (S209) reconstruida,
    Programa de decodificación predictiva de imágenes para generar una señal predicha de una región objetivo que comprende instrucciones que, cuando se ejecutan por un ordenador, hacen que el ordenador funcione como:
    extraer de datos comprimidos, datos codificados de información de indicación de la región objetivo y datos codificados de una señal residual de la región objetivo, identificando los datos codificados de información de indicación un conjunto de información de movimiento que incluye dos fragmentos de información de movimiento con regiones adyacentes, adyacentes a la región objetivo, incluyendo cada uno de los dos fragmentos de información de movimiento un número de trama y un vector de movimiento, identificándose el número de trama mediante una identificación de lista de imágenes de referencia y un índice de imagen de referencia (S202);
    decodificar los datos codificados de información de indicación para restaurar la información (S202) de indicación;
    derivar un conjunto de conjuntos de información de movimiento candidata, comprendiendo cada conjunto de información de movimiento dos fragmentos de información de movimiento para codificación bipredictiva, en el que el conjunto de conjuntos de información de movimiento candidata comprende todas las combinaciones por pares posibles de información de movimiento seleccionada de una pluralidad de regiones adyacentes de la región objetivo, en el que cada uno de los conjuntos de información de movimiento candidata entre los dos fragmentos de información de movimiento y los números de trama respectivos son diferentes entre sí, o los vectores (S300) de movimiento respectivos son diferentes entre sí; seleccionar, a partir de los conjuntos de información de movimiento candidata, un conjunto de información de movimiento que va a usarse en la generación de la señal predicha de la región objetivo basándose en la información (S300) de indicación;
    generar la señal predicha de la región objetivo combinando dos señales obtenidas a partir de una o más imágenes reconstruidas almacenadas en la memoria basándose en los dos fragmentos de información de movimiento que se identifican mediante en el conjunto (S207) de información de movimiento seleccionado; almacenar información de movimiento utilizada para la generación de la señal predicha de la región objetivo en la memoria (207);
    restaurar una señal residual de la región objetivo a partir de los datos codificados de la señal (208) residual; reconstruir una señal de píxel de la región objetivo basándose en la señal predicha y la señal (S209) residual restaurada, y
    almacenar la señal de píxel reconstruida como parte de una imagen reconstruida.
ES15191817T 2010-10-06 2011-09-29 Dispositivo, método y programa de decodificación bipredictiva de imágenes Active ES2778227T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010226472 2010-10-06

Publications (1)

Publication Number Publication Date
ES2778227T3 true ES2778227T3 (es) 2020-08-10

Family

ID=45927632

Family Applications (3)

Application Number Title Priority Date Filing Date
ES19217392T Active ES2929824T3 (es) 2010-10-06 2011-09-29 Método de decodificación bipredictiva de imágenes
ES11830569T Active ES2773774T3 (es) 2010-10-06 2011-09-29 Dispositivo, método y programa de codificación bipredictiva de imágenes, y dispositivo, método y programa de decodificación bipredictiva de imágenes
ES15191817T Active ES2778227T3 (es) 2010-10-06 2011-09-29 Dispositivo, método y programa de decodificación bipredictiva de imágenes

Family Applications Before (2)

Application Number Title Priority Date Filing Date
ES19217392T Active ES2929824T3 (es) 2010-10-06 2011-09-29 Método de decodificación bipredictiva de imágenes
ES11830569T Active ES2773774T3 (es) 2010-10-06 2011-09-29 Dispositivo, método y programa de codificación bipredictiva de imágenes, y dispositivo, método y programa de decodificación bipredictiva de imágenes

Country Status (18)

Country Link
US (7) US8873874B2 (es)
EP (9) EP3657798B1 (es)
JP (8) JP5575910B2 (es)
KR (8) KR101842071B1 (es)
CN (9) CN103119942B (es)
AU (2) AU2011313407B2 (es)
BR (1) BR112013007945B8 (es)
CA (4) CA2973344C (es)
DK (3) DK3657798T3 (es)
ES (3) ES2929824T3 (es)
HU (1) HUE060230T2 (es)
MX (5) MX2013003063A (es)
PL (1) PL3657798T3 (es)
PT (3) PT3001686T (es)
RU (8) RU2580942C2 (es)
SG (1) SG188501A1 (es)
TW (9) TWI621351B (es)
WO (1) WO2012046637A1 (es)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2595754C2 (ru) 2009-03-23 2016-08-27 Нтт Докомо, Инк. Устройство кодирования с предсказанием изображений, способ кодирования с предсказанием изображений, программа кодирования с предсказанием изображений, устройство декодирования с предсказанием изображений, способ декодирования с предсказанием изображений, программа декодирования с предсказанием изображений
CA3011221C (en) * 2010-07-20 2019-09-03 Ntt Docomo, Inc. Video prediction encoding and decoding for partitioned regions while determining whether or not to use motion information from neighboring regions
DK3657798T3 (da) 2010-10-06 2022-10-31 Ntt Docomo Inc Biforudsigelsesbilledafkodningsfremgangsmåde
US9648334B2 (en) * 2011-03-21 2017-05-09 Qualcomm Incorporated Bi-predictive merge mode based on uni-predictive neighbors in video coding
RU2658174C1 (ru) * 2012-09-06 2018-06-19 Сан Пэтент Траст Способ кодирования изображений, способ декодирования изображений, устройство кодирования изображений, устройство декодирования изображений и устройство кодирования и декодирования изображений
US20150195521A1 (en) * 2014-01-09 2015-07-09 Nvidia Corporation Candidate motion vector selection systems and methods
WO2017076221A1 (en) 2015-11-05 2017-05-11 Mediatek Inc. Method and apparatus of inter prediction using average motion vector for video coding
US10531085B2 (en) * 2017-05-09 2020-01-07 Futurewei Technologies, Inc. Coding chroma samples in video compression
KR101982929B1 (ko) * 2017-09-08 2019-05-27 연세대학교 산학협력단 행동 인식 장치 및 방법
US11082720B2 (en) 2017-11-21 2021-08-03 Nvidia Corporation Using residual video data resulting from a compression of original video data to improve a decompression of the original video data
WO2020017423A1 (en) 2018-07-17 2020-01-23 Panasonic Intellectual Property Corporation Of America Motion vector prediction for video coding
KR20210093891A (ko) * 2018-12-18 2021-07-28 엘지전자 주식회사 이차 변환에 기반한 영상 코딩 방법 및 그 장치

Family Cites Families (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4347344A (en) 1980-09-24 1982-08-31 Mobil Oil Corporation Oriented p-methyl styrene polymer
JPH073035Y2 (ja) 1988-10-31 1995-01-30 株式会社ユニシアジェックス 液体ポンプ
US6259739B1 (en) 1996-11-26 2001-07-10 Matsushita Electric Industrial Co., Ltd. Moving picture variable bit rate coding apparatus, moving picture variable bit rate coding method, and recording medium for moving picture variable bit rate coding program
US6765964B1 (en) 2000-12-06 2004-07-20 Realnetworks, Inc. System and method for intracoding video data
US7266150B2 (en) 2001-07-11 2007-09-04 Dolby Laboratories, Inc. Interpolation of video compression frames
US7801215B2 (en) * 2001-07-24 2010-09-21 Sasken Communication Technologies Limited Motion estimation technique for digital video encoding applications
EP3122045B1 (en) 2001-11-06 2018-01-24 Panasonic Intellectual Property Corporation of America Moving picture coding method and moving picture decoding method
US7003035B2 (en) * 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
US7321626B2 (en) * 2002-03-08 2008-01-22 Sharp Laboratories Of America, Inc. System and method for predictive motion estimation using a global motion predictor
JP2007060693A (ja) * 2002-04-10 2007-03-08 Toshiba Corp 動画像符号化、復号化方法及び装置
ES2745058T3 (es) * 2002-04-19 2020-02-27 Panasonic Ip Corp America Método de cálculo de vectores de movimiento
JP2004208258A (ja) * 2002-04-19 2004-07-22 Matsushita Electric Ind Co Ltd 動きベクトル計算方法
JP2004007563A (ja) * 2002-04-19 2004-01-08 Matsushita Electric Ind Co Ltd 動画像符号化方法および動画像復号化方法
CN1976455B (zh) * 2002-04-19 2011-12-07 松下电器产业株式会社 图像编码方法及图像编码装置
US20050180506A1 (en) 2002-05-30 2005-08-18 Wittebrood Rimmert B. Unit for and method of estimating a current motion vector
JP2004023458A (ja) * 2002-06-17 2004-01-22 Toshiba Corp 動画像符号化/復号化方法及び装置
JP4363326B2 (ja) * 2002-07-15 2009-11-11 株式会社日立製作所 動画像復号化方法
KR100865034B1 (ko) * 2002-07-18 2008-10-23 엘지전자 주식회사 모션 벡터 예측 방법
US7822120B2 (en) * 2002-07-26 2010-10-26 Panasonic Corporation Moving picture encoding method, moving picture decoding method, and recording medium
US6925123B2 (en) * 2002-08-06 2005-08-02 Motorola, Inc. Method and apparatus for performing high quality fast predictive motion search
KR100506864B1 (ko) * 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
JP4254469B2 (ja) * 2003-05-23 2009-04-15 日本ビクター株式会社 光ピックアップ装置及び光記録媒体駆動装置
US7609763B2 (en) * 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
US7369709B2 (en) * 2003-09-07 2008-05-06 Microsoft Corporation Conditional lapped transform
BR0318528A (pt) * 2003-10-09 2006-09-12 Thomson Licensing processo de derivação de modo direto para encobrimento de erros
US7400681B2 (en) * 2003-11-28 2008-07-15 Scientific-Atlanta, Inc. Low-complexity motion vector prediction for video codec with two lists of reference pictures
JP4414904B2 (ja) * 2004-04-16 2010-02-17 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム
EP1610560A1 (en) * 2004-06-24 2005-12-28 Deutsche Thomson-Brandt Gmbh Method and apparatus for generating and for decoding coded picture data
TWI268715B (en) * 2004-08-16 2006-12-11 Nippon Telegraph & Telephone Picture encoding method, picture decoding method, picture encoding apparatus, and picture decoding apparatus
US20060133498A1 (en) 2004-11-29 2006-06-22 Park Seung W Method and apparatus for deriving motion vectors of macroblocks from motion vectors of pictures of base layer when encoding/decoding video signal
KR100888963B1 (ko) * 2004-12-06 2009-03-17 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
EP1894412A1 (en) * 2005-02-18 2008-03-05 THOMSON Licensing Method for deriving coding information for high resolution images from low resoluton images and coding and decoding devices implementing said method
US8019000B2 (en) * 2005-02-24 2011-09-13 Sanyo Electric Co., Ltd. Motion vector detecting device
CN101171845A (zh) * 2005-03-17 2008-04-30 Lg电子株式会社 对使用层间预测编码的视频信号进行解码的方法
KR100714696B1 (ko) * 2005-06-24 2007-05-04 삼성전자주식회사 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
JP2007043651A (ja) * 2005-07-05 2007-02-15 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム
RU2368095C1 (ru) * 2005-07-22 2009-09-20 Мицубиси Электрик Корпорейшн Кодер изображения и декодер изображения, способ кодирования изображения и способ декодирования изображения, программа кодирования изображения и программа декодирования изображения и компьютерно-считываемый носитель записи, на котором записана программа кодирования изображения, и компьютерно-считываемый носитель записи, на котором записана программа декодирования изображения
CA2610276C (en) * 2005-07-22 2013-01-29 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
JP2007116351A (ja) * 2005-10-19 2007-05-10 Ntt Docomo Inc 画像予測符号化装置、画像予測復号装置、画像予測符号化方法、画像予測復号方法、画像予測符号化プログラム、及び画像予測復号プログラム
CN100588259C (zh) * 2006-03-22 2010-02-03 弗劳恩霍夫应用研究促进协会 具有精度可缩放性的编码方案
KR101200865B1 (ko) * 2006-03-23 2012-11-13 삼성전자주식회사 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
JP4734168B2 (ja) * 2006-05-09 2011-07-27 株式会社東芝 画像復号化装置及び画像復号化方法
US8275049B2 (en) * 2006-06-16 2012-09-25 Via Technologies, Inc. Systems and methods of improved motion estimation using a graphics processing unit
CN101473655B (zh) * 2006-06-19 2011-06-08 Lg电子株式会社 用于处理多视点视频信号的方法和装置
EP2079242A4 (en) * 2006-10-30 2010-11-03 Nippon Telegraph & Telephone METHOD FOR GENERATING PREDICTIVE REFERENCE INFORMATION, DYNAMIC IMAGE ENCODING AND DECODING METHOD, DEVICE THEREOF, PROGRAM THEREOF, AND STORAGE MEDIUM CONTAINING THE PROGRAM
KR101365567B1 (ko) 2007-01-04 2014-02-20 삼성전자주식회사 영상의 예측 부호화 방법 및 장치, 그 복호화 방법 및 장치
CN101573985B (zh) * 2006-11-03 2012-07-04 三星电子株式会社 用于视频预测编码的方法和装置以及用于视频预测解码的方法和装置
FR2908949A1 (fr) * 2006-11-16 2008-05-23 Thomson Licensing Sas Procede de transcodage de donnees du standard mpeg2 a un standard mpeg4.
US20080126278A1 (en) * 2006-11-29 2008-05-29 Alexander Bronstein Parallel processing motion estimation for H.264 video codec
JP5372352B2 (ja) * 2007-04-09 2013-12-18 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法および画像予測復号プログラム
US8254455B2 (en) * 2007-06-30 2012-08-28 Microsoft Corporation Computing collocated macroblock information for direct mode macroblocks
KR101442608B1 (ko) * 2008-02-05 2014-09-25 삼성전자주식회사 영상을 효율적으로 부호화/복호화하는 방법 및 장치
KR20090097013A (ko) * 2008-03-10 2009-09-15 삼성전자주식회사 영상 부호화장치 및 영상 복호화장치
CN101605256A (zh) * 2008-06-12 2009-12-16 华为技术有限公司 一种视频编解码的方法及装置
US20090316042A1 (en) * 2008-06-19 2009-12-24 Chin-Chuan Liang Video processing methods and related devices for determining target motion vector
JP4977094B2 (ja) * 2008-06-25 2012-07-18 株式会社東芝 画像符号化方法
CN102204254B (zh) * 2008-09-04 2015-03-18 汤姆森特许公司 使用隐式运动预测进行预测精细化的方法及装置
JP5401071B2 (ja) * 2008-10-09 2014-01-29 株式会社Nttドコモ 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム、動画像処理システムおよび動画像処理方法
KR101647376B1 (ko) * 2009-03-30 2016-08-10 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
KR101611437B1 (ko) * 2009-10-28 2016-04-26 삼성전자주식회사 복수의 프레임을 참조하여 영상을 부호화, 복호화하는 방법 및 장치
US20110206118A1 (en) 2010-02-19 2011-08-25 Lazar Bivolarsky Data Compression for Video
US8681873B2 (en) 2010-02-19 2014-03-25 Skype Data compression for video
KR102158700B1 (ko) * 2010-05-04 2020-09-22 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
KR102439252B1 (ko) * 2010-05-26 2022-08-31 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
BR112013006499B1 (pt) 2010-09-30 2022-09-20 Mitsubishi Electronic Corporation Dispositivo de decodificação de imagem em movimento
DK3657798T3 (da) 2010-10-06 2022-10-31 Ntt Docomo Inc Biforudsigelsesbilledafkodningsfremgangsmåde
US8824558B2 (en) * 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction

Also Published As

Publication number Publication date
MX348155B (es) 2017-06-02
JP5982537B2 (ja) 2016-08-31
CN103119942A (zh) 2013-05-22
TW201909637A (zh) 2019-03-01
RU2732512C1 (ru) 2020-09-18
RU2621688C1 (ru) 2017-06-07
KR20190122275A (ko) 2019-10-29
TWI621351B (zh) 2018-04-11
JP5774753B2 (ja) 2015-09-09
CN106210737A (zh) 2016-12-07
CA2973344A1 (en) 2012-04-12
US20190335194A1 (en) 2019-10-31
CA2813377C (en) 2017-08-29
AU2011313407A1 (en) 2013-04-04
CN107197304A (zh) 2017-09-22
RU2013120007A (ru) 2014-11-20
CA3083703A1 (en) 2012-04-12
KR101927282B1 (ko) 2018-12-10
TWI562608B (es) 2016-12-11
US20140369616A1 (en) 2014-12-18
RU2747247C1 (ru) 2021-04-29
JP2021122148A (ja) 2021-08-26
JP2014180059A (ja) 2014-09-25
TW202029769A (zh) 2020-08-01
TWI736186B (zh) 2021-08-11
CA2813377A1 (en) 2012-04-12
TW201524196A (zh) 2015-06-16
CA2973344C (en) 2020-07-28
KR20180027650A (ko) 2018-03-14
DK3001686T3 (da) 2020-03-23
KR20160120353A (ko) 2016-10-17
JP2019205189A (ja) 2019-11-28
MX2013003063A (es) 2013-05-30
TW202029768A (zh) 2020-08-01
AU2015200190B2 (en) 2016-09-15
CN106210738B (zh) 2018-10-23
CN106131569B (zh) 2018-09-07
EP2627090A4 (en) 2015-07-22
EP2627090B1 (en) 2020-01-22
TWI692246B (zh) 2020-04-21
CN107197305A (zh) 2017-09-22
HUE060230T2 (hu) 2023-02-28
TW201701666A (zh) 2017-01-01
TWI600313B (zh) 2017-09-21
KR101665490B1 (ko) 2016-10-12
EP3637778A1 (en) 2020-04-15
RU2654202C1 (ru) 2018-05-17
TWI718908B (zh) 2021-02-11
TWI647949B (zh) 2019-01-11
AU2011313407B2 (en) 2015-02-26
EP3637779A1 (en) 2020-04-15
PT2627090T (pt) 2020-03-04
DK2627090T3 (da) 2020-03-02
PT3001686T (pt) 2020-03-26
US10440383B2 (en) 2019-10-08
AU2015200190B9 (en) 2017-02-02
CN107257478A (zh) 2017-10-17
US8873874B2 (en) 2014-10-28
CN106131569A (zh) 2016-11-16
EP3001686B1 (en) 2020-02-19
CN106210737B (zh) 2019-05-21
JP2015195596A (ja) 2015-11-05
PL3657798T3 (pl) 2022-12-27
TW202029770A (zh) 2020-08-01
MX367863B (es) 2019-09-05
CN107257478B (zh) 2020-03-17
SG188501A1 (en) 2013-04-30
EP3637776A1 (en) 2020-04-15
CN107197304B (zh) 2020-02-28
TWI722842B (zh) 2021-03-21
TW201743615A (zh) 2017-12-16
US10554998B2 (en) 2020-02-04
US20190335195A1 (en) 2019-10-31
KR20180130003A (ko) 2018-12-05
RU2580942C2 (ru) 2016-04-10
US20190342571A1 (en) 2019-11-07
MX2019010418A (es) 2019-10-15
PT3657798T (pt) 2022-11-04
JP2018207525A (ja) 2018-12-27
RU2695776C1 (ru) 2019-07-26
WO2012046637A1 (ja) 2012-04-12
AU2015200190A1 (en) 2015-02-12
BR112013007945B8 (pt) 2019-10-15
CN105338364B (zh) 2018-07-24
KR101560757B1 (ko) 2015-10-15
KR102123960B1 (ko) 2020-06-17
JP6559309B2 (ja) 2019-08-14
KR20140029354A (ko) 2014-03-10
EP3657798A1 (en) 2020-05-27
TWI517678B (zh) 2016-01-11
CN107257477A (zh) 2017-10-17
KR20170072369A (ko) 2017-06-26
JP6887550B2 (ja) 2021-06-16
KR101752262B1 (ko) 2017-06-29
BR112013007945B1 (pt) 2019-07-02
JP2016201838A (ja) 2016-12-01
KR20160075807A (ko) 2016-06-29
JP2020162174A (ja) 2020-10-01
EP3001686A1 (en) 2016-03-30
KR101752263B1 (ko) 2017-06-29
DK3657798T3 (da) 2022-10-31
CA3136692A1 (en) 2012-04-12
KR20150093253A (ko) 2015-08-17
EP2627090A1 (en) 2013-08-14
US20170127083A1 (en) 2017-05-04
CN105338364A (zh) 2016-02-17
EP3637780A1 (en) 2020-04-15
ES2929824T3 (es) 2022-12-01
US20190335193A1 (en) 2019-10-31
JPWO2012046637A1 (ja) 2014-02-24
CN103119942B (zh) 2018-05-01
CA3083703C (en) 2021-12-21
JP7085044B2 (ja) 2022-06-15
TW201230820A (en) 2012-07-16
CN107197305B (zh) 2020-02-28
EP3637777A1 (en) 2020-04-15
ES2773774T3 (es) 2020-07-14
JP6726340B2 (ja) 2020-07-22
CN106210738A (zh) 2016-12-07
EP3657798B1 (en) 2022-10-12
JP5575910B2 (ja) 2014-08-20
KR102037287B1 (ko) 2019-10-28
RU2720702C1 (ru) 2020-05-12
US20130216148A1 (en) 2013-08-22
EP3637775A1 (en) 2020-04-15
TW201818722A (zh) 2018-05-16
BR112013007945A2 (pt) 2016-06-28
MX361493B (es) 2018-12-07
CN107257477B (zh) 2020-02-28
RU2677254C1 (ru) 2019-01-16
KR101842071B1 (ko) 2018-03-26

Similar Documents

Publication Publication Date Title
ES2778227T3 (es) Dispositivo, método y programa de decodificación bipredictiva de imágenes
KR100823287B1 (ko) 전역 차이 벡터를 이용한 다시점 영상의 부호화, 복호화방법 및 장치
ES2662879T3 (es) Dispositivo de codificación predictiva de vídeo, método de codificación predictiva de vídeo, programa de codificación predictiva de vídeo, dispositivo de descodificación predictiva de vídeo, método de descodificación predictiva de vídeo y programa de descodificación predictiva de vídeo
AU2019257491B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
AU2015202089B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program