ES2806049T3 - Procedimiento de descodificación predictiva de vídeo en movimiento, dispositivo de descodificación predictiva de vídeo en movimiento - Google Patents

Procedimiento de descodificación predictiva de vídeo en movimiento, dispositivo de descodificación predictiva de vídeo en movimiento Download PDF

Info

Publication number
ES2806049T3
ES2806049T3 ES18204031T ES18204031T ES2806049T3 ES 2806049 T3 ES2806049 T3 ES 2806049T3 ES 18204031 T ES18204031 T ES 18204031T ES 18204031 T ES18204031 T ES 18204031T ES 2806049 T3 ES2806049 T3 ES 2806049T3
Authority
ES
Spain
Prior art keywords
image
information
buffer
poc
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18204031T
Other languages
English (en)
Inventor
Choong Seng Boon
Yoshinori Suzuki
Thiow Keng Tan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Application granted granted Critical
Publication of ES2806049T3 publication Critical patent/ES2806049T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • H04N19/433Hardware specially adapted for motion estimation or compensation characterised by techniques for memory access
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Procedimiento de descodificación predictiva de vídeo ejecutado por un dispositivo (30, 200) de descodificación predictiva de vídeo, que comprende: una etapa de introducción de introducir datos de imagen comprimidos para cada una de una pluralidad de imágenes que constituyen una secuencia de vídeo, conteniendo los datos de imagen comprimidos datos resultantes de la codificación predictiva usando una pluralidad de imágenes de referencia, que se han descodificado y reproducido en el pasado, y datos codificados de información (822, 824, 1222, 1224, 2422, 2424) de descripción de memoria intermedia BD[k] relacionada con la pluralidad de imágenes de referencia, describiendo la información de descripción de memoria intermedia BD[k] un número de imágenes (830, 833, 839, 1230, 1233, 1240, 2430) de referencia que van a almacenarse en la memoria (207) intermedia e información (835, 836, 837, 841, 842, 843, 844, 1236, 1237, 1243, 1244, 2435, 2436, 2437, 2441, 2442, 2443, 2444) para identificar qué imagen de referencia debe almacenarse; una etapa de reconstrucción de descodificar los datos de imagen comprimidos para reconstruir una imagen reproducida; una etapa de almacenamiento de imagen de almacenar al menos una de dichas imágenes reproducidas como imagen de referencia que va a usarse para descodificar una imagen posterior; y una etapa de gestión de memoria intermedia (410, 420, 430, 440, 450, 460) de controlar la etapa de almacenamiento de imagen, en el que, antes de la reconstrucción de la imagen reproducida, la etapa de gestión de memoria intermedia comprende descodificar (460), con referencia a la información (820, 822, 1220, 1222, 2420, 2422) de descripción de memoria intermedia BD[m] para otra imagen diferente de la imagen reproducida, los datos codificados de la información de descripción de memoria intermedia BD[k] para la imagen reproducida, y entonces controlar la etapa de almacenamiento de imagen basándose en la información de descripción de memoria intermedia descodificada BD[k], en el que la descodificación (460) de los datos codificados de la información de descripción de memoria intermedia BD[k] para la imagen reproducida incluye: descodificar un índice m que identifica la información de descripción de memoria intermedia BD[m] para otra imagen diferente de la imagen reproducida, descodificar un valor de deltaBD (834, 840, 1235, 1242, 2434, 2440) que representa una diferencia entre información de identificación de las imágenes de referencia correspondientes en BD[m] y BD[k], siendo la información de identificación un POC (recuento de salida de imagen) indicativo de un orden de salida de la imagen de referencia correspondiente, descodificar una pluralidad de indicadores ibd_flag[j] (835, 836, 837, 841, 842, 843, 844, 1236, 1237, 1243, 1244, 2435, 2436, 2437, 2441, 2442, 2443, 2444) que indican tanto si la j-ésima imagen de referencia incluida en BD[m] se usa o no para descodificar una imagen objetivo de procesamiento actual como si una información de identificación de una j-ésima imagen de referencia incluida en BD[m] se usa o no para descodificar una información de identificación de una i-ésima imagen de referencia incluida en BD[k], y descodificar una información sobre la imagen de referencia en BD[k] basándose en el índice m descodificado, la información de descripción de memoria intermedia BD[m], el valor descodificado de deltaBD y los indicadores descodificados ibd_flag[j], en el que, cuando el ibd_flag[j] indica que la información de identificación de la j-ésima imagen de referencia incluida en BD[m] se usa para descodificar la información de identificación de la i-ésima imagen de referencia incluida en BD[k], un deltaPOC[i] que es la información de identificación de la i-ésima imagen de referencia incluida en BD[k] se deriva sumando (760) el valor de deltaBD a un deltaPOC[j] que es la información de identificación de la j-ésima imagen de referencia incluida en BD[m], y en el que, cuando j es igual al número de imágenes de referencia incluidas en BD[m], el deltaPOC[i] que es la información de identificación de la i-ésima imagen de referencia incluida en BD[k] se establece (770) al valor de deltaBD.

Description

DESCRIPCIÓN
Procedimiento de descodificación predictiva de vídeo en movimiento, dispositivo de descodificación predictiva de vídeo en movimiento
Campo técnico
La presente invención se refiere a un procedimiento, dispositivo y programa de codificación predictiva de vídeo, y a un procedimiento, dispositivo y programa de descodificación predictiva de vídeo, y más particularmente, a una descripción en una memoria intermedia para imágenes de referencia que van a usarse en la codificación predictiva inter-tramas.
Técnica anterior
Se usan tecnologías de codificación de compresión para la transmisión y el almacenamiento eficientes de datos de vídeo. Las técnicas definidas en MPEG-1 a 4 e ITU (International Telecommunication Union) H.261 a H.264 se usan comúnmente para datos de vídeo.
En estas técnicas de codificación, una imagen como objetivo de codificación se divide en una pluralidad de bloques y después se lleva a cabo un procedimiento de codificación y un procedimiento de descodificación para cada bloque. Los procedimientos de codificación predictiva tal como se describen a continuación se usan con el fin de mejorar la eficiencia de la codificación. En la codificación predictiva intra-tramas, se genera una señal predicha usando una señal de imagen adyacente anteriormente reproducida (una señal reconstruida, reconstruida a partir de datos de imagen comprimidos en el pasado) presente en la misma trama como un bloque objetivo, y después se codifica una señal residual obtenida restando la señal predicha de una señal del bloque objetivo. En la codificación predictiva inter-tramas, se busca un desplazamiento de señal con referencia a una señal de imagen anteriormente reproducida presente en una trama diferente de un bloque objetivo, se genera una señal predicha con compensación para el desplazamiento, y se codifica una señal residual obtenida restando la señal predicha de la señal del bloque objetivo. La imagen anteriormente reproducida usada para referencia para la búsqueda de movimiento y compensación se denomina imagen de referencia.
En la codificación predictiva inter-tramas de H.264, la señal predicha para el bloque objetivo se selecciona realizando la búsqueda de movimiento con referencia a una pluralidad de imágenes de referencia que se han codificado y después reproducido en el pasado, y definiendo una señal de imagen con el menor error como señal predicha óptima. Se calcula una diferencia entre la señal de píxel del bloque objetivo y esta señal predicha óptima y después se somete a una transformada de coseno discreta, cuantificación y codificación por entropía. Al mismo tiempo, también se codifica información sobre la imagen de referencia de la que se deriva la señal predicha óptima para el bloque objetivo (que se denominará “índice de referencia”) e información sobre la región de la imagen de referencia de la que se deriva la señal predicha óptima (que se denominará “vector de movimiento”). En H.264, las imágenes reproducidas se almacenan como de cuatro a cinco imágenes de referencia en una memoria de trama o memoria intermedia de imágenes reproducidas (o memoria intermedia de imágenes descodificadas, que también se denominará “DPB”).
Un procedimiento general para la gestión de una pluralidad de imágenes de referencia es una técnica de liberación, a partir de la memoria intermedia, de una región ocupada por la imagen de referencia más antigua (es decir, una imagen que se ha almacenado en la memoria intermedia durante el mayor periodo de tiempo) de una pluralidad de imágenes reproducidas, y almacenar una imagen reproducida que se ha descodificado en último lugar, como imagen de referencia. Por otro lado, la bibliografía no de patente 1 a continuación divulga un procedimiento de gestión de imágenes de referencia para preparar de manera flexible imágenes de referencia óptimas para una imagen objetivo, con el fin de potenciar la eficiencia de la predicción inter-tramas.
De acuerdo con la bibliografía no de patentes 1, se añade información de descripción de memoria intermedia para describir una pluralidad de imágenes de referencia que van a almacenarse en la memoria intermedia a datos codificados de cada imagen objetivo, y después se codifica. Los identificadores de las imágenes de referencia necesarios para procesar (codificar o descodificar) la imagen objetivo y las imágenes posteriores se describen en esta información de descripción de memoria intermedia. En un dispositivo de codificación o un dispositivo de descodificación, la memoria intermedia se gestiona de modo que se almacenan imágenes reproducidas designadas en la memoria intermedia (memoria de trama), de acuerdo con la información de descripción de memoria intermedia. Por otro lado, cualquier imagen reproducida no designada se elimina de la memoria intermedia.
La información de descripción de memoria intermedia sobre cada imagen objetivo puede enviarse añadiéndose a la cabecera de datos comprimidos de cada imagen objetivo, o fragmentos de información de descripción de memoria intermedia sobre una pluralidad de imágenes objetivo pueden enviarse juntos como parte de información de PPS (conjunto de parámetros de imagen) que porta parámetros del procedimiento de descodificación aplicados en común. La figura 15 es un diagrama esquemático que muestra la información de descripción de memoria intermedia descrita en un PPS. Aunque el PPS contiene información además de la información de descripción de memoria intermedia, la otra información se omite en el presente documento. En la información 1510 de PPS se describen el número 1511 de descripciones de memoria intermedia (cada una de las cuales también se mencionará a continuación en el presente documento “BD”), y tantos fragmentos (1520, 1522, 1524) de información sobre las BD como el número. En la información sobre cada BD (la k-ésima BD se denominará BD[k]) se describen el número 1530 de imágenes de referencia almacenadas en la memoria intermedia e información (1531, 1532) para identificar qué imagen de referencia tiene que almacenarse. La información usada para identificar cada imagen de referencia es un POC (recuento de salida de imagen) indicativo de un orden de salida de la imagen al exterior. En el presente documento, en lugar del uso directo del número de POC, se describe el A POCk,j (la j-ésima componente en la k-ésima BD) que es una diferencia entre el número de POC de la imagen de referencia y el número de POC de la imagen objetivo de procesamiento. También se envía D_IDk,j, que es indicativo de la dependencia con respecto a la imagen de referencia de otras imágenes. Cuanto menor es el valor de D_IDk,j, más imágenes hay para las que la reproducción depende de la imagen de referencia; por otro lado, cuanto mayor es este valor, menor es la influencia sobre otras imágenes. Si D_IDk,j de una imagen de referencia es el mayor valor, la imagen de referencia no se necesita para la reproducción de otras imágenes y por lo tanto no tiene que almacenarse como imagen de referencia. En resumen, la tecnología convencional está configurada para enviar la descripción de memoria intermedia BD[k] en forma de la información del valor (#A POCk) indicativo del número de imágenes de referencia y {A POCk,j, D_IDk,j} para cada una del número de imágenes de referencia, desde el lado de transmisión hasta el lado de recepción.
La figura 16 muestra un estado de imágenes objetivo e imágenes de referencia en la memoria intermedia DPB en el procesamiento de las imágenes objetivo respectivas. Un número de POC para identificar una imagen se escribe en cada celda. Por ejemplo, la fila 1610 significa que en el procesamiento (codificación o descodificación) de una imagen objetivo con POC=32, se almacenan imágenes de referencia con POC=18, 20, 22 y 24 en la DPB. La figura 17 muestra la información de descripción de memoria intermedia obtenida aplicando la tecnología convencional a la figura 16. Cada una de celdas debajo de 1704 indica un valor de A POCk,j.
Lista de referencias
Bibliografía no de patentes
Bibliografía no de patentes 1: Rickard Sjoberg, Jonatan Samuelsson, “Absolute signaling of reference pictures”, Joint Collaborative Team on Video Coding, JCTVC-F493, Torino, 2011. Bibliografía no de patentes 2: Rickard Sjoberg et al, “Absolute signaling of reference pictures”, Joint Video Team (JVT) DE MPEG De ISO/IEC Y VCEG DE ITU-T (ISO/IECJTC1/SC29/WG11 Y SG16 DE ITU-T Q6), n.° M20923, 18 de julio de 2011 (18-01-2011), páginas 1-15. La bibliografía no de patente 2 describe que imágenes que deben estar disponibles para referencia se describen de manera absoluta en la cabecera de sector.
Sumario de la invención
Problema técnico
En la codificación y descodificación de vídeo, resulta común hacer referencia a una imagen idéntica por una pluralidad de imágenes objetivo. En otras palabras, la misma imagen de referencia puede usarse múltiples veces (de manera repetida). A partir de la figura 16 se observa que a la imagen de referencia con POC=32 encerrada dentro de la línea discontinua 1603 se le hace referencia por las imágenes objetivo con POC=28, 26, 30, 25, 27, 29 y 31. También se observa a partir de los valores en las celdas respectivas debajo de 1602 en la figura 16 que las imágenes de referencia con POC=22, 24, 28, 26 y 30 también se usan múltiples veces.
Sin embargo, en la información de descripción de memoria intermedia basada en la tecnología convencional, A POCk,j se determina independientemente en cada BD[k], y por este motivo, incluso para la misma imagen de referencia, A POCk,j de la misma se describe en cada BD[k]; por lo tanto, la misma información debe transmitirse y recibirse de manera repetida, a pesar de ser la misma que la información anteriormente transmitida y recibida. Esto se explicará usando el ejemplo de la figura 16 y la figura 17. Los valores en las celdas respectivas encerradas dentro de la línea discontinua 1705 corresponden a los números de POC de las celdas respectivas encerradas dentro de la línea discontinua 1603 en la figura 16. Aunque todos los valores en la línea discontinua 1603 representan la imagen de referencia con POC=32, todos los valores de A POCk,j en la línea discontinua 1705 son diferentes. Dado que estos valores de A POCk,j son ampliamente diferentes, es necesario codificarlos usando muchos bits. Por lo tanto, la tecnología convencional tiene un problema en cuanto a que la misma información tiene que transmitirse y recibirse de manera repetida usando muchos bits, con el fin de transmitir la información de descripción de memoria intermedia.
Solución al problema
Con el fin de resolver el problema anterior, en un primer aspecto la presente invención proporciona un procedimiento de descodificación predictiva de vídeo tal como se define en la reivindicación 1, y en un segundo aspecto un dispositivo de descodificación predictiva de vídeo tal como se define en la reivindicación 2.
Efectos de la invención
Los procedimientos de codificación y descodificación de la información de descripción de memoria intermedia de acuerdo con la presente invención hacen uso de la propiedad de usar de manera repetida la misma imagen de referencia en los procedimientos de codificación y descodificación predictiva para una pluralidad de imágenes, de modo que se usa la correlación entre fragmentos de información de descripción de memoria intermedia BD[k] usada para diferentes imágenes, con el fin de reducir la información redundante, logrando así el efecto de codificar de manera eficiente la información de descripción de memoria intermedia. Además, la información específica para cada imagen de referencia (información de dependencia) es la misma que la de la imagen a la que se hace referencia y por lo tanto la información puede heredarse tal cual, logrando así la ventaja de no necesitar codificarla y descodificarla de nuevo.
Breve descripción de los dibujos
La figura 1 es un diagrama de bloques que muestra un dispositivo de codificación predictiva de vídeo de acuerdo un modo de realización de la presente invención.
La figura 2 es un diagrama de bloques que muestra un dispositivo de descodificación predictiva de vídeo de acuerdo con un modo de realización de la presente invención.
La figura 3 es un diagrama de flujo que muestra un procedimiento de gestión de memoria intermedia en el dispositivo de codificación predictiva de vídeo de acuerdo con un modo de realización de la presente invención.
La figura 4 es un diagrama de flujo que muestra un procedimiento de gestión de memoria intermedia en el dispositivo de descodificación predictiva de vídeo de acuerdo con un modo de realización de la presente invención.
La figura 5 es una tabla que muestra la información de descripción de memoria intermedia generada mediante el procedimiento de gestión de memoria intermedia usado en un modo de realización de la presente invención.
La figura 6 es un diagrama de flujo que muestra un procedimiento de codificación de información de descripción de memoria intermedia en el dispositivo de codificación predictiva de vídeo de acuerdo con un modo de realización de la presente invención.
La figura 7 es un diagrama de flujo que muestra un procedimiento de descodificación de información de descripción de memoria intermedia en el dispositivo de descodificación predictiva de vídeo de acuerdo con un modo de realización de la presente invención.
La figura 8 es un diagrama esquemático que muestra la información de descripción de memoria intermedia descrita en un PPS generado mediante un modo de realización de la presente invención.
La figura 9 es otro ejemplo que muestra un estado de imágenes objetivo e imágenes de referencia en la memoria intermedia DPB en el procesamiento de las imágenes objetivo respectivas.
La figura 10 es un diagrama de flujo que muestra un procedimiento de codificación de información de descripción de memoria intermedia en el dispositivo de codificación predictiva de vídeo de acuerdo con un modo de realización de la presente invención referente al ejemplo de la figura 9.
La figura 11 es un diagrama de flujo que muestra un procedimiento de descodificación de información de descripción de memoria intermedia en el dispositivo de descodificación predictiva de vídeo de acuerdo con un modo de realización de la presente invención referente al ejemplo de la figura 9.
La figura 12 es un diagrama esquemático que muestra la información de descripción de memoria intermedia descrita en un PPS generado mediante un modo de realización de la presente invención referente al ejemplo de la figura 9. La figura 13 es un dibujo que muestra una configuración de hardware de un ordenador para ejecutar un programa grabado en un medio de grabación.
La figura 14 es una vista en perspectiva de un ordenador para ejecutar un programa almacenado en un medio de grabación.
La figura 15 es un diagrama esquemático que muestra la información de descripción de memoria intermedia descrita en un PPS mediante la tecnología convencional.
La figura 16 es un ejemplo que muestra un estado de imágenes objetivo e imágenes de referencia en la memoria intermedia DPB en el procesamiento de las imágenes objetivo respectivas.
La figura 17 es una tabla que muestra la información de descripción de memoria intermedia obtenida a partir del ejemplo de la figura 16, basándose en la tecnología convencional.
La figura 18 es un diagrama de flujo que muestra un procedimiento de codificación directa de números de POC de la información de descripción de memoria intermedia en el dispositivo de codificación predictiva de vídeo de acuerdo con un modo de realización de la presente invención.
La figura 19 es un diagrama de flujo que muestra un procedimiento de descodificación directa de números de POC de la información de descripción de memoria intermedia en el dispositivo de descodificación predictiva de vídeo de acuerdo con un modo de realización de la presente invención.
La figura 20 es una tabla que muestra la información de descripción de memoria intermedia obtenida a partir del ejemplo de la figura 9, basándose en la tecnología convencional.
La figura 21 es una tabla que muestra la información de descripción de memoria intermedia obtenida a partir del ejemplo de la figura 20, basándose en un procedimiento de gestión de memoria intermedia usado en un modo de realización de la presente invención.
La figura 22 es un diagrama de flujo que muestra otro procedimiento de implementación diferente del procedimiento de la figura 6 sobre el procedimiento de codificación de información de descripción de memoria intermedia en el dispositivo de codificación predictiva de vídeo de acuerdo con un modo de realización de la presente invención.
La figura 23 es un diagrama de flujo que muestra otro procedimiento de implementación diferente del procedimiento de la figura 7 sobre el procedimiento de descodificación de información de descripción de memoria intermedia en el dispositivo de descodificación predictiva de vídeo de acuerdo con un modo de realización de la presente invención.
La figura 24 es un diagrama esquemático que muestra la información de descripción de memoria intermedia descrita en un PPS generado mediante el procedimiento de codificación de información de descripción de memoria intermedia mediante un modo de realización de la presente invención basándose en la figura 22.
Modos de realización de la invención
A continuación se describirán modos de realización de la presente invención usando las figuras 1 a 24.
La figura 1 es un diagrama de bloques que muestra un dispositivo 100 de codificación predictiva de vídeo de acuerdo con un modo de realización de la presente invención. Tal como se muestra en la figura 1, el dispositivo 100 de codificación predictiva de vídeo está dotado de un terminal 101 de entrada, una unidad 102 de división de bloques, una unidad 103 de generación de señal predicha, una memoria 104 de trama (o memoria intermedia, que también se denominará DPB), una unidad 105 de resta, una unidad 106 de transformación, una unidad 107 de cuantificación, una unidad 108 de cuantificación inversa, una unidad 109 de transformación inversa, una unidad 110 de adición, una unidad 111 de codificación por entropía, un terminal 112 de salida, y una unidad 114 de gestión de memoria intermedia. La unidad 105 de resta, unidad 106 de transformación y unidad 107 de cuantificación corresponden a los “medios de codificación” descritos en el alcance de las reivindicaciones. La unidad 108 de cuantificación inversa, unidad 109 de transformación inversa y unidad 110 de adición corresponden a los “medios de reconstrucción” descritos en el alcance de las reivindicaciones.
Con respecto al dispositivo 100 de codificación predictiva de vídeo configurado tal como se describió anteriormente, a continuación se describirá el funcionamiento del mismo. Se alimenta una señal de vídeo que consiste en una pluralidad de imágenes al terminal 101 de entrada. Se divide una imagen de un objetivo de codificación en una pluralidad de regiones por la unidad 102 de división de bloques. En el modo de realización de acuerdo con la presente invención, la imagen objetivo se divide en bloques que consisten cada uno en 8x8 píxeles, pero puede dividirse en bloques de cualquier tamaño o forma distintos de los anteriores. Después se genera una señal predicha para una región como objetivo de un procedimiento de codificación (que se denominará a continuación en el presente documento bloque objetivo). El modo de realización de acuerdo con la presente invención emplea dos tipos de procedimientos de predicción, la predicción inter-tramas y la predicción intra-tramas.
En la predicción inter-tramas, se usan imágenes reproducidas que se han codificado y posteriormente reconstruido en el pasado como imágenes de referencia y se determina, a partir las imágenes de referencia, información de movimiento para proporcionar la señal predicha con la menor diferencia a partir del bloque objetivo. Dependiendo de las situaciones, también puede permitirse subdividir el bloque objetivo en subregiones y determinar un procedimiento de predicción inter-tramas para cada una de las subregiones. En este caso, el procedimiento de división más eficiente para todo el bloque objetivo y la información de movimiento de cada subregión pueden determinarse mediante los diversos procedimientos de división. En el modo realización de acuerdo con la presente invención, la operación se lleva a cabo en la unidad 103 de generación de señal predicha, se alimenta el bloque objetivo a través de la línea L102, y se alimentan las imágenes de referencia a través de L104. Las imágenes de referencia que van a usarse en el presente documento son una pluralidad de imágenes que se han codificado y reconstruido en el pasado. Los detalles son los mismos que en el procedimiento de H.264 que es la tecnología convencional. La información de movimiento y el procedimiento de división de subregiones determinados tal como se describió anteriormente se alimentan a través de la línea L112 a la unidad 111 de codificación por entropía para codificarse por la misma y después se emiten los datos codificados desde el terminal 112 de salida. Información (índice de referencia) indicativa de qué imagen de referencia, de la pluralidad de imágenes de referencia, se deriva la señal predicha también se envía a través de la línea L112 a la unidad 111 de codificación por entropía. En el modo de realización de acuerdo con la presente invención, se almacenan de tres a seis imágenes reproducidas en la memoria 104 de trama que van a usarse como imágenes de referencia. La unidad 103 de generación de señal predicha deriva señales de imagen de referencia de la memoria 104 de trama, basándose en las imágenes de referencia e información de movimiento, que corresponden al procedimiento de división de subregiones y cada subregión, y genera la señal predicha. La señal predicha inter­ tramas generada de esta manera se alimenta a través de la línea L103 a la unidad 105 de resta.
En la predicción intra-tramas, se genera una señal predicha intra-tramas usando valores de píxeles anteriormente reproducidos espacialmente adyacentes al bloque objetivo. Específicamente, la unidad 103 de generación de señal predicha deriva señales de píxeles anteriormente reproducidas en la misma trama que el bloque objetivo a partir de la memoria 104 de trama y extrapola estas señales para generar la señal predicha intra-tramas. La información sobre el procedimiento de extrapolación se alimenta a través de la línea L112 a la unidad 111 de codificación por entropía para codificarse por la misma y después se emiten los datos codificados a partir del terminal 112 de salida. La señal predicha intra-tramas generada de esta manera se alimenta a la unidad 105 de resta. El procedimiento de generación de la señal predicha intra-tramas en la unidad 103 de generación de señal predicha es el mismo que el procedimiento de H.264, que es la tecnología convencional. Se selecciona la señal predicha con la menor diferencia a partir de la señal predicha inter-tramas y la señal predicha intra-tramas obtenida tal como se describió anteriormente, y se alimenta la señal predicha seleccionada a la unidad 105 de resta.
La unidad 105 de resta, resta la señal predicha (alimentada a través de la línea L103) de la señal del bloque objetivo (alimentada a través de la línea L102) para generar una señal residual. Esta señal residual se transforma mediante una transformada de coseno discreta mediante la unidad 106 de transformación y los coeficientes de transformación resultantes se cuantifican mediante la unidad 107 de cuantificación. Finalmente, la unidad 111 de codificación por entropía codifica los coeficientes de transformación cuantificados y los datos codificados se emiten junto con la información sobre el procedimiento de predicción a partir del terminal 112 de salida.
Para la predicción intra-tramas o la predicción inter-tramas del bloque objetivo posterior, se somete la señal comprimida del bloque objetivo a un procesamiento inverso para reconstruirse. Concretamente, los coeficientes de transformación cuantificados se someten a cuantificación inversa mediante la unidad 108 de cuantificación inversa y después se transforman mediante una transformada de coseno discreta inversa mediante la unidad 109 de transformación inversa, para reconstruir una señal residual. La unidad 110 de adición añade la señal residual reconstruida a la señal predicha alimentada a través de la línea L103 para reproducir una señal del bloque objetivo y la señal reproducida se almacena en la memoria 104 de trama. El presente modo de realización emplea la unidad 106 de transformación y la unidad 109 de transformación inversa, pero también es posible usar otro procesamiento de transformación en lugar de estas unidades de transformación. En algunas situaciones, la unidad 106 de transformación y la unidad 109 de transformación inversa pueden omitirse.
La memoria 104 de trama es un almacenamiento finito y es imposible almacenar todas las imágenes reproducidas. Solo las imágenes reproducidas que van a usarse en la codificación de la imagen posterior se almacenan en la memoria 104 de trama. Una unidad para controlar esta memoria 104 de trama es la unidad 114 de gestión de memoria intermedia. Los datos de entrada que se reciben a través de un terminal 113 de entrada incluyen: información indicativa de un orden de salida de cada imagen (POC, recuento de salida de imagen), información de dependencia (ID de dependencia) relacionada con D_IDk,j que es indicativa de la dependencia con respecto a la imagen en la codificación predictiva de otras imágenes, y un tipo de codificación de la imagen (codificación predictiva intra-tramas o codificación predictiva inter-tramas); y la unidad 114 de gestión de memoria intermedia funciona basándose en esta información. Se alimenta información de descripción de memoria intermedia generada mediante la unidad 114 de gestión de memoria intermedia y la información de POC de cada imagen a través de la línea L114 a la unidad 111 de codificación por entropía para codificarse por la misma, y los datos codificados se emiten junto con los datos de imagen comprimidos. Más adelante se describirá el procedimiento de procesamiento de la unidad 114 de gestión de memoria intermedia de acuerdo con la presente invención.
A continuación, se describirá un procedimiento de descodificación predictiva de vídeo de acuerdo con la presente invención. La figura 2 es un diagrama de bloques de un dispositivo 200 de descodificación predictiva de vídeo de acuerdo con un modo de realización de la presente invención. Tal como se muestra en la figura 2, el dispositivo 200 de descodificación predictiva de vídeo está dotado de un terminal 201 de entrada, una unidad 202 de análisis de datos, una unidad 203 de cuantificación inversa, una unidad 204 de transformación inversa, una unidad 205 de adición, una unidad 208 de generación de señal predicha, una memoria 207 de trama, un terminal 206 de salida y una unidad 209 de gestión de memoria intermedia. La unidad 203 de cuantificación inversa y la unidad 204 de transformación inversa corresponden a los “medios de reconstrucción” descritos en las reivindicaciones. Los medios de reconstrucción pueden ser medios distintos de los anteriores. Además, la unidad 204 de transformación inversa puede omitirse.
Con respecto al dispositivo 200 de descodificación predictiva de vídeo configurado tal como se describió anteriormente, a continuación se describirá el funcionamiento del mismo. Se introducen datos comprimidos resultantes de la codificación por compresión mediante el procedimiento anteriormente mencionado a través del terminal 201 de entrada. Estos datos comprimidos contienen la señal residual resultante de la codificación predictiva de cada bloque objetivo obtenida mediante división de una imagen en una pluralidad de bloques, y la información relacionada con la generación de la señal predicha. La información relacionada con la generación de la señal predicha incluye la información sobre división de bloques (tamaño de bloque), la información de movimiento y la información de POC anteriormente mencionada en el caso de la predicción inter-tramas, e incluye la información sobre el procedimiento de extrapolación a partir de píxeles circundantes anteriormente reproducidos el caso de la predicción intra-tramas. Los datos comprimidos también contienen la información de descripción de memoria intermedia para el control de la memoria 207 de trama.
La unidad 202 de análisis de datos extrae la señal residual del bloque objetivo, la información relacionada con la generación de la señal predicha, el parámetro de cuantificación y la información de POC de la imagen a partir de los datos comprimidos. La señal residual del bloque objetivo se somete a cuantificación inversa basándose en el parámetro de cuantificación (alimentado a través de la línea L202) mediante la unidad 203 de cuantificación inversa. El resultado se transforma mediante la unidad 204 de transformación inversa usando una transformada de coseno discreta inversa.
A continuación, la información relacionada con la generación de la señal predicha se alimenta a través de la línea L206b a la unidad 208 de generación de señal predicha. La unidad 208 de generación de señal predicha accede a la memoria 207 de trama, basándose en la información relacionada con la generación de la señal predicha, para derivar una señal de referencia a partir de una pluralidad de imágenes de referencia para generar una señal predicha. Esta señal predicha se alimenta a través de la línea L208 a la unidad 205 de adición, la unidad 205 de adición añade esta señal predicha a la señal residual reconstruida para reproducir una señal de bloque objetivo, y la señal se emite a través de la línea L205 y simultáneamente se almacena en la memoria 207 de trama.
Las imágenes reproducidas que van a usarse para la descodificación y reproducción de la imagen posterior se almacenan en la memoria 207 de trama. La unidad 209 de gestión de memoria intermedia controla la memoria 207 de trama. La unidad 209 de gestión de memoria intermedia funciona basándose en la información de descripción de memoria intermedia y el tipo de codificación de imagen alimentado a través de la línea L206a. Más adelante se describirá un procedimiento de control de la unidad 209 de gestión de memoria intermedia de acuerdo con la presente invención.
A continuación, se describirán los funcionamientos de la unidad de gestión de memoria intermedia (114 en la figura 1 y 209 en la figura 2) usando las figuras 3 y 4. La unidad de gestión de memoria intermedia de acuerdo con un modo de realización de la presente invención gestiona las imágenes de referencia almacenadas en la memoria (104, 207) de trama, de la siguiente manera. Concretamente, el lado de codificador genera fragmentos de información de descripción de memoria intermedia para imágenes objetivo respectivas juntos y los envía como parte de información de PPS (conjunto de parámetros de imagen) que porta parámetros del procedimiento de descodificación aplicados en común. El lado de descodificador extrae a partir de la información de PPS los fragmentos de información de descripción de memoria intermedia enviados juntos y realiza el procesamiento de descodificación y reproducción tras preparar imágenes de referencia en la memoria de trama, basándose en un fragmento de información de descripción de memoria intermedia designado en datos comprimidos de cada imagen objetivo. Cualquier imagen de referencia no descrita en la información de descripción de memoria intermedia se elimina de la memoria de trama y no puede usarse como imagen de referencia posteriormente.
La figura 3 muestra un procedimiento de codificación de la información de descripción de memoria intermedia en la unidad 114 de gestión de memoria intermedia del dispositivo 100 de codificación predictiva de vídeo de acuerdo con un modo de realización de la presente invención, que es un procedimiento para codificar fragmentos de información de descripción de memoria intermedia juntos para imágenes objetivo respectivas. En la presente memoria descriptiva, una descripción de memoria intermedia se representa mediante BD (descripción de memoria intermedia) y BD[k] indica información sobre la k-ésima BD. La figura 8 muestra un diagrama esquemático de la información de descripción de memoria intermedia descrita en un PPS generado de acuerdo con un modo de realización de la presente invención.
En la figura 3, la etapa 310 es para establecer un contador k a cero. La etapa 320 es para codificar el número total de todas las BD descritas en la información de PPS. Este número corresponde a 811 en la figura 8. La etapa 330 es para codificar información sobre BD[0] que es la primera BD. 820 en la figura 8 indica la información de BD[0]. #APOCü (830) indica el número de componentes de BD[0], es decir, el número de imágenes de referencia necesarias. La información de BD[0] en el presente documento no solo contiene las imágenes de referencia necesarias para codificar y descodificar la imagen objetivo, sino también imágenes de referencia a las que no se hace referencia en el procesamiento para la imagen objetivo pero a las que se hace referencia en el procedimiento de codificación y descodificación para imágenes posteriores para el mismo, y, por este motivo, el número de tales imágenes de referencia también se cuenta en #APOCü.
Posteriormente, se describe información sobre las imágenes de referencia que van a usarse (831, 832, ...). En el presente modo de realización {APOCüj, D_IDü,í} se describe como la información sobre las imágenes de referencia. El índice i representa la i-ésima componente de BD[0]. APOCüj es un valor de diferencia entre un número de POC de la i-ésima imagen de referencia y un número de p Oc de la imagen objetivo que usa BD[0], y D JD qj es información de dependencia de la i-ésima imagen de referencia.
La información sobre BD[k] excepto por BD[0] se codifica de manera predictiva con referencia a la información de memoria intermedia BD[m] que aparece antes de la misma (etapa 360). El presente modo de realización emplea m=k-1, pero puede hacerse referencia a cualquier BD[m] siempre que m < k. La información contenida en BD[k] en la que k > 0 se muestra a modo de ejemplo mediante 822 y 824 en la figura 8. El contenido descrito en la misma incluye el número de componentes de BD[k] (que corresponde al número de imágenes de referencia necesarias para la imagen objetivo y las imágenes posteriores) #A POCk (833, 839), A BDk (834, 840), y A idxkj (835, 836, 837, 841, 842, 843, 844) o {A idxk,i, D_IDk,i} (838). Los detalles de estos datos transmitidos (sintaxis) se describirán más adelante. Tras codificar cada BD[k], se envía como parte de la información de PPS junto con otros datos comprimidos. En la codificación de cada imagen, la unidad 114 de gestión de memoria intermedia prepara las imágenes de referencia en la memoria 104 de trama, basándose en un fragmento de información de descripción de memoria intermedia BD[k] designado a través del terminal 113 de entrada en la figura 1, y después se lleva a cabo el procedimiento de codificación. En el lado de receptor, la unidad 209 de gestión de memoria intermedia prepara las imágenes de referencia en la memoria 207 de trama, basándose en el identificador k de la descripción de memoria intermedia añadida a la cabecera de los datos comprimidos de cada imagen, y después se lleva a cabo el procedimiento de descodificación.
La figura 4 es un diagrama de flujo que muestra un procedimiento de descodificación de la información de descripción de memoria intermedia en la unidad 209 de gestión de memoria intermedia del dispositivo 200 de descodificación predictiva de vídeo de acuerdo con un modo de realización de la presente invención. La unidad 202 de análisis de datos extrae los datos sobre la información de descripción de memoria intermedia a partir de la información de PPS y alimenta los datos a la unidad 209 de gestión de memoria intermedia. La etapa 420 es para descodificar en primer lugar el número de BD. La etapa 430 es para descodificar la información sobre BD[0] que es la primera BD. La información sobre BD[k] en la que k > 0 se descodifica de manera predictiva con referencia a la descripción de memoria intermedia BD[m] que aparece antes de la misma (etapa 460). Tal como se describió anteriormente, el presente modo de realización emplea m=k-1. La información de descripción de memoria intermedia resultante de la descodificación de cada BD[k] se almacena en la unidad 209 de gestión de memoria intermedia. En la descodificación de cada imagen, la unidad 209 de gestión de memoria intermedia prepara las imágenes de referencia en la memoria 207 de trama, basándose en un fragmento de información de descripción de memoria intermedia BD[k] designado en los datos comprimidos, y después se lleva a cabo el procedimiento de descodificación y reproducción.
La descripción de memoria intermedia (BD[k], k > 0) mostrada en la figura 8 puede enviarse de manera eficiente. De acuerdo con el presente modo de realización, usar BD[k] como objetivo y BD[m] para la predicción del objetivo satisface las siguientes condiciones.
(a) Al menos algunas de las imágenes de referencia descritas en BD[k] son las ya descritas en BD[m].
(b) N imágenes que se codifican y descodifican recientemente además de las de (a) (anteriormente) se describen como “imágenes de referencia adicionales” en BD[k]. El número N en el presente documento es un número entero de no menos de 0.
Además, modos más preferidos satisfacen las siguientes condiciones.
(c) m=(k-1); es decir, la BD inmediatamente anterior en la información de descripción de memoria intermedia, se usa para la predicción.
(d) El número de imágenes de referencia adicionales descritas en (b) anteriormente es únicamente de una (N=1). Esta imagen de referencia adicional es preferentemente una imagen generada en el procedimiento usando BD[m].
Las condiciones descritas anteriormente se describirán usando la figura 16. La columna 1601 en la figura 16 representa el número de POC de cada imagen objetivo como objetivo del procedimiento de codificación o descodificación. Los números de POC de imágenes objetivo respectivas se disponen en orden desde la parte superior, en el orden del procedimiento de codificación o descodificación. Concretamente, tras codificarse o descodificarse la imagen con POC=32, se codifica o descodifica la imagen con POC=28. Además, los números de POC de imágenes de referencia (imágenes plurales) que van a usarse en la ejecución del procedimiento de codificación o descodificación de cada imagen objetivo se describen en celdas respectivas debajo de la columna 1602.
La información sobre las imágenes de referencia usadas para codificar o descodificar/reproducir la imagen objetivo (1610) con POC=32 se codifica como BD[0] usando la sintaxis de 820 en la figura 8. En este caso, #A POCü=4 y las imágenes de referencia con los números de POC de 18, 20, 22 y 24 se codifican como A POCüj. Los valores de A POCüj son los valores en i=0,1,2,3 en la fila 1710 en la figura 17, y cada valor se obtiene a partir de una diferencia entre el número de POC de la imagen de referencia y el número de POC de la imagen objetivo.
La información sobre las imágenes de referencia descritas en las filas 1611 a 1617 en la figura 16 se codifica como BD[k], k > 0, usando las sintaxis de 822, 824 en la figura 8. La fila 1611 corresponde a k=1 e indica información sobre los números de POC de las imágenes de referencia que van a usarse para la imagen objetivo con POC=28. Los números de POC (22, 24, 32) a partir de esta información se convierten en valores de diferencia A POCu . Los valores resultantes se facilitan como valores en i=0,1,2 en la fila 1711 en la figura 17. En modos de realización de acuerdo con la presente invención, estos valores de A POC1 i se codifican de manera predictiva con referencia a A POC0 i (los valores en i=0,1,2,3 en la fila 1710).
Se describirá el procedimiento de codificación predictiva de información de descripción de memoria intermedia de acuerdo con la presente invención. Siendo BD[k] la información de descripción de memoria intermedia como objetivo y siendo BD[m] la información de descripción de memoria intermedia para la predicción de BD[k]. Además, siendo POCactual el número de POC de la imagen objetivo usando la información de BD[k] y siendo POCanterior el número de POC de la imagen objetivo usando la información de BD[m]. Además, siendo POCk,i el número de POC de la i-ésima imagen de referencia de BD[k] y siendo POCm,j el número de POC de la j-ésima imagen de referencia de BD[m]. En este caso los valores de diferencia A POCk,i y A POCm,j se facilitan de la siguiente manera.
A POCk,i = POCk,i — POCactual (1)
A POCm,j = POCm,j — POCanterior (2)
A POCk,i se codifica usando A POCm j como valor predictivo. Concretamente, se mantiene la siguiente relación.
A POCk,i - A POCm,j = (POCk,i — POCactual) — (POCm j - POCanterior)
= (POCk,i — POCm j) (POCanterior — POCactual)
= (POCk,i - POCm j) A BDk (3)
Cuando se satisface la condición (a) anteriormente mencionada, POCm,j está en BD[m] y, por lo tanto, se codifica un identificador (o índice) para A POCm,j para hacer que (POCk,i - POCm,j) sea cero. En el presente modo de realización, se usa el identificador A idxk,i definido a continuación.
A idxk,i = desviaciónk,i - desviaciónk,i-1 (4)
En este caso, desviación^ = j - i y desviaciónk,-1 = 0. Dado que A BDk definida en la fórmula (3) anterior es constante independientemente de los valores de (i, j), solo es necesario describir A BDk definida a continuación una vez en BD[k].
A BDk = POCanterior - POCactual (5)
Por otro lado, hay una situación en la que A POCm j para hacer que (POCk,i - POCm j) sea cero, está ausente en BD[m]. Por ejemplo, la componente POC12 = 32 (celda 1620) en la figura 16 no está presente como una imagen de referencia en la fila 1610. En este caso, el valor de A POCk,i puede codificarse tal cual, pero cuando se aplica la condición (d) anteriormente mencionada, A POCk,i = A BDk y este valor ya está descrito en BD[k]; por lo tanto, no hay necesidad de codificarlo de nuevo. El valor del número de componentes de BD[m] (es decir, #A POCm), o un valor mayor que el número de componentes de BD[m], se establece como el valor de j para indicar que no hay un número de POC idéntico en BD[m]. Más adelante se describirá un procedimiento de descodificación de A POCk,i usando el valor de j en la descodificación futura.
En cuanto a la información de dependencia D_IDk,i que tiene cada imagen de referencia, si la imagen de referencia existe en la BD[m] usada para la predicción, no hay necesidad de codificar la misma porque la información de dependencia D_IDk,i es igual a D_IDm j. Por otro lado, si la imagen de referencia no existe en la BD[m] que se usa para la predicción, la información de dependencia D_IDk,i se codifica.
El contenido (sintaxis) de 822, 824 en la figura 8 se configura basándose en el diseño anteriormente descrito y los procedimientos del bloque 360 en la figura 3, y el bloque 460 en la figura 4, que se explicarán basándose en este diseño.
La figura 6 es un diagrama de flujo que muestra el procedimiento de codificación de la información de descripción de memoria intermedia (el procedimiento del bloque 360 en la figura 3) en el dispositivo 100 de codificación predictiva de vídeo de acuerdo con un modo de realización de la presente invención. Este procedimiento corresponde al procedimiento de codificación de BD[k] en el caso de k > 0 en la figura 8. La etapa 610 es para codificar el número de componentes de BD[k], es decir, para codificar el número #A POCk de imágenes de referencia descritas. Después se calcula A BDk (etapa 620) y después se codifica (etapa 630). Posteriormente, el siguiente procedimiento se lleva a cabo para cada componente de BD[k]. La etapa 640 es para detectar si hay A POCm j que comparte la misma imagen de referencia con A POCk,i (es decir, POCm,j = POCk,i) en BD[m] (m=k-1). Cuando se determina en la etapa 645 que está presente, el procesamiento avanza a la etapa 650 para determinar y después codificar el valor de A idxk,i de acuerdo con la fórmula (4) anterior. Cuando se determina en la etapa 645 que está ausente, el procesamiento avanza a la etapa 655. La etapa 655 es para establecer el valor del número (#A POCm) de componentes de BD[m] al valor j. El valor establecido puede ser un valor mayor que él mismo. La etapa 660 es para determinar el valor de A idxk,i de acuerdo con la fórmula (4) anterior y después codificarlo. La etapa 670 es para codificar la información de dependencia D_IDk,i de la imagen de referencia. Cada uno de los valores anteriores se convierte en un código binario y después se codifica mediante codificación aritmética, pero puede aplicarse cualquier otro procedimiento de codificación por entropía. El procesamiento anteriormente descrito se lleva a cabo de manera repetida hasta la última componente de BD[k].
La figura 5 muestra el resultado obtenido mediante procesamiento de la información de descripción de memoria intermedia en la tecnología convencional mostrada en la figura 17, mediante el procedimiento anteriormente mencionado de acuerdo con la presente invención. La columna 501 representa el identificador de cada BD[k] y en el presente modo de realización no se codifica explícitamente. La columna 502 representa el número de componentes de cada BD[k] y la columna 504 datos para describir las imágenes de referencia de BD[k]. La fila 510 corresponde a BD[0] y se codifica usando los valores de A POCk,i. La fila 511 y filas posteriores representan valores de A idxk,i. La columna 505 representa el identificador de cada BD[m] usado para la predicción, pero dado que m=k-1 en el presente modo de realización, no hay necesidad de codificarlo. La columna 506 representa A BDk. Cada una de las entradas en las celdas 520-523 corresponde a una situación en la que no hay ninguna imagen de referencia idéntica en la BD[m] usada para la predicción y es necesario codificar D_IDk,i, además de A idxk,i; pero se omite la ilustración de la codificación de D_IDk,i de la figura 5. La mayoría de los valores en las celdas respectivas debajo de 504 en la figura 5 son “0” y los valores y el intervalo dinámico son menores que los de la información en la tecnología convencional mostrada en la figura 17, logrando por lo tanto el efecto de codificación eficiente. La tecnología convencional necesita codificar D_IDk,i de todas las componentes, mientras que el procedimiento de acuerdo con la presente invención solo codifica D_IDk,i para componentes limitadas, para reducir adicionalmente el recuento de bits.
La figura 7 es un diagrama de flujo que muestra el procedimiento de descodificación de la información de descripción de memoria intermedia (el procedimiento del bloque 460 en la figura 4) en el dispositivo 200 de descodificación predictiva de vídeo de acuerdo con un modo de realización de la presente invención. Este procedimiento corresponde al procedimiento de descodificación de BD[k] en el caso de k > 0 en la figura 8. La etapa 710 es para descodificar el número de componentes de BD[k], es decir, para descodificar el número #A POCk de imágenes de referencia descritas. La etapa 730 es para descodificar A BDk. Entonces se lleva a cabo el procesamiento de descodificación descrito a continuación para cada una de las componentes de BD[k]. La etapa 740 es para descodificar A idxk,i y después se determina el valor de índice j usando la siguiente fórmula (etapa 745).
j = i A idxk,i + desviaciónk,i-1, donde desviación^ = 0 (6)
Usando este índice j, se determina en la etapa 750 si A POCm,j como valor de referencia de A POCk,j de un objetivo de descodificación está presente en BD[m]. Si j < el número (#A POCm) de componentes de BD[m], A POCm j está presente; si j > (#A POCm), A POCm,j está ausente. Cuando se determina en la etapa 750 que está presente, el procesamiento avanza a la etapa 760 para determinar el valor de A POCk,j. La información de dependencia D_IDk,i es simplemente una copia de la de A POCm,j. Debe indicarse en el presente documento que no hay necesidad de codificar la información de dependencia D_IDk,i. Cuando se determina en la etapa 750 que está ausente, el procesamiento avanza a la etapa 765. En esta etapa, se descodifica la información de dependencia D_IDk,i y se sustituye A BDk para el valor de A POCk,i en la etapa 770. El procesamiento anterior se lleva a cabo de manera repetida hasta la última componente de BD[k].
Tal como se describió anteriormente, los procedimientos de codificación y descodificación de información de descripción de memoria intermedia de acuerdo con la presente invención hacen uso de la propiedad de uso repetitivo de imágenes de referencia y hacen uso de la correlación entre fragmentos de información de descripción de memoria intermedia BD[k] usada para diferentes imágenes, para compactar o eliminar la información redundante, logrando así la codificación eficiente de información de descripción de memoria intermedia.
Tal como se muestra en la figura 16, la información sobre la memoria intermedia se dispone en la secuencia de codificación y descodificación de imágenes objetivo. Por este motivo, se cumplen las condiciones (a) a (d) anteriormente mencionadas y el modo de realización descrito anteriormente permite codificar la información de descripción de memoria intermedia mediante el procedimiento más eficiente. Por otro lado, el orden de descripciones de memoria intermedia es arbitrario, y cada BD[k] puede describirse en un orden diferente del mostrado en la figura 16. A continuación se describirá un modo de realización más versátil de acuerdo con la presente invención correspondiente a este caso.
En la figura 9 la información de memoria intermedia se describe en un orden ligeramente diferente del de la figura 16. La diferencia con respecto a la figura 16 es que la información de memoria intermedia sobre POC=25 (913) se describe antes que POC=30 (914). Sin embargo, las imágenes de referencia usadas son las mismas que en el caso de la figura 16. En este ejemplo, la imagen objetivo con POC=25 (913) usa las imágenes de referencia con POC=22, 24, 32, 28, 26 y 30, y la imagen objetivo con POC=26 (912) ubicada inmediatamente por encima de la misma usa las imágenes de referencia con POC=22, 24, 32 y 28. Si la información de descripción de memoria intermedia BD[m] en la fila 912 se usa para la predicción de la información de descripción de memoria intermedia BD[k] en la fila 913, la componente con POC=30 (963) perteneciente a BD[k] está ausente en BD[m] y por lo tanto no se genera mediante el uso de BD[m]. Concretamente, cuando se usa la condición (c) anteriormente mencionada (m=k-1), la condición (d) anteriormente mencionada no se satisface.
Con el fin de resolver este problema, la condición (c) anteriormente mencionada se exime con el fin de permitir una selección libre de BD[m] y, a su vez, se codifica un índice m para identificar la BD[m] usada para la predicción. En ese caso, cuando la información de descripción de memoria intermedia en la fila 914 se usa como BD[m] para la predicción de la información de descripción de memoria intermedia BD[k] en la fila 913, la figura 6 y la figura 7 pueden aplicarse tal cual (con la condición de añadir la codificación y descodificación del índice m).
Como otro procedimiento, también es posible adoptar un procedimiento de codificación del número de POC, APOCk,j, en la fórmula (1) anteriormente mencionada tal cual, para una imagen de referencia adicional ausente en BD[m] usada para la predicción, o adoptar un procedimiento de codificación de una diferencia entre APOCk,i y ABDk como IBDRk,i.
IBDRk,i = APOCk ,i- ABDk (7)
Cuando se expande la fórmula (7) anterior, es igual a (POCk,i - POCanterior). La figura 12 muestra un diagrama esquemático de la información de descripción de memoria intermedia descrita en un PPS creado mediante el modo de realización más versátil anteriormente mencionado de acuerdo con la presente invención. En la figura 12 el número 1211 es el mismo que 811 en la figura 8 y el número 1220 es el mismo que 820. BD[k] en el caso de k > 1 se transmite en la sintaxis representada por 1222 o 1224. La sintaxis en este caso está compuesta por el número de componentes de BD[k] (que es el número de imágenes de referencia necesarias para la imagen objetivo y las imágenes posteriores) #APOCk (1233, 1240), el identificador mk (1234, 1241) de la información de descripción de memoria intermedia usada para la predicción, ABDk (1235, 1242), y Aidxk i (1236, 1237, 1243, 1244) o{Aidxu D_IDk i, IBDRk i} (1238, 1239, 1245, 1246).
La información de descripción de memoria intermedia mostrada en la figura 12 se codifica y descodifica de la siguiente manera. La figura 10 es un diagrama de flujo que muestra el procedimiento de codificación más versátil de información de descripción de memoria intermedia (el procedimiento del bloque 360 en la figura 3) en el dispositivo 100 de codificación predictiva de vídeo de acuerdo con un modo de realización de la presente invención. Este procedimiento corresponde al procedimiento de codificación de BD[k] en el caso de k > 0 en la figura 12. La etapa 1010 es para codificar el número de componentes de BD[k], es decir, para codificar el número #APOCk de imágenes de referencia descritas. La siguiente etapa es para determinar la información de descripción de memoria intermedia BD[m] para referencia usada en la predicción, para especificar el identificador mk de la misma, y, al mismo tiempo, para calcular ABDk (etapa 1020). La etapa 1030 es para codificar mk y ABDk. Después se lleva a cabo el siguiente procesamiento para cada de las componentes de BD[k]. La etapa 1040 es para detectar si APOCm j está compartiendo la misma imagen de referencia con APOCk,i (es decir, POCm j = POCk,i) está presente en BD[mk]. Cuando se determina en la etapa 1045 que está presente, el procesamiento avanza a la etapa 1050 para determinar el valor de Aidxk,i de acuerdo con la fórmula (4) anteriormente mencionada y lo codifica. Cuando se determina en la etapa 1045 que está ausente, el procesamiento avanza a la etapa 1055. La etapa 1055 es para establecer un valor no inferior al valor del número (#APOCm) de componentes de BD[m], en el índice j. En este caso, un valor aún no usado para la configuración se establece como valor del índice j, con el fin de adaptarse para una posibilidad de presencia de una o más imágenes de referencia adicionales (ausentes en BD[m]). La etapa 1060 es para determinar el valor de Aidxk,i de acuerdo con la fórmula (4) anteriormente mencionada y después codificarlo. La etapa 1070 es para determinar el valor de IBDRk,i de acuerdo con la fórmula (7) anteriormente mencionada y después codificarlo junto con la información de dependencia D_IDk,i de la imagen de referencia. Cada uno de los valores anteriores se convierte en un código binario y se codifica mediante codificación aritmética, pero puede aplicarse cualquier otro procedimiento de codificación por entropía. El procesamiento anterior se lleva a cabo de manera repetida hasta la última componente de BD[k].
La figura 21 muestra el resultado del procesamiento obtenido convirtiendo la información de descripción de memoria intermedia de la figura 9 en APOCk,j mostrado en la figura 20 y después procesándolo mediante el procedimiento más versátil descrito anteriormente. La columna 941 representa el identificador de cada BD[k]. La columna 942 representa el número de componentes de cada BD[k] y la columna 944 los datos para la descripción de las imágenes de referencia de BD[k]. La fila 950 corresponde a BD[0] y se codifica mediante los valores de APOCk,i. La fila 951 y las filas posteriores se codifican mediante Aidxk,i o {Aidxk,i, D IDk,i, IBDRk,i} (D_IDk,i se omite en la figura 21). La columna 945 representa el identificador mk de BD[m] usado para la predicción. La columna 946 representa ABDk. Cada una de las entradas en las celdas 980-983 corresponde a una situación en la que no hay ninguna imagen de referencia idéntica en la BD[m] usada en la predicción y en la que se codifica {Aidxk,i, D_IDk,i, IBDRk,i}. La mayoría de los valores en las celdas respectivas debajo de 944 en la figura 21 son “0” y los valores y el intervalo dinámico son menores que los de la información en la tecnología convencional de la figura 20, logrando por lo tanto el efecto de la codificación eficiente.
La figura 11 es un diagrama de flujo que muestra el procedimiento de descodificación más versátil de información de descripción de memoria intermedia (el procedimiento del bloque 460 en la figura 4) en el dispositivo 200 de descodificación predictiva de vídeo de acuerdo con un modo de realización de la presente invención. Este procedimiento corresponde al procedimiento de descodificación de BD[k] en el caso de k > 0 en la figura 12. La etapa 1110 es para descodificar el número de componentes de BD[k], es decir, para descodificar el número #APOCk de imágenes de referencia descritas. La etapa 1130 es para descodificar mk y ABDk. Después se lleva a cabo el siguiente procesamiento de descodificación para cada una de las componentes de BD[k]. La etapa 1140 es para descodificar A idxk,i y después se determina el valor de índice j usando la fórmula (6) anteriormente mencionada (etapa 1145).
Usando este índice j, se determina en la etapa 1150 si A POCm j como valor de referencia de A POCk,j de un objetivo de descodificación está presente en BD[m]. En este ejemplo, si j < el número (#A POCm) de componentes de BD[m], A POCm,j está presente; si j > (#A POCm), A POCm j está ausente. Cuando se determina en la etapa 1150 que está presente, el procesamiento avanza a la etapa 1160 para determinar el valor de A POCk,i. La información de dependencia D_IDk,i puede ser simplemente una copia de la que presenta A POCm j. Cuando se determina en la etapa 1150 que está ausente, el procesamiento avanza a la etapa 1165. En esta etapa, IBDRk,i y la información de dependencia D_IDk,i se descodifican y el valor de A POCk,i se calcula en la etapa 1170. El procesamiento anterior se lleva a cabo de manera repetida hasta la última componente de BD[k].
Tal como se describió anteriormente, los procedimientos de codificación y descodificación de información de descripción de memoria intermedia de acuerdo con la presente invención hacen uso de la propiedad de uso repetitivo de imágenes de referencia y hacen uso de la correlación entre fragmentos de información de descripción de memoria intermedia BD[k] usada para diferentes imágenes, para compactar información redundante, permitiendo así la codificación eficiente de información de descripción de memoria intermedia. Además, existe el efecto de codificación eficiente incluso en el caso en el que se realiza libremente la referencia cruzada a información de descripción de memoria intermedia.
Los procedimientos de codificación de la figura 6 y la figura 10 o los procedimientos de descodificación de la figura 7 y la figura 11 se han descrito por separado, pero estos dos modos de realización pueden usarse en combinación. En los procedimientos de descodificación, las etapas 765, 770 en la figura 7 son diferentes de las etapas 1165, 1170 en la figura 11, pero cuando se usan en combinación, solo es necesario añadir información (1 bit) para la identificación de estos procedimientos y codificarla.
Dado que los valores de A idxk,i son todos cero tal como se observa en las filas 512, 513, 514 y 517 en la figura 5, estos valores pueden representarse mediante una señal (indicador), en lugar de codificarlos de manera individual.
En los modos de realización anteriores, el número de POC de cada imagen de referencia descrito en la información de descripción de memoria intermedia se convierte en A POCk,i y después la información de descripción de memoria intermedia por la presente invención se codifica y se descodifica, pero el procedimiento de acuerdo con la presente invención puede aplicarse al propio número de POC. Concretamente, cuando el número de POC en la información de descripción de memoria intermedia BD[k] como objetivo está presente en la BD[m] usada para la predicción, se codifica A idxk,i que indica el número de POC. Cuando el número de POC deseado está ausente en BD[m], se codifica A POCk,i obtenido mediante la fórmula (1) anteriormente mencionada como IBDRk,i. Puede usarse la fórmula (7) en lugar de la fórmula (1) anteriormente mencionada. En este caso el procedimiento del bloque 360 en la figura 3 es tal como se muestra en la figura 18 y el procedimiento del bloque 460 en la figura 4 es tal como se muestra en la figura 19. La figura 18 es muy similar al procesamiento de la figura 10, y la figura 19 es muy similar al procesamiento de la figura 11; la figura 18 y la figura 19 emplean números de etapa con “S” unida a los números de etapa de las etapas de procedimiento correspondientes etapas en la figura 10 y la figura 11. Sin embargo, se indica que el procesamiento se lleva a cabo para POC en lugar de A POC. En este caso A BDk es cero y por lo tanto no se necesita codificarla y descodificarla. Después, si se fija m=(k-1) (es decir, en el caso de la predicción a partir de la BD[m] inmediatamente anterior), tampoco se necesita codificar o descodificar mk.
En los modos de realización anteriores, cuando bdk,i representa la i-ésima componente de la descripción de memoria intermedia BD[k] como objetivo y bdm,j una componente de BD[m] usada para la predicción, puede considerarse que A idxk,i es una posición relativa (índice o dirección) de bdm,j a partir de bdk,i. Concretamente, suponiendo que bdk,i y bdm,j son lugares de almacenamiento de información, sus números de POC pueden almacenarse en los lugares de almacenamiento de información o pueden almacenarse valores de A POC en los mismos. En este caso, A idxk,i se trata como una posición relativa entre los lugares de almacenamiento de información (siempre que su contenido incluya los números de POC usados en común). En otras palabras, la descripción de memoria intermedia de acuerdo con la presente invención es una descripción de la relación posicional entre el lugar de almacenamiento de información para almacenar la información de memoria intermedia de la imagen objetivo y el lugar de almacenamiento de información para almacenar la información de memoria intermedia como referencia para la imagen objetivo y proporciona un procedimiento de cambio para procedimientos de reproducción del contenido de bdk,i comparando la posición (j) del lugar de almacenamiento de información designado con el número (#A POCm o #POCm) de lugares de almacenamiento de información que contienen su contenido.
Otro modo de realización tal como se describe a continuación también es aplicable a los procedimientos de codificación y descodificación de información de descripción de memoria intermedia de acuerdo con la presente invención. El presente modo de realización se basa en las condiciones (c) y (d) anteriormente mencionadas, similar al modo de realización mostrado en la figura 6 y la figura 7. Concretamente, la información de descripción de memoria intermedia BD[m] se usa para la predicción de la información de descripción de memoria intermedia BD[k] como objetivo, y la BD inmediatamente anterior a BD[k] se usa como BD[m]. Es decir, m=(k-1). Solo hay una imagen de referencia adicional en BD[k] y esta imagen de referencia adicional se genera en el caso de usar BD[m].
En estas condiciones, el presente modo de realización es uno en el que se determina en la codificación de la información de la descripción de memoria intermedia BD[k] como objetivo, si A POCm j en la BD[m] que se usa para la predicción comparte una imagen de referencia idéntica con A POCk,I, que es una componente de BD[k] (es decir, POCm,j = POCk,i) está “presente o no”. Por lo tanto, el modo de realización anteriormente mencionado empleaba la “posición relativa A idxk,i”, mientras que el presente modo de realización emplea un indicador simplemente indicativo de “presente o no”. Este indicador se describe como ibd_flagk,j en el presente documento. Cuando el indicador ibd_flagk,j indica “presente”, la j-ésima imagen ya almacenada en la memoria intermedia se usa de manera continua como imagen de referencia. Por otro lado, cuando el indicador ibd_flagk,j indica “no”, se almacena otra imagen designada como nueva imagen de referencia (imagen de referencia adicional) en la memoria intermedia.
En las condiciones (c) y (d), el número de BD[k] es como mucho uno más que el número de BD[m]; es decir, siempre se cumple la relación de #A POCk = #A POCm + 1, y por lo tanto no hay necesidad de transmisión de #A POCk. Por este motivo, el presente modo de realización puede reducir adicionalmente el recuento de bits.
La figura 22 muestra el procedimiento de codificación de información de descripción de memoria intermedia de acuerdo con el presente modo de realización basándose en el concepto anterior. Este procedimiento se aplica al procedimiento de la etapa 360 en la figura 3. La etapa 2210 es para derivar información sobre el número de A POCk y el número de A POCm, que se usan para una determinación posterior. La etapa 2220 es para obtener la A BDk dada por la fórmula (5) y codificar A BDk. Concretamente, A BDk se obtiene como una diferencia entre el número de POC, POCactual, de la imagen objetivo usando la información de BD[k] y el número de POC, POCanterior, de la imagen usando la información de BD[m] usada para la predicción de BD[k]. La etapa 2230 es para inicializar el contador i de BD[k] y el contador j de BD[m] a cero.
A continuación, las etapas 2240 a 2265 son para comprobar tantas componentes de BD[m] como el número de A POCm. Específicamente, cuando se satisface la condición de la etapa 2245, el procesamiento avanza a la etapa 2250; de lo contrario, el procesamiento avanza a la etapa 2260. Específicamente, la condición de la etapa 2245 viene dada por la fórmula (3) y corresponde al caso de (POCk,i = POCm j). La etapa 2250 es para codificar ibd_flagk,j de 1 para indicar que se cumple la condición, o está “presente”. Al mismo tiempo, el contador i de BD[k] viene dado como un incremento. Por otro lado, la etapa 2260 es para codificar ibd_flagk,j de 0 para indicar que “no” se cumple la condición. La etapa 2265 es para dar al recuento j un incremento, para comprobar la siguiente BD[m].
Cuando no se satisface la condición de la etapa 2240, es decir, cuando se completa la comprobación para todas las componentes de BD[m], el procesamiento avanza a la etapa 2270. Esta etapa es para comparar el número de A POCk con el contador i de información de descripción de memoria intermedia BD[k] como objetivo. Dado que el contador i de BD[k] comienza a contar desde 0, su máximo es (el número de A POCk - 1). Si la condición de (i = el número de A POCk) se satisface en la etapa 2270, el contador i supera el número de componentes de BD[k] y ibd_flagk,j se establece a 0 para codificarse, seguido por el fin del procesamiento. Por otro lado, si la condición de (i = el número de A POCk) no se satisface en la etapa 2270, de ese modo quiere decirse que una imagen de referencia adicional ausente en BD[m] se almacena en la memoria intermedia. Para codificar información sobre la misma, la etapa 2290 es para codificar ibd_flagk,j de 1 y la etapa 2295 es para codificar la información de dependencia D_IDk,i de la imagen de referencia adicional. Dado que el valor de A POCk,i de la imagen de referencia adicional es A BDk tal como se describió con la figura 6, no es necesario codificarlo.
La figura 24 muestra una disposición de datos de información de descripción de memoria intermedia descrita en un PPS generado tal como se describió anteriormente. La figura 24 es similar a la figura 8. “El número de BD” indicado por 2411 es el mismo que 811 en la figura 8, la información 2420 sobre BD[0] que es la primera BD es la misma que 820 en la figura 8, y se genera en la etapa 320 y la etapa 330, respectivamente, en la figura 3.
La información contenida en BD[k] en el caso de k > 0 se muestra a modo de ejemplo por 2422 y 2424 en la figura 24. El contenido descrito en la misma es A BDk (2434, 2440) e ibd_flagKj (2435, 2436, 2437, 2441, 2442, 2443, 2444) o {ibd_flagk,j, D_IDk,i} (2438). Esta estructura de datos (sintaxis) es similar a la figura 8 y se indica que no se necesita #A POCk (833, 839) que representa el número de BD[k] en el caso de k > 0. ibd_flagk,j adopta un valor de 1 o 0. Ya que no se necesita codificar la información sobre el número de BD[k], hay un efecto de permitir expresar la información de descripción de memoria intermedia mediante un recuento de bits menor.
La figura 23 muestra otro procedimiento de implementación del procedimiento de descodificación de información de descripción de memoria intermedia de acuerdo con el presente modo de realización. La etapa 2310 es para derivar el número (#A POCm) de A POCm que son las componentes de la BD[m] usada para la predicción. El número (#A POCm) de A POCm se obtiene contando el número de componentes mientras se reconstruye BD[m]. La etapa 2320 es para inicializar el contador i de BD[k] y el contador j de BD[m] a cero. La etapa 2330 es para descodificar el valor de A BDk descrito en la información de memoria intermedia. Posteriormente, ibd_flagk,j se descodifica tantas veces como el número (#A POCm + 1) (bajo el control mediante la etapa 2345). Los procedimientos de la etapa 2345 y las etapas posteriores se llevan a cabo basándose en los valores descodificados de ibd_flagk,j.
La etapa 2345 es para evaluar el contador j de BD[m]. Antes de que el contador j alcance el número de A POCm, se determina si A POCk,i debe reconstruirse usando A POCm j, basándose en el valor de ibd_flagk,j (1 o 0) (etapa 2350). Cuando el valor de ibd_flagk,j es 1, la etapa 2355 se lleva a cabo para añadir A BDk a A POCm j para generar A POCk,i. En este caso, A POCk,i y A POCm,j comparten la misma imagen de referencia (POCm,j = POCk,i), y por lo tanto la información de dependencia D_IDk,i puede ser simplemente una copia de la información de dependencia D_IDm,j relacionada con A POCm,j. A continuación, al contador i de BD[k] se le da un incremento y después se realiza una determinación sobre la siguiente componente de BD[m].
Tras completarse la comprobación hasta la última componente de BD[m] (o cuando la etapa 2345 da como resultado NO), se evalúa el valor del último ibd_flagk,j (etapa 2370). Cuando ibd_flagk,j = 0, quiere decirse que no hay ninguna imagen de referencia adicional, y el flujo pasa a la etapa 2390 descrita anteriormente, sin ningún procesamiento. Por otro lado, en el caso de ibd_flagk,j = 1, quiere decirse que hay una imagen de referencia adicional (que está ausente en BD[m]), y entonces se lleva a cabo la etapa 2375 para reconstruir la información de dependencia D_IDk,i. La etapa 2380 usa A BDk como número de POC de la imagen de referencia adicional (porque se aplica la condición (d)). Además, al contador i de BD[k] se le da un incremento. Finalmente, el valor contado por el contador i se almacena como número de BD[k] (etapa 2390). Este número de BD[k] se usa para la generación de cada componente de BD[k+1] (en la etapa 2310).
Los procedimientos de procesamiento de la figura 22 y la figura 23 son los procedimientos de implementación en los que solo hay una imagen de referencia adicional en BD[k], y en el caso en el que hay N imágenes de referencia adicionales, el valor de N puede transmitirse y recibirse como parte de la información de BD[k]. En este caso, los números de POC de las imágenes de referencia adicionales se codifican y descodifican usando IBDRk,i. Específicamente, la etapa 2295 en la figura 22 puede configurarse para realizar el mismo procedimiento que la etapa 1070 en la figura 10, la etapa 2375 en la figura 23 puede configurarse para realizar el mismo procedimiento que la etapa 1165 en la figura 11, y la etapa 2380 en la figura 23 puede configurarse para realizar el mismo procedimiento que la etapa 1170 en la figura 11.
En el ejemplo anterior los valores de ibd_flagk,j se expresan mediante un bit (1 o 0), pero pueden expresarse mediante dos o más bits. En este caso, el bit o los bits adicionales pueden usarse para determinar si la otra información (D_IDk,i, IBDRk,i u otra información) se codifica explícitamente.
Además, el bit adicional puede usarse para indicar un intervalo de aplicación de las imágenes de referencia asociadas con A POCk,i (es decir, las imágenes de referencia que tienen los números de POC de POCk,i dados en la fórmula (1)). Específicamente, cuando ibd_flagk,j es “1”, A POCk,i se reconstruye usando A POCm,j y, al mismo tiempo, la imagen de referencia asociada con A POCk,i se aplica a la imagen como objetivo de procesamiento actual (imagen actual) y una imagen futura posterior a la misma (una imagen futura o imágenes futuras). Cuando ibd_flagk,j es “01”, A POCk,i se reconstruye usando A POCm j y, al mismo tiempo, la imagen de referencia asociada con A POCk,i no se aplica a la imagen como objetivo de procesamiento actual (imagen actual) sino que solo se aplica a una imagen futura posterior a la misma (una imagen futura o imágenes futuras). Además, cuando ibd_flagk,j es “00”, A POCm j no se usa para la reconstrucción de A POCk,i.
En los modos de realización anteriores el procesamiento se lleva a cabo para A POCk,i descrito en la información de descripción de memoria intermedia, pero el procesamiento puede llevarse a cabo para el propio número de POC que presenta cada imagen de referencia.
En todos los modos de realización anteriores se describió la información de descripción de memoria intermedia. Dado que la información de descripción de memoria intermedia también incluye descripciones sobre una pluralidad de imágenes de referencia usadas para codificar y descodificar la imagen objetivo, los modos de realización anteriores también pueden usarse como procedimientos para la gestión de listas de imágenes de referencia.
Los modos de realización anteriores explicaban los casos en los que la información de descripción de memoria intermedia se codificó en conjunto como parte de la información de PPS, pero también son aplicables a casos en los que la información de descripción de memoria intermedia se describe en la cabecera de cada imagen objetivo individual. Concretamente, también son aplicables a una configuración en la que la información de la fila 510 en la figura 5 se describió en la parte inicial (cabecera) de datos comprimidos de la imagen con POC=32 y la información de la fila 511 se describe en la parte inicial (cabecera) de datos comprimidos de la imagen con POC=28. En este caso, la información de descripción de memoria intermedia BD[k] que pertenece a la imagen objetivo k puede codificarse y descodificarse mediante los procedimientos de las figuras 6, 7, 10, 11, 18 y 19, con referencia a la información de descripción de memoria intermedia BD[m] perteneciente a la imagen m procesada anteriormente. Sin embargo, hay casos en los que la imagen objetivo m no se usa como imagen de referencia en absoluto (cuando el valor de información de dependencia D_iD es grande), dependiendo de la estructura de predicción, y BD[m] perteneciente a la imagen m no se usa para la predicción en tales casos. El motivo para ello es que la imagen m no usada como imagen de referencia en absoluto puede descartarse con el fin de controlar el volumen de datos y aligerar el procedimiento de descodificación.
Un programa de codificación predictiva de vídeo para dejar que un ordenador funcione como el dispositivo 100 de codificación predictiva de vídeo anterior puede proporcionarse almacenado en un medio de grabación. De manera similar, un programa de descodificación predictiva de vídeo para dejar que un ordenador funcione como el dispositivo 200 de descodificación predictiva de vídeo anterior puede proporcionarse almacenado en un medio de grabación. Los ejemplos de tales medios de grabación incluyen medios de grabación tales como discos flexibles, CD-ROM, DVD o ROM, o memorias de semiconductor o similares.
La figura 13 es un dibujo que muestra una configuración de hardware del ordenador 30 para ejecutar un programa grabado en un medio de grabación, y la figura 14 es un dibujo que muestra una vista en perspectiva del ordenador 30 para ejecutar un programa almacenado en un medio de grabación. El ordenador 30 a modo de ejemplo en el presente documento abarca en general un reproductor de DVD, un descodificador, un teléfono celular y otros dotados de una CPU y configurados para realizar procesamiento y control de información basándose en software.
Tal como se muestra en la figura 13, el ordenador 30 está dotado de un dispositivo 12 de lectura tal como una unidad de disco flexible, una unidad de CD-ROM o una unidad de DVD, una memoria 14 de trabajo (RAM) en la que reside un sistema operativo, una memoria 16 para almacenar un programa almacenado en el medio 10 de grabación, un dispositivo 18 de monitor tal como una pantalla, un ratón 20 y un teclado 22 como dispositivos de entrada, un dispositivo 24 de comunicación para la transmisión y recepción de datos y otros, y una CPU 26 para controlar la ejecución del programa. Cuando se pone el medio 10 de grabación en el dispositivo 12 de lectura, el ordenador 30 se vuelve accesible para el programa de codificación predictiva de vídeo almacenado en el medio 10 de grabación, a través del dispositivo 12 de lectura, y puede funcionar como el dispositivo 100 de codificación predictiva de vídeo anteriormente mencionado basándose en el programa de codificación predictiva de vídeo. De manera similar, cuando se pone el medio 10 de grabación en el dispositivo 12 de lectura, el ordenador 30 se vuelve accesible para el programa de descodificación predictiva de vídeo almacenado en el medio 10 de grabación, a través del dispositivo 12 de lectura, y puede funcionar como el dispositivo 200 de descodificación predictiva de vídeo anterior basándose en el programa de descodificación predictiva de vídeo.
Lista de signos de referencia
100: dispositivo de codificación predictiva de vídeo; 101: terminal de entrada; 102: unidad de división de bloques; 103: unidad de generación de señal predicha; 104: memoria de trama (o memoria intermedia, DPB); 105: unidad de resta; 106: unidad de transformación; 107: unidad de cuantificación; 108: unidad de cuantificación inversa; 109: unidad de transformación inversa; 110: unidad de adición; 111: unidad de codificación por entropía; 112: terminal de salida; 114: unidad de gestión de memoria intermedia; 200: dispositivo de descodificación predictiva de vídeo; 201: terminal de entrada; 202: unidad de análisis de datos; 203: unidad de cuantificación inversa; 204: unidad de transformación inversa; 205: unidad de adición; 206: terminal de salida; 207: memoria de trama; 208: unidad de generación de señal predicha; 209: unidad de gestión de memoria intermedia.

Claims (1)

  1. REIVINDICACIONES
    Procedimiento de descodificación predictiva de vídeo ejecutado por un dispositivo (30, 200) de descodificación predictiva de vídeo, que comprende:
    una etapa de introducción de introducir datos de imagen comprimidos para cada una de una pluralidad de imágenes que constituyen una secuencia de vídeo, conteniendo los datos de imagen comprimidos datos resultantes de la codificación predictiva usando una pluralidad de imágenes de referencia, que se han descodificado y reproducido en el pasado, y datos codificados de información (822, 824, 1222, 1224, 2422, 2424) de descripción de memoria intermedia BD[k] relacionada con la pluralidad de imágenes de referencia, describiendo la información de descripción de memoria intermedia BD[k] un número de imágenes (830, 833, 839, 1230, 1233, 1240, 2430) de referencia que van a almacenarse en la memoria (207) intermedia e información (835, 836, 837, 841, 842, 843, 844, 1236, 1237, 1243, 1244, 2435, 2436, 2437, 2441,2442, 2443, 2444) para identificar qué imagen de referencia debe almacenarse;
    una etapa de reconstrucción de descodificar los datos de imagen comprimidos para reconstruir una imagen reproducida;
    una etapa de almacenamiento de imagen de almacenar al menos una de dichas imágenes reproducidas como imagen de referencia que va a usarse para descodificar una imagen posterior; y
    una etapa de gestión de memoria intermedia (410, 420, 430, 440, 450, 460) de controlar la etapa de almacenamiento de imagen,
    en el que, antes de la reconstrucción de la imagen reproducida, la etapa de gestión de memoria intermedia comprende descodificar (460), con referencia a la información (820, 822, 1220, 1222, 2420, 2422) de descripción de memoria intermedia BD[m] para otra imagen diferente de la imagen reproducida, los datos codificados de la información de descripción de memoria intermedia BD[k] para la imagen reproducida, y entonces controlar la etapa de almacenamiento de imagen basándose en la información de descripción de memoria intermedia descodificada BD[k],
    en el que la descodificación (460) de los datos codificados de la información de descripción de memoria intermedia BD[k] para la imagen reproducida incluye:
    descodificar un índice m que identifica la información de descripción de memoria intermedia BD[m] para otra imagen diferente de la imagen reproducida,
    descodificar un valor de deltaBD (834, 840, 1235, 1242, 2434, 2440) que representa una diferencia entre información de identificación de las imágenes de referencia correspondientes en BD[m] y BD[k], siendo la información de identificación un POC (recuento de salida de imagen) indicativo de un orden de salida de la imagen de referencia correspondiente,
    descodificar una pluralidad de indicadores ibd_flag[j] (835, 836, 837, 841, 842, 843, 844, 1236, 1237, 1243, 1244, 2435, 2436, 2437, 2441,2442, 2443, 2444) que indican tanto si la j-ésima imagen de referencia incluida en BD[m] se usa o no para descodificar una imagen objetivo de procesamiento actual como si una información de identificación de una j-ésima imagen de referencia incluida en BD[m] se usa o no para descodificar una información de identificación de una i-ésima imagen de referencia incluida en BD[k], y
    descodificar una información sobre la imagen de referencia en BD[k] basándose en el índice m descodificado, la información de descripción de memoria intermedia BD[m], el valor descodificado de deltaBD y los indicadores descodificados ibd_flag[j],
    en el que, cuando el ibd_flag[j] indica que la información de identificación de la j-ésima imagen de referencia incluida en BD[m] se usa para descodificarla información de identificación de la i-ésima imagen de referencia incluida en BD[k], un deltaPOC[i] que es la información de identificación de la i-ésima imagen de referencia incluida en BD[k] se deriva sumando (760) el valor de deltaBD a un deltaPOC[j] que es la información de identificación de la j-ésima imagen de referencia incluida en BD[m], y
    en el que, cuando j es igual al número de imágenes de referencia incluidas en BD[m], el deltaPOC[i] que es la información de identificación de la i-ésima imagen de referencia incluida en BD[k] se establece (770) al valor de deltaBD.
    Dispositivo (30, 200) de descodificación predictiva de vídeo que comprende:
    medios (201) de entrada que introducen datos de imagen comprimidos para cada una de una pluralidad de imágenes que constituyen una secuencia de vídeo, conteniendo los datos de imagen comprimidos datos resultantes de codificación predictiva usando una pluralidad de imágenes de referencia, que se han descodificado y reproducido en el pasado, y datos codificados de información (822, 824, 1222, 1224, 2422, 2424) de descripción de memoria intermedia BD[k] relacionada con la pluralidad de imágenes de referencia, describiendo la información de descripción de memoria intermedia BD[k] un número de imágenes (830, 833, 839, 1230, 1233, 1240, 2430) de referencia que van a almacenarse en la memoria (207) intermedia e información (835, 836, 837, 841, 842, 843, 844, 1236, 1237, 1243, 1244, 2435, 2436, 2437, 2441,2442, 2443, 2444) para identificar qué imagen de referencia tiene que almacenarse;
    medios (203, 204) de reconstrucción que descodifican los datos de imagen comprimidos para reconstruir una imagen reproducida;
    medios (207) de almacenamiento de imagen que almacenan al menos una de dichas imágenes reproducidas como imagen de referencia que va a usarse para descodificar una imagen posterior; y
    medios (209) de gestión de memoria intermedia que controlan los medios (207) de almacenamiento de imagen,
    en el que, antes de la reconstrucción de la imagen reproducida, los medios (209) de gestión de memoria intermedia descodifican, con referencia a la información (820, 822, 1220, 1222, 2420, 2422) de descripción de memoria intermedia BD[m] para otra imagen diferente de la imagen reproducida, los datos codificados de la información de descripción de memoria intermedia BD[k] para la imagen reproducida, y entonces controlan los medios (207) de almacenamiento de imagen basándose en la información de descripción de memoria intermedia descodificada BD[k],
    en el que la descodificación de los datos codificados de la información de descripción de memoria intermedia BD[k] para la imagen reproducida incluye:
    descodificar un índice m que identifica la información de descripción de memoria intermedia BD[m] para otra imagen diferente de la imagen reproducida,
    descodificar un valor de deltaBD (834, 840, 1235, 1242, 2434, 2440) que representa una diferencia entre información de identificación de las imágenes de referencia correspondientes en BD[m] y BD[k], siendo la información de identificación un POC (recuento de salida de imagen) indicativo de un orden de salida de la imagen de referencia correspondiente,
    descodificar una pluralidad de indicadores ibd_flag[j] (835, 836, 837, 841, 842, 843, 844, 1236, 1237, 1243, 1244, 2435, 2436, 2437, 2441,2442, 2443, 2444) que indican tanto si la j-ésima imagen de referencia incluida en BD[m] se usa o no para descodificar una imagen objetivo de procesamiento actual como si una información de identificación de una j-ésima imagen de referencia incluida en BD[m] se usa o no para descodificar una información de identificación de una i-ésima imagen de referencia incluida en BD[k], y
    descodificar una información sobre la imagen de referencia en BD[k] basándose en el índice m descodificado, la información de descripción de memoria intermedia BD[m], el valor descodificado de deltaBD y los indicadores descodificados ibd_flag[j],
    en el que, cuando el ibd_flag[j] indica que la información de identificación de la j-ésima imagen de referencia incluida en BD[m] se usa para descodificar la información de identificación de la imagen de referencia incluida en BD[k], un deltaPOC[i] que es la información de identificación de la i-ésima imagen de referencia incluida en BD[k] se deriva sumando el valor de deltaBD a un deltaPOC[j] que es la información de identificación de la j-ésima imagen de referencia incluida en BD[m], y
    en el que, cuando j es igual al número de imágenes de referencia incluidas en BD[m], el deltaPOC[i] que es la información de identificación de la i-ésima imagen de referencia incluida en BD[k] se establece al valor de deltaBD.
ES18204031T 2011-10-18 2012-09-10 Procedimiento de descodificación predictiva de vídeo en movimiento, dispositivo de descodificación predictiva de vídeo en movimiento Active ES2806049T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011228758 2011-10-18
JP2011240334A JP5698644B2 (ja) 2011-10-18 2011-11-01 動画像予測符号化方法、動画像予測符号化装置、動画像予測符号化プログラム、動画像予測復号方法、動画像予測復号装置及び動画像予測復号プログラム

Publications (1)

Publication Number Publication Date
ES2806049T3 true ES2806049T3 (es) 2021-02-16

Family

ID=48140690

Family Applications (8)

Application Number Title Priority Date Filing Date
ES15169334.8T Active ES2614357T3 (es) 2011-10-18 2012-09-10 Procedimiento de codificación predictiva de vídeo, dispositivo de codificación predictiva de vídeo, programa de codificación predictiva de vídeo, procedimiento de descodificación predictiva de vídeo, dispositivo de descodificación predictiva de vídeo y programa de descodificación predictiva de vídeo
ES15169351.2T Active ES2622777T3 (es) 2011-10-18 2012-09-10 Procedimiento, dispositivo y programa para la codificación por predicción de vídeo en movimiento, y procedimiento, dispositivo y programa para la descodificación por predicción de vídeo en movimiento
ES18204031T Active ES2806049T3 (es) 2011-10-18 2012-09-10 Procedimiento de descodificación predictiva de vídeo en movimiento, dispositivo de descodificación predictiva de vídeo en movimiento
ES15169324.9T Active ES2614512T3 (es) 2011-10-18 2012-09-10 Método de codificación por predicción de vídeo en movimiento, dispositivo de codificación por predicción de vídeo en movimiento, programa de codificación por predicción de vídeo en movimiento, método de descodificación por predicción de vídeo en movimiento, dispositivo de descodificación por predicción de vídeo en movimiento y programa de descodificación por predicción de vídeo en movimiento
ES17152143T Active ES2707780T3 (es) 2011-10-18 2012-09-10 Procedimiento de descodificación por predicción de vídeo en movimiento y dispositivo de descodificación por predicción de vídeo en movimiento
ES20169278T Active ES2957483T3 (es) 2011-10-18 2012-09-10 Procedimiento de descodificación predictiva de vídeo en movimiento
ES15169341.3T Active ES2613525T3 (es) 2011-10-18 2012-09-10 Procedimiento, aparato y programa para la codificación por predicción de vídeo en movimiento, y procedimiento, aparato y programa para la descodificación por predicción de vídeo en movimiento
ES12841320.0T Active ES2618287T3 (es) 2011-10-18 2012-09-10 Procedimiento de codificación predictiva de vídeo, dispositivo de codificación predictiva de vídeo, programa de codificación predictiva de vídeo, procedimiento de descodificación predictiva de vídeo, dispositivo de descodificación predictiva de vídeo y programa de descodificación predictiva de vídeo

Family Applications Before (2)

Application Number Title Priority Date Filing Date
ES15169334.8T Active ES2614357T3 (es) 2011-10-18 2012-09-10 Procedimiento de codificación predictiva de vídeo, dispositivo de codificación predictiva de vídeo, programa de codificación predictiva de vídeo, procedimiento de descodificación predictiva de vídeo, dispositivo de descodificación predictiva de vídeo y programa de descodificación predictiva de vídeo
ES15169351.2T Active ES2622777T3 (es) 2011-10-18 2012-09-10 Procedimiento, dispositivo y programa para la codificación por predicción de vídeo en movimiento, y procedimiento, dispositivo y programa para la descodificación por predicción de vídeo en movimiento

Family Applications After (5)

Application Number Title Priority Date Filing Date
ES15169324.9T Active ES2614512T3 (es) 2011-10-18 2012-09-10 Método de codificación por predicción de vídeo en movimiento, dispositivo de codificación por predicción de vídeo en movimiento, programa de codificación por predicción de vídeo en movimiento, método de descodificación por predicción de vídeo en movimiento, dispositivo de descodificación por predicción de vídeo en movimiento y programa de descodificación por predicción de vídeo en movimiento
ES17152143T Active ES2707780T3 (es) 2011-10-18 2012-09-10 Procedimiento de descodificación por predicción de vídeo en movimiento y dispositivo de descodificación por predicción de vídeo en movimiento
ES20169278T Active ES2957483T3 (es) 2011-10-18 2012-09-10 Procedimiento de descodificación predictiva de vídeo en movimiento
ES15169341.3T Active ES2613525T3 (es) 2011-10-18 2012-09-10 Procedimiento, aparato y programa para la codificación por predicción de vídeo en movimiento, y procedimiento, aparato y programa para la descodificación por predicción de vídeo en movimiento
ES12841320.0T Active ES2618287T3 (es) 2011-10-18 2012-09-10 Procedimiento de codificación predictiva de vídeo, dispositivo de codificación predictiva de vídeo, programa de codificación predictiva de vídeo, procedimiento de descodificación predictiva de vídeo, dispositivo de descodificación predictiva de vídeo y programa de descodificación predictiva de vídeo

Country Status (19)

Country Link
US (7) US9621923B2 (es)
EP (8) EP3700214B1 (es)
JP (1) JP5698644B2 (es)
KR (5) KR101686519B1 (es)
CN (7) CN107105276B (es)
AU (1) AU2012324191B2 (es)
BR (1) BR112014009023B1 (es)
CA (8) CA3039171C (es)
DK (1) DK3700214T3 (es)
ES (8) ES2614357T3 (es)
FI (1) FI3700214T3 (es)
HU (1) HUE063249T2 (es)
MX (2) MX336539B (es)
PL (8) PL2938079T3 (es)
PT (8) PT3177019T (es)
RU (8) RU2630180C1 (es)
SG (1) SG11201401568WA (es)
TW (8) TWI661712B (es)
WO (1) WO2013058034A1 (es)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016126037A (ja) * 2014-12-26 2016-07-11 ソニー株式会社 信号処理装置、および信号処理方法、並びにプログラム
CN107247676A (zh) * 2017-05-18 2017-10-13 深圳市小牛在线互联网信息咨询有限公司 动态图播放方法、装置、存储介质和计算机设备
CN112714322B (zh) * 2020-12-28 2023-08-01 福州大学 一种面向游戏视频的帧间参考优化方法

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7095783B1 (en) * 1992-06-30 2006-08-22 Discovision Associates Multistandard video decoder and decompression system for processing encoded bit streams including start codes and methods relating thereto
JP3109349B2 (ja) * 1993-11-16 2000-11-13 松下電器産業株式会社 映像信号再生装置
US6101276A (en) * 1996-06-21 2000-08-08 Compaq Computer Corporation Method and apparatus for performing two pass quality video compression through pipelining and buffer management
DE69719365T2 (de) * 1996-12-18 2003-10-16 Thomson Consumer Electronics Effiziente kompression und dekompression von blocks fester länge
GB2362532B (en) * 2000-05-15 2004-05-05 Nokia Mobile Phones Ltd Video coding
JP2003299103A (ja) * 2002-03-29 2003-10-17 Toshiba Corp 動画像符号化方法と装置及び動画像復号化方法と装置
JP2004007563A (ja) * 2002-04-19 2004-01-08 Matsushita Electric Ind Co Ltd 動画像符号化方法および動画像復号化方法
EP3324623B1 (en) * 2002-04-19 2019-06-12 Panasonic Intellectual Property Corporation of America Motion vector calculating method
EP1742480B1 (en) * 2002-07-11 2008-10-29 Matsushita Electric Industrial Co., Ltd. Virtual display buffer management method for H.264 prediction image decoding.
ES2767954T3 (es) * 2002-08-08 2020-06-19 Godo Kaisha Ip Bridge 1 Procedimiento de descodificación de imágenes en movimiento
AU2003273307A1 (en) * 2002-10-01 2004-04-23 Thomson Licensing S.A. Implicit weighting of reference pictures in a video encoder
JP3513148B1 (ja) * 2002-10-11 2004-03-31 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、動画像符号化プログラム、及び動画像復号プログラム
MY134659A (en) * 2002-11-06 2007-12-31 Nokia Corp Picture buffering for prediction references and display
US20100166056A1 (en) * 2002-12-10 2010-07-01 Steve Perlman System and method for encoding video using a selected tile and tile rotation pattern
KR101094323B1 (ko) * 2003-09-17 2011-12-19 톰슨 라이센싱 적응 기준 화상 생성
JP4591657B2 (ja) * 2003-12-22 2010-12-01 キヤノン株式会社 動画像符号化装置及びその制御方法、プログラム
US20050207490A1 (en) * 2004-03-18 2005-09-22 Wang Jason N Stored picture index for AVC coding
US20050229231A1 (en) * 2004-03-31 2005-10-13 Lippincott Louis A Converter-assisted video encoder
JP4020883B2 (ja) * 2004-04-20 2007-12-12 株式会社東芝 動画像復号装置
US20060083298A1 (en) * 2004-10-14 2006-04-20 Nokia Corporation Reference picture management in video coding
CN101065780A (zh) * 2004-10-14 2007-10-31 诺基亚公司 视频编码中的参考图像管理
US7983341B2 (en) * 2005-02-24 2011-07-19 Ericsson Television Inc. Statistical content block matching scheme for pre-processing in encoding and transcoding
US7995656B2 (en) * 2005-03-10 2011-08-09 Qualcomm Incorporated Scalable video coding with two layer encoding and single layer decoding
KR100703770B1 (ko) * 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
JP5017825B2 (ja) * 2005-09-15 2012-09-05 ソニー株式会社 復号装置および復号方法
JP2009512306A (ja) * 2005-10-11 2009-03-19 ノキア コーポレイション スケーラブルビデオコーディングのためのデコードされたピクチャーの効率的なバッファマネージメント
BRPI0619193A2 (pt) * 2005-11-30 2011-09-20 Toshiba Kk Toshiba Corp método de codificação de imagem / decodificação de imagem, aparelho de codificação de imagem / decodificação de imagem
BRPI0621340A2 (pt) * 2006-02-13 2011-12-06 Toshiba Kk Toshiba Corp método e aparelho e programa de codificação/decodificação de vìdeo
US20090304068A1 (en) * 2006-07-06 2009-12-10 Purvin Bibhas Pandit Method and Apparatus for Decoupling Frame Number and/or Picture Order Count (POC) for Multi-View Video Encoding and Decoding
AR064274A1 (es) * 2006-12-14 2009-03-25 Panasonic Corp Metodo de codificacion de imagenes en movimiento, dispositivo de codificacion de imagenes en movimiento, metodo de grabacion de imagenes en movimiento, medio de grabacion, metodo de reproduccion de imagenes en movimiento, dispositivo de reproduccion de imagenes en movimiento, y sistema de reproducci
JP4427086B2 (ja) * 2006-12-27 2010-03-03 パナソニック株式会社 動画像復号化装置
RU2335869C1 (ru) * 2007-03-27 2008-10-20 Виктор Николаевич Ожерельев Приспособление к дисковому почвообрабатывающему орудию
CA2684110A1 (en) * 2007-04-12 2008-10-23 Nokia Corporation Spatially enhanced transform coding
EP2034742A3 (en) * 2007-07-25 2009-10-14 Hitachi Ltd. Video coding method and device
JP2009267689A (ja) 2008-04-24 2009-11-12 Panasonic Corp 動画像符号化装置、及び動画像符号化方法
JP5369893B2 (ja) * 2008-05-30 2013-12-18 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、動画像復号プログラム、動画像再符号化装置、動画像再符号化方法、動画像再符号化プログラム
US8446949B2 (en) * 2008-06-23 2013-05-21 Sungkyunkwan University Foundation For Corporate Collaboration Distributed coded video decoding apparatus and method capable of successively improving side information on the basis of reliability of reconstructed data
JP5680283B2 (ja) * 2008-09-19 2015-03-04 株式会社Nttドコモ 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び動画像復号プログラム
JP5697301B2 (ja) * 2008-10-01 2015-04-08 株式会社Nttドコモ 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム、及び動画像符号化・復号システム
KR20110106465A (ko) * 2009-01-28 2011-09-28 노키아 코포레이션 비디오 코딩 및 디코딩을 위한 방법 및 장치
US20110026593A1 (en) * 2009-02-10 2011-02-03 New Wei Lee Image processing apparatus, image processing method, program and integrated circuit
JP2011082683A (ja) * 2009-10-05 2011-04-21 Sony Corp 画像処理装置、画像処理方法、及び、プログラム
US20110235716A1 (en) * 2009-10-19 2011-09-29 Takeshi Tanaka Decoding apparatus, decoding method, program and integrated circuit
EP2495973B1 (en) * 2009-10-30 2019-02-27 Sun Patent Trust Decoding method, decoder apparatus, encoding method, and encoder apparatus
JP2011199396A (ja) * 2010-03-17 2011-10-06 Ntt Docomo Inc 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法、及び動画像予測復号プログラム
KR101380460B1 (ko) * 2010-03-30 2014-04-02 후지쯔 가부시끼가이샤 화상 처리 장치 및 화상 처리 방법

Also Published As

Publication number Publication date
EP2770737B1 (en) 2016-12-07
CA3039172C (en) 2021-01-19
MX350923B (es) 2017-09-26
CA3039174C (en) 2021-06-29
CN103858429A (zh) 2014-06-11
TW201929544A (zh) 2019-07-16
WO2013058034A1 (ja) 2013-04-25
PL2938078T3 (pl) 2017-04-28
EP2938078A1 (en) 2015-10-28
RU2689424C1 (ru) 2019-05-28
TWI520587B (zh) 2016-02-01
TW201808009A (zh) 2018-03-01
EP3700214A1 (en) 2020-08-26
EP3457693A1 (en) 2019-03-20
PT2938079T (pt) 2017-04-24
RU2660619C1 (ru) 2018-07-06
PT3177019T (pt) 2019-02-04
CA3039176A1 (en) 2013-04-25
ES2622777T3 (es) 2017-07-07
EP2938077B1 (en) 2016-11-23
ES2614512T3 (es) 2017-05-31
PL3177019T3 (pl) 2019-03-29
PL2938077T3 (pl) 2017-04-28
PL3457693T3 (pl) 2020-10-19
US9621923B2 (en) 2017-04-11
PL2938076T3 (pl) 2017-06-30
KR20160099110A (ko) 2016-08-19
ES2618287T3 (es) 2017-06-21
TWI562607B (es) 2016-12-11
CN107105264A (zh) 2017-08-29
CN106851301B (zh) 2018-08-07
EP3177019B1 (en) 2018-12-26
TW201528787A (zh) 2015-07-16
RU2630180C1 (ru) 2017-09-05
US20160373758A1 (en) 2016-12-22
PT2938076T (pt) 2017-01-04
RU2014119878A (ru) 2015-11-27
KR101664202B1 (ko) 2016-10-10
TWI611688B (zh) 2018-01-11
CA2852888C (en) 2017-09-26
RU2719334C1 (ru) 2020-04-17
JP2013102258A (ja) 2013-05-23
EP2938079B1 (en) 2017-03-29
CN107105276B (zh) 2018-09-14
US10015509B2 (en) 2018-07-03
KR101686519B1 (ko) 2016-12-14
PL2770737T3 (pl) 2017-06-30
US20140226716A1 (en) 2014-08-14
CA2972448A1 (en) 2013-04-25
EP2938078B1 (en) 2016-11-09
TWI540883B (zh) 2016-07-01
KR20160096231A (ko) 2016-08-12
DK3700214T3 (da) 2023-09-25
US20180295378A1 (en) 2018-10-11
JP5698644B2 (ja) 2015-04-08
EP2770737A1 (en) 2014-08-27
CA3039172A1 (en) 2013-04-25
TW201707453A (zh) 2017-02-16
CN106454369A (zh) 2017-02-22
MX336539B (es) 2016-01-22
CA3039173C (en) 2021-01-19
CA2852888A1 (en) 2013-04-25
US10257533B2 (en) 2019-04-09
TWI704798B (zh) 2020-09-11
PL2938079T3 (pl) 2017-07-31
EP3177019A1 (en) 2017-06-07
TWI661712B (zh) 2019-06-01
CA3039171C (en) 2021-01-19
TW201531092A (zh) 2015-08-01
RU2699412C1 (ru) 2019-09-05
PT2938078T (pt) 2016-12-27
US20180295377A1 (en) 2018-10-11
PL2770737T4 (pl) 2019-04-30
TW201531093A (zh) 2015-08-01
US20160373781A1 (en) 2016-12-22
BR112014009023A2 (pt) 2017-05-02
CN106454369B (zh) 2019-07-23
EP2938076B1 (en) 2016-11-30
CA3039168C (en) 2021-01-19
KR101686520B1 (ko) 2016-12-14
AU2012324191A1 (en) 2014-06-12
CA3039176C (en) 2020-10-27
US20170208337A1 (en) 2017-07-20
HUE063249T2 (hu) 2024-01-28
US10257534B2 (en) 2019-04-09
CN106851301A (zh) 2017-06-13
ES2957483T3 (es) 2024-01-19
FI3700214T3 (fi) 2023-09-13
RU2586592C2 (ru) 2016-06-10
TW201320772A (zh) 2013-05-16
EP2938077A1 (en) 2015-10-28
MX2014004501A (es) 2014-09-08
ES2707780T3 (es) 2019-04-05
CN106412599B (zh) 2018-06-05
PT3457693T (pt) 2020-07-16
US9743113B2 (en) 2017-08-22
KR20160099109A (ko) 2016-08-19
EP2938079A1 (en) 2015-10-28
CA3039171A1 (en) 2013-04-25
CN103858429B (zh) 2018-11-27
CN106412599A (zh) 2017-02-15
PT2770737T (pt) 2017-02-01
PT3700214T (pt) 2023-09-21
CN107105276A (zh) 2017-08-29
ES2614357T3 (es) 2017-05-30
KR20140085513A (ko) 2014-07-07
US9667998B2 (en) 2017-05-30
RU2684573C1 (ru) 2019-04-09
ES2613525T3 (es) 2017-05-24
EP3457693B1 (en) 2020-06-17
CN107105265B (zh) 2018-06-26
KR101648443B1 (ko) 2016-08-16
KR101581399B1 (ko) 2015-12-30
SG11201401568WA (en) 2014-09-26
EP2938078B8 (en) 2017-04-12
CN107105264B (zh) 2019-11-08
US9681153B2 (en) 2017-06-13
US20160373786A1 (en) 2016-12-22
BR112014009023B1 (pt) 2019-07-02
CA3039173A1 (en) 2013-04-25
EP2938076A1 (en) 2015-10-28
TW201818721A (zh) 2018-05-16
CA2972448C (en) 2019-05-28
PL3700214T3 (pl) 2023-12-11
CN107105265A (zh) 2017-08-29
PT2938077T (pt) 2017-01-09
TWI619377B (zh) 2018-03-21
AU2012324191B2 (en) 2015-06-25
CA3039174A1 (en) 2013-04-25
CA3039168A1 (en) 2013-04-25
TWI510060B (zh) 2015-11-21
RU2707145C1 (ru) 2019-11-22
EP3700214B1 (en) 2023-08-23
KR20160005375A (ko) 2016-01-14
EP2770737A4 (en) 2015-06-03

Similar Documents

Publication Publication Date Title
ES2753760T3 (es) Codificación y descodificación de vídeo con resiliencia mejorada frente a errores
ES2929824T3 (es) Método de decodificación bipredictiva de imágenes
ES2806049T3 (es) Procedimiento de descodificación predictiva de vídeo en movimiento, dispositivo de descodificación predictiva de vídeo en movimiento
AU2015202847B2 (en) Motion video predict coding method, motion video predict coding device, motion video predict coding program, motion video predict decoding method, motion video predict decoding device, and motion video predict decoding program
US20240129472A1 (en) Context modeling in entropy coding
JP5711416B2 (ja) 動画像予測符号化方法、動画像予測符号化装置、動画像予測符号化プログラム、動画像予測復号方法、動画像予測復号装置及び動画像予測復号プログラム
AU2015202850B8 (en) Motion video predict coding method, motion video predict coding device, motion video predict coding program, motion video predict decoding method, motion video predict decoding device, and motion video predict decoding program