ES2900775T3 - Dispositivo de descodificación de vídeo, método de descodificación de vídeo y programa - Google Patents

Dispositivo de descodificación de vídeo, método de descodificación de vídeo y programa Download PDF

Info

Publication number
ES2900775T3
ES2900775T3 ES12734382T ES12734382T ES2900775T3 ES 2900775 T3 ES2900775 T3 ES 2900775T3 ES 12734382 T ES12734382 T ES 12734382T ES 12734382 T ES12734382 T ES 12734382T ES 2900775 T3 ES2900775 T3 ES 2900775T3
Authority
ES
Spain
Prior art keywords
video
motion vectors
interpu
predetermined area
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES12734382T
Other languages
English (en)
Inventor
Kenta Senzaki
Yuzo Senda
Keiichi Chono
Hirofumi Aoki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Application granted granted Critical
Publication of ES2900775T3 publication Critical patent/ES2900775T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Un dispositivo de descodificación de vídeo para descodificar vídeo usando interpredicción en un esquema que define una unidad de codificación, CU, como una unidad de codificación, una unidad de predicción, PU, como una unidad de predicción para cada CU, y tipos de partición interPU, suministrándose el vídeo por un dispositivo de codificación de vídeo, comprendiendo el dispositivo de descodificación de vídeo: medios (202) de descodificación por entropía para descodificar por entropía el vídeo; y medios (206) de control de descodificación para determinar, con respecto a un bloque de imagen que tiene un área predeterminada y que contiene diversas CU, si controlar los medios (202) de descodificación por entropía para omitir la descodificación por entropía, con respecto a cada CU que va a descodificarse, de un tipo de partición interPU contenido en el vídeo, cuando una diferencia entre el número máximo de vectores de movimiento permitidos para dicho bloque de imagen que tiene el área predeterminada y el número de vectores de movimiento de una CU o varias CU ya descodificadas dentro de dicho bloque de imagen que tiene el área predeterminada es igual a o menor que uno, o para realizar la descodificación por entropía cuando una diferencia entre el número máximo de vectores de movimiento permitidos para dicho bloque de imagen que tiene el área predeterminada y el número de vectores de movimiento de una CU o varias CU ya descodificadas dentro de dicho bloque de imagen que tiene el área predeterminada es mayor que uno, en el que los medios (206) de control de descodificación están adaptados para establecer un tipo de partición interPU predeterminado cuando se omite la descodificación por entropía del tipo de partición interPU.

Description

DESCRIPCIÓN
Dispositivo de descodificación de vídeo, método de descodificación de vídeo y programa
Campo técnico
La presente invención se refiere a un dispositivo de descodificación de vídeo, a un método de descodificación de vídeo y a un programa que usa unidades de codificación jerárquica.
Técnica anterior
El documento de no patente (NPL) 1 da a conocer un sistema de codificación de vídeo y un sistema de descodificación de vídeo habituales.
Un dispositivo de codificación de vídeo descrito en el NPL 1 tiene una estructura tal como se muestra en la figura 17. El dispositivo de codificación de vídeo mostrado en la figura 17 se denomina a continuación dispositivo de codificación de vídeo habitual.
Con referencia a la figura 17, la estructura y el funcionamiento del dispositivo de codificación de vídeo habitual que recibe cada fotograma de vídeo digitalizado como entrada y emite un flujo de bits se describen a continuación.
El dispositivo de codificación de vídeo mostrado en la figura 17 incluye un transformador/cuantificador 101, un codificador 102 entrópico, un transformador inverso/cuantificador inverso 103, una memoria 104 intermedia, un predictor 105, un multiplexor 106 y un controlador 108 de codificación.
El dispositivo de codificación de vídeo mostrado en la figura 17 divide cada fotograma en bloques de tamaño de 16x16 píxeles denominados macrobloques (MB), y codifica cada MB secuencialmente desde la parte superior izquierda del fotograma.
La figura 18 es un diagrama explicativo que muestra un ejemplo de división de bloques en un caso en el que el fotograma tiene una resolución espacial de QCIF (formato intermedio común de un cuarto). A continuación, se describe el funcionamiento de cada unidad centrándose únicamente en valores de píxel de luminancia por motivos de simplicidad.
Una señal de predicción suministrada desde el predictor 105 se obtiene del vídeo de entrada dividido en bloques, y el resultado se introduce en el transformador/cuantificador 101 como una imagen de error de predicción. Existen dos tipos de señales de predicción, a saber, una señal de intrapredicción y una señal de interpredicción. La señal de interpredicción también se denomina señal de predicción entre fotogramas.
A continuación, se describe cada una de las señales de predicción. La señal de intrapredicción es una señal de predicción generada en base a una imagen de una imagen reconstruida que tiene el mismo tiempo de visualización que una imagen actual almacenada en la memoria 104 intermedia.
Haciendo referencia a 8.3.1 proceso de predicción Intra_4x4 para muestras de luma, 8.3.2 proceso de predicción Intra_8x8 para muestras de luma, y 8.3.3 proceso de predicción Intra_16x16 para muestras de luma en el NPL 1, están disponibles la intrapredicción de tres tamaños de bloque, es decir, Intra_4x4, Intra_8x8 e Intra_16x16.
Intra_4x4 e Intra_8x8 son respectivamente la intrapredicción de tamaño de bloque de 4x4 y de tamaño de bloque de 8x8, tal como puede entenderse a partir de (a) y (c) en la figura 19. Cada círculo (o) en el dibujo representa un píxel de referencia usado para la intrapredicción, es decir, un píxel de la imagen reconstruida que tiene el mismo tiempo de visualización que la imagen actual.
En la intrapredicción de Intra_4x4, los píxeles periféricos reconstruidos se establecen directamente como píxeles de referencia, y se usan para relleno (extrapolación) en las nueve direcciones mostradas en (b) de la figura 19 para formar la señal de predicción. En la intrapredicción de Intra_8x8, los píxeles obtenidos suavizando los píxeles periféricos de la imagen de la imagen reconstruida mediante filtros de paso bajo (1/2, 1/4, 1/2) mostrados bajo la flecha derecha en (c) de la figura 19 se establecen como píxeles de referencia, y se usan para la extrapolación en las nueve direcciones mostradas en (b) de la figura 19 para formar la señal de predicción.
De manera similar, Intra_16x16 es una intrapredicción de un tamaño de bloque de 16 x 16, tal como puede entenderse a partir de (a) en la figura 20. Como en la figura 19, cada círculo (o) en el dibujo representa un píxel de referencia usado para la intrapredicción, es decir, un píxel de la imagen reconstruida que tiene el mismo tiempo de visualización que la imagen actual. En la intrapredicción de Intra_16x16, los píxeles periféricos de la imagen de la imagen reconstruida se establecen directamente como píxeles de referencia, y se usan para extrapolación en las cuatro direcciones mostradas en (b) de la figura 20 para formar la señal de predicción.
A continuación en el presente documento, un MB y un bloque codificados usando la señal de intrapredicción se denominan intraMB e intrabloque, respectivamente, es decir, un tamaño de bloque de intrapredicción se denomina tamaño de bloque de intrapredicción, y una dirección de extrapolación se denomina dirección de intrapredicción. El tamaño de bloque de intrapredicción y la dirección de intrapredicción son parámetros de predicción relacionados con la intrapredicción.
La señal de interpredicción es una señal de predicción generada a partir de una imagen de una imagen reconstruida diferente en el tiempo de visualización de la que tiene la imagen actual y se almacena en la memoria 104 intermedia. A continuación en el presente documento, un MB y un bloque codificados usando la señal de interpredicción se denominan interMB e interbloque, respectivamente. Un tamaño de bloque de interpredicción (tamaño de bloque de interpredicción) puede seleccionarse de, por ejemplo, 16 x 16, 16 x 8, 8 x 16, 8 x 8, 8 x 4, 4 x 8 y 4 x 4.
La figura 21 es un diagrama explicativo que muestra un ejemplo de interpredicción que usa un tamaño de bloque de 16x16 como ejemplo. Un vector de movimiento MV = (mvx, mvy) que se muestra en la figura 21 es una predicción, que indica la cantidad de traslación paralela de un bloque de interpredicción (señal de interpredicción) de una imagen de referencia en relación con un bloque que va a codificarse. En AVC, los parámetros de predicción de interpredicción no solo incluyen una dirección de interpredicción que representa una dirección de la imagen de referencia de una señal de interpredicción con respecto a una imagen que va a codificarse del bloque que va a codificarse, sino también un índice de imagen de referencia para identificar la imagen de referencia usada para la interpredicción del bloque que va a codificarse. Esto se debe a que, en AVC, pueden usarse múltiples imágenes de referencia almacenadas en la memoria 104 intermedia para la interpredicción.
En la interpredicción de AVC, puede calcularse un vector de movimiento con una precisión de 1/4 de píxel. La figura 22 es un diagrama explicativo que muestra el procesamiento de interpolación para señales de luminancia en la predicción con compensación de movimiento. En la figura 22, A representa una señal de píxel en una posición de píxel entero, b, c, d representan señales de píxel en posiciones de píxeles decimales con una precisión de 1/2 píxel, y e1, e2 , e3 representan señales de píxel en posiciones de píxeles decimales con una precisión de 1/4 de píxel. La señal de píxel b se genera aplicando un filtro de seis derivaciones a píxeles en posiciones de píxeles enteros horizontales. Del mismo modo, la señal de píxel c se genera aplicando el filtro de seis derivaciones a píxeles en posiciones de píxeles enteros verticales. La señal de píxel d se genera aplicando el filtro de seis derivaciones a píxeles en posiciones de píxeles decimales horizontales o verticales con una precisión de 1/2 píxel. Los coeficientes del filtro de seis derivaciones se representan como [1, -5, 20, 20, -5, 1]/32. Las señales de píxeles e1, e2 y e3 se generan aplicando un filtro de dos derivaciones [1, 1]/2 a píxeles en posiciones de píxeles enteros o posiciones de píxeles decimales adyacentes, respectivamente.
Una imagen codificada que incluye solo intraMB se denomina imagen I. Una imagen codificada que incluye no solo intraMB sino también interMB se denomina imagen P. Una imagen codificada que incluye interMB que usan no solo una imagen de referencia sino dos imágenes de referencia simultáneamente para la interpredicción se denomina imagen B. En la imagen B, la interpredicción en la que la dirección de la imagen de referencia de la señal de interpredicción con respecto a la imagen que va a codificarse del bloque que va a codificarse es pasada se denomina predicción hacia adelante, la interpredicción en la que la dirección de la imagen de referencia de la señal de interpredicción con respecto a la imagen que va a codificarse del bloque que va a codificarse es futura se denomina predicción hacia atrás, y la interpredicción que usa simultáneamente dos imágenes de referencia que implican tanto el pasado como el futuro se denomina predicción bidireccional. La dirección de interpredicción (dirección de interpredicción) es un parámetro de predicción de interpredicción.
Según una instrucción del controlador 108 de codificación, el predictor 105 compara una señal de vídeo de entrada con una señal de predicción para determinar un parámetro de predicción que minimiza la energía de un bloque de imagen de error de predicción. El controlador 108 de codificación suministra el parámetro de predicción determinado al codificador 102 entrópico.
El transformador/cuantificador 101 transforma en frecuencia la imagen de error de predicción para obtener un coeficiente de transformada de frecuencia.
El transformador/cuantificador 101 cuantifica además el coeficiente de transformada de frecuencia con un ancho Qs de paso de cuantificación predeterminado. A continuación en el presente documento, el coeficiente de transformada de frecuencia cuantificado se denomina valor de cuantificación de transformada.
El codificador 102 entrópico codifica por entropía los parámetros de predicción y el valor de cuantificación de transformada. Los parámetros de predicción son información asociada con predicción de MB y de bloques, tal como el modo de predicción (intrapredicción, interpredicción), el tamaño de bloque de intrapredicción, la dirección de intrapredicción, el tamaño de bloque de interpredicción y el vector de movimiento mencionados anteriormente.
El transformador inverso/cuantificador inverso 103 cuantifica de manera inversa el valor de cuantificación de transformada con el ancho Qs de paso de cuantificación predeterminado. El transformador inverso/cuantificador inverso 103 realiza además una transformada de frecuencia inversa del coeficiente de transformada de frecuencia obtenido mediante la cuantificación inversa. La señal de predicción se añade a la imagen de error de predicción reconstruida obtenida por la transformada de frecuencia inversa, y el resultado se suministra a la memoria 104 intermedia.
La memoria 104 intermedia almacena la imagen reconstruida suministrada. La imagen reconstruida para un fotograma se denomina imagen reconstruida.
El multiplexor 106 multiplexa y emite los datos de salida del codificador 102 entrópico y los parámetros de codificación. En base a la operación descrita anteriormente, el multiplexor 106 en el dispositivo de codificación de vídeo genera un flujo de bits.
Un dispositivo de descodificación de vídeo descrito en el NPL 1 tiene una estructura tal como se muestra en la figura 23. A continuación en el presente documento, el dispositivo de descodificación de vídeo mostrado en la figura 23 se denomina dispositivo de descodificación de vídeo habitual.
Con referencia a la figura 23, se describe la estructura y el funcionamiento del dispositivo de descodificación de vídeo habitual que recibe el flujo de bits como entrada y emite un fotograma de vídeo descodificado.
El dispositivo de descodificación de vídeo mostrado en la figura 23 incluye un desmultiplexor 201, un descodificador 202 entrópico, un transformador inverso/cuantificador inverso 203, un predictor 204 y una memoria 205 intermedia. El desmultiplexor 201 desmultiplexa el flujo de bits de entrada y extrae un flujo de bits de vídeo codificado por entropía. El descodificador 202 entrópico descodifica por entropía el flujo de bits de vídeo. El descodificador 202 entrópico descodifica por entropía los parámetros de predicción de MB y de bloque y el valor de cuantificación de transformada, y suministra los resultados al transformador inverso/cuantificador inverso 203 y al predictor 204.
El transformador inverso/cuantificador inverso 203 cuantifica de manera inversa el valor de cuantificación de transformada con el ancho de paso de cuantificación. El transformador inverso/cuantificador inverso 203 realiza además la transformada de frecuencia inversa del coeficiente de transformada de frecuencia obtenido mediante la cuantificación inversa.
Después de la transformada de frecuencia inversa, el predictor 204 genera una señal de predicción usando una imagen de una imagen reconstruida almacenada en la memoria 205 intermedia en base a los parámetros de predicción de bloque y de MB descodificados por entropía.
Después de la generación de la señal de predicción, la señal de predicción suministrada desde el predictor 204 se añade 15 a una imagen de error de predicción reconstruida obtenida por la transformada de frecuencia inversa realizada por el transformador inverso/cuantificador inverso 203, y el resultado se suministra a la memoria 205 intermedia como una imagen reconstruida.
A continuación, la imagen reconstruida almacenada en la memoria 205 intermedia se emite como una imagen descodificada (vídeo descodificado).
En base a la operación descrita anteriormente, el dispositivo de descodificación de vídeo habitual genera la imagen descodificada.
Lista de menciones
Documentos de no patente
NPL 1: Codificación de vídeo avanzada ISO/IEC 14496-10
NPL 2: “Test Model under Consideration” documento: JCTVC-B205, equipo conjunto de colaboración sobre codificación de vídeo (JCT- VC) del UIT-T SG16 WP3 e ISO/IEC JTC1/SC29/WG11 2a reunión: Ginebra, CH, 21-28 de julio de 2010.
CHONO K. et al. “Description of video coding technology proposal by NEC”, 1. REUNIÓN JCT-VC; EQUIPO CONJUNTO DE COLABORACIÓN SOBRE CODIFICACIÓN DE VÍDEO DE ISO/IEC JTC1/SC29/WG11 E ITU-TSG.16; 18 de abril de 2010, da a conocer que al excluir tamaños de partición pequeños y al usar tamaños de partición grandes, se reduce el número de bits requeridos para señalizar un vector de movimiento.
El documento internacional WO 2010/039728 A representa la técnica relacionada.
Compendio de la Invención
Problema técnico
El NPL 2 da a conocer el modelo de prueba bajo consideración (TMuC). A diferencia de lo dado a conocer en el NPL 1, el esquema de TMuC usa unidades de codificación jerárquicas (bloques de árbol de codificación (CTB)) que se muestran en la figura 24. En esta memoria descriptiva, los bloques de CTB se denominan unidades de codificación (CU).
En este caso, la CU más grande se denomina unidad de codificación más grande (LCU), y la CU más pequeña se denomina unidad de codificación más pequeña (SCU). En el esquema de TMuC, el concepto de unidad de predicción (PU) se introduce como una unidad de predicción para cada CU (véase la figura 25). La PU es una unidad básica de predicción, y se definen ocho tipos de partición de PU {2Nx2N, 2NxN, Nx2N, NxN, 2NxnU, 2NxnD, nLx2N, nRx2N} mostrados en la figura 25. La PU usada para la interpredicción se denomina interPU y la PU usada para la intrapredicción se denomina intraPU. La partición de PU para la que se usa interpredicción se denomina partición interPU, y la partición de PU para la que se usa intrapredicción se denomina partición intraPU. Entre las formas mostradas en la figura 25, solo los cuadrados de 2Nx2N y NxN se soportan como particiones intraPU. A continuación en el presente documento, las longitudes de un lado de una CU y una PU se denominan tamaño de CU y tamaño de PU, respectivamente.
El esquema de TMuC puede usar un filtro con hasta doce derivaciones para buscar una imagen predicha con una precisión decimal. La relación entre la posición de píxel y el coeficiente de filtro es la siguiente.
[Tabla 1]
Figure imgf000005_0001
La posición de píxel se describe con referencia a la figura 26. En la figura 26, se asume que A y E son píxeles en posiciones de píxeles enteros. En este caso, b es un píxel en la posición de 1/4 de píxel, c es un píxel en la posición de 1/2 de píxel y d es un píxel en la posición de 3/4 de píxel. Lo mismo se aplica a los que se encuentran en la dirección vertical.
El píxel b o el píxel c mostrados en la figura 22 se generan aplicando un filtro para la posición horizontal o vertical de 1/2 de píxel una vez. El píxel e1 se genera aplicando un filtro para la posición de 1/4 de píxel una vez.
Con referencia a la figura 27, se realiza una descripción de un ejemplo de generación de píxeles decimales, tales como el píxel e2 y el píxel e3, cuyas posiciones de píxeles son posiciones de precisión decimal tanto en la dirección horizontal como en la vertical y al menos cualquiera de las cuales es una posición de 1/4 de píxel. En la figura 27, se asume que el píxel A es un píxel en una posición de píxel entero y el píxel c es un píxel en una posición de píxel decimal que va a obtenerse. En este caso, el píxel b se genera en primer lugar aplicando un filtro para la posición de 1/4 de píxel vertical. A continuación, se genera el píxel c aplicando un filtro para la posición de 3/4 de píxel horizontal al píxel decimal b. En 8.3 métodos de Interpolación del NPL 2, se describe con más detalle la generación de píxeles decimales.
En el esquema de TMuC, una sintaxis indicativa de un tipo de partición de PU en cada cabecera de PU de las CU en todos los niveles (según 4.1.10 sintaxis de unidad de predicción en el NPL 2, intra_split_flag en el caso de intrapredicción e inter_partitioning_idc en el caso de interpredicción se integra en un flujo de bits de salida. A continuación en el presente documento, la sintaxis intra_split_flag se denomina sintaxis de tipo de partición intraPU, y la sintaxis de inter_partitioning_idc se denomina sintaxis de tipo de partición interPU.
Cuando existen muchas CU de pequeño tamaño dentro de cada LCU, la relación del número de bits de la sintaxis de tipo de partición interPU incluida en el flujo de bits aumenta, provocando el problema de que la calidad del vídeo comprimido se reduce.
Además, en el esquema de TMuC, los accesos de memoria a las imágenes de referencia aumentan a medida que disminuye el tamaño de la partición interPU, lo que provoca el problema de la tensión del ancho de banda de la memoria. En particular, dado que el filtro de doce derivaciones se usa para generar un píxel decimal en el esquema de TMuC, el ancho de banda de memoria es más tenso.
La figura 28 es un diagrama explicativo para describir áreas de acceso a memoria cuando se usa el filtro de doce derivaciones. La figura 28(A) muestra un área de acceso a memoria de una partición interPU cuando se selecciona el tipo de partición de PU de NxN, y la figura 28(B) muestra un área de acceso a memoria cuando se selecciona el tipo de partición interPU de 2Nx2N.
Cuando se selecciona NxN, dado que el acceso a memoria de un tamaño rodeado por la línea discontinua en la figura 28(A) se realiza cuatro veces en total para cada una de las particiones interPU 0, 1, 2, 3, la cantidad de acceso a memoria tiene un valor obtenido multiplicando 4(N 11)2 = 4N2 88N+ 484 por el recuento de bits de una imagen de referencia. Puesto que la cantidad de acceso a memoria de la partición interPU de 2Nx2N tiene un valor obtenido multiplicando (2N 11)2 = 4N2 44N 121 por el recuento de bits de la imagen de referencia, la cantidad de acceso a memoria de la partición interPU de NxN se hace mayor que la cantidad de acceso a memoria de 2Nx2N.
Por ejemplo, se tiene en consideración la cantidad de acceso a memoria de interPU en una CU de 8x8 cuando N = 4, la predicción es una predicción unidireccional y la precisión de bits de cada valor de píxel es de 8 bits. La cantidad de acceso a memoria en la partición interPU de 2Nx2N es de 19 x 19 x 1 x 8 bits = 2888 bits, mientras que la cantidad de acceso a memoria en la partición interPU de NxN es de 5 x 15 x 4 x 8 bits = 7200 bits, cuya cantidad de acceso a memoria es aproximadamente 2,5 veces.
En unidades de LCU, si el tamaño de bloque de LCU es 128 x 128, la cantidad de acceso a memoria cuando la LCU se predice por una partición interPU será de 139 x 139 x 1 x 8 bits = 154568 bits, mientras que la cantidad de acceso a memoria cuando la LCU se predice mediante particiones interPU de 4x4 (es decir, cuando la LCU se predice por 1024 particiones interPU) será de 15 x 15 x 1024 x 8 bits = 1843200 bits, cuya cantidad de acceso a memoria es aproximadamente doce veces.
Un objeto de la presente invención es reducir el ancho de banda de memoria por área predeterminada.
Solución al problema
El objeto anterior se consigue con las características de las reivindicaciones.
Efectos ventajosos de la Invención
Según la presente invención, dado que las particiones interPU disponibles se restringen en función del número de vectores de movimiento de un bloque de imagen codificado contenido en un bloque de imagen que tiene un área predeterminada, puede reducirse el ancho de banda de memoria por área predeterminada.
Además, dado que la dirección de interpredicción se restringe en función del número de vectores de movimiento de un bloque de imagen codificado contenido en un bloque de imagen que tiene un área predeterminada, puede reducirse el ancho de banda de memoria por área predeterminada.
Breve descripción de los dibujos
[Figura 1 ] La figura 1 es un diagrama de bloques de un dispositivo de codificación de vídeo en la referencia 1.
[Figura 2] La figura 2 es un diagrama de flujo que muestra una operación de determinación de parámetros de predicción realizada por un controlador de codificación en la referencia 1.
[Figura 3] La figura 3 es un diagrama de flujo que muestra una operación de determinación de candidatos de tipo de partición de PU.
[Figura 4] La figura 4 es un diagrama de flujo que muestra una operación de determinación de candidatos de dirección de interpredicción para cada partición de PU.
[Figura 5] La figura 5 es un diagrama explicativo de una lista indicativa de información sobre un área predeterminada e información sobre el número máximo de vectores de movimiento permitidos para un bloque de imagen que tiene el área predeterminada en un conjunto de parámetros de secuencia.
[Figura 6] La figura 6 es un diagrama de flujo que muestra una operación de escritura de cabecera de PU. [Figura 7] La figura 7 es un diagrama explicativo de una lista indicativa de información sobre sintaxis de inter_partitioning_idc en una sintaxis de PU.
[Figura 8] La figura 8 es un diagrama de bloques de un dispositivo de descodificación de vídeo en la realización a modo de ejemplo.
[Figura 9] La figura 9 es un diagrama de flujo que muestra una operación de análisis sintáctico de cabecera de PU.
[Figura 10] La figura 10 es un diagrama explicativo de una lista indicativa de información sobre un área predeterminada e información sobre el número máximo de vectores de movimiento permitidos para un bloque de imagen que tiene el área predeterminada en un conjunto de parámetros de imagen.
[Figura 11] La figura 11 es un diagrama explicativo de una lista indicativa de información sobre un área predeterminada e información sobre el número de vectores de movimiento permitidos para un bloque de imagen que tiene el área predeterminada en una cabecera de corte.
[Figura 12] La figura 12 es un diagrama de bloques de un dispositivo de descodificación de vídeo en la referencia 3.
[Figura 13] La figura 13 es un diagrama de flujo que muestra una operación de detección de errores.
[Figura 14] La figura 14 es un diagrama de bloques que muestra un ejemplo de configuración de un sistema de procesamiento de información capaz de implementar la función de un dispositivo de codificación de vídeo, y la función de un dispositivo de descodificación de vídeo según la presente invención.
[Figura 15] La figura 15 es un diagrama de bloques que muestra una parte principal de un dispositivo de codificación de vídeo.
[Figura 16] La figura 16 es un diagrama de bloques que muestra una parte principal de un dispositivo de descodificación de vídeo según la presente invención.
[Figura 17] La figura 17 es un diagrama de bloques de un dispositivo de codificación de vídeo habitual.
[Figura 18] La figura 18 es un diagrama explicativo que muestra un ejemplo de división de bloques.
[Figura 19] La figura 19 es un diagrama explicativo para describir la intrapredicción de Intra_4x4 e Intra_8x8.
[Figura 20] La figura 20 es un diagrama explicativo para describir la intrapredicción de Intra_16x16.
[Figura 21] La figura 21 es un diagrama explicativo que muestra un ejemplo de interpredicción.
[Figura 22] La figura 22 es un diagrama explicativo que muestra el procesamiento de interpolación para señales de luminancia en predicción compensada por movimiento.
[Figura 23] La figura 23 es un diagrama de bloques de un dispositivo de descodificación habitual.
[Figura 24] La figura 24 es un diagrama explicativo para escribir CTB.
[Figura 25] La figura 25 es un diagrama explicativo para describir una PU.
[Figura 26] La figura 26 es un diagrama explicativo para describir posiciones de píxeles decimales.
[Figura 27] La figura 27 es un diagrama explicativo para describir un método de generación de píxeles decimales que usa un filtro de doce derivaciones en el esquema de TMuC.
[Figura 28] La figura 28 es un diagrama explicativo para describir un intervalo de acceso a memoria cuando se genera un píxel decimal usando un filtro de doce derivaciones en el esquema de TMuC.
Descripción de realizaciones
Con el fin de resolver los problemas técnicos de las técnicas habituales mencionadas anteriormente, la presente invención restringe las particiones interPU de una CU que va a codificarse y una dirección de interpredicción en base al número de vectores de movimiento de un bloque de imagen codificado contenido en un bloque de imagen que tiene un área predeterminada para resolver los problemas. En un ejemplo de la presente invención, los candidatos de tipo de partición interPU y los candidatos de dirección de interpredicción se restringen respectivamente en función del número de vectores de movimiento de un bloque de imagen codificado contenido en un bloque de imagen que tiene un área predeterminada para resolver los problemas. En otro ejemplo de la presente invención, la transmisión de una sintaxis de tipo de partición interPU en una cabecera de PU está restringida para resolver los problemas. En el ejemplo anterior de la presente invención, la relación del número de bits de la sintaxis de tipo de partición interPU incluida en un flujo de bits puede mantenerse baja para suprimir el ancho de banda de memoria mientras se mejora la calidad del vídeo comprimido.
En esta memoria descriptiva, por ejemplo, el área predeterminada significa una LCU o dos o más LCU sucesivas.
Referencia 1
La referencia 1 (que no forma parte de la invención reivindicada) muestra un dispositivo de codificación de vídeo que incluye: medios de control de codificación para controlar un tipo de partición interPU y una dirección de interpredicción en base al número máximo de vectores de movimiento permitidos para un bloque de imagen que tiene un área predeterminada (una región predeterminada en la imagen) y el número de vectores de movimiento de un bloque de imagen codificado contenido en el bloque de imagen que tiene el área predeterminada; y medios para incorporar, en un flujo de bits, información sobre el área predeterminada e información sobre el número máximo de vectores de movimiento permitidos para el bloque de imagen que tiene el área predeterminada para señalizar, a un dispositivo de descodificación de vídeo, la información sobre el número máximo de vectores de movimiento permitidos para el bloque de imagen que tiene el área predeterminada.
En esta referencia, se asume que el área predeterminada son LCU de numSucLcu sucesivas (una o más LCU), el número máximo de vectores de movimiento permitidos por área predeterminada es maxNumMV, y el número de vectores de movimiento contenidos en una CU codificada dentro del área predeterminada es currNumMV.
Tal como se muestra en la figura 1, el dispositivo de codificación de vídeo en la referencia incluye un transformador/cuantificador 101, un codificador 102 entrópico, un transformador inverso/cuantificador inverso 103, una memoria 104 intermedia, un predictor 105, un multiplexor 106 y un controlador 107 de codificación, como el dispositivo de codificación de vídeo habitual mostrado en la figura 17.
El dispositivo de codificación de vídeo en la referencia mostrada en la figura 1 difiere del dispositivo de codificación de vídeo mostrado en la figura 17 porque numSucLcu y maxNumMV se suministran al controlador 107 de codificación para controlar el tipo de partición interPU y la dirección de interpredicción en base a numSucLcu y maxNumMV. NumSucLcu y maxNumMV también se suministran al multiplexor 106 para señalizar numSucLcu y maxNumMV al dispositivo de descodificación de vídeo.
El controlador 107 de codificación permite que el predictor 105 calcule un coste (coste de distorsión de tasa: coste de R-D) calculado a partir de una distorsión de codificación (la energía de una imagen de error entre una señal de entrada y una imagen reconstruida) y un recuento de bits generado. El controlador 107 de codificación determina un patrón de división de CU en el que se minimiza el coste de R-D (el patrón de división determinado por split_coding_unit_flag tal como se muestra en la figura 24), y los parámetros de predicción de cada CU. El controlador 107 de codificación suministra un split_coding_unit_flag determinado y los parámetros de predicción de cada CU al predictor 105 y al codificador 102 entrópico. Los parámetros de predicción son información asociada con la predicción de una CU que va a codificarse, tal como el modo de predicción (pred_mode), el tipo de partición intraPU (intra_split_flag), la dirección de intrapredicción, el tipo de partición interPU (inter_partitioning_idc) y el vector de movimiento.
Como ejemplo, el controlador 107 de codificación en la referencia controla el tipo de partición de PU en base a numSucLcu y maxNumMV. Cuando 4 <= maxNumMV - currNumMV, el controlador 107 de codificación en la referencia selecciona el tipo de partición de PU óptimo como parámetro de predicción de un total de diez tipos de intrapredicción {2Nx2N, NxN} y un conjunto completo de interpredicción. Cuando 2 <= maxNumMV - currNumMV < 4, el controlador 107 de codificación selecciona el tipo de partición de PU óptimo como un parámetro de predicción de un total de nueve tipos de intrapredicción {2Nx2N, NxN} e interpredicción {2Nx2N, 2NxN, Nx2N, 2NxnU, 2NxnD, nLx2N, nRx2N}. Cuando 1 <= maxNumMV - currNumMV < 2, el controlador 107 de codificación selecciona el tipo de partición de PU óptimo como parámetro de predicción de un total de tres tipos de intrapredicción {2Nx2N, NxN} e interpredicción {2Nx2N}. Cuando maxNumMV - currNumMV < 1, el controlador 107 de codificación selecciona el tipo de partición de PU óptimo como parámetro de predicción de dos tipos de intrapredicción {2Nx2N, NxN}.
El controlador 107 de codificación en la referencia controla además los candidatos para la dirección de interpredicción basándose en maxNumMV y currNumMV. Por ejemplo, cuando 2 <= maxNumMV - currNumMV, el controlador 107 de codificación selecciona una dirección de interpredicción como parámetro de predicción de {hacia adelante, hacia atrás, bidireccional} para que se seleccione una partición interPU de 2Nx2N. Cuando 1 <= maxNumMV - currNumMV < 2, el controlador 107 de codificación selecciona una dirección de interpredicción como parámetro de predicción de {hacia adelante, hacia atrás}. Obsérvese que, cuando maxNumMV - currNumMV < 1, el tipo de partición de PU que va a seleccionarse es intra.
La figura 2 es un diagrama de flujo que muestra el funcionamiento del controlador 107 de codificación en la referencia para determinar los parámetros de predicción para cada CU.
Tal como se muestra en la figura 2, el controlador 107 de codificación determina los candidatos de partición de PU en la etapa S101. En la etapa S102, el controlador 107 de codificación determina los candidatos de dirección de interpredicción. En la etapa S103, el controlador 107 de descodificación usa los candidatos de tipo de partición de PU y de dirección de interpredicción determinados en la etapa S101 y la etapa S102 para determinar los parámetros de predicción en base al coste de R-D. En la etapa S104, el controlador 107 de descodificación actualiza currNumMV en base al tipo de partición de PU y la dirección de interpredicción determinados en la etapa S102 y la etapa S103.
Cuando la dirección de interpredicción del tipo de partición de PU es una predicción bidireccional en la etapa S104, el controlador 107 de codificación establece currNumMV = currNumMV 2, o actualiza de otro modo currNumMV = currNumMV 1 y currNumMV.
La figura 3 es un diagrama de flujo que muestra una operación de determinación de los candidatos de tipo de partición de PU en la etapa S101 de la figura 2.
Cuando se determina que 4 <= maxNumMV - currNumMV en la etapa S201, el controlador 107 de codificación establece candidatos de tipo de partición de PU en la etapa S202 en un total de diez tipos de intrapredicción {2Nx2N, NxN} y un conjunto completo de interpredicción.
De lo contrario, es decir, cuando se determina que maxNumMV - currNumMV < 4 en la etapa S201 y se determina que 2 <= maxNumMV - currNumMV < 4 en la etapa S203, el controlador 107 de codificación establece candidatos de tipo de partición de PU en la etapa S204 en un total de nueve tipos de intrapredicción {2Nx2N, NxN} e interpredicción {2Nx2N, 2NxN, Nx2N, 2NxnU, 2NxnD, nLx2N, nRx2N}.
De lo contrario, es decir, cuando se determina que maxNumMV - currNumMV < 2 en la etapa S203 y se determina que 1 <= maxNumMV - currNumMV < 2 en la etapa S205, el controlador 107 de codificación establece candidatos de tipo de partición de PU en la etapa S206 en un total de tres tipos de intrapredicción {2Nx2N, NxN} e interpredicción {2Nx2N}.
De lo contrario, es decir, cuando se determina que maxNumMV - currNumMV < 1 en la etapa S205, el controlador 107 de codificación establece candidatos de tipo de partición de PU para dos tipos de intrapredicción {2Nx2N, NxN}.
La figura 4 es un diagrama de flujo que muestra una operación de determinación de candidatos de dirección de interpredicción en la etapa S102 de la figura 2. A continuación, el índice de cada partición de PU se expresa como i y el número de particiones se expresa como m con fines ilustrativos. Por ejemplo, cuando el tipo de partición de PU es NxN, m = 4 y el índice i toma los valores 1,2, 3, 4.
En la etapa S301, el controlador 107 de codificación establece k = currNumMV y m como el número de particiones de PU.
En la etapa S302, el controlador 107 de codificación establece la variable i que representa el índice de partición de PU en 1.
En la etapa S303, cuando se determina que maxNumMV - k -(m-i) >= 2, el controlador 107 de codificación establece, en la etapa S304, candidatos de dirección de interpredicción para la partición i a {hacia delante, hacia atrás, bidireccional}, y establece k = k+2 en la etapa S305.
De lo contrario, es decir, cuando se determina que maxNumMV - k -(m-i) <1 en la etapa 5303, el controlador 107 de codificación establece, en S306, los candidatos de dirección de interpredicción para la partición i a {hacia adelante, hacia atrás}. En la etapa S307, el controlador 107 de codificación establece k = k 1.
Cuando i es igual a m en la etapa S308, el proceso finaliza.
En caso contrario, el controlador 107 de codificación establece i = i 1 en la etapa S309 y vuelve a la etapa S303.
El predictor 105 selecciona una señal de predicción correspondiente a los parámetros de predicción de cada CU determinados por el controlador 107 de codificación.
La señal de predicción suministrada desde el predictor 105 se obtiene del vídeo de entrada de cada CU en una forma determinada por el controlador 107 de codificación para generar una imagen de error de predicción, y la imagen de error de predicción se introduce en el transformador/cuantificador 101.
El transformador/cuantificador 101 transforma en frecuencia la imagen de error de predicción para obtener un coeficiente de transformada de frecuencia.
El transformador/cuantificador 101 cuantifica además el coeficiente de transformada de frecuencia con un ancho Qs de paso de cuantificación predeterminado para obtener un valor de cuantificación de transformada.
El codificador 102 entrópico codifica por entropía split_coding_unit_flag (véase la figura 24) suministrado desde el controlador 107 de codificación, los parámetros de predicción y el valor de cuantificación de transformada suministrado desde el transformador/cuantificador 101.
El transformador inverso/cuantificador inverso 103 cuantifica de manera inversa el valor de cuantificación de transformada con el ancho Qs de paso de cuantificación predeterminado. El transformador inverso/cuantificador inverso 103 realiza además la transformada de frecuencia inversa del coeficiente de transformada de frecuencia obtenido mediante la cuantificación inversa. La señal de predicción se añade a la imagen de error de predicción reconstruida obtenida por la transformada de frecuencia inversa, y el resultado se suministra a la memoria 104 intermedia.
El multiplexor 106 multiplexa y emite la información sobre el área predeterminada, la información sobre el número de vectores de movimiento permitidos por área predeterminada y los datos de salida del codificador 103 entrópico. Según 4.1.2 sintaxis de RBSP de conjunto de parámetros de secuencia en el NPL 2, el multiplexor 106 multiplexa la sintaxis de num_successive_largest_coding_unit (el valor de numSucLcu en la referencia) y max_num_motion_vector (el valor de MaxNumMV en la referencia) tal como se indica en la figura 5.
En base a la operación mencionada anteriormente, el dispositivo de codificación de vídeo genera un flujo de bits.
El dispositivo de codificación de vídeo en la referencia incluye los medios de control de codificación para controlar el tipo de partición interPU y la dirección de interpredicción de una CU que va a codificarse en base al número máximo de vectores de movimiento permitidos para un bloque de imagen que tiene un área predeterminada y el número de vectores de movimiento de un bloque de imagen codificado contenido en el bloque de imagen que tiene el área predeterminada anterior de manera que los vectores de movimiento mayores en número que el número máximo de vectores de movimiento permitidos para el bloque de imagen que tiene el área predeterminada no se usarán dentro del área predeterminada.
En otras palabras, cuando el número de vectores de movimiento del bloque de imagen codificado contenido en el bloque de imagen que tiene el área predeterminada es menor que el número máximo de vectores de movimiento, el dispositivo de codificación de vídeo establece, en un tipo de partición interPU predeterminado, y codifica por entropía una sintaxis de tipo de partición interPU en una capa de cabecera de PU de la CU que va a codificarse.
El ancho de banda de memoria se reduce evitando que se usen vectores de movimiento mayores en número que el número máximo de vectores de movimiento dentro del área predeterminada. Además, dado que el número de sintaxis de tipo de partición interPU que van a señalizarse se reduce evitando que se usen los vectores de movimiento mayores en número que el número máximo de vectores de movimiento dentro del área predeterminada, se reduce el porcentaje de la cantidad de código de una cabecera de PU en el flujo de bits, y, por tanto, la calidad del vídeo mejora.
Puesto que la probabilidad de que se produzca cada tipo de partición interPU varía para reducir la entropía, se mejora la eficacia de la codificación por entropía. Por tanto, la calidad del vídeo comprimido puede mantenerse al tiempo que se reduce el ancho de banda de memoria.
El dispositivo de codificación de vídeo en la referencia incorpora, en el flujo de bits, la información sobre el área predeterminada y la información sobre el número máximo de vectores de movimiento permitidos para el bloque de imagen que tiene el área predeterminada. Por tanto, dado que la información sobre el área predeterminada y el número máximo de vectores de movimiento permitidos para el bloque de imagen que tiene el área predeterminada se señalizan al dispositivo de descodificación de vídeo, puede mejorarse la interoperabilidad del dispositivo de codificación de vídeo y del dispositivo de descodificación de vídeo.
Referencia 2
Un dispositivo de codificación de vídeo en la referencia 2 (que no forma parte de la invención reivindicada) incluye: medios de control de codificación para controlar un tipo de partición interPU y una dirección de interpredicción en base a un área predeterminada establecida desde el exterior y el número máximo de vectores de movimiento permitidos para un bloque de imagen que tiene el área predeterminada para controlar la codificación por entropía de una sintaxis de tipo de partición interPU en base al número de vectores de movimiento de un bloque de imagen codificado contenido en el bloque de imagen que tiene el área predeterminada mencionada anteriormente; y medios para incorporar, en un flujo de bits, información sobre el área predeterminada, información sobre el número máximo de vectores de movimiento permitidos para el bloque de imagen que tiene el área predeterminada e información sobre el número de vectores de movimiento permitidos por área predeterminada para señalizar, a un dispositivo de descodificación de vídeo, la información sobre el número máximo de vectores de movimiento permitidos para el bloque de imagen que tiene el área predeterminada y la información sobre el número de vectores de movimiento permitidos por área predeterminada.
En esta referencia, se asume que el área predeterminada son LCU de numSucLcu sucesivas, el número máximo de vectores de movimiento permitidos para el bloque de imagen que tiene el área predeterminada es maxNumMV, y el número de vectores de movimiento de una CU codificada contenida en el bloque de imagen dentro del área predeterminada es currNumMV.
La estructura del dispositivo de codificación de vídeo en la referencia es la misma que la estructura del dispositivo de codificación de vídeo en la referencia 1 que se muestra en la figura 1.
El dispositivo de codificación de vídeo en esta referencia que se muestra en la figura 1 difiere del dispositivo de codificación de vídeo mostrado en la figura 17 porque numSucLcu y maxNumMV se suministran al controlador 107 de codificación para controlar la partición interPU y la dirección de interpredicción en base a numSucLcu y maxNumMV. NumSucLcu y maxNumMV también se suministran al multiplexor 106 para señalizar numSucLcu y maxNumMV al dispositivo de descodificación de vídeo.
El controlador 107 de codificación permite que el predictor 105 calcule el coste de R-D calculado a partir de una distorsión de codificación (la energía de una imagen de error entre una señal de entrada y una imagen reconstruida) y un recuento de bits generado. El controlador 107 de codificación determina un patrón de división de CU en el que se minimiza el coste de R-D (el patrón de división determinado por split_coding_unit_flag tal como se muestra en la figura 24), y los parámetros de predicción de cada CU. El controlador 107 de codificación suministra el split_coding_unit_flag determinado y los parámetros de predicción de cada CU al predictor 105 y al codificador 102 entrópico. Los parámetros de predicción son información asociada con la predicción de una CU que va a codificarse, tal como el modo de predicción (pred_mode), el tipo de partición intraPU (intra_split_flag), la dirección de intrapredicción, el tipo de partición interPU (inter_partitioning_idc) y el vector de movimiento.
Como en la referencia 1, el controlador 107 de codificación en la referencia determina los candidatos de tipo de partición de PU y de dirección de interpredicción. El controlador 107 de codificación usa los candidatos de partición de PU y de dirección de interpredicción determinados para determinar los parámetros de predicción en base al coste de R-D.
Cuando el modo de predicción de una CU que va a codificarse es interpredicción y maxNumMV - currNumMV < 1, el controlador 107 de codificación en la referencia controla el codificador 102 entrópico para no codificar por entropía inter_partitioning_idc.
El predictor 105 selecciona una señal de predicción correspondiente a los parámetros de predicción de cada CU determinados por el controlador 107 de codificación.
La señal de predicción suministrada desde el predictor 105 se obtiene del vídeo de entrada de cada CU en una forma determinada por el controlador 107 de codificación para generar una imagen de error de predicción, y la imagen de error de predicción se introduce en el transformador/cuantificador 101.
El transformador/cuantificador 101 transforma en frecuencia la imagen de error de predicción para obtener un coeficiente de transformada de frecuencia.
El transformador/cuantificador 101 cuantifica además el coeficiente de transformada de frecuencia con un ancho Qs de paso de cuantificación predeterminado para obtener un valor de cuantificación de transformada.
El codificador 102 entrópico codifica por entropía split_coding_unit_flag (véase la figura 24) suministrado desde el controlador 107 de codificación, los parámetros de predicción y el valor de cuantificación de transformada suministrado desde el transformador/cuantificador 101.
El transformador inverso/cuantificador inverso 103 cuantifica de manera inversa el valor de cuantificación de transformada con el ancho Qs de paso de cuantificación predeterminado. El transformador inverso/cuantificador inverso 103 realiza además la transformada de frecuencia inversa del coeficiente de transformada de frecuencia obtenido mediante la cuantificación inversa. La señal de predicción se añade a la imagen de error de predicción reconstruida obtenida por la transformada de frecuencia inversa, y el resultado se suministra a la memoria 104 intermedia.
El multiplexor 106 multiplexa y emite la información sobre el área predeterminada, la información sobre el número de vectores de movimiento permitidos por área predeterminada y los datos de salida del codificador 102 entrópico. Según 4.1.2 sintaxis de RBSP de conjunto de parámetros de secuencia en el NPL 2, el multiplexor 106 multiplexa la sintaxis de num_successive_largest_coding_unit (el valor de numSucLcu en la referencia) y de max_num_motion_vector (el valor de MaxNumMV en la referencia) tal como se indica en la figura 5.
En base a la operación descrita anteriormente, el dispositivo de codificación de vídeo genera un flujo de bits.
Haciendo referencia a continuación a un diagrama de flujo de la figura 6, se realiza una descripción de una operación de escritura de la sintaxis del tipo de partición interPU que es una característica de la referencia.
Tal como se muestra en la figura 6, el codificador 102 entrópico codifica por entropía split_coding_unit_flag en la etapa S401.
El codificador 102 entrópico codifica por entropía adicionalmente el modo de predicción en la etapa S402, es decir, el codificador 102 entrópico codifica por entropía la sintaxis pred_mode.
Cuando se determina en la etapa S403 que el modo de predicción de una CU que va a codificarse es interpredicción y se determina en la etapa S404 que maxNumMV - currNumMV < 1, el controlador 107 de codificación controla el codificador 102 entrópico para omitir la codificación por entropía de la sintaxis inter_partitioning_idc.
Cuando se determina en la etapa S403 que la CU que va a codificarse es intrapredicción, o cuando se determina en la etapa S404 que maxNumMV - currNumMV > 2, el controlador 107 de codificación controla el codificador 102 entrópico para codificar por entropía, en la etapa S405, información de tipo de partición de PU en la CU que va a codificarse.
Según 4.1.10 sintaxis de unidad de predicción en el NPL 2, la sintaxis pred_mode y la sintaxis inter_partitioning_idc mencionadas anteriormente se señalizan tal como se representa en una lista mostrada en la figura 7. Las características de referencia que señalizan la sintaxis inter_partitioning_idc es bajo la siguiente condición: “si(maxNumMV - currNumMV >= 2)”, es decir, si el número de vectores de movimiento obtenidos mediante la resta del número de vectores de movimiento del bloque de imagen codificado contenido en el bloque de imagen que tiene el área predeterminada del número máximo de vectores de movimiento permitidos para el bloque de imagen que tiene el área predeterminada son dos o más.
El dispositivo de codificación de vídeo en la referencia incluye los medios de control de codificación para controlar un tipo de partición interPU y una dirección de interpredicción en función del número de vectores de movimiento (el número máximo de vectores de movimiento -1 en la referencia) permitidos por área predeterminada en función del número máximo de vectores de movimiento permitidos para un bloque de imagen que tiene el área predeterminada. Dado que el dispositivo de codificación de vídeo no transmite información de tipo de partición interPU innecesaria, la relación del número de bits del tipo de partición interPU incluido en un flujo de bits puede mantenerse baja para reducir el ancho de banda de memoria al tiempo que se mantiene la calidad del vídeo comprimido.
Del mismo modo, para la descodificación de vídeo, el dispositivo de codificación de vídeo en la referencia incluye los medios para incorporar, en un flujo de bits, información sobre el área predeterminada establecida desde el exterior, el número máximo de vectores de movimiento permitidos para el bloque de imagen que tiene el área predeterminada, y el número de vectores de movimiento permitidos por área predeterminada, de modo que una sintaxis de tipo de partición interPU puede analizarse sintácticamente a partir del flujo de bits. Por tanto, puede mejorarse la interoperabilidad del dispositivo de codificación de vídeo y del dispositivo de descodificación de vídeo.
Además, cuando el número de vectores de movimiento de un bloque de imagen codificado contenido en el bloque de imagen que tiene el área predeterminada es mayor o igual que un valor obtenido mediante la resta de uno del número máximo de vectores de movimiento, el dispositivo de codificación de vídeo en la referencia realiza el control para no codificar por entropía una sintaxis de tipo de partición interPU en una capa de cabecera de PU de la CU que va a codificarse con el fin de reducir el número de sintaxis de tipo de partición interPU que van a señalizarse, o realiza el control para señalizar la sintaxis de tipo de partición interPU solo cuando el número de vectores de movimiento es menor que el valor obtenido mediante la resta de uno del número máximo de vectores de movimiento. Puesto que la reducción en el número de sintaxis de tipo de partición interPU que van a señalizarse reduce el porcentaje de la cantidad de código de una cabecera de PU en el flujo de bits, la calidad del vídeo se mejora adicionalmente.
Realización a modo de ejemplo
Un dispositivo de descodificación de vídeo en la realización a modo de ejemplo descodifica un flujo de bits generado por el dispositivo de codificación de vídeo en la referencia 2.
El dispositivo de descodificación de vídeo en esta realización a modo de ejemplo incluye: medios para desmultiplexar información sobre un área predeterminada e información sobre el número de vectores de movimiento permitidos para un bloque de imagen que tiene el área predeterminada que se multiplexan en un flujo de bits; y medios de análisis sintáctico para analizar sintácticamente un tipo de partición interPU a partir del flujo de bits en base al número de vectores de movimiento de un bloque de imagen codificado contenido en el bloque de imagen que tiene el área predeterminada.
Tal como se muestra en la figura 8, el dispositivo de descodificación de vídeo en la realización a modo de ejemplo incluye un desmultiplexor 201, un descodificador 202 entrópico, un transformador inverso/cuantificador inverso 203, un predictor 204, una memoria 205 intermedia y un controlador 206 de descodificación.
El desmultiplexor 201 desmultiplexa un flujo de bits de entrada y extrae información sobre el área predeterminada, información sobre el número de vectores de movimiento permitidos para el bloque de imagen que tiene el área predeterminada y un flujo de bits de vídeo codificado por entropía. El desmultiplexor 201 desmultiplexa la sintaxis num_successive_largest_coding_unit y la sintaxis max_num_motion_vector en parámetros de secuencia tal como se indica en la figura 5.
El desmultiplexor 201 suministra además la información sobre el área predeterminada y el número máximo de vectores de movimiento permitidos para el bloque de imagen que tiene el área predeterminada al controlador 206 de descodificación.
El descodificador 202 entrópico descodifica por entropía el flujo de bits de vídeo. El descodificador 202 entrópico suministra un valor de cuantificación de transformada descodificado por entropía al transformador inverso/cuantificador inverso 203. El descodificador 202 entrópico suministra split_coding_unit_flag descodificado por entropía y los parámetros de predicción al controlador 206 de descodificación.
Asúmase que el número de vectores de movimiento de un bloque de imagen descodificado contenido en el bloque de imagen que tiene el área predeterminada es currNumMV. En este caso, cuando el modo de predicción de una CU que va a descodificarse es interpredicción y maxNumMV - currNumMV < 1, el controlador 206 de descodificación en la realización a modo de ejemplo controla el descodificador 202 entrópico para omitir la descodificación por entropía de la sintaxis de tipo de partición interPU de la CU que va a descodificarse. El desmultiplexor 201 establece además el tipo de partición interPU de la CU que va a descodificarse a 2Nx2N. Cuando el modo de predicción de la CU que va a descodificarse es interpredicción, currNumMV se actualiza en base a una dirección de interpredicción de cada partición que va a descodificarse según el tipo de partición interPU. En otras palabras, cuando la dirección de interpredicción de cada partición es la predicción bidireccional, el controlador 206 de descodificación establece currNumMV = currNumMV 2. En caso contrario, el controlador 206 de descodificación actualiza currNumMV = currNumMV 1 y currNumMV.
El transformador inverso/cuantificador inverso 203 cuantifica de manera inversa los valores de cuantificación de transformada de diferencia de color y luminancia con un ancho de paso de cuantificación predeterminado. El transformador inverso/cuantificador inverso 203 realiza además una transformada de frecuencia inversa de un coeficiente de transformada de frecuencia obtenido mediante la cuantificación inversa.
Después de la transformada de frecuencia inversa, el predictor 204 genera una señal de predicción usando una imagen de una imagen reconstruida almacenada en la memoria 205 intermedia en base a los parámetros de predicción suministrados desde el controlador 206 de descodificación.
La señal de predicción suministrada desde el predictor 204 se añade a una imagen de error de predicción reconstruida obtenida por la transformada de frecuencia inversa realizada por el transformador inverso/cuantificador inverso 203, y el resultado se suministra a la memoria 205 intermedia como una imagen reconstruida.
La imagen reconstruida almacenada en la memoria 205 intermedia se emite entonces como una imagen descodificada.
En base a la operación descrita anteriormente, el dispositivo de descodificación de vídeo en la realización a modo de ejemplo genera una imagen descodificada.
Haciendo referencia a continuación a un diagrama de flujo de la figura 9, se realiza la descripción de una operación de análisis sintáctico de la sintaxis de tipo de partición interPU que es una característica de la realización a modo de ejemplo.
Tal como se muestra en la figura 9, el descodificador 202 entrópico descodifica por entropía split_coding_unit_flag para decidir el tamaño de CU en la etapa S501.
A continuación, en la etapa S502, el descodificador 202 entrópico descodifica por entropía el modo de predicción. En otras palabras, el descodificador 202 entrópico descodifica por entropía la sintaxis pred_mode.
Cuando se determina en la etapa S503 que el modo de predicción es interpredicción y se determina en la etapa S504 que maxNumMV - currNumMV <1, el controlador 206 de descodificación controla el descodificador 202 entrópico en la etapa S505 para omitir la descodificación por entropía del tipo de partición interPU y para establecer el tipo de partición de PU de la CU a 2Nx2N (inter_partitioning_idc = 0).
Cuando se determina en la etapa S503 que el modo de predicción es intrapredicción, o cuando se determina en la etapa S504 que maxNumMV - currNumMV > 2, el controlador 206 de descodificación controla el descodificador 202 entrópico en la etapa S506 para descodificar por entropía el tipo de partición de PU de la CU que va a descodificarse y para establecer el tipo de partición de PU de la CU en un tipo de partición de PU obtenido como resultado de la descodificación por entropía.
El dispositivo de codificación de vídeo en la referencia 2 puede multiplexar, en un conjunto de parámetros de imagen o una cabecera de corte, la información sobre el área predeterminada (num_successive_largest_coding_unif) y la información sobre el número de vectores de movimiento (max_num_motion_vector) permitidos por área predeterminada usados en la referencia 1 tal como se indica en la figura 10 o la figura 11. La figura 10 es un diagrama explicativo de una lista indicativa de información sobre el área predeterminada e información sobre el número máximo de vectores de movimiento permitidos para un bloque de imagen que tiene el área predeterminada en un conjunto de parámetros de imagen. La figura 11 es un diagrama explicativo de una lista indicativa de información sobre el área predeterminada e información sobre el número de vectores de movimiento permitidos para el bloque de imagen que tiene el área predeterminada en una cabecera de corte.
De manera similar, el dispositivo de descodificación de vídeo de la invención anterior puede desmultiplexar la sintaxis num_successive_largest_coding_unit y la sintaxis max_num_motion_vector del conjunto de parámetros de imagen o la cabecera de corte.
El dispositivo de descodificación de vídeo en la realización a modo de ejemplo incluye medios de control de descodificación para controlar un tipo de partición interPU de una CU que va a descodificarse y una dirección de interpredicción en base al número máximo de vectores de movimiento permitidos para un bloque de imagen que tiene un área predeterminada y el número de vectores de movimiento de un bloque de imagen codificado contenido en el bloque de imagen que tiene el área predeterminada mencionada anteriormente de modo que los vectores de movimiento mayores en número que el número máximo de vectores de movimiento permitidos para el bloque de imagen que tiene el área predeterminada no se usarán dentro del área predeterminada.
Dado que se evita el uso de los vectores de movimiento que son mayores en número que el número máximo de vectores de movimiento dentro del área predeterminada, se reduce el ancho de banda de memoria.
Referencia 3
Un dispositivo de descodificación de vídeo en la referencia 3 (que no forma parte de la invención reivindicada) descodifica un flujo de bits generado por el dispositivo de codificación de vídeo en la referencia 1.
El dispositivo de descodificación de vídeo en esta referencia incluye: medios para desmultiplexar información sobre un área predeterminada e información sobre el número máximo de vectores de movimiento permitidos para un bloque de imagen que tiene el área predeterminada que se multiplexan en un flujo de bits; y medios de detección de errores para detectar un error en una unidad de acceso que accede al flujo de bits que incluye una CU que va a descodificarse, en base al número de vectores de movimiento de un bloque de imagen codificado contenido en el bloque de imagen que tiene el área predeterminada mencionada anteriormente. Tal como se define en 3.1 unidad de acceso en el NPL 1, la unidad de acceso es la unidad de almacenamiento de datos codificados para una imagen. El error significa la infracción de las restricciones en función del número de vectores de movimiento permitidos por área predeterminada.
Tal como se muestra en la figura 12, el dispositivo de descodificación de vídeo en la referencia incluye un desmultiplexor 201, un descodificador 202 entrópico, un transformador inverso/cuantificador inverso 203, un predictor 204, una memoria 205 intermedia y un detector 207 de errores.
El desmultiplexor 201 funciona de la misma manera que el desmultiplexor 201 en la realización a modo de ejemplo para desmultiplexar un flujo de bits de entrada y extraer información sobre un área predeterminada, información sobre el número máximo de vectores de movimiento permitidos para un bloque de imagen que tiene el área predeterminada, y un flujo de bits de vídeo codificado por entropía. El desmultiplexor 201 desmultiplexa la sintaxis num_successive_largest_unit y la sintaxis max_num_motion_vector en parámetros de secuencia tal como se indica en la figura 5.
El desmultiplexor 201 suministra además la información sobre el área predeterminada y el número máximo de vectores de movimiento permitidos para el bloque de imagen que tiene el área predeterminada al detector 207 de errores. El descodificador 202 entrópico descodifica por entropía el flujo de bits de vídeo. El descodificador 202 entrópico suministra un valor de cuantificación de transformada descodificado por entropía al transformador inverso/cuantificador inverso 203. El descodificador 202 entrópico suministra entonces split_coding_unit_flag descodificado por entropía y los parámetros de predicción al detector 207 de errores.
El detector 207 de errores realiza la detección de errores en los parámetros de predicción suministrados desde el descodificador 202 entrópico en base a la información sobre el área predeterminada y el número máximo de vectores de movimiento permitidos para el bloque de imagen que tiene el área predeterminada suministrada desde el desmultiplexor 201 y suministra el resultado al predictor 204. La operación de detección de errores se describirá más adelante. El detector 207 de errores también desempeña el papel de controlador 206 de descodificación en la realización a modo de ejemplo.
El transformador inverso/cuantificador inverso 203 funciona de la misma manera que el transformador inverso/cuantificador inverso 203 en la realización a modo de ejemplo.
El predictor 204 genera una señal de predicción usando una imagen de una imagen reconstruida almacenada en la memoria 205 intermedia en base a los parámetros de predicción suministrados desde el detector 207 de errores. La memoria 205 intermedia funciona de la misma manera que la memoria 205 intermedia en la realización a modo de ejemplo.
En base a la operación descrita anteriormente, el dispositivo de descodificación de vídeo en la referencia genera una imagen descodificada.
Con referencia a un diagrama de flujo de la figura 13, se realiza una descripción de la operación de detección de errores del dispositivo de descodificación de vídeo en la referencia para detectar un error en una unidad de acceso que accede a un flujo de bits que incluye una CU que va a descodificarse.
En la etapa S601, cuando el detector 207 de errores determina que el modo de predicción de una PU de la CU que va a descodificarse es intra, el proceso finaliza.
Cuando el modo de predicción es interpredicción, el detector 207 de errores establece m en la etapa 5602 como el número de particiones de PU de la CU que va a descodificarse.
En la etapa S603, el detector 207 de errores establece i = 1.
En la etapa S604, el detector 207 de errores analiza sintácticamente la dirección de interpredicción de la partición i. En caso de predicción bidireccional, se establece currNumMV = currNumMV 2. De lo contrario, se actualizan currNumMV=currNumMV 1 y currNumMV.
En la etapa S605, cuando el número de vectores de movimiento (maxNumMV - currNumMV) disponibles para las interPU restantes es menor que el número restante de particiones (m - i), el detector 207 de errores determina en la etapa S606 que hay un error, y notifica al exterior del error. Por ejemplo, el detector 207 de errores emite la dirección de la CU en la que se ha producido el error.
Cuando maxNumMV - currNumMV es mayor o igual al número restante de particiones (m - i), el procedimiento avanza a la etapa S607. Cuando i es igual a m en la etapa S607, el proceso finaliza.
Cuando i es diferente de m en la etapa S607, el detector 207 de errores establece i = i 1 en la etapa S608, y vuelve a la etapa S604.
Según la operación anterior, el detector 207 de errores detecta el error en una unidad de acceso que accede al flujo de bits que incluye la CU que va a descodificarse.
Los dispositivos de codificación de vídeo y los dispositivos de descodificación de vídeo explicados anteriormente controlan una partición interPU de una CU que va a codificarse, en base al número máximo de vectores de movimiento permitidos para un bloque de imagen que tiene un área predeterminada, pero puede realizarse un control similar usando el número máximo de particiones interPU permitidas para el bloque de imagen que tiene el área predeterminada o la mayor cantidad de acceso a memoria permitido para el bloque de imagen que tiene el área predeterminada.
Cada una de las referencias y realizaciones a modo de ejemplo mencionadas anteriormente puede implementarse en hardware o en un programa informático.
Un sistema de procesamiento de información mostrado en la figura 14 incluye un procesador 1001, una memoria 1002 de programa, un medio 1003 de almacenamiento para almacenar datos de vídeo y un medio 1004 de almacenamiento para almacenar un flujo de bits. El medio 1003 de almacenamiento y el medio 1004 de almacenamiento pueden ser medios de almacenamiento diferentes o áreas de almacenamiento en el mismo medio de almacenamiento. Puede usarse un medio magnético tal como un disco duro como medio de almacenamiento.
En el sistema de procesamiento de información mostrado en la figura 14, un programa para llevar a cabo la función de cada bloque (excepto el bloque de memoria intermedia) mostrado en cada una de la figura 1, la figura 8 y la figura 12 se almacena en la memoria 1002 de programa. El procesador 1001 realiza el procesamiento según el programa almacenado en la memoria 1002 de programa para llevar a cabo las funciones del dispositivo de codificación de vídeo o el dispositivo de descodificación de vídeo mostrados en la figura 1, la figura 8 o la figura 12, respectivamente.
La figura 15 es un diagrama de bloques que muestra una parte principal de un dispositivo de codificación de vídeo. Tal como se muestra en la figura 15, el dispositivo de codificación de vídeo es un dispositivo de codificación de vídeo para codificar vídeo usando interpredicción, que incluye medios 11 de control de codificación (el controlador 107 de codificación mostrado en la figura 1 como ejemplo) para controlar un tipo de partición interPU de una CU que va a codificarse, en base al número máximo (PA) de vectores de movimiento permitidos para un bloque de imagen que tiene un área predeterminada y el número (PB) de vectores de movimiento de un bloque de imagen codificado contenido en el bloque de imagen que tiene el área predeterminada.
La figura 16 es un diagrama de bloques que muestra una parte principal de un dispositivo de descodificación de vídeo según la presente invención. Tal como se muestra en la figura 16, el dispositivo de descodificación de vídeo según la presente invención es un dispositivo de descodificación de vídeo para descodificar vídeo usando interpredicción, que incluye medios 21 de control de descodificación (el controlador 206 de descodificación mostrado en la figura 8 como ejemplo) para controlar un tipo de partición interPU de una CU que va a descodificarse en base al número máximo (PA) de vectores de movimiento permitidos para un bloque de imagen que tiene un área predeterminada y el número (PB) de vectores de movimiento de un bloque de imagen descodificado contenido en el bloque de imagen que tiene el área predeterminada.
Aunque la presente invención se ha descrito con referencia a los ejemplos y realizaciones a modo de ejemplo, la presente invención no se limita a los ejemplos y realizaciones a modo de ejemplo mencionados anteriormente. Pueden realizarse diversos cambios comprensibles para los expertos en la técnica dentro del alcance de la presente invención con respecto a las estructuras y detalles de la presente invención.
Lista de signos de referencia
11 medios de control de codificación
21 medios de control de descodificación
101 transformador/cuantificador
102 codificador entrópico
103 transformador inverso/cuantificador inverso
104 memoria intermedia
105 predictor
106 multiplexor
107, 108 controlador de codificación
201 desmultiplexor
202 descodificador entrópico
203 transformador inverso/cuantificador inverso
204 predictor
205 memoria intermedia
206 controlador de descodificación
207 detector de errores
1001 procesador
1002 memoria de programa
1003 medio de almacenamiento
1004 medio de almacenamiento

Claims (3)

REIVINDICACIONES
1. Un dispositivo de descodificación de vídeo para descodificar vídeo usando interpredicción en un esquema que define una unidad de codificación, CU, como una unidad de codificación, una unidad de predicción, PU, como una unidad de predicción para cada CU, y tipos de partición interPU, suministrándose el vídeo por un dispositivo de codificación de vídeo,
comprendiendo el dispositivo de descodificación de vídeo:
medios (202) de descodificación por entropía para descodificar por entropía el vídeo; y
medios (206) de control de descodificación para determinar, con respecto a un bloque de imagen que tiene un área predeterminada y que contiene diversas CU, si controlar los medios (202) de descodificación por entropía para omitir la descodificación por entropía, con respecto a cada CU que va a descodificarse, de un tipo de partición interPU contenido en el vídeo, cuando una diferencia entre el número máximo de vectores de movimiento permitidos para dicho bloque de imagen que tiene el área predeterminada y el número de vectores de movimiento de una CU o varias CU ya descodificadas dentro de dicho bloque de imagen que tiene el área predeterminada es igual a o menor que uno, o para realizar la descodificación por entropía cuando una diferencia entre el número máximo de vectores de movimiento permitidos para dicho bloque de imagen que tiene el área predeterminada y el número de vectores de movimiento de una CU o varias CU ya descodificadas dentro de dicho bloque de imagen que tiene el área predeterminada es mayor que uno,
en el que los medios (206) de control de descodificación están adaptados para establecer un tipo de partición interPU predeterminado cuando se omite la descodificación por entropía del tipo de partición interPU.
2. Un método de descodificación de vídeo para descodificar vídeo usando interpredicción en un esquema que define una unidad de codificación, CU, como una unidad de codificación, una unidad de predicción, PU, como una unidad de predicción para cada CU, y tipos de partición interPU, suministrándose el vídeo mediante un método de codificación de vídeo,
comprendiendo el método de descodificación de vídeo:
descodificar por entropía el vídeo;
con respecto a un bloque de imagen que tiene un área predeterminada y que contiene varias CU, determinar si se omite la descodificación por entropía, con respecto a cada CU que va a descodificarse, de un tipo de partición interPU contenido en el vídeo, cuando una diferencia entre el número máximo de vectores de movimiento permitidos para dicho bloque de imagen que tiene el área predeterminada y el número de vectores de movimiento de una CU o varias CU ya descodificadas dentro de dicho bloque de imagen que tiene el área predeterminada es igual a o menor que uno, o para realizar la descodificación por entropía cuando una diferencia entre el número máximo de vectores de movimiento permitidos para dicho bloque de imagen que tiene el área predeterminada y el número de vectores de movimiento de una CU o varias CU ya descodificadas dentro de dicho bloque de imagen que tiene el área predeterminada es mayor que uno,
en el que se establece un tipo de partición interPU predeterminado cuando se omite la descodificación por entropía del tipo de partición interPU.
3. Un programa de descodificación de vídeo para provocar que un ordenador ejecute las etapas del método según la reivindicación 2.
ES12734382T 2011-01-13 2012-01-05 Dispositivo de descodificación de vídeo, método de descodificación de vídeo y programa Active ES2900775T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011004963 2011-01-13
PCT/JP2012/000045 WO2012096146A1 (ja) 2011-01-13 2012-01-05 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法及びプログラム

Publications (1)

Publication Number Publication Date
ES2900775T3 true ES2900775T3 (es) 2022-03-18

Family

ID=46507055

Family Applications (1)

Application Number Title Priority Date Filing Date
ES12734382T Active ES2900775T3 (es) 2011-01-13 2012-01-05 Dispositivo de descodificación de vídeo, método de descodificación de vídeo y programa

Country Status (9)

Country Link
US (4) US10841588B2 (es)
EP (2) EP2665273B1 (es)
JP (4) JP5974899B2 (es)
KR (4) KR101840579B1 (es)
CN (4) CN108093255B (es)
BR (3) BR112013017802B1 (es)
ES (1) ES2900775T3 (es)
PL (1) PL2665273T3 (es)
WO (1) WO2012096146A1 (es)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PL2665273T3 (pl) * 2011-01-13 2022-02-28 Nec Corporation Urządzenie do dekodowania wideo, sposób dekodowania wideo i program
US9762899B2 (en) * 2011-10-04 2017-09-12 Texas Instruments Incorporated Virtual memory access bandwidth verification (VMBV) in video coding
JP6731574B2 (ja) * 2014-03-06 2020-07-29 パナソニックIpマネジメント株式会社 動画像符号化装置および動画像符号化方法
JP2015173404A (ja) * 2014-03-12 2015-10-01 富士通株式会社 動画像符号化装置、動画像符号化方法及び動画像符号化用コンピュータプログラム
WO2015163167A1 (ja) * 2014-04-23 2015-10-29 ソニー株式会社 画像処理装置及び画像処理方法
US9794626B2 (en) 2014-05-01 2017-10-17 Qualcomm Incorporated Partitioning schemes in multi-layer video coding
CN104125469B (zh) * 2014-07-10 2017-06-06 中山大学 一种用于hevc的快速编码方法
WO2016153251A1 (ko) * 2015-03-23 2016-09-29 엘지전자 주식회사 비디오 신호의 처리 방법 및 이를 위한 장치
WO2017183751A1 (ko) * 2016-04-22 2017-10-26 엘지전자(주) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
KR20230122188A (ko) * 2016-05-10 2023-08-22 삼성전자주식회사 영상을 부호화/복호화 하는 방법 및 그 장치
CN108924551B (zh) * 2018-08-29 2022-01-07 腾讯科技(深圳)有限公司 视频图像编码模式的预测方法及相关设备

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002101416A (ja) * 2000-09-25 2002-04-05 Fujitsu Ltd 画像制御装置
JP2004179687A (ja) * 2002-11-22 2004-06-24 Toshiba Corp 動画像符号化/復号化方法及び装置
US7894530B2 (en) * 2004-05-07 2011-02-22 Broadcom Corporation Method and system for dynamic selection of transform size in a video decoder based on signal content
JP4246722B2 (ja) * 2005-08-26 2009-04-02 日本電信電話株式会社 動画像予測符号化方法、動画像予測符号化装置、動画像予測符号化プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4666255B2 (ja) 2005-12-27 2011-04-06 日本電気株式会社 符号化データ選定、符号化データ設定、再符号化データ生成及び再符号化の方法及び装置
KR101366093B1 (ko) * 2007-03-28 2014-02-21 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
KR20080107965A (ko) * 2007-06-08 2008-12-11 삼성전자주식회사 객체 경계 기반 파티션을 이용한 영상의 부호화, 복호화방법 및 장치
US8644382B2 (en) * 2007-06-29 2014-02-04 Sharp Kabushiki Kaisha Image encoding device, image encoding method, image decoding device, image decoding method, program, and storage medium
EP2034742A3 (en) * 2007-07-25 2009-10-14 Hitachi Ltd. Video coding method and device
CN101394580B (zh) 2007-09-21 2012-01-25 电信科学技术研究院 Eps承载管理的方法、装置、mme及通信系统
EP2048886A1 (en) * 2007-10-11 2009-04-15 Panasonic Corporation Coding of adaptive interpolation filter coefficients
EP2250813B1 (en) * 2008-03-10 2018-12-05 InterDigital Madison Patent Holdings Method and apparatus for predictive frame selection supporting enhanced efficiency and subjective quality
CN101394560B (zh) * 2008-06-30 2010-09-01 浙江大学 一种用于视频编码的混合流水线装置
US9479786B2 (en) * 2008-09-26 2016-10-25 Dolby Laboratories Licensing Corporation Complexity allocation for video and image coding applications
US8503527B2 (en) * 2008-10-03 2013-08-06 Qualcomm Incorporated Video coding with large macroblocks
JP2011004963A (ja) 2009-06-25 2011-01-13 Universal Entertainment Corp 不正を防止すると共にゲームの進行をディーラにナビゲートするゲーミングシステム
KR101487686B1 (ko) 2009-08-14 2015-01-30 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
EP2603002A4 (en) * 2010-08-03 2014-12-31 Sony Corp IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD
US9137544B2 (en) * 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
US20120147961A1 (en) * 2010-12-09 2012-06-14 Qualcomm Incorporated Use of motion vectors in evaluating geometric partitioning modes
PL2665273T3 (pl) * 2011-01-13 2022-02-28 Nec Corporation Urządzenie do dekodowania wideo, sposób dekodowania wideo i program
US9313494B2 (en) * 2011-06-20 2016-04-12 Qualcomm Incorporated Parallelization friendly merge candidates for video coding

Also Published As

Publication number Publication date
EP2665273B1 (en) 2021-11-03
EP2665273A4 (en) 2014-07-09
JP2018029384A (ja) 2018-02-22
US20210021835A1 (en) 2021-01-21
BR112013017802A2 (pt) 2016-10-11
US20130322542A1 (en) 2013-12-05
BR122020018553B1 (pt) 2023-03-14
PL2665273T3 (pl) 2022-02-28
CN108111847B (zh) 2021-11-23
KR101841334B1 (ko) 2018-03-22
KR20160104087A (ko) 2016-09-02
JPWO2012096146A1 (ja) 2014-06-09
EP3965418A1 (en) 2022-03-09
JP2018029385A (ja) 2018-02-22
KR20130101116A (ko) 2013-09-12
US20220191506A1 (en) 2022-06-16
KR20180043395A (ko) 2018-04-27
CN103314590B (zh) 2018-02-27
US11665352B2 (en) 2023-05-30
US11323720B2 (en) 2022-05-03
CN103314590A (zh) 2013-09-18
JP5974899B2 (ja) 2016-08-23
CN108055538B (zh) 2021-10-29
CN108055538A (zh) 2018-05-18
JP6432662B2 (ja) 2018-12-05
KR101840579B1 (ko) 2018-03-20
CN108093255B (zh) 2021-12-03
BR122020018552B1 (pt) 2022-12-06
JP2016201826A (ja) 2016-12-01
WO2012096146A1 (ja) 2012-07-19
CN108111847A (zh) 2018-06-01
JP6233465B2 (ja) 2017-11-22
KR101935217B1 (ko) 2019-01-03
US20220191505A1 (en) 2022-06-16
US11647205B2 (en) 2023-05-09
KR101851326B1 (ko) 2018-04-24
KR20150103301A (ko) 2015-09-09
EP2665273A1 (en) 2013-11-20
CN108093255A (zh) 2018-05-29
US10841588B2 (en) 2020-11-17
BR112013017802B1 (pt) 2022-04-05
JP6432661B2 (ja) 2018-12-05

Similar Documents

Publication Publication Date Title
US11949883B2 (en) Inter prediction method and apparatus therefor
ES2900775T3 (es) Dispositivo de descodificación de vídeo, método de descodificación de vídeo y programa
ES2882882T3 (es) Dispositivo, método y programa de descodificación de video
BR112016015893B1 (pt) Método de decodificação de informações de vídeo, aparelho configurado para decodificar informações de vídeo e memória legível por computador