ES2701700T3 - Aparato para decodificar una imagen - Google Patents

Aparato para decodificar una imagen Download PDF

Info

Publication number
ES2701700T3
ES2701700T3 ES17160967T ES17160967T ES2701700T3 ES 2701700 T3 ES2701700 T3 ES 2701700T3 ES 17160967 T ES17160967 T ES 17160967T ES 17160967 T ES17160967 T ES 17160967T ES 2701700 T3 ES2701700 T3 ES 2701700T3
Authority
ES
Spain
Prior art keywords
unit
block
intra prediction
prediction
prediction mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17160967T
Other languages
English (en)
Inventor
Soo Mi Oh
Moonock Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
M&K Holdings Inc
Original Assignee
M&K Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45559906&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2701700(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by M&K Holdings Inc filed Critical M&K Holdings Inc
Application granted granted Critical
Publication of ES2701700T3 publication Critical patent/ES2701700T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Abstract

Un aparato para decodificar una imagen, que comprende: una unidad de decodificación de entropía (210) configurada para restablecer un modo de intra predicción y coeficientes unidimensionales (1D) cuantificados; una unidad de exploración inversa (220) configurada para explorar inversamente los coeficientes 1D cuantificados en unidades de sub-bloques para generar un bloque de transformación cuantificado; una unidad de cuantificación inversa (230) configurada para cuantificar inversamente el bloque de transformación cuantificado utilizando un tamaño de etapa de cuantificación para generar un bloque de transformación; una unidad de transformación inversa (240) configurada para transformar inversamente el bloque de transformación para generar un bloque residual; una unidad de intra predicción (250) configurada para generar un bloque de predicción correspondiente a un bloque actual según el modo de intra predicción; y una unidad de agregación (290) configurada para restablecer un bloque original agregando el bloque residual y el bloque de predicción, en el que la unidad de exploración inversa restablece una pluralidad de sub-bloques aplicando un primer patrón de exploración determinado según el modo de intra predicción a los coeficientes 1D cuantificados, y restablece el bloque de transformación cuantificado aplicando un segundo patrón de exploración determinado según el modo de intra predicción a la pluralidad de sub-bloques, en el que, cuando el modo de intra predicción es un modo horizontal, el segundo patrón de exploración es una exploración vertical, en el que el primer patrón de exploración es el mismo que el segundo patrón de exploración, en el que la unidad de decodificación de entropía (210) restablece además información que indica una posición del último coeficiente distinto de cero en cada sub-bloque, y la unidad de exploración inversa (220) explora inversamente los coeficientes 1D cuantificados utilizando la información que indica una posición del último coeficiente distinto de cero en cada sub-bloque, y en el que la unidad de intra predicción (250) incluye: una unidad de generación de píxeles de referencia (252) configurada para generar píxeles de referencia utilizando píxeles de referencia disponibles del bloque actual cuando existen píxeles de referencia no disponibles; una unidad de filtrado de píxeles de referencia (253) configurada para filtrar de forma adaptativa píxeles de referencia adyacentes al bloque actual en base al modo de intra predicción y un tamaño del bloque actual; una unidad de generación de bloque de predicción (254) configurada para generar un bloque de predicción del bloque actual según el modo de intra predicción; y una unidad de filtrado del bloque de predicción (255) configurada para filtrar de forma adaptativa algunos píxeles de predicción del bloque de predicción en base al modo de intra predicción y el tamaño del bloque actual.

Description

DESCRIPCIÓN
Aparato para decodificar una imagen
Campo técnico
La presente invención se refiere a un aparato para decodificar una imagen, y más particularmente, a un aparato para decodificar una imagen capaz de minimizar la cantidad de bits de codificación de un bloque residual.
Técnica anterior
En los procedimientos de compresión de imágenes, tales como Motion Picture Experts Group (MPEG)-1, MPEG-2, MPEG-4 y H.264/MPEG-4 Advanced Video Coding (AVC), una imagen se divide en macro-bloques (MB) para codificar una imagen. Luego, los MB respectivos se codifican usando inter predicción o intra predicción.
En la intra predicción, un bloque actual de una imagen actual se codifica sin utilizar una imagen de referencia, sino que se utilizan unos valores de píxeles espacialmente adyacentes al bloque actual. Se selecciona un modo de intra predicción con poca distorsión comparando un bloque de predicción generado usando los valores de píxeles adyacentes con un MB original. Luego, utilizando el modo seleccionado de intra predicción y los valores de píxeles adyacentes, se calculan valores de predicción del bloque actual. Se calculan unas diferencias entre los valores de predicción y los valores de píxeles del bloque actual original y luego se codifican mediante codificación de transformación, cuantificación y codificación de entropía. El modo de intra predicción también es codificado.
Los modos de intra predicción se clasifican generalmente en un modo de intra predicción 4x4, un modo de intra predicción 8x8 y un modo de intra predicción 16x16 para componentes de luminancia y un modo de intra predicción para componentes de crominancia.
En el modo de intra predicción 16x16 según una técnica anterior, existen cuatro modos: un modo vertical, un modo horizontal, un modo de corriente continua (DC, direct current) y un modo plano.
En la intra predicción 4*4 según la técnica anterior, hay nueve modos: un modo vertical, un modo horizontal, un modo DC, un modo diagonal inferior-izquierda, un modo diagonal inferior-derecha, un modo vertical derecha, un modo vertical izquierda, un modo horizontal superior y un modo horizontal inferior.
Cada modo de predicción ha sido indexado según la frecuencia de uso de los respectivos modos. El modo vertical cuyo número de modo es 0 muestra la posibilidad más alta de ser usado con mayor frecuencia para realizar una intra predicción en un bloque objetivo, y el modo horizontal superior cuyo número de modo es 8 muestra la posibilidad más alta de ser usado con menor frecuencia.
Según los estándares de H.264, se codifica un bloque actual utilizando un total de 13 modos, es decir, 4 modos de la intra predicción 4*4 y 9 modos de la intra predicción 16*16. Se genera un flujo de bits del bloque actual según un modo óptimo entre estos modos.
Sin embargo, cuando no existen algunos o todos los valores de píxeles adyacentes al bloque actual o no están codificados, es imposible aplicar algunos o todos los modos de intra predicción al bloque actual. Además, cuando se realiza la intra predicción seleccionando el modo de predicción entre el modo intra aplicable, se incrementa una señal residual entre un bloque de predicción y el bloque actual. Por lo tanto, se degrada la eficiencia de codificación. El documento TUNG NGUYEN ET AL: "Improved Context Modeling for Coding Quantized Transform Coefficients in Video Compression", PICTURE CODING SYMPOSIUM 2010, NAGOYA, publicado el 8 de diciembre de 2010, hace referencia al estándar de codificación de video H.264 y al esfuerzo de estandarización de HEVC, estando ambos relacionados con la intra predicción basada en bloques. El documento describe específicamente la división de bloques de coeficientes de transformación mayores que 4x4 en sub-bloques 4x4 con el propósito de mejorar la codificación de entropía. Los sub-bloques se procesan en orden de zig-zag y los coeficientes de cada sub-bloque se exploran en un zig-zag inverso. El documento YEO C ET AL: "Mode-Dependent Coefficient Scanning for Intra Prediction Residual Coding", 95. MPEG MEETING, DAEGU, (no. M18796), publicado el 21 de enero de 2011, describe un orden de exploración dependiente del modo para la codificación residual de intra predicción. Para cada modo Intra y cada tamaño de bloque de transformación, se asigna uno de entre cuatro órdenes de exploración predeterminados para procesar los coeficientes transformados.
El documento KAZUO SUGIMOTO ET AL: "LUT-based adaptive filtering on intra prediction samples", 4. JCT-VC MEETING, DAEGU, (no. JCTVC-D109), publicado el 14 de enero de 2011, describe un filtrado adaptativo del bloque de predicción generado según el modo de intra predicción y el tamaño de bloque en combinación con un filtrado adaptativo de las muestras de referencia.
Divulgación
La presente invención se define en la reivindicación independiente adjunta. Una divulgación habilitante de la invención se encunetra en las realizaciones de las figuras 3 y 7. Las realizaciones restantes han de entenderse como ejemplos que no describen partes de la presente invención.
Problema técnico
La presente invención está dirigida a un aparato para decodificar una imagen similar a una imagen original.
Solución técnica
La presente invención proporciona un aparato para decodificar una imagen que incluye: una unidad de decodificación de entropía (210) configurada para restablecer un modo de intra predicción y coeficientes cuantificados unidimensionales (1D); una unidad de exploración inversa (220) configurada para explorar inversamente los coeficientes cuantificados 1D en unidades de sub-bloques para generar un bloque de transformación cuantificado; una unidad de cuantificación inversa (230) configurada para cuantificar inversamente el bloque de transformación cuantificado utilizando un tamaño de etapa de cuantificación para generar un bloque de transformación; una unidad de transformación inversa (240) configurada para transformar inversamente el bloque de transformación para generar un bloque residual; una unidad de intra predicción (250) configurada para generar un bloque de predicción correspondiente a un bloque actual según el modo de intra predicción; y una unidad de agregación (290) configurada para restablecer un bloque original agregando el bloque residual y el bloque de predicción, en el que la unidad de exploración inversa restablece una pluralidad de sub-bloques aplicando un primer patrón de exploración determinado según el modo de intra predicción a los coeficientes 1D cuantificados, y restablece el bloque de transformación cuantificado aplicando un segundo patrón de exploración determinado según el modo de intra predicción a la pluralidad de sub-bloques, en el que, cuando el modo de intra predicción es un modo horizontal, el segundo patrón de exploración es una exploración vertical, en el que el primer patrón de exploración es el mismo que el segundo patrón de exploración, en el que la unidad de decodificación de entropía (210) restablece además información que indica una posición del último coeficiente distinto de cero en cada sub-bloque, y la unidad de exploración inversa (220) explora inversamente los coeficientes 1D cuantificados utilizando la información que indica una posición del último coeficiente distinto de cero en cada sub-bloque, y en el que la unidad de intra predicción (250) incluye: una unidad de generación de píxeles de referencia (252) configurada para generar píxeles de referencia utilizando píxeles de referencia disponibles del bloque actual cuando existen píxeles de referencia no disponibles; una unidad de filtrado de píxeles de referencia (253) configurada para filtrar de forma adaptativa píxeles de referencia adyacentes al bloque actual en función del modo de intra predicción y un tamaño del bloque actual; una unidad de generación de bloques de predicción (254) configurada para generar un bloque de predicción del bloque actual según el modo de intra predicción; y una unidad de filtrado del bloque de predicción (255) configurada para filtrar de forma adaptativa algunos píxeles de predicción del bloque de predicción en función del modo de intra predicción y el tamaño del bloque actual.
Efectos ventajosos
Un aparato según la presente invención genera píxeles de referencia y filtra de forma adaptativa los píxeles de referencia para generar un bloque de predicción que minimiza la diferencia entre el bloque de predicción y un bloque original. Además, al filtrar de forma adaptativa el bloque de predicción según el modo de intra predicción, se reducen las señales residuales y, por lo tanto, se puede mejorar la compresión de la imagen.
Descripción de los dibujos
La figura 1 es un diagrama de bloques que ilustra un aparato de codificación de imágenes en movimiento según la presente invención.
La figura 2 es un diagrama de flujo que ilustra una operación de una unidad de exploración según la presente invención. La figura 3 es un diagrama de bloques que ilustra un aparato de decodificación de imágenes en movimiento según la presente invención.
La figura 4 es un diagrama de bloques que ilustra una unidad de intra predicción según la presente invención.
La figura 5 es un diagrama conceptual que muestra unas posiciones de píxeles de referencia utilizados para la intra predicción según la presente invención.
La figura 6 es un diagrama de flujo que ilustra un proceso de generación de píxeles de referencia según la presente invención.
La figura 7 es un diagrama de bloques que ilustra una unidad de intra predicción de un aparato de decodificación de imágenes en movimiento según la presente invención.
Formas de realización
A continuación, se describirán en detalle varias formas de realización de la presente invención con referencia a los dibujos adjuntos. Sin embargo, la presente invención no se limita a las formas de realización de ejemplo descritas a continuación, sino que se puede implementar de diversas maneras. Por lo tanto, son posibles muchas otras modificaciones y variaciones de la presente invención, y debe entenderse que dentro del alcance del concepto divulgado, la presente invención se puede poner en práctica de manera diferente a como se ha descrito específicamente.
Para la codificación de imágenes, cada imagen consta de una pluralidad de cortes o segmentos (slices), y cada corte consta de una pluralidad de unidades de codificación. Dado que una imagen de un grado de alta definición (HD, high definition) o superior tiene muchas regiones lisas o suaves, se puede mejorar una compresión de imagen codificando la imagen con unidades de codificación más grandes que un MB de tamaño 16x16.
Un tamaño de la unidad de codificación según la presente invención puede ser 16x16, 32x32 o 64x64. Un tamaño de la unidad de codificación también puede ser 8x8 o menor. Una unidad de codificación del tamaño más grande se conoce como un súper macro-bloque (SMB, super macroblock). Un tamaño de SMB se indica con un tamaño más pequeño de la unidad de codificación e información de profundidad. La información de profundidad indica un valor de diferencia entre el tamaño de SMB y el tamaño más pequeño de la unidad de codificación.
Por lo tanto, las unidades de codificación a utilizar para codificar imágenes pueden ser SMB o sub-bloque de SMB. Las unidades de codificación se establecen con valores predeterminados o se indican en un encabezado de secuencia. Un SMB consta de una o más unidades de codificación. El SMB tiene una forma de árbol de codificación recursivo para incluir las unidades de codificación y una estructura de división de las unidades de codificación. Cuando el SMB no se divide en cuatro unidades de sub-codificación, el árbol de codificación puede consistir de información que indica que el SMB no es dividido y una unidad de codificación. Cuando el SMB es dividido en cuatro unidades de sub­ codificación, el árbol de codificación puede consistir de información que indica que el SMB es dividido y cuatro árboles de sub-codificación. Del mismo modo, cada árbol de sub-codificación tiene la misma estructura que el SMB. Sin embargo, una unidad de codificación del tamaño de la unidad de codificación más pequeña (SCU, smallest coding unit) no es dividida en unidades de sub-codificación.
Por otra parte, cada unidad de codificación en el árbol de codificación es sometida a intra o inter predicción en unidades de la propia unidad de codificación o un sub-bloque. Una unidad en la que se realiza la intra o inter predicción se denomina unidad de predicción. Un tamaño de la unidad de predicción puede ser 2N*2N o N*N para la intra predicción. Un tamaño de la unidad de predicción puede ser 2N*2N, 2N*N, N*2N o N*N para la inter predicción. En este caso, 2N denota longitudes horizontales y verticales de una unidad de codificación.
Una unidad de codificación incluye un modo de predicción de la unidad de predicción e información de tamaño (modo de parte) en la unidad de predicción. Para mejorar la eficiencia de la codificación, el modo de predicción y la información de tamaño se pueden combinar y codificar conjuntamente. En este caso, cada unidad de codificación incluye un tipo de predicción codificada conjuntamente (pred_type).
Una unidad de codificación incluye uno o más contenedores de información adicional. Cada contenedor de información adicional contiene información adicional requerida para generar un bloque de predicción de cada unidad de predicción. En la intra predicción, la información adicional incluye información de intra predicción codificada. En la inter predicción, la información adicional incluye información de movimiento codificada. La información de movimiento incluye un vector de movimiento y un índice de imagen de referencia.
Una unidad de codificación también incluye un contenedor de señales residuales para señales residuales de la unidad de codificación. El contenedor de señales residuales contiene un árbol de transformación, un contenedor de señales residuales de luminancia y dos contenedores de señales residuales de crominancia. El árbol de transformación indica si existen o no las señales residuales de las unidades de transformación en el contenedor de señales residuales. El contenedor de señales residuales consta de una estructura de árbol recursiva. Se ejemplifica el contenedor de señales residuales para la unidad de codificación. Si la unidad de codificación no es dividida en cuatro unidades de sub­ codificación, el contenedor de señales residuales contiene información de cuantificación (parámetro de cuantificación residual) y una señal residual codificada. Si la unidad de codificación es dividida en cuatro unidades de sub­ codificación, el contenedor de señales residuales contiene información de cuantificación y cuatro sub-contenedores de señales residuales. Cada sub-contenedor de señales residuales tiene la misma estructura del contenedor de señales residuales de la unidad de codificación, pero no contiene la información de cuantificación.
Por otra parte, solo se describe un caso en el que la unidad de codificación es dividida igualmente en unidades de predicción. Sin embargo, cuando la división igual descrita anteriormente se usa para una imagen que tiene un límite en una dirección específica o en una posición específica según una característica, se usan diferentes unidades de predicción para partes de datos similares en el límite, y no se puede reducir efectivamente una señal residual.
En este caso, para comprimir una señal residual, puede ser más efectivo dividir SMB o MB en una dirección específica según una forma del límite de la imagen y realizar intra o inter predicción.
El modo adaptativo más simple es dividir una unidad de codificación en dos bloques utilizando una línea recta para extraer una dependencia estadística de una región de predicción en una topografía local. Se hace corresponder un límite de una imagen con una línea recta y se divide. En este caso, las direcciones divisibles se pueden limitar a un número predeterminado. Por ejemplo, un procedimiento para dividir un bloque puede ser limitado a cuatro direcciones de dirección: horizontal, vertical, diagonal hacia arriba y diagonal hacia abajo. Además, la división se puede limitar solo a las direcciones horizontal y vertical. El número de direcciones divisibles puede ser tres, cinco, siete, etc. El número de direcciones divisibles puede variar según el tamaño del bloque de codificación. Por ejemplo, para una unidad de codificación de un tamaño grande, el número de direcciones divisibles puede ser relativamente mayor.
En la inter predicción, cuando una unidad de codificación se divide en dos unidades de predicción para una predicción más adaptativa, se debe realizar una estimación de movimiento y una compensación de movimiento en cada una de las unidades de predicción. Se deriva información de movimiento para cada unidad de predicción, y se codifica una señal residual entre un bloque de predicción derivado de la información de movimiento para cada unidad de predicción. Después de obtener señales residuales para los respectivos dos bloques de predicción divididos a partir de una unidad de codificación, se pueden agregar las dos señales residuales para generar una señal residual para una unidad de codificación. La señal residual para una unidad de codificación es transformada y codificada. En este caso, existe una alta posibilidad de que haya una diferencia entre distribuciones globales de las señales residuales de los respectivos dos bloques de predicción con el centro del límite, y de este modo se puede generar una señal residual de una unidad de codificación multiplicando un valor de cualquier región por un valor predeterminado. Además, se puede hacer que la región límite de las dos señales residuales se superpongan, y se puede realizar un alisado o suavizado en la región límite superpuesta para generar una señal residual.
En otro procedimiento, se puede generar un bloque realizando un relleno (padding) según las respectivas regiones de división del bloque, y codificarlo. En otras palabras, cuando se codifica una región de división actual entre las dos regiones de división, se puede configurar un bloque rellenando otra región de división que constituye el bloque con un valor de la región de división actual, y luego someterla a una codificación bidimensional (2D) de transformación. La figura 1 es un diagrama de bloques que ilustra un aparato de codificación de imágenes en movimiento según la presente invención.
Con referencia a la figura 1, un aparato de codificación de imágenes en movimiento 100 según la presente invención incluye una unidad de división de imágenes 110, una unidad de transformación 120, una unidad de cuantificación 130, una unidad de exploración 131, una unidad de codificación de entropía 140, una unidad de intra predicción 150, una unidad de inter predicción 160, una unidad de cuantificación inversa 135, una unidad de transformación inversa 125, una unidad de post procesamiento 170, una unidad de almacenamiento de imágenes 180, un sustractor 190 y un agregador 195.
La unidad de división de imágenes 110 analiza una señal de video de entrada para dividir cada unidad de codificación más grande (LCU, largest coding unit) de una imagen en unidades de codificación, cada una de las cuales tiene un tamaño predeterminado, determina el modo de predicción de cada unidad de codificación y determina el tamaño de la unidad de predicción por cada unidad de codificación. La unidad de división de imágenes 110 envía la unidad de predicción a codificar a la unidad de intra predicción 150 o a la unidad de inter predicción 160 según el modo de predicción. Además, la unidad de división de imágenes 110 envía las unidades de predicción a codificar al sustractor 190.
La unidad de transformación 120 transforma un bloque residual. El bloque residual consta de una señal residual entre un bloque original introducido y un bloque de predicción generado por la unidad de intra predicción 150 o la unidad de inter predicción 160. El bloque residual puede consistir de una unidad de codificación. El bloque residual que consta de una unidad de codificación es dividido en unidades de transformación óptimas y es transformado. Se puede determinar de forma adaptativa un tipo de matriz de transformación según un modo de predicción (intra o inter). Además, una señal residual de intra predicción tiene una directividad según un modo de intra predicción, y por lo tanto se puede determinar de forma adaptativa una matriz de transformación según el modo de intra predicción. La unidad de transformación puede ser transformada mediante dos matrices de transformación (1D) unidimensionales (horizontales y verticales). En la inter predicción, se determina un tipo predeterminado de matriz de transformación. En la intra predicción, existe una alta posibilidad de que el bloque residual tenga una directividad vertical cuando el modo de intra predicción es horizontal. Por lo tanto, se aplica una matriz de enteros basada en la transformada discreta del coseno (DCT, discrete cosine transform) a la dirección vertical, y se aplica una matriz de enteros basada en la transformada discreta del seno (DST, discrete sine transform) o la transformada de Karhunen Loéve (KLT) a la dirección horizontal. Cuando el modo de intra predicción es vertical, se aplica una matriz de enteros basada en DST o KLT a la dirección vertical, y se aplica una matriz de enteros basada en DCT a la dirección horizontal. Además, en la intra predicción, se puede determinar de forma adaptativa la matriz de transformación según el tamaño de las unidades de transformación.
La unidad de cuantificación 130 determina un tamaño de etapa de cuantificación para cuantificar coeficientes del bloque residual transformado. El tamaño de etapa de cuantificación es determinado por cada unidad de codificación de un tamaño predeterminado o más. El tamaño predeterminado puede ser 8*8 o 16*16. Usando el tamaño de etapa de cuantificación determinado y una matriz de cuantificación determinada por un modo de predicción, se cuantifican los coeficientes del bloque de transformación. La unidad de cuantificación 130 usa tamaños de etapa de cuantificación de unidades de codificación adyacentes a una unidad de codificación actual como un predictor del tamaño de etapa de cuantificación de la unidad de codificación actual. La unidad de cuantificación 130 restablece de forma secuencial las unidades de codificación en el siguiente orden de exploración; una unidad de codificación izquierda de la unidad de codificación actual, una unidad de codificación superior de la unidad de codificación actual, y una unidad de codificación superior izquierda de la unidad de codificación actual. Entonces, la unidad de cuantificación 130 genera el predictor del tamaño de etapa de cuantificación de la unidad de codificación actual utilizando uno o dos tamaños de etapa de cuantificación válidos. Por ejemplo, el primer tamaño de etapa de cuantificación válido encontrado en el orden de exploración puede ser determinado como el predictor del tamaño de etapa de cuantificación. Un promedio de dos tamaños de etapa de cuantificación válidos restablecidos en el orden de exploración puede ser determinado como el predictor del tamaño de etapa de cuantificación, y se determina un tamaño de etapa de cuantificación válido como el predictor del tamaño de etapa de cuantificación cuando solo es válido el un tamaño de etapa de cuantificación. Cuando se determina el predictor del tamaño de etapa de cuantificación, se transmite una diferencia entre el tamaño de etapa de cuantificación y el predictor del tamaño de etapa de cuantificación a la unidad de codificación de entropía 140. Cuando un corte o segmento (slice) es dividido en unidades de codificación, puede que no haya ninguna unidad de codificación izquierda, ni unidad de codificación superior, ni unidad de codificación superior izquierda de la unidad de codificación actual. Pero, puede haber una unidad de codificación anterior de la unidad de codificación actual en el orden de codificación en la unidad de codificación máxima. Por lo tanto, las unidades de codificación adyacentes a la unidad de codificación actual y la unidad de codificación anterior de la unidad de codificación actual en el orden de codificación en la unidad de codificación máxima pueden ser candidatos. En este caso, se puede cambiar el orden de exploración anterior por el siguiente orden de exploración; 1) la unidad de codificación izquierda de la unidad de codificación actual, 2) la unidad de codificación superior de la unidad de codificación actual, 3) la unidad de codificación superior izquierda de la unidad de codificación actual y 4) la unidad de codificación anterior de la unidad de codificación actual. Se puede cambiar el orden de exploración, o se puede omitir la unidad de codificación superior izquierda en el orden de exploración.
El bloque de transformación cuantificado es proporcionado a la unidad de cuantificación inversa 135 y a la unidad de exploración 131.
La unidad de exploración 131 explora los coeficientes del bloque de transformación cuantificado, convirtiendo de este modo los coeficientes en coeficientes 1D cuantificados. Dado que la distribución de los coeficientes del bloque de transformación después de la cuantificación puede depender de un modo de intra predicción, se determina un patrón de exploración de coeficientes según el modo de intra predicción. El patrón de exploración de coeficientes también se puede determinar según el tamaño de la unidad de transformación.
La unidad de cuantificación inversa 135 cuantifica inversamente los coeficientes cuantificados. La unidad de transformación inversa 125 restablece un bloque residual del dominio espacial a partir de los coeficientes de transformación cuantificados inversamente. El agregador 195 genera un bloque reconstruido agregando el bloque residual reconstruido por la unidad de transformación inversa 125 y el bloque de predicción procedente de la unidad de intra predicción 150 o la unidad de inter predicción 160.
La unidad de post procesamiento 170 realiza un proceso de filtrado de desbloqueo para eliminar un artefacto de bloqueo generado en una imagen reconstruida, un proceso de aplicación de desplazamiento adaptativo para complementar una diferencia entre la imagen reconstruida y la imagen original por cada píxel, y un proceso de filtrado de bucle adaptativo para complementar una diferencia entre la imagen reconstruida y la imagen original en una unidad de codificación.
El proceso de filtrado de desbloqueo puede ser aplicado a un límite entre unidades de predicción que tienen un tamaño predeterminado o más ya un límite entre unidades de transformación. El tamaño predeterminado puede ser 8* 8. El proceso de filtrado de desbloqueo incluye una etapa de determinar un límite a filtrar, una etapa de determinar la intensidad de filtrado del límite a aplicar al límite, una etapa de determinar si aplicar o no aplicar un filtrado de desbloqueo y una etapa de selección de un filtro para aplicarlo al límite cuando se determina la aplicación del filtrado de desbloqueo.
Si se aplica o no se aplica el filtrado de desbloqueo, se determina según i) si la intensidad del filtrado del límite es o no es mayor que 0 e ii) si un valor que indica la diferencia entre los píxeles del límite del bloque P y el bloque Q es o no es más pequeño que un primer valor de referencia determinado según un parámetro de cuantificación.
Pueden existir dos o más filtros. Cuando un valor absoluto de una diferencia entre dos píxeles adyacentes al límite del bloque es igual o mayor que un segundo valor de referencia, se selecciona un filtro suave. El segundo valor de referencia es determinado por el parámetro de cuantificación y la intensidad del filtrado del límite.
El proceso de aplicación del desplazamiento adaptativo está destinado a reducir una diferencia (distorsión) entre un píxel sometido al filtrado de desbloqueo y el píxel original. Se puede determinar si realizar o no el proceso de aplicación de desplazamiento adaptativo según las imágenes o los cortes (slices). Una imagen o corte se puede dividir en una pluralidad de regiones de desplazamiento, y se puede determinar un modo de desplazamiento por cada región de desplazamiento. Puede haber cuatro modos de desplazamiento de borde y dos modos de desplazamiento de banda. En el caso de un tipo de desplazamiento de borde, se determina un tipo de borde al que pertenece cada píxel, y se aplica un desplazamiento correspondiente al tipo de borde. El tipo de borde se determina en base a una distribución de dos valores de píxeles adyacentes a un píxel actual.
El proceso de filtrado de bucle adaptativo se puede realizar en base a un valor obtenido comparando una imagen original y una imagen reconstruida a la que se aplica el proceso de filtrado de desbloqueo o el proceso de aplicación de desplazamiento adaptativo. Se detecta un filtrado de bucle adaptativo (ALF, adaptive loop filter) a través de un valor de actividad de Laplace en base a un bloque de 4*4. El ALF determinado se puede aplicar a todos los píxeles incluidos en un bloque de 4*4 o en un bloque de 8* 8. La aplicación o no de un ALF se puede determinar según unidades de codificación. Un tamaño y coeficientes de un filtrado de bucle pueden variar según cada unidad de codificación. Un encabezado de segmento o corte puede incluir información que indica si aplicar o no aplicar el ALF a cada unidad de codificación, información de coeficiente del filtrado e información de forma del filtrado, etc. En el caso de componentes de crominancia, la aplicación o no aplicación del ALF se puede determinar en unidades de imagen. A diferencia de la luminancia, el filtrado de bucle puede tener una forma rectangular.
La unidad de almacenamiento de imágenes 180 recibe datos de imágenes post-procesadas procedentes de la unidad de post procesamiento 160, y almacena la imagen en unidades de imagen. Una imagen puede ser una imagen en una trama (frame) o en un campo. La unidad de almacenamiento de imágenes 180 tiene un búfer (no mostrado) capaz de almacenar una pluralidad de imágenes.
La unidad de inter predicción 160 realiza una estimación de movimiento usando una o más imágenes de referencia almacenadas en la unidad de almacenamiento de imágenes 180, y determina unos índices de imágenes de referencia que indican las imágenes de referencia y vectores de movimiento. Según el índice de imágenes de referencia y el vector de movimiento, la unidad de inter predicción 160 extrae un bloque de predicción correspondiente a una unidad de predicción a codificar a partir de una imagen de referencia seleccionada de entre una pluralidad de imágenes de referencia almacenadas en la unidad de almacenamiento de imágenes 180 y produce el bloque de predicción extraído. La unidad de intra predicción 150 realiza la intra predicción utilizando valores de píxeles reconstruidos dentro de una imagen actual. La unidad de intra predicción 150 recibe la unidad de predicción actual para su codificación de manera predictiva, selecciona uno de entre un número predeterminado de modos de intra predicción y realiza la intra predicción. El número predeterminado de modos de intra predicción puede depender del tamaño de la unidad de predicción actual. La unidad de intra predicción filtra de forma adaptativa los píxeles de referencia para generar el bloque de intra predicción. Cuando algunos de los píxeles de referencia no están disponibles, es posible generar los píxeles de referencia en las posiciones no disponibles utilizando uno o más píxeles de referencia disponibles.
La unidad de codificación de entropía 140 codifica por entropía los coeficientes cuantificados por la unidad de cuantificación 130, la información de intra predicción recibida procedente de la unidad de predicción 150, la información de movimiento recibida procedente de la unidad de predicción 160, etc.
La figura 2 es un diagrama de flujo que ilustra una operación de la unidad de exploración 131 según la presente invención.
Se determina si el bloque actual de coeficientes cuantificados es dividido en una pluralidad de subconjuntos (S110). La determinación se basa en un tamaño de la unidad de transformación actual. Si el tamaño de la unidad de transformación actual es mayor que un primer tamaño de referencia, los coeficientes cuantificados codificados se dividen en una pluralidad de subconjuntos. El primer tamaño de referencia puede ser 4x4 u 8x8. El primer tamaño de referencia se puede transmitir a un decodificador mediante un encabezado de imagen o un encabezado de división.
Cuando el bloque de coeficientes cuantificados no es dividido en una pluralidad de subconjuntos, se determina un patrón de exploración a aplicar al bloque de coeficientes cuantificados (S120). La etapa S120 se puede realizar antes que la etapa S110 o independientemente de la etapa S110.
Los coeficientes cuantificados del bloque de coeficientes cuantificados son explorados según el patrón de exploración determinado (S130). El patrón de exploración es determinado de forma adaptativa según el modo de predicción y el modo de intra predicción. En el modo de inter predicción, solo se puede aplicar un patrón de exploración predeterminado (por ejemplo, exploración en zigzag). En el modo de intra predicción, se puede aplicar un patrón de exploración determinado según el modo de intra predicción. Además, se puede seleccionar uno de entre un número predeterminado de patrones de exploración para explorar los coeficientes, y se puede transmitir información del patrón de exploración al decodificador. En el modo de intra predicción, se puede aplicar un patrón de exploración determinado según el modo de intra predicción. Por ejemplo, se aplica una exploración horizontal a un modo de intra predicción vertical y un número predeterminado de modos de intra predicción adyacentes al modo de intra predicción vertical. Se aplica una exploración vertical a un modo de intra predicción horizontal y un número predeterminado de modos de intra predicción adyacentes al modo de intra predicción horizontal. El número predeterminado varía según un número de modos de intra predicción permitidos de una unidad de predicción (o un número de modos de intra predicción direccionales) o un tamaño de un bloque de predicción. Por ejemplo, si el número de modos de intra predicción permitidos en la unidad de predicción actual es 16, el número predeterminado puede ser dos en cada una de ambas direcciones según el modo de intra predicción horizontal o vertical. Si el número de modos de intra predicción direccionales permitidos es 33, el número predeterminado puede ser cuatro en cada una de ambas direcciones según el modo de intra predicción horizontal o vertical. Por otra parte, la exploración en zigzag se aplica a modos no direccionales. Un modo no direccional puede ser un modo de corriente continua (DC) o un modo plano.
Si se determina que el bloque de coeficientes cuantificados es dividido en una pluralidad de subconjuntos, se divide el bloque de coeficientes cuantificados en una pluralidad de subconjuntos (S140). La pluralidad de subconjuntos consta de un subconjunto principal y uno o más subconjuntos restantes. El subconjunto principal está ubicado en el lado superior izquierdo y cubre un coeficiente DC, y el uno o más subconjuntos restantes cubren una región distinta del subconjunto principal.
Se determina un patrón de exploración a aplicar a los subconjuntos (S150). El patrón de exploración determinado se aplica a todos los subconjuntos. El patrón de exploración se determina de forma adaptativa según el modo de predicción y el modo de intra predicción. La etapa S150 se puede realizar antes que la etapa S110 o independientemente de la etapa S110.
Cuando el tamaño del bloque de coeficientes cuantificados (es decir, el tamaño de la unidad de transformación) es mayor que un segundo tamaño de referencia, se puede aplicar el patrón de exploración en zigzag al bloque de coeficientes cuantificados. El segundo tamaño de referencia es, por ejemplo, 8x8. Por lo tanto, la etapa S150 se realiza cuando el primer tamaño de referencia es más pequeño que el segundo tamaño de referencia.
En el modo de inter predicción, solo se puede aplicar un patrón de exploración predeterminado (por ejemplo, exploración en zigzag) a cada subconjunto. En el modo de intra predicción, el patrón de exploración se determina de forma adaptativa como en la etapa S120.
Los coeficientes cuantificados en los subconjuntos pueden ser explorados en una dirección inversa. En otras palabras, según el patrón de exploración, los coeficientes cuantificados distintos de 0 pueden ser explorados y codificados por entropía en la dirección inversa comenzando con el último coeficiente cuantificado distinto de 0 en los subconjuntos. A continuación, se exploran los coeficientes cuantificados de cada subconjunto según el patrón de exploración (S160). Los coeficientes cuantificados en cada subconjunto son explorados en la dirección inversa. Es decir, los coeficientes de transformación cuantificados son explorados desde un último coeficiente distinto de cero hacia otros coeficientes distintos de cero según el patrón de exploración, y son codificados por entropía.
La exploración en zigzag se puede aplicar para explorar los subconjuntos. Los subconjuntos se pueden explorar comenzando con el subconjunto principal hacia los subconjuntos restantes en una dirección hacia adelante, o se pueden explorar en la dirección inversa. Se puede configurar un patrón de exploración para explorar los subconjuntos igual que un patrón de exploración para explorar los coeficientes cuantificados en los subconjuntos.
El aparato de codificación de imágenes en movimiento 100 según la presente invención transmite información capaz de indicar una posición del último coeficiente cuantificado distinto de cero de la unidad de transformación a un decodificador. El aparato de codificación de imágenes en movimiento 100 también transmite al decodificador información capaz de indicar una posición del último coeficiente cuantificado distinto de cero en cada subconjunto.
La figura 3 es un diagrama de bloques que ilustra un aparato de decodificación de imágenes en movimiento según la presente invención.
El aparato de decodificación de imágenes en movimiento según la presente invención incluye una unidad de decodificación de entropía 210, una unidad de exploración inversa 220, una unidad de cuantificación inversa 230, una unidad de transformación inversa 240, una unidad de intra predicción 250, una unidad de inter predicción 260, una unidad de post procesamiento 270, una unidad de almacenamiento de imágenes 280, un agregador 290 y un conmutador 295.
La unidad de decodificación de entropía 210 extrae información de intra predicción, información de inter predicción e información de coeficientes cuantificados de un flujo de bits recibido. La unidad de decodificación de entropía 210 transmite la información de inter predicción a la unidad de inter predicción 260, información de intra predicción a la unidad de intra predicción 250 y la unidad de transformación inversa 240, y la información de coeficientes cuantificados inversos a la unidad de exploración inversa 220.
La unidad de exploración inversa 220 convierte la información de coeficientes cuantificados en un bloque de transformación cuantificado bidimensional. Se selecciona uno de entre una pluralidad de patrones de exploración inversa para la conversión. El patrón de exploración inversa se selecciona en base a por lo menos uno de entre el modo de predicción y el modo de intra predicción. Una operación de la unidad de exploración inversa 220 es la misma que la operación inversa de la unidad de exploración 131 de la figura 1. Por ejemplo, si un tamaño de una unidad de transformación actual a decodificar es más grande que el primer tamaño de referencia, se explora inversamente cada subconjunto según el patrón de exploración inversa seleccionado y se genera un bloque cuantificado inverso que tiene un tamaño de la unidad de transformación utilizando la pluralidad de subconjuntos explorados inversamente.
La unidad de cuantificación inversa 230 determina un predictor del tamaño de etapa de cuantificación de la unidad de codificación actual. La operación para determinar el predictor del tamaño de etapa de cuantificación es la misma que el procedimiento de la unidad de cuantificación 130 de la figura 1. La unidad de cuantificación inversa agrega el predictor del tamaño de etapa de cuantificación determinado y un tamaño de etapa de cuantificación residual recibido para generar un tamaño de etapa de cuantificación de la unidad de codificación actual. La unidad de cuantificación inversa 230 restablece los coeficientes cuantificados inversos utilizando una matriz de cuantificación determinada por el tamaño de etapa de cuantificación. La matriz de cuantificación varía según el tamaño del bloque actual a restablecer. Se puede seleccionar la matriz de cuantificación para un bloque que tiene el mismo tamaño en base a por lo menos uno de entre un modo de predicción y un modo de intra predicción del bloque actual.
La unidad de transformación inversa 240 transforma inversamente el bloque cuantificado inverso para restablecer un bloque residual. La matriz de transformación inversa a aplicar al bloque cuantificado inverso se determina de forma adaptativa según el modo de predicción (intra o inter) y el modo de intra predicción. El procedimiento de determinación de la matriz de transformación inversa es el mismo que el procedimiento en la unidad de transformación 120 de la figura 1.
El agregador 290 agrega el bloque residual restablecido por la unidad de transformación inversa 240 y un bloque de predicción generado por la unidad de intra predicción 250 o la unidad de inter predicción 260 para generar un bloque de imagen reconstruido.
La unidad de intra predicción 250 restablece el modo de intra predicción del bloque actual en base a la información de intra predicción recibida procedente de la unidad de decodificación de entropía 210, y genera un bloque de predicción según el modo de intra predicción restablecido.
La unidad de inter predicción 260 restablece los índices de imagen de referencia y los vectores de movimiento en base a la información de inter predicción recibida procedente de la unidad de decodificación de entropía 210, y genera un bloque de predicción utilizando los índices de imagen de referencia y los vectores de movimiento. Cuando se aplica una compensación de movimiento con precisión fraccional, el bloque de predicción es generado usando un filtro de interpolación.
La unidad de post procesamiento 270 funciona de la misma manera que la unidad de post procesamiento 160 de la figura 1.
La unidad de almacenamiento de imágenes 280 almacena la imagen reconstruida post-procesada por la unidad de post procesamiento 270.
La figura 4 es un diagrama de bloques que ilustra la unidad de intra predicción 150 de una unidad de codificación de imágenes en movimiento 100 según la presente invención.
Con referencia a la figura 4, la unidad de intra predicción 150 incluye una unidad de generación de píxeles de referencia 151, una unidad de filtrado de píxeles de referencia 152, una unidad de generación de bloques de predicción 153, una unidad de filtrado de bloques de predicción 154, una unidad de determinación del modo de predicción 155 y una unidad de codificación del modo de predicción 156 y una unidad de transmisión del bloque de predicción 157.
La unidad de generación de píxeles de referencia 151 determina que es necesario generar píxeles de referencia para la intra predicción, y genera píxeles de referencia si es necesario generar los píxeles de referencia.
La figura 5 es un diagrama conceptual que muestra las posiciones de los píxeles de referencia utilizados para la intra predicción según la presente invención. Como se muestra en la figura 5, los píxeles de referencia consisten en píxeles de referencia superiores, píxeles de referencia izquierdos y un píxel de referencia de esquina de la unidad de predicción actual. Los píxeles de referencia superiores de la unidad de predicción actual son píxeles (regiones C y D) presentes sobre el doble del ancho de la unidad de predicción actual, y los píxeles de referencia izquierdos de la unidad de predicción actual son píxeles (regiones A y B) presentes sobre el doble de la altura de la unidad de predicción actual.
La unidad de generación de píxeles de referencia 151 determina si los píxeles de referencia están disponibles o no. Si uno o más píxeles de referencia no están disponibles, la unidad de generación de píxeles de referencia 151 genera píxeles de referencia en las posiciones no disponibles utilizando píxeles de referencia disponibles.
En primer lugar, se describirá un caso en el que no están disponibles todos los píxeles de referencia en cualquiera de las regiones superior e izquierda de una unidad de predicción actual a codificar.
Por ejemplo, cuando la unidad de predicción actual está ubicada en el límite superior de una imagen o un corte (slice), los píxeles de referencia superiores (regiones C y D) y el píxel de referencia de esquina de la unidad de predicción actual no existen. Cuando la unidad de predicción actual se encuentra en el límite izquierdo de una imagen o un corte, los píxeles de referencia izquierdos (regiones A y B) y el píxel de referencia de esquina no existen. En esos casos, los píxeles de referencia se generan copiando el valor de un píxel disponible más cercano al píxel no disponible. Es decir, cuando la unidad de predicción actual se ubica en el límite superior de una imagen o un corte, los píxeles de referencia superiores se pueden generar copiando el píxel de referencia más superior izquierdo (es decir, un píxel de referencia ubicado en la posición más superior de la región A). Cuando la unidad de predicción actual se ubica en el límite izquierdo de una imagen o un corte, los píxeles de referencia izquierdos se pueden generar copiando el píxel de referencia superior de más a la izquierda (es decir, un píxel de referencia ubicado en la posición de más a la izquierda de la región C). El procedimiento mencionado anteriormente se aplica de forma predeterminada o por defecto, pero el procedimiento puede variar por cada secuencia, imagen o corte, si es necesario.
A continuación, se describirá un caso en el que algunos de los píxeles de referencia en los píxeles de referencia superiores o izquierdos de una unidad de predicción actual a codificar no están disponibles. Hay dos casos en los que 1) hay píxeles de referencia disponibles en una sola dirección con respecto a los píxeles de referencia no disponibles, y 2) hay píxeles de referencia disponibles en ambas direcciones con respecto a los píxeles de referencia no disponibles.
Se describirá el caso 1).
Por ejemplo, cuando el bloque actual está ubicado en el límite derecho de una imagen o un corte o una LCU, los píxeles de referencia que cubren el área D no están disponibles. Además, cuando el bloque actual se encuentra en el límite inferior de una imagen o un corte o una LCU, los píxeles de referencia que cubren el área B no están disponibles. En este caso, los píxeles de referencia se generan copiando los valores de los píxeles disponibles más cercanos al píxel no disponible. Además, los píxeles de referencia se generan utilizando dos o más píxeles disponibles más cercanos al píxel no disponible.
Se describirá el caso 2).
Por ejemplo, cuando el bloque actual se ubica en el límite superior de un corte y el bloque superior izquierdo del bloque actual está disponible, los píxeles de referencia que cubren el área C no están disponibles, pero los píxeles de referencia que cubren las áreas A y D sí que están disponibles. Por lo tanto, cuando hay píxeles de referencia disponibles en ambas direcciones, se selecciona un píxel de referencia disponible que se encuentra en la posición más cercana en cada dirección, y se generan píxeles de referencia en las posiciones no disponibles utilizando los píxeles de referencia seleccionados (es decir, el píxel de referencia más superior en la región A y el píxel de referencia más a la izquierda en la región D).
Un valor obtenido redondeando un promedio de los dos píxeles de referencia (píxeles que se encuentran en las posiciones más cercanas en las respectivas direcciones) se puede generar como un valor de píxel de referencia. Sin embargo, cuando una región de píxeles de referencia no disponibles es grande, existe una alta posibilidad de que se produzca una diferencia de etapa entre un píxel disponible y un píxel generado, y por lo tanto, es de utilidad generar píxeles de referencia usando interpolación lineal. En concreto, se puede generar un píxel de referencia no disponible en la posición actual considerando una posición con respecto a dos píxeles de referencia disponibles.
A continuación, se describirá un caso en el que no están disponibles todos los píxeles de referencia en los lados superior e izquierdo de una unidad de predicción actual a codificar. Por ejemplo, cuando una unidad de predicción actual es adyacente a un límite superior izquierdo de una imagen o un corte, no hay píxeles de referencia disponibles. En este caso, algunos o todos los píxeles de referencia se pueden generar utilizando dos o más píxeles que se encuentran en la unidad de predicción actual. El número de píxeles que se encuentran en la unidad de predicción actual y que se utilizan para generar los píxeles de referencia pueden ser dos o tres.
La figura 6 es un diagrama de flujo que ilustra un proceso de generación de píxeles de referencia según la presente invención.
Con referencia a la figura 6, el proceso de generar píxeles de referencia utilizando dos píxeles es el siguiente. Se puede usar un píxel superior izquierdo o y uno de entre un pixel superior derecho □, un píxel inferior izquierdo △ y un píxel inferior derecho V de la unidad de predicción actual. Cuando se utiliza el píxel superior izquierdo o y el píxel superior derecho □ de la unidad de predicción actual, se copian el píxel superior izquierdo y el píxel superior derecho en las correspondientes posiciones en un lado superior y se utilizan el píxel superior derecho y los píxeles de referencia copiados para generar píxeles de referencia que cubren el área C. Los píxeles de referencia se generan utilizando una interpolación media o lineal. Los píxeles de referencia que cubren D se generan copiando el píxel superior derecho □ o utilizando una pluralidad de los píxeles superiores generados. Cuando se utilizan el píxel superior izquierdo o y el píxel inferior izquierdo △ de la unidad de predicción actual, se aplica el mismo procedimiento. Cuando se utiliza el píxel superior izquierdo o y el píxel inferior derecho V, se copia el píxel inferior derecho a la correspondiente posición de píxel de referencia en dirección horizontal y dirección vertical, y luego se generan los píxeles de referencia residuales de la misma manera que se ha descrito anteriormente.
El proceso de generar píxeles de referencia utilizando tres píxeles es el siguiente. Se pueden utilizar un píxel superior izquierdo o, un píxel superior derecho □ y un píxel inferior izquierdo △ de la unidad de predicción actual. Los píxeles son copiados en la correspondiente posición de píxeles de referencia y luego se generan los píxeles de referencia residuales utilizando los píxeles copiados. Los píxeles de referencia residuales se generan de la misma manera que se ha descrito anteriormente.
Por otra parte, cuando se usa un procedimiento como el descrito anteriormente, los valores de los píxeles utilizados para generar los píxeles de referencia son transmitidos al decodificador. Para minimizar la cantidad de bits a transmitir, el valor del píxel superior izquierdo o y la diferencia entre el valor del píxel superior izquierdo o y los valores de otros píxeles. El valor del píxel superior izquierdo puede ser un valor cuantificado o codificado por entropía.
Cuando un tipo de corte (slice) es intra (I), es más efectivo generar los píxeles de referencia utilizando dos o más píxeles.
Se describirá otro procedimiento de generación de píxeles de referencia cuando no están disponibles todos los píxeles de referencia en los lados superior e izquierdo de una unidad de predicción actual a codificar. Este procedimiento es efectivo cuando un tipo de corte no es intra (I).
En primer lugar, se determina si hay píxeles en las mismas posiciones que los píxeles de referencia de una unidad de predicción actual en una imagen de referencia codificada previamente a un bloque actual. Cuando hay píxeles, se copian los píxeles de la imagen de referencia para generar píxeles de referencia de la unidad de predicción actual. Cuando no hay píxeles, se determina si hay píxeles en las posiciones más cercanas (a 1 píxel de distancia) con respecto a píxeles de referencia de la unidad de predicción actual. Cuando hay píxeles, se copian los píxeles y se utilizan como los píxeles de referencia de la unidad de predicción actual.
La unidad de filtrado de píxeles de referencia 152 filtra de forma adaptativa los píxeles de referencia de la unidad de predicción actual. Se aplica un filtro de paso bajo para suavizar una variancia de valores de píxeles entre píxeles de referencia. El filtro de paso bajo puede ser un filtro de 3 tomas [1,2, 1] o un filtro de 5 tomas [1, 2, 4, 2, 1].
El filtro se puede aplicar de forma adaptativa según un tamaño del bloque actual. Si el tamaño del bloque actual es igual o menor que un tamaño predeterminado, el filtro puede no ser aplicado. El tamaño predeterminado puede ser 4x4.
El filtro también se puede aplicar de forma adaptativa según el tamaño del bloque actual y el modo de intra predicción. Si el modo de intra predicción es el modo horizontal o el modo vertical, se generan píxeles de un bloque de predicción utilizando un píxel de referencia. Por lo tanto, no se aplica un filtro en el modo horizontal ni en el modo vertical. En el modo DC (corriente continua), se genera un píxel de predicción utilizando un promedio de los píxeles de referencia. Por lo tanto, no se aplica un filtro en el modo Dc porque el píxel de predicción no se ve afectado por la diferencia entre los píxeles de referencia.
En el modo de intra predicción 3, 6 o 9 que tiene una dirección de 45° con referencia a la dirección horizontal o vertical, se aplica un filtro independientemente del tamaño de la unidad de predicción o cuando el bloque actual es mayor que una unidad de predicción más pequeña. Se puede aplicar un primer filtro a una unidad de predicción que tiene un tamaño menor que un tamaño predeterminado, y se puede aplicar un segundo filtro más fuerte que el primero a una unidad de predicción que tiene un tamaño igual o mayor que el tamaño predeterminado. El tamaño predeterminado puede ser 16x16.
En los modos de intra predicción distintos al modo vertical, el modo horizontal, el modo DC y el modo de intra predicción 3, 6 y 9, se puede aplicar un filtro de forma adaptativa según el tamaño de la unidad de predicción actual y el modo de intra predicción. Sin embargo, en el modo plano, se puede realizar un filtrado de píxeles de referencia.
Además, el filtro puede no ser aplicado a algunos o todos los píxeles de referencia generados a través de combinación lineal.
La unidad de generación del bloque de predicción 153 genera un bloque de predicción correspondiente al modo de intra predicción. El bloque de predicción se genera utilizando los píxeles de referencia o una combinación lineal de los píxeles de referencia en base al modo de intra predicción. Los píxeles de referencia a utilizar para generar el bloque de predicción pueden ser filtrados por la unidad de filtrado de píxeles de referencia 152.
La unidad de filtrado de bloques de predicción 154 filtra de forma adaptativa el bloque de predicción generado según el modo de intra predicción para minimizar la señal residual entre el bloque de predicción y el bloque actual a codificar. La diferencia entre un píxel de referencia y un píxel de predicción adyacente al píxel de referencia varía según el modo de intra predicción. Por lo tanto, el filtrado del píxel de predicción adyacente al píxel de referencia permite disminuir la diferencia.
En el modo DC, el bloque de predicción consta de promedios de píxeles de referencia, y se puede producir una diferencia de etapa entre píxeles en un bloque de predicción adyacente a los píxeles de referencia. Por lo tanto, los píxeles de predicción de la línea superior y la línea izquierda que son adyacentes a los píxeles de referencia son filtrados utilizando los píxeles de referencia. El píxel de predicción superior izquierdo adyacente a dos píxeles de referencia (el píxel de referencia superior y el píxel de referencia izquierdo) es filtrado con un filtro de 3 tomas. Los otros píxeles de predicción (píxeles de la línea superior y píxeles de la línea izquierda en el bloque de predicción) y adyacentes a un píxel de referencia son filtrados con un filtro de 2 tomas.
La unidad de filtrado de bloques de predicción 154 puede estar integrada en la unidad de generación de bloques de predicción 153. Además, se puede generar un bloque de predicción para producir los efectos del filtrado del bloque de predicción. En este caso, el bloque de predicción se genera utilizando la combinación de la operación de generación y la operación de filtrado.
La unidad de determinación del modo de intra predicción 155 determina el modo de intra predicción de una unidad de predicción actual utilizando píxeles de referencia. La unidad de determinación del modo de intra predicción 155 selecciona un modo de intra predicción en el que se minimiza la cantidad de bits de codificación de un bloque residual como el modo de intra predicción de la unidad de predicción actual. Para generar un bloque residual, se genera un bloque de predicción según cada modo de intra predicción. El bloque de predicción se puede generar utilizando los píxeles de referencia filtrados por la unidad de filtrado de píxeles de referencia 152 o puede ser un bloque filtrado por la unidad de filtrado de bloques de predicción 154.
La unidad de transmisión de bloques de predicción 157 transmite al sustractor 190 el bloque de predicción generado por la unidad de determinación del modo de predicción 155 en base al modo de intra predicción.
La unidad de codificación del modo de predicción 156 codifica el modo de intra predicción de la unidad de predicción actual determinado por la unidad de determinación del modo de intra predicción 155. La unidad de codificación del modo de intra predicción 156 puede estar integrada en la unidad de intra predicción 150 o en la unidad de codificación de entropía 140.
La unidad de codificación del modo de predicción 156 codifica el modo de intra predicción de la unidad de predicción actual utilizando un modo de intra predicción superior de la unidad de predicción actual y un modo de intra predicción izquierda de la unidad de predicción actual.
En primer lugar, se derivan el modo de intra predicción superior y el modo de intra predicción izquierda de la unidad de predicción actual. Cuando existe una pluralidad de unidades de predicción superiores de la unidad de predicción actual, se explora la pluralidad de unidades de predicción superior en una dirección predeterminada (por ejemplo, de derecha a izquierda) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción superior. Además, cuando existe una pluralidad de unidades de predicción izquierda de la unidad de predicción actual, la pluralidad de unidades de predicción izquierda son exploradas en una dirección predeterminada (por ejemplo, de abajo hacia arriba) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción izquierda. Alternativamente, el modo de intra predicción de una unidad de predicción disponible, de entre una pluralidad de unidades de predicción disponibles, que tiene el menor número de modo de intra predicción se puede establecer como un modo de intra predicción superior.
Cuando el modo de intra predicción superior o el modo de predicción izquierda no está disponible, se puede establecer el modo DC (modo 2) como el modo de intra predicción superior o el modo de predicción izquierda. El modo de intra predicción superior o el modo de intra predicción izquierda es tratado como no disponible cuando no existe una unidad de predicción correspondiente.
A continuación, se convierte el modo de intra predicción superior o el modo de intra predicción izquierda en uno de los números predeterminados de modos de intra predicción cuando el número de modo de intra predicción superior o el número de modo de intra predicción izquierda es igual o mayor que el número de modos de intra predicción permisibles para la unidad de predicción actual. El número predeterminado puede variar según el tamaño de la unidad de predicción actual. Por ejemplo, cuando el tamaño de la unidad de predicción actual es 4*4, se convierte el modo de intra predicción en uno de los nueve modos (modo 0 al modo 8), y cuando el tamaño de la unidad de predicción actual es 64*64, se mapea el modo de intra predicción con uno de entre tres modos (modo 0 al modo 2). El modo de intra predicción puede ser convertido en uno de los modos de intra predicción permitidos para la unidad de predicción actual.
A continuación, si el modo de intra predicción de la unidad de predicción actual es el mismo que cualquiera de los modos de intra predicción superior e izquierdo, se transmite al decodificador un indicador que indica que el modo de intra predicción de la unidad de predicción actual es el mismo que cualquiera de los modos de intra predicción superior e izquierdo y un indicador que indica uno de los modos de intra predicción superior e izquierdo. En este caso, si los modos de predicción superior e izquierda son el mismo, se puede omitir el indicador que indica uno de los modos de predicción anterior e izquierda. Además, si solo está disponible uno de los modos de intra predicción superior e izquierda y el modo de intra predicción disponible es el mismo que el modo de intra predicción del bloque de predicción actual, se puede omitir el indicador que indica uno de los modos de intra predicción anterior e izquierda.
Pero, si el modo de intra predicción de la unidad de predicción actual no es el mismo que cualquiera de los modos de intra predicción superior e izquierda, se compara el número de modo de intra predicción de la unidad de predicción actual con el número de modo de intra predicción superior y el número del modo de intra predicción izquierda. Se calcula el número de casos en los que los números de modo de intra predicción izquierda o superior no es mayor que el número de modo de intra predicción de la unidad de predicción actual, y se determina un valor obtenido sustrayendo el número de casos al número de modo de intra predicción de la unidad de predicción actual como un número final de modo de intra predicción de la unidad de predicción actual a transmitir. En este caso, cuando los números de modo de intra predicción izquierda y superior son idénticos, se considera que los modos de intra predicción izquierda y superior son uno solo.
Según si los modos de intra predicción superior e izquierda son o no son idénticos, se determina una tabla para la codificación de entropía del modo de intra predicción final determinado.
La figura 7 es un diagrama de bloques que ilustra la unidad de intra predicción 250 de un aparato de decodificación de imágenes en movimiento 200 según la presente invención.
La unidad de intra predicción 250 según la presente invención incluye una unidad de decodificación del modo de predicción 251, una unidad de generación de píxeles de referencia 252, una unidad de filtrado de píxeles de referencia 253, una unidad de generación de bloques de predicción 254, una unidad de filtrado de bloques de predicción 255 y una unidad de transmisión de bloques de predicción 256.
La unidad de decodificación del modo de predicción 251 restablece el modo de intra predicción de una unidad de predicción actual de la siguiente manera.
En primer lugar, la unidad de decodificación del modo de predicción 251 recibe información adicional incluida en el contenedor de información adicional para generar un bloque de predicción. La información adicional incluye un indicador de predicción e información de predicción residual. El indicador de predicción indica si el modo de intra predicción de la unidad de predicción actual es el mismo que uno de entre los modos de intra predicción de unidades de predicción adyacentes. La información de predicción residual incluye información determinada por el indicador de predicción. Si el indicador de predicción es 1, la información de predicción residual puede incluir un índice del candidato a modo de intra predicción. El índice del modo de intra predicción designa el candidato a modo de intra predicción. Si el indicador de predicción es 0, la información residual puede incluir el número de modo de intra predicción residual. Se derivan candidatos a modo de inter predicción de la unidad de predicción actual. Los candidatos a modo de intra predicción son derivados utilizando modos de intra predicción de unidades de predicción adyacentes. Por conveniencia, se describirá un caso en el que el candidato a modo de intra predicción de la unidad de predicción actual se limita a los modos de intra predicción superior e izquierda. Cuando hay una pluralidad de unidades de predicción superiores o una pluralidad de unidades de predicción izquierdas, el modo de intra predicción de la unidad de predicción izquierda o superior se determina de la misma manera que se describe en la operación de la unidad de codificación de intra predicción 156 del aparato de codificación 100. Además, cuando el número de modo de un candidato a modo de intra predicción disponible es igual o mayor que el número de modos de intra predicción permisibles para la unidad de predicción actual, se convierte el candidato a modo de intra predicción disponible en uno de los modos permisibles para la unidad de predicción actual según se describe en la unidad de codificación de intra predicción 156.
A continuación, cuando el indicador de predicción recibido indica que la unidad de predicción actual tiene el mismo modo de intra predicción que una unidad de predicción adyacente, y existe el índice de candidato a modo de predicción, se determina un modo de predicción indicado por el índice de candidato a modo de predicción como el modo de intra predicción de la unidad de predicción actual.
Si el indicador de predicción recibido indica que la unidad de predicción actual tiene el mismo modo de intra predicción que una unidad de predicción adyacente, pero no hay un índice de candidato a modo de predicción ni un modo de intra predicción disponible de la unidad de predicción adyacente, se restablece el modo de inter predicción disponible como el modo de intra predicción de la unidad de predicción actual.
Si el indicador de predicción recibido indica que la unidad de predicción actual no tiene el mismo modo de intra predicción que una unidad de predicción adyacente, se compara un valor de modo de intra predicción residual recibido con los números de modo de intra predicción de los candidatos a modo de intra predicción disponibles para restablecer el modo de intra predicción de la unidad de predicción actual.
La unidad de generación de píxeles de referencia 252 genera píxeles de referencia utilizando el mismo procedimiento descrito en la unidad de generación de píxeles de referencia 151 del aparato de codificación 100. Sin embargo, el generador de píxeles de referencia 252 es diferente al generador de píxeles de referencia 151 del aparato de codificación 100 en el sentido que genera píxeles de referencia de forma adaptativa según el modo de intra predicción restablecido por el decodificador del modo de predicción 251. Es decir, la unidad de generación de píxeles de referencia 252 puede generar píxeles de referencia solo cuando no están disponibles los píxeles de referencia utilizados para generar un bloque de predicción y determinados por el modo de intra predicción.
La unidad de filtrado de píxeles de referencia 253 filtra de forma adaptativa los píxeles de referencia en base al modo de intra predicción restablecido por la unidad de decodificación de predicción 251 y un tamaño del bloque de predicción. La condición de filtrado y un filtro son los mismos que los de la unidad de filtrado de píxeles de referencia 152 del aparato de codificación 100.
La unidad de generación de bloques de predicción 254 genera un bloque de predicción utilizando los píxeles de referencia según el modo de intra predicción restablecido por la unidad de decodificación del modo de predicción 251. La unidad de filtrado de bloques de predicción 255 filtra de forma adaptativa el bloque de predicción según el modo de intra predicción restablecido por la unidad de decodificación del modo de predicción 251. La operación de filtrado es la misma que la de la unidad de filtrado de bloques de predicción 154 del aparato de codificación 100.
La unidad de transmisión de bloques de predicción 256 transmite al agregador 290 el bloque de predicción recibido procedente del generador de bloques de predicción 254 o de la unidad de filtrado de bloques de predicción 255.

Claims (2)

REIVINDICACIONES
1. Un aparato para decodificar una imagen, que comprende:
una unidad de decodificación de entropía (210) configurada para restablecer un modo de intra predicción y coeficientes unidimensionales (1D) cuantificados;
una unidad de exploración inversa (220) configurada para explorar inversamente los coeficientes 1D cuantificados en unidades de sub-bloques para generar un bloque de transformación cuantificado;
una unidad de cuantificación inversa (230) configurada para cuantificar inversamente el bloque de transformación cuantificado utilizando un tamaño de etapa de cuantificación para generar un bloque de transformación;
una unidad de transformación inversa (240) configurada para transformar inversamente el bloque de transformación para generar un bloque residual;
una unidad de intra predicción (250) configurada para generar un bloque de predicción correspondiente a un bloque actual según el modo de intra predicción; y
una unidad de agregación (290) configurada para restablecer un bloque original agregando el bloque residual y el bloque de predicción,
en el que la unidad de exploración inversa restablece una pluralidad de sub-bloques aplicando un primer patrón de exploración determinado según el modo de intra predicción a los coeficientes 1D cuantificados, y restablece el bloque de transformación cuantificado aplicando un segundo patrón de exploración determinado según el modo de intra predicción a la pluralidad de sub-bloques,
en el que, cuando el modo de intra predicción es un modo horizontal, el segundo patrón de exploración es una exploración vertical,
en el que el primer patrón de exploración es el mismo que el segundo patrón de exploración,
en el que la unidad de decodificación de entropía (210) restablece además información que indica una posición del último coeficiente distinto de cero en cada sub-bloque, y la unidad de exploración inversa (220) explora inversamente los coeficientes 1D cuantificados utilizando la información que indica una posición del último coeficiente distinto de cero en cada sub-bloque, y
en el que la unidad de intra predicción (250) incluye:
una unidad de generación de píxeles de referencia (252) configurada para generar píxeles de referencia utilizando píxeles de referencia disponibles del bloque actual cuando existen píxeles de referencia no disponibles;
una unidad de filtrado de píxeles de referencia (253) configurada para filtrar de forma adaptativa píxeles de referencia adyacentes al bloque actual en base al modo de intra predicción y un tamaño del bloque actual;
una unidad de generación de bloque de predicción (254) configurada para generar un bloque de predicción del bloque actual según el modo de intra predicción; y
una unidad de filtrado del bloque de predicción (255) configurada para filtrar de forma adaptativa algunos píxeles de predicción del bloque de predicción en base al modo de intra predicción y el tamaño del bloque actual.
2. El aparato de la reivindicación 1, en el que la unidad de exploración inversa restablece el bloque de transformación cuantificado aplicando el segundo patrón de exploración a la pluralidad de sub-bloques en una dirección inversa.
ES17160967T 2010-07-31 2011-07-29 Aparato para decodificar una imagen Active ES2701700T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20100074462 2010-07-31
KR1020110062603A KR101373814B1 (ko) 2010-07-31 2011-06-28 예측 블록 생성 장치

Publications (1)

Publication Number Publication Date
ES2701700T3 true ES2701700T3 (es) 2019-02-25

Family

ID=45559906

Family Applications (6)

Application Number Title Priority Date Filing Date
ES17160965T Active ES2700621T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES17160967T Active ES2701700T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES17160956T Active ES2721768T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES15187283.5T Active ES2634819T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160949T Active ES2733115T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160963T Active ES2720652T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES17160965T Active ES2700621T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen

Family Applications After (4)

Application Number Title Priority Date Filing Date
ES17160956T Active ES2721768T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES15187283.5T Active ES2634819T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160949T Active ES2733115T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160963T Active ES2720652T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen

Country Status (17)

Country Link
US (11) US9319715B2 (es)
EP (7) EP2600614A4 (es)
JP (8) JP5928957B2 (es)
KR (1) KR101373814B1 (es)
CN (11) CN106878721B (es)
CY (5) CY1119258T1 (es)
DK (5) DK3211898T3 (es)
ES (6) ES2700621T3 (es)
HR (5) HRP20171277T1 (es)
HU (5) HUE045031T2 (es)
LT (5) LT3214838T (es)
PL (6) PL2988501T3 (es)
PT (5) PT2988501T (es)
RS (5) RS58769B1 (es)
SI (5) SI3211899T1 (es)
TR (1) TR201815076T4 (es)
WO (1) WO2012018198A2 (es)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8867854B2 (en) * 2008-10-01 2014-10-21 Electronics And Telecommunications Research Institute Image encoder and decoder using undirectional prediction
KR20110113561A (ko) 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
SG10201503179VA (en) * 2010-04-23 2015-06-29 M&K Holdings Inc Image encoding apparatus
KR101373814B1 (ko) * 2010-07-31 2014-03-18 엠앤케이홀딩스 주식회사 예측 블록 생성 장치
CN102595118B (zh) * 2011-01-14 2015-04-08 华为技术有限公司 一种编解码中的预测方法和预测器
WO2012134046A2 (ko) 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
MY165837A (en) 2011-06-13 2018-05-17 Sun Patent Trust Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
KR20120140181A (ko) * 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
MX351933B (es) 2011-08-29 2017-11-01 Ibex Pt Holdings Co Ltd Método para generar un bloque de predicción en modo de predicción de vector de movimiento avanzada (amvp).
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130049523A (ko) 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
KR20130049526A (ko) 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
WO2014003423A1 (ko) 2012-06-29 2014-01-03 한국전자통신연구원 영상 부호화/복호화 방법 및 장치
JP5798539B2 (ja) * 2012-09-24 2015-10-21 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP6171627B2 (ja) * 2013-06-28 2017-08-02 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法および画像復号プログラム
JP6352141B2 (ja) 2014-09-30 2018-07-04 Kddi株式会社 動画像符号化装置、動画像復号装置、動画像圧縮伝送システム、動画像符号化方法、動画像復号方法、およびプログラム
CN105812823B (zh) * 2014-12-31 2019-04-05 扬智科技股份有限公司 Hevc中帧内预测的参考像素替换方法与装置
BR112017024902A2 (pt) 2015-05-21 2018-07-31 Huawei Technologies Co., Ltd. aparelho e método para compensação de movimento de vídeo
US11394972B2 (en) * 2015-08-19 2022-07-19 Lg Electronics Inc. Method and device for encoding/decoding video signal by using optimized conversion based on multiple graph-based model
JP5933086B2 (ja) * 2015-08-21 2016-06-08 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
EP3343926A4 (en) 2015-08-28 2019-01-30 KT Corporation METHOD AND DEVICE FOR PROCESSING A VIDEO SIGNAL
US10531102B2 (en) * 2015-09-10 2020-01-07 Samsung Electronics Co., Ltd. Encoding device, decoding device, and encoding and decoding method thereof
JP6088689B2 (ja) * 2016-04-28 2017-03-01 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
CN114401407A (zh) 2016-06-24 2022-04-26 韩国电子通信研究院 用于基于变换的图像编码/解码的方法和设备
CN117412044A (zh) * 2016-07-13 2024-01-16 韩国电子通信研究院 图像编码/解码方法和装置
KR20220129685A (ko) * 2016-09-05 2022-09-23 엘지전자 주식회사 영상 부호화/복호화 방법 및 이를 위한 장치
US10694202B2 (en) * 2016-12-01 2020-06-23 Qualcomm Incorporated Indication of bilateral filter usage in video coding
JP6242517B2 (ja) * 2017-02-03 2017-12-06 株式会社Nttドコモ 動画像予測復号装置及び動画像予測復号方法
EP3410708A1 (en) 2017-05-31 2018-12-05 Thomson Licensing Method and apparatus for intra prediction with interpolation
JP6770192B2 (ja) 2017-06-01 2020-10-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 符号化装置、符号化方法、復号装置及び復号方法
WO2019009620A1 (ko) * 2017-07-04 2019-01-10 엘지전자 주식회사 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN110892723B (zh) 2017-07-06 2024-04-12 三星电子株式会社 用于编码或解码图像的方法和装置
CN109429064B (zh) * 2017-08-22 2021-03-30 华为技术有限公司 一种视频数据的编解码方法、装置和介质
EP3695599A1 (en) 2017-10-13 2020-08-19 Fraunhofer Gesellschaft zur Förderung der Angewand Intra-prediction mode concept for block-wise picture coding
JP6408681B2 (ja) * 2017-11-07 2018-10-17 株式会社Nttドコモ 動画像予測復号方法
CN111602397B (zh) * 2018-01-17 2024-01-23 英迪股份有限公司 使用各种变换技术的视频编码方法和装置
KR20220133331A (ko) 2018-03-16 2022-10-04 엘지전자 주식회사 인트라 예측 기반 영상/비디오 코딩 방법 및 그 장치
KR20220107090A (ko) * 2018-05-10 2022-08-01 삼성전자주식회사 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2020004900A1 (ko) 2018-06-25 2020-01-02 김기백 화면내 예측 방법 및 장치
CN110650337B (zh) 2018-06-26 2022-04-01 中兴通讯股份有限公司 一种图像编码方法、解码方法、编码器、解码器及存储介质
CN117812254A (zh) 2018-06-29 2024-04-02 弗劳恩霍夫应用研究促进协会 扩展参考图像内预测
JP6602931B2 (ja) * 2018-09-20 2019-11-06 株式会社Nttドコモ 動画像予測復号方法
US11102513B2 (en) 2018-12-06 2021-08-24 Tencent America LLC One-level transform split and adaptive sub-block transform
CN110166773B (zh) * 2019-06-25 2021-08-31 浙江大华技术股份有限公司 帧内预测方法、视频编码方法、视频处理装置、存储介质
WO2021056216A1 (zh) 2019-09-24 2021-04-01 Oppo广东移动通信有限公司 预测值的确定方法、编码器、解码器以及计算机存储介质

Family Cites Families (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100242635B1 (ko) * 1996-01-25 2000-02-01 윤종용 가변장 부호화 및 가변장 복호화 시스템
CN100521787C (zh) * 1996-05-28 2009-07-29 松下电器产业株式会社 图像预测编码方法
DE69709189T2 (de) * 1996-05-28 2002-08-22 Matsushita Electric Ind Co Ltd Vorrichtung zur Bildvorhersage und -decodierung
JP3756475B2 (ja) * 2001-09-12 2006-03-15 松下電器産業株式会社 画像符号化方法および画像復号化方法
KR100798446B1 (ko) 2001-09-26 2008-01-28 에스케이 텔레콤주식회사 적응적 더블 스캔 방법
DE10158658A1 (de) * 2001-11-30 2003-06-12 Bosch Gmbh Robert Verfahren zur gerichteten Prädiktion eines Bildblockes
CN101448162B (zh) * 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
JP4490261B2 (ja) 2002-06-11 2010-06-23 ノキア コーポレイション イントラ符号化に基づく空間予測
KR100846778B1 (ko) 2002-07-16 2008-07-16 삼성전자주식회사 복수개의 주사 패턴을 이용한 부호화 방법, 복호화 방법,및 그 장치
US7227901B2 (en) * 2002-11-21 2007-06-05 Ub Video Inc. Low-complexity deblocking filter
JP2004180064A (ja) 2002-11-28 2004-06-24 Ricoh Co Ltd 情報圧縮装置および方法、ならびにそのプログラム
US7289562B2 (en) * 2003-08-01 2007-10-30 Polycom, Inc. Adaptive filter to improve H-264 video quality
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
CN100542262C (zh) * 2004-01-30 2009-09-16 松下电器产业株式会社 逆量化方法图像解码方法和设备及处理器
US7869503B2 (en) * 2004-02-06 2011-01-11 Apple Inc. Rate and quality controller for H.264/AVC video coder and scene analyzer therefor
JP2006054846A (ja) 2004-07-12 2006-02-23 Sony Corp 符号化方法、符号化装置、復号方法、復号装置およびそれらのプログラム
CN1633180A (zh) * 2004-12-24 2005-06-29 海信集团有限公司 基于变换和数据融合的多描述视频编码方法
CN1665301A (zh) 2005-03-07 2005-09-07 清华大学 一种视频编解码中的自适应的扫描方法
KR100716999B1 (ko) * 2005-06-03 2007-05-10 삼성전자주식회사 영상의 대칭성을 이용한 인트라 예측 방법, 이를 이용한영상의 복호화, 부호화 방법 및 장치
KR100739714B1 (ko) 2005-07-06 2007-07-13 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
KR100727990B1 (ko) * 2005-10-01 2007-06-13 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치
WO2007046644A1 (en) 2005-10-21 2007-04-26 Electronics And Telecommunications Research Institute Apparatus and method for encoding and decoding moving picture using adaptive scanning
JP4114885B2 (ja) 2005-10-31 2008-07-09 松下電器産業株式会社 画像符号化装置、方法、及びプログラム
KR100750138B1 (ko) * 2005-11-16 2007-08-21 삼성전자주식회사 인간의 시각 특성을 이용한 영상의 부호화, 복호화 방법 및장치
BRPI0619193A2 (pt) 2005-11-30 2011-09-20 Toshiba Kk Toshiba Corp método de codificação de imagem / decodificação de imagem, aparelho de codificação de imagem / decodificação de imagem
CN101385356B (zh) * 2006-02-17 2011-01-19 汤姆森许可贸易公司 采用帧内预测模式的图像编码方法
JP2007300389A (ja) 2006-04-28 2007-11-15 Victor Co Of Japan Ltd 画像符号化装置および画像符号化プログラム
KR100882949B1 (ko) * 2006-08-17 2009-02-10 한국전자통신연구원 화소 유사성에 따라 적응적인 이산 코사인 변환 계수스캐닝을 이용한 부호화/복호화 장치 및 그 방법
CN101137047B (zh) * 2006-08-29 2010-09-15 昆山杰得微电子有限公司 一种通过有效残差系数分析提高编码效率的方法
EP2079242A4 (en) * 2006-10-30 2010-11-03 Nippon Telegraph & Telephone METHOD FOR GENERATING PREDICTIVE REFERENCE INFORMATION, DYNAMIC IMAGE ENCODING AND DECODING METHOD, DEVICE THEREOF, PROGRAM THEREOF, AND STORAGE MEDIUM CONTAINING THE PROGRAM
KR101175593B1 (ko) * 2007-01-18 2012-08-22 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 화질 스케일러블 비디오 데이터 스트림
JP4254867B2 (ja) 2007-01-31 2009-04-15 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
BRPI0808774A2 (pt) * 2007-03-14 2014-08-19 Nippon Telegraph & Telephone Método de estimativa de quantidade de código, e aparelho, programa e meio de armazenamento para o mesmo
JP4939273B2 (ja) * 2007-03-29 2012-05-23 キヤノン株式会社 画像符号化装置及び画像符号化方法
KR20100027096A (ko) * 2007-04-18 2010-03-10 톰슨 라이센싱 인트라 예측을 위한 적응 기준 영상 데이터 생성
CN100496127C (zh) * 2007-06-05 2009-06-03 南京大学 Mpeg-2到h.264码的快速转换方法
US8488668B2 (en) * 2007-06-15 2013-07-16 Qualcomm Incorporated Adaptive coefficient scanning for video coding
JP2009027541A (ja) 2007-07-20 2009-02-05 Ntt Docomo Inc 画像符号化装置、方法及びプログラム、並びに、画像復号装置、方法及びプログラム
KR100907707B1 (ko) * 2007-09-06 2009-07-14 동국대학교 산학협력단 H.264/avc 압축 영역에서의 썸네일 영상의 고속 추출방법, 그 장치 및 이를 기록한 기록매체
KR100919572B1 (ko) * 2007-09-11 2009-10-01 주식회사 부시파워 디지털 조속기의 속도제어를 위한 속도형 신경망 제어기
CN101389031A (zh) * 2007-09-14 2009-03-18 浙江大学 一种对变换系数的处理方法及装置
US8848787B2 (en) * 2007-10-15 2014-09-30 Qualcomm Incorporated Enhancement layer coding for scalable video coding
CN101971631B (zh) 2007-12-21 2013-03-27 艾利森电话股份有限公司 自适应帧内模式选择
US8891615B2 (en) * 2008-01-08 2014-11-18 Qualcomm Incorporated Quantization based on rate-distortion modeling for CABAC coders
CN101257630B (zh) * 2008-03-25 2012-06-06 浙江大学 结合三维滤波的视频编码方法和装置
JP2009284298A (ja) * 2008-05-23 2009-12-03 Hitachi Ltd 動画像符号化装置、動画像復号化装置、動画像符号化方法及び動画像復号化方法
JP2009302776A (ja) 2008-06-11 2009-12-24 Canon Inc 画像符号化装置、その制御方法、及びコンピュータプログラム
KR101483497B1 (ko) * 2008-09-25 2015-01-20 에스케이텔레콤 주식회사 임펄스 신호를 고려한 영상 부호화/복호화 장치 및 방법
WO2010036772A2 (en) * 2008-09-26 2010-04-01 Dolby Laboratories Licensing Corporation Complexity allocation for video and image coding applications
CN101383972A (zh) * 2008-09-28 2009-03-11 北京航空航天大学 基于空间预测与变换的遥感图像压缩方法
KR101458471B1 (ko) 2008-10-01 2014-11-10 에스케이텔레콤 주식회사 영상 부호화/복호화 방법 및 장치
US20100098156A1 (en) * 2008-10-16 2010-04-22 Qualcomm Incorporated Weighted prediction based on vectorized entropy coding
EP2182732A1 (en) * 2008-10-28 2010-05-05 Panasonic Corporation Switching between scans in image coding
EP2192780A1 (en) * 2008-11-28 2010-06-02 Thomson Licensing Method for video decoding supported by Graphics Processing Unit
WO2010063881A1 (en) * 2008-12-03 2010-06-10 Nokia Corporation Flexible interpolation filter structures for video coding
US8514942B2 (en) * 2008-12-31 2013-08-20 Entropic Communications, Inc. Low-resolution video coding content extraction
KR101538704B1 (ko) * 2009-01-28 2015-07-28 삼성전자주식회사 보간 필터를 적응적으로 사용하여 영상을 부호화 및 복호화하는 방법 및 장치
JP5169978B2 (ja) * 2009-04-24 2013-03-27 ソニー株式会社 画像処理装置および方法
KR101712351B1 (ko) * 2009-06-26 2017-03-06 에스케이 텔레콤주식회사 다차원 정수 변환을 이용한 영상 부호화/복호화 장치 및 방법
US8477845B2 (en) * 2009-10-16 2013-07-02 Futurewei Technologies, Inc. Predictive adaptive scan ordering for video coding
US8588303B2 (en) 2010-03-31 2013-11-19 Futurewei Technologies, Inc. Multiple predictor sets for intra-frame coding
US20110249734A1 (en) * 2010-04-09 2011-10-13 Segall Christopher A Methods and Systems for Intra Prediction
US8644375B2 (en) * 2010-04-09 2014-02-04 Sharp Laboratories Of America, Inc. Methods and systems for intra prediction
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
HUE050955T2 (hu) 2010-04-13 2021-01-28 Ge Video Compression Llc Szignifikancia térképek és transzformációs együttható blokkok kódolása
CN101841713B (zh) * 2010-04-30 2012-12-05 西安电子科技大学 降低编码码率的视频编码方法及系统
KR101373814B1 (ko) * 2010-07-31 2014-03-18 엠앤케이홀딩스 주식회사 예측 블록 생성 장치
US9049444B2 (en) * 2010-12-22 2015-06-02 Qualcomm Incorporated Mode dependent scanning of coefficients of a block of video data
JP5478740B2 (ja) * 2011-01-12 2014-04-23 三菱電機株式会社 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
WO2012119655A1 (en) * 2011-03-10 2012-09-13 Telefonaktiebolaget L M Ericsson (Publ) Decoding of transforms with curved basis functions

Also Published As

Publication number Publication date
PL3197160T3 (pl) 2019-02-28
EP3214838B1 (en) 2019-02-27
EP3211899B1 (en) 2019-02-20
DK3211898T3 (da) 2019-07-01
DK3197160T3 (da) 2019-01-02
LT2988501T (lt) 2017-09-11
US20160198187A1 (en) 2016-07-07
EP3197160B1 (en) 2018-09-12
ES2733115T3 (es) 2019-11-27
CN107087176B (zh) 2020-01-14
EP3211898A1 (en) 2017-08-30
EP2988501B1 (en) 2017-05-24
EP3211898B1 (en) 2019-04-03
US20160198188A1 (en) 2016-07-07
WO2012018198A3 (ko) 2012-04-12
SI3211898T1 (sl) 2019-06-28
PL2988501T3 (pl) 2017-10-31
EP3214838A1 (en) 2017-09-06
CN106878720A (zh) 2017-06-20
US9319715B2 (en) 2016-04-19
PL3211898T3 (pl) 2019-09-30
JP2016165127A (ja) 2016-09-08
JP6084733B2 (ja) 2017-02-22
EP2600614A4 (en) 2014-09-10
US9584830B2 (en) 2017-02-28
KR101373814B1 (ko) 2014-03-18
CN107071427A (zh) 2017-08-18
CN106878718A (zh) 2017-06-20
EP3211899A1 (en) 2017-08-30
LT3211898T (lt) 2019-04-25
DK2988501T3 (en) 2017-08-07
JP2013535919A (ja) 2013-09-12
JP2016165131A (ja) 2016-09-08
HUE044306T2 (hu) 2019-10-28
EP3197160A1 (en) 2017-07-26
CN106878721A (zh) 2017-06-20
JP6149138B2 (ja) 2017-06-14
CN107087175B (zh) 2020-03-06
EP2600614A2 (en) 2013-06-05
JP6084732B2 (ja) 2017-02-22
PL3211899T3 (pl) 2019-09-30
PT3214838T (pt) 2019-06-07
CY1121682T1 (el) 2020-07-31
CN107087175A (zh) 2017-08-22
EP3197161B1 (en) 2018-09-12
LT3211899T (lt) 2019-03-12
DK3214838T3 (da) 2019-05-27
CN104602006B (zh) 2017-11-10
JP2016165130A (ja) 2016-09-08
US20160198184A1 (en) 2016-07-07
CN106878721B (zh) 2019-11-01
JP6084731B2 (ja) 2017-02-22
RS58060B1 (sr) 2019-02-28
SI3211899T1 (sl) 2019-06-28
HRP20190770T1 (hr) 2019-06-28
EP2988501A3 (en) 2016-03-16
US20160198181A1 (en) 2016-07-07
CN107087176A (zh) 2017-08-22
SI2988501T1 (sl) 2017-08-31
CN104602003A (zh) 2015-05-06
JP2016165126A (ja) 2016-09-08
LT3197160T (lt) 2018-11-12
CN107105241B (zh) 2020-04-28
EP3197161A1 (en) 2017-07-26
US9584827B2 (en) 2017-02-28
PT3197160T (pt) 2018-12-19
US20130016773A1 (en) 2013-01-17
JP6084735B2 (ja) 2017-02-22
SI3197160T1 (sl) 2018-11-30
CN107071427B (zh) 2020-01-14
TR201815076T4 (tr) 2018-11-21
ES2700621T3 (es) 2019-02-18
PT2988501T (pt) 2017-06-26
US9609360B2 (en) 2017-03-28
US9584829B2 (en) 2017-02-28
US20160198185A1 (en) 2016-07-07
JP5928957B2 (ja) 2016-06-01
CY1121755T1 (el) 2020-07-31
EP2988501A2 (en) 2016-02-24
HRP20182099T1 (hr) 2019-02-08
JP6149137B2 (ja) 2017-06-14
ES2720652T3 (es) 2019-07-23
CN103081473B (zh) 2016-11-09
SI3214838T1 (sl) 2019-05-31
PL3197161T3 (pl) 2019-02-28
HUE041268T2 (hu) 2019-05-28
CN104602006A (zh) 2015-05-06
JP2016165129A (ja) 2016-09-08
JP2016165128A (ja) 2016-09-08
JP6084734B2 (ja) 2017-02-22
RS56109B1 (sr) 2017-10-31
HUE044599T2 (hu) 2019-11-28
CY1120798T1 (el) 2019-12-11
CN106878718B (zh) 2019-11-01
US9584828B2 (en) 2017-02-28
DK3211899T3 (da) 2019-05-13
USRE48564E1 (en) 2021-05-18
US9578349B2 (en) 2017-02-21
PT3211899T (pt) 2019-05-31
HRP20190709T1 (hr) 2019-07-12
HUE045031T2 (hu) 2019-12-30
ES2721768T3 (es) 2019-08-05
JP2016165132A (ja) 2016-09-08
HRP20190708T1 (hr) 2019-07-12
KR20120012383A (ko) 2012-02-09
CN106878720B (zh) 2019-08-30
ES2634819T3 (es) 2017-09-29
US20160198180A1 (en) 2016-07-07
CY1121935T1 (el) 2020-10-14
LT3214838T (lt) 2019-03-25
CN106878719B (zh) 2019-08-30
US9584826B2 (en) 2017-02-28
US9609359B2 (en) 2017-03-28
CY1119258T1 (el) 2018-02-14
US9554154B2 (en) 2017-01-24
PL3214838T3 (pl) 2019-08-30
CN103081473B8 (zh) 2017-03-15
RS58484B1 (sr) 2019-04-30
PT3211898T (pt) 2019-06-11
WO2012018198A2 (ko) 2012-02-09
RS58605B1 (sr) 2019-05-31
CN106878719A (zh) 2017-06-20
HUE036014T2 (hu) 2018-06-28
CN103081473A (zh) 2013-05-01
HRP20171277T1 (hr) 2017-10-20
RS58769B1 (sr) 2019-06-28
CN104602003B (zh) 2017-11-10
US20160198186A1 (en) 2016-07-07
CN107105241A (zh) 2017-08-29
US20160198183A1 (en) 2016-07-07
US20160198182A1 (en) 2016-07-07

Similar Documents

Publication Publication Date Title
ES2701700T3 (es) Aparato para decodificar una imagen
ES2694041T3 (es) Aparato para codificar una imagen
ES2693905T3 (es) Aparato para descodificar un modo de intrapredicción
ES2952358T3 (es) Aparato para decodificar un fotograma en movimiento