ES2700621T3 - Aparato para decodificar una imagen - Google Patents

Aparato para decodificar una imagen Download PDF

Info

Publication number
ES2700621T3
ES2700621T3 ES17160965T ES17160965T ES2700621T3 ES 2700621 T3 ES2700621 T3 ES 2700621T3 ES 17160965 T ES17160965 T ES 17160965T ES 17160965 T ES17160965 T ES 17160965T ES 2700621 T3 ES2700621 T3 ES 2700621T3
Authority
ES
Spain
Prior art keywords
unit
prediction
block
intra
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17160965T
Other languages
English (en)
Inventor
Soo Mi Oh
Moonock Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
M&K Holdings Inc
Original Assignee
M&K Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45559906&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2700621(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by M&K Holdings Inc filed Critical M&K Holdings Inc
Application granted granted Critical
Publication of ES2700621T3 publication Critical patent/ES2700621T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Abstract

Un aparato para decodificar una imagen, comprendiendo el aparato: una unidad de decodificación por entropía (210) configurada para restaurar un modo de intrapredicción y coeficientes cuantificados unidimensionales (1D); una unidad de escaneo inverso (220) configurada para escanear inversamente los coeficientes cuantificados 1D en unidades de subbloques para generar un bloque de transformación cuantificado; una unidad de cuantificación inversa (230) configurada para cuantificar inversamente el bloque de transformación cuantificado usando un tamaño de paso de cuantificación para generar un bloque de transformación; una unidad de transformación inversa (240) configurada para transformar inversamente el bloque de transformación para generar un bloque residual; una unidad de intrapredicción (250) configurada para generar un bloque de predicción correspondiente a un bloque actual de acuerdo con el modo de intrapredicción; y una unidad de adición (290) configurada para restaurar un bloque original sumando el bloque residual y el bloque de predicción, en el que la unidad de escaneo inverso restaura una pluralidad de subbloques aplicando un primer patrón de escaneo determinado de acuerdo con el modo de intrapredicción a los coeficientes cuantificados 1D, y restaura el bloque de transformación cuantificado aplicando un segundo patrón de escaneo determinado de acuerdo con el modo de intrapredicción a la pluralidad de subbloques, en el que, cuando el modo de intrapredicción es un modo horizontal, el segundo patrón de escaneo es un escaneo vertical, en el que el primer patrón de escaneo es el mismo que el segundo patrón de escaneo, y en el que la unidad de intrapredicción (250) incluye: una unidad de generación de píxeles de referencia (252) configurada para generar píxeles de referencia utilizando píxeles de referencia disponibles del bloque actual cuando existen píxeles de referencia no disponibles; una unidad de filtrado de píxeles de referencia (253) configurada para filtrar adaptativamente los píxeles de referencia adyacentes al bloque actual en base al modo de intrapredicción y un tamaño del bloque actual; una unidad de generación de bloques de predicción (254) configurada para generar un bloque de predicción del bloque actual de acuerdo con el modo de intrapredicción; y una unidad de filtrado de bloques de predicción (255) configurada para filtrar de manera adaptativa algunos píxeles de predicción del bloque de predicción en base al modo de intrapredicción y el tamaño del bloque actual.

Description

DESCRIPCIÓN
Aparato para decodificar una imagen
Campo técnico
La presente invención se refiere a un aparato para decodificar una imagen, y más particularmente a un aparato para decodificar una imagen capaz de minimizar la cantidad de bits de codificación de un bloque residual.
Técnica antecedente
En los procedimientos de compresión de imágenes tales como el grupo de expertos de imágenes en movimiento (MPEG)-1, MPEG-2, MPEG-4 y la codificación de video avanzada (AVC) H.264/MPEG-4, una imagen se divide en macrobloques para codificar una imagen. A continuación, los MB respectivos se codifican usando una interpredicción o una intrapredicción.
En la intrapredicción, un bloque actual de una imagen actual se codifica no usando una imagen de referencia, sino usando valores de los píxeles espacialmente adyacentes al bloque actual. Un modo de intrapredicción con poca distorsión se selecciona comparando con un bloque de predicción generando que usa los valores de píxeles adyacentes con el MB original. A continuación, usando el modo seleccionado de intrapredicción y los valores de píxeles adyacentes, se calculan los valores de predicción del bloque actual. Se calculan las diferencias entre los valores de predicción y los valores de los píxeles del bloque actual original y a continuación se codifican a través de una codificación de transfromación, una cuantificación y una codificación por entropía. El modo de intrapredicción también se codifica.
Los modos de intrapredicción se clasifican, en general, en un modo de intrapredicción de 4 x 4 , un modo de intrapredicción de 8 x 8 y un modo de intrapredicción de 16 x 16 para los componentes de luminancia y los componentes de crominancia.
En el modo de intrapredicción de 16 x 16 de acuerdo con la técnica anterior, hay cuatro modos, un modo vertical, un modo horizontal, un modo actual continuo (CC) y un modo plano.
En el modo de intrapredicción de 4 x 4 de acuerdo con la técnica anterior hay nueve modos, un modo vertical, un modo horizontal, un modo CC, un modo inferior-izquierda diagonal, un modo inferior-derecha diagonal, un modo derecho vertical, un modo izquierdo vertical, un modo horizontal-arriba y un modo horizontal-inferior.
Cada modo de predicción se indexa de acuerdo con la frecuencia de uso de los modos respectivos. El modo vertical, cuyo número de modo es el 0, muestra la posibilidad más alta de que se use lo más frecuentemente para realizar la intrapredicción en un bloque objetivo, y el modo horizontal-arriba cuyo número de modo es el 8 muestra la posibilidad más alta de que se use lo más infrecuentemente.
De acuerdo con las normas H.264, un bloque actual se codifica usando un total de 13 modos, es decir, 4 modos del modo de intrapredicción de 4x4 y 9 modos del modo de intrapredicción de 16x16. Se genera un flujo de bits del bloque actual de acuerdo con un modo optimo entre estos modos.
Sin embargo, cuando algunos o todos los valores de los píxeles adyacentes al bloque actual no existen o no están ya codificados, es imposible aplicar algunos o todos los modos de intrapredicción al bloque actual. Además, cuando se realiza la intrapredicción seleccionando un modo de predicción entre el modo intra aplicable se hace grande una señal residual entre un bloque de predicción y un bloque actual. Por lo tanto, la eficiencia de codificación se degrada. El documento TUNG NGUYEN Y COL.: "Improved Context Modeling for Coding Quantized Transform Coefficients in Video Compression", SIMPOSIO DE CODIFICACIÓN DE IMÁGENES 2010; NAGOYA, publicado el 8 de diciembre de 2010, hace referencia al estándar de codificación de vídeo H.264 y el esfuerzo de estandarización HEVC, ambos implicando intrapredicción basada en bloques. El documento específicamente divulga la partición de bloques de coeficientes de transformación mayores que 4 x 4 en subbloques 4 x 4 con el fin de mejorar la codificación por entropía. Los subbloques se procesan en un orden de escaneo en zigzag y los coeficientes de cada subbloque se escanean en un escaneo en zigzag inversa.
El documento YEO C Y COL.: "Mode-Dependent Coefficient Scanning for Intra Prediction Residual Coding", 95. MPEG MEETING; DAEGU; (n.° m18796), publicado el 21 de enero de 2011, divulga un orden de escaneo de modo dependiente para la codificación residual de intrapredicción. Para cada modo intra y para cada tamaño de bloque de transformación se asigna uno de los cuatro órdenes de escaneo predeterminados para procesamiento de los coeficientes transformados.
El documento KAZUO SUGIMOTO ET AL: "LUT-based adaptive filtering on intra prediction samples", 4. JCT-VC MEETING, DAEGU, (n.° JCTVC-D109), publicado el 14 de enero de 2011, divulga filtrado adaptativo del bloque de predicción generado de acuerdo con el modo de intrapredicción y el tamaño de bloque en combinación con un filtrado adaptativo de las muestras de referencia.
Divulgación
La presente invención se define en la reivindicación independiente adjunta. Una divulgación habilitante de la invención se encuentra en la realización de las figuras 3 y 7. Las realizaciones restantes se entienden como ejemplos que no describen partes de la presente invención.
Problema técnico
La presente invención se dirige a un aparato para decodificar una imagen similar a una imagen original.
Solución técnica
La presente invención proporciona un aparato para decodificar una imagen que incluye: una unidad de decodificación por entropía (210) configurada para restaurar un modo de intrapredicción y coeficientes cuantificados unidimensionales (1D); una unidad de escaneo inverso (220) configurada para escanear inversamente los coeficientes cuantificados 1D en unidades de subbloques para generar un bloque de transformación cuantificado; una unidad de cuantificación inversa (230) configurada para cuantificar inversamente el bloque de transformación cuantificado usando un tamaño de paso de cuantificación para generar un bloque de transformación; una unidad de transformación inversa (240) configurada para transformar inversamente el bloque de transformación para generar un bloque residual; una unidad de intrapredicción (250) configurada para generar un bloque de predicción correspondiente a un bloque de corriente de acuerdo con el modo de intrapredicción; y una unidad de adición (290) configurada para restaurar un bloque original añadiendo el bloque residual y el bloque de predicción, en el que la unidad de escaneo inverso restaura una pluralidad de subbloques aplicando un primer patrón de escaneo determinado de acuerdo con el modo de intrapredicción a los coeficientes cuantificados 1D, y restaura el bloque de transformación cuantificado aplicando un segundo patrón de escaneo determinado según el modo de intrapredicción a la pluralidad de subbloques, en el que, cuando el modo de intrapredicción es un modo horizontal, el segundo patrón de escaneo es escaneo vertical, en el que el primer patrón de escaneo es igual al segundo patrón de escaneo, y en el que la unidad (250) de intrapredicción incluye: una unidad (252) generadora de píxeles de referencia configurada para generar píxeles de referencia usando píxeles de referencia disponibles del bloque actual cuando no está disponible cuando los píxeles de referencia existen; una unidad de filtrado de píxeles de referencia (253) configurada para filtrar adaptativamente los píxeles de referencia adyacentes al bloque actual en base al modo de intrapredicción y un tamaño del bloque actual; una unidad generadora de bloques de predicción (254) configurada para generar un bloque de predicción del bloque actual de acuerdo con el modo de intrapredicción; y una unidad de filtrado de bloques de predicción (255) configurada para filtrar adaptativamente algunos píxeles de predicción del bloque de predicción en base al modo de intrapredicción y el tamaño del bloque actual.
Efectos ventajosos
Un aparato de acuerdo con la presente invención genera píxeles de referencia y filtra adaptativamente los píxeles de referencia para generar un bloque de predicción que minimiza la diferencia entre el bloque de predicción y un bloque original. Además, al filtrar adaptativamente el bloque de predicción de acuerdo con el modo de intrapredicción, las señales residuales se vuelven más pequeñas y, por lo tanto, se puede mejorar la compresión de la imagen.
Descripción de los dibujos
La figura 1 es un diagrama de bloques que ilustra un aparato de codificación de imágenes en movimiento de acuerdo con la presente invención.
La figura 2 es un diagrama de flujo que ilustra una operación de una unidad de escaneo de acuerdo con la presente invención.
La figura 3 es un diagrama de bloques que ilustra un aparato de decodificación de imágenes en movimiento de acuerdo con la presente invención.
La figura 4 es un diagrama de bloques que ilustra una unidad de intrapredicción de acuerdo con la presente invención.
La figura 5 es un diagrama conceptual que muestra las posiciones de los píxeles de referencia usados para la intrapredicción de acuerdo con la presente invención.
La figura 6 es un diagrama de flujo que ilustra un procedimiento de generación de píxeles de referencia de acuerdo con la presente invención.
La figura 7 es un diagrama de bloques que ilustra una unidad de intrapredicción de un aparato decodificador de imágenes en movimiento de acuerdo con la presente invención.
Modo de la invención
En lo sucesivo en el presente documento, las diversas realizaciones de la presente invención se describirán en detalle con referencia a los dibujos adjuntos. Sin embargo, la presente invención no se limita a las realizaciones a modo de ejemplos divulgadas a continuación, pero se puede implementar de diferentes maneras. Por lo tanto, muchas otras modificaciones y variaciones de la presente invención son posibles, y debe entenderse que, dentro del alcance del concepto divulgado, la presente invención se puede practicar de otra manera que la descrita específicamente.
Para la codificación de imágenes, cada imagen consiste en una pluralidad de segmentos (slices), y cada segmento se compone de una pluralidad de unidades de codificación. Ya que una imagen de un grado de alta definición (HD) o superior tiene muchas regiones uniformes, puede mejorarse una compresión de la imagen codificando la imagen con unas unidades de codificación mayores que un MB cuyo tamaño es 16 x 16.
Un tamaño de la unidad de codificación de acuerdo con la presente invención puede ser 16 x 16, 32 x 32 o 64 x 64. Un tamaño de la unidad de codificación también puede ser de 8 x 8 o menos. Una unidad de codificación del tamaño más grande se conoce como un súper macrobloque (SMB). Un tamaño de SMB está indicado por un tamaño más pequeño de la unidad de codificación y la información de profundidad. La información de profundidad indica un valor de diferencia entre el tamaño del SMB y el tamaño más pequeño de la unidad de codificación.
Por lo tanto, las unidades de codificación que se usaran para codificar las imágenes pueden ser un SMB o un subbloque de un SMB. Las unidades de codificación se ajustan al valor por defecto o se indican en un encabezado de secuencia.
Un SMB consiste en una o más unidades de codificación. El SMB tiene una forma de un árbol de codificación recursivo con el fin de incluir las unidades de codificación y una estructura de división de las unidades de codificación. Cuando el SMB no está dividido en cuatro unidades de subcodificación, el árbol de codificación puede consistir en una información que indica que el SMB no está dividido y una unidad de codificación. Cuando el SMB esta divido en cuatro unidades de subcodificación, el árbol de codificación puede consistir en una información que indica que el SMB está dividido y cuatro árboles de subcodificación. Del mismo modo, cada árbol de sub codificación tiene la misma estructura que el SMB. Sin embargo, una unidad de codificación del tamaño de la unidad de codificación más pequeña (Smallest Coding Unit, SCU) no se divide en unidades de subcodificación.
Mientras tanto, cada unidad de codificación en el árbol de codificación se somete a una intrapredicción o a una interpredicción en unidades de la propia unidad de codificación o un subbloque. Una unidad en la que se realiza la intrapredicción o la interpredicción se denomina una unidad de predicción. Un tamaño de la unidad de predicción puede ser 2N x 2N o N x N para la intrapredicción. Un tamaño de la unidad de predicción puede ser 2N x 2N, 2N x N, N x 2N o N x N para la interpredicción. En el presente documento, 2N indica las longitudes horizontales y verticales de una unidad de codificación.
Una unidad de codificación incluye un modo de predicción de la unidad de predicción y la información de tamaño (modo parte) en la unidad de predicción. Para mejorar la eficiencia de codificación, el modo de predicción y la información de tamaño pueden combinarse y codificarse conjuntamente. En este caso, cada unidad de codificación incluye un tipo de predicción codificada conjuntamente (tipo_pred).
Una unidad de codificación incluye uno o más contenedores de información adicional. Cada contenedor de información adicional contiene la información adicional necesaria para generar un bloque de predicción de cada unidad de predicción. En la intrapredicción, la información adicional incluye la información de intrapredicción codificada. En la interpredicción, la información adicional incluye la información de movimiento codificada. La información de movimiento incluye un vector de movimiento y un índice de imagen de referencia.
Una unidad de codificación también incluye un contenedor de señal residual para señales residuales de la unidad de codificación. El contenedor de señal residual contiene un árbol de transfromación, un contenedor de señal residual de luminancia y dos contenedores de señal residual de crominancia. El árbol de transfromación indica si existen o no las señales residuales de las unidades de transformación en el contenedor de señal residual. El contenedor de señales residuales consiste en una estructura de árbol recursiva. El contenedor de señal residual para la unidad de codificación es un ejemplo. Si la unidad de codificación no está dividida en cuatro unidades de subcodificación, el contenedor de señal residual contiene la información de cuantificación (un parámetro de cuantificación residual) y una señal residual codificada. Si la unidad de codificación se divide en cuatro unidades de subcodificación, el contenedor de señales residuales contiene la información de cuantificación y cuatro subcontenedores de señal residual. Cada subcontenedor de señal residual tiene la misma estructura del contenedor de señal residual de la unidad de codificación, pero no contiene la información de cuantificación.
Mientras tanto, solo se describe un caso en el que la unidad de codificación se divide igualmente en unidades de predicción. Sin embargo, cuando se usa la división igual descrita anteriormente para una imagen que tiene un límite en una dirección específica o en una posición específica de acuerdo con una característica, se usan diferentes unidades de predicción para piezas de datos similares en el límite y una señal residual no puede reducirse eficazmente.
En este caso, para comprimir una señal residual, puede ser más eficaz dividir un SMB o un MB en una dirección específica de acuerdo con una forma del límite de la imagen y realizar una intra o interpredicción.
El modo de adaptación más simple es dividir una unidad de codificación en dos bloques usando una línea recta con el fin de extraer la dependencia estadística de una región de predicción de la topografía local. Un límite de una imagen se corresponde con la línea recta y se divide. En este caso, las direcciones divisibles pueden estar limitadas a un número predeterminado. Por ejemplo, un procedimiento de dividir un bloque puede estar limitado a cuatro direcciones de las direcciones horizontal, vertical, diagonal hacia arriba y diagonal hacia abajo. Además, la división puede estar limitada a solo las direcciones horizontal y vertical. El número de direcciones divisibles puede ser de tres, cinco, siete y así sucesivamente. El número de direcciones divisibles puede variar de acuerdo con un tamaño del bloque de codificación. Por ejemplo, para una unidad de codificación de un tamaño grande, el número de direcciones divisibles puede aumentarse de manera relativa.
En una interpredicción, cuando una unidad de codificación se divide en dos unidades de predicción para una predicción de adaptación más, la estimación de movimiento y la compensación de movimiento deberían realizarse en cada una de las unidades de predicción. Se obtiene la información de movimiento para cada unidad de predicción y se codifica una señal residual entre un bloque de predicción obtenido de la información de movimiento para cada unidad de predicción.
Después de obtener las señales residuales para los dos bloques de predicción respectivos divididos de una unidad de codificación, las dos señales residuales pueden añadirse para generar una señal residual para una unidad de codificación. La señal residual para una unidad de codificación se transforma y se codifica. En este caso, existe una alta posibilidad de que haya una diferencia entre las distribuciones globales de las señales residuales de los dos bloques de predicción respectivos con el centro del límite y, por lo tanto, puede generarse una señal residual de una unidad de codificación multiplicando un valor de una región cualquiera por un valor predeterminado. Además, puede hacerse que la región límite de las dos señales residuales se superponga, y puede realizarse el suavizado en la región límite superpuesta para generar una señal residual.
En otro procedimiento, puede generarse un bloque realizando un relleno de acuerdo con las regiones de división respectivas del bloque, y codificarse. En otras palabras, cuando una región de división actual se codifica entre las dos regiones de división, un bloque puede configurarse rellenando otra región de división que constituye el bloque con un valor de la región de división actual y a continuación se somete a una codificación de transfromación bidimensional (2D).
La figura 1 es un diagrama de bloques que ilustra un aparato de codificación de imágenes en movimiento de acuerdo con la presente invención.
Haciendo referencia a la figura 1, un aparato de codificación de imágenes en movimiento 100 de acuerdo con la presente invención incluye una unidad de división de imágenes 110, una unidad de transformación 120, una unidad de cuantificación 130, una unidad de escaneo 131, una unidad de codificación por entropía 140, una unidad de intrapredicción 150 150, una unidad de interpredicción 160 160, una unidad de cuantificación inversa 135, una unidad de transformación inversa 125, una unidad de procesamiento posterior 170, una unidad de almacenamiento de imágenes 180, un restador 190 y un sumador 195.
La unidad de división de imágenes 110 analiza una señal de video de entrada para dividir cada unidad de codificación más grande (Largest Coding Unit, LCU) de una imagen en unidades de codificación cada una de las cuales tiene un tamaño predeterminado, determina el modo de predicción de cada unidad de codificación, y determina el tamaño de la unidad de predicción por cada unidad de codificación. La unidad de división de imágenes 110 envía la unidad de predicción a codificar a la unidad de intrapredicción 150150 o a la unidad de interpredicción 160160 de acuerdo con el modo de predicción. Además, la unidad de división de imágenes 110 envía las unidades de predicción a codificar al restador 190.
La unidad de transformación 120 transforma un bloque residual. El bloque residual consiste en una señal residual entre un bloque original introducido y un bloque de predicción generado por la unidad de intrapredicción 150 o la unidad de interpredicción 160. El bloque residual puede consistir en una unidad de codificación. El bloque residual que consiste en una unidad de codificación se divide en unidades de transformación optimas y se transforma. Un tipo de matriz de transfromación puede determinarse de manera adaptativa de acuerdo con el modo de predicción (intra o inter). Además, una señal residual de intrapredicción tiene directividad de acuerdo con un modo de intrapredicción y, por lo tanto, una matriz de transfromación puede determinarse de manera adaptativa de acuerdo con el modo de intrapredicción. La unidad de transformación puede transformarse por dos matrices de transfromación (horizontal y vertical) unidimensionales (1D). En la interpredicción, se determina un tipo de matriz de transfromación predeterminado. En la intrapredicción, existe una alta posibilidad de que el bloque residual tenga directividad vertical cuando el modo de intrapredicción es horizontal. Por lo tanto, se aplica una matriz de enteros basada en la transfromación discreta de coseno (Discrete Cosine Transform, DCT) a la dirección vertical, y se aplica una transfromación discreta de seno (Discrete Sine Transform, DST) o una matriz de enteros basada en la transfromación de Karhunen Loeve (KLT) a la dirección horizontal. Cuando el modo de intrapredicción es vertical, se aplica una matriz de enteros basada en DST o KLT a la dirección vertical, y se aplica una matriz de enteros basada en DCT a la dirección horizontal. Además, en la intrapredicción, la matriz de transfromación puede determinarse de manera adaptativa de acuerdo con un tamaño de las unidades de transformación.
La unidad de cuantificación 130 determina un tamaño de tamaño de paso de cuantificación para cuantificar los coeficientes del bloque residual transformado. El tamaño de paso de cuantificación se determina por unidad de codificación de un tamaño predeterminado o más. El tamaño predeterminado puede ser 8 x 8 o 16x16. Usando el tamaño de paso de cuantificación determinado y una matriz de cuantificación determinada por un modo de predicción, se cuantifican los coeficientes del bloque de transformación. La unidad de cuantificación 130 usa los tamaños de paso de cuantificación de las unidades de codificación adyacentes a una unidad de codificación actual como un predictor de tamaño de paso de cuantificación de la unidad de codificación actual. La unidad 130 de cuantificación recupera secuencialmente las unidades de codificación en el siguiente orden de escaneo; una unidad de codificación izquierda de la unidad de codificación actual, una unidad de codificación superior de la unidad de codificación actual y una unidad de codificación superior izquierda de la unidad de codificación actual. A continuación, la unidad de cuantificación 130 genera el predictor de tamaño de paso de cuantificación de la unidad de codificación actual usando uno o dos tamaños de paso de cuantificación válidos. Por ejemplo, el primer tamaño de paso de cuantificación valido descubierto en el orden de escaneo puede determinarse como el predictor de tamaño de paso de cuantificación. Puede determinarse un promedio de dos tamaños de paso de cuantificación validos recuperados en el orden de escaneo como el predictor del tamaño de paso de cuantificación y se determina como el predictor del tamaño de paso de cuantificación cuando solo es válido un tamaño de paso de cuantificación. Cuando se determina el predictor del tamaño de paso de cuantificación, se transmite una diferencia entre el tamaño de paso de cuantificación y el predictor del tamaño de paso de cuantificación a la unidad de codificación por entropía 140.
Cuando un segmento se divide en unidades de codificación, puede no haber ninguna de una unidad de codificación izquierda, una unidad de codificación superior y una unidad de codificación superior izquierda de la unidad de codificación actual. Pero, puede haber una unidad de codificación previa de la unidad de codificación actual en el orden de codificación en la unidad de codificación máxima. Por lo tanto, las unidades de codificación adyacentes a la unidad de codificación actual y a la unidad de codificación previa de la unidad de codificación actual en el orden de codificación en la unidad de codificación máxima pueden ser candidatas. En este caso, el orden de escaneo anterior puede cambiarse al siguiente orden de escaneo; 1) la unidad de codificación izquierda de la unidad de codificación actual, 2) la unidad de codificación superior de la unidad de codificación actual, 3) la unidad de codificación superior izquierda de la unidad de codificación actual y 4) la unidad de codificación anterior de la unidad de codificación actual. El orden de escaneo puede cambiarse, o la unidad de codificación superior izquierda puede omitirse en el orden de escaneo.
El bloque de transformación cuantificado se proporciona a la unidad 135 de cuantificación inversa y a la unidad 131 de escaneo.
La unidad de escaneo 131 escanea los coeficientes del bloque de transformación cuantificado, convirtiendo de este modo los coeficientes en coeficientes cuantificados de 1D. Ya que la distribución de los coeficientes del bloque de transformación después de la cuantificación puede depender de un modo de intrapredicción, se determina un patrón de escaneo de coeficientes de acuerdo con el modo de intrapredicción. El patrón de escaneo de coeficientes también puede determinarse de acuerdo con el tamaño de la unidad de transformación.
La unidad de cuantificación inversa 135 cuantifica inversamente los coeficientes cuantificados. La unidad de transformación inversa 125 restablece un bloque residual del dominio espacial a partir de los coeficientes de transformación inversamente cuantificados. El sumador genera un bloque reconstruido añadiendo el bloque residual reconstruido por la unidad de transformación inversa 125 y el bloque de predicción de la unidad de intrapredicción 150 o la unidad de interpredicción 160.
La unidad de procesamiento posterior 170 realiza un procedimiento de filtrado de desbloqueo para eliminar la perturbación de bloqueo generada en una imagen reconstruida, un procedimiento de aplicación de compensación adaptativo para complementar una diferencia entre la imagen reconstruida y la imagen original por píxel y un procedimiento de filtro de bucle adaptativo para complementar una diferencia entre la imagen reconstruida y la imagen original en una unidad de codificación.
El procedimiento de filtrado de desbloqueo puede aplicarse a un límite entre unidades de predicción que tienen un tamaño predeterminado o más y un límite entre las unidades de transformación. El tamaño predeterminado puede ser 8x8. El procedimiento de filtrado de desbloqueo incluye una etapa de determinar un límite a filtrar, una etapa de determinar la intensidad de filtrado de límite a aplicar al límite, una etapa de determinar si se aplica o no un filtro de desbloqueo, y una etapa de seleccionar un filtro a aplicar al límite cuando se determina que se aplica el filtro de desbloqueo.
Aplicar o no el filtro de desbloqueo se determina de acuerdo con i) si la intensidad de filtrado de límite es o no mayor que 0 y ii) si un valor que indica la diferencia entre los píxeles límite del bloque P y del bloque Q es menor o no que un primer valor de referencia determinado de acuerdo con un parámetro de cuantificación.
Pueden existir dos o más filtros. Cuando un valor absoluto de una diferencia entre dos píxeles adyacentes al límite del bloque es igual a o mayor que un segundo valor de referencia, se selecciona un filtro débil. El segundo valor de referencia se determina por el parámetro de cuantificación y por la intensidad de filtrado de límite.
El procedimiento de aplicación de compensación adaptativo está destinado a reducir una diferencia (distorsión) entre un píxel sometido al filtro de desbloqueo y al píxel original. Puede determinarse si se realiza o no el procedimiento de aplicación de compensación adaptativo de acuerdo con imágenes o segmentos. Una imagen o segmento puede estar dividida en una pluralidad de regiones de compensación, y puede determinarse un modo de compensación por la región de compensación. Puede haber cuatro modos de compensación de borde y dos modos de compensación de banda. En el caso de un tipo de compensación de borde, se determina un tipo de borde al que pertenece cada píxel y se aplica una compensación correspondiente al tipo de borde. El tipo de borde se determina en base a la distribución de dos valores de píxeles adyacentes a un píxel actual.
El procedimiento de filtro de bucle adaptativo puede realizarse en base a un valor obtenido comparando una imagen original y una imagen reconstruida a la que se aplica el procedimiento de filtrado de desbloqueo o el procedimiento de aplicación de compensación adaptativo. Un filtro de bucle adaptativo (Adaptative Loop Filter, ALF) se detecta a través de un valor de actividad Laplaciano en base a un bloque de 4 x 4. El ALF determinado puede aplicarse a todos los píxeles incluidos en un bloque de 4 x 4 o en un bloque de 8x8. El aplicar o no un ALF puede determinarse de acuerdo con cada unidad de codificación. El tamaño y los coeficientes de un filtro de bucle pueden variar de acuerdo con cada unidad de codificación. Una cabecera de segmento puede incluir información que indica si aplicar o no el ALF a cada unidad de codificación, la información de coeficiente de filtro y la información de forma del filtro, y así sucesivamente. En el caso de componentes de crominancia, puede determinarse si se aplica o no el ALF en unidades de imagen. A diferencia de la luminancia, el filtro de bucle puede tener una forma rectangular.
La unidad de almacenamiento de imágenes 180 recibe datos de imagen de procesamiento posterior procedentes de la unidad de procesamiento posterior 160 y almacena la imagen en unidades de imagen. Una imagen puede ser una imagen en una trama o un campo. La unidad de almacenamiento de imágenes 180 tiene una memoria intermedia (no mostrada) capaz de almacenar una pluralidad de imágenes.
La unidad de interpredicción 160 realiza la estimación de movimiento usando una o más imágenes de referencia almacenadas en la unidad de almacenamiento de imágenes 180 y determina los índices de imágenes de referencia que indican las imágenes de referencia y los vectores de movimiento. De acuerdo con el índice de imágenes de referencia y el vector de movimiento, la unidad de interpredicción 160 extrae un bloque de predicción correspondiente a una unidad de predicción a codificar a partir de una imagen de referencia seleccionada entre una pluralidad de imágenes de referencia almacenadas en la unidad de almacenamiento de imágenes 180 y se emite el bloque de predicción extraído.
La unidad de intrapredicción 150 realiza la intrapredicción usando los valores de píxel reconstruidos dentro de una imagen actual. La unidad de intrapredicción 150 recibe la unidad de predicción actual a codificarse de manera predictiva, selecciona uno de un número predeterminado de modos de intrapredicción y realiza una intrapredicción. El número predeterminado de modos de intrapredicción puede depender del tamaño de la unidad de predicción actual. La unidad de intrapredicción filtra de manera adaptativa los píxeles de referencia para generar el bloque de intrapredicción. Cuando algunos de los píxeles de referencia no están disponibles, es posible generar los píxeles de referencia en las posiciones no disponibles usando uno o más píxeles de referencia disponibles.
La unidad de codificación por entropía 140 codifica por entropía los coeficientes cuantificados que son cuantificados por la unidad de cuantificación 130, la información de intrapredicción recibida de la unidad de intrapredicción 150, la información de movimiento recibida de la unidad de interpredicción 160, y así sucesivamente.
La figura 2 es un diagrama de flujo que ilustra una operación de la unidad de escaneo 131 de acuerdo con la presente invención.
Se determina si el bloque de coeficientes cuantificados actual está dividido en una pluralidad de subconjuntos (S110). La determinación se basa en un tamaño de la unidad de transformación actual. Si el tamaño de la unidad de transformación actual es mayor que un primer tamaño de referencia, los coeficientes cuantificados codificados se dividen en una pluralidad de subconjuntos. El primer tamaño de referencia puede ser 4 x 4 o 8x8. El primer tamaño de referencia puede transmitirse a un decodificador mediante una cabecera de imagen o una cabecera de segmento.
Cuando el bloque de coeficientes cuantificados no se divide en una pluralidad de subconjuntos, se determina un patrón de escaneo a aplicar al bloque de coeficientes cuantificados (S120). La etapa S120 puede realizarse antes de la etapa S110 o independientemente de la etapa S110.
Los coeficientes cuantificados del bloque de coeficientes cuantificados se escanean de acuerdo con el patrón de escaneo determinado (S130). El patrón de escaneo se determina de manera adaptativa de acuerdo con el modo de predicción y el modo de intrapredicción. En el modo de interpredicción, solo puede aplicarse un patrón de escaneo predeterminado (por ejemplo, escaneo en zigzag). En el modo de intrapredicción, puede aplicarse un patrón de escaneo determinado de acuerdo con el modo de intrapredicción. Además, puede seleccionarse un número predeterminado de patrones de escaneo para escanear los coeficientes, y la información de patrón de escaneo puede transmitirse al decodificador. En el modo de intrapredicción, puede aplicarse un patrón de escaneo determinado de acuerdo con el modo de intrapredicción. Por ejemplo, se aplica una escaneo horizontal a un modo de intrapredicción vertical y un número predeterminado de modos de intrapredicción adyacentes al modo de intrapredicción vertical. Se aplica una escaneo vertical a un modo de intrapredicción horizontal y un número predeterminado de modos de intrapredicción adyacentes al modo de intrapredicción horizontal. El número predeterminado vana de acuerdo con un número de modos de predicción permitidos de una unidad de predicción (o un número de modos de intrapredicción direccionales) o un tamaño de un bloque de predicción. Por ejemplo, si el número de modos de predicción permitidos en la unidad de predicción actual es 16, el número predeterminado puede ser dos en cada una de ambas direcciones en base al modo de intrapredicción horizontal o vertical. Si el número de modos de predicción direccionales permitidos es 33, el número predeterminado puede ser cuatro en cada una de ambas direcciones en base al modo de intrapredicción horizontal o vertical. Mientras tanto, el escaneo en zigzag se aplica a modos no direccionales. Un modo no direccional puede ser un modo de corriente continua (direct current,DC) o un modo plano.
Si se determina que el bloque de coeficientes cuantificados se divide en una pluralidad de subconjuntos, el bloque de coeficientes cuantificados se divide en una pluralidad de subconjuntos (S140). La pluralidad de subconjuntos consiste en un subconjunto principal y uno o más subconjuntos restantes. El subconjunto principal se localiza en un lado superior izquierdo y cubre un coeficiente DC, y uno o más subconjuntos restantes cubren una región diferente que el subconjunto principal.
Se determina un patrón de escaneo a aplicar a los subconjuntos (S150). El patrón de escaneo determinado se aplica a todos los subconjuntos. El patrón de escaneo se determina de manera adaptativa de acuerdo con el modo de predicción y el modo de intrapredicción. La etapa S150 puede realizarse antes de la etapa S110 o independientemente de la etapa S110.
Cuando el tamaño del bloque de coeficientes cuantificados (es decir, el tamaño de la unidad de transformación) es mayor que un segundo tamaño de referencia, el patrón de escaneo en zigzag puede aplicarse al bloque de coeficientes cuantificados. El segundo tamaño de referencia es, por ejemplo, 8 x 8. Por lo tanto, la etapa S150 se realiza cuando el primer tamaño de referencia es menor que el segundo tamaño de referencia.
En el modo de interpredicción, solo puede aplicarse un patrón de escaneo predeterminado (por ejemplo, la escaneo en zigzag) a cada subconjunto. En el modo de intrapredicción, el patrón de escaneo se determina de manera adaptativa igual que en la etapa S120.
Los coeficientes cuantificados en los subconjuntos pueden explorarse en una dirección inversa. En otras palabras, de acuerdo con el patrón de escaneo, los coeficientes cuantificados distintos de 0 pueden explorarse y codificarse por entropía en la dirección inversa comenzando con el ultimo coeficiente cuantificado distinto de 0 en los subconjuntos.
A continuación, los coeficientes cuantificados de cada subconjunto se escanean de acuerdo con el patrón de escaneo (S160). Los coeficientes cuantificados en cada subconjunto se escanean en la dirección inversa. Es decir, los coeficientes de transformación cuantificados se escanean desde un último coeficiente distinto de cero a otros coeficientes distintos de cero de acuerdo con el patrón de escaneo, y por codificación por entropía.
El escaneo en zigzag puede aplicarse para escanear los subconjuntos. Los subconjuntos pueden explorarse comenzando con el subconjunto principal a los subconjuntos restantes en una dirección hacia delante, o pueden escanearse en la dirección inversa. Un patrón de escaneo para escanear los subconjuntos puede establecerse igual que un patrón de escaneo para escanear los coeficientes cuantificados en los subconjuntos.
El aparato de codificación de imágenes en movimiento 100 de acuerdo con la presente invención transmite la información capaz de indicar una posición del ultimo coeficiente cuantificado no nulo de la unidad de transformación a un decodificador. El aparato de codificación de imágenes en movimiento 100 también transmite la información capaz de indicar una posición del último coeficiente cuantificado no nulo en cada subconjunto al decodificador. La figura 3 es un diagrama de bloques que ilustra un aparato de decodificación de imágenes en movimiento de acuerdo con la presente invención.
El aparato de decodificación de imágenes en movimiento de acuerdo con la presente invención incluye una unidad de decodificación por entropía 210, una unidad de escaneo inverso 220, una unidad de cuantificación inversa 230, una unidad de transformación inversa 240, una unidad de intrapredicción 250, una unidad de interpredicción 260, una unidad de procesamiento 270, una unidad de almacenamiento de imágenes 280, un sumador 290 y un conmutador 295.
La unidad de decodificación por entropía 210 extrae la información de intrapredicción, la información de interpredicción y la información de coeficientes cuantificados de un flujo de bits recibido. La unidad de decodificación por entropía 210 transmite la información de interpredicción a la unidad de interpredicción 260, la información de intrapredicción a la unidad de intrapredicción 250 y a la unidad 240 de transformación inversa y la información de coeficientes cuantificados inversos a la unidad de escaneo inversa 220.
La unidad de escaneo inversa 220 convierte la información de coeficientes cuantificados en un bloque de transformación cuantificado bidimensional. Uno de una pluralidad de patrones de escaneo inversa se selecciona para la conversión. El patrón de escaneo inversa se selecciona en base a al menos uno de entre el modo de predicción y el modo de intrapredicción. La operación de la unidad 220 de escaneo inversa es la misma que la operación inversa de la unidad de escaneo 131 de la figura 1. Por ejemplo, si un tamaño de una unidad de transformación actual a descodificar es mayor que el primer tamaño de referencia, cada subconjunto se escanea de manera inversa de acuerdo con el patrón de escaneo inversa seleccionado y se genera un bloque cuantificado inverso que tiene el tamaño de la unidad de transformación que usa la pluralidad de subconjuntos explorados de manera inversa.
La unidad de cuantificación inversa 230 determina un predictor de tamaño de paso de cuantificación de la unidad de codificación actual. La operación para determinar el predictor de tamaño de paso de cuantificación es igual que el procedimiento de la unidad de cuantificación 130 de la figura 1. La unidad de cuantificación inversa añade el predictor de tamaño de paso de cuantificación determinado y un tamaño de tamaño de paso de cuantificación residual recibido para generar un tamaño de paso de cuantificación de la unidad de codificación actual. La unidad de cuantificación inversa 230 restablece los coeficientes cuantificados inversos usando una matriz de cuantificación determinada por el tamaño de paso de cuantificación. La matriz de cuantificación vana de acuerdo con el tamaño del bloque actual a restablecer. La matriz de cuantificación puede seleccionarse para un bloque que tenga el mismo tamaño en base a al menos uno de un modo de predicción y un modo de intrapredicción del bloque actual.
La unidad de transformación inversa 240 transforma inversamente el bloque cuantificado inverso para restablecer un bloque residual. La matriz de transfromación inversa que se aplica al bloque cuantificado inverso se determina de manera adaptativa de acuerdo con el modo de predicción (intra o inter) y el modo de intrapredicción. El procedimiento de determinación de la matriz de transfromación inversa es el mismo que el procedimiento en la unidad de transformación 120 de la figura 1.
El sumador 290 añade el bloque residual restablecido que es restablecido por la unidad de transformación inversa 240 y un bloque de predicción generado por la unidad de intrapredicción 250 o la unidad de interpredicción 260 para generar un bloque de imagen reconstruida.
La unidad de intrapredicción 250 restablece el modo de intrapredicción del bloque actual en base a la información de intrapredicción recibida de la unidad de decodificación por entropía 210, y genera un bloque de predicción de acuerdo con el modo de intrapredicción restablecido.
La unidad de interpredicción 260 restablece los índices de imágenes de referencia y los vectores de movimiento en base a la información de interpredicción recibida de la unidad de decodificación por entropía 210, y genera un bloque de predicción usando los índices de imágenes de referencia y los vectores de movimiento. Cuando se aplica la compensación de movimiento con una precisión fraccionaria, se genera el bloque de predicción usando un filtro de interpolación.
La unidad de procesamiento posterior 270 opera igual que la unidad de procesamiento posterior 160 de la figura 1. La unidad de almacenamiento de imágenes 280 almacena la imagen reconstruida por procesamiento posterior por la unidad de procesamiento posterior 270.
La figura 4 es un diagrama de bloques que ilustra la unidad de intrapredicción 150 de una unidad de codificación de imágenes 100 en movimiento de acuerdo con la presente invención.
Haciendo referencia a la figura 4, la unidad de intrapredicción 150 incluye una unidad de generación de píxeles de referencia 151, una unidad de filtrado de píxel de referencia 152, una unidad de generación de bloques de predicción 153, una unidad de filtrado de bloque de predicción 154, una unidad de determinación de modo 155 y una unidad de codificación de modo de predicción 156 y una unidad de transmisión de bloque de predicción 157.
La unidad de generación de píxeles de referencia 151 determina que es necesario generar los píxeles de referencia para la intrapredicción, y genera los píxeles de referencia si es necesario para generar los píxeles de referencia. La figura 5 es un diagrama conceptual que muestra las posiciones de los píxeles de referencia usados para la intrapredicción de acuerdo con la presente invención. Como se muestra en la figura 5, los píxeles de referencia consisten en los píxeles de referencia superior, los píxeles de referencia de izquierda y un píxel de referencia de esquina de la unidad de predicción actual. Los píxeles de referencia superior de la unidad de predicción actual son píxeles (regiones C y D) presentes a lo largo del doble de la anchura de la unidad de predicción actual y los píxeles de referencia de izquierda de la unidad de predicción actual son píxeles (regiones A y B) presentes a lo largo del doble de la altura de la unidad de predicción actual.
La unidad de generación de píxeles de referencia 151 determina si los píxeles de referencia están disponibles o no. Si uno o más píxeles de referencia no están disponibles, la unidad de generación de píxeles de referencia 151 genera los píxeles de referencia en las posiciones no disponibles usando un píxel de referencia disponible.
En primer lugar, se describirá un caso en el que todos los píxeles de referencia en cualquiera de las regiones superior e izquierda de una unidad de predicción actual a codificar no están disponibles.
Por ejemplo, cuando la unidad de predicción actual se localiza en el límite superior de una imagen o un segmento, no existen los píxeles de referencia superior (regiones C y D) y el píxel de referencia de esquina de la unidad de predicción actual. Cuando la unidad de predicción actual se localiza en el límite izquierdo de una imagen o un segmento, no existen los píxeles de referencia de izquierda (regiones A y B) y el píxel de referencia de esquina. En esos casos, los píxeles de referencia se generan copiando el valor de un píxel disponible más cercano al píxel no disponible. Es decir, cuando la unidad de predicción actual se localiza en el límite superior de una imagen o un segmento, los píxeles de referencia superior pueden generarse copiando el píxel de referencia de izquierda más superior (es decir, un píxel de referencia localizado en la posición más alta de la región A). Cuando la unidad de predicción actual se localiza en el límite izquierdo de una imagen o un segmento, los píxeles de referencia de izquierda pueden generarse copiando el píxel de referencia superior más a la izquierda (es decir, un píxel de referencia localizado en la posición más a la izquierda de la región de C). El procedimiento mencionado anteriormente se aplica por defecto, pero el procedimiento puede variar por secuencia, imagen o segmento si es necesario.
A continuación, se describirá un caso en el que algunos de los píxeles de referencia superior o de izquierda de una unidad de predicción actual a codificar no están disponibles. Existen dos casos en los que 1) los píxeles de referencia disponibles están presentes en una sola dirección con respecto a los píxeles de referencia no disponibles, y 2) los píxeles de referencia disponibles están presentes en ambas direcciones con respecto a los píxeles de referencia no disponibles.
Se describirá el caso 1).
Por ejemplo, cuando el bloque actual se localiza en el límite derecho de una imagen o un segmento o una LCU, los píxeles de referencia que cubren la zona D no están disponibles. Además, cuando el bloque actual se localiza en el límite inferior de una imagen o de un segmento o una LCU, los píxeles de referencia que cubren la zona B no están disponibles. En este caso, los píxeles de referencia se generan copiando los valores de los píxeles disponibles más cercanos al píxel no disponible. Además, los píxeles de referencia se generan usando dos o más píxeles disponibles más cercanos al píxel no disponible.
Se describirá el caso 2).
Por ejemplo, cuando el bloque actual se localiza en el límite superior de un segmento y el bloque superior izquierdo del bloque actual está disponible, los píxeles de referencia que cubren la zona C no están disponibles, pero los píxeles de referencia que cubren las zonas A y D están disponibles. Cuando los píxeles de referencia disponibles están por lo tanto presentes en ambas direcciones, se selecciona un píxel de referencia disponible presente en la posición más cercana en cada dirección, y los píxeles de referencia en las posiciones no disponibles se generan usando los píxeles de referencia seleccionados (es decir, el píxel de referencia más alto en la región A y el píxel de referencia más a la izquierda en la región D).
Un valor obtenido redondeando un promedio de los dos píxeles de referencia (píxeles presentes en las posiciones más cercanas en las direcciones respectivas) puede generarse como un valor de píxel de referencia. Sin embargo, cuando una región de píxel de referencia no disponible es grande, existe una alta posibilidad de que se produzca una diferencia de paso entre un píxel disponible y un píxel generado, y por lo tanto es útil para generar los píxeles de referencia usando la interpolación lineal. Específicamente, en consideración de una posición con respecto a dos píxeles de referencia disponibles, puede generarse un píxel de referencia disponible en la posición actual.
A continuación, se describirá un caso en el que todos los píxeles de referencia en los lados superior e izquierdo de una unidad de predicción actual a codificar no están disponibles. Por ejemplo, cuando una unidad de predicción actual es adyacente a un límite superior izquierdo de una imagen o un segmento, no hay píxeles de referencia disponibles.
En este caso, algunos o todos los píxeles de referencia pueden generarse usando dos o más píxeles presentes en la unidad de predicción actual. El número de píxeles que están presentes en la unidad de predicción actual y que se usan para generar los píxeles de referencia pueden ser dos o tres.
La figura 6 es un diagrama de flujo que ilustra un procedimiento de generación de píxeles de referencia de acuerdo con la presente invención.
Haciendo referencia a la figura 6, el procedimiento de generación de píxeles de referencia que usa dos píxeles es de la siguiente manera. Pueden usarse un píxel superior izquierdo o y uno de un píxel superior derecho □, un píxel inferior izquierdo A y un píxel inferior derecho V de la unidad de predicción actual. Cuando se usan el píxel superior izquierdo o y el píxel superior derecho □ de la unidad de predicción actual, el píxel superior izquierdo y el píxel superior derecho se copian en las posiciones correspondientes en un lado superior y el píxel superior derecho y los píxeles de referencia copiados se usan para generar los píxeles de referencia que cubren la zona C. Los píxeles de referencia se generan usando una interpolación promedio o lineal. Los píxeles de referencia que cubren D se generan copiando el píxel superior derecho □ o usando una pluralidad de los píxeles superior generados. Cuando se usan el píxel superior izquierdo o y el píxel inferior izquierdo A de la unidad de predicción actual, se aplica el mismo procedimiento. Cuando se usan el píxel superior izquierdo o y el píxel inferior derecho V , el píxel inferior derecho V se copia en la posición de píxel de referencia correspondiente en la dirección horizontal y en la dirección vertical y a continuación se generan los píxeles de referencia residuales de la misma manera como se ha descrito anteriormente.
El procedimiento de generación de píxeles de referencia que usa tres píxeles es de la siguiente manera. Pueden usarse un píxel superior izquierdo o, un píxel superior derecho □, y un píxel inferior izquierdo A de la unidad de predicción actual. Los píxeles se copian en la posición de píxel de referencia correspondiente y a continuación, se generan los píxeles de referencia residuales usando los píxeles copiados. Los píxeles de referencia residuales se generan de la misma manera como se ha descrito anteriormente.
Mientras tanto, cuando se usa un procedimiento como se ha descrito anteriormente, los valores de los píxeles usados para generar los píxeles de referencia se transmiten al decodificador. Para minimizar la cantidad de bits a transmitir, el valor del píxel superior izquierdo o, y la diferencia entre el valor del píxel superior izquierdo o, y los valores de otros píxeles. El valor del píxel superior izquierdo puede ser un valor cuantificado o codificarse por entropía.
Cuando un tipo de segmento es intra (I), es más eficaz generar los píxeles de referencia usando dos o más píxeles. Se describirá otro procedimiento de generación de píxeles de referencia cuando todos los píxeles de referencia en los lados superior e izquierdo de una unidad de predicción actual a codificar no están disponibles. Este procedimiento es eficaz cuando un tipo de segmento no es intra (I).
En primer lugar, se determina si los píxeles están presentes en las mismas posiciones que los píxeles de referencia de una unidad de predicción actual en una imagen de referencia codificada anteriormente para un bloque actual. Cuando los píxeles están presentes, los píxeles de la imagen de referencia se copian para generar los píxeles de referencia de la unidad de predicción actual.
Cuando los píxeles no están presentes, se determina si los píxeles están presentes en las posiciones más cercanas (1 píxel de distancia) para hacer referencia a los píxeles de la unidad de predicción actual. Cuando los píxeles están presentes, los píxeles se copian y se usan como los píxeles de referencia de la unidad de predicción actual.
La unidad de filtrado de píxel de referencia 152 filtra de manera adaptativa los píxeles de referencia de la unidad de predicción actual. Se aplica un filtro de paso bajo para suavizar una varianza de los valores de píxel entre los píxeles de referencia. El filtro de paso bajo puede ser un filtro de 3 derivaciones (3-tap filter) [1, 2, 1] o un filtro de 5 derivaciones (5-tap filter) [1, 2, 4, 2, 1].
El filtro puede aplicarse de manera adaptativa de acuerdo con un tamaño del bloque actual. Si el tamaño del bloque actual es igual a o menor que un tamaño predeterminado, el filtro no puede aplicarse. El tamaño predeterminado puede ser de 4x4.
El filtro también puede aplicarse de manera adaptativa de acuerdo con un tamaño del bloque actual y el modo de intrapredicción.
Si el modo de intrapredicción es el modo horizontal o el modo vertical, se generan los píxeles de un bloque de predicción usando un píxel de referencia. Por lo tanto, no se aplica un filtro en el modo horizontal y en el modo vertical. En el modo DC, se genera un píxel de predicción usando la media de los píxeles de referencia. Por lo tanto, no se aplica un filtro en el modo DC debido a que el píxel de predicción no se ve afectado por la diferencia entre los píxeles de referencia.
En el modo de intrapredicción 3, 6 o 9 que tiene una dirección de 45° con respecto a la dirección horizontal o vertical, se aplica un filtro, independientemente del tamaño de la unidad de predicción o se aplica cuando el bloque actual es mayor que una unidad de predicción más pequeña. Un primer filtro puede aplicarse a una unidad de predicción que tiene un tamaño más pequeño que un tamaño predeterminado, y puede aplicarse un segundo filtro más fuerte que el primer filtro a una unidad de predicción que tiene un tamaño igual a o mayor que el tamaño predeterminado. El tamaño predeterminado puede ser 16 x 16.
En los modos de intrapredicción diferentes del modo vertical, el modo horizontal, el modo DC y el modo de intrapredicción 3, 6 y 9, puede aplicarse un filtro de manera adaptativa de acuerdo con el tamaño de la unidad de predicción actual y el modo de intrapredicción. Sin embargo, en el modo plano, puede realizarse el filtrado de los píxeles de referencia.
Además, el filtro no puede aplicarse a algunos o a todos los píxeles de referencia generados a través de la combinación lineal.
La unidad de generación de bloques de predicción 153 genera un bloque de predicción correspondiente al modo de intrapredicción. El bloque de predicción se genera usando los píxeles de referencia o una combinación lineal de los píxeles de referencia en base al modo de intrapredicción. Los píxeles de referencia que se usan para generar el bloque de predicción pueden filtrarse por la unidad de filtrado de píxel de referencia 152.
La unidad de filtrado de bloque de predicción 154 filtra de manera adaptativa el bloque de predicción generado de acuerdo con el modo de intrapredicción para minimizar la señal residual entre el bloque de predicción y el bloque actual a codificar. La diferencia entre un píxel de referencia y un píxel de predicción adyacente al píxel de referencia vana de acuerdo con el modo de intrapredicción. Por lo tanto, el filtrado del píxel de predicción adyacente al píxel de referencia permite que se disminuya la diferencia.
En el modo DC, el bloque de predicción consiste en las medias de los píxeles de referencia, y puede producirse una diferencia de paso entre los píxeles en un bloque de predicción adyacente a los píxeles de referencia. Por lo tanto, los píxeles de predicción de la línea superior y de la línea izquierda que son adyacentes a los píxeles de referencia se filtran usando los píxeles de referencia. El píxel de predicción superior izquierdo adyacente a dos píxeles de referencia (el píxel de referencia superior y el píxel de referencia izquierdo) se filtra por un filtro de 3 derivaciones. Los otros píxeles de predicción (los píxeles de la línea superior y los píxeles de la línea izquierda en el bloque de predicción) y adyacentes a un píxel de referencia se filtran por el filtro de 2 derivaciones.
La unidad de filtrado de bloque de predicción 154 puede estar integrada en la unidad de generación de bloques de predicción 153. Además, puede generarse un bloque de predicción para producir efectos del filtrado de bloque de predicción. En este caso, el bloque de predicción se genera usando la combinación de la operación de generación y de la operación de filtrado.
La unidad de determinación de modo de intrapredicción 155 determina el modo de intrapredicción de una unidad de predicción actual usando los píxeles de referencia. La unidad de determinación de modo de intrapredicción 155 selecciona un modo de intrapredicción en el que la cantidad de bits de codificación de un bloque residual se minimiza como el modo de intrapredicción de la unidad de predicción actual. Para generar un bloque residual, se genera un bloque de predicción de acuerdo con cada modo de intrapredicción. El bloque de predicción puede generarse usando los píxeles de referencia filtrados por la unidad de filtrado de píxeles de referencia 152 o puede ser un bloque filtrado por la unidad de filtrado de bloques de predicción 154.
La unidad de transmisión de bloques de predicción 157 transmite el bloque de predicción generado en base al modo de intrapredicción por la unidad de determinación de modo de intrapredicción 155 al restador 190.
La unidad de codificación de modo de predicción 156 codifica el modo de intrapredicción de la unidad de predicción actual determinado por la unidad de determinación de modo de intrapredicción 155. La unidad de codificación de modo de predicción 156 puede estar integrada en la unidad de intrapredicción 150 o en la unidad de codificación por entropía 140.
La unidad de codificación de modo de predicción 156 codifica el modo de intrapredicción de la unidad de predicción actual usando un modo de intrapredicción superior de la unidad de predicción actual y un modo de intrapredicción izquierdo de la unidad de predicción actual.
En primer lugar, se obtienen el modo de intrapredicción superior y el modo de intrapredicción izquierdo de la unidad de predicción actual. Cuando existe una pluralidad de unidades de predicción superior de la unidad de predicción actual, la pluralidad de unidades de predicción anteriores se escanea en una dirección predeterminada (por ejemplo, de derecha a izquierda) para determinar el modo de intrapredicción de una primera unidad de predicción disponible como un modo de intrapredicción superior. Además, cuando existe una pluralidad de unidades de predicción izquierdas de la unidad de predicción actual, la pluralidad de unidades de predicción izquierdas se escanea en una dirección predeterminada (por ejemplo, de abajo hacia arriba) para determinar el modo de intrapredicción de una primera unidad de predicción disponible como un modo de intrapredicción izquierdo. Como alternativa, entre una pluralidad de unidades de predicción disponibles, el modo de intrapredicción de una unidad de predicción disponible que tiene el número de modo de predicción más bajo puede establecerse como un modo de intrapredicción superior. Cuando el modo de intrapredicción superior o el modo de intrapredicción izquierdo no están disponibles, el modo DC (modo 2) puede establecerse como el modo de intrapredicción superior o como el modo de intrapredicción izquierdo. El modo de intrapredicción superior o el modo de intrapredicción izquierdo se trata como no disponible cuando no existe una unidad de predicción correspondiente.
A continuación, el modo de intrapredicción superior o el modo de intrapredicción izquierdo se convierte en uno del número predeterminado de los modos de intrapredicción cuando el número de modo de intrapredicción superior o el número de modo de intrapredicción izquierdo es igual a o mayor que el número de modos de intrapredicción permisibles para la unidad de predicción actual. El número predeterminado puede variar de acuerdo con un tamaño de la unidad de predicción actual. Por ejemplo, cuando el tamaño de la unidad de predicción actual es 4x4, el modo de intrapredicción se convierte en uno de los nueve modos (modo 0 a modo 8), y cuando el tamaño de la unidad de predicción actual es 64 x 64, el modo de intrapredicción se mapea en uno de tres modos (modo 0 a modo 2). El modo de intrapredicción puede convertirse en uno de los modos de intrapredicción permisibles para la unidad de predicción actual.
A continuación, si el modo de intrapredicción de la unidad de predicción actual es el mismo que uno cualquiera de los modos de intrapredicción superior e izquierdo, se transmiten al decodificador una bandera que indica que el modo de intrapredicción de la unidad de predicción actual es el mismo que uno cualquiera los modos de intrapredicción superior e izquierdo y una bandera que indica uno de los modos de intrapredicción superior e izquierdo. En este caso, si los modos de intrapredicción superior e izquierdo son los mismos, puede omitirse la bandera que indica uno de los modos de intrapredicción superior e izquierdo. Además, si solo uno de los modos de intrapredicción superior e izquierdo está disponible y el modo de intrapredicción disponible es el mismo que el modo de intrapredicción del bloque de predicción actual, puede omitirse la bandera que indica uno de los modos de intrapredicción superior e izquierdo.
Pero, si el modo de intrapredicción de la unidad de predicción actual no es el mismo que uno cualquiera de los modos de intrapredicción superior e izquierdo, el número de modo de intrapredicción de la unidad de predicción actual se compara con el número de modo de intrapredicción superior y con el número de modo de intrapredicción izquierdo. El número de casos en los que los números de modo de intrapredicción izquierdo o superior es no mayor que el número de modo de intrapredicción de la unidad de predicción actual se calcula, y el valor obtenido restando el número de casos del número de modo de intrapredicción de la unidad de predicción actual se determina como un número de modo de intrapredicción final de la unidad de predicción actual a transmitir. En este caso, cuando los números de modo de intrapredicción izquierdo y superior son idénticos, los modos de intrapredicción superior e izquierdo se consideran como uno.
De acuerdo con si los modos de intrapredicción superior e izquierdo son idénticos o no, se determina una tabla para la codificación por entrada del modo de intrapredicción final determinado.
La figura 7 es un diagrama de bloques que ilustra la unidad de intrapredicción 250 de un aparato de descodificación de imágenes en movimiento 200 de acuerdo con la presente invención.
La unidad de intrapredicción 250 de acuerdo con la presente invención incluye una unidad de decodificación de modo de predicción 251, una unidad de generación de píxeles de referencia 252, una unidad de filtrado de píxeles de referencia 253, una unidad de generación de bloques de predicción 254, una unidad de filtrado de bloques de predicción 255 y una unidad de transmisión de bloques de predicción 256.
La unidad de decodificación de modo de predicción 251 restablece el modo de intrapredicción de una unidad de predicción actual de la siguiente manera.
En primer lugar, la unidad de decodificación de modo de predicción 251 recibe la información adicional incluida en el contenedor de información adicional para generar un bloque de predicción. La información adicional incluye una bandera de predicción y la información de predicción residual. La bandera de predicción indica si el modo de intrapredicción de la unidad de predicción actual es el mismo que uno de los modos de intrapredicción de las unidades de predicción adyacentes. La información de predicción residual incluye la información determinada por la bandera de predicción. Si la bandera de predicción es 1, la información de predicción residual puede incluir un índice del modo de intrapredicción candidato. El índice del modo de intrapredicción designa el modo de intrapredicción candidato. Si la bandera de predicción es 0, la información residual puede incluir el número de modo de intrapredicción residual.
Se obtienen los modos de intrapredicción candidatos de la unidad de predicción actual. Los modos de intrapredicción candidatos se obtienen usando los modos de intrapredicción de las unidades de predicción adyacentes. Por conveniencia, se describirá un caso en el que el modo de intrapredicción candidato de la unidad de predicción actual se limita a los modos de intrapredicción superior e izquierdo. Cuando existe una pluralidad de unidades de predicción superiores o una pluralidad de unidades de predicción izquierdas, el modo de intrapredicción de la unidad de predicción superior o izquierda se determina del mismo como se ha descrito en la operación de la unidad de codificación de modo de intrapredicción 156 del aparato de codificación 100. Además, cuando el número de modo de un modo de intrapredicción candidato disponible es igual a o mayor que el número de modos de intrapredicción permisibles para la unidad de predicción actual, el modo de intrapredicción candidato disponible se convierte en uno de los modos permisibles para la unidad de predicción actual como se ha descrito en la unidad de codificación de modo de intrapredicción 156.
A continuación, cuando la bandera de predicción recibida indica que la unidad de predicción actual tiene el mismo modo de intrapredicción que una unidad de predicción adyacente, y existe el índice de modo de predicción candidato, se determina un modo de predicción indicado por el índice de modo de predicción candidato como el modo de intrapredicción de la unidad de predicción actual.
Si la bandera de predicción recibida indica que la unidad de predicción actual tiene el mismo modo de intrapredicción que una unidad de predicción adyacente, pero no existe un índice de modo de predicción candidato y un modo de intrapredicción disponible de la unidad de predicción adyacente, se restablece el modo de intrapredicción disponible al modo de intrapredicción de la unidad de predicción actual.
Si la bandera de predicción recibida indica que la unidad de predicción actual no tiene el mismo modo de intrapredicción que una unidad de predicción adyacente, se compara un valor de modo de intrapredicción residual recibido con los números de modo de intrapredicción de los modos de intrapredicción disponibles candidatos para restablecer el modo de intrapredicción de la unidad de predicción actual.
La unidad de generación de píxeles de referencia 252 genera los píxeles de referencia usando el mismo procedimiento que el descrito en la unidad de generación de píxeles de referencia 151 del aparato de codificación 100. Sin embargo, la unidad de generación de píxeles de referencia 252 es diferente del generador de píxeles de referencia 151 del aparato de codificación 100 en que se generan de manera adaptativa los píxeles de referencia de acuerdo con el modo de intrapredicción restablecido por el decodificador de modo de predicción 251. Es decir, la unidad de generación de píxeles de referencia 252 puede generar los píxeles de referencia solo cuando los píxeles de referencia usados para generar un bloque de predicción y determinados por el modo de intrapredicción no están disponibles.
La unidad de filtrado de píxeles de referencia 253 filtra de manera adaptativa los píxeles de referencia en base al modo de intrapredicción restablecido por la unidad de decodificación de modo de predicción 251 y un tamaño de bloque de predicción. La condición de filtrado y un filtro son los mismos que los de la unidad de filtrado de píxeles de referencia 152 del aparato de codificación 100.
La unidad de generación de bloques de predicción 254 genera un bloque de predicción usando los píxeles de referencia de acuerdo con el modo de intrapredicción restablecido por la unidad de decodificación de modo de predicción 251.
La unidad de filtrado de bloques de predicción 255 filtra de manera adaptativa el bloque de predicción de acuerdo con el modo de intrapredicción restablecido por la unidad de decodificación de modo de predicción 251. La operación de filtrado es el mismo que el de la unidad de filtrado de bloques de predicción 154 del aparato de codificación 100.
La unidad de transmisión de bloques de predicción 256 transmite el bloque de predicción recibido del generador de bloques de predicción 254 o de la unidad de filtrado de bloques de predicción 255 al sumador 290.

Claims (2)

REIVINDICACIONES
1. Un aparato para decodificar una imagen, comprendiendo el aparato:
una unidad de decodificación por entropía (210) configurada para restaurar un modo de intrapredicción y coeficientes cuantificados unidimensionales (1D);
una unidad de escaneo inverso (220) configurada para escanear inversamente los coeficientes cuantificados 1D en unidades de subbloques para generar un bloque de transformación cuantificado;
una unidad de cuantificación inversa (230) configurada para cuantificar inversamente el bloque de transformación cuantificado usando un tamaño de paso de cuantificación para generar un bloque de transformación;
una unidad de transformación inversa (240) configurada para transformar inversamente el bloque de transformación para generar un bloque residual;
una unidad de intrapredicción (250) configurada para generar un bloque de predicción correspondiente a un bloque actual de acuerdo con el modo de intrapredicción; y
una unidad de adición (290) configurada para restaurar un bloque original sumando el bloque residual y el bloque de predicción,
en el que la unidad de escaneo inverso restaura una pluralidad de subbloques aplicando un primer patrón de escaneo determinado de acuerdo con el modo de intrapredicción a los coeficientes cuantificados 1D, y restaura el bloque de transformación cuantificado aplicando un segundo patrón de escaneo determinado de acuerdo con el modo de intrapredicción a la pluralidad de subbloques,
en el que, cuando el modo de intrapredicción es un modo horizontal, el segundo patrón de escaneo es un escaneo vertical,
en el que el primer patrón de escaneo es el mismo que el segundo patrón de escaneo, y
en el que la unidad de intrapredicción (250) incluye:
una unidad de generación de píxeles de referencia (252) configurada para generar píxeles de referencia utilizando píxeles de referencia disponibles del bloque actual cuando existen píxeles de referencia no disponibles;
una unidad de filtrado de píxeles de referencia (253) configurada para filtrar adaptativamente los píxeles de referencia adyacentes al bloque actual en base al modo de intrapredicción y un tamaño del bloque actual; una unidad de generación de bloques de predicción (254) configurada para generar un bloque de predicción del bloque actual de acuerdo con el modo de intrapredicción; y
una unidad de filtrado de bloques de predicción (255) configurada para filtrar de manera adaptativa algunos píxeles de predicción del bloque de predicción en base al modo de intrapredicción y el tamaño del bloque actual.
2. El aparato de la reivindicación 1, en el que la unidad de escaneo inverso restaura el bloque de transformación cuantificado aplicando el segundo patrón de escaneo a la pluralidad de subbloques en una dirección inversa.
ES17160965T 2010-07-31 2011-07-29 Aparato para decodificar una imagen Active ES2700621T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20100074462 2010-07-31
KR1020110062603A KR101373814B1 (ko) 2010-07-31 2011-06-28 예측 블록 생성 장치

Publications (1)

Publication Number Publication Date
ES2700621T3 true ES2700621T3 (es) 2019-02-18

Family

ID=45559906

Family Applications (6)

Application Number Title Priority Date Filing Date
ES17160967T Active ES2701700T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES17160949T Active ES2733115T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160956T Active ES2721768T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160963T Active ES2720652T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES15187283.5T Active ES2634819T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160965T Active ES2700621T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen

Family Applications Before (5)

Application Number Title Priority Date Filing Date
ES17160967T Active ES2701700T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES17160949T Active ES2733115T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160956T Active ES2721768T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES17160963T Active ES2720652T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES15187283.5T Active ES2634819T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen

Country Status (17)

Country Link
US (11) US9319715B2 (es)
EP (7) EP3211898B1 (es)
JP (8) JP5928957B2 (es)
KR (1) KR101373814B1 (es)
CN (11) CN106878720B (es)
CY (5) CY1119258T1 (es)
DK (5) DK3214838T3 (es)
ES (6) ES2701700T3 (es)
HR (5) HRP20171277T1 (es)
HU (5) HUE045031T2 (es)
LT (5) LT2988501T (es)
PL (6) PL3197160T3 (es)
PT (5) PT3197160T (es)
RS (5) RS58484B1 (es)
SI (5) SI3197160T1 (es)
TR (1) TR201815076T4 (es)
WO (1) WO2012018198A2 (es)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8867854B2 (en) * 2008-10-01 2014-10-21 Electronics And Telecommunications Research Institute Image encoder and decoder using undirectional prediction
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
EP2947878B1 (en) * 2010-04-23 2017-02-15 M&K Holdings Inc. Apparatus for encoding an image
KR101373814B1 (ko) * 2010-07-31 2014-03-18 엠앤케이홀딩스 주식회사 예측 블록 생성 장치
CN102595118B (zh) * 2011-01-14 2015-04-08 华为技术有限公司 一种编解码中的预测方法和预测器
WO2012134046A2 (ko) 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
CN103609110B (zh) * 2011-06-13 2017-08-08 太阳专利托管公司 图像解码方法、图像编码方法、图像解码装置、图像编码装置及图像编码解码装置
KR20120140181A (ko) * 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
MX343471B (es) 2011-08-29 2016-11-07 Ibex Pt Holdings Co Ltd Metodo para generar un bloque de prediccion en modo de prediccion de vector de movimiento avanzada (amvp).
KR20130049523A (ko) 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
PL2869557T3 (pl) * 2012-06-29 2024-02-19 Electronics And Telecommunications Research Institute Sposób i urządzenie do kodowania/dekodowania obrazów
JP5798539B2 (ja) * 2012-09-24 2015-10-21 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP6171627B2 (ja) * 2013-06-28 2017-08-02 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法および画像復号プログラム
JP6352141B2 (ja) * 2014-09-30 2018-07-04 Kddi株式会社 動画像符号化装置、動画像復号装置、動画像圧縮伝送システム、動画像符号化方法、動画像復号方法、およびプログラム
CN105812823B (zh) * 2014-12-31 2019-04-05 扬智科技股份有限公司 Hevc中帧内预测的参考像素替换方法与装置
EP3286917A1 (en) * 2015-05-21 2018-02-28 Huawei Technologies Co. Ltd. Apparatus and method for video motion compensation
KR102605285B1 (ko) * 2015-08-19 2023-11-24 엘지전자 주식회사 다중 그래프 기반 모델에 따라 최적화된 변환을 이용하여 비디오 신호를 인코딩/디코딩하는 방법 및 장치
JP5933086B2 (ja) * 2015-08-21 2016-06-08 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
KR20170026276A (ko) 2015-08-28 2017-03-08 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2017043763A1 (ko) * 2015-09-10 2017-03-16 삼성전자 주식회사 부호화 장치, 복호화 장치, 그 부호화 및 복호화 방법
JP6088689B2 (ja) * 2016-04-28 2017-03-01 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
WO2017222334A1 (ko) 2016-06-24 2017-12-28 한국전자통신연구원 변환 기반의 영상 부호화/복호화 방법 및 장치
CN109479138B (zh) * 2016-07-13 2023-11-03 韩国电子通信研究院 图像编码/解码方法和装置
KR102447450B1 (ko) * 2016-09-05 2022-09-26 엘지전자 주식회사 영상 부호화/복호화 방법 및 이를 위한 장치
US10694202B2 (en) * 2016-12-01 2020-06-23 Qualcomm Incorporated Indication of bilateral filter usage in video coding
JP6242517B2 (ja) * 2017-02-03 2017-12-06 株式会社Nttドコモ 動画像予測復号装置及び動画像予測復号方法
EP3410708A1 (en) 2017-05-31 2018-12-05 Thomson Licensing Method and apparatus for intra prediction with interpolation
JP6770192B2 (ja) 2017-06-01 2020-10-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 符号化装置、符号化方法、復号装置及び復号方法
US20200154103A1 (en) * 2017-07-04 2020-05-14 Lg Electronics Inc. Image processing method on basis of intra prediction mode and apparatus therefor
CN110892723B (zh) 2017-07-06 2024-04-12 三星电子株式会社 用于编码或解码图像的方法和装置
CN109429064B (zh) * 2017-08-22 2021-03-30 华为技术有限公司 一种视频数据的编解码方法、装置和介质
JP7210568B2 (ja) * 2017-10-13 2023-01-23 フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン ブロック単位の画像符号化のためのイントラ予測モード概念
JP6408681B2 (ja) * 2017-11-07 2018-10-17 株式会社Nttドコモ 動画像予測復号方法
US11166039B2 (en) * 2018-01-17 2021-11-02 Intellectual Discovery Co., Ltd. Method and device for video coding using various transform techniques
KR102448401B1 (ko) 2018-03-16 2022-09-28 엘지전자 주식회사 인트라 예측 기반 영상/비디오 코딩 방법 및 그 장치
KR20220107090A (ko) * 2018-05-10 2022-08-01 삼성전자주식회사 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
MX2020014112A (es) 2018-06-25 2021-06-15 Guangdong Oppo Mobile Telecommunications Corp Ltd Método y dispositivo de predicción intra-trama.
CN110650337B (zh) * 2018-06-26 2022-04-01 中兴通讯股份有限公司 一种图像编码方法、解码方法、编码器、解码器及存储介质
TWI764012B (zh) * 2018-06-29 2022-05-11 弗勞恩霍夫爾協會 擴充參考圖像內預測技術
JP6602931B2 (ja) * 2018-09-20 2019-11-06 株式会社Nttドコモ 動画像予測復号方法
US11102513B2 (en) 2018-12-06 2021-08-24 Tencent America LLC One-level transform split and adaptive sub-block transform
CN110166773B (zh) * 2019-06-25 2021-08-31 浙江大华技术股份有限公司 帧内预测方法、视频编码方法、视频处理装置、存储介质
MX2021011036A (es) 2019-09-24 2021-10-13 Guangdong Oppo Mobile Telecommunications Corp Ltd Procedimientos de determinacion del valor de prediccion, codificador, decodificador y medio de almacenamiento informatico.

Family Cites Families (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100242635B1 (ko) * 1996-01-25 2000-02-01 윤종용 가변장 부호화 및 가변장 복호화 시스템
ES2190935T3 (es) * 1996-05-28 2003-09-01 Matsushita Electric Ind Co Ltd Procedimiento y dispositivo de anticipacion y de codificado/descodificado de imagen.
CN100539695C (zh) * 1996-05-28 2009-09-09 松下电器产业株式会社 图像预测编码/解码装置和方法以及记录媒体
KR100656296B1 (ko) * 2001-09-12 2006-12-11 마쯔시다덴기산교 가부시키가이샤 화상 부호화 방법 및 화상 복호화 방법
KR100798446B1 (ko) 2001-09-26 2008-01-28 에스케이 텔레콤주식회사 적응적 더블 스캔 방법
DE10158658A1 (de) * 2001-11-30 2003-06-12 Bosch Gmbh Robert Verfahren zur gerichteten Prädiktion eines Bildblockes
CN101448162B (zh) * 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
EP1512115B1 (en) 2002-06-11 2013-12-18 Nokia Corporation Spatial prediction based intra coding
KR100846778B1 (ko) 2002-07-16 2008-07-16 삼성전자주식회사 복수개의 주사 패턴을 이용한 부호화 방법, 복호화 방법,및 그 장치
US7227901B2 (en) * 2002-11-21 2007-06-05 Ub Video Inc. Low-complexity deblocking filter
JP2004180064A (ja) 2002-11-28 2004-06-24 Ricoh Co Ltd 情報圧縮装置および方法、ならびにそのプログラム
US7289562B2 (en) * 2003-08-01 2007-10-30 Polycom, Inc. Adaptive filter to improve H-264 video quality
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
CN100542262C (zh) * 2004-01-30 2009-09-16 松下电器产业株式会社 逆量化方法图像解码方法和设备及处理器
US7869503B2 (en) * 2004-02-06 2011-01-11 Apple Inc. Rate and quality controller for H.264/AVC video coder and scene analyzer therefor
JP2006054846A (ja) 2004-07-12 2006-02-23 Sony Corp 符号化方法、符号化装置、復号方法、復号装置およびそれらのプログラム
CN1633180A (zh) * 2004-12-24 2005-06-29 海信集团有限公司 基于变换和数据融合的多描述视频编码方法
CN1665301A (zh) 2005-03-07 2005-09-07 清华大学 一种视频编解码中的自适应的扫描方法
KR100716999B1 (ko) * 2005-06-03 2007-05-10 삼성전자주식회사 영상의 대칭성을 이용한 인트라 예측 방법, 이를 이용한영상의 복호화, 부호화 방법 및 장치
KR100739714B1 (ko) 2005-07-06 2007-07-13 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
KR100727990B1 (ko) * 2005-10-01 2007-06-13 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치
KR100868476B1 (ko) 2005-10-21 2008-11-12 한국전자통신연구원 적응적 스캐닝을 이용한 동영상 부호화/복호화 장치 및 그방법
JP4114885B2 (ja) 2005-10-31 2008-07-09 松下電器産業株式会社 画像符号化装置、方法、及びプログラム
KR100750138B1 (ko) * 2005-11-16 2007-08-21 삼성전자주식회사 인간의 시각 특성을 이용한 영상의 부호화, 복호화 방법 및장치
BRPI0619193A2 (pt) 2005-11-30 2011-09-20 Toshiba Kk Toshiba Corp método de codificação de imagem / decodificação de imagem, aparelho de codificação de imagem / decodificação de imagem
EP1985124B1 (en) * 2006-02-17 2010-09-01 Thomson Licensing Process for coding images using intra prediction mode
JP2007300389A (ja) 2006-04-28 2007-11-15 Victor Co Of Japan Ltd 画像符号化装置および画像符号化プログラム
KR100882949B1 (ko) * 2006-08-17 2009-02-10 한국전자통신연구원 화소 유사성에 따라 적응적인 이산 코사인 변환 계수스캐닝을 이용한 부호화/복호화 장치 및 그 방법
CN101137047B (zh) * 2006-08-29 2010-09-15 昆山杰得微电子有限公司 一种通过有效残差系数分析提高编码效率的方法
BRPI0717639A2 (pt) * 2006-10-30 2013-11-12 Nippon Telegraph & Telephone Método de geração de informações de referência preditas, métodos de codificação de decodificação de vídeo, aparelhos destinados aos mesmos, programas destinados aos mesmos, e mídias de armazenamento que armazenam os programas
ES2355850T3 (es) * 2007-01-18 2011-03-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Flujo de datos de vídeo con calidad ajustable a escala.
JP4254867B2 (ja) 2007-01-31 2009-04-15 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
WO2008111511A1 (ja) * 2007-03-14 2008-09-18 Nippon Telegraph And Telephone Corporation 符号量推定方法、装置、そのプログラムおよび記録媒体
JP4939273B2 (ja) * 2007-03-29 2012-05-23 キヤノン株式会社 画像符号化装置及び画像符号化方法
WO2008130367A1 (en) * 2007-04-19 2008-10-30 Thomson Licensing Adaptive reference picture data generation for intra prediction
CN100496127C (zh) * 2007-06-05 2009-06-03 南京大学 Mpeg-2到h.264码的快速转换方法
US8428133B2 (en) * 2007-06-15 2013-04-23 Qualcomm Incorporated Adaptive coding of video block prediction mode
JP2009027541A (ja) 2007-07-20 2009-02-05 Ntt Docomo Inc 画像符号化装置、方法及びプログラム、並びに、画像復号装置、方法及びプログラム
KR100907707B1 (ko) * 2007-09-06 2009-07-14 동국대학교 산학협력단 H.264/avc 압축 영역에서의 썸네일 영상의 고속 추출방법, 그 장치 및 이를 기록한 기록매체
KR100919572B1 (ko) * 2007-09-11 2009-10-01 주식회사 부시파워 디지털 조속기의 속도제어를 위한 속도형 신경망 제어기
CN101389031A (zh) * 2007-09-14 2009-03-18 浙江大学 一种对变换系数的处理方法及装置
US8848787B2 (en) * 2007-10-15 2014-09-30 Qualcomm Incorporated Enhancement layer coding for scalable video coding
US8670488B2 (en) 2007-12-21 2014-03-11 Telefonaktiebolaget Lm Ericsson (Publ) Adaptive intra mode selection
US8891615B2 (en) * 2008-01-08 2014-11-18 Qualcomm Incorporated Quantization based on rate-distortion modeling for CABAC coders
CN101257630B (zh) * 2008-03-25 2012-06-06 浙江大学 结合三维滤波的视频编码方法和装置
JP2009284298A (ja) * 2008-05-23 2009-12-03 Hitachi Ltd 動画像符号化装置、動画像復号化装置、動画像符号化方法及び動画像復号化方法
JP2009302776A (ja) 2008-06-11 2009-12-24 Canon Inc 画像符号化装置、その制御方法、及びコンピュータプログラム
KR101483497B1 (ko) * 2008-09-25 2015-01-20 에스케이텔레콤 주식회사 임펄스 신호를 고려한 영상 부호화/복호화 장치 및 방법
US9479786B2 (en) * 2008-09-26 2016-10-25 Dolby Laboratories Licensing Corporation Complexity allocation for video and image coding applications
CN101383972A (zh) * 2008-09-28 2009-03-11 北京航空航天大学 基于空间预测与变换的遥感图像压缩方法
KR101458471B1 (ko) 2008-10-01 2014-11-10 에스케이텔레콤 주식회사 영상 부호화/복호화 방법 및 장치
US20100098156A1 (en) * 2008-10-16 2010-04-22 Qualcomm Incorporated Weighted prediction based on vectorized entropy coding
EP2182732A1 (en) * 2008-10-28 2010-05-05 Panasonic Corporation Switching between scans in image coding
EP2192780A1 (en) * 2008-11-28 2010-06-02 Thomson Licensing Method for video decoding supported by Graphics Processing Unit
WO2010063881A1 (en) * 2008-12-03 2010-06-10 Nokia Corporation Flexible interpolation filter structures for video coding
US8514942B2 (en) * 2008-12-31 2013-08-20 Entropic Communications, Inc. Low-resolution video coding content extraction
KR101538704B1 (ko) * 2009-01-28 2015-07-28 삼성전자주식회사 보간 필터를 적응적으로 사용하여 영상을 부호화 및 복호화하는 방법 및 장치
JP5169978B2 (ja) * 2009-04-24 2013-03-27 ソニー株式会社 画像処理装置および方法
KR101712351B1 (ko) * 2009-06-26 2017-03-06 에스케이 텔레콤주식회사 다차원 정수 변환을 이용한 영상 부호화/복호화 장치 및 방법
US8477845B2 (en) * 2009-10-16 2013-07-02 Futurewei Technologies, Inc. Predictive adaptive scan ordering for video coding
US8588303B2 (en) 2010-03-31 2013-11-19 Futurewei Technologies, Inc. Multiple predictor sets for intra-frame coding
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
US20110249734A1 (en) * 2010-04-09 2011-10-13 Segall Christopher A Methods and Systems for Intra Prediction
US8644375B2 (en) * 2010-04-09 2014-02-04 Sharp Laboratories Of America, Inc. Methods and systems for intra prediction
PL3691267T3 (pl) 2010-04-13 2022-07-11 Ge Video Compression, Llc Kodowanie map istotności i bloków współczynników transformacji
CN101841713B (zh) * 2010-04-30 2012-12-05 西安电子科技大学 降低编码码率的视频编码方法及系统
KR101373814B1 (ko) * 2010-07-31 2014-03-18 엠앤케이홀딩스 주식회사 예측 블록 생성 장치
US9049444B2 (en) * 2010-12-22 2015-06-02 Qualcomm Incorporated Mode dependent scanning of coefficients of a block of video data
US9299133B2 (en) * 2011-01-12 2016-03-29 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, and image decoding method for generating a prediction image
WO2012119655A1 (en) * 2011-03-10 2012-09-13 Telefonaktiebolaget L M Ericsson (Publ) Decoding of transforms with curved basis functions

Also Published As

Publication number Publication date
KR101373814B1 (ko) 2014-03-18
EP2988501A3 (en) 2016-03-16
US20160198181A1 (en) 2016-07-07
EP2600614A2 (en) 2013-06-05
JP6084732B2 (ja) 2017-02-22
PL3211899T3 (pl) 2019-09-30
CN104602006B (zh) 2017-11-10
EP2988501A2 (en) 2016-02-24
US20160198188A1 (en) 2016-07-07
JP6084733B2 (ja) 2017-02-22
ES2721768T3 (es) 2019-08-05
PT3214838T (pt) 2019-06-07
JP6084735B2 (ja) 2017-02-22
CN106878719A (zh) 2017-06-20
RS58769B1 (sr) 2019-06-28
SI2988501T1 (sl) 2017-08-31
CN103081473B8 (zh) 2017-03-15
US20160198182A1 (en) 2016-07-07
US20160198183A1 (en) 2016-07-07
LT3214838T (lt) 2019-03-25
DK3197160T3 (da) 2019-01-02
ES2634819T3 (es) 2017-09-29
CN107071427B (zh) 2020-01-14
USRE48564E1 (en) 2021-05-18
JP2016165131A (ja) 2016-09-08
LT3211899T (lt) 2019-03-12
DK3214838T3 (da) 2019-05-27
CN103081473B (zh) 2016-11-09
CN107087175A (zh) 2017-08-22
CN107087176A (zh) 2017-08-22
ES2720652T3 (es) 2019-07-23
PL3211898T3 (pl) 2019-09-30
SI3211898T1 (sl) 2019-06-28
CN106878721B (zh) 2019-11-01
TR201815076T4 (tr) 2018-11-21
SI3211899T1 (sl) 2019-06-28
JP6149138B2 (ja) 2017-06-14
WO2012018198A3 (ko) 2012-04-12
DK2988501T3 (en) 2017-08-07
CY1121935T1 (el) 2020-10-14
US9584829B2 (en) 2017-02-28
US20130016773A1 (en) 2013-01-17
US20160198186A1 (en) 2016-07-07
US20160198187A1 (en) 2016-07-07
CN107105241A (zh) 2017-08-29
CN104602003A (zh) 2015-05-06
CY1121755T1 (el) 2020-07-31
EP2600614A4 (en) 2014-09-10
US9319715B2 (en) 2016-04-19
PL2988501T3 (pl) 2017-10-31
CN106878718A (zh) 2017-06-20
EP3211899A1 (en) 2017-08-30
US9609360B2 (en) 2017-03-28
CN106878720B (zh) 2019-08-30
HRP20190770T1 (hr) 2019-06-28
CN107105241B (zh) 2020-04-28
JP2016165132A (ja) 2016-09-08
JP6084734B2 (ja) 2017-02-22
CN106878719B (zh) 2019-08-30
JP2016165126A (ja) 2016-09-08
CN107087175B (zh) 2020-03-06
CN103081473A (zh) 2013-05-01
DK3211898T3 (da) 2019-07-01
JP2013535919A (ja) 2013-09-12
SI3214838T1 (sl) 2019-05-31
JP2016165128A (ja) 2016-09-08
EP3214838B1 (en) 2019-02-27
WO2012018198A2 (ko) 2012-02-09
RS58605B1 (sr) 2019-05-31
PL3214838T3 (pl) 2019-08-30
EP2988501B1 (en) 2017-05-24
CN106878721A (zh) 2017-06-20
KR20120012383A (ko) 2012-02-09
EP3197160B1 (en) 2018-09-12
EP3197161B1 (en) 2018-09-12
HUE041268T2 (hu) 2019-05-28
ES2701700T3 (es) 2019-02-25
CY1121682T1 (el) 2020-07-31
SI3197160T1 (sl) 2018-11-30
CN106878718B (zh) 2019-11-01
PT2988501T (pt) 2017-06-26
HUE045031T2 (hu) 2019-12-30
LT3197160T (lt) 2018-11-12
EP3211898A1 (en) 2017-08-30
EP3197161A1 (en) 2017-07-26
JP2016165129A (ja) 2016-09-08
CY1120798T1 (el) 2019-12-11
CN107087176B (zh) 2020-01-14
US9584828B2 (en) 2017-02-28
PL3197160T3 (pl) 2019-02-28
JP2016165130A (ja) 2016-09-08
CN104602003B (zh) 2017-11-10
HUE044306T2 (hu) 2019-10-28
JP5928957B2 (ja) 2016-06-01
EP3211898B1 (en) 2019-04-03
HRP20171277T1 (hr) 2017-10-20
LT2988501T (lt) 2017-09-11
US9584827B2 (en) 2017-02-28
EP3211899B1 (en) 2019-02-20
US9584830B2 (en) 2017-02-28
HUE036014T2 (hu) 2018-06-28
JP2016165127A (ja) 2016-09-08
CN106878720A (zh) 2017-06-20
US20160198184A1 (en) 2016-07-07
US20160198185A1 (en) 2016-07-07
JP6084731B2 (ja) 2017-02-22
CN107071427A (zh) 2017-08-18
JP6149137B2 (ja) 2017-06-14
HRP20190709T1 (hr) 2019-07-12
DK3211899T3 (da) 2019-05-13
EP3197160A1 (en) 2017-07-26
US9609359B2 (en) 2017-03-28
HRP20190708T1 (hr) 2019-07-12
PT3197160T (pt) 2018-12-19
US9554154B2 (en) 2017-01-24
HRP20182099T1 (hr) 2019-02-08
PT3211899T (pt) 2019-05-31
RS58484B1 (sr) 2019-04-30
RS58060B1 (sr) 2019-02-28
PL3197161T3 (pl) 2019-02-28
US9578349B2 (en) 2017-02-21
ES2733115T3 (es) 2019-11-27
CY1119258T1 (el) 2018-02-14
LT3211898T (lt) 2019-04-25
EP3214838A1 (en) 2017-09-06
CN104602006A (zh) 2015-05-06
US9584826B2 (en) 2017-02-28
PT3211898T (pt) 2019-06-11
HUE044599T2 (hu) 2019-11-28
US20160198180A1 (en) 2016-07-07
RS56109B1 (sr) 2017-10-31

Similar Documents

Publication Publication Date Title
ES2700621T3 (es) Aparato para decodificar una imagen
ES2700623T3 (es) Aparato para decodificar una imagen
JP2020510374A (ja) 映像コーディングシステムにおける変換方法及びその装置