ES2575381T3 - Dispositivo de decodificación de intra-predicción - Google Patents

Dispositivo de decodificación de intra-predicción Download PDF

Info

Publication number
ES2575381T3
ES2575381T3 ES11814797.4T ES11814797T ES2575381T3 ES 2575381 T3 ES2575381 T3 ES 2575381T3 ES 11814797 T ES11814797 T ES 11814797T ES 2575381 T3 ES2575381 T3 ES 2575381T3
Authority
ES
Spain
Prior art keywords
prediction
intra
mode
pixels
prediction mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES11814797.4T
Other languages
English (en)
Inventor
Soo Mi Oh
Moonock Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
M&K Holdings Inc
Original Assignee
M&K Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45559905&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2575381(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by M&K Holdings Inc filed Critical M&K Holdings Inc
Application granted granted Critical
Publication of ES2575381T3 publication Critical patent/ES2575381T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation

Abstract

Un aparato de decodificación, comprendiendo el aparato: un decodificador (210) de entropía configurado para restaurar los coeficientes residuales cuantificados y la información de intra-predicción; un decodificador (230) de modos de predicción configurado para restaurar un modo de intra-predicción basándose en la información de intra-predicción; un decodificador (220) de señales residuales configurado para restaurar una señal residual usando el modo de intra-predicción; un generador (240) de píxeles de referencia configurado para generar los píxeles de referencia correspondientes a los píxeles de referencia no disponibles y para filtrar de manera adaptativa los píxeles de referencia de acuerdo con el modo de intra-predicción; un generador (250) de bloques de predicción configurado para generar los píxeles de predicción usando los píxeles de referencia determinados por el modo de intra-predicción; un filtro (260) de bloques de predicción configurado para filtrar de manera adaptativa algunos de los píxeles de predicción usando el modo de intra-predicción; y un reconstructor (270) de imágenes configurado para generar una imagen reconstruida usando los píxeles de predicción y la señal residual, en el que, el generador (240) de píxeles de referencia filtra de manera adaptativa los píxeles de referencia de acuerdo con un tamaño de un bloque de predicción de los modos de intra-predicción que existen entre un modo horizontal y un modo de intra-predicción que tienen una dirección de 45º con respecto al modo horizontal, en el que el filtro se aplica al modo de intra-predicción que tiene una dirección de 45º con respecto al modo horizontal y no se aplica a los modos vertical y horizontal, en el que, cuando los píxeles de referencia se filtran para un segundo modo de intra-predicción direccional, los píxeles de referencia también se filtran para un primer modo de intra-predicción direccional que está más cerca del modo de intra-predicción que tiene la dirección de 45º con respecto al modo horizontal que lo que está el segundo modo direccional, en el que los modos de intra-predicción direccionales primero y segundo existen entre el modo horizontal y el modo de intra-predicción que tiene la dirección de 45º con respecto al modo horizontal, en el que el número de modos direccionales en los que se aplica el filtro aumenta a medida que aumenta el tamaño de la unidad de predicción, en el que, el generador (240) de píxeles de referencia no filtra los píxeles de referencia de un bloque actual que sea menor que un tamaño predeterminado.

Description

5
10
15
20
25
30
35
40
45
50
55
DESCRIPCION
Dispositivo de decodificacion de intra-prediccion
La presente invencion se refiere a un aparato de decodificacion, y mas espedficamente, a un aparato que decodifica un modo de intra-prediccion, decodifica de manera adaptativa un bloque de prediccion y un bloque residual de acuerdo con el modo de intra-prediccion, y genera de este modo un bloque reconstruido.
En los procedimientos de compresion de imagenes tales como el grupo de expertos de imagenes en movimiento (MPEG)-1, MPEG-2, MPEG-4 y la codificacion de video avanzada (AVC) H.264/MPEG-4, una imagen se divide en macrobloques para codificar una imagen. A continuacion, los macrobloques respectivos se codifican usando una inter prediccion o una intra-prediccion.
En la intra-prediccion, un bloque de una imagen actual se codifica no usando una imagen de referencia, pero usando valores de los pfxeles espacialmente adyacentes al bloque actual. Un modo de intra-prediccion con poca distorsion se selecciona comparando con un macrobloque original que usa los valores de pfxeles adyacentes. A continuacion, usando el modo seleccionado de intra-prediccion y los valores de pfxeles adyacentes, se calculan los valores de prediccion del bloque actual. Y se calcula una diferencia entre los valores de prediccion y los valores de los pfxeles del bloque actual original y a continuacion se codifican traves de una codificacion de transformada, una cuantificacion y una codificacion de entropfa. El modo de intra-prediccion tambien se codifica.
Los modos de intra-prediccion se clasifican, en general, en un modo de intra-prediccion de 4 x 4, un modo de intra- prediccion de 8 x 8 y un modo de intra-prediccion de 16 x 16 para los componentes de luminancia y los componentes de crominancia.
En el modo de intra-prediccion de 16 x 16 de acuerdo con la tecnica relacionada hay cuatro modos, un modo vertical, un modo horizontal, un modo de corriente continua (CC) y un modo plano.
En el modo de intra-prediccion de 4 x 4 de acuerdo con la tecnica relacionada hay nueve modos, un modo vertical, un modo horizontal, un modo de CC, un modo abajo-izquierda diagonal, un modo abajo-derecha diagonal, un modo derecho vertical, un modo izquierdo vertical, un modo horizontal-arriba y un modo horizontal-abajo.
Cada modo de prediccion se indexa de acuerdo con la frecuencia de uso de los modos respectivos. El modo vertical, que es el modo 0, muestra la posibilidad mas alta de que se use lo mas frecuentemente para realizar la intra- prediccion en un bloque objetivo, y el modo horizontal-arriba que es el modo de 8 muestra la posibilidad mas alta de que se use lo mas infrecuentemente.
De acuerdo con los normas H.264, un bloque actual se codifica usando un total de 13 modos, es decir, 4 modos del modo de intra-prediccion de 4 x 4 y 9 modos del modo de intra-prediccion de 16 x 16. Se genera un flujo de bits del bloque actual de acuerdo con un modo optimo entre estos modos.
Sin embargo, cuando algunos o todos los valores de los pfxeles adyacentes al bloque actual no existen o no estan ya codificados, es imposible aplicar algunos o todos los modos de intra-prediccion. Ademas, cuando una diferencia entre los pfxeles de referencia adyacentes es grande, una diferencia entre un bloque de prediccion y un bloque original se hace grande. Por lo tanto, se requiere una nueva tecnica para reducir la diferencia entre el bloque original y el bloque de prediccion generado basandose en las posiciones de los pfxeles de referencia usados para generar el bloque de prediccion.
La solicitud de patente europea EP2557797 de Lee Jin Ho y col. presentada el 11.04.2011 desvela un aparato para decodificar, comprendiendo el aparato: un descodificador de entropfa configurado para restaurar los coeficientes residuales cuantificados y la informacion de intra-prediccion; un decodificador de modos de prediccion configurado para restaurar un modo de intra-prediccion basandose en la informacion de intra-prediccion; un decodificador de senales residuales configurado para restaurar una senal residual usando el modo de intra-prediccion; un generador de pfxeles de referencia configurado para generar los pfxeles de referencia correspondientes a los pfxeles de referencia no disponibles y para filtrar de manera adaptativa los pfxeles de referencia de acuerdo con el modo de intra-prediccion; un generador de bloques de prediccion configurado para generar los pfxeles de prediccion usando los pfxeles de referencia determinados por el modo de intra-prediccion; un filtro de bloques de prediccion configurado para filtrar de manera adaptativa algunos de los pfxeles de prediccion usando el modo de intra- prediccion; y un reconstructor de imagenes configurado para generar una imagen reconstruida usando los pfxeles de prediccion y la senal residual.
La presente invencion se refiere a un aparato de decodificacion para reconstruir de manera efectiva una imagen codificada con una alta eficiencia de compresion generando o reconstruyendo un bloque de prediccion cercano a una imagen original.
Un aspecto de la presente invencion proporciona un aparato de decodificacion, que incluye: un decodificador de entropfa configurado para restaurar los coeficientes residuales cuantificados y la informacion de intra-prediccion; un decodificador de modos de prediccion configurado para restaurar un modo de intra-prediccion basandose en la
5
10
15
20
25
30
35
40
45
50
55
informacion de intra-prediccion; un decodificador de senales residuales configurado para restaurar una senal residual usando el modo de intra-prediccion; un generador de p^xeles de referencia configurado para generar los pfxeles de referencia correspondientes a los pfxeles de referencia no disponibles y filtrar de manera adaptativa los pfxeles de referencia usando el modo de intra-prediccion; un generador de bloques de prediccion configurado para generar los pfxeles de prediccion usando los pfxeles de referencia determinados por el modo de intra-prediccion; un filtro de bloques de prediccion configurado para filtrar de manera adaptativa alguno de los pfxeles de prediccion usando el modo de intra-prediccion; y un reconstructor de imagenes configurado para generar una imagen reconstruida usando los pfxeles de prediccion y la senal residual.
Un aparato de decodificacion de acuerdo con la presente invencion genera unos pfxeles de referencia y filtra de manera adaptativa los pfxeles de referencia con el fin de generar un bloque de prediccion similar a un bloque original. Ademas, generando o modificando el bloque de prediccion que usa los pfxeles de referencia que no se usan para generar un bloque de prediccion, puede reconstruirse el bloque de prediccion similar a un bloque original, y puede mejorarse una compresion de imagen.
La figura 1 es un diagrama de bloques de un aparato de codificacion de imagenes en movimiento de acuerdo con la presente invencion.
La figura 2 es un diagrama de bloques de un intra predictor de acuerdo con la presente invencion.
La figura 3 es un diagrama conceptual que muestra los modos de intra-prediccion direccionales de acuerdo con la presente invencion.
La figura 4 es un diagrama de flujo que ilustra un procedimiento de codificacion de un modo de intra-prediccion de una unidad de prediccion actual realizado en un codificador de modos de prediccion de acuerdo con la presente invencion.
La figura 5 es un diagrama de bloques de un aparato de decodificacion de acuerdo con la presente invencion.
En lo sucesivo en el presente documento, las diversas realizaciones de la presente invencion se describiran en detalle con referencia a los dibujos adjuntos. Sin embargo, la presente invencion no se limita a las realizaciones a modo de ejemplos desveladas a continuacion, ya que puede implementarse de diversas maneras. Por lo tanto, son posibles muchas otras modificaciones y variaciones de la presente invencion, y debe entenderse que dentro del ambito del concepto desvelado, puede ponerse en practica la presente invencion de otro modo que como se ha descrito espedficamente.
Para la codificacion de imagenes, cada imagen consiste en uno o mas segmentos, y cada segmento se compone de una pluralidad de unidades de codificacion. Ya que una imagen de un grado de alta definicion (HD) o superior tiene muchas regiones uniformes, puede mejorarse una compresion de la imagen codificando la imagen con unas unidades de codificacion de diversos tamanos.
Las unidades de codificacion de acuerdo con la presente invencion tienen una estructura de arbol cuadruple y pueden dividirse de manera jerarquica usando la informacion de profundidad. Una unidad de codificacion del tamano mas grande se denomina como una unidad de codificacion mas grande (LCU), y una unidad de codificacion del tamano mas pequeno se denomina como una unidad de codificacion mas pequena (SCU). La informacion relativa a la LCU y la SCU puede incluirse en un conjunto de parametros de secuencia (SPS) y transmitirse.
Una LCU consiste en una o mas unidades de codificacion. La LCU tiene la forma de un arbol de codificacion recursiva con el fin de incluir una estructura de division de las unidades de codificacion. Cuando la LCU no esta dividida en cuatro unidades de codificacion, el arbol de codificacion puede consistir en una informacion que indique que la LCU no esta dividida y una unidad de codificacion. Cuando la LCU esta dividida en cuatro unidades de codificacion, el arbol de codificacion puede consistir en una informacion que indique que la LCU esta dividida y cuatro arboles de sub-codificacion. Del mismo modo, cada arbol de sub-codificacion tiene la misma estructura que el arbol de codificacion de la LCU. Sin embargo, una unidad de codificacion del tamano de una SCU no se divide en unidades de codificacion.
Mientras tanto, cada unidad de codificacion en el arbol de codificacion se somete a una intra-prediccion o inter prediccion en unidades de la unidad de codificacion en sf mismas o a una sub-particion. Una unidad en la que se realiza una intra-prediccion o una inter prediccion se denomina como una unidad de prediccion. Un tamano de la unidad de prediccion puede ser 2N x 2N o N x N en una intra-prediccion. Un tamano de la unidad de prediccion puede ser 2N x 2N, 2n x N, N x 2N o N x N en una inter prediccion. En el presente documento, 2N indica las longitudes horizontal y vertical de la unidad de codificacion.
Mientras tanto, una unidad de prediccion para la intra-prediccion puede no ser un cuadrado. Por ejemplo, una unidad de codificacion cuadrada puede dividirse en cuatro hN x 2N o cuatro 2N x hN para la intra-prediccion. En este caso, se reduce la distancia entre un pixel de referencia y un pixel de un bloque de prediccion para la intra-prediccion, de tal manera que puede mejorarse la eficiencia de prediccion. Este procedimiento de intra-prediccion es una intra- prediccion de corta distancia (SDIP).
5
10
15
20
25
30
35
40
45
50
55
Una unidad de codificacion incluye la informacion del modo de prediccion y la informacion de tamano (modo_parte) de las unidades de prediccion dentro de la unidad de codificacion. Para mejorar la eficiencia de codificacion, la informacion del modo de prediccion y la informacion de tamano pueden combinarse y codificarse conjuntamente. En este caso, cada unidad de codificacion incluye un tipo de prediccion codificada conjunta (tipo_pred).
Una unidad de codificacion incluye la informacion adicional necesaria para generar un bloque de prediccion de cada unidad de prediccion y una senal residual. La informacion adicional se define por unidad de prediccion en la unidad de codificacion. En la intra-prediccion, la informacion adicional incluye la informacion de intra-prediccion codificada. En la inter prediccion, la informacion adicional incluye la informacion de movimiento codificada. La informacion de movimiento incluye un vector de movimiento y un mdice de imagen de referencia.
En cada unidad de codificacion se incluye una senal residual. Una senal residual incluye un arbol de transformada, un portador de senal residual de luminancia y dos portadores de senal residual de crominancia. Los portadores de senal residual incluyen la informacion residual codificada en una o mas unidades de transformada. El tamano mas grande de la unidad de transformada es igual a o menor que el tamano de la unidad de codificacion. La unidad de transformada puede tener el mismo tamano que la unidad de transformada mas grande o una unidad de sub- transformada de la unidad de transformada mas grande.
El arbol de transformada incluye la informacion que indica una estructura de division de la unidad de transformada para la senal residual incluida en la unidad de codificacion. Ademas, el arbol de transformada incluye la informacion que indica si una senal residual de cada unidad de transformada es o no 0.
La portadora de senal residual lleva la informacion residual codificada en las unidades de transformada correspondientes a la informacion que indica la estructura de division en el arbol de transformada en unidades de unidades de codificacion.
Aunque la descripcion anterior se ha hecho solamente de una unidad de prediccion obtenida dividiendo igualmente una unidad de codificacion, tambien es posible una division desigual. En otras palabras, para comprender una senal residual, puede ser mas eficaz dividir de manera desigual una senal de imagen en una direccion espedfica de acuerdo con un lfmite de una imagen y realizar una intra o inter prediccion.
El modo de adaptacion mas simple es dividir una unidad de codificacion en dos bloques usando una lmea recta con el fin de extraer la dependencia estadfstica de una region de prediccion de la topograffa local. Un lfmite de una imagen se corresponde con la lmea recta y se divide. En este caso, las direcciones divisibles pueden estar limitadas a un numero predeterminado. Por ejemplo, un procedimiento de dividir un bloque puede estar limitado a cuatro direcciones de direcciones horizontal, vertical, diagonal hacia arriba y diagonal hacia abajo. Ademas, la division puede estar limitada a solo las direcciones horizontal y vertical. El numero de direcciones divisibles puede ser de tres, cinco, siete y asf sucesivamente. El numero de direcciones divisibles puede variar de acuerdo con un tamano del bloque. Por ejemplo, para una unidad de codificacion de un tamano grande, el numero de direcciones divisibles puede aumentarse de manera relativa.
En una inter prediccion, cuando una unidad de codificacion se divide en dos unidades de prediccion para una prediccion de adaptacion mas, la estimacion de movimiento y la compensacion de movimiento debenan realizarse en cada una de las unidades de prediccion. Despues de que los bloques de prediccion se deriven a partir de las respectivas dos unidades de prediccion divididas de la unidad de codificacion, pueden anadirse los dos bloques de prediccion para generar el bloque de prediccion que tiene el mismo tamano que la unidad de codificacion. En este caso, para reducir la diferencia entre los valores de pfxeles a ambos lados de un lfmite de division del bloque de prediccion del tamano de unidad de codificacion, pueden filtrarse los pfxeles localizados en el lfmite de division. El bloque de prediccion puede generarse de tal manera que los bloques de prediccion correspondientes a las unidades de prediccion respectivas se superponen, y la parte de lfmite de superposicion puede uniformizarse para generar el bloque de prediccion.
La figura 1 es un diagrama de bloques de un aparato de codificacion de imagenes en movimiento de acuerdo con la presente invencion.
Haciendo referencia a la figura 1, un aparato 100 de codificacion de imagenes en movimiento de acuerdo con la presente invencion incluye un divisor 110 de imagenes, un transformador 120, un cuantificador 130, un escaner 131, un codificador 140 de entropfa, un intra predictor 150, un inter predictor 160, un cuantificador 135 inverso, un transformador 125 inverso, un post-procesador 170, un almacenamiento 180 de imagenes, un restador 190 y un sumador 195.
El divisor 110 de imagenes analiza una senal de video de entrada para dividir cada LCU de una imagen en una o mas unidades cada una de las cuales tiene un tamano predeterminado, determina el modo de prediccion de cada unidad de codificacion, y determina el tamano de la unidad de prediccion por cada unidad de codificacion. El divisor 110 de imagenes envfa la unidad de prediccion a codificarse al intra predictor 150 o a inter predictor 160 de acuerdo con el modo de prediccion. Osea, el divisor 110 de imagenes envfa las unidades de prediccion a codificarse al restador 190.
5
10
15
20
25
30
35
40
45
50
55
60
El transformador 120 transforma un bloque residual que es una senal residual entre un bloque original de una unidad de prediccion de entrada y un bloque de prediccion generado por el intra predictor 150 o el inter predictor 160. Preferentemente, el bloque residual consiste en una unidad de codificacion. El bloque residual puede dividirse en unidades de transformada optimas y transformarse. Un tipo de matriz de transformada puede determinarse de manera adaptativa de acuerdo con el modo de prediccion (intra o inter) y el modo de intra-prediccion. La unidad de transformada puede transformarse mediante unas matrices de transformada de una dimension (1D) horizontal y vertical. En inter prediccion, se aplica una matriz de transformada predeterminada. En la intra-prediccion, hay una alta posibilidad de que el bloque residual tenga una direccionalidad vertical cuando el modo de intra-prediccion es horizontal. Por lo tanto, se aplica una matriz de enteros basada en la transformada discreta de coseno (DCT) a la direccion vertical, y se aplica una transformada discreta de seno (DST) o una matriz de enteros basada en la transformada de Karhunen Loeve (KLT) a la direccion horizontal. Cuando el modo de intra-prediccion es vertical, se aplica una matriz de enteros basada en DST o KLT a la direccion vertical, y se aplica una matriz de enteros basada en DCT a la direccion horizontal. Como alternativa, en la intra-prediccion, la matriz de transformada puede determinarse de manera adaptativa de acuerdo con el tamano de la unidad de transformada.
El cuantificador 130 determina un tamano de etapa de cuantificacion para cada unidad de codificacion con el fin de cuantificar los coeficientes de transformada del bloque residual transformado por la matriz de transformada. El tamano de etapa de cuantificacion se determina por el tamano de unidad de codificacion igual a o mayor que un tamano predeterminado. El tamano predeterminado puede ser 8 x 8 o 16 x 16. Usando el tamano de etapa de cuantificacion determinada y una matriz de cuantificacion determinada de acuerdo con un modo de prediccion, se cuantifican los coeficientes de transformada. El cuantificador 130 usa los tamanos de etapa de cuantificacion de las unidades de codificacion adyacentes de la unidad de codificacion actual como un predictor de tamano de etapa de cuantificacion de la unidad de codificacion actual. El cuantificador 130 busca de manera secuencial una unidad de codificacion izquierda, una unidad de codificacion superior y una unidad de codificacion izquierda superior de la unidad de codificacion actual, determina el predictor de tamano de etapa de cuantificacion de la unidad de codificacion actual usando los tamanos de etapa de cuantificacion de una o mas unidades de codificacion disponibles, y transmite una diferencia al codificador 140 de entropfa.
Cuando un segmento se divide en unidades de codificacion, puede no haber ninguna de una unidad de codificacion izquierda, una unidad de codificacion superior y una unidad de codificacion izquierda superior de la unidad de codificacion actual. Por otro lado, puede haber una unidad de codificacion previa de una LCU en un orden de codificacion. Por lo tanto, las unidades de codificacion adyacentes a la unidad de codificacion actual y a la unidad de codificacion previa pueden ser candidatas. En este caso, la prioridad puede administrarse de manera secuencial dado para 1) la unidad de codificacion izquierda de la unidad de codificacion actual, 2) la unidad de codificacion superior de la unidad de codificacion actual, 3) la unidad de codificacion izquierda superior de la unidad de codificacion actual y 4) la unidad de codificacion previa de la unidad de codificacion actual. La secuencia puede variar, o puede omitirse la unidad de codificacion izquierda superior.
El bloque de transformada cuantificado se proporciona al cuantificador 135 inverso y al escaner 131.
El escaner 131 explora los coeficientes del bloque de transformada cuantificado y convierte los coeficientes del bloque de transformada cuantificado en coeficientes cuantificados de 1D. Un procedimiento de exploracion de coeficientes se determina de acuerdo con el modo de prediccion y el modo de intra-prediccion. Ademas, el procedimiento de exploracion de coeficientes puede determinarse de manera diferente de acuerdo con el tamano de las unidades de transformada. El escaner 131 determina si se divide o no el bloque de coeficiente cuantificado en una pluralidad de subconjuntos basandose en un tamano de la unidad de transformada actual. Cuando el tamano de la unidad de transformada es mayor que un primer tamano de referencia, el bloque de transformada cuantificado se divide en una pluralidad de subconjuntos. El primer tamano de referencia puede ser 4 x 4 u 8 x 8.
El escaner 131 determina un patron de exploracion que debe aplicarse al bloque de transformada cuantificado. En inter prediccion, solo puede aplicarse un patron de exploracion predeterminado (por ejemplo, una exploracion en zigzag). En intra-prediccion, puede aplicarse un patron de exploracion determinado de acuerdo con el modo de intra- prediccion. El patron de exploracion puede variar de acuerdo con un modo de intra-prediccion direccional. La exploracion en zigzag se aplica a los modos de intra-prediccion no direccionales. Un modo no direccional puede ser un modo de corriente continua (CC) o un modo plano. Los coeficientes cuantificados se exploran analizados en una direccion inversa.
Cuando los coeficientes cuantificados se dividen en la pluralidad de subconjuntos, se aplica el mismo patron de exploracion a los coeficientes cuantificados en cada subconjunto. La pluralidad de subconjuntos consiste en un subconjunto principal y uno o mas subconjuntos residuales. El subconjunto principal se localiza en un lado izquierdo superior e incluye un coeficiente de CC y el uno o mas subconjuntos residuales que cubren una region que no sea el subconjunto principal.
La exploracion en zigzag puede aplicarse para explorar los subconjuntos. Los subconjuntos pueden explorarse empezando con el subconjunto principal y posteriormente con los subconjuntos residuales en una direccion directa, o pueden explorarse en una direccion inversa. Un patron de exploracion para explorar los subconjuntos puede establecerse el mismo que un patron de exploracion para explorar los coeficientes cuantificados en los
5
10
15
20
25
30
35
40
45
50
55
subconjuntos. En este caso, el patron de exploracion para los subconjuntos se determina de acuerdo con el modo de intra-prediccion. Mientras tanto, un codificador transmite una informacion capaz de indicar una posicion del ultimo coeficiente cuantificado distinto de cero de la unidad de transformada a un decodificador. El codificador transmite tambien una informacion capaz de indicar una posicion del ultimo coeficiente cuantificado distinto de cero en cada subconjunto al decodificador.
El cuantificador 135 inverso cuantifica de manera inversa los coeficientes de transformada cuantificados. El transformador 125 inverso reconstruye un bloque residual del dominio espacial de los coeficientes de transformada cuantificados de manera inversa. El sumador 195 genera un bloque de reconstruccion sumando el bloque residual reconstruido por el transformador 125 inverso y el bloque de prediccion del intra predictor 150 o el inter predictor 160.
El post-procesador 170 realiza un procedimiento de filtrado de desbloqueo para retirar la perturbacion de bloqueo generada en una imagen reconstruida, un procedimiento de aplicacion de compensacion adaptativo para complementar una diferencia entre la imagen reconstruida y la imagen original por pixel, y un procedimiento de filtro de bucle adaptativo para complementar una diferencia entre la imagen reconstruida y la imagen original en una unidad de codificacion.
El procedimiento de filtrado de desbloqueo puede aplicarse a un lfmite entre las unidades de prediccion y entre las unidades de transformada. El tamano predeterminado puede ser 8 x 8. El procedimiento de filtrado de desbloqueo incluye una etapa de determinar el lfmite a filtrarse, una etapa de determinar la fuerza de filtrado de lfmite a aplicarse al lfmite, una etapa de determinar si aplicar o no un filtro de desbloqueo, y una etapa de seleccionar un filtro a aplicarse al lfmite cuando se determina aplicar el filtro de desbloqueo.
Aplicar o no el filtro de desbloqueo se determina de acuerdo con i) si la fuerza de filtrado de lfmite es o no mayor que 0 y ii) si un valor que indica la diferencia entre los pfxeles de lfmite de los dos bloques (el bloque P y el bloque Q) adyacentes al lfmite a filtrarse es o no menor que un primer valor de referencia determinado de acuerdo con un parametro de cuantificacion.
Pueden existir dos o mas filtros. Cuando un valor absoluto de una diferencia entre dos pfxeles adyacentes al lfmite de bloque es igual a o mayor que un segundo valor de referencia, se selecciona un filtro debil. El segundo valor de referencia se determina mediante el parametro de cuantificacion y la fuerza de filtrado de lfmite.
El procedimiento de aplicacion de compensacion adaptativo esta destinado a reducir una diferencia (distorsion) entre un pixel en una imagen sometido al filtro de desbloqueo y el pixel original. Una imagen o segmento puede dividirse en una pluralidad de regiones de compensacion, y puede determinarse un modo de compensacion por region de compensacion. Hay cuatro modos de compensacion de borde, dos modos de compensacion de banda y un modo de no aplicacion de compensacion. De acuerdo con cada modo de compensacion, los pfxeles en cada region de compensacion se clasifican en un numero predeterminado de clases, y la compensacion correspondiente a la clase clasificada se anade al pixel. En el caso de un modo de compensacion de borde, se determina una clase de un pixel actual comparando el valor de pixel actual con los valores de pixel de dos o mas pfxeles adyacentes al pixel actual.
El procedimiento de filtro de bucle adaptativo puede realizarse basandose en un valor obtenido comparando una imagen original con una imagen reconstruida a la que se aplica el procedimiento de filtrado de desbloqueo o el procedimiento de aplicacion de compensacion adaptativo. Un filtro de bucle adaptativo (ALF) se detecta a traves de un valor de actividad Laplaciano basandose en un bloque de 4 x 4. El ALF determinado puede aplicarse a todos los pfxeles incluidos en un bloque de 4 x 4 o en un bloque de 8 x 8. El aplicar o no un ALF puede determinarse de acuerdo con cada unidad de codificacion. Un tamano y los coeficientes de un filtro de bucle pueden variar de acuerdo con cada unidad de codificacion. La informacion que indica si el ALF se aplica a cada unidad de codificacion, la informacion de coeficiente de filtro, la informacion de forma del filtro, y asf sucesivamente, puede incluirse en la cabecera de segmento y transmitirse al decodificador. En el caso de una senal de crominancia, el aplicar o no el ALF puede determinarse en las unidades de imagen. A diferencia de la luminancia, el filtro de bucle puede tener una forma rectangular.
El almacenamiento 180 de imagenes recibe unos datos de imagen de post-procesado del post-procesador 170, y almacena la imagen reconstruida en unidades de imagen. Una imagen puede ser una imagen en una trama o en un campo. El almacenamiento 180 de imagenes tiene una memoria intermedia (no mostrada) capaz de almacenar una pluralidad de imagenes.
El inter predictor 160 realiza una estimacion de movimiento usando una o mas imagenes de referencia almacenadas en el almacenamiento 180 de imagenes, y determina un mdice de imagen de referencia que indica las imagenes de referencia y un vector de movimiento. De acuerdo con el mdice de imagen de referencia y el vector de movimiento, se extrae un bloque de prediccion correspondiente a una unidad de prediccion a codificarse a partir de una imagen de referencia seleccionada entre una pluralidad de imagenes de referencia almacenadas en el almacenamiento 180 de imagenes y se emite el bloque de prediccion extrafdo.
El intra predictor 150 realiza la codificacion de intra-prediccion usando un valor de pixel reconstruido en una imagen que incluye una unidad de prediccion actual. El intra predictor 150 recibe la unidad de prediccion actual a codificarse,
5
10
15
20
25
30
35
40
45
50
55
selecciona uno de un numero predeterminado de modos de intra-prediccion, y realiza la intra-prediccion. El numero predeterminado de modos de intra-prediccion depende de un tamano de la unidad de prediccion actual. El intra predictor 150 filtra de manera adaptativa los pfxeles de referencia usados para generar el bloque de intra-prediccion. Cuando algunos de los pfxeles de referencia no estan disponibles, es posible generar los pfxeles de referencia en las posiciones no disponibles usando los pfxeles de referencia disponibles.
El codificador 140 de entropfa codifica los coeficientes de transformada cuantificados por el cuantificador 130, la informacion de intra-prediccion recibida del intra predictor 150, la informacion de movimiento recibida desde el inter predictor 160, y asf sucesivamente.
La figura 2 es un diagrama de bloques de un intra predictor 150 de acuerdo con la presente invencion.
Haciendo referencia a la figura 2, el intra predictor 150 incluye un receptor 141 de unidades de prediccion, un generador 142 de pfxeles de referencia, un generador 143 de bloques de prediccion, un post-procesador 144 de bloques de prediccion, un determinador 145 de modos de prediccion y un codificador 146 de modos de prediccion.
El receptor 141 de unidades de prediccion recibe una entrada de unidad de prediccion desde un divisor de imagenes 110. El receptor 141 de unidades de prediccion transmite la informacion de tamanos en la unidad de prediccion recibida al determinador 145 de modos de prediccion y al generador 142 de pfxeles de referencia, y transmite la unidad de prediccion al generador 142 de pfxeles de referencia y al generador 143 de bloques de prediccion.
El generador 142 de pfxeles de referencia determina si estan disponibles los pfxeles de referencia de la unidad de prediccion actual recibida. Los pfxeles de referencia de la unidad de prediccion actual usados para la intra-prediccion consisten en un pixel de referencia de esquina colocado en (x = -1, y = -1), 2L pfxeles de referencia superiores colocados en (x = 0,..., 2L-1, y = -1), y 2M pfxeles de referencia izquierdos colocados en (x = 0, y = 0,..., y 2M-1). En este caso, L es la anchura de la unidad de prediccion actual, y M es la altura de la unidad de prediccion actual.
Cuando los pfxeles de referencia no estan disponibles o son insuficientes, se generan los pfxeles de referencia.
Cuando los pfxeles de referencia no estan disponibles, los pfxeles de referencia se generan con un valor predeterminado.
Cuando algunos de los pfxeles de referencia no estan disponibles, se determina si los pfxeles de referencia no disponibles existen en una sola direccion de los pfxeles disponibles o entre los pfxeles disponibles.
Cuando los pfxeles de referencia no disponibles existen en una sola direccion de los pfxeles disponibles, se genera un bloque de referencia copiando el valor del pixel disponible mas cercano al pixel no disponible. Por ejemplo, cuando la unidad de prediccion actual se coloca en un lfmite superior de una imagen o un segmento, el pixel de referencia de esquina y los pfxeles de referencia superiores no estan disponibles. Por lo tanto, en este caso, el pixel de referencia de esquina y los pfxeles de referencia superiores pueden generarse copiando un pixel de referencia colocado en (x = -1, y = 0) que es la posicion mas cercana. Como alternativa, los pfxeles de referencia pueden generarse usando un pixel de referencia disponible de la posicion mas cercana y uno o mas pfxeles de referencia disponibles. Por ejemplo, cuando el pixel de referencia de esquina colocado en (x = - 1, y = 0) y los pfxeles de referencia en las posiciones (x = 0,..., y L-1, y = -1) estan disponibles y los pfxeles de referencia en las posiciones (x = L,..., 2L- 1, y = -1) no estan disponibles, los pfxeles de referencia en las posiciones no disponibles pueden generarse usando el cambio en la diferencia entre un valor de pixel de referencia en una posicion (x = L-1, y = -1) y un valor de pixel de referencia de esquina u otro valor de pixel de referencia.
Cuando los pfxeles de referencia no disponibles existen entre los pfxeles disponibles, los pfxeles de referencia se generan usando dos pfxeles disponibles p y q adyacentes a los pfxeles de referencia no disponibles. Por ejemplo, cuando no estan disponibles el pixel de referencia de esquina y L pfxeles de referencia superiores colocados en (x = 0,..., y L-1, y = -1), pueden generarse los pfxeles de referencia que existen entre el pixel de referencia p en una posicion (x = -1, y = 0) y el pixel de referencia q en una posicion (x = L, y = -1) usando los pfxeles de referencia p y
q.
Los valores de pixel de referencia generados pueden obtenerse redondeando un promedio del pixel de referencia p y el pixel de referencia q. Ademas, los valores de pixel de referencia pueden generarse usando el cambio en la diferencia entre los valores de pfxeles del pixel de referencia p y el pixel de referencia q. En este caso, los valores de pixel de referencia pueden generarse mediante una interpolacion lineal determinada de acuerdo con las posiciones correspondientes a los pfxeles a generarse o usando un promedio ponderado de los dos pfxeles de referencia.
Mientras tanto, cuando una pluralidad de unidades de prediccion estan en un lado superior de la unidad de prediccion actual, hay una alta posibilidad de que una diferencia entre los pfxeles lfmite presentes en ambos lados de un lfmite entre dos de las unidades de prediccion superiores sea mayor que una diferencia entre los pfxeles adyacentes en cada unidad de prediccion superior. Esto resulta de un error provocado por un parametro de cuantificacion. Es muy probable que el error se produzca en los modos de intra-prediccion direccionales en los que se genera un bloque de prediccion usando los dos pfxeles de referencia adyacentes.
5
10
15
20
25
30
35
40
45
50
55
En particular, los modos (numeros de modo 3, 6 y 9) que tienen una direccion de 45° con respecto a la direccion horizontal o vertical de la figura 3 son los mas seriamente afectados. En los modos vertical y horizontal (numeros de modo 0 y 1), se usa un pixel para generar un pixel de prediccion del bloque de prediccion, y por lo tanto los modos vertical y horizontal estan ligeramente afectados.
Por esta razon, se aplica un filtro (el filtro de uniformidad) a los pfxeles de referencia en los modos 3, 6 y 9 de intra- prediccion direccionales, y no se aplica a los pfxeles de referencia en los modos de intra-prediccion vertical y horizontal. En el modo de CC entre los modos de intra-prediccion no direccionales, tampoco se aplica el filtro a los pfxeles de referencia. Para estos modos, puede determinarse aplicar o no el filtro independientemente del tamano de la unidad de prediccion actual.
En los modos de intra-prediccion direccionales que existen entre el modo 3, 6 o 9 de intra-prediccion y el modo de intra-prediccion horizontal o vertical, puede aplicarse el filtro (el filtro de uniformidad) de manera adaptativa a los pfxeles de referencia de acuerdo con el tamano de la unidad de prediccion. Es preferible aumentar una probabilidad de aplicar el filtro (el filtro de uniformidad) cuando la direccion del modo de intra-prediccion direccional esta relativamente mas cerca de la direccion del modo de intra-prediccion que tiene la direccion de 45°. Espedficamente, cuando un primer modo direccional esta mas cerca en la direccionalidad del modo de intra-prediccion que tiene la direccion de 45° que un segundo modo direccional, si se aplica un filtro a los pfxeles de referencia en el segundo modo direccional, el filtro se aplica tambien a los pfxeles de referencia en el primer modo direccional. Por otra parte, si se aplica el filtro a los pfxeles de referencia en el primer modo direccional, el filtro puede o no puede aplicarse a los pfxeles de referencia en el segundo modo direccional.
Hay una alta posibilidad de que un cambio en la diferencia entre los pfxeles en una unidad de prediccion de un gran tamano sea menor que un cambio en la diferencia entre los pfxeles en una unidad de prediccion de un tamano pequeno. Por lo tanto, el numero de modos direccionales en los que se aplica el filtro puede aumentar o puede aplicarse el filtro mas fuerte cuando aumenta el tamano de la unidad de prediccion. Por otro lado, cuando la unidad de prediccion se hace mas pequena que un tamano espedfico, puede no aplicarse el filtro.
Para un ejemplo, en el modo 3, 6 o 9 de intra-prediccion, puede aplicarse un primer filtro a los pfxeles de referencia de una unidad de prediccion que tenga un tamano igual a o menor que un primer tamano, y puede aplicarse un segundo filtro que sea mas fuerte que el primer filtro a los pfxeles de referencia de una unidad de prediccion que tenga un tamano mayor que el primer tamano. El primer tamano puede variar de acuerdo con los modos de prediccion direccionales.
En otro ejemplo, en el modo 5 de intra-prediccion que existe entre el modo de intra-prediccion vertical y el modo 6 de intra-prediccion, no puede aplicarse un filtro a una unidad de prediccion que tenga un tamano igual a o menor que un segundo tamano, el primer filtro puede aplicarse a los pfxeles de referencia de una unidad de prediccion que tenga un tamano mayor que el segundo tamano e igual a o menor que un tercer tamano, y el segundo filtro puede aplicarse a una unidad de prediccion que tenga un tamano mayor que el tercer tamano. El segundo tamano y el tercer tamano pueden variar de acuerdo con los modos de prediccion direccionales.
El primer filtro puede ser un filtro de 3 derivaciones [1, 2, 1] o un filtro de 5 derivaciones [1, 2, 4, 2, 1]. El segundo filtro tiene un mayor efecto de uniformidad que el primer filtro.
El generador 143 de bloques de prediccion genera un bloque de prediccion usando los pfxeles de referencia determinados por el modo de intra-prediccion.
En el modo de intra-prediccion direccional, los pfxeles de referencia correspondientes vanan de acuerdo con el modo de intra-prediccion. Por ejemplo, en el modo vertical, se usan L pfxeles de referencia superiores colocados en (x = 0,..., y L-1, y = -1), y en el modo horizontal, se usan L pfxeles de referencia izquierdos colocados en (x = -1, y = 0,..., y L-1).
En el modo intra-prediccion no direccional, se usan el pixel de esquina, los L pfxeles de referencia superiores colocados en (x = 0,..., y L-1, y = -1) y los L pfxeles de referencia izquierdos colocados en (x = -1, y = 0,..., y L-1). El modo de intra-prediccion no direccional es el modo de CC o el modo plano.
En el modo plano, se genera un pixel de referencia de un bloque de prediccion usando el pixel de referencia de esquina, un pixel de referencia izquierdo y un pixel de referencia superior. Cuando un pixel de referencia a generarse se coloca en (a, b), se genera un pixel de prediccion X (a, b) usando el pixel de referencia de esquina C (x = -1, y = -1), un pixel de referencia superior T (x = a, y = -1) y un pixel de referencia izquierdo L (x = -1, y = b). Espedficamente, X (a, b) puede ser L (x = -1, y = b) + T (x = a, y = -1) - C (x = -1, y = -1).
En el modo de intra-prediccion que existe en el lado derecho del modo vertical (el numero de modo es 0) de la figura 3, la posibilidad de que las diferencias entre los pfxeles de una region izquierda inferior del bloque de prediccion generado y los pfxeles correspondientes de la unidad de prediccion original aumentara si se genera el bloque de prediccion usando solo los pfxeles de referencia superiores. Sin embargo, cuando se genera un bloque de prediccion usando los pfxeles de referencia superiores y los pfxeles de referencia izquierdos, puede reducirse la diferencia. Este efecto es mayor en el modo 6 de intra-prediccion. Tambien en los modos de intra-prediccion que
5
10
15
20
25
30
35
40
45
50
55
existen en el modo horizontal (el numero de modo es 1) de la figura 3, puede aplicarse el mismo procedimiento, y el efecto es mayor que en el modo 9 de intra-prediccion.
Por lo tanto, en el modo 6 o 9 de intra-prediccion, puede generarse un pixel de prediccion usando el un pixel de referencia de interpolacion superior correspondiente (por ejemplo, posicionado a 45° del angulo de posicion) y un pixel de referencia de interpolacion izquierdo. El pixel de prediccion puede generarse mediante una interpolacion lineal de un pixel de referencia de interpolacion superior y el un pixel de referencia de interpolacion izquierdo o usando un promedio que se redondea. Asimismo, en un numero predeterminado de modos de intra-prediccion adyacentes al modo 6 o 9, puede generarse un bloque de prediccion usando los pfxeles de referencia izquierdos y los pfxeles de referencia superiores. Por ejemplo, en el modo 6 de intra-prediccion o en un modo perteneciente al numero predeterminado de (por ejemplo, el cuatro) modos de prediccion adyacentes al modo 6, pueden usarse los pfxeles de referencia izquierdos y los pfxeles de referencia superiores para generar un bloque de prediccion. En este caso, para reducir la complejidad, el procedimiento anteriormente mencionado no puede aplicarse en los modos de intra-prediccion que tengan unos numeros de modo mayores que un numero de modo predeterminado (por ejemplo, 9 o 17). Ademas, el procedimiento puede aplicarse a solo una unidad de prediccion actual que tenga un tamano igual a o mayor que un tamano predeterminado. El tamano predeterminado es 8 x 8 o 16 x 16.
El post-procesador 144 de bloques de prediccion filtra de manera adaptativa el bloque de prediccion generado por el generador 143 de bloques de prediccion. Para reducir las diferencias entre un pixel de referencia y los pfxeles adyacentes al pixel de referencia, el post-procesador 144 de bloques de prediccion filtra de manera adaptativa algunos o todos los pfxeles adyacentes al bloque de pixel de referencia de acuerdo con el modo de intra-prediccion. Los pfxeles adyacentes al pixel de referencia existen en el bloque de prediccion.
En el modo plano, los pfxeles adyacentes al pixel de referencia se generan usando el pixel de referencia, y por lo tanto no se aplica ningun filtro.
En el modo de CC, se usa un promedio de pfxeles de referencia, y por lo tanto se aplica un filtro. Pueden usarse diferentes tipos de filtro de acuerdo con el tamano de la unidad de prediccion. Para una unidad de prediccion de un gran tamano, puede usarse un filtro que sea el mismo que se usa en una unidad de prediccion de un tamano pequeno o en un filtro fuerte que tenga un gran efecto de uniformidad.
El determinador 145 de modos de prediccion determina el modo de intra-prediccion de la unidad de prediccion actual usando los pfxeles de referencia. El determinador 145 de modos de prediccion puede determinar un modo de intra- prediccion con los bits codificados mmimos anticipados de un bloque residual como un modo de intra-prediccion de la unidad de prediccion actual. En este caso, el bloque residual se genera usando un bloque de prediccion correspondiente a cada modo de intra-prediccion o un bloque de prediccion de post-procesado.
El codificador 146 de modos de prediccion codifica el modo de intra-prediccion de la unidad de prediccion actual usando los modos de intra-prediccion de las unidades de prediccion adyacentes a la unidad de prediccion actual.
La figura 4 es un diagrama de flujo que ilustra un procedimiento de codificacion de un modo de intra-prediccion de una unidad de prediccion actual realizado en el codificador 146 de modos de prediccion de acuerdo con la presente invencion.
En primer lugar, se buscan los candidatos del modo de intra-prediccion de una unidad de prediccion actual (S110). Un modo de intra-prediccion superior y un modo de intra-prediccion izquierdo de la unidad de prediccion actual pueden ser los candidatos del modo de intra-prediccion. Un modo de intra-prediccion de esquina puede anadirse tambien, o puede anadirse cualquier otro modo de acuerdo con el modo de intra-prediccion superior y el modo de intra-prediccion izquierdo.
Cuando hay una pluralidad de unidades de prediccion superiores de la unidad de prediccion actual, se exploran la pluralidad de unidades de prediccion superiores en una direccion predeterminada (por ejemplo, de derecha a izquierda) para determinar el modo de intra-prediccion de una primera unidad de prediccion disponible como un modo de intra-prediccion izquierdo. Como alternativa, entre una pluralidad de unidades de prediccion disponibles, puede establecerse el modo de intra-prediccion de una unidad de prediccion disponible que tenga el numero mas bajo de modo de intra-prediccion como un modo de intra-prediccion superior.
El modo de intra-prediccion de esquina puede establecerse como un modo de prediccion de una unidad de prediccion adyacente al lado derecho superior o al lado izquierdo superior de la unidad de prediccion actual. Como alternativa, el modo de intra-prediccion de esquina puede establecerse como un primer modo de intra-prediccion disponible obtenido explorando los modos de intra-prediccion adyacentes al lado izquierdo superior, al lado derecho superior y a un lado derecho inferior de la unidad de prediccion actual en un orden predeterminado. El orden predeterminado es el lado izquierdo superior, el lado derecho inferior y el lado derecho superior. Como alternativa, pueden anadirse dos (lado derecho superior y lado izquierdo superior) o tres (lado derecho superior, lado izquierdo superior y lado izquierdo inferior) modos de intra-prediccion de esquina como los candidatos del modo de intra- prediccion de la unidad de prediccion actual.
5
10
15
20
25
30
35
40
45
50
55
A continuacion, se determina si se cambia o no el modo de intra-prediccion de los candidatos del modo de intra- prediccion disponibles (S120).
Cuando se determina cambiar el modo de intra-prediccion, se cambia el candidato del modo de intra-prediccion disponible (S130).
En concreto, cuando el numero de modo de un candidato del modo de intra-prediccion disponible es igual a o mayor que el numero de modos de intra-prediccion permisibles para la unidad de prediccion actual, el candidato del modo de intra-prediccion disponible se convierte en uno de los modos permisibles. El numero de modos permisibles puede variar de acuerdo con un tamano de la unidad de prediccion actual. Por ejemplo, cuando el tamano de la unidad de prediccion actual es 4 x 4, el modo de intra-prediccion del candidato del modo de intra-prediccion disponible se convierte en uno de los nueve modos (modo 0 a modo de 8) o de los 18 modos.
A continuacion, se construye una lista de candidatos de intra-prediccion de la unidad de prediccion actual (S140). Los candidatos pueden listarse en un orden numerico de modos. Como alternativa, los candidatos pueden listarse en orden de frecuencia, y los candidatos de intra-prediccion que tienen la misma frecuencia pueden listarse en un orden numerico de modos. Cuando los candidatos del modo de intra-prediccion tienen el mismo numero de modo, los candidatos de intra-prediccion se eliminan de la lista excepto uno.
A continuacion, se determina si el modo de intra-prediccion de la unidad de prediccion actual es el mismo que uno cualquiera de los candidatos del modo de intra-prediccion en la lista construida (S150).
Cuando el modo de intra-prediccion de la unidad de prediccion actual es el mismo que uno de los candidatos del modo de intra-prediccion, se determina la informacion que indica que el modo de intra-prediccion es el mismo que uno de los candidatos del modo de intra-prediccion y un mdice candidato como una informacion de intra-prediccion (S160).
Cuando el modo de intra-prediccion de la unidad de prediccion actual no es el mismo que cualquiera de los candidatos del modo de intra-prediccion, se calcula un valor de cambio de modo para cambiar el modo de intra- prediccion de la unidad de prediccion actual (S170). El valor de cambio de modo es el numero de los candidatos del modo de intra-prediccion que tienen un numero de modo de intra-prediccion que no es mayor que el numero de modo de intra-prediccion de la unidad de prediccion actual. El valor de cambio de modo se obtiene comparando los valores de modo de intra-prediccion en la lista.
A continuacion, se cambia el modo de intra-prediccion de la unidad de prediccion actual usando el valor de cambio de modo (S180). El modo de intra-prediccion cambiado se determina como el modo de intra-prediccion de la unidad de prediccion actual. El modo de intra-prediccion cambiado de la unidad de prediccion actual se transmite al codificador 140 de entropfa.
La figura 5 es un diagrama de bloques de un aparato 200 de decodificacion de intra-prediccion de acuerdo con la presente invencion.
El aparato 200 de decodificacion de intra-prediccion de acuerdo con la presente invencion incluye un decodificador 210 de entropfa, un decodificador 220 de senales residuales, un decodificador 230 de modos de prediccion, un generador 240 de pfxeles de referencia, un generador 250 de bloques de prediccion, un filtro 260 de bloques de prediccion y un reconstructor 270 de imagenes.
El decodificador 210 de entropfa extrae los coeficientes residuales cuantificados de un flujo de bits recibido, y transmite los coeficientes residuales cuantificados y un tamano de la unidad de transformada al decodificador 220 de senales residuales en unidades de unidades de transformada. Ademas, el decodificador 210 de entropfa transmite la informacion de intra-prediccion y un tamano de una unidad de prediccion a decodificarse al decodificador 230 de modos de prediccion.
El decodificador 220 de senales residuales convierte los coeficientes residuales cuantificados en un bloque cuantificado inverso de una matriz de dos dimensiones (2D). Para esta conversion, se selecciona uno de una pluralidad de patrones de exploracion. El patron de exploracion del bloque de transformada se determina basandose en al menos uno de entre el modo de prediccion y el modo de intra-prediccion. Una operacion de exploracion inversa es la misma que un procedimiento inverso de operacion del escaner 131 de la figura 1. Por ejemplo, cuando un tamano de la unidad de transformada actual a decodificarse es mayor que un primer tamano de referencia, los coeficientes residuales cuantificados se exploran de manera inversa para formar una pluralidad de subconjuntos de acuerdo con el patron de exploracion, y se genera un bloque cuantificado inverso que tenga el tamano de la unidad de transformada usando la pluralidad de subconjuntos. Por otro lado, cuando el tamano de la unidad de transformada actual a decodificar no es mayor que el primer tamano de referencia, se exploran los coeficientes residuales cuantificados de manera inversa para generar un bloque cuantificado inverso que tenga el mismo tamano de la unidad de transformada de acuerdo con el patron de exploracion.
El decodificador 230 de modos de prediccion reconstruye el modo de intra-prediccion del modo de prediccion actual basandose en la informacion de intra-prediccion y en la informacion de tamano en la unidad de prediccion actual
5
10
15
20
25
30
35
40
45
50
55
recibida del decodificador 210 de entrc^a. La informacion de intra-prediccion recibida se restaura a traves un procedimiento inverso del procedimiento mostrado en la figura 4.
El generador 240 de pfxeles de referencia genera unos pfxeles de referencia no disponibles de la unidad de prediccion actual, y filtra de manera adaptativa los pfxeles de referencia de acuerdo con el modo de intra-prediccion de la unidad de prediccion actual recibidos desde el decodificador 230 de modos de prediccion. Un procedimiento de generacion de los pfxeles de referencia y un procedimiento de filtrado de los pfxeles de referencia son los mismos que los del generador 142 de pfxeles de referencia en el intra predictor 140 de la figura 2.
Espedficamente, se determina si estan disponibles los pfxeles de referencia de la unidad de prediccion actual. Los pfxeles de referencia de la unidad de prediccion actual usados para la intra-prediccion consisten en un pixel de referencia de esquina colocado en (x = -1, y = -1), 2L pfxeles de referencia superiores colocados en (x = 0,..., y 2L- 1, y = -1), y 2M pfxeles de referencia izquierdos colocados en (x = 0, y = 0,..., y 2M-1). En este caso, L es una anchura de la unidad de prediccion actual, y M es una altura de la unidad de prediccion actual.
Cuando los pfxeles de referencia para generar un bloque de prediccion no estan disponibles o son insuficientes, se generan unos pfxeles de referencia.
Cuando todos los pfxeles de referencia no estan disponibles, los pfxeles de referencia se generan con un valor predeterminado.
Cuando algunos de los pfxeles de referencia no estan disponibles, se determina si existen unos pfxeles de referencia que no estan disponibles en una sola direccion de los pfxeles disponibles o entre los pfxeles disponibles.
Cuando existen los pfxeles de referencia no disponibles en una sola direccion de los pfxeles disponibles, los pfxeles de referencia se generan copiando el valor de un pixel disponible mas cercano al pixel no disponible. Por ejemplo, cuando la unidad de prediccion actual se coloca en un lfmite superior de una imagen o un segmento, el pixel de referencia de esquina y los pfxeles de referencia superiores no estan disponibles. Por lo tanto, en este caso, el pixel de referencia de esquina y los pfxeles de referencia superiores pueden generarse copiando un pixel de referencia colocado en (x = -1, y = 0). Como alternativa, los pfxeles de referencia pueden generarse usando un pixel de referencia disponible de la posicion mas cercana y uno o mas pfxeles de referencia disponibles. Por ejemplo, cuando el pixel de referencia de esquina que tiene una posicion (x = -1, y = -1) y los pfxeles de referencia en las posiciones (x = 0,..., y L-1, y = -1) estan disponibles y los pfxeles de referencia en las posiciones (x = L,..., 2L-1, y = -1) no estan disponibles, los pfxeles de referencia en las posiciones no disponibles pueden generarse usando el cambio en la diferencia entre un pixel de referencia en una posicion (x = L-1, y = -1) y un valor de pixel de referencia de esquina u otro valor de pixel de referencia.
Cuando existen los pfxeles de referencia no disponibles entre los pfxeles disponibles, los pfxeles de referencia se generan usando dos pfxeles disponibles p y q adyacentes a los pfxeles de referencia no disponibles. Por ejemplo, cuando el pixel de referencia de esquina y los L pfxeles de referencia superiores colocados en (x = 0,..., y L-1, y = - 1), son pfxeles de referencia no disponibles que existen entre el pixel de referencia p en una posicion (x = -1, y = 0) y el pixel de referencia q en una posicion (x = L, y = -1) pueden generarse usando los pfxeles de referencia p y q.
Los valores de pixel de referencia generados pueden obtenerse redondeando un promedio del pixel de referencia p y el pixel de referencia q. Ademas, los valores de pixel de referencia pueden generarse usando el cambio en la diferencia entre los valores de pfxeles del pixel de referencia p y el pixel de referencia q. En este caso, los valores de pixel de referencia pueden generarse mediante una interpolacion lineal de acuerdo con las posiciones correspondientes a los valores de pixel generados o usando un promedio ponderado de los dos pfxeles de referencia.
Mientras tanto, cuando una pluralidad de unidades de prediccion estan en un lado superior de la unidad de prediccion actual, hay una alta posibilidad de que una diferencia entre los pfxeles lfmite presentes en ambos lados de un lfmite entre dos de las unidades de prediccion superiores sea mas alto que una diferencia entre los pfxeles adyacentes en cada unidad de prediccion superior. Esto resulta de un error provocado por un parametro de cuantificacion. Es muy probable que el error se produzca en los modos de intra-prediccion direccionales en los que se genera un bloque de prediccion usando dos pfxeles de referencia adyacentes.
En particular, los modos (numeros de modo 3, 6 y 9) que tienen una direccion de 45° con referencia a una direccion horizontal o vertical de la figura 3 son los mas gravemente afectados. En los modos de intra-prediccion vertical y horizontal (numeros de modo 0 y 1), se usa un pixel para generar un bloque de prediccion, y por lo tanto los modos de intra-prediccion vertical y horizontal se ven afectados ligeramente.
Por esta razon, se aplica un filtro (el filtro de uniformidad) a los pfxeles de referencia en los modos 3, 6 y 9 de intra- prediccion direccionales, y no se aplica a los pfxeles de referencia en los modos de intra-prediccion vertical y horizontal. En el modo de CC fuera de los modos no direccionales, tampoco se aplica el filtro. Para estos modos, puede determinarse si aplicar o no el filtro sin tener en cuenta el tamano de la unidad de prediccion actual.
5
10
15
20
25
30
35
40
45
50
55
En los modos de intra-prediccion direccionales que existen entre el modo 3, 6 o 9 de intra-prediccion y el modo de intra-prediccion horizontal o vertical, el filtro (el filtro de uniformidad) puede aplicarse de manera adaptativa a los pfxeles de referencia. Es preferible aumentar una probabilidad de aplicar el filtro (el filtro de uniformidad) como la direccion del modo de intra-prediccion direccional que esta relativamente mas cerca de la direccion del modo de intra-prediccion que tiene la direccion de 45°. Espedficamente, cuando un primer modo de intra-prediccion direccional esta mas cerca en direccionalidad al modo de intra-prediccion que tiene la direccion de 45° que un segundo modo de intra-prediccion direccional, si se aplica un filtro al segundo modo de intra-prediccion direccional, el filtro se aplica tambien al primer modo de intra-prediccion direccional. Por otra parte, si el filtro se aplica al primer modo de intra-prediccion direccional, el filtro puede o no puede aplicarse al segundo modo de intra-prediccion direccional.
Hay una alta posibilidad de que un cambio en la diferencia entre los pfxeles en una unidad de prediccion de un gran tamano sea menor que un cambio en la diferencia entre los pfxeles en una unidad de prediccion de un tamano pequeno. Por lo tanto, puede aumentarse el numero de modos direccionales en los que se aplica el filtro o puede aplicarse el filtro mas fuerte cuando aumenta el tamano de la unidad de prediccion. Por otro lado, cuando una unidad de prediccion se hace mas pequena que un tamano espedfico, el filtro puede no aplicarse.
Para un ejemplo, en el modo 3, 6 o 9 de intra-prediccion, que tiene la direccion de 45°, puede aplicarse un primer filtro a una unidad de prediccion que tenga un tamano igual a o menor que un primer tamano, y puede aplicarse un segundo filtro que sea mas fuerte que el primer filtro a una unidad de prediccion que tenga un tamano mayor que el primer tamano. El primer tamano puede variar de acuerdo con los modos de prediccion direccionales.
Para otro ejemplo, en el modo 5 de intra-prediccion que existe entre el modo de intra-prediccion vertical y el modo 6 de intra-prediccion, que tiene la direccion de 45°, no puede aplicarse un filtro a una unidad de prediccion que tenga un tamano igual a o sea menor que un segundo tamano, el primer filtro puede aplicarse a una unidad de prediccion que tenga un tamano mayor que el segundo tamano e igual a o menor que un tercio tamano, y el segundo filtro puede aplicarse a una unidad de prediccion que tenga un tamano mayor que el tercer tamano. El segundo tamano y el tercer tamano pueden variar de acuerdo con los modos de prediccion direccionales.
El primer filtro puede ser un filtro de 3 derivaciones [1, 2, 1] o un filtro de 5 derivaciones [1, 2, 4, 2, 1]. El segundo filtro tiene un mayor efecto de uniformidad que el primer filtro.
El generador 250 de bloques de prediccion genera un bloque de prediccion de acuerdo con el modo de intra- prediccion de la unidad de prediccion actual recibido desde el decodificador 230 de modos de prediccion. Un procedimiento para generar el bloque de prediccion es el mismo que el del generador 142 de bloques de prediccion en el intra predictor 140 de la figura 2.
Es decir, en el modo de intra-prediccion direccional, los pfxeles de referencia correspondientes vanan de acuerdo con los modos de intra-prediccion. Por ejemplo, en el modo vertical, se usan los L pfxeles de referencia superiores colocados en (x = 0,..., y L-1, y = -1), y en el modo horizontal, se usan los L pfxeles de referencia izquierdos colocados en (x = -1, y = 0,..., y L-1).
En los modos de intra-prediccion no direccionales, se usan el pixel de esquina, los L pfxeles de referencia superiores colocados en (x = 0,..., y L-1, y = -1) y los L pfxeles de referencia izquierdos colocados en (x = -1, y = 0,..., y L-1). Los modos de intra-prediccion no direccionales son el modo de CC y el modo plano.
En el modo plano, se genera un pixel de referencia de un bloque de prediccion usando el pixel de referencia de esquina, un pixel de referencia izquierdo y un pixel de referencia superior. Cuando un pixel de referencia a generarse se coloca en (a, b), se genera el pixel de referencia del bloque de prediccion X (a, b) usando el pixel de referencia de esquina C (x = -1, y = -1), un pixel de referencia superior T (x = a, y = -1) y un pixel de referencia izquierdo L (x = -1, y = b). Espedficamente, X (a, b) puede ser L (x = -1, y = b) + T (x = a, y = -1) - C (x = -1, y = -1).
En el modo de intra-prediccion que existe en el lado derecho del modo vertical (numero de modo 0) de la figura 3, existe la posibilidad de que aumente una diferencia entre los pfxeles de una region izquierda inferior del bloque de prediccion generado y los pfxeles de la unidad de prediccion original si se genera el bloque de prediccion usando solo los pfxeles de referencia superiores. Sin embargo, cuando se genera un bloque de prediccion usando los pfxeles de referencia superiores y los pfxeles de referencia izquierdos para varios modos entre los modos, la diferencia puede reducirse. Este efecto es mayor en el modo 6 de intra-prediccion. Ademas, en los modos de intra- prediccion que existen en el modo horizontal (numero de modo 1) de la figura 3, puede aplicarse el mismo procedimiento, y el efecto es mayor en el modo 9 de intra-prediccion.
Por lo tanto, en el modo 6 o 9 de prediccion, puede generarse un pixel de referencia de interpolacion superior correspondiente (por ejemplo, colocado a 45° del pixel de prediccion) y un pixel de referencia de interpolacion izquierdo. El pixel de prediccion puede generarse mediante interpolacion lineal de un pixel de referencia de interpolacion superior y el un pixel de referencia de interpolacion izquierdo o usando un promedio redondeado. Asimismo, en un numero predeterminado de modos de intra-prediccion adyacentes al modo 6 o 9, puede generarse un bloque de prediccion usando los pfxeles de referencia izquierdos y los pfxeles de referencia superiores. En este caso, para reducir la complejidad, el procedimiento anteriormente mencionado en el presente documento no puede
5
10
15
20
25
30
aplicarse en los modos de intra-prediccion que tengan numeros de modo mayores que un numero de modo predeterminado (por ejemplo, 9 o 17). Ademas, el procedimiento puede aplicarse a solo una unidad de prediccion actual que tenga un tamano igual a o mayor que un tamano predeterminado. El tamano predeterminado es de 8 x 8 o 16 x 16.
El filtro 260 de bloques de prediccion filtra de manera adaptativa el bloque de prediccion generado por el generador 250 de bloques de prediccion de acuerdo con el modo de intra-prediccion la unidad de prediccion actual recibida desde el decodificador 230 de modos de prediccion. El filtro 260 de bloques de prediccion puede estar integrado en el generador 250 de bloques de prediccion. Un procedimiento de filtrado de bloques de prediccion es el mismo que el del post-procesador 144 de bloques de prediccion del intra predictor 140 de la figura 2.
Es decir, para reducir las diferencias en los valores de pixel entre un pixel de referencia y los pfxeles en el bloque de prediccion adyacente al pixel de referencia, el filtro 260 de bloques de prediccion filtra de manera adaptativa algunos o todos los pfxeles en el bloque de prediccion adyacente al pixel de acuerdo con el modo de intra-prediccion. Los pfxeles adyacentes al pixel adyacente existen en el bloque de prediccion.
En el modo plano, los pfxeles en el bloque de prediccion adyacentes al pixel de referencia se generan usando el pixel de referencia, y por lo tanto no se aplica ningun filtro.
En el modo de CC, se usa un promedio de pfxeles de referencia para generar el pixel de prediccion, y por lo tanto se aplica un filtro. Pueden usarse diferentes tipos de filtro de acuerdo con el tamano de la unidad de prediccion (el tamano del bloque de prediccion). En una unidad de prediccion de un gran tamano, puede usarse un filtro que sea el mismo que el que se usa en una unidad de prediccion de un tamano pequeno o un filtro fuerte que tenga un gran efecto de uniformidad.
El reconstructor 270 de imagenes recibe un bloque de prediccion desde el generador 250 de bloques de prediccion o del filtro 260 de bloques de prediccion en unidades de unidades de prediccion de acuerdo con el modo de intra- prediccion. El reconstructor 270 de imagenes recibe un bloque residual reconstruido mediante el decodificador 220 de senales residuales en unidades de unidades de transformada. El reconstructor 270 de imagenes genera una imagen reconstruida anadiendo el bloque de prediccion recibido y el bloque residual. La imagen puede reconstruirse en unidades de unidades de codificacion.
Aunque la invencion se ha mostrado y descrito con referencia a ciertas realizaciones a modo de ejemplo de la misma, se entendera por los expertos en la materia que pueden hacerse diversos cambios en la forma y los detalles en la misma sin alejarse del ambito de la invencion tal como se define por las reivindicaciones adjuntas.

Claims (2)

  1. 5
    10
    15
    20
    25
    30
    35
    REIVINDICACIONES
    1. Un aparato de decodificacion, comprendiendo el aparato:
    un decodificador (210) de entropfa configurado para restaurar los coeficientes residuales cuantificados y la informacion de intra-prediccion;
    un decodificador (230) de modos de prediccion configurado para restaurar un modo de intra-prediccion basandose en la informacion de intra-prediccion;
    un decodificador (220) de senales residuales configurado para restaurar una senal residual usando el modo de intra-prediccion;
    un generador (240) de pfxeles de referencia configurado para generar los pfxeles de referencia correspondientes a los pfxeles de referencia no disponibles y para filtrar de manera adaptativa los pfxeles de referencia de acuerdo con el modo de intra-prediccion;
    un generador (250) de bloques de prediccion configurado para generar los pfxeles de prediccion usando los pfxeles de referencia determinados por el modo de intra-prediccion;
    un filtro (260) de bloques de prediccion configurado para filtrar de manera adaptativa algunos de los pfxeles de prediccion usando el modo de intra-prediccion; y
    un reconstructor (270) de imagenes configurado para generar una imagen reconstruida usando los pfxeles de prediccion y la senal residual,
    en el que, el generador (240) de pfxeles de referencia filtra de manera adaptativa los pfxeles de referencia de acuerdo con un tamano de un bloque de prediccion de los modos de intra-prediccion que existen entre un modo horizontal y un modo de intra-prediccion que tienen una direccion de 45° con respecto al modo horizontal,
    en el que el filtro se aplica al modo de intra-prediccion que tiene una direccion de 45° con respecto al modo horizontal y no se aplica a los modos vertical y horizontal,
    en el que, cuando los pfxeles de referencia se filtran para un segundo modo de intra-prediccion direccional, los pfxeles de referencia tambien se filtran para un primer modo de intra-prediccion direccional que esta mas cerca del modo de intra-prediccion que tiene la direccion de 45° con respecto al modo horizontal que lo que esta el segundo modo direccional,
    en el que los modos de intra-prediccion direccionales primero y segundo existen entre el modo horizontal y el modo de intra-prediccion que tiene la direccion de 45° con respecto al modo horizontal,
    en el que el numero de modos direccionales en los que se aplica el filtro aumenta a medida que aumenta el tamano de la unidad de prediccion,
    en el que, el generador (240) de pfxeles de referencia no filtra los pfxeles de referencia de un bloque actual que sea menor que un tamano predeterminado.
  2. 2. El aparato de la reivindicacion 1, en el que, cuando el modo de intra-prediccion es un modo plano, los pfxeles de referencia de un bloque de prediccion se generan usando un pixel de referencia de esquina, un pixel de referencia izquierdo y un pixel de referencia superior.
ES11814797.4T 2010-07-31 2011-07-29 Dispositivo de decodificación de intra-predicción Active ES2575381T3 (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20100074460 2010-07-31
KR20100074460 2010-07-31
KR20110063288 2011-06-28
KR1020110063288A KR20120012385A (ko) 2010-07-31 2011-06-28 인트라 예측 부호화 장치
PCT/KR2011/005590 WO2012018197A2 (ko) 2010-07-31 2011-07-29 인트라 예측 복호화 장치

Publications (1)

Publication Number Publication Date
ES2575381T3 true ES2575381T3 (es) 2016-06-28

Family

ID=45559905

Family Applications (11)

Application Number Title Priority Date Filing Date
ES16161927T Active ES2720581T3 (es) 2010-07-31 2011-07-29 Aparato de codificación de una imagen
ES16161943.2T Active ES2691195T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES16161928T Active ES2700623T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES11814797.4T Active ES2575381T3 (es) 2010-07-31 2011-07-29 Dispositivo de decodificación de intra-predicción
ES16160964T Active ES2718937T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES16161937.4T Active ES2692842T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES16161933.3T Active ES2694041T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES16161929T Active ES2696525T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES16161930.9T Active ES2685577T3 (es) 2010-07-31 2011-07-29 Aparato de intra-predicción
ES16161936T Active ES2700624T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES16161940.8T Active ES2685600T3 (es) 2010-07-31 2011-07-29 Aparato de codificación de una imagen

Family Applications Before (3)

Application Number Title Priority Date Filing Date
ES16161927T Active ES2720581T3 (es) 2010-07-31 2011-07-29 Aparato de codificación de una imagen
ES16161943.2T Active ES2691195T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES16161928T Active ES2700623T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen

Family Applications After (7)

Application Number Title Priority Date Filing Date
ES16160964T Active ES2718937T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES16161937.4T Active ES2692842T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES16161933.3T Active ES2694041T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES16161929T Active ES2696525T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES16161930.9T Active ES2685577T3 (es) 2010-07-31 2011-07-29 Aparato de intra-predicción
ES16161936T Active ES2700624T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES16161940.8T Active ES2685600T3 (es) 2010-07-31 2011-07-29 Aparato de codificación de una imagen

Country Status (19)

Country Link
US (11) US9307246B2 (es)
EP (11) EP3059954B1 (es)
JP (10) JP5997152B2 (es)
KR (13) KR20120012385A (es)
CN (13) CN106303532B (es)
CY (5) CY1117856T1 (es)
DK (5) DK3059956T3 (es)
ES (11) ES2720581T3 (es)
HR (5) HRP20160911T1 (es)
HU (11) HUE030354T2 (es)
LT (4) LT3051815T (es)
MX (5) MX336419B (es)
PL (11) PL3059953T3 (es)
PT (5) PT3051815T (es)
RS (5) RS55052B1 (es)
SI (5) SI3051815T1 (es)
SM (1) SMT201600168B (es)
TR (7) TR201809836T4 (es)
WO (1) WO2012018197A2 (es)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
RS54213B1 (en) * 2010-04-23 2015-12-31 M&K Holdings Inc. PICTURE CODING DEVICE
CN105516723B (zh) 2010-09-30 2018-07-27 三菱电机株式会社 运动图像编码装置及方法、运动图像解码装置及方法
US9008175B2 (en) 2010-10-01 2015-04-14 Qualcomm Incorporated Intra smoothing filter for video coding
WO2012134046A2 (ko) 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
GB2505345B (en) 2011-04-25 2018-05-09 Lg Electronics Inc Intra-prediction method, and encoder and decoder using same
KR20120140181A (ko) 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
MX365013B (es) * 2011-08-29 2019-05-20 Ibex Pt Holdings Co Ltd Metodo para generar un bloque de prediccion en modo de prediccion de vector de movimiento avanzada (amvp).
JP2013093792A (ja) * 2011-10-27 2013-05-16 Sony Corp 画像処理装置および方法
KR20130049523A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
KR20130049526A (ko) 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
CN103636209B (zh) 2012-06-08 2017-09-26 太阳专利托管公司 图像解码方法和图像解码装置
WO2014002407A1 (ja) 2012-06-27 2014-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
JP6301932B2 (ja) 2012-10-01 2018-03-28 ジーイー ビデオ コンプレッション エルエルシー エンハンスメント層の中の変換係数ブロックの副ブロックに基づいた符号化を使用するスケーラブルビデオ符号化
JP6391018B2 (ja) * 2013-07-01 2018-09-19 サン パテント トラスト 画像符号化方法、及び、画像符号化装置
JP6253406B2 (ja) * 2013-12-27 2017-12-27 キヤノン株式会社 画像符号化装置、撮像装置、画像符号化方法、及びプログラム
WO2017030418A1 (ko) * 2015-08-19 2017-02-23 엘지전자(주) 다중 그래프 기반 모델에 따라 최적화된 변환을 이용하여 비디오 신호를 인코딩/ 디코딩하는 방법 및 장치
MX2018001540A (es) * 2015-09-10 2018-05-17 Samsung Electronics Co Ltd Dispositivo de codificacion, dispositivo de decodificacion y metodo de codificacion y decodificacion para los mismos.
CN106550238B (zh) * 2015-09-16 2019-09-13 福州瑞芯微电子股份有限公司 一种图像处理方法及系统
WO2017135692A1 (ko) * 2016-02-02 2017-08-10 엘지전자(주) 픽셀 순환 코딩과 변환 코딩의 결합에 기초하여 비디오 신호를 처리하는 방법 및 장치
US20190037217A1 (en) * 2016-02-16 2019-01-31 Samsung Electronics Co., Ltd. Video encoding method and apparatus, and decoding method and apparatus therefor
KR20170108367A (ko) * 2016-03-17 2017-09-27 세종대학교산학협력단 인트라 예측 기반의 비디오 신호 처리 방법 및 장치
KR102346713B1 (ko) * 2016-04-12 2022-01-03 세종대학교산학협력단 인트라 예측 기반의 비디오 신호 처리 방법 및 장치
KR102601732B1 (ko) 2016-05-31 2023-11-14 삼성디스플레이 주식회사 영상 부호화 방법 및 영상 복호화 방법
PL3477951T3 (pl) * 2016-06-24 2022-05-02 Kt Corporation Adaptacyjne filtrowanie pikseli referencyjnych dla predykcji wewnątrzobrazowej z wykorzystaniem oddalonych linii pikseli
CN116527887A (zh) * 2016-08-01 2023-08-01 韩国电子通信研究院 图像编码/解码方法和设备以及存储比特流的记录介质
CN114286091A (zh) * 2016-09-05 2022-04-05 Lg电子株式会社 图像编码和解码方法、比特流存储介质及数据传输方法
CN117201775A (zh) * 2016-09-13 2023-12-08 韩国电子通信研究院 视频编码/解码方法和装置以及存储比特流的记录介质
US10652575B2 (en) * 2016-09-15 2020-05-12 Qualcomm Incorporated Linear model chroma intra prediction for video coding
US20180091812A1 (en) * 2016-09-23 2018-03-29 Apple Inc. Video compression system providing selection of deblocking filters parameters based on bit-depth of video data
JP6953523B2 (ja) * 2016-10-14 2021-10-27 インダストリー アカデミー コーオペレイション ファウンデーション オブ セジョン ユニバーシティ 画像の符号化/復号化方法及び装置
US10694202B2 (en) * 2016-12-01 2020-06-23 Qualcomm Incorporated Indication of bilateral filter usage in video coding
WO2018117891A1 (en) 2016-12-23 2018-06-28 Huawei Technologies Co., Ltd. An intra-prediction apparatus for removing a directional intra-prediction mode from a set of predetermined directional intra-prediction modes
KR20180080115A (ko) 2017-01-02 2018-07-11 한양대학교 산학협력단 참조 화소에 대하여 적응적 필터링을 수행하기 위한 화면 내 예측 방법 및 장치
WO2018124853A1 (ko) * 2017-01-02 2018-07-05 한양대학교 산학협력단 참조 화소에 대하여 적응적 필터링을 수행하기 위한 화면 내 예측 방법 및 장치
US10638126B2 (en) * 2017-05-05 2020-04-28 Qualcomm Incorporated Intra reference filter for video coding
CN110999304B (zh) * 2017-07-28 2023-12-08 韩国电子通信研究院 图像处理方法和图像编码/解码方法以及使用图像处理方法和图像编码/解码方法的装置
US11089299B2 (en) * 2017-09-08 2021-08-10 Kt Corporation Method and device for processing video signal
JP7236800B2 (ja) * 2017-10-10 2023-03-10 株式会社デンソー 車両洗浄システム
EP3496401A1 (en) * 2017-12-05 2019-06-12 Thomson Licensing Method and apparatus for video encoding and decoding based on block shape
EP3744093A4 (en) * 2018-01-25 2022-01-26 LG Electronics Inc. VIDEO DECODER AND RELATED CONTROL METHOD
US10735757B2 (en) 2018-01-30 2020-08-04 Lg Electronics Inc. Video decoder and controlling method thereof
WO2019203559A1 (ko) * 2018-04-17 2019-10-24 엘지전자 주식회사 영상 코딩 시스템에서 리그레션 모델 기반 필터링을 사용하는 영상 디코딩 방법 및 장치
WO2019216712A1 (ko) * 2018-05-10 2019-11-14 삼성전자 주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
EP3888368A4 (en) * 2018-11-27 2022-03-02 OP Solutions, LLC ADAPTIVE TIME REFERENCE IMAGE CROSS-REFERENCE FILTER NOT AVAILABLE TO RELATED APPLICATIONS
US11102513B2 (en) 2018-12-06 2021-08-24 Tencent America LLC One-level transform split and adaptive sub-block transform
US11356699B2 (en) * 2019-01-11 2022-06-07 Hfi Innovation Inc. Method and apparatus of sub-block deblocking in video coding
CN111263156B (zh) * 2019-02-20 2022-03-25 北京达佳互联信息技术有限公司 视频解码方法、视频编码方法及装置
US11190777B2 (en) * 2019-06-30 2021-11-30 Tencent America LLC Method and apparatus for video coding
CN112859327B (zh) * 2019-11-27 2022-10-18 成都理想境界科技有限公司 一种图像输出控制方法及光纤扫描成像系统
WO2023055199A1 (ko) * 2021-09-30 2023-04-06 한국전자통신연구원 영상 부호화/복호화를 위한 방법, 장치 및 기록 매체

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1056295B1 (en) * 1998-12-10 2006-11-02 Matsushita Electric Industrial Co., Ltd. Filter arithmetic device
DE10158658A1 (de) * 2001-11-30 2003-06-12 Bosch Gmbh Robert Verfahren zur gerichteten Prädiktion eines Bildblockes
US7289562B2 (en) * 2003-08-01 2007-10-30 Polycom, Inc. Adaptive filter to improve H-264 video quality
US7782954B2 (en) * 2003-09-07 2010-08-24 Microsoft Corporation Scan patterns for progressive video content
KR101014660B1 (ko) * 2003-10-24 2011-02-16 삼성전자주식회사 인트라 예측 방법 및 장치
JP2006100871A (ja) * 2004-09-28 2006-04-13 Sony Corp 符号化装置、符号化方法、符号化方法のプログラム及び符号化方法のプログラムを記録した記録媒体
KR100679035B1 (ko) * 2005-01-04 2007-02-06 삼성전자주식회사 인트라 bl 모드를 고려한 디블록 필터링 방법, 및 상기방법을 이용하는 다 계층 비디오 인코더/디코더
JP4231020B2 (ja) 2005-03-29 2009-02-25 日本電信電話株式会社 イントラ予測モード選択方法,画像符号化装置,画像符号化プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
DE602006020556D1 (de) 2005-04-01 2011-04-21 Panasonic Corp Bilddecodierungsvorrichtung und bilddecodierungsverfahren
KR100750128B1 (ko) * 2005-09-06 2007-08-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
KR100727990B1 (ko) * 2005-10-01 2007-06-13 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치
KR100868476B1 (ko) * 2005-10-21 2008-11-12 한국전자통신연구원 적응적 스캐닝을 이용한 동영상 부호화/복호화 장치 및 그방법
KR100750145B1 (ko) * 2005-12-12 2007-08-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
JP4542064B2 (ja) 2006-05-11 2010-09-08 日本電信電話株式会社 階層間予測方法,装置,プログラムおよびその記録媒体
CN101502124B (zh) * 2006-07-28 2011-02-23 株式会社东芝 图像编码和解码的方法以及装置
CN101529918B (zh) * 2006-10-30 2011-08-03 日本电信电话株式会社 预测参照信息生成方法、活动图像的编码及解码方法及其装置
KR100856392B1 (ko) 2006-11-08 2008-09-04 한국전자통신연구원 현재 영상의 복원영역을 참조하는 동영상 부호화/복호화장치 및 그 방법
CN101589624A (zh) * 2007-01-22 2009-11-25 日本电气株式会社 图像再编码设备、图像再编码方法以及图像编码程序
US20100118940A1 (en) * 2007-04-19 2010-05-13 Peng Yin Adaptive reference picture data generation for intra prediction
KR101378338B1 (ko) * 2007-06-14 2014-03-28 삼성전자주식회사 영상 복구를 이용한 인트라 예측 부호화, 복호화 방법 및장치
WO2009001793A1 (ja) * 2007-06-26 2008-12-31 Kabushiki Kaisha Toshiba 画像符号化と画像復号化の方法及び装置
JP5437807B2 (ja) 2007-09-18 2014-03-12 富士通株式会社 動画像符号化装置および動画像復号装置
US8204327B2 (en) * 2007-10-01 2012-06-19 Cisco Technology, Inc. Context adaptive hybrid variable length coding
KR101228020B1 (ko) * 2007-12-05 2013-01-30 삼성전자주식회사 사이드 매칭을 이용한 영상의 부호화 방법 및 장치, 그복호화 방법 및 장치
WO2009088340A1 (en) * 2008-01-08 2009-07-16 Telefonaktiebolaget Lm Ericsson (Publ) Adaptive filtering
US20090245351A1 (en) * 2008-03-28 2009-10-01 Kabushiki Kaisha Toshiba Moving picture decoding apparatus and moving picture decoding method
CN100592796C (zh) * 2008-04-15 2010-02-24 中国科学院计算技术研究所 一种视频编码器及其帧内预测模式选择方法
ES2541807T3 (es) 2008-05-07 2015-07-24 Lg Electronics Inc. Procedimiento y aparato para decodificar una señal de vídeo
JP2009284298A (ja) * 2008-05-23 2009-12-03 Hitachi Ltd 動画像符号化装置、動画像復号化装置、動画像符号化方法及び動画像復号化方法
JP2009302776A (ja) 2008-06-11 2009-12-24 Canon Inc 画像符号化装置、その制御方法、及びコンピュータプログラム
US9055146B2 (en) * 2008-06-17 2015-06-09 International Business Machines Corporation Social network based call management
WO2010036772A2 (en) * 2008-09-26 2010-04-01 Dolby Laboratories Licensing Corporation Complexity allocation for video and image coding applications
KR101590500B1 (ko) 2008-10-23 2016-02-01 에스케이텔레콤 주식회사 동영상 부호화/복호화 장치, 이를 위한 인트라 예측 방향에기반한 디블록킹 필터링 장치 및 필터링 방법, 및 기록 매체
WO2010063881A1 (en) * 2008-12-03 2010-06-10 Nokia Corporation Flexible interpolation filter structures for video coding
KR101538704B1 (ko) * 2009-01-28 2015-07-28 삼성전자주식회사 보간 필터를 적응적으로 사용하여 영상을 부호화 및 복호화하는 방법 및 장치
CN101674475B (zh) * 2009-05-12 2011-06-22 北京合讯数通科技有限公司 一种h.264/svc的自适应层间纹理预测方法
KR101062111B1 (ko) 2009-07-06 2011-09-02 안양과학대학 산학협력단 가로등용 엘이디 등기구
CN101715135B (zh) * 2009-09-30 2013-01-09 武汉大学 基于匹配模板的自适应帧内预测滤波编码方法
KR101464538B1 (ko) 2009-10-01 2014-11-25 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
CN101854549B (zh) * 2010-05-28 2012-05-02 浙江大学 基于空域预测的视频和图像编解码方法和装置
KR20110054244A (ko) 2009-11-17 2011-05-25 삼성전자주식회사 미디언 필터를 이용한 깊이영상 부호화의 인트라 예측 장치 및 방법
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
JP5478740B2 (ja) * 2011-01-12 2014-04-23 三菱電機株式会社 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法

Also Published As

Publication number Publication date
PL3059959T3 (pl) 2019-03-29
KR20210131950A (ko) 2021-11-03
US20160057425A1 (en) 2016-02-25
KR20130098255A (ko) 2013-09-04
EP2600613A2 (en) 2013-06-05
CY1120472T1 (el) 2019-07-10
KR20210131949A (ko) 2021-11-03
EP3059960B1 (en) 2018-06-13
PT3059956T (pt) 2018-10-18
US9491468B2 (en) 2016-11-08
KR20200050451A (ko) 2020-05-11
ES2718937T3 (es) 2019-07-05
EP3059960A1 (en) 2016-08-24
KR102164752B1 (ko) 2020-10-14
EP3051815A1 (en) 2016-08-03
EP3059958B1 (en) 2018-09-19
LT3059953T (lt) 2019-03-12
PL2600613T3 (pl) 2016-11-30
DK2600613T3 (en) 2016-08-22
EP3059955B1 (en) 2018-09-26
HUE039985T2 (hu) 2019-02-28
HUE030354T2 (en) 2017-05-29
LT3059960T (lt) 2018-08-27
KR20210131951A (ko) 2021-11-03
KR20120012385A (ko) 2012-02-09
CN106210723A (zh) 2016-12-07
EP3059959A1 (en) 2016-08-24
MX336416B (es) 2016-01-19
WO2012018197A3 (ko) 2012-04-12
US9467702B2 (en) 2016-10-11
HRP20160911T1 (hr) 2016-09-23
SI3059956T1 (en) 2018-08-31
CN106231313A (zh) 2016-12-14
ES2700623T3 (es) 2019-02-18
CN106067981A (zh) 2016-11-02
JP2017011727A (ja) 2017-01-12
MX2013001232A (es) 2013-03-12
TR201816486T4 (tr) 2018-11-21
JP2017011731A (ja) 2017-01-12
DK3059960T3 (en) 2018-09-10
LT3059956T (lt) 2018-08-27
KR20210096029A (ko) 2021-08-04
MX336418B (es) 2016-01-19
CY1122995T1 (el) 2021-10-29
CN106231314A (zh) 2016-12-14
CY1117856T1 (el) 2017-05-17
ES2694041T3 (es) 2018-12-17
PL3059953T3 (pl) 2019-08-30
CN104602011A (zh) 2015-05-06
EP3059954A1 (en) 2016-08-24
EP3059961B1 (en) 2018-09-12
DK3059953T3 (en) 2019-04-29
RS58564B1 (sr) 2019-05-31
WO2012018197A2 (ko) 2012-02-09
PL3059957T3 (pl) 2019-03-29
EP3059957B1 (en) 2018-09-12
KR20130029097A (ko) 2013-03-21
JP6163597B2 (ja) 2017-07-12
EP3059957A1 (en) 2016-08-24
CN106067977A (zh) 2016-11-02
ES2692842T3 (es) 2018-12-05
PT3059960T (pt) 2018-10-18
PL3059960T3 (pl) 2018-11-30
JP2017011732A (ja) 2017-01-12
JP2017011728A (ja) 2017-01-12
KR20140057510A (ko) 2014-05-13
PL3059956T3 (pl) 2018-11-30
US9307246B2 (en) 2016-04-05
CN103081474B (zh) 2016-09-21
CN104602009A (zh) 2015-05-06
ES2691195T3 (es) 2018-11-26
CN106067979A (zh) 2016-11-02
DK3051815T3 (en) 2019-04-29
US20160057423A1 (en) 2016-02-25
KR20140056205A (ko) 2014-05-09
CN106231313B (zh) 2020-02-04
SI2600613T1 (sl) 2016-07-29
CN103081474A (zh) 2013-05-01
CN104602009B (zh) 2016-09-07
TR201809836T4 (tr) 2018-07-23
ES2685600T3 (es) 2018-10-10
KR20210131952A (ko) 2021-11-03
SI3051815T1 (sl) 2019-04-30
MX336419B (es) 2016-01-19
JP6158997B2 (ja) 2017-07-05
TR201816492T4 (tr) 2018-11-21
KR20140057511A (ko) 2014-05-13
JP6163596B2 (ja) 2017-07-12
HUE044305T2 (hu) 2019-10-28
RS58388B1 (sr) 2019-04-30
US20160057449A1 (en) 2016-02-25
PT3059953T (pt) 2019-03-27
EP2600613A4 (en) 2014-09-10
US20160057427A1 (en) 2016-02-25
CN106067981B (zh) 2017-08-11
EP3059956A1 (en) 2016-08-24
EP3059959B1 (en) 2018-09-12
HUE041736T2 (hu) 2019-05-28
US20160057424A1 (en) 2016-02-25
US20160057421A1 (en) 2016-02-25
US9445099B2 (en) 2016-09-13
SI3059960T1 (en) 2018-08-31
US9609325B2 (en) 2017-03-28
CN106210723B (zh) 2019-11-01
JP2016220245A (ja) 2016-12-22
RS55052B1 (sr) 2016-12-30
CN106067977B (zh) 2017-08-11
US20160057450A1 (en) 2016-02-25
HUE041267T2 (hu) 2019-05-28
US9451263B2 (en) 2016-09-20
US20130016774A1 (en) 2013-01-17
CN106067980B (zh) 2017-08-11
CN106067979B (zh) 2017-08-11
CN106231312B (zh) 2019-04-12
PL3059955T3 (pl) 2019-06-28
EP3059956B1 (en) 2018-06-13
HRP20190773T1 (hr) 2019-06-14
JP6163598B2 (ja) 2017-07-12
SI3059953T1 (sl) 2019-04-30
ES2685577T3 (es) 2018-10-10
HUE040206T2 (hu) 2019-02-28
LT3051815T (lt) 2019-02-25
TR201815017T4 (tr) 2018-11-21
JP6158995B2 (ja) 2017-07-05
EP3059953B1 (en) 2019-02-20
DK3059956T3 (en) 2018-09-10
PL3059958T3 (pl) 2019-06-28
US20160057422A1 (en) 2016-02-25
JP6158996B2 (ja) 2017-07-05
JP6163595B2 (ja) 2017-07-12
US9451264B2 (en) 2016-09-20
JP6152461B2 (ja) 2017-06-21
US9615094B2 (en) 2017-04-04
PL3059954T3 (pl) 2019-03-29
JP5997152B2 (ja) 2016-09-28
JP2013534384A (ja) 2013-09-02
HUE041476T2 (hu) 2019-05-28
PT2600613E (pt) 2016-06-03
CY1120479T1 (el) 2019-07-10
CN106303532A (zh) 2017-01-04
HUE041269T2 (hu) 2019-05-28
EP3051815B1 (en) 2019-01-30
EP3059958A1 (en) 2016-08-24
EP3059953A1 (en) 2016-08-24
HUE044403T2 (hu) 2019-10-28
CN106231314B (zh) 2020-02-04
HUE041266T2 (hu) 2019-05-28
EP2600613B1 (en) 2016-05-11
ES2720581T3 (es) 2019-07-23
US20160057426A1 (en) 2016-02-25
JP6158998B2 (ja) 2017-07-05
KR101339903B1 (ko) 2013-12-10
SMT201600168B (it) 2016-07-01
CN106067980A (zh) 2016-11-02
USRE49565E1 (en) 2023-06-27
CN106303532B (zh) 2019-03-12
US9462281B2 (en) 2016-10-04
JP2017011730A (ja) 2017-01-12
HRP20181470T1 (hr) 2018-11-02
CY1121337T1 (el) 2020-05-29
TR201809830T4 (tr) 2018-07-23
KR102322188B1 (ko) 2021-11-05
PT3051815T (pt) 2019-03-01
JP2017011729A (ja) 2017-01-12
CN106231312A (zh) 2016-12-14
MX336417B (es) 2016-01-19
RS57381B1 (sr) 2018-09-28
HRP20181471T1 (hr) 2018-11-02
KR20120012401A (ko) 2012-02-09
HUE041737T2 (hu) 2019-05-28
CN106067978B (zh) 2017-08-29
TR201815529T4 (tr) 2018-11-21
EP3059955A1 (en) 2016-08-24
PL3059961T3 (pl) 2019-04-30
CN106067978A (zh) 2016-11-02
US9438919B2 (en) 2016-09-06
ES2700624T3 (es) 2019-02-18
TR201816011T4 (tr) 2018-11-21
PL3051815T3 (pl) 2019-07-31
ES2696525T3 (es) 2019-01-16
JP2016220246A (ja) 2016-12-22
JP2017011733A (ja) 2017-01-12
HRP20190543T1 (hr) 2019-05-31
EP3059961A1 (en) 2016-08-24
RS57368B1 (sr) 2018-08-31
EP3059954B1 (en) 2018-09-26
CN104602011B (zh) 2018-02-02

Similar Documents

Publication Publication Date Title
ES2575381T3 (es) Dispositivo de decodificación de intra-predicción
ES2634819T3 (es) Aparato para codificar una imagen
ES2602779T3 (es) Procedimiento de descodificación de intra-predicciones
ES2954979T3 (es) Aparato para codificar un fotograma en movimiento
ES2546514T3 (es) Aparato de codificación de imágenes
ES2901774T3 (es) Método y aparato para decodificar modo de intra-predicción