ES2685600T3 - Aparato de codificación de una imagen - Google Patents

Aparato de codificación de una imagen Download PDF

Info

Publication number
ES2685600T3
ES2685600T3 ES16161940.8T ES16161940T ES2685600T3 ES 2685600 T3 ES2685600 T3 ES 2685600T3 ES 16161940 T ES16161940 T ES 16161940T ES 2685600 T3 ES2685600 T3 ES 2685600T3
Authority
ES
Spain
Prior art keywords
prediction
intra
mode
block
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16161940.8T
Other languages
English (en)
Inventor
Soo Mi Oh
Moonock Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
M&K Holdings Inc
Original Assignee
M&K Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45559905&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2685600(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by M&K Holdings Inc filed Critical M&K Holdings Inc
Application granted granted Critical
Publication of ES2685600T3 publication Critical patent/ES2685600T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Abstract

Un aparato de codificación de una imagen, comprendiendo el aparato: una unidad (150) de intra-predicción configurada para determinar un modo de intra-predicción, para generar los píxeles de referencia correspondientes a los píxeles de referencia no disponibles, para filtrar de manera adaptativa los píxeles de referencia de acuerdo con el modo de intra-predicción, y para generar un bloque de predicción usando los píxeles de referencia determinados por el modo de intra-predicción; una unidad (120) de transformación configurada para transformar un bloque residual, que es una señal residual entre un bloque original y el bloque de predicción generado por la unidad (150) de intra-predicción, para generar un bloque de transformación; una unidad (130) de cuantificación configurada para cuantificar el bloque de transformación para generar un bloque cuantificado; y una unidad (140) de codificación de entropía configurada para codificar por entropía el bloque cuantificado, en el que la unidad (150) de intra-predicción filtra de manera adaptativa los píxeles de referencia de acuerdo con un tamaño del bloque de predicción para los modos de intra-predicción que existen entre un modo horizontal y un modo de intra-predicción que tienen una dirección de 45º con respecto al modo horizontal, en el que, cuando los píxeles de referencia se filtran para un segundo modo de intra-predicción direccional, los píxeles de referencia también se filtran para un primer modo de intra-predicción direccional que está más cerca del modo de intra-predicción que tiene la dirección de 45º con respecto al modo horizontal que el segundo modo de intra-predicción direccional, en el que los modos de intra-predicción direccionales primero y segundo existen entre el modo horizontal y el modo de intra-predicción que tiene la dirección de 45º con respecto al modo horizontal, en el que el filtro se aplica al modo de intra-predicción que tiene la dirección de 45º con respecto al modo horizontal y no se aplica al modo horizontal y un modo vertical, en el que el número de modos de intra-predicción en los que se aplica el filtro aumenta a medida que aumenta el tamaño del bloque de predicción, en el que la unidad (150) de intra-predicción no filtra los píxeles de referencia del bloque de predicción que sea menor que un tamaño predeterminado.

Description

5
10
15
20
25
30
35
40
45
50
DESCRIPCION
Aparato de codificación de una imagen
En los procedimientos de compresión de imágenes tales como el grupo de expertos de imágenes en movimiento (MPEG)-1, MPEG-2, MPEG-4 y la codificación de vídeo avanzada (AVC) H.264/MPEG-4, una imagen se divide en macrobloques para codificar una imagen. A continuación, los macrobloques respectivos se codifican usando una inter predicción o una intra-predicción.
En la intra-predicción, un bloque de una imagen actual se codifica no usando una imagen de referencia, pero usando valores de los píxeles espacialmente adyacentes al bloque actual. Un modo de intra-predicción con poca distorsión se selecciona comparando con un macrobloque original que usa los valores de píxeles adyacentes. A continuación, usando el modo seleccionado de intra-predicción y los valores de píxeles adyacentes, se calculan los valores de predicción del bloque actual. Y se calcula una diferencia entre los valores de predicción y los valores de los píxeles del bloque actual original y a continuación se codifican través de una codificación de transformada, una cuantificación y una codificación de entropía. El modo de intra-predicción también se codifica.
Los modos de intra-predicción se clasifican, en general, en un modo de intra-predicción de 4 x 4, un modo de intra- predicción de 8 x 8 y un modo de intra-predicción de 16 x 16 para los componentes de luminancia y los componentes de crominancia.
En el modo de intra-predicción de 16 x 16 de acuerdo con la técnica relacionada hay cuatro modos, un modo vertical, un modo horizontal, un modo de corriente continua (CC) y un modo plano.
En el modo de intra-predicción de 4 x 4 de acuerdo con la técnica relacionada hay nueve modos, un modo vertical, un modo horizontal, un modo de CC, un modo abajo-izquierda diagonal, un modo abajo-derecha diagonal, un modo derecho vertical, un modo izquierdo vertical, un modo horizontal-arriba y un modo horizontal-abajo.
Cada modo de predicción se indexa de acuerdo con la frecuencia de uso de los modos respectivos. El modo vertical, que es el modo 0, muestra la posibilidad más alta de que se use lo más frecuentemente para realizar la intra- predicción en un bloque objetivo, y el modo horizontal-arriba que es el modo de 8 muestra la posibilidad más alta de que se use lo más infrecuentemente.
De acuerdo con los normas H.264, un bloque actual se codifica usando un total de 13 modos, es decir, 4 modos del modo de intra-predicción de 4 x 4 y 9 modos del modo de intra-predicción de 16 x 16. Se genera una secuencia de bits del bloque actual de acuerdo con un modo óptimo entre estos modos.
Sin embargo, cuando algunos o todos los valores de los píxeles adyacentes al bloque actual no existen o no están ya codificados, es imposible aplicar algunos o todos los modos de intra-predicción. Además, cuando una diferencia entre los píxeles de referencia adyacentes es grande, una diferencia entre un bloque de predicción y un bloque original se hace grande. Por lo tanto, se requiere una nueva técnica para reducir la diferencia entre el bloque original y el bloque de predicción generado basándose en las posiciones de los píxeles de referencia usados para generar el bloque de predicción.
El documento EP 2 557 797 A2 desvela un procedimiento y aparato para realizar intra-predicción usando un filtro adaptativo. El procedimiento para realizar intra-predicción comprende las etapas de: determinar si aplicar o no un primer filtro para un valor de píxel de referencia basándose en información de un bloque cercano a un bloque actual; aplicar el primer filtro para el valor de píxel de referencia cuando se determina aplicar el primer filtro; realizar la intra- predicción en el bloque actual basándose en el valor de píxel de referencia; determinar si aplicar o no un segundo filtro para un valor de predicción según cada modo de predicción del bloque actual, que se predice por el rendimiento de intra-predicción basándose en la información del bloque cercano; y aplicar el segundo filtro para el valor de predicción según cada modo de predicción del bloque actual cuando se determina aplicar el segundo filtro.
El documento ANONYMOUS, "Test Model under Consideration", 2. JCT-VC MEETING; 21-7-2010 - 28-7-2010; GENEVA; (JOINT COLLABORATIVE TEAM ON VIDEO CODING OF ISO/IEC JTC1/SC29/WG11 AND ITU-T SG.16), (2010-07-28), no. JCTVC-BV205, ISSN 0000-0046, desvela un modelo de ensayo destinado a proporcionar una eficacia de codificación cercana a las propuestas de mejor rendimiento en el ensayo objeto de las presentaciones CfP y además a proporcionar un punto de complejidad que está cerca del de las presentaciones de menor complejidad que se muestra que proporcionan una mejora sustancial de eficacia de codificación.
Es por tanto el objeto de la invención proporcionar un aparato mejorado para codificar una imagen.
Este objeto se soluciona por la materia objeto de las reivindicaciones independientes.
Las realizaciones preferentes se definen por las reivindicaciones dependientes.
Los ejemplos de la presente invención se dirigen a un aparato de codificación de una imagen para codificar eficazmente una imagen con alta eficacia de compresión.
5
10
15
20
25
30
35
40
45
50
55
Un ejemplo de la presente invención proporciona un aparato de codificación de una imagen, incluyendo el aparato: una unidad de intra-predicción configurada para determinar un modo de intra-predicción, para generar píxeles de referencia correspondientes a píxeles de referencia no disponibles, para filtrar de forma adaptativa los píxeles de referencia según el modo de intra-predicción y para generar un bloque de predicción usando los píxeles de referencia determinados por el modo de intra-predicción; una unidad de transformación configurada para transformar un bloque residual, que es una señal residual entre un bloque original y el bloque de predicción generado por la unidad (150) de intra-predicción, para generar un bloque de transformación; una unidad de cuantificación configurada para cuantificar el bloque de transformación para generar un bloque cuantificado; y una unidad de codificación de entropía configurada para codificar por entropía el bloque cuantificado, en el que la unidad de intra- predicción filtra adaptativamente los píxeles de referencia según un tamaño del bloque de predicción para los modos de intra-predicción existentes entre un modo horizontal y un modo de intra-predicción con una dirección de 45° con respecto al modo horizontal, en el que, cuando los píxeles de referencia se filtran para un segundo modo de intra- predicción direccional, los píxeles de referencia también se filtran para un primer modo de intra-predicción direccional que está más cerca del modo de intra-predicción con la dirección de 45° con respecto al modo horizontal el segundo modo de intra-predicción direccional, en el que el segundo y el primer modo de intra-predicción direccional existen entre el modo horizontal y el modo de intra-predicción con la dirección de 45° con respecto al modo horizontal, en el que el filtro se aplica al modo de intra-predicción con la dirección de 45° con respecto al modo horizontal y no se aplica al modo horizontal y un modo vertical, en el que el número de modos de intra-predicción en los que el filtro se aplica aumenta a medida que aumenta el tamaño del bloque de predicción, en el que la unidad de intra-predicción no filtra los píxeles de referencia del bloque de predicción que es menor que un tamaño predeterminado.
Un aparato de codificación de una imagen de acuerdo con la presente invención genera unos píxeles de referencia y filtra de manera adaptativa los píxeles de referencia con el fin de generar un bloque de predicción similar a un bloque original. Además, generando o modificando el bloque de predicción que usa los píxeles de referencia que no se usan para generar un bloque de predicción, puede reconstruirse el bloque de predicción similar a un bloque original, y puede mejorarse una compresión de imagen.
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes en movimiento de acuerdo con la presente invención.
La figura 2 es un diagrama de bloques de un intra predictor de acuerdo con la presente invención.
La figura 3 es un diagrama conceptual que muestra los modos de intra-predicción direccionales de acuerdo con la presente invención.
La figura 4 es un diagrama de flujo que ilustra un procedimiento de codificación de un modo de intra-predicción de una unidad de predicción actual realizado en un codificador de modos de predicción de acuerdo con la presente invención.
La figura 5 es un diagrama de bloques de un aparato de decodificación de intra-predicción de acuerdo con la presente invención.
En lo sucesivo diversos ejemplos para entender mejor la presente invención se describirán en detalle con referencia a los dibujos adjuntos. Sin embargo, la presente invención no se limita a los ejemplos desvelados a continuación, ya que puede implementarse de diversas maneras. Por lo tanto, son posibles muchas otras modificaciones y variaciones de la presente invención, y debe entenderse que dentro del ámbito del concepto desvelado, puede ponerse en práctica la presente invención de otro modo que como se ha descrito específicamente.
Para la codificación de imágenes, cada imagen consiste en uno o más segmentos (slices), y cada segmento se compone de una pluralidad de unidades de codificación. Ya que una imagen de un grado de alta definición (HD) o superior tiene muchas regiones uniformes, puede mejorarse una compresión de la imagen codificando la imagen con unas unidades de codificación de diversos tamaños.
Las unidades de codificación de acuerdo con la presente invención tienen una estructura de árbol cuádruple y pueden dividirse de manera jerárquica usando la información de profundidad. Una unidad de codificación del tamaño más grande se denomina como una unidad de codificación más grande (largest coding unit, LCU), y una unidad de codificación del tamaño más pequeño se denomina como una unidad de codificación más pequeña (smallest coding unit, SCU). La información relativa a la LCU y la SCU puede incluirse en un conjunto de parámetros de secuencia (sequence parameter set, SPS) y transmitirse.
Una LCU consiste en una o más unidades de codificación. La LCU tiene la forma de un árbol de codificación recursiva con el fin de incluir una estructura de división de las unidades de codificación. Cuando la LCU no está dividida en cuatro unidades de codificación, el árbol de codificación puede consistir en una información que indique que la LCU no está dividida y una unidad de codificación. Cuando la LCU está dividida en cuatro unidades de codificación, el árbol de codificación puede consistir en una información que indique que la LCU está dividida y cuatro árboles de sub-codificación. Del mismo modo, cada árbol de sub-codificación tiene la misma estructura que el árbol de codificación de la LCU. Sin embargo, una unidad de codificación del tamaño de una SCU no se divide en
5
10
15
20
25
30
35
40
45
50
55
unidades de codificación.
Mientras tanto, cada unidad de codificación en el árbol de codificación se somete a una intra-predicción o inter predicción en unidades de la unidad de codificación en sí mismas o a una sub-partición. Una unidad en la que se realiza una intra-predicción o una inter predicción se denomina como una unidad de predicción. Un tamaño de la unidad de predicción puede ser 2N x 2N o N x N en una intra-predicción. Un tamaño de la unidad de predicción puede ser 2N x 2N, 2n x N, N x 2N o N x N en una inter predicción. En el presente documento, 2N indica las longitudes horizontal y vertical de la unidad de codificación.
Mientras tanto, una unidad de predicción para la intra-predicción puede no ser un cuadrado. Por ejemplo, una unidad de codificación cuadrada puede dividirse en cuatro hN x 2N o cuatro 2N x hN para la intra-predicción. En este caso, se reduce la distancia entre un píxel de referencia y un píxel de un bloque de predicción para la intra-predicción, de tal manera que puede mejorarse la eficiencia de predicción. Este procedimiento de intra-predicción es una intra- predicción de corta distancia (short distance intra prediction, SDIP).
Una unidad de codificación incluye la información del modo de predicción y la información de tamaño (modo_parte) de las unidades de predicción dentro de la unidad de codificación. Para mejorar la eficiencia de codificación, la información del modo de predicción y la información de tamaño pueden combinarse y codificarse conjuntamente. En este caso, cada unidad de codificación incluye un tipo de predicción codificada conjunta (tipo_pred).
Una unidad de codificación incluye la información adicional necesaria para generar un bloque de predicción de cada unidad de predicción y una señal residual. La información adicional se define por unidad de predicción en la unidad de codificación. En la intra-predicción, la información adicional incluye la información de intra-predicción codificada. En la inter predicción, la información adicional incluye la información de movimiento codificada. La información de movimiento incluye un vector de movimiento y un índice de imagen de referencia.
En cada unidad de codificación se incluye una señal residual. Una señal residual incluye un árbol de transformada, un portador de señal residual de luminancia y dos portadores de señal residual de crominancia. Los portadores de señal residual incluyen la información residual codificada en una o más unidades de transformada. El tamaño más grande de la unidad de transformada es igual a o menor que el tamaño de la unidad de codificación. La unidad de transformada puede tener el mismo tamaño que la unidad de transformada más grande o una unidad de subtransformada de la unidad de transformada más grande.
El árbol de transformada incluye la información que indica una estructura de división de la unidad de transformada para la señal residual incluida en la unidad de codificación. Además, el árbol de transformada incluye la información que indica si una señal residual de cada unidad de transformada es o no 0.
La portadora de señal residual lleva la información residual codificada en las unidades de transformada correspondientes a la información que indica la estructura de división en el árbol de transformada en unidades de unidades de codificación.
Aunque la descripción anterior se ha hecho solamente de una unidad de predicción obtenida dividiendo igualmente una unidad de codificación, también es posible una división desigual. En otras palabras, para comprender una señal residual, puede ser más eficaz dividir de manera desigual una señal de imagen en una dirección específica de acuerdo con un límite de una imagen y realizar una intra o inter predicción.
El modo de adaptación más simple es dividir una unidad de codificación en dos bloques usando una línea recta con el fin de extraer la dependencia estadística de una región de predicción de la topografía local. Un límite de una imagen se corresponde con la línea recta y se divide. En este caso, las direcciones divisibles pueden estar limitadas a un número predeterminado. Por ejemplo, un procedimiento de dividir un bloque puede estar limitado a cuatro direcciones de direcciones horizontal, vertical, diagonal hacia arriba y diagonal hacia abajo. Además, la división puede estar limitada a solo las direcciones horizontal y vertical. El número de direcciones divisibles puede ser de tres, cinco, siete y así sucesivamente. El número de direcciones divisibles puede variar de acuerdo con un tamaño del bloque. Por ejemplo, para una unidad de codificación de un tamaño grande, el número de direcciones divisibles puede aumentarse de manera relativa.
En una inter predicción, cuando una unidad de codificación se divide en dos unidades de predicción para una predicción de adaptación más, la estimación de movimiento y la compensación de movimiento deberían realizarse en cada una de las unidades de predicción. Después de que los bloques de predicción se deriven a partir de las respectivas dos unidades de predicción divididas de la unidad de codificación, pueden añadirse los dos bloques de predicción para generar el bloque de predicción que tiene el mismo tamaño que la unidad de codificación. En este caso, para reducir la diferencia entre los valores de píxeles a ambos lados de un límite de división del bloque de predicción del tamaño de unidad de codificación, pueden filtrarse los píxeles localizados en el límite de división. El bloque de predicción puede generarse de tal manera que los bloques de predicción correspondientes a las unidades de predicción respectivas se superponen, y la parte de límite de superposición puede uniformizarse para generar el bloque de predicción.
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes en movimiento de acuerdo con la
5
10
15
20
25
30
35
40
45
50
55
presente invención.
Haciendo referencia a la figura 1, un aparato 100 de codificación de imágenes en movimiento de acuerdo con la presente invención incluye un divisor 110 de imágenes, un transformador 120, un cuantificador 130, un escáner 131, un codificador 140 de entropía, un intra predictor 150, un inter predictor 160, un cuantificador 135 inverso, un transformador 125 inverso, un post-procesador 170, un almacenamiento 180 de imágenes, un restador 190 y un sumador 195.
El divisor 110 de imágenes analiza una señal de vídeo de entrada para dividir cada LCU de una imagen en una o más unidades cada una de las cuales tiene un tamaño predeterminado, determina el modo de predicción de cada unidad de codificación, y determina el tamaño de la unidad de predicción por cada unidad de codificación. El divisor 110 de imágenes envía la unidad de predicción a codificarse al intra predictor 150 o a inter predictor 160 de acuerdo con el modo de predicción. Además, el divisor 110 de imágenes envía las unidades de predicción a codificarse al restador 190.
El transformador 120 transforma un bloque residual que es una señal residual entre un bloque original de una unidad de predicción de entrada y un bloque de predicción generado por el intra predictor 150 o el inter predictor 160. Preferentemente, el bloque residual consiste en una unidad de codificación. El bloque residual puede dividirse en unidades de transformada óptimas y transformarse. Un tipo de matriz de transformada puede determinarse de manera adaptativa de acuerdo con el modo de predicción (intra o inter) y el modo de intra-predicción. La unidad de transformada puede transformarse mediante unas matrices de transformada de una dimensión (1D) horizontal y vertical. En inter predicción, se aplica una matriz de transformada predeterminada. En la intra-predicción, hay una alta posibilidad de que el bloque residual tenga una direccionalidad vertical cuando el modo de intra-predicción es horizontal. Por lo tanto, se aplica una matriz de enteros basada en la transformada discreta de coseno (DCT) a la dirección vertical, y se aplica una transformada discreta de seno (DST) o una matriz de enteros basada en la transformada de Karhunen Loeve (KLT) a la dirección horizontal. Cuando el modo de intra-predicción es vertical, se aplica una matriz de enteros basada en DST o KLT a la dirección vertical, y se aplica una matriz de enteros basada en DCT a la dirección horizontal. Como alternativa, en la intra-predicción, la matriz de transformada puede determinarse de manera adaptativa de acuerdo con el tamaño de la unidad de transformada.
El cuantificador 130 determina un tamaño de etapa de cuantificación para cada unidad de codificación con el fin de cuantificar los coeficientes de transformada del bloque residual transformado por la matriz de transformada. El tamaño de etapa de cuantificación se determina por el tamaño de unidad de codificación igual a o mayor que un tamaño predeterminado. El tamaño predeterminado puede ser 8 x 8 o 16 x 16. Usando el tamaño de etapa de cuantificación determinada y una matriz de cuantificación determinada de acuerdo con un modo de predicción, se cuantifican los coeficientes de transformada. El cuantificador 130 usa los tamaños de etapa de cuantificación de las unidades de codificación adyacentes de la unidad de codificación actual como un predictor de tamaño de etapa de cuantificación de la unidad de codificación actual. El cuantificador 130 busca de manera secuencial una unidad de codificación izquierda, una unidad de codificación superior y una unidad de codificación izquierda superior de la unidad de codificación actual, determina el predictor de tamaño de etapa de cuantificación de la unidad de codificación actual usando los tamaños de etapa de cuantificación de una o más unidades de codificación disponibles, y transmite una diferencia al codificador 140 de entropía.
Cuando un segmento se divide en unidades de codificación, puede no haber ninguna de una unidad de codificación izquierda, una unidad de codificación superior y una unidad de codificación izquierda superior de la unidad de codificación actual. Por otro lado, puede haber una unidad de codificación previa de una LCU en un orden de codificación. Por lo tanto, las unidades de codificación adyacentes a la unidad de codificación actual y a la unidad de codificación previa pueden ser candidatas. En este caso, la prioridad puede administrarse de manera secuencial dado para 1) la unidad de codificación izquierda de la unidad de codificación actual, 2) la unidad de codificación superior de la unidad de codificación actual, 3) la unidad de codificación izquierda superior de la unidad de codificación actual y 4) la unidad de codificación previa de la unidad de codificación actual. La secuencia puede variar, o puede omitirse la unidad de codificación izquierda superior.
El bloque de transformada cuantificado se proporciona al cuantificador 135 inverso y al escáner 131.
El escáner 131 explora los coeficientes del bloque de transformada cuantificado y convierte los coeficientes del bloque de transformada cuantificado en coeficientes cuantificados de 1D. Un procedimiento de exploración de coeficientes se determina de acuerdo con el modo de predicción y el modo de intra-predicción. Además, el procedimiento de exploración de coeficientes puede determinarse de manera diferente de acuerdo con el tamaño de las unidades de transformada. El escáner 131 determina si se divide o no el bloque de coeficiente cuantificado en una pluralidad de subconjuntos basándose en un tamaño de la unidad de transformada actual. Cuando el tamaño de la unidad de transformada es mayor que un primer tamaño de referencia, el bloque de transformada cuantificado se divide en una pluralidad de subconjuntos. El primer tamaño de referencia puede ser 4 x 4 u 8 x 8.
El escáner 131 determina un patrón de exploración que debe aplicarse al bloque de transformada cuantificado. En inter predicción, solo puede aplicarse un patrón de exploración predeterminado (por ejemplo, una exploración en zigzag). En intra-predicción, puede aplicarse un patrón de exploración determinado de acuerdo con el modo de intra-
5
10
15
20
25
30
35
40
45
50
55
predicción. El patrón de exploración puede variar de acuerdo con un modo de intra-predicción direccional. La exploración en zigzag se aplica a los modos de intra-predicción no direccionales. Un modo no direccional puede ser un modo de corriente continua (CC) o un modo plano. Los coeficientes cuantificados se exploran analizados en una dirección inversa.
Cuando los coeficientes cuantificados se dividen en la pluralidad de subconjuntos, se aplica el mismo patrón de exploración a los coeficientes cuantificados en cada subconjunto. La pluralidad de subconjuntos consiste en un subconjunto principal y uno o más subconjuntos residuales. El subconjunto principal se localiza en un lado izquierdo superior e incluye un coeficiente de CC y el uno o más subconjuntos residuales que cubren una región que no sea el subconjunto principal.
La exploración en zigzag puede aplicarse para explorar los subconjuntos. Los subconjuntos pueden explorarse empezando con el subconjunto principal y posteriormente con los subconjuntos residuales en una dirección directa, o pueden explorarse en una dirección inversa. Un patrón de exploración para explorar los subconjuntos puede establecerse el mismo que un patrón de exploración para explorar los coeficientes cuantificados en los subconjuntos. En este caso, el patrón de exploración para los subconjuntos se determina de acuerdo con el modo de intra-predicción. Mientras tanto, un codificador transmite una información capaz de indicar una posición del último coeficiente cuantificado distinto de cero de la unidad de transformada a un decodificador. El codificador transmite también una información capaz de indicar una posición del último coeficiente cuantificado distinto de cero en cada subconjunto al decodificador.
El cuantificador 135 inverso cuantifica de manera inversa los coeficientes de transformada cuantificados. El transformador 125 inverso reconstruye un bloque residual del dominio espacial de los coeficientes de transformada cuantificados de manera inversa. El sumador 195 genera un bloque de reconstrucción sumando el bloque residual reconstruido por el transformador 125 inverso y el bloque de predicción del intra predictor 150 o el inter predictor 160.
El post-procesador 170 realiza un procedimiento de filtrado de desbloqueo para retirar la perturbación de bloqueo generada en una imagen reconstruida, un procedimiento de aplicación de compensación adaptativo para complementar una diferencia entre la imagen reconstruida y la imagen original por píxel, y un procedimiento de filtro de bucle adaptativo para complementar una diferencia entre la imagen reconstruida y la imagen original en una unidad de codificación.
El procedimiento de filtrado de desbloqueo puede aplicarse a un límite entre las unidades de predicción y entre las unidades de transformada. El tamaño predeterminado puede ser 8 x 8. El procedimiento de filtrado de desbloqueo incluye una etapa de determinar el límite a filtrarse, una etapa de determinar la fuerza de filtrado de límite a aplicarse al límite, una etapa de determinar si aplicar o no un filtro de desbloqueo, y una etapa de seleccionar un filtro a aplicarse al límite cuando se determina aplicar el filtro de desbloqueo.
Aplicar o no el filtro de desbloqueo se determina de acuerdo con i) si la fuerza de filtrado de límite es o no mayor que 0 y ii) si un valor que indica la diferencia entre los píxeles de límite de los dos bloques (el bloque P y el bloque Q) adyacentes al límite a filtrarse es o no menor que un primer valor de referencia determinado de acuerdo con un parámetro de cuantificación.
Pueden existir dos o más filtros. Cuando un valor absoluto de una diferencia entre dos píxeles adyacentes al límite de bloque es igual a o mayor que un segundo valor de referencia, se selecciona un filtro débil. El segundo valor de referencia se determina mediante el parámetro de cuantificación y la fuerza de filtrado de límite.
El procedimiento de aplicación de compensación adaptativo está destinado a reducir una diferencia (distorsión) entre un píxel en una imagen sometido al filtro de desbloqueo y el píxel original. Una imagen o segmento puede dividirse en una pluralidad de regiones de compensación, y puede determinarse un modo de compensación por región de compensación. Hay cuatro modos de compensación de borde, dos modos de compensación de banda y un modo de no aplicación de compensación. De acuerdo con cada modo de compensación, los píxeles en cada región de compensación se clasifican en un número predeterminado de clases, y la compensación correspondiente a la clase clasificada se añade al píxel. En el caso de un modo de compensación de borde, se determina una clase de un píxel actual comparando el valor de píxel actual con los valores de píxel de dos o más píxeles adyacentes al píxel actual.
El procedimiento de filtro de bucle adaptativo puede realizarse basándose en un valor obtenido comparando una imagen original con una imagen reconstruida a la que se aplica el procedimiento de filtrado de desbloqueo o el procedimiento de aplicación de compensación adaptativo. Un filtro de bucle adaptativo (adaptative loop filter, ALF) se detecta a través de un valor de actividad Laplaciano basándose en un bloque de 4 x 4. El ALF determinado puede aplicarse a todos los píxeles incluidos en un bloque de 4 x 4 o en un bloque de 8 x 8. El aplicar o no un ALF puede determinarse de acuerdo con cada unidad de codificación. Un tamaño y los coeficientes de un filtro de bucle pueden variar de acuerdo con cada unidad de codificación. La información que indica si el ALF se aplica a cada unidad de codificación, la información de coeficiente de filtro, la información de forma del filtro, y así sucesivamente, puede incluirse en la cabecera de segmento y transmitirse al decodificador. En el caso de una señal de crominancia, el aplicar o no el ALF puede determinarse en las unidades de imagen. A diferencia de la luminancia, el filtro de bucle
5
10
15
20
25
30
35
40
45
50
55
puede tener una forma rectangular.
El almacenamiento 180 de imágenes recibe unos datos de imagen de post-procesado del post-procesador 170, y almacena la imagen reconstruida en unidades de imagen. Una imagen puede ser una imagen en una trama o en un campo. El almacenamiento 180 de imágenes tiene una memoria intermedia (no mostrada) capaz de almacenar una pluralidad de imágenes.
El inter predictor 160 realiza una estimación de movimiento usando una o más imágenes de referencia almacenadas en el almacenamiento 180 de imágenes, y determina un índice de imagen de referencia que indica las imágenes de referencia y un vector de movimiento. De acuerdo con el índice de imagen de referencia y el vector de movimiento, se extrae un bloque de predicción correspondiente a una unidad de predicción a codificarse a partir de una imagen de referencia seleccionada entre una pluralidad de imágenes de referencia almacenadas en el almacenamiento 180 de imágenes y se emite el bloque de predicción extraído.
El intra predictor 150 realiza la codificación de intra-predicción usando un valor de píxel reconstruido en una imagen que incluye una unidad de predicción actual. El intra predictor 150 recibe la unidad de predicción actual a codificarse, selecciona uno de un número predeterminado de modos de intra-predicción, y realiza la intra-predicción. El número predeterminado de modos de intra-predicción depende de un tamaño de la unidad de predicción actual. El intra predictor 150 filtra de manera adaptativa los píxeles de referencia usados para generar el bloque de intra-predicción. Cuando algunos de los píxeles de referencia no están disponibles, es posible generar los píxeles de referencia en las posiciones no disponibles usando los píxeles de referencia disponibles.
El codificador 140 de entropía codifica los coeficientes de transformada cuantificados por el cuantificador 130, la información de intra-predicción recibida del intra predictor 150, la información de movimiento recibida desde el inter predictor 160, y así sucesivamente.
La figura 2 es un diagrama de bloques de un intra predictor 150 de acuerdo con la presente invención.
Haciendo referencia a la figura 2, el intra predictor 150 incluye un receptor 141 de unidades de predicción, un generador 142 de píxeles de referencia, un generador 143 de bloques de predicción, un post-procesador 144 de bloques de predicción, un determinador 145 de modos de predicción y un codificador 146 de modos de predicción.
El receptor 141 de unidades de predicción recibe una entrada de unidad de predicción desde un divisor de imágenes 110. El receptor 141 de unidades de predicción transmite la información de tamaños en la unidad de predicción recibida al determinador 145 de modos de predicción y al generador 142 de píxeles de referencia, y transmite la unidad de predicción al generador 142 de píxeles de referencia y al generador 143 de bloques de predicción.
El generador 142 de píxeles de referencia determina si están disponibles los píxeles de referencia de la unidad de predicción actual recibida. Los píxeles de referencia de la unidad de predicción actual usados para la intra-predicción consisten en un píxel de referencia de esquina colocado en (x = -1, y = -1), 2L píxeles de referencia superiores colocados en (x = 0,..., 2L-1, y = -1), y 2M píxeles de referencia izquierdos colocados en (x = 0, y = 0,..., y 2M-1). En este caso, L es la anchura de la unidad de predicción actual, y M es la altura de la unidad de predicción actual.
Cuando los píxeles de referencia no están disponibles o son insuficientes, se generan los píxeles de referencia.
Cuando ninguno de los píxeles de referencia están disponibles, los píxeles de referencia se generan con un valor predeterminado.
Cuando algunos de los píxeles de referencia no están disponibles, se determina si los píxeles de referencia no disponibles existen en una sola dirección de los píxeles disponibles o entre los píxeles disponibles.
Cuando los píxeles de referencia no disponibles existen en una sola dirección de los píxeles disponibles, se genera un bloque de referencia copiando el valor del píxel disponible más cercano al píxel no disponible. Por ejemplo, cuando la unidad de predicción actual se coloca en un límite superior de una imagen o un segmento, el píxel de referencia de esquina y los píxeles de referencia superiores no están disponibles. Por lo tanto, en este caso, el píxel de referencia de esquina y los píxeles de referencia superiores pueden generarse copiando un píxel de referencia colocado en (x = -1, y = 0) que es la posición más cercana. Como alternativa, los píxeles de referencia pueden generarse usando un píxel de referencia disponible de la posición más cercana y uno o más píxeles de referencia disponibles. Por ejemplo, cuando el píxel de referencia de esquina colocado en (x = - 1, y = 0) y los píxeles de referencia en las posiciones (x = 0,..., y L-1, y = -1) están disponibles y los píxeles de referencia en las posiciones (x = L,..., 2L- 1, y = -1) no están disponibles, los píxeles de referencia en las posiciones no disponibles pueden generarse usando el cambio en la diferencia entre un valor de píxel de referencia en una posición (x = L-1, y = -1) y un valor de píxel de referencia de esquina u otro valor de píxel de referencia.
Cuando los píxeles de referencia no disponibles existen entre los píxeles disponibles, los píxeles de referencia se generan usando dos píxeles disponibles p y q adyacentes a los píxeles de referencia no disponibles. Por ejemplo, cuando no están disponibles el píxel de referencia de esquina y L píxeles de referencia superiores colocados en (x = 0,..., y L-1, y = -1), pueden generarse los píxeles de referencia que existen entre el píxel de referencia p en una
5
10
15
20
25
30
35
40
45
50
55
posición (x = -1, y = 0) y el píxel de referencia q en una posición (x = L, y = -1) usando los píxeles de referencia p y
q.
Los valores de píxel de referencia generados pueden obtenerse redondeando un promedio del píxel de referencia p y el píxel de referencia q. Además, los valores de píxel de referencia pueden generarse usando el cambio en la diferencia entre los valores de píxeles del píxel de referencia p y el píxel de referencia q. En este caso, los valores de píxel de referencia pueden generarse mediante una interpolación lineal determinada de acuerdo con las posiciones correspondientes a los píxeles a generarse o usando un promedio ponderado de los dos píxeles de referencia.
Mientras tanto, cuando una pluralidad de unidades de predicción están en un lado superior de la unidad de predicción actual, hay una alta posibilidad de que una diferencia entre los píxeles límite presentes en ambos lados de un límite entre dos de las unidades de predicción superiores sea mayor que una diferencia entre los píxeles adyacentes en cada unidad de predicción superior. Esto resulta de un error provocado por un parámetro de cuantificación. Es muy probable que el error se produzca en los modos de intra-predicción direccionales en los que se genera un bloque de predicción usando los dos píxeles de referencia adyacentes.
En particular, los modos (números de modo 3, 6 y 9) que tienen una dirección de 45° con respecto a la dirección horizontal o vertical de la figura 3 son los más seriamente afectados. En los modos vertical y horizontal (números de modo 0 y 1), se usa un píxel para generar un píxel de predicción del bloque de predicción, y por lo tanto los modos vertical y horizontal están ligeramente afectados.
Por esta razón, se aplica un filtro (el filtro de uniformidad) a los píxeles de referencia en los modos 3, 6 y 9 de intra- predicción direccionales, y no se aplica a los píxeles de referencia en los modos de intra-predicción vertical y horizontal. En el modo de CC entre los modos de intra-predicción no direccionales, tampoco se aplica el filtro a los píxeles de referencia. Para estos modos, puede determinarse aplicar o no el filtro independientemente del tamaño de la unidad de predicción actual.
En los modos de intra-predicción direccionales que existen entre el modo 3, 6 o 9 de intra-predicción y el modo de intra-predicción horizontal o vertical, puede aplicarse el filtro (el filtro de uniformidad) de manera adaptativa a los píxeles de referencia de acuerdo con el tamaño de la unidad de predicción. Es preferible aumentar una probabilidad de aplicar el filtro (el filtro de uniformidad) cuando la dirección del modo de intra-predicción direccional está relativamente más cerca de la dirección del modo de intra-predicción que tiene la dirección de 45°. Específicamente, cuando un primer modo direccional está más cerca en la direccionalidad del modo de intra-predicción que tiene la dirección de 45° que un segundo modo direccional, si se aplica un filtro a los píxeles de referencia en el segundo modo direccional, el filtro se aplica también a los píxeles de referencia en el primer modo direccional. Por otra parte, si se aplica el filtro a los píxeles de referencia en el primer modo direccional, el filtro puede o no puede aplicarse a los píxeles de referencia en el segundo modo direccional.
Hay una alta posibilidad de que un cambio en la diferencia entre los píxeles en una unidad de predicción de un gran tamaño sea menor que un cambio en la diferencia entre los píxeles en una unidad de predicción de un tamaño pequeño. Por lo tanto, el número de modos direccionales en los que se aplica el filtro puede aumentar o puede aplicarse el filtro más fuerte cuando aumenta el tamaño de la unidad de predicción. Por otro lado, cuando la unidad de predicción se hace más pequeña que un tamaño específico, puede no aplicarse el filtro.
Para un ejemplo, en el modo 3, 6 o 9 de intra-predicción, puede aplicarse un primer filtro a los píxeles de referencia de una unidad de predicción que tenga un tamaño igual a o menor que un primer tamaño, y puede aplicarse un segundo filtro que sea más fuerte que el primer filtro a los píxeles de referencia de una unidad de predicción que tenga un tamaño mayor que el primer tamaño. El primer tamaño puede variar de acuerdo con los modos de predicción direccionales.
En otro ejemplo, en el modo 5 de intra-predicción que existe entre el modo de intra-predicción vertical y el modo 6 de intra-predicción, no puede aplicarse un filtro a una unidad de predicción que tenga un tamaño igual a o menor que un segundo tamaño, el primer filtro puede aplicarse a los píxeles de referencia de una unidad de predicción que tenga un tamaño mayor que el segundo tamaño e igual a o menor que un tercer tamaño, y el segundo filtro puede aplicarse a una unidad de predicción que tenga un tamaño mayor que el tercer tamaño. El segundo tamaño y el tercer tamaño pueden variar de acuerdo con los modos de predicción direccionales.
El primer filtro puede ser un filtro de 3 derivaciones (3-tap filter) [1, 2, 1] o un filtro de 5 derivaciones (5-tap filter) [1, 2, 4, 2, 1 ]. El segundo filtro tiene un mayor efecto de uniformidad que el primer filtro.
El generador 143 de bloques de predicción genera un bloque de predicción usando los píxeles de referencia determinados por el modo de intra-predicción.
En el modo de intra-predicción direccional, los píxeles de referencia correspondientes varían de acuerdo con el modo de intra-predicción. Por ejemplo, en el modo vertical, se usan L píxeles de referencia superiores colocados en (x = 0,..., y L-1, y = -1), y en el modo horizontal, se usan L píxeles de referencia izquierdos colocados en (x = -1, y = 0,..., y L-1).
5
10
15
20
25
30
35
40
45
50
55
En el modo intra-predicción no direccional, se usan el píxel de esquina, los L píxeles de referencia superiores colocados en (x = 0,..., y L-1, y = -1) y los L píxeles de referencia izquierdos colocados en (x = -1, y = 0,..., y L-1). El modo de intra-predicción no direccional es el modo de CC o el modo plano.
En el modo plano, se genera un píxel de referencia de un bloque de predicción usando el píxel de referencia de esquina, un píxel de referencia izquierdo y un píxel de referencia superior. Cuando un píxel de referencia a generarse se coloca en (a, b), se genera un píxel de predicción X (a, b) usando el píxel de referencia de esquina C (x = -1, y = -1), un píxel de referencia superior T (x = a, y = -1) y un píxel de referencia izquierdo L (x = -1, y = b).
Específicamente, X (a, b) puede ser L (x = -1, y = b) + T (x = a, y = -1) - C (x = -1, y = -1).
En el modo de intra-predicción que existe en el lado derecho del modo vertical (el número de modo es 0) de la figura 3, la posibilidad de que las diferencias entre los píxeles de una región izquierda inferior del bloque de predicción generado y los píxeles correspondientes de la unidad de predicción original aumentará si se genera el bloque de
predicción usando solo los píxeles de referencia superiores. Sin embargo, cuando se genera un bloque de
predicción usando los píxeles de referencia superiores y los píxeles de referencia izquierdos, puede reducirse la diferencia. Este efecto es mayor en el modo 6 de intra-predicción. También en los modos de intra-predicción que existen en el modo horizontal (el número de modo es 1) de la figura 3, puede aplicarse el mismo procedimiento, y el efecto es mayor que en el modo 9 de intra-predicción.
Por lo tanto, en el modo 6 o 9 de intra-predicción, puede generarse un píxel de predicción utilizando un píxel de referencia de interpolación superior y un píxel de referencia de interpolación izquierdo correspondientes (por ejemplo, situados a 45 ° del píxel de predicción). El píxel de predicción puede generarse mediante una interpolación lineal de un píxel de referencia de interpolación superior y el un píxel de referencia de interpolación izquierdo o usando un promedio que se redondea. Asimismo, en un número predeterminado de modos de intra-predicción adyacentes al modo 6 o 9, puede generarse un bloque de predicción usando los píxeles de referencia izquierdos y los píxeles de referencia superiores. Por ejemplo, en el modo 6 de intra-predicción o en un modo perteneciente al número predeterminado de (por ejemplo, el cuatro) modos de predicción adyacentes al modo 6, pueden usarse los píxeles de referencia izquierdos y los píxeles de referencia superiores para generar un bloque de predicción. En este caso, para reducir la complejidad, el procedimiento anteriormente mencionado no puede aplicarse en los modos de intra-predicción que tengan unos números de modo mayores que un número de modo predeterminado (por ejemplo, 9 o 17). Además, el procedimiento puede aplicarse a solo una unidad de predicción actual que tenga un tamaño igual a o mayor que un tamaño predeterminado. El tamaño predeterminado es 8 x 8 o 16 x 16.
El post-procesador 144 de bloques de predicción filtra de manera adaptativa el bloque de predicción generado por el generador 143 de bloques de predicción. Para reducir las diferencias entre un píxel de referencia y los píxeles adyacentes al píxel de referencia, el post-procesador 144 de bloques de predicción filtra de manera adaptativa algunos o todos los píxeles adyacentes al bloque de píxel de referencia de acuerdo con el modo de intra-predicción. Los píxeles adyacentes al píxel de referencia existen en el bloque de predicción.
En el modo plano, los píxeles adyacentes al píxel de referencia se generan usando el píxel de referencia, y por lo tanto no se aplica ningún filtro.
En el modo de CC, se usa un promedio de píxeles de referencia, y por lo tanto se aplica un filtro. Pueden usarse diferentes tipos de filtro de acuerdo con el tamaño de la unidad de predicción. Para una unidad de predicción de un gran tamaño, puede usarse un filtro que sea el mismo que se usa en una unidad de predicción de un tamaño pequeño o en un filtro fuerte que tenga un gran efecto de uniformidad.
El determinador 145 de modos de predicción determina el modo de intra-predicción de la unidad de predicción actual usando los píxeles de referencia. El determinador 145 de modos de predicción puede determinar un modo de intra- predicción con los bits codificados mínimos anticipados de un bloque residual como un modo de intra-predicción de la unidad de predicción actual. En este caso, el bloque residual se genera usando un bloque de predicción correspondiente a cada modo de intra-predicción o un bloque de predicción de post-procesado.
El codificador 146 de modos de predicción codifica el modo de intra-predicción de la unidad de predicción actual usando los modos de intra-predicción de las unidades de predicción adyacentes a la unidad de predicción actual.
La figura 4 es un diagrama de flujo que ilustra un procedimiento de codificación de un modo de intra-predicción de una unidad de predicción actual realizado en el codificador 146 de modos de predicción de acuerdo con la presente invención.
En primer lugar, se buscan los candidatos del modo de intra-predicción de una unidad de predicción actual (S110). Un modo de intra-predicción superior y un modo de intra-predicción izquierdo de la unidad de predicción actual pueden ser los candidatos del modo de intra-predicción. Un modo de intra-predicción de esquina puede añadirse también, o puede añadirse cualquier otro modo de acuerdo con el modo de intra-predicción superior y el modo de intra-predicción izquierdo.
Cuando hay una pluralidad de unidades de predicción superiores de la unidad de predicción actual, se exploran la pluralidad de unidades de predicción superiores en una dirección predeterminada (por ejemplo, de derecha a
5
10
15
20
25
30
35
40
45
50
55
izquierda) para determinar el modo de intra-predicción de una primera unidad de predicción disponible como un modo de intra-predicción izquierdo. Como alternativa, entre una pluralidad de unidades de predicción disponibles, puede establecerse el modo de intra-predicción de una unidad de predicción disponible que tenga el número más bajo de modo de intra-predicción como un modo de intra-predicción superior.
El modo de intra-predicción de esquina puede establecerse como un modo de predicción de una unidad de predicción adyacente al lado derecho superior o al lado izquierdo superior de la unidad de predicción actual. Como alternativa, el modo de intra-predicción de esquina puede establecerse como un primer modo de intra-predicción disponible obtenido explorando los modos de intra-predicción adyacentes al lado izquierdo superior, al lado derecho superior y a un lado derecho inferior de la unidad de predicción actual en un orden predeterminado. El orden predeterminado es el lado izquierdo superior, el lado derecho inferior y el lado derecho superior. Como alternativa, pueden añadirse dos (lado derecho superior y lado izquierdo superior) o tres (lado derecho superior, lado izquierdo superior y lado izquierdo inferior) modos de intra-predicción de esquina como los candidatos del modo de intra- predicción de la unidad de predicción actual.
A continuación, se determina si se cambia o no el modo de intra-predicción de los candidatos del modo de intra- predicción disponibles (S120).
Cuando se determina cambiar el modo de intra-predicción, se cambia el candidato del modo de intra-predicción disponible (S130).
En concreto, cuando el número de modo de un candidato del modo de intra-predicción disponible es igual a o mayor que el número de modos de intra-predicción permisibles para la unidad de predicción actual, el candidato del modo de intra-predicción disponible se convierte en uno de los modos permisibles. El número de modos permisibles puede variar de acuerdo con un tamaño de la unidad de predicción actual. Por ejemplo, cuando el tamaño de la unidad de predicción actual es 4 x 4, el modo de intra-predicción del candidato del modo de intra-predicción disponible se convierte en uno de los nueve modos (modo 0 a modo de 8) o de los 18 modos y cuando el tamaño de la unidad de predicción actual es 64 x 64, el modo de intra-predicción del candidato del modo de intra-predicción disponible se convierte en uno de cuatro modos (modo 0 a modo 3).
A continuación, se construye una lista de candidatos de intra-predicción de la unidad de predicción actual (S140). Los candidatos pueden listarse en un orden numérico de modos. Como alternativa, los candidatos pueden listarse en orden de frecuencia, y los candidatos de intra-predicción que tienen la misma frecuencia pueden listarse en un orden numérico de modos. Cuando los candidatos del modo de intra-predicción tienen el mismo número de modo, los candidatos de intra-predicción se eliminan de la lista excepto uno.
A continuación, se determina si el modo de intra-predicción de la unidad de predicción actual es el mismo que uno cualquiera de los candidatos del modo de intra-predicción en la lista construida (S150).
Cuando el modo de intra-predicción de la unidad de predicción actual es el mismo que uno de los candidatos del modo de intra-predicción, se determina la información que indica que el modo de intra-predicción es el mismo que uno de los candidatos del modo de intra-predicción y un índice candidato como una información de intra-predicción (S160).
Cuando el modo de intra-predicción de la unidad de predicción actual no es el mismo que cualquiera de los candidatos del modo de intra-predicción, se calcula un valor de cambio de modo para cambiar el modo de intra- predicción de la unidad de predicción actual (S170). El valor de cambio de modo es el número de los candidatos del modo de intra-predicción que tienen un número de modo de intra-predicción que no es mayor que el número de modo de intra-predicción de la unidad de predicción actual. El valor de cambio de modo se obtiene comparando los valores de modo de intra-predicción en la lista.
A continuación, se cambia el modo de intra-predicción de la unidad de predicción actual usando el valor de cambio de modo (S180). El modo de intra-predicción cambiado se determina como el modo de intra-predicción de la unidad de predicción actual. El modo de intra-predicción cambiado de la unidad de predicción actual se transmite al codificador 140 de entropía.
La figura 5 es un diagrama de bloques de un aparato 200 de decodificación de intra-predicción de acuerdo con la presente invención.
El aparato 200 de decodificación de intra-predicción de acuerdo con la presente invención incluye un decodificador 210 de entropía, un decodificador 220 de señales residuales, un decodificador 230 de modos de predicción, un generador 240 de píxeles de referencia, un generador 250 de bloques de predicción, un filtro 260 de bloques de predicción y un reconstructor 270 de imágenes.
El decodificador 210 de entropía extrae los coeficientes residuales cuantificados de una secuencia de bits recibida, y transmite los coeficientes residuales cuantificados y un tamaño de la unidad de transformada al decodificador 220 de señales residuales en unidades de unidades de transformada. Además, el decodificador 210 de entropía transmite la información de intra-predicción y un tamaño de una unidad de predicción a decodificarse al decodificador 230 de
5
10
15
20
25
30
35
40
45
50
55
modos de predicción.
El decodificador 220 de señales residuales convierte los coeficientes residuales cuantificados en un bloque cuantificado inverso de una matriz de dos dimensiones (2D). Para esta conversión, se selecciona uno de una pluralidad de patrones de exploración. El patrón de exploración del bloque de transformada se determina basándose en al menos uno de entre el modo de predicción y el modo de intra-predicción. Una operación de exploración inversa es la misma que un procedimiento inverso de operación del escáner 131 de la figura 1. Por ejemplo, cuando un tamaño de la unidad de transformada actual a decodificarse es mayor que un primer tamaño de referencia, los coeficientes residuales cuantificados se exploran de manera inversa para formar una pluralidad de subconjuntos de acuerdo con el patrón de exploración, y se genera un bloque cuantificado inverso que tenga el tamaño de la unidad de transformada usando la pluralidad de subconjuntos. Por otro lado, cuando el tamaño de la unidad de transformada actual a decodificar no es mayor que el primer tamaño de referencia, se exploran los coeficientes residuales cuantificados de manera inversa para generar un bloque cuantificado inverso que tenga el mismo tamaño de la unidad de transformada de acuerdo con el patrón de exploración.
El decodificador 230 de modos de predicción reconstruye el modo de intra-predicción del modo de predicción actual basándose en la información de intra-predicción y en la información de tamaño en la unidad de predicción actual recibida del decodificador 210 de entropía. La información de intra-predicción recibida se restaura a través un procedimiento inverso del procedimiento mostrado en la figura 4.
El generador 240 de píxeles de referencia genera unos píxeles de referencia no disponibles de la unidad de predicción actual, y filtra de manera adaptativa los píxeles de referencia de acuerdo con el modo de intra-predicción de la unidad de predicción actual recibidos desde el decodificador 230 de modos de predicción. Un procedimiento de generación de los píxeles de referencia y un procedimiento de filtrado de los píxeles de referencia son los mismos que los del generador 142 de píxeles de referencia en el intra predictor 140 de la figura 2.
Específicamente, se determina si están disponibles los píxeles de referencia de la unidad de predicción actual. Los píxeles de referencia de la unidad de predicción actual usados para la intra-predicción consisten en un píxel de referencia de esquina colocado en (x = -1, y = -1), 2L píxeles de referencia superiores colocados en (x = 0,..., y 2L- 1, y = -1), y 2M píxeles de referencia izquierdos colocados en (x = 0, y = 0,..., y 2M-1). En este caso, L es una anchura de la unidad de predicción actual, y M es una altura de la unidad de predicción actual.
Cuando los píxeles de referencia para generar un bloque de predicción no están disponibles o son insuficientes, se generan unos píxeles de referencia.
Cuando todos los píxeles de referencia no están disponibles, los píxeles de referencia se generan con un valor predeterminado.
Cuando algunos de los píxeles de referencia no están disponibles, se determina si existen unos píxeles de referencia que no están disponibles en una sola dirección de los píxeles disponibles o entre los píxeles disponibles.
Cuando existen los píxeles de referencia no disponibles en una sola dirección de los píxeles disponibles, los píxeles de referencia se generan copiando el valor de un píxel disponible más cercano al píxel no disponible. Por ejemplo, cuando la unidad de predicción actual se coloca en un límite superior de una imagen o un segmento, el píxel de referencia de esquina y los píxeles de referencia superiores no están disponibles. Por lo tanto, en este caso, el píxel de referencia de esquina y los píxeles de referencia superiores pueden generarse copiando un píxel de referencia colocado en (x = -1, y = 0). Como alternativa, los píxeles de referencia pueden generarse usando un píxel de referencia disponible de la posición más cercana y uno o más píxeles de referencia disponibles. Por ejemplo, cuando el píxel de referencia de esquina que tiene una posición (x = -1, y = -1) y los píxeles de referencia en las posiciones (x = 0,..., y L-1, y = -1) están disponibles y los píxeles de referencia en las posiciones (x = L,..., 2L-1, y = -1) no están disponibles, los píxeles de referencia en las posiciones no disponibles pueden generarse usando el cambio en la diferencia entre un píxel de referencia en una posición (x = L-1, y = -1) y un valor de píxel de referencia de esquina u otro valor de píxel de referencia.
Cuando existen los píxeles de referencia no disponibles entre los píxeles disponibles, los píxeles de referencia se generan usando dos píxeles disponibles p y q adyacentes a los píxeles de referencia no disponibles. Por ejemplo, cuando el píxel de referencia de esquina y los L píxeles de referencia superiores colocados en (x = 0,..., y L-1, y = - 1), son píxeles de referencia no disponibles que existen entre el píxel de referencia p en una posición (x = -1, y = 0) y el píxel de referencia q en una posición (x = L, y = -1) pueden generarse usando los píxeles de referencia p y q.
Los valores de píxel de referencia generados pueden obtenerse redondeando un promedio del píxel de referencia p y el píxel de referencia q. Además, los valores de píxel de referencia pueden generarse usando el cambio en la diferencia entre los valores de píxeles del píxel de referencia p y el píxel de referencia q. En este caso, los valores de píxel de referencia pueden generarse mediante una interpolación lineal de acuerdo con las posiciones correspondientes a los valores de píxel generados o usando un promedio ponderado de los dos píxeles de referencia.
Mientras tanto, cuando una pluralidad de unidades de predicción están en un lado superior de la unidad de
5
10
15
20
25
30
35
40
45
50
55
predicción actual, hay una alta posibilidad de que una diferencia entre los píxeles límite presentes en ambos lados de un límite entre dos de las unidades de predicción superiores sea más alto que una diferencia entre los píxeles adyacentes en cada unidad de predicción superior. Esto resulta de un error provocado por un parámetro de cuantificación. Es muy probable que el error se produzca en los modos de intra-predicción direccionales en los que se genera un bloque de predicción usando dos píxeles de referencia adyacentes.
En particular, los modos (números de modo 3, 6 y 9) que tienen una dirección de 45° con referencia a una dirección horizontal o vertical de la figura 3 son los más gravemente afectados. En los modos de intra-predicción vertical y horizontal (números de modo 0 y 1), se usa un píxel para generar un bloque de predicción, y por lo tanto los modos de intra-predicción vertical y horizontal se ven afectados ligeramente.
Por esta razón, se aplica un filtro (el filtro de uniformidad) a los píxeles de referencia en los modos 3, 6 y 9 de intra- predicción direccionales, y no se aplica a los píxeles de referencia en los modos de intra-predicción vertical y horizontal. En el modo de CC fuera de los modos no direccionales, tampoco se aplica el filtro. Para estos modos, puede determinarse si aplicar o no el filtro sin tener en cuenta el tamaño de la unidad de predicción actual.
En los modos de intra-predicción direccionales que existen entre el modo 3, 6 o 9 de intra-predicción y el modo de intra-predicción horizontal o vertical, el filtro (el filtro de uniformidad) puede aplicarse de manera adaptativa a los píxeles de referencia. Es preferible aumentar una probabilidad de aplicar el filtro (el filtro de uniformidad) como la dirección del modo de intra-predicción direccional que está relativamente más cerca de la dirección del modo de intra-predicción que tiene la dirección de 45°. Específicamente, cuando un primer modo de intra-predicción direccional está más cerca en direccionalidad al modo de intra-predicción que tiene la dirección de 45° que un segundo modo de intra-predicción direccional, si se aplica un filtro al segundo modo de intra-predicción direccional, el filtro se aplica también al primer modo de intra-predicción direccional. Por otra parte, si el filtro se aplica al primer modo de intra-predicción direccional, el filtro puede o no puede aplicarse al segundo modo de intra-predicción direccional.
Hay una alta posibilidad de que un cambio en la diferencia entre los píxeles en una unidad de predicción de un gran tamaño sea menor que un cambio en la diferencia entre los píxeles en una unidad de predicción de un tamaño pequeño. Por lo tanto, puede aumentarse el número de modos direccionales en los que se aplica el filtro o puede aplicarse el filtro más fuerte cuando aumenta el tamaño de la unidad de predicción. Por otro lado, cuando una unidad de predicción se hace más pequeña que un tamaño específico, el filtro puede no aplicarse.
Para un ejemplo, en el modo 3, 6 o 9 de intra-predicción, que tiene la dirección de 45°, puede aplicarse un primer filtro a una unidad de predicción que tenga un tamaño igual a o menor que un primer tamaño, y puede aplicarse un segundo filtro que sea más fuerte que el primer filtro a una unidad de predicción que tenga un tamaño mayor que el primer tamaño. El primer tamaño puede variar de acuerdo con los modos de predicción direccionales.
Para otro ejemplo, en el modo 5 de intra-predicción que existe entre el modo de intra-predicción vertical y el modo 6 de intra-predicción, que tiene la dirección de 45°, no puede aplicarse un filtro a una unidad de predicción que tenga un tamaño igual a o sea menor que un segundo tamaño, el primer filtro puede aplicarse a una unidad de predicción que tenga un tamaño mayor que el segundo tamaño e igual a o menor que un tercio tamaño, y el segundo filtro puede aplicarse a una unidad de predicción que tenga un tamaño mayor que el tercer tamaño. El segundo tamaño y el tercer tamaño pueden variar de acuerdo con los modos de predicción direccionales.
El primer filtro puede ser un filtro de 3 derivaciones [1, 2, 1] o un filtro de 5 derivaciones [1, 2, 4, 2, 1]. El segundo filtro tiene un mayor efecto de uniformidad que el primer filtro.
El generador 250 de bloques de predicción genera un bloque de predicción de acuerdo con el modo de intra- predicción de la unidad de predicción actual recibido desde el decodificador 230 de modos de predicción. Un procedimiento para generar el bloque de predicción es el mismo que el del generador 142 de bloques de predicción en el intra predictor 150 de la figura 2.
Es decir, en el modo de intra-predicción direccional, los píxeles de referencia correspondientes varían de acuerdo con los modos de intra-predicción. Por ejemplo, en el modo vertical, se usan los L píxeles de referencia superiores colocados en (x = 0,..., y L-1, y = -1), y en el modo horizontal, se usan los L píxeles de referencia izquierdos colocados en (x = -1, y = 0,..., y L-1).
En los modos de intra-predicción no direccionales, se usan el píxel de esquina, los L píxeles de referencia superiores colocados en (x = 0,..., y L-1, y = -1) y los L píxeles de referencia izquierdos colocados en (x = -1, y = 0,..., y L-1). Los modos de intra-predicción no direccionales son el modo de CC y el modo plano.
En el modo plano, se genera un píxel de referencia de un bloque de predicción usando el píxel de referencia de esquina, un píxel de referencia izquierdo y un píxel de referencia superior. Cuando un píxel de referencia a generarse se coloca en (a, b), se genera el píxel de referencia del bloque de predicción X (a, b) usando el píxel de referencia de esquina C (x = -1, y = -1), un píxel de referencia superior T (x = a, y = -1) y un píxel de referencia izquierdo L (x = -1, y = b). Específicamente, X (a, b) puede ser L (x = -1, y = b) + T (x = a, y = -1) - C (x = -1, y = -1).
5
10
15
20
25
30
35
40
45
50
55
En el modo de intra-predicción que existe en el lado derecho del modo vertical (número de modo 0) de la figura 3, existe la posibilidad de que aumente una diferencia entre los píxeles de una región izquierda inferior del bloque de predicción generado y los píxeles de la unidad de predicción original si se genera el bloque de predicción usando solo los píxeles de referencia superiores. Sin embargo, cuando se genera un bloque de predicción usando los píxeles de referencia superiores y los píxeles de referencia izquierdos para varios modos entre los modos, la diferencia puede reducirse. Este efecto es mayor en el modo 6 de intra-predicción. Además, en los modos de intra- predicción que existen en el modo horizontal (número de modo 1) de la figura 3, puede aplicarse el mismo procedimiento, y el efecto es mayor en el modo 9 de intra-predicción.
Por lo tanto, en el modo 6 o 9 de predicción, puede generarse un píxel de referencia de interpolación superior (por ejemplo, colocado a 45° del píxel de predicción) y un píxel de referencia de interpolación izquierdo correspondientes. El píxel de predicción puede generarse mediante interpolación lineal de un píxel de referencia de interpolación superior y el un píxel de referencia de interpolación izquierdo o usando un promedio redondeado. Asimismo, en un número predeterminado de modos de intra-predicción adyacentes al modo 6 o 9, puede generarse un bloque de predicción usando los píxeles de referencia izquierdos y los píxeles de referencia superiores. En este caso, para reducir la complejidad, el procedimiento anteriormente mencionado en el presente documento no puede aplicarse en los modos de intra-predicción que tengan números de modo mayores que un número de modo predeterminado (por ejemplo, 9 o 17). Además, el procedimiento puede aplicarse a solo una unidad de predicción actual que tenga un tamaño igual a o mayor que un tamaño predeterminado. El tamaño predeterminado es de 8 x 8 o 16 x 16.
El filtro 260 de bloques de predicción filtra de manera adaptativa el bloque de predicción generado por el generador 250 de bloques de predicción de acuerdo con el modo de intra-predicción la unidad de predicción actual recibida desde el decodificador 230 de modos de predicción. El filtro 260 de bloques de predicción puede estar integrado en el generador 250 de bloques de predicción. Un procedimiento de filtrado de bloques de predicción es el mismo que el del post-procesador 144 de bloques de predicción del intra predictor 140 de la figura 2.
Es decir, para reducir las diferencias en los valores de píxel entre un píxel de referencia y los píxeles en el bloque de predicción adyacente al píxel de referencia, el filtro 260 de bloques de predicción filtra de manera adaptativa algunos o todos los píxeles en el bloque de predicción adyacente al píxel de acuerdo con el modo de intra-predicción. Los píxeles adyacentes al píxel adyacente existen en el bloque de predicción.
En el modo plano, los píxeles en el bloque de predicción adyacentes al píxel de referencia se generan usando el píxel de referencia, y por lo tanto no se aplica ningún filtro.
En el modo de CC, se usa un promedio de píxeles de referencia para generar el píxel de predicción, y por lo tanto se aplica un filtro. Pueden usarse diferentes tipos de filtro de acuerdo con el tamaño de la unidad de predicción (el tamaño del bloque de predicción). En una unidad de predicción de un gran tamaño, puede usarse un filtro que sea el mismo que el que se usa en una unidad de predicción de un tamaño pequeño o un filtro fuerte que tenga un gran efecto de uniformidad.
El reconstructor 270 de imágenes recibe un bloque de predicción desde el generador 250 de bloques de predicción o del filtro 260 de bloques de predicción en unidades de unidades de predicción de acuerdo con el modo de intra- predicción. El reconstructor 270 de imágenes recibe un bloque residual reconstruido mediante el decodificador 220 de señales residuales en unidades de unidades de transformada. El reconstructor 270 de imágenes genera una imagen reconstruida añadiendo el bloque de predicción recibido y el bloque residual. La imagen puede reconstruirse en unidades de unidades de codificación.
Aunque la invención se ha mostrado y descrito con referencia a ciertas realizaciones a modo de ejemplo de la misma, se entenderá por los expertos en la materia que pueden hacerse diversos cambios en la forma y los detalles en la misma sin alejarse del ámbito de la invención tal como se define por las reivindicaciones adjuntas.
Las siguientes realizaciones deben entenderse como ejemplos que no describen partes de la presente invención:
Realización 1. Un aparato de decodificación de intra-predicción, que comprende:
un decodificador de entropía configurado para restaurar coeficientes residuales cuantificados, información de intra-predicción e información de tamaño sobre una unidad de predicción desde una secuencia de bits recibida; un decodificador de modo de predicción configurado para restaurar un modo de intra-predicción de la unidad de predicción actual basándose en la información de intra-predicción y la información de tamaño sobre la unidad de predicción actual recibida desde el decodificador de entropía;
un decodificador de señal residual configurado para restaurar una señal residual según el modo de intra- predicción recibido desde el decodificador del modo de predicción;
un generador de píxeles de referencia configurado para generar píxeles de referencia no disponibles de la unidad de predicción actual, y para filtrar de forma adaptativa los píxeles de referencia basándose en el modo de intra- predicción de la unidad de predicción actual recibido desde el decodificador de modo de predicción; un generador de bloque de predicción configurado para generar un bloque de predicción usando píxeles de referencia correspondientes al modo de intra-predicción recibido desde el decodificador del modo de predicción; un filtro de bloque de predicción configurado para filtrar de forma adaptativa el bloque de predicción generado
5
10
15
20
25
30
desde el generador del bloque de predicción según el modo de intra-predicción recibido desde el decodificador del modo de predicción; y
un reconstructor de imagen configurado para recibir el bloque de predicción desde el generador del bloque de predicción o un filtro del bloque de predicción en unidades de unidades de predicción según el modo de intra- predicción recibido desde el decodificador del modo de predicción, y generar una imagen reconstruida usando un bloque residual restaurado recibido desde el decodificador de señal residual.

Realización 2. El aparato de decodificación de intra-predicción de la realización 1, en el que el generador de

píxeles de referencia filtra de forma adaptativa los píxeles de referencia según un tamaño de una unidad de
predicción en modos de intra-predicción con dirección entre el modo de intra-predicción 3, 6 o 9 con una dirección de 45° y el modo horizontal o el modo vertical.

Realización 3. El aparato de decodificación de intra-predicción de la realización 1, en el que el generador de
píxeles de referencia no aplica ningún filtro a píxeles de referencia de una unidad de predicción menor de un
tamaño predeterminado.
Realización 4. El aparato de decodificación de intra-predicción de la realización 1, en el que, cuando, entre un primer modo direccional y un segundo modo direccional presente entre un modo horizontal o un modo vertical y un modo de intra-predicción 3, 6 o 9 con dirección de 45° con respecto al modo horizontal o el modo vertical, el primer modo direccional tiene una directividad más cerca del modo de intra-predicción con la dirección de 45° que el segundo modo direccional, si el generador de píxeles de referencia aplica un filtro a píxeles de referencia del segundo modo direccional, el generador de píxeles de referencia también aplica el filtro a píxeles de referencia del primer modo direccional.
Realización 5. El aparato de decodificación de intra-predicción de la realización 1, en el que, cuando el modo de intra-predicción es un modo plano, el generador del bloque de predicción genera píxeles previstos del bloque de predicción usando un píxel de referencia de esquina, un píxel de referencia izquierdo y un píxel de referencia superior.
Realización 6. El aparato de decodificación de intra-predicción de la realización 1, en el que, cuando el modo de intra-predicción es un modo vertical, el generador de píxeles de referencia no filtra los píxeles de referencia, y el filtro del bloque de predicción usa píxeles de referencia que no se han usado para generar el bloque de predicción para filtrar algunos píxeles en el bloque de predicción.
Realización 7. El aparato de decodificación de intra-predicción de la realización 1, en el que, cuando el modo de intra-predicción es un modo de intra-predicción con dirección de 45° con respecto a un modo vertical (modo número 6) o entre un número predeterminado de modos de intra-predicción con directividad cerca del modo de intra-predicción, el generador del bloque de predicción genera el bloque de predicción usando píxeles de referencia superiores y píxeles de referencia izquierdos.

Claims (2)

  1. 5
    10
    15
    20
    25
    30
    REIVINDICACIONES
    1. Un aparato de codificación de una imagen, comprendiendo el aparato:
    una unidad (150) de intra-predicción configurada para determinar un modo de intra-predicción, para generar los píxeles de referencia correspondientes a los píxeles de referencia no disponibles, para filtrar de manera adaptativa los píxeles de referencia de acuerdo con el modo de intra-predicción, y para generar un bloque de predicción usando los píxeles de referencia determinados por el modo de intra-predicción;
    una unidad (120) de transformación configurada para transformar un bloque residual, que es una señal residual entre un bloque original y el bloque de predicción generado por la unidad (150) de intra-predicción, para generar un bloque de transformación;
    una unidad (130) de cuantificación configurada para cuantificar el bloque de transformación para generar un bloque cuantificado; y
    una unidad (140) de codificación de entropía configurada para codificar por entropía el bloque cuantificado,
    en el que la unidad (150) de intra-predicción filtra de manera adaptativa los píxeles de referencia de acuerdo con un tamaño del bloque de predicción para los modos de intra-predicción que existen entre un modo horizontal y un modo de intra-predicción que tienen una dirección de 45° con respecto al modo horizontal,
    en el que, cuando los píxeles de referencia se filtran para un segundo modo de intra-predicción direccional, los píxeles de referencia también se filtran para un primer modo de intra-predicción direccional que está más cerca del modo de intra-predicción que tiene la dirección de 45° con respecto al modo horizontal que el segundo modo de intra-predicción direccional,
    en el que los modos de intra-predicción direccionales primero y segundo existen entre el modo horizontal y el modo de intra-predicción que tiene la dirección de 45° con respecto al modo horizontal,
    en el que el filtro se aplica al modo de intra-predicción que tiene la dirección de 45° con respecto al modo horizontal y no se aplica al modo horizontal y un modo vertical,
    en el que el número de modos de intra-predicción en los que se aplica el filtro aumenta a medida que aumenta el tamaño del bloque de predicción,
    en el que la unidad (150) de intra-predicción no filtra los píxeles de referencia del bloque de predicción que sea menor que un tamaño predeterminado.
  2. 2. El aparato de la reivindicación 1, en el que, cuando el modo de intra-predicción es un modo plano, la unidad (150) de intra-predicción genera el bloque de predicción usando un píxel de referencia de esquina, un píxel de referencia izquierdo y un píxel de referencia superior.
ES16161940.8T 2010-07-31 2011-07-29 Aparato de codificación de una imagen Active ES2685600T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20100074460 2010-07-31
KR20100074460 2010-07-31
KR1020110063288A KR20120012385A (ko) 2010-07-31 2011-06-28 인트라 예측 부호화 장치
KR20110063288 2011-06-28

Publications (1)

Publication Number Publication Date
ES2685600T3 true ES2685600T3 (es) 2018-10-10

Family

ID=45559905

Family Applications (11)

Application Number Title Priority Date Filing Date
ES16161933.3T Active ES2694041T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES16161927T Active ES2720581T3 (es) 2010-07-31 2011-07-29 Aparato de codificación de una imagen
ES16161929T Active ES2696525T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES16161937.4T Active ES2692842T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES16160964T Active ES2718937T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES16161928T Active ES2700623T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES16161940.8T Active ES2685600T3 (es) 2010-07-31 2011-07-29 Aparato de codificación de una imagen
ES16161930.9T Active ES2685577T3 (es) 2010-07-31 2011-07-29 Aparato de intra-predicción
ES16161936T Active ES2700624T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES16161943.2T Active ES2691195T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES11814797.4T Active ES2575381T3 (es) 2010-07-31 2011-07-29 Dispositivo de decodificación de intra-predicción

Family Applications Before (6)

Application Number Title Priority Date Filing Date
ES16161933.3T Active ES2694041T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES16161927T Active ES2720581T3 (es) 2010-07-31 2011-07-29 Aparato de codificación de una imagen
ES16161929T Active ES2696525T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES16161937.4T Active ES2692842T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES16160964T Active ES2718937T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES16161928T Active ES2700623T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen

Family Applications After (4)

Application Number Title Priority Date Filing Date
ES16161930.9T Active ES2685577T3 (es) 2010-07-31 2011-07-29 Aparato de intra-predicción
ES16161936T Active ES2700624T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES16161943.2T Active ES2691195T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES11814797.4T Active ES2575381T3 (es) 2010-07-31 2011-07-29 Dispositivo de decodificación de intra-predicción

Country Status (19)

Country Link
US (11) US9307246B2 (es)
EP (11) EP3059953B1 (es)
JP (10) JP5997152B2 (es)
KR (13) KR20120012385A (es)
CN (13) CN106231314B (es)
CY (5) CY1117856T1 (es)
DK (5) DK3051815T3 (es)
ES (11) ES2694041T3 (es)
HR (5) HRP20160911T1 (es)
HU (11) HUE041737T2 (es)
LT (4) LT3059953T (es)
MX (5) MX336418B (es)
PL (11) PL3059959T3 (es)
PT (5) PT3059960T (es)
RS (5) RS58564B1 (es)
SI (5) SI3051815T1 (es)
SM (1) SMT201600168B (es)
TR (7) TR201815017T4 (es)
WO (1) WO2012018197A2 (es)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110113561A (ko) 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
HUE034476T2 (en) * 2010-04-23 2018-02-28 M&K Holdings Inc Equipment for image coding
CA3188026A1 (en) 2010-09-30 2012-04-05 Mitsubishi Electric Corporation Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method
US9008175B2 (en) * 2010-10-01 2015-04-14 Qualcomm Incorporated Intra smoothing filter for video coding
WO2012134046A2 (ko) 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
DE112012001609B9 (de) 2011-04-25 2021-11-18 Lg Electronics Inc. Intra-Prädiktionsverfahren, Kodierer und Dekodierer zur Benutzung desselben
KR20120140181A (ko) 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
MX343471B (es) 2011-08-29 2016-11-07 Ibex Pt Holdings Co Ltd Metodo para generar un bloque de prediccion en modo de prediccion de vector de movimiento avanzada (amvp).
JP2013093792A (ja) * 2011-10-27 2013-05-16 Sony Corp 画像処理装置および方法
KR20130049523A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
EP2860973B1 (en) 2012-06-08 2020-03-04 Sun Patent Trust Image encoding method, image decoding method, image encoding device, image decoding device, and image encoding and decoding device
EP2869554B1 (en) 2012-06-27 2020-10-07 Sun Patent Trust Image coding method, image decoding method, image coding device, image decoding device, and image coding and decoding apparatus
CN108401157B (zh) 2012-10-01 2022-06-24 Ge视频压缩有限责任公司 可伸缩视频解码器、编码器及可伸缩视频解码、编码方法
WO2015001700A1 (ja) * 2013-07-01 2015-01-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像符号化方法、及び、画像符号化装置
JP6253406B2 (ja) * 2013-12-27 2017-12-27 キヤノン株式会社 画像符号化装置、撮像装置、画像符号化方法、及びプログラム
CN108353193B (zh) * 2015-08-19 2022-07-15 Lg 电子株式会社 基于多个基于图的模型处理视频数据的方法和设备
KR20180040515A (ko) * 2015-09-10 2018-04-20 삼성전자주식회사 부호화 장치, 복호화 장치, 그 부호화 및 복호화 방법
CN106550238B (zh) * 2015-09-16 2019-09-13 福州瑞芯微电子股份有限公司 一种图像处理方法及系统
KR102345475B1 (ko) * 2016-01-05 2022-01-03 한국전자통신연구원 잔차 신호에 대한 예측 방법 및 장치
WO2017135692A1 (ko) * 2016-02-02 2017-08-10 엘지전자(주) 픽셀 순환 코딩과 변환 코딩의 결합에 기초하여 비디오 신호를 처리하는 방법 및 장치
WO2017142326A1 (ko) * 2016-02-16 2017-08-24 삼성전자 주식회사 비디오 부호화 방법 및 장치, 그 복호화 방법 및 장치
KR20170108367A (ko) * 2016-03-17 2017-09-27 세종대학교산학협력단 인트라 예측 기반의 비디오 신호 처리 방법 및 장치
KR102346713B1 (ko) * 2016-04-12 2022-01-03 세종대학교산학협력단 인트라 예측 기반의 비디오 신호 처리 방법 및 장치
KR102601732B1 (ko) 2016-05-31 2023-11-14 삼성디스플레이 주식회사 영상 부호화 방법 및 영상 복호화 방법
KR102410032B1 (ko) 2016-06-24 2022-06-16 주식회사 케이티 비디오 신호 처리 방법 및 장치
US11405620B2 (en) * 2016-08-01 2022-08-02 Electronics And Telecommunications Research Institute Image encoding/decoding method and apparatus with sub-block intra prediction
KR102447450B1 (ko) * 2016-09-05 2022-09-26 엘지전자 주식회사 영상 부호화/복호화 방법 및 이를 위한 장치
CN109691099B (zh) * 2016-09-13 2023-10-27 韩国电子通信研究院 视频编码/解码方法和装置以及在其中存储比特流的记录介质
US10652575B2 (en) * 2016-09-15 2020-05-12 Qualcomm Incorporated Linear model chroma intra prediction for video coding
US20180091812A1 (en) * 2016-09-23 2018-03-29 Apple Inc. Video compression system providing selection of deblocking filters parameters based on bit-depth of video data
CN117596390A (zh) * 2016-10-14 2024-02-23 世宗大学校产学协力团 影像编码/解码方法及比特流的传送方法
US10694202B2 (en) * 2016-12-01 2020-06-23 Qualcomm Incorporated Indication of bilateral filter usage in video coding
WO2018117891A1 (en) * 2016-12-23 2018-06-28 Huawei Technologies Co., Ltd. An intra-prediction apparatus for removing a directional intra-prediction mode from a set of predetermined directional intra-prediction modes
KR20180080115A (ko) 2017-01-02 2018-07-11 한양대학교 산학협력단 참조 화소에 대하여 적응적 필터링을 수행하기 위한 화면 내 예측 방법 및 장치
WO2018124853A1 (ko) * 2017-01-02 2018-07-05 한양대학교 산학협력단 참조 화소에 대하여 적응적 필터링을 수행하기 위한 화면 내 예측 방법 및 장치
US10638126B2 (en) * 2017-05-05 2020-04-28 Qualcomm Incorporated Intra reference filter for video coding
US11044471B2 (en) 2017-07-28 2021-06-22 Electronics And Telecommunications Research Institute Image processing method, and image encoding/decoding method and device which use same
KR20190028324A (ko) * 2017-09-08 2019-03-18 주식회사 케이티 비디오 신호 처리 방법 및 장치
JP7236800B2 (ja) * 2017-10-10 2023-03-10 株式会社デンソー 車両洗浄システム
EP3496401A1 (en) * 2017-12-05 2019-06-12 Thomson Licensing Method and apparatus for video encoding and decoding based on block shape
WO2019146811A1 (en) * 2018-01-25 2019-08-01 Lg Electronics Inc. Video decoder and controlling method thereof
US10735757B2 (en) 2018-01-30 2020-08-04 Lg Electronics Inc. Video decoder and controlling method thereof
WO2019203559A1 (ko) * 2018-04-17 2019-10-24 엘지전자 주식회사 영상 코딩 시스템에서 리그레션 모델 기반 필터링을 사용하는 영상 디코딩 방법 및 장치
KR102252323B1 (ko) * 2018-05-10 2021-05-14 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2020046086A1 (ko) * 2018-09-02 2020-03-05 엘지전자 주식회사 영상 신호를 처리하기 위한 방법 및 장치
EP3888368A4 (en) * 2018-11-27 2022-03-02 OP Solutions, LLC ADAPTIVE TIME REFERENCE IMAGE CROSS-REFERENCE FILTER NOT AVAILABLE TO RELATED APPLICATIONS
US11102513B2 (en) * 2018-12-06 2021-08-24 Tencent America LLC One-level transform split and adaptive sub-block transform
US11356699B2 (en) * 2019-01-11 2022-06-07 Hfi Innovation Inc. Method and apparatus of sub-block deblocking in video coding
CN111263156B (zh) * 2019-02-20 2022-03-25 北京达佳互联信息技术有限公司 视频解码方法、视频编码方法及装置
US11190777B2 (en) * 2019-06-30 2021-11-30 Tencent America LLC Method and apparatus for video coding
CN112859327B (zh) * 2019-11-27 2022-10-18 成都理想境界科技有限公司 一种图像输出控制方法及光纤扫描成像系统
WO2023055199A1 (ko) * 2021-09-30 2023-04-06 한국전자통신연구원 영상 부호화/복호화를 위한 방법, 장치 및 기록 매체

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE344594T1 (de) * 1998-12-10 2006-11-15 Matsushita Electric Ind Co Ltd Arithmetische filtervorrichtung
DE10158658A1 (de) * 2001-11-30 2003-06-12 Bosch Gmbh Robert Verfahren zur gerichteten Prädiktion eines Bildblockes
US7289562B2 (en) * 2003-08-01 2007-10-30 Polycom, Inc. Adaptive filter to improve H-264 video quality
US7782954B2 (en) * 2003-09-07 2010-08-24 Microsoft Corporation Scan patterns for progressive video content
KR101014660B1 (ko) * 2003-10-24 2011-02-16 삼성전자주식회사 인트라 예측 방법 및 장치
JP2006100871A (ja) * 2004-09-28 2006-04-13 Sony Corp 符号化装置、符号化方法、符号化方法のプログラム及び符号化方法のプログラムを記録した記録媒体
KR100679035B1 (ko) * 2005-01-04 2007-02-06 삼성전자주식회사 인트라 bl 모드를 고려한 디블록 필터링 방법, 및 상기방법을 이용하는 다 계층 비디오 인코더/디코더
JP4231020B2 (ja) 2005-03-29 2009-02-25 日本電信電話株式会社 イントラ予測モード選択方法,画像符号化装置,画像符号化プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
CN101133650B (zh) 2005-04-01 2010-05-19 松下电器产业株式会社 图像解码装置以及图像解码方法
KR100750128B1 (ko) * 2005-09-06 2007-08-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
KR100727990B1 (ko) * 2005-10-01 2007-06-13 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치
EP2733952A1 (en) * 2005-10-21 2014-05-21 Electronics and Telecommunications Research Institute Method for encoding moving picture using adaptive scanning
KR100750145B1 (ko) * 2005-12-12 2007-08-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
JP4542064B2 (ja) 2006-05-11 2010-09-08 日本電信電話株式会社 階層間予測方法,装置,プログラムおよびその記録媒体
JPWO2008012918A1 (ja) * 2006-07-28 2009-12-17 株式会社東芝 画像符号化と復号の方法及び装置
JP4999859B2 (ja) * 2006-10-30 2012-08-15 日本電信電話株式会社 予測参照情報生成方法、動画像符号化及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体
KR100856392B1 (ko) 2006-11-08 2008-09-04 한국전자통신연구원 현재 영상의 복원영역을 참조하는 동영상 부호화/복호화장치 및 그 방법
US8326064B2 (en) * 2007-01-22 2012-12-04 Nec Corporation Image re-encoding method to decode image data which is orthogonally transformed per first block and encoded by a first encoding method
WO2008130367A1 (en) * 2007-04-19 2008-10-30 Thomson Licensing Adaptive reference picture data generation for intra prediction
KR101378338B1 (ko) * 2007-06-14 2014-03-28 삼성전자주식회사 영상 복구를 이용한 인트라 예측 부호화, 복호화 방법 및장치
WO2009001793A1 (ja) * 2007-06-26 2008-12-31 Kabushiki Kaisha Toshiba 画像符号化と画像復号化の方法及び装置
WO2009037726A1 (ja) * 2007-09-18 2009-03-26 Fujitsu Limited 動画像符号化装置および動画像復号装置
US8204327B2 (en) * 2007-10-01 2012-06-19 Cisco Technology, Inc. Context adaptive hybrid variable length coding
KR101228020B1 (ko) * 2007-12-05 2013-01-30 삼성전자주식회사 사이드 매칭을 이용한 영상의 부호화 방법 및 장치, 그복호화 방법 및 장치
WO2009088340A1 (en) * 2008-01-08 2009-07-16 Telefonaktiebolaget Lm Ericsson (Publ) Adaptive filtering
US20090245351A1 (en) * 2008-03-28 2009-10-01 Kabushiki Kaisha Toshiba Moving picture decoding apparatus and moving picture decoding method
CN100592796C (zh) * 2008-04-15 2010-02-24 中国科学院计算技术研究所 一种视频编码器及其帧内预测模式选择方法
WO2009136743A2 (ko) 2008-05-07 2009-11-12 Lg전자 비디오 신호의 디코딩 방법 및 장치
JP2009284298A (ja) * 2008-05-23 2009-12-03 Hitachi Ltd 動画像符号化装置、動画像復号化装置、動画像符号化方法及び動画像復号化方法
JP2009302776A (ja) 2008-06-11 2009-12-24 Canon Inc 画像符号化装置、その制御方法、及びコンピュータプログラム
US9055146B2 (en) * 2008-06-17 2015-06-09 International Business Machines Corporation Social network based call management
US9479786B2 (en) * 2008-09-26 2016-10-25 Dolby Laboratories Licensing Corporation Complexity allocation for video and image coding applications
KR101590500B1 (ko) 2008-10-23 2016-02-01 에스케이텔레콤 주식회사 동영상 부호화/복호화 장치, 이를 위한 인트라 예측 방향에기반한 디블록킹 필터링 장치 및 필터링 방법, 및 기록 매체
WO2010063881A1 (en) * 2008-12-03 2010-06-10 Nokia Corporation Flexible interpolation filter structures for video coding
KR101538704B1 (ko) * 2009-01-28 2015-07-28 삼성전자주식회사 보간 필터를 적응적으로 사용하여 영상을 부호화 및 복호화하는 방법 및 장치
CN101674475B (zh) * 2009-05-12 2011-06-22 北京合讯数通科技有限公司 一种h.264/svc的自适应层间纹理预测方法
KR101062111B1 (ko) 2009-07-06 2011-09-02 안양과학대학 산학협력단 가로등용 엘이디 등기구
CN101715135B (zh) * 2009-09-30 2013-01-09 武汉大学 基于匹配模板的自适应帧内预测滤波编码方法
KR101464538B1 (ko) 2009-10-01 2014-11-25 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
CN101854549B (zh) * 2010-05-28 2012-05-02 浙江大学 基于空域预测的视频和图像编解码方法和装置
KR20110054244A (ko) 2009-11-17 2011-05-25 삼성전자주식회사 미디언 필터를 이용한 깊이영상 부호화의 인트라 예측 장치 및 방법
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
KR101643121B1 (ko) * 2011-01-12 2016-07-26 미쓰비시덴키 가부시키가이샤 화상 부호화 장치, 화상 복호 장치, 화상 부호화 방법, 화상 복호 방법 및 기억 매체

Also Published As

Publication number Publication date
CN104602009A (zh) 2015-05-06
LT3059953T (lt) 2019-03-12
KR20130098255A (ko) 2013-09-04
EP3059957B1 (en) 2018-09-12
SI3059956T1 (en) 2018-08-31
RS57381B1 (sr) 2018-09-28
PT2600613E (pt) 2016-06-03
EP2600613A4 (en) 2014-09-10
CN104602009B (zh) 2016-09-07
JP6163598B2 (ja) 2017-07-12
CN106067979B (zh) 2017-08-11
RS58388B1 (sr) 2019-04-30
CN106231314B (zh) 2020-02-04
CN106067977A (zh) 2016-11-02
JP2017011732A (ja) 2017-01-12
CN106231313A (zh) 2016-12-14
ES2700623T3 (es) 2019-02-18
EP2600613A2 (en) 2013-06-05
HUE041269T2 (hu) 2019-05-28
PL3059956T3 (pl) 2018-11-30
MX336419B (es) 2016-01-19
CN106067978B (zh) 2017-08-29
EP3059953A1 (en) 2016-08-24
PT3059956T (pt) 2018-10-18
EP3059956A1 (en) 2016-08-24
CN106210723B (zh) 2019-11-01
JP2017011730A (ja) 2017-01-12
CN106067981A (zh) 2016-11-02
EP3059955B1 (en) 2018-09-26
PL3059958T3 (pl) 2019-06-28
TR201809836T4 (tr) 2018-07-23
US20160057427A1 (en) 2016-02-25
LT3059960T (lt) 2018-08-27
PT3059953T (pt) 2019-03-27
US20160057425A1 (en) 2016-02-25
DK3059953T3 (en) 2019-04-29
HUE040206T2 (hu) 2019-02-28
JP2017011731A (ja) 2017-01-12
JP2017011729A (ja) 2017-01-12
JP6152461B2 (ja) 2017-06-21
CN106067980A (zh) 2016-11-02
EP3051815A1 (en) 2016-08-03
KR20140057511A (ko) 2014-05-13
ES2692842T3 (es) 2018-12-05
SI2600613T1 (sl) 2016-07-29
CN106067981B (zh) 2017-08-11
KR20140057510A (ko) 2014-05-13
EP3059961B1 (en) 2018-09-12
RS57368B1 (sr) 2018-08-31
RS55052B1 (sr) 2016-12-30
HUE044305T2 (hu) 2019-10-28
US9609325B2 (en) 2017-03-28
EP3059958A1 (en) 2016-08-24
PT3059960T (pt) 2018-10-18
CN106067980B (zh) 2017-08-11
PL2600613T3 (pl) 2016-11-30
EP2600613B1 (en) 2016-05-11
MX336416B (es) 2016-01-19
PL3051815T3 (pl) 2019-07-31
TR201815529T4 (tr) 2018-11-21
KR20210131951A (ko) 2021-11-03
KR20210131950A (ko) 2021-11-03
DK3059956T3 (en) 2018-09-10
TR201809830T4 (tr) 2018-07-23
KR20210096029A (ko) 2021-08-04
MX336418B (es) 2016-01-19
PL3059960T3 (pl) 2018-11-30
HUE044403T2 (hu) 2019-10-28
CN106231313B (zh) 2020-02-04
US9462281B2 (en) 2016-10-04
TR201816011T4 (tr) 2018-11-21
US20160057421A1 (en) 2016-02-25
KR20200050451A (ko) 2020-05-11
EP3059960A1 (en) 2016-08-24
CN106303532B (zh) 2019-03-12
PL3059954T3 (pl) 2019-03-29
KR20120012401A (ko) 2012-02-09
JP2016220245A (ja) 2016-12-22
US20160057426A1 (en) 2016-02-25
US9615094B2 (en) 2017-04-04
KR20210131952A (ko) 2021-11-03
EP3059960B1 (en) 2018-06-13
CN106067978A (zh) 2016-11-02
EP3059954B1 (en) 2018-09-26
US9307246B2 (en) 2016-04-05
USRE49565E1 (en) 2023-06-27
PL3059953T3 (pl) 2019-08-30
DK3059960T3 (en) 2018-09-10
PL3059957T3 (pl) 2019-03-29
JP2017011733A (ja) 2017-01-12
JP6158998B2 (ja) 2017-07-05
CN104602011A (zh) 2015-05-06
PT3051815T (pt) 2019-03-01
CN106210723A (zh) 2016-12-07
US20160057422A1 (en) 2016-02-25
EP3059958B1 (en) 2018-09-19
KR20210131949A (ko) 2021-11-03
US9438919B2 (en) 2016-09-06
JP2016220246A (ja) 2016-12-22
US9445099B2 (en) 2016-09-13
EP3059955A1 (en) 2016-08-24
ES2700624T3 (es) 2019-02-18
JP6163596B2 (ja) 2017-07-12
KR20140056205A (ko) 2014-05-09
PL3059961T3 (pl) 2019-04-30
SI3059960T1 (en) 2018-08-31
US20160057449A1 (en) 2016-02-25
KR102164752B1 (ko) 2020-10-14
ES2694041T3 (es) 2018-12-17
CN103081474B (zh) 2016-09-21
CY1121337T1 (el) 2020-05-29
HUE041737T2 (hu) 2019-05-28
HUE041267T2 (hu) 2019-05-28
CY1117856T1 (el) 2017-05-17
KR101339903B1 (ko) 2013-12-10
CY1120472T1 (el) 2019-07-10
JP6158996B2 (ja) 2017-07-05
EP3059959B1 (en) 2018-09-12
LT3051815T (lt) 2019-02-25
JP5997152B2 (ja) 2016-09-28
JP6163597B2 (ja) 2017-07-12
US20160057423A1 (en) 2016-02-25
CN106231312A (zh) 2016-12-14
SI3059953T1 (sl) 2019-04-30
LT3059956T (lt) 2018-08-27
JP2017011727A (ja) 2017-01-12
CN104602011B (zh) 2018-02-02
JP6158997B2 (ja) 2017-07-05
US20130016774A1 (en) 2013-01-17
HUE041476T2 (hu) 2019-05-28
WO2012018197A2 (ko) 2012-02-09
HRP20181470T1 (hr) 2018-11-02
US20160057450A1 (en) 2016-02-25
JP2017011728A (ja) 2017-01-12
PL3059959T3 (pl) 2019-03-29
ES2685577T3 (es) 2018-10-10
EP3059956B1 (en) 2018-06-13
CY1120479T1 (el) 2019-07-10
HRP20190543T1 (hr) 2019-05-31
HRP20160911T1 (hr) 2016-09-23
CN106303532A (zh) 2017-01-04
CN103081474A (zh) 2013-05-01
ES2720581T3 (es) 2019-07-23
US9451264B2 (en) 2016-09-20
US9467702B2 (en) 2016-10-11
EP3051815B1 (en) 2019-01-30
EP3059954A1 (en) 2016-08-24
CN106067977B (zh) 2017-08-11
CY1122995T1 (el) 2021-10-29
JP2013534384A (ja) 2013-09-02
HRP20190773T1 (hr) 2019-06-14
EP3059959A1 (en) 2016-08-24
HUE041736T2 (hu) 2019-05-28
PL3059955T3 (pl) 2019-06-28
TR201816492T4 (tr) 2018-11-21
US20160057424A1 (en) 2016-02-25
KR102322188B1 (ko) 2021-11-05
RS58564B1 (sr) 2019-05-31
HUE039985T2 (hu) 2019-02-28
TR201815017T4 (tr) 2018-11-21
WO2012018197A3 (ko) 2012-04-12
HRP20181471T1 (hr) 2018-11-02
US9491468B2 (en) 2016-11-08
JP6163595B2 (ja) 2017-07-12
EP3059961A1 (en) 2016-08-24
MX2013001232A (es) 2013-03-12
TR201816486T4 (tr) 2018-11-21
DK2600613T3 (en) 2016-08-22
KR20120012385A (ko) 2012-02-09
EP3059957A1 (en) 2016-08-24
EP3059953B1 (en) 2019-02-20
CN106231312B (zh) 2019-04-12
CN106231314A (zh) 2016-12-14
ES2718937T3 (es) 2019-07-05
ES2696525T3 (es) 2019-01-16
SMT201600168B (it) 2016-07-01
MX336417B (es) 2016-01-19
HUE041266T2 (hu) 2019-05-28
US9451263B2 (en) 2016-09-20
SI3051815T1 (sl) 2019-04-30
JP6158995B2 (ja) 2017-07-05
ES2575381T3 (es) 2016-06-28
ES2691195T3 (es) 2018-11-26
KR20130029097A (ko) 2013-03-21
DK3051815T3 (en) 2019-04-29
CN106067979A (zh) 2016-11-02
HUE030354T2 (en) 2017-05-29

Similar Documents

Publication Publication Date Title
ES2685600T3 (es) Aparato de codificación de una imagen
ES2720652T3 (es) Aparato para codificar una imagen
ES2696931T3 (es) Procedimiento para codificar un modo de intrapredicción
ES2954979T3 (es) Aparato para codificar un fotograma en movimiento