ES2691195T3 - Aparato para codificar una imagen - Google Patents

Aparato para codificar una imagen Download PDF

Info

Publication number
ES2691195T3
ES2691195T3 ES16161943.2T ES16161943T ES2691195T3 ES 2691195 T3 ES2691195 T3 ES 2691195T3 ES 16161943 T ES16161943 T ES 16161943T ES 2691195 T3 ES2691195 T3 ES 2691195T3
Authority
ES
Spain
Prior art keywords
prediction
intra
mode
block
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16161943.2T
Other languages
English (en)
Inventor
Soo Mi Oh
Moonock Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
M&K Holdings Inc
Original Assignee
M&K Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45559905&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2691195(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by M&K Holdings Inc filed Critical M&K Holdings Inc
Application granted granted Critical
Publication of ES2691195T3 publication Critical patent/ES2691195T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Abstract

Un aparato para codificar una imagen, comprendiendo el aparato: una unidad de intra-predicción (150) configurada para determinar un modo de intra-predicción, para generar píxeles de referencia correspondientes a píxeles de referencia no disponibles, para filtrar de manera adaptativa los píxeles de referencia de acuerdo con el modo de intra-predicción y para generar un bloque de predicción usando los píxeles de referencia determinados por el modo de intra-predicción; una unidad de transformación (120) configurada para transformar un bloque residual, que es una señal residual entre un bloque original y el bloque de predicción generado por la unidad de intra-predicción (150), para generar un bloque de transformación; una unidad de cuantificación (130) configurada para cuantificar el bloque de transformación para generar un bloque cuantificado; una unidad de escaneo (131) configurada para escanear coeficientes del bloque cuantificado usando un patrón de escaneo determinado de acuerdo con el modo de intra-predicción; y una unidad de codificación por entropía (140) configurada para codificar por entropía los coeficientes del bloque cuantificado, en el que la unidad de intra-predicción (150) filtra de manera adaptativa los píxeles de referencia de acuerdo con un tamaño del bloque de predicción para los modos de intra-predicción que existen entre un modo horizontal y un modo de intra-predicción que tiene una dirección de 45º con respecto al modo horizontal, en el que, cuando los píxeles de referencia se filtran para un segundo modo de intra-predicción direccional, los píxeles de referencia también se filtran para un primer modo de intra-predicción direccional que está más cerca del modo de intra-predicción que tiene la dirección de 45º con respecto al modo horizontal de lo que está el segundo modo de intra-predicción direccional, en el que los modos de intra-predicción direccionales primero y segundo existen entre el modo horizontal y el modo de intra-predicción que tiene la dirección de 45º con respecto al modo horizontal, en el que el número de modos de intra-predicción en los que se aplica el filtro aumenta a medida que aumenta el tamaño del bloque de predicción, en el que el filtro se aplica al modo de intra-predicción que tiene una dirección de 45º con respecto al modo horizontal y no se aplica al modo horizontal y al modo vertical, en el que la unidad de escaneo (131) divide los coeficientes del bloque cuantificado en una pluralidad de subbloques si se determina que un tamaño de un bloque de transformación es mayor de un tamaño predeterminado, en el que el tamaño predeterminado es 4 x 4 u 8 x 8, en el que la pluralidad de subbloques y los coeficientes de cada subbloque se escanean de acuerdo con un patrón de escaneo, en donde el patrón de escaneo para escanear la pluralidad de subbloques y para escanear los coeficientes de cada subbloque se determina por el modo de intra-predicción del bloque de predicción.

Description

5
10
15
20
25
30
35
40
45
50
DESCRIPCION
Aparato para codificar una imagen
En los procedimientos de compresión de imágenes tales como el grupo de expertos de imágenes en movimiento (MPEG)-1, MPEG-2, MPEG-4 y la codificación de vídeo avanzada (AVC) H.264/MPEG-4, una imagen se divide en macrobloques para codificar una imagen. A continuación, los macrobloques respectivos se codifican usando una inter predicción o una intra-predicción.
En la intra-predicción, un bloque de una imagen actual se codifica no usando una imagen de referencia, sino usando valores de los píxeles espacialmente adyacentes al bloque actual. Un modo de intra-predicción con poca distorsión se selecciona comparando con un macrobloque original que usa los valores de píxeles adyacentes. A continuación, usando el modo seleccionado de intra-predicción y los valores de píxeles adyacentes, se calculan los valores de predicción del bloque actual. Y se calcula una diferencia entre los valores de predicción y los valores de los píxeles del bloque actual original y a continuación se codifican través de una codificación de transformación, una cuantificación y una codificación de entropía. El modo de intra-predicción también se codifica.
Los modos de intra-predicción se clasifican, en general, en un modo de intra-predicción de 4 x 4, un modo de intra- predicción de 8 x 8 y un modo de intra-predicción de 16 x 16 para los componentes de luminancia y los componentes de crominancia.
En el modo de intra-predicción de 16 x 16 de acuerdo con la técnica relacionada hay cuatro modos, un modo vertical, un modo horizontal, un modo de corriente continua (CC) y un modo plano.
En el modo de intra-predicción de 4 x 4 de acuerdo con la técnica relacionada hay nueve modos, un modo vertical, un modo horizontal, un modo de CC, un modo abajo-izquierda diagonal, un modo abajo-derecha diagonal, un modo derecho vertical, un modo izquierdo vertical, un modo horizontal-arriba y un modo horizontal-abajo.
Cada modo de predicción se indexa de acuerdo con la frecuencia de uso de los modos respectivos. El modo vertical, que es el modo 0, muestra la posibilidad más alta de que se use lo más frecuentemente para realizar la intra- predicción en un bloque objetivo, y el modo horizontal-arriba que es el modo de 8 muestra la posibilidad más alta de que se use lo más infrecuentemente.
De acuerdo con las normas H.264, un bloque actual se codifica usando un total de 13 modos, es decir, 4 modos del modo de intra-predicción de 4 x 4 y 9 modos del modo de intra-predicción de 16 x 16. Se genera un flujo de bits del bloque actual de acuerdo con un modo óptimo entre estos modos.
Sin embargo, cuando algunos o todos los valores de los píxeles adyacentes al bloque actual no existen o no están ya codificados, es imposible aplicar algunos o todos los modos de intra-predicción. Además, cuando una diferencia entre los píxeles de referencia adyacentes es grande, una diferencia entre un bloque de predicción y un bloque original se hace grande. Por lo tanto, se requiere una nueva técnica para reducir la diferencia entre el bloque original y el bloque de predicción generado basándose en las posiciones de los píxeles de referencia usados para generar el bloque de predicción.
El documento EP 2 557 797 A2 desvela un procedimiento y un aparato para realizar una intra-predicción usando un filtro adaptativo. El procedimiento para realizar la intra-predicción comprende las etapas de: determinar si aplicar o no un primer filtro para un valor de píxel de referencia basándose en información de un bloque vecino de un bloque actual; aplicar el primer filtro para el valor de píxel de referencia cuando se determina aplicar el primer filtro; realizar la intra-predicción en el bloque actual basándose en el valor de píxel de referencia; determinar si aplicar o no un segundo filtro para un valor de predicción de acuerdo con cada modo de predicción del bloque actual, que se predice por la realización de la intra-predicción basándose en la información del bloque vecino; y aplicar el segundo filtro para el valor de predicción de acuerdo con cada modo de predicción del bloque actual cuando se determina aplicar el segundo filtro.
El documento ANONYMOUS, “Test Model under Consideration”, 2. JCT-VC MEETING; 21-7-2010 - 28-7-2010; GINEBRA; (JOINT COLLABORATIVE TEAM ON VIDEO CODING OF ISO/IEC JTC1/SC29/WG11 AND ITU-T SG.16), (2010-07-28), n.° JCTVC-BV205, ISSN 0000-0046, desvela un modelo de prueba previsto para proporcionar una eficiencia de codificación próxima a las propuestas con mejor resultado en la prueba objeto de las presentaciones CfP y por tanto para proporcionar un punto de complejidad que esté próximo al de las presentaciones de menor complejidad que han mostrado que proporcionan una mejora sustancial de la eficiencia de codificación.
Por lo tanto, el objetivo de la invención es proporcionar un aparato mejorado para codificar una imagen.
Este objetivo se consigue mediante el contenido objeto de las reivindicaciones independientes.
Se definen realizaciones preferidas en las reivindicaciones dependientes.
Los ejemplos de la presente invención se refieren a un aparato para codificar una imagen para codificar eficazmente
5
10
15
20
25
30
35
40
45
50
55
una imagen con gran eficiencia de compresión.
Un ejemplo de la presente invención proporciona un aparato para codificar una imagen, incluyendo el aparato: una unidad de intra-predicción configurada para determinar un modo de intra-predicción, para generar píxeles de referencia correspondientes a píxeles de referencia no disponibles, para filtrar de manera adaptativa los píxeles de referencia de acuerdo con el modo de intra-predicción, y para generar un bloque de predicción usando los píxeles de referencia determinados por el modo de intra-predicción; una unidad de transformación configurada para transformar un bloque residual, que es una señal residual entre un bloque original y el bloque de predicción generado por la unidad de intra-predicción (150), para generar un bloque de transformación; una unidad de cuantificación configurada para cuantificar el bloque de transformación para generar un bloque cuantificado; una unidad de escaneo configurada para escanear coeficientes del bloque cuantificado usando un patrón de escaneo determinado de acuerdo con el modo de intra-predicción; y una unidad de codificación por entropía configurada para codificar por entropía los coeficientes del bloque cuantificado, en el que, la unidad de intra-predicción filtra de manera adaptativa los píxeles de referencia de acuerdo con un tamaño del bloque de predicción para los modos de intra-predicción que existen entre un modo horizontal y un modo de intra-predicción que tienen una dirección de 45° con respecto al modo horizontal, en el que, cuando los píxeles de referencia se filtran para un segundo modo de intra-predicción direccional, los píxeles de referencia también se filtran para un primer modo de intra-predicción direccional que está más cerca del modo de intra-predicción que tiene la dirección de 45° con respecto al modo horizontal que lo que está el segundo modo de intra-predicción direccional, en el que los modos de intra-predicción direccionales primero y segundo existen entre el modo horizontal y el modo de intra-predicción que tiene la dirección de 45° con respecto al modo horizontal, en el que el número de modos de intra-predicción en los que se aplica el filtro se aplica al modo de intra-predicción que tiene una dirección de 45° con respecto al modo horizontal y aumenta a medida que aumenta el tamaño del bloque de predicción, en el que el filtro no se aplica al modo horizontal y al modo vertical, en el que la unidad de escaneo divide los coeficientes del bloque cuantificado en una pluralidad de subbloques si se determina que un tamaño de un bloque de transformación es mayor que un tamaño predeterminado, en el que el tamaño predeterminado es 4x4 u 8 x 8, en el que la pluralidad de subbloques y los coeficientes de cada subbloque se escanean de acuerdo con un patrón de escaneo, en el que el patrón de escaneo para escanear la pluralidad de subbloques y para escanear los coeficientes de cada subbloque se determina por el modo de intra-predicción del bloque de predicción.
Un aparato para codificar una imagen de acuerdo con la presente invención genera unos píxeles de referencia y filtra de manera adaptativa los píxeles de referencia con el fin de generar un bloque de predicción similar a un bloque original. Además, generando o modificando el bloque de predicción que usa los píxeles de referencia que no se usan para generar un bloque de predicción, puede reconstruirse el bloque de predicción similar a un bloque original, y puede mejorarse una compresión de imagen.
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes en movimiento de acuerdo con la presente invención.
La figura 2 es un diagrama de bloques de un intra predictor de acuerdo con la presente invención.
La figura 3 es un diagrama conceptual que muestra los modos de intra-predicción direccionales de acuerdo con la presente invención.
La figura 4 es un diagrama de flujo que ilustra un procedimiento de codificación de un modo de intra-predicción de una unidad de predicción actual realizado en un codificador de modos de predicción de acuerdo con la presente invención.
La figura 5 es un diagrama de bloques de un aparato de decodificación de intra-predicción de acuerdo con la presente invención.
En lo sucesivo en el presente documento, diversos ejemplos para una mejor comprensión de la presente invención se describirán en detalle con referencia a los dibujos adjuntos. Sin embargo, la presente invención no se limita a los ejemplos desvelados a continuación, sino que puede implementarse de diversas maneras. Por lo tanto, son posibles muchas otras modificaciones y variaciones de la presente invención, y debe entenderse que dentro del ámbito del concepto desvelado, puede ponerse en práctica la presente invención de otro modo que como se ha descrito específicamente.
Para la codificación de imágenes, cada imagen consiste en uno o más segmentos (slices), y cada segmento se compone de una pluralidad de unidades de codificación. Ya que una imagen de un grado de alta definición (HD) o superior tiene muchas regiones uniformes, puede mejorarse una compresión de la imagen codificando la imagen con unas unidades de codificación de diversos tamaños.
Las unidades de codificación de acuerdo con la presente invención tienen una estructura de árbol cuádruple y pueden dividirse de manera jerárquica usando la información de profundidad. Una unidad de codificación del tamaño más grande se denomina como una unidad de codificación más grande (Largest Coding Unit, LCU), y una unidad de codificación del tamaño más pequeño se denomina como una unidad de codificación más pequeña (Shortest Coding Unit, SCU). La información relativa a la LCU y la SCU puede incluirse en un conjunto de parámetros de secuencia
5
10
15
20
25
30
35
40
45
50
55
(Sequence Parameter Set, SPS) y transmitirse. Una LCU consiste en una o más unidades de codificación. La LCU tiene la forma de un árbol de codificación recursiva con el fin de incluir una estructura de división de las unidades de codificación. Cuando la LCU no está dividida en cuatro unidades de codificación, el árbol de codificación puede consistir en una información que indique que la LCU no está dividida y una unidad de codificación. Cuando la LCU está dividida en cuatro unidades de codificación, el árbol de codificación puede consistir en una información que indique que la LCU está dividida y cuatro árboles de sub-codificación. Del mismo modo, cada árbol de subcodificación tiene la misma estructura que el árbol de codificación de la LCU. Sin embargo, una unidad de codificación del tamaño de una SCU no se divide en unidades de codificación.
Mientras tanto, cada unidad de codificación en el árbol de codificación se somete a una intra-predicción o inter predicción en unidades de la unidad de codificación en sí mismas o a una sub-partición. Una unidad en la que se realiza una intra-predicción o una inter predicción se denomina como una unidad de predicción. Un tamaño de la unidad de predicción puede ser 2N x 2N o N x N en una intra-predicción. Un tamaño de la unidad de predicción puede ser 2N x 2N, 2n x N, N x 2N o N x N en una inter predicción. En el presente documento, 2N indica las longitudes horizontales y verticales de la unidad de codificación.
Mientras tanto, una unidad de predicción para la intra-predicción puede no ser un cuadrado. Por ejemplo, una unidad de codificación cuadrada puede dividirse en cuatro hN x 2N o cuatro 2N x hN para la intra-predicción. En este caso, se reduce la distancia entre un píxel de referencia y un píxel de un bloque de predicción para la intra-predicción, de tal manera que puede mejorarse la eficiencia de predicción. Este procedimiento de intra-predicción es una intra- predicción de corta distancia (Short Distance Intra Prediction, SDIP).
Una unidad de codificación incluye la información del modo de predicción y la información de tamaño (modo_parte) de las unidades de predicción dentro de la unidad de codificación. Para mejorar la eficiencia de codificación, la información del modo de predicción y la información de tamaño pueden combinarse y codificarse conjuntamente. En este caso, cada unidad de codificación incluye un tipo de predicción codificada conjunta (tipo_pred).
Una unidad de codificación incluye la información adicional necesaria para generar un bloque de predicción de cada unidad de predicción y una señal residual. La información adicional se define por unidad de predicción en la unidad de codificación. En la intra-predicción, la información adicional incluye la información de intra-predicción codificada. En la inter predicción, la información adicional incluye la información de movimiento codificada. La información de movimiento incluye un vector de movimiento y un índice de imagen de referencia.
En cada unidad de codificación se incluye una señal residual. Una señal residual incluye un árbol de transformación, un portador de señal residual de luminancia y dos portadores de señal residual de crominancia. Los portadores de señal residual incluyen la información residual codificada en una o más unidades de transformación. El tamaño más grande de la unidad de transformación es igual a o menor que el tamaño de la unidad de codificación. La unidad de transformación puede tener el mismo tamaño que la unidad de transformación más grande o una unidad de subtransformación de la unidad de transformación más grande.
El árbol de transformación incluye la información que indica una estructura de división de la unidad de transformación para la señal residual incluida en la unidad de codificación. Además, el árbol de transformación incluye la información que indica si una señal residual de cada unidad de transformación es o no 0.
La portadora de señal residual lleva la información residual codificada en las unidades de transformación correspondientes a la información que indica la estructura de división en el árbol de transformación en unidades de unidades de codificación.
Aunque la descripción anterior se ha hecho solamente de una unidad de predicción obtenida dividiendo igualmente una unidad de codificación, también es posible una división desigual. En otras palabras, para comprender una señal residual, puede ser más eficaz dividir de manera desigual una señal de imagen en una dirección específica de acuerdo con un límite de una imagen y realizar una intra o inter predicción.
El modo de adaptación más simple es dividir una unidad de codificación en dos bloques usando una línea recta con el fin de extraer la dependencia estadística de una región de predicción de la topografía local. Un límite de una imagen se corresponde con la línea recta y se divide. En este caso, las direcciones divisibles pueden estar limitadas a un número predeterminado. Por ejemplo, un procedimiento de dividir un bloque puede estar limitado a cuatro direcciones de direcciones horizontal, vertical, diagonal hacia arriba y diagonal hacia abajo. Además, la división puede estar limitada a solo las direcciones horizontal y vertical. El número de direcciones divisibles puede ser de tres, cinco, siete y así sucesivamente. El número de direcciones divisibles puede variar de acuerdo con un tamaño del bloque. Por ejemplo, para una unidad de codificación de un tamaño grande, el número de direcciones divisibles puede aumentarse de manera relativa.
En una inter predicción, cuando una unidad de codificación se divide en dos unidades de predicción para una predicción de adaptación más, la estimación de movimiento y la compensación de movimiento deberían realizarse en cada una de las unidades de predicción. Después de que los bloques de predicción se deriven a partir de las respectivas dos unidades de predicción divididas de la unidad de codificación, pueden añadirse los dos bloques de predicción para generar el bloque de predicción que tiene el mismo tamaño que la unidad de codificación. En este
5
10
15
20
25
30
35
40
45
50
55
caso, para reducir la diferencia entre los valores de píxeles a ambos lados de un límite de división del bloque de predicción del tamaño de unidad de codificación, pueden filtrarse los píxeles localizados en el límite de división. El bloque de predicción puede generarse de tal manera que los bloques de predicción correspondientes a las unidades de predicción respectivas se superponen, y la parte de límite de superposición puede uniformizarse para generar el bloque de predicción.
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes en movimiento de acuerdo con la presente invención.
Haciendo referencia a la figura 1, un aparato de codificación de imágenes en movimiento 100 de acuerdo con la presente invención incluye un divisor de imágenes 110, un transformador 120, un cuantificador 130, un escáner 131, un codificador de entropía 140, un intra predictor 150, un inter predictor 160, un cuantificador inverso 135, un transformador inverso 125, un post-procesador 170, un almacenamiento de imágenes 180, un restador 190 y un sumador 195.
El divisor de imágenes 110 analiza una señal de vídeo de entrada para dividir cada LCU de una imagen en una o más unidades cada una de las cuales tiene un tamaño predeterminado, determina el modo de predicción de cada unidad de codificación, y determina el tamaño de la unidad de predicción por cada unidad de codificación. El divisor de imágenes 110 envía la unidad de predicción a codificarse al intra predictor 150 o a inter predictor 160 de acuerdo con el modo de predicción. Además, el divisor de imágenes 110 envía las unidades de predicción a codificarse al restador 190.
El transformador 120 transforma un bloque residual que es una señal residual entre un bloque original de una unidad de predicción de entrada y un bloque de predicción generado por el intra predictor 150 o el inter predictor 160. Preferentemente, el bloque residual consiste en una unidad de codificación. El bloque residual puede dividirse en unidades de transformación óptimas y transformarse. Un tipo de matriz de transformación puede determinarse de manera adaptativa de acuerdo con el modo de predicción (intra o inter) y el modo de intra-predicción. La unidad de transformación puede transformarse mediante unas matrices de transformación de una dimensión (1D) horizontal y vertical. En inter predicción, se aplica una matriz de transformación predeterminada. En la intra-predicción, hay una alta posibilidad de que el bloque residual tenga una direccionalidad vertical cuando el modo de intra-predicción es horizontal. Por lo tanto, se aplica una matriz de enteros basada en la transformación discreta de coseno (Discrete Cosine Transform, DCT) a la dirección vertical, y se aplica una transformación discreta de seno (Discrete Sine Transform, DST) o una matriz de enteros basada en la transformación de Karhunen Loeve (KLT) a la dirección horizontal. Cuando el modo de intra-predicción es vertical, se aplica una matriz de enteros basada en DST o KLT a la dirección vertical, y se aplica una matriz de enteros basada en DCT a la dirección horizontal. Como alternativa, en la intra-predicción, la matriz de transformación puede determinarse de manera adaptativa de acuerdo con el tamaño de la unidad de transformación.
El cuantificador 130 determina un tamaño de etapa de cuantificación para cada unidad de codificación con el fin de cuantificar los coeficientes de transformación del bloque residual transformado por la matriz de transformación. El tamaño de etapa de cuantificación se determina por el tamaño de unidad de codificación igual a o mayor que un tamaño predeterminado. El tamaño predeterminado puede ser 8 x 8 o 16 x 16. Usando el tamaño de etapa de cuantificación determinada y una matriz de cuantificación determinada de acuerdo con un modo de predicción, se cuantifican los coeficientes de transformación. El cuantificador 130 usa los tamaños de etapa de cuantificación de las unidades de codificación adyacentes de la unidad de codificación actual como un predictor de tamaño de etapa de cuantificación de la unidad de codificación actual. El cuantificador 130 busca de manera secuencial una unidad de codificación izquierda, una unidad de codificación superior y una unidad de codificación izquierda superior de la unidad de codificación actual, determina el predictor de tamaño de etapa de cuantificación de la unidad de codificación actual usando los tamaños de etapa de cuantificación de una o más unidades de codificación disponibles, y transmite una diferencia al codificador de entropía 140.
Cuando un segmento se divide en unidades de codificación, puede no haber ninguna de una unidad de codificación izquierda, una unidad de codificación superior y una unidad de codificación izquierda superior de la unidad de codificación actual. Por otro lado, puede haber una unidad de codificación previa de una LCU en un orden de codificación. Por lo tanto, las unidades de codificación adyacentes a la unidad de codificación actual y a la unidad de codificación previa pueden ser candidatas. En este caso, la prioridad puede administrarse de manera secuencial dado para 1) la unidad de codificación izquierda de la unidad de codificación actual, 2) la unidad de codificación superior de la unidad de codificación actual, 3) la unidad de codificación izquierda superior de la unidad de codificación actual y 4) la unidad de codificación previa de la unidad de codificación actual. La secuencia puede variar, o puede omitirse la unidad de codificación izquierda superior.
El bloque de transformación cuantificado se proporciona al cuantificador inverso 135 y al escáner 131.
El escáner 131 escanea los coeficientes del bloque de transformación cuantificado y convierte los coeficientes del bloque de transformación cuantificado en coeficientes cuantificados de 1D. Un procedimiento de escaneo de coeficientes se determina de acuerdo con el modo de predicción y el modo de intra-predicción. Además, el procedimiento de escaneo de coeficientes puede determinarse de manera diferente de acuerdo con el tamaño de las
5
10
15
20
25
30
35
40
45
50
55
unidades de transformación. El escáner 131 determina si se divide o no el bloque de coeficiente cuantificado en una pluralidad de subconjuntos basándose en un tamaño de la unidad de transformación actual. Cuando el tamaño de la unidad de transformación es mayor que un primer tamaño de referencia, el bloque de transformación cuantificado se divide en una pluralidad de subconjuntos. El primer tamaño de referencia puede ser 4 x 4 u 8 x 8.
El escáner 131 determina un patrón de escaneo que debe aplicarse al bloque de transformación cuantificado. En inter predicción, solo puede aplicarse un patrón de escaneo predeterminado (por ejemplo, una escaneo en zigzag). En intra-predicción, puede aplicarse un patrón de escaneo determinado de acuerdo con el modo de intra-predicción. El patrón de escaneo puede variar de acuerdo con un modo de intra-predicción direccional. El escaneo en zigzag se aplica a los modos de intra-predicción no direccionales. Un modo no direccional puede ser un modo de corriente continua (CC) o un modo plano. Los coeficientes cuantificados se escanean analizados en una dirección inversa.
Cuando los coeficientes cuantificados se dividen en la pluralidad de subconjuntos, se aplica el mismo patrón de escaneo a los coeficientes cuantificados en cada subconjunto. La pluralidad de subconjuntos consiste en un subconjunto principal y uno o más subconjuntos residuales. El subconjunto principal se localiza en un lado izquierdo superior e incluye un coeficiente de CC y el uno o más subconjuntos residuales que cubren una región que no sea el subconjunto principal.
El escaneo en zigzag puede aplicarse para escanear los subconjuntos. Los subconjuntos pueden escanearse empezando con el subconjunto principal y posteriormente con los subconjuntos residuales en una dirección directa, o pueden escanearse en una dirección inversa. Un patrón de escaneo para escanear los subconjuntos puede establecerse el mismo que un patrón de escaneo para escanear los coeficientes cuantificados en los subconjuntos. En este caso, el patrón de escaneo para los subconjuntos se determina de acuerdo con el modo de intra-predicción. Mientras tanto, un codificador transmite una información capaz de indicar una posición del último coeficiente cuantificado distinto de cero de la unidad de transformación a un decodificador. El codificador transmite también una información capaz de indicar una posición del último coeficiente cuantificado distinto de cero en cada subconjunto al decodificador.
El cuantificador inverso 135 cuantifica de manera inversa los coeficientes de transformación cuantificados. El transformador inverso 125 reconstruye un bloque residual del dominio espacial de los coeficientes de transformación cuantificados de manera inversa. El sumador 195 genera un bloque de reconstrucción sumando el bloque residual reconstruido por el transformador inverso 125 y el bloque de predicción del intra predictor 150 o el inter predictor 160.
El post-procesador 170 realiza un procedimiento de filtrado de desbloqueo para retirar la perturbación de bloqueo generada en una imagen reconstruida, un procedimiento de aplicación de compensación adaptativo para complementar una diferencia entre la imagen reconstruida y la imagen original por píxel, y un procedimiento de filtro de bucle adaptativo para complementar una diferencia entre la imagen reconstruida y la imagen original en una unidad de codificación.
El procedimiento de filtrado de desbloqueo puede aplicarse a un límite entre las unidades de predicción y entre las unidades de transformación. El tamaño predeterminado puede ser 8 x 8. El procedimiento de filtrado de desbloqueo incluye una etapa de determinar el límite a filtrarse, una etapa de determinar la fuerza de filtrado de límite a aplicarse al límite, una etapa de determinar si aplicar o no un filtro de desbloqueo, y una etapa de seleccionar un filtro a aplicarse al límite cuando se determina aplicar el filtro de desbloqueo.
Aplicar o no el filtro de desbloqueo se determina de acuerdo con i) si la fuerza de filtrado de límite es o no mayor que 0 y ii) si un valor que indica la diferencia entre los píxeles de límite de los dos bloques (el bloque P y el bloque Q) adyacentes al límite a filtrarse es o no menor que un primer valor de referencia determinado de acuerdo con un parámetro de cuantificación.
Pueden existir dos o más filtros. Cuando un valor absoluto de una diferencia entre dos píxeles adyacentes al límite de bloque es igual a o mayor que un segundo valor de referencia, se selecciona un filtro débil. El segundo valor de referencia se determina mediante el parámetro de cuantificación y la fuerza de filtrado de límite.
El procedimiento de aplicación de compensación adaptativo está destinado a reducir una diferencia (distorsión) entre un píxel en una imagen sometido al filtro de desbloqueo y el píxel original. Una imagen o segmento puede dividirse en una pluralidad de regiones de compensación, y puede determinarse un modo de compensación por región de compensación. Hay cuatro modos de compensación de borde, dos modos de compensación de banda y un modo de no aplicación de compensación. De acuerdo con cada modo de compensación, los píxeles en cada región de compensación se clasifican en un número predeterminado de clases, y la compensación correspondiente a la clase clasificada se añade al píxel. En el caso de un modo de compensación de borde, se determina una clase de un píxel actual comparando el valor de píxel actual con los valores de píxel de dos o más píxeles adyacentes al píxel actual.
El procedimiento de filtro de bucle adaptativo puede realizarse basándose en un valor obtenido comparando una imagen original con una imagen reconstruida a la que se aplica el procedimiento de filtrado de desbloqueo o el procedimiento de aplicación de compensación adaptativo. Un filtro de bucle adaptativo (Adaptative Loop Filter, ALF) se detecta a través de un valor de actividad Laplaciano basándose en un bloque de 4 x 4. El ALF determinado puede
5
10
15
20
25
30
35
40
45
50
55
aplicarse a todos los píxeles incluidos en un bloque de 4 x 4 o en un bloque de 8 x 8. El aplicar o no un ALF puede determinarse de acuerdo con cada unidad de codificación. Un tamaño y los coeficientes de un filtro de bucle pueden variar de acuerdo con cada unidad de codificación. La información que indica si el ALF se aplica a cada unidad de codificación, la información de coeficiente de filtro, la información de forma del filtro, y así sucesivamente, puede incluirse en la cabecera de segmento y transmitirse al decodificador. En el caso de una señal de crominancia, el aplicar o no el ALF puede determinarse en las unidades de imagen. A diferencia de la luminancia, el filtro de bucle puede tener una forma rectangular.
El almacenamiento de imágenes 180 recibe unos datos de imagen de post-procesado del post-procesador 170, y almacena la imagen reconstruida en unidades de imagen. Una imagen puede ser una imagen en una trama o en un campo. El almacenamiento de imágenes 180 tiene una memoria intermedia (no mostrada) capaz de almacenar una pluralidad de imágenes.
El inter predictor 160 realiza una estimación de movimiento usando una o más imágenes de referencia almacenadas en el almacenamiento de imágenes 180, y determina un índice de imagen de referencia que indica las imágenes de referencia y un vector de movimiento. De acuerdo con el índice de imagen de referencia y el vector de movimiento, se extrae un bloque de predicción correspondiente a una unidad de predicción a codificarse a partir de una imagen de referencia seleccionada entre una pluralidad de imágenes de referencia almacenadas en el almacenamiento de imágenes 180 y se emite el bloque de predicción extraído.
El intra predictor 150 realiza la codificación de intra-predicción usando un valor de píxel reconstruido en una imagen que incluye una unidad de predicción actual. El intra predictor 150 recibe la unidad de predicción actual a codificarse, selecciona uno de un número predeterminado de modos de intra-predicción, y realiza la intra-predicción. El número predeterminado de modos de intra-predicción depende de un tamaño de la unidad de predicción actual. El intra predictor 150 filtra de manera adaptativa los píxeles de referencia usados para generar el bloque de intra-predicción. Cuando algunos de los píxeles de referencia no están disponibles, es posible generar los píxeles de referencia en las posiciones no disponibles usando los píxeles de referencia disponibles.
El codificador de entropía 140 codifica los coeficientes de transformación cuantificados por el cuantificador 130, la información de intra-predicción recibida del intra predictor 150, la información de movimiento recibida desde el inter predictor 160, y así sucesivamente.
La figura 2 es un diagrama de bloques de un intra predictor 150 de acuerdo con la presente invención.
Haciendo referencia a la figura 2, el intra predictor 150 incluye un receptor de unidades de predicción 141, un generador de píxeles de referencia 142, un generador de bloques de predicción 143, un post-procesador de bloques de predicción 144, un determinador de modos de predicción 145 y un codificador de modos de predicción 146.
El receptor de unidades de predicción 141 recibe una entrada de unidad de predicción desde un divisor de imágenes 110. El receptor de unidades de predicción 141 transmite la información de tamaños en la unidad de predicción recibida al determinador de modos de predicción 145 y al generador de píxeles de referencia 142, y transmite la unidad de predicción al generador de píxeles de referencia 142 y al generador de bloques de predicción 143.
El generador de píxeles de referencia 142 determina si están disponibles los píxeles de referencia de la unidad de predicción actual recibida. Los píxeles de referencia de la unidad de predicción actual usados para la intra-predicción consisten en un píxel de referencia de esquina colocado en (x = -1, y = -1), 2L píxeles de referencia superiores colocados en (x = 0,..., 2L-1, y = -1), y 2M píxeles de referencia izquierdos colocados en (x = 0, y = 0,..., y 2M-1). En este caso, L es la anchura de la unidad de predicción actual, y M es la altura de la unidad de predicción actual.
Cuando los píxeles de referencia no están disponibles o son insuficientes, se generan los píxeles de referencia.
Cuando ninguno de los píxeles de referencia están disponibles, los píxeles de referencia se generan con un valor predeterminado.
Cuando algunos de los píxeles de referencia no están disponibles, se determina si los píxeles de referencia no disponibles existen en una sola dirección de los píxeles disponibles o entre los píxeles disponibles.
Cuando los píxeles de referencia no disponibles existen en una sola dirección de los píxeles disponibles, se genera un bloque de referencia copiando el valor del píxel disponible más cercano al píxel no disponible. Por ejemplo, cuando la unidad de predicción actual se coloca en un límite superior de una imagen o un segmento, el píxel de referencia de esquina y los píxeles de referencia superiores no están disponibles. Por lo tanto, en este caso, el píxel de referencia de esquina y los píxeles de referencia superiores pueden generarse copiando un píxel de referencia colocado en (x = -1, y = 0) que es la posición más cercana. Como alternativa, los píxeles de referencia pueden generarse usando un píxel de referencia disponible de la posición más cercana y uno o más píxeles de referencia disponibles. Por ejemplo, cuando el píxel de referencia de esquina colocado en (x = - 1, y = 0) y los píxeles de referencia en las posiciones (x = 0,..., y L-1, y = -1) están disponibles y los píxeles de referencia en las posiciones (x = L,..., 2L- 1, y = -1) no están disponibles, los píxeles de referencia en las posiciones no disponibles pueden generarse usando el cambio en la diferencia entre un valor de píxel de referencia en una posición (x = L-1, y = -1) y
5
10
15
20
25
30
35
40
45
50
55
un valor de píxel de referencia de esquina u otro valor de píxel de referencia.
Cuando los píxeles de referencia no disponibles existen entre los píxeles disponibles, los píxeles de referencia se generan usando dos píxeles disponibles p y q adyacentes a los píxeles de referencia no disponibles. Por ejemplo, cuando no están disponibles el píxel de referencia de esquina y L píxeles de referencia superiores colocados en (x = 0,..., y L-1, y = -1), pueden generarse los píxeles de referencia que existen entre el píxel de referencia p en una posición (x = -1, y = 0) y el píxel de referencia q en una posición (x = L, y = -1) usando los píxeles de referencia p y
q.
Los valores de píxel de referencia generados pueden obtenerse redondeando un promedio del píxel de referencia p y el píxel de referencia q. Además, los valores de píxel de referencia pueden generarse usando el cambio en la diferencia entre los valores de píxeles del píxel de referencia p y el píxel de referencia q. En este caso, los valores de píxel de referencia pueden generarse mediante una interpolación lineal determinada de acuerdo con las posiciones correspondientes a los píxeles a generarse o usando un promedio ponderado de los dos píxeles de referencia.
Mientras tanto, cuando una pluralidad de unidades de predicción están en un lado superior de la unidad de predicción actual, hay una alta posibilidad de que una diferencia entre los píxeles límite presentes en ambos lados de un límite entre dos de las unidades de predicción superiores sea mayor que una diferencia entre los píxeles adyacentes en cada unidad de predicción superior. Esto resulta de un error provocado por un parámetro de cuantificación. Es muy probable que el error se produzca en los modos de intra-predicción direccionales en los que se genera un bloque de predicción usando los dos píxeles de referencia adyacentes.
En particular, los modos (números de modo 3, 6 y 9) que tienen una dirección de 45° con respecto a la dirección horizontal o vertical de la figura 3 son los más seriamente afectados. En los modos vertical y horizontal (números de modo 0 y 1), se usa un píxel para generar un píxel de predicción del bloque de predicción, y por lo tanto los modos vertical y horizontal están ligeramente afectados.
Por esta razón, se aplica un filtro (el filtro de uniformidad) a los píxeles de referencia en los modos 3, 6 y 9 de intra- predicción direccionales, y no se aplica a los píxeles de referencia en los modos de intra-predicción vertical y horizontal. En el modo de CC entre los modos de intra-predicción no direccionales, tampoco se aplica el filtro a los píxeles de referencia. Para estos modos, puede determinarse aplicar o no el filtro independientemente del tamaño de la unidad de predicción actual.
En los modos de intra-predicción direccionales que existen entre el modo 3, 6 o 9 de intra-predicción y el modo de intra-predicción horizontal o vertical, puede aplicarse el filtro (el filtro de uniformidad) de manera adaptativa a los píxeles de referencia de acuerdo con el tamaño de la unidad de predicción. Es preferible aumentar una probabilidad de aplicar el filtro (el filtro de uniformidad) cuando la dirección del modo de intra-predicción direccional está relativamente más cerca de la dirección del modo de intra-predicción que tiene la dirección de 45°. Específicamente, cuando un primer modo direccional está más cerca en la direccionalidad del modo de intra-predicción que tiene la dirección de 45° que un segundo modo direccional, si se aplica un filtro a los píxeles de referencia en el segundo modo direccional, el filtro se aplica también a los píxeles de referencia en el primer modo direccional. Por otra parte, si se aplica el filtro a los píxeles de referencia en el primer modo direccional, el filtro puede o no puede aplicarse a los píxeles de referencia en el segundo modo direccional.
Hay una alta posibilidad de que un cambio en la diferencia entre los píxeles en una unidad de predicción de un gran tamaño sea menor que un cambio en la diferencia entre los píxeles en una unidad de predicción de un tamaño pequeño. Por lo tanto, el número de modos direccionales en los que se aplica el filtro puede aumentar o puede aplicarse el filtro más fuerte cuando aumenta el tamaño de la unidad de predicción. Por otro lado, cuando la unidad de predicción se hace más pequeña que un tamaño específico, puede no aplicarse el filtro.
Para un ejemplo, en el modo 3, 6 o 9 de intra-predicción, puede aplicarse un primer filtro a los píxeles de referencia de una unidad de predicción que tenga un tamaño igual a o menor que un primer tamaño, y puede aplicarse un segundo filtro que sea más fuerte que el primer filtro a los píxeles de referencia de una unidad de predicción que tenga un tamaño mayor que el primer tamaño. El primer tamaño puede variar de acuerdo con los modos de predicción direccionales.
En otro ejemplo, en el modo 5 de intra-predicción que existe entre el modo de intra-predicción vertical y el modo 6 de intra-predicción, no puede aplicarse un filtro a una unidad de predicción que tenga un tamaño igual a o menor que un segundo tamaño, el primer filtro puede aplicarse a los píxeles de referencia de una unidad de predicción que tenga un tamaño mayor que el segundo tamaño e igual a o menor que un tercer tamaño, y el segundo filtro puede aplicarse a una unidad de predicción que tenga un tamaño mayor que el tercer tamaño. El segundo tamaño y el tercer tamaño pueden variar de acuerdo con los modos de predicción direccionales.
El primer filtro puede ser un filtro de 3 derivaciones (3-tap filter) [1, 2, 1] o un filtro de 5 derivaciones (5-tap filter) [1, 2, 4, 2, 1]. El segundo filtro tiene un mayor efecto de uniformidad que el primer filtro.
5
10
15
20
25
30
35
40
45
50
55
El generador de bloques de predicción 143 genera un bloque de predicción usando los píxeles de referencia determinados por el modo de intra-predicción.
En el modo de intra-predicción direccional, los píxeles de referencia correspondientes varían de acuerdo con el modo de intra-predicción. Por ejemplo, en el modo vertical, se usan L píxeles de referencia superiores colocados en (x = 0,..., y L-1, y = -1), y en el modo horizontal, se usan L píxeles de referencia izquierdos colocados en (x = -1, y = 0,..., y L-1).
En el modo intra-predicción no direccional, se usan el píxel de esquina, los L píxeles de referencia superiores colocados en (x = 0,..., y L-1, y = -1) y los L píxeles de referencia izquierdos colocados en (x = -1, y = 0,..., y L-1). El modo de intra-predicción no direccional es el modo de CC o el modo plano.
En el modo plano, se genera un píxel de referencia de un bloque de predicción usando el píxel de referencia de esquina, un píxel de referencia izquierdo y un píxel de referencia superior. Cuando un píxel de referencia a generarse se coloca en (a, b), se genera un píxel de predicción X (a, b) usando el píxel de referencia de esquina C (x = -1, y = -1), un píxel de referencia superior T (x = a, y = -1) y un píxel de referencia izquierdo L (x = -1, y = b). Específicamente, X (a, b) puede ser L (x = -1, y = b) + T (x = a, y = -1) - C (x = -1, y = -1).
En el modo de intra-predicción que existe en el lado derecho del modo vertical (el número de modo es 0) de la figura 3, la posibilidad de que las diferencias entre los píxeles de una región izquierda inferior del bloque de predicción generado y los píxeles correspondientes de la unidad de predicción original aumentará si se genera el bloque de predicción usando solo los píxeles de referencia superiores. Sin embargo, cuando se genera un bloque de predicción usando los píxeles de referencia superiores y los píxeles de referencia izquierdos, puede reducirse la diferencia. Este efecto es mayor en el modo 6 de intra-predicción. También en los modos de intra-predicción que existen en el modo horizontal (el número de modo es 1) de la figura 3, puede aplicarse el mismo procedimiento, y el efecto es mayor que en el modo 9 de intra-predicción.
Por lo tanto, en el modo 6 o 9 de intra-predicción, puede generarse un píxel de predicción utilizando un píxel de referencia de interpolación superior y un píxel de referencia de interpolación izquierdo correspondientes (por ejemplo situados a 45° del píxel de predicción). El píxel de predicción puede generarse mediante una interpolación lineal de un píxel de referencia de interpolación superior y el un píxel de referencia de interpolación izquierdo o usando un promedio que se redondea. Asimismo, en un número predeterminado de modos de intra-predicción adyacentes al modo 6 o 9, puede generarse un bloque de predicción usando los píxeles de referencia izquierdos y los píxeles de referencia superiores. Por ejemplo, en el modo 6 de intra-predicción o en un modo perteneciente al número predeterminado de (por ejemplo, el cuatro) modos de predicción adyacentes al modo 6, pueden usarse los píxeles de referencia izquierdos y los píxeles de referencia superiores para generar un bloque de predicción. En este caso, para reducir la complejidad, el procedimiento anteriormente mencionado no puede aplicarse en los modos de intra- predicción que tengan unos números de modo mayores que un número de modo predeterminado (por ejemplo, 9 o 17). Además, el procedimiento puede aplicarse a solo una unidad de predicción actual que tenga un tamaño igual a o mayor que un tamaño predeterminado. El tamaño predeterminado es 8 x 8 o 16 x 16.
El post-procesador 144 de bloques de predicción filtra de manera adaptativa el bloque de predicción generado por el generador 143 de bloques de predicción. Para reducir las diferencias entre un píxel de referencia y los píxeles adyacentes al píxel de referencia, el post-procesador 144 de bloques de predicción filtra de manera adaptativa algunos o todos los píxeles adyacentes al bloque de píxel de referencia de acuerdo con el modo de intra-predicción. Los píxeles adyacentes al píxel de referencia existen en el bloque de predicción.
En el modo plano, los píxeles adyacentes al píxel de referencia se generan usando el píxel de referencia, y por lo tanto no se aplica ningún filtro.
En el modo de CC, se usa un promedio de píxeles de referencia, y por lo tanto se aplica un filtro. Pueden usarse diferentes tipos de filtro de acuerdo con el tamaño de la unidad de predicción. Para una unidad de predicción de un gran tamaño, puede usarse un filtro que sea el mismo que se usa en una unidad de predicción de un tamaño pequeño o en un filtro fuerte que tenga un gran efecto de uniformidad.
El determinador 145 de modos de predicción determina el modo de intra-predicción de la unidad de predicción actual usando los píxeles de referencia. El determinador 145 de modos de predicción puede determinar un modo de intra- predicción con los bits codificados mínimos anticipados de un bloque residual como un modo de intra-predicción de la unidad de predicción actual. En este caso, el bloque residual se genera usando un bloque de predicción correspondiente a cada modo de intra-predicción o un bloque de predicción de post-procesado.
El codificador 146 de modos de predicción codifica el modo de intra-predicción de la unidad de predicción actual usando los modos de intra-predicción de las unidades de predicción adyacentes a la unidad de predicción actual.
La figura 4 es un diagrama de flujo que ilustra un procedimiento de codificación de un modo de intra-predicción de una unidad de predicción actual realizado en el codificador 146 de modos de predicción de acuerdo con la presente invención.
5
10
15
20
25
30
35
40
45
50
55
En primer lugar, se buscan los candidatos del modo de intra-predicción de una unidad de predicción actual (S110). Un modo de intra-predicción superior y un modo de intra-predicción izquierdo de la unidad de predicción actual pueden ser los candidatos del modo de intra-predicción. Un modo de intra-predicción de esquina puede añadirse también, o puede añadirse cualquier otro modo de acuerdo con el modo de intra-predicción superior y el modo de intra-predicción izquierdo.
Cuando hay una pluralidad de unidades de predicción superiores de la unidad de predicción actual, se escanean la pluralidad de unidades de predicción superiores en una dirección predeterminada (por ejemplo, de derecha a izquierda) para determinar el modo de intra-predicción de una primera unidad de predicción disponible como un modo de intra-predicción izquierdo. Como alternativa, entre una pluralidad de unidades de predicción disponibles, puede establecerse el modo de intra-predicción de una unidad de predicción disponible que tenga el número más bajo de modo de intra-predicción como un modo de intra-predicción superior.
El modo de intra-predicción de esquina puede establecerse como un modo de predicción de una unidad de predicción adyacente al lado derecho superior o al lado izquierdo superior de la unidad de predicción actual. Como alternativa, el modo de intra-predicción de esquina puede establecerse como un primer modo de intra-predicción disponible obtenido escaneando los modos de intra-predicción adyacentes al lado izquierdo superior, al lado derecho superior ya un lado derecho inferior de la unidad de predicción actual en un orden predeterminado. El orden predeterminado es el lado izquierdo superior, el lado derecho inferior y el lado derecho superior. Como alternativa, pueden añadirse dos (lado derecho superior y lado izquierdo superior) o tres (lado derecho superior, lado izquierdo superior y lado izquierdo inferior) modos de intra-predicción de esquina como los candidatos del modo de intra- predicción de la unidad de predicción actual.
A continuación, se determina si se cambia o no el modo de intra-predicción de los candidatos del modo de intra- predicción disponibles (S120).
Cuando se determina cambiar el modo de intra-predicción, se cambia el candidato del modo de intra-predicción disponible (S130).
En concreto, cuando el número de modo de un candidato del modo de intra-predicción disponible es igual a o mayor que el número de modos de intra-predicción permisibles para la unidad de predicción actual, el candidato del modo de intra-predicción disponible se convierte en uno de los modos permisibles. El número de modos permisibles puede variar de acuerdo con un tamaño de la unidad de predicción actual. Por ejemplo, cuando el tamaño de la unidad de predicción actual es 4 x 4, el modo de intra-predicción del candidato del modo de intra-predicción disponible se convierte en uno de los nueve modos (modo 0 a modo de 8) o de los 18 modos, y cuando el tamaño de la unidad de predicción actual es 64 x 64, el modo de intra-predicción del candidato del modo de intra-predicción disponible se convierte en uno de los cuatro modos (modo 0 a modo 3).
A continuación, se construye una lista de candidatos de intra-predicción de la unidad de predicción actual (S140). Los candidatos pueden listarse en un orden numérico de modos. Como alternativa, los candidatos pueden listarse en orden de frecuencia, y los candidatos de intra-predicción que tienen la misma frecuencia pueden listarse en un orden numérico de modos. Cuando los candidatos del modo de intra-predicción tienen el mismo número de modo, los candidatos de intra-predicción se eliminan de la lista excepto uno.
A continuación, se determina si el modo de intra-predicción de la unidad de predicción actual es el mismo que uno cualquiera de los candidatos del modo de intra-predicción en la lista construida (S150).
Cuando el modo de intra-predicción de la unidad de predicción actual es el mismo que uno de los candidatos del modo de intra-predicción, se determina la información que indica que el modo de intra-predicción es el mismo que uno de los candidatos del modo de intra-predicción y un índice candidato como una información de intra-predicción (S160).
Cuando el modo de intra-predicción de la unidad de predicción actual no es el mismo que cualquiera de los candidatos del modo de intra-predicción, se calcula un valor de cambio de modo para cambiar el modo de intra- predicción de la unidad de predicción actual (S170). El valor de cambio de modo es el número de los candidatos del modo de intra-predicción que tienen un número de modo de intra-predicción que no es mayor que el número de modo de intra-predicción de la unidad de predicción actual. El valor de cambio de modo se obtiene comparando los valores de modo de intra-predicción en la lista.
A continuación, se cambia el modo de intra-predicción de la unidad de predicción actual usando el valor de cambio de modo (S180). El modo de intra-predicción cambiado se determina como el modo de intra-predicción de la unidad de predicción actual. El modo de intra-predicción cambiado de la unidad de predicción actual se transmite al codificador de entropía 140.
La figura 5 es un diagrama de bloques de un aparato 200 de decodificación de intra-predicción de acuerdo con la presente invención.
5
10
15
20
25
30
35
40
45
50
55
El aparato 200 de decodificación de intra-predicción de acuerdo con la presente invención incluye un decodificador 210 de entropía, un decodificador 220 de señales residuales, un decodificador 230 de modos de predicción, un generador 240 de píxeles de referencia, un generador 250 de bloques de predicción, un filtro 260 de bloques de predicción y un reconstructor 270 de imágenes.
El decodificador 210 de entropía extrae los coeficientes residuales cuantificados de un flujo de bits recibido, y transmite los coeficientes residuales cuantificados y un tamaño de la unidad de transformación al decodificador 220 de señales residuales en unidades de unidades de transformación. Además, el decodificador 210 de entropía transmite la información de intra-predicción y un tamaño de una unidad de predicción a decodificarse al decodificador 230 de modos de predicción.
El decodificador 220 de señales residuales convierte los coeficientes residuales cuantificados en un bloque cuantificado inverso de una matriz de dos dimensiones (2D). Para esta conversión, se selecciona uno de una pluralidad de patrones de escaneo. El patrón de escaneo del bloque de transformación se determina basándose en al menos uno de entre el modo de predicción y el modo de intra-predicción. Una operación de escaneo inversa es la misma que un procedimiento inverso de operación del escáner 131 de la figura 1. Por ejemplo, cuando un tamaño de la unidad de transformación actual a decodificarse es mayor que un primer tamaño de referencia, los coeficientes residuales cuantificados se escanean de manera inversa para formar una pluralidad de subconjuntos de acuerdo con el patrón de escaneo, y se genera un bloque cuantificado inverso que tenga el tamaño de la unidad de transformación usando la pluralidad de subconjuntos. Por otro lado, cuando el tamaño de la unidad de transformación actual a decodificar no es mayor que el primer tamaño de referencia, se escanean los coeficientes residuales cuantificados de manera inversa para generar un bloque cuantificado inverso que tenga el mismo tamaño de la unidad de transformación de acuerdo con el patrón de escaneo.
El decodificador 230 de modos de predicción reconstruye el modo de intra-predicción del modo de predicción actual basándose en la información de intra-predicción y en la información de tamaño en la unidad de predicción actual recibida del decodificador 210 de entropía. La información de intra-predicción recibida se restaura a través un procedimiento inverso del procedimiento mostrado en la figura 4.
El generador 240 de píxeles de referencia genera unos píxeles de referencia no disponibles de la unidad de predicción actual, y filtra de manera adaptativa los píxeles de referencia de acuerdo con el modo de intra-predicción de la unidad de predicción actual recibidos desde el decodificador 230 de modos de predicción. Un procedimiento de generación de los píxeles de referencia y un procedimiento de filtrado de los píxeles de referencia son los mismos que los del generador 142 de píxeles de referencia en el intra predictor 140 de la figura 2.
Específicamente, se determina si están disponibles los píxeles de referencia de la unidad de predicción actual. Los píxeles de referencia de la unidad de predicción actual usados para la intra-predicción consisten en un píxel de referencia de esquina colocado en (x = -1, y = -1), 2L píxeles de referencia superiores colocados en (x = 0,..., y 2L- 1, y = -1), y 2M píxeles de referencia izquierdos colocados en (x = 0, y = 0,..., y 2M-1). En este caso, L es una anchura de la unidad de predicción actual, y M es una altura de la unidad de predicción actual.
Cuando los píxeles de referencia para generar un bloque de predicción no están disponibles o son insuficientes, se generan unos píxeles de referencia.
Cuando todos los píxeles de referencia no están disponibles, los píxeles de referencia se generan con un valor predeterminado.
Cuando algunos de los píxeles de referencia no están disponibles, se determina si existen unos píxeles de referencia que no están disponibles en una sola dirección de los píxeles disponibles o entre los píxeles disponibles.
Cuando existen los píxeles de referencia no disponibles en una sola dirección de los píxeles disponibles, los píxeles de referencia se generan copiando el valor de un píxel disponible más cercano al píxel no disponible. Por ejemplo, cuando la unidad de predicción actual se coloca en un límite superior de una imagen o un segmento, el píxel de referencia de esquina y los píxeles de referencia superiores no están disponibles. Por lo tanto, en este caso, el píxel de referencia de esquina y los píxeles de referencia superiores pueden generarse copiando un píxel de referencia colocado en (x = -1, y = 0). Como alternativa, los píxeles de referencia pueden generarse usando un píxel de referencia disponible de la posición más cercana y uno o más píxeles de referencia disponibles. Por ejemplo, cuando el píxel de referencia de esquina que tiene una posición (x = -1, y = -1) y los píxeles de referencia en las posiciones (x = 0,..., y L-1, y = -1) están disponibles y los píxeles de referencia en las posiciones (x = L,..., 2L-1, y = -1) no están disponibles, los píxeles de referencia en las posiciones no disponibles pueden generarse usando el cambio en la diferencia entre un píxel de referencia en una posición (x = L-1, y = -1) y un valor de píxel de referencia de esquina u otro valor de píxel de referencia.
Cuando existen los píxeles de referencia no disponibles entre los píxeles disponibles, los píxeles de referencia se generan usando dos píxeles disponibles p y q adyacentes a los píxeles de referencia no disponibles. Por ejemplo, cuando el píxel de referencia de esquina y los L píxeles de referencia superiores colocados en (x = 0,..., y L-1, y = - 1), son píxeles de referencia no disponibles que existen entre el píxel de referencia p en una posición (x = -1, y = 0) y el píxel de referencia q en una posición (x = L, y = -1) pueden generarse usando los píxeles de referencia p y q.
5
10
15
20
25
30
35
40
45
50
55
Los valores de píxel de referencia generados pueden obtenerse redondeando un promedio del píxel de referencia p y el píxel de referencia q. Además, los valores de píxel de referencia pueden generarse usando el cambio en la diferencia entre los valores de píxeles del píxel de referencia p y el píxel de referencia q. En este caso, los valores de píxel de referencia pueden generarse mediante una interpolación lineal de acuerdo con las posiciones correspondientes a los valores de píxel generados o usando un promedio ponderado de los dos píxeles de referencia.
Mientras tanto, cuando una pluralidad de unidades de predicción están en un lado superior de la unidad de predicción actual, hay una alta posibilidad de que una diferencia entre los píxeles límite presentes en ambos lados de un límite entre dos de las unidades de predicción superiores sea más alto que una diferencia entre los píxeles adyacentes en cada unidad de predicción superior. Esto resulta de un error provocado por un parámetro de cuantificación. Es muy probable que el error se produzca en los modos de intra-predicción direccionales en los que se genera un bloque de predicción usando dos píxeles de referencia adyacentes.
En particular, los modos (números de modo 3, 6 y 9) que tienen una dirección de 45° con referencia a una dirección horizontal o vertical de la figura 3 son los más gravemente afectados. En los modos de intra-predicción vertical y horizontal (números de modo 0 y 1), se usa un píxel para generar un bloque de predicción, y por lo tanto los modos de intra-predicción vertical y horizontal se ven afectados ligeramente.
Por esta razón, se aplica un filtro (el filtro de uniformidad) a los píxeles de referencia en los modos 3, 6 y 9 de intra- predicción direccionales, y no se aplica a los píxeles de referencia en los modos de intra-predicción vertical y horizontal. En el modo de CC fuera de los modos no direccionales, tampoco se aplica el filtro. Para estos modos, puede determinarse si aplicar o no el filtro sin tener en cuenta el tamaño de la unidad de predicción actual.
En los modos de intra-predicción direccionales que existen entre el modo 3, 6 o 9 de intra-predicción y el modo de intra-predicción horizontal o vertical, el filtro (el filtro de uniformidad) puede aplicarse de manera adaptativa a los píxeles de referencia. Es preferible aumentar una probabilidad de aplicar el filtro (el filtro de uniformidad) como la dirección del modo de intra-predicción direccional que está relativamente más cerca de la dirección del modo de intra-predicción que tiene la dirección de 45°. Específicamente, cuando un primer modo de intra-predicción direccional está más cerca en direccionalidad al modo de intra-predicción que tiene la dirección de 45° que un segundo modo de intra-predicción direccional, si se aplica un filtro al segundo modo de intra-predicción direccional, el filtro se aplica también al primer modo de intra-predicción direccional. Por otra parte, si el filtro se aplica al primer modo de intra-predicción direccional, el filtro puede o no puede aplicarse al segundo modo de intra-predicción direccional.
Hay una alta posibilidad de que un cambio en la diferencia entre los píxeles en una unidad de predicción de un gran tamaño sea menor que un cambio en la diferencia entre los píxeles en una unidad de predicción de un tamaño pequeño. Por lo tanto, puede aumentarse el número de modos direccionales en los que se aplica el filtro o puede aplicarse el filtro más fuerte cuando aumenta el tamaño de la unidad de predicción. Por otro lado, cuando una unidad de predicción se hace más pequeña que un tamaño específico, el filtro puede no aplicarse.
Para un ejemplo, en el modo 3, 6 o 9 de intra-predicción, que tiene la dirección de 45°, puede aplicarse un primer filtro a una unidad de predicción que tenga un tamaño igual a o menor que un primer tamaño, y puede aplicarse un segundo filtro que sea más fuerte que el primer filtro a una unidad de predicción que tenga un tamaño mayor que el primer tamaño. El primer tamaño puede variar de acuerdo con los modos de predicción direccionales.
Para otro ejemplo, en el modo 5 de intra-predicción que existe entre el modo de intra-predicción vertical y el modo 6 de intra-predicción, que tiene la dirección de 45°, no puede aplicarse un filtro a una unidad de predicción que tenga un tamaño igual a o sea menor que un segundo tamaño, el primer filtro puede aplicarse a una unidad de predicción que tenga un tamaño mayor que el segundo tamaño e igual a o menor que un tercio tamaño, y el segundo filtro puede aplicarse a una unidad de predicción que tenga un tamaño mayor que el tercer tamaño. El segundo tamaño y el tercer tamaño pueden variar de acuerdo con los modos de predicción direccionales.
El primer filtro puede ser un filtro de 3 derivaciones [1, 2, 1] o un filtro de 5 derivaciones [1, 2, 4, 2, 1]. El segundo filtro tiene un mayor efecto de uniformidad que el primer filtro.
El generador 250 de bloques de predicción genera un bloque de predicción de acuerdo con el modo de intra- predicción de la unidad de predicción actual recibido desde el decodificador 230 de modos de predicción. Un procedimiento para generar el bloque de predicción es el mismo que el del generador 142 de bloques de predicción en el intra predictor 150 de la figura 2.
Es decir, en el modo de intra-predicción direccional, los píxeles de referencia correspondientes varían de acuerdo con los modos de intra-predicción. Por ejemplo, en el modo vertical, se usan los L píxeles de referencia superiores colocados en (x = 0,..., y L-1, y = -1), y en el modo horizontal, se usan los L píxeles de referencia izquierdos colocados en (x = -1, y = 0,..., y L-1).
En los modos de intra-predicción no direccionales, se usan el píxel de esquina, los L píxeles de referencia superiores colocados en (x = 0,..., y L-1, y = -1) y los L píxeles de referencia izquierdos colocados en (x = -1, y = 0,..., y L-1).
5
10
15
20
25
30
35
40
45
50
Los modos de intra-predicción no direccionales son el modo de CC y el modo plano.
En el modo plano, se genera un píxel de referencia de un bloque de predicción usando el píxel de referencia de esquina, un píxel de referencia izquierdo y un píxel de referencia superior. Cuando un píxel de referencia a generarse se coloca en (a, b), se genera el píxel de referencia del bloque de predicción X (a, b) usando el píxel de referencia de esquina C (x = -1, y = -1), un píxel de referencia superior T (x = a, y = -1) y un píxel de referencia izquierdo L (x = -1, y = b). Específicamente, X (a, b) puede ser L (x = -1, y = b) + T (x = a, y = -1) - C (x = -1, y = -1).
En el modo de intra-predicción que existe en el lado derecho del modo vertical (número de modo 0) de la figura 3, existe la posibilidad de que aumente una diferencia entre los píxeles de una región izquierda inferior del bloque de predicción generado y los píxeles de la unidad de predicción original si se genera el bloque de predicción usando solo los píxeles de referencia superiores. Sin embargo, cuando se genera un bloque de predicción usando los píxeles de referencia superiores y los píxeles de referencia izquierdos para varios modos entre los modos, la diferencia puede reducirse. Este efecto es mayor en el modo 6 de intra-predicción. Además, en los modos de intra- predicción que existen en el modo horizontal (número de modo 1) de la figura 3, puede aplicarse el mismo procedimiento, y el efecto es mayor en el modo 9 de intra-predicción.
Por lo tanto, en el modo 6 o 9 de predicción, puede generarse un píxel de referencia de interpolación superior y un píxel de referencia de interpolación izquierdo correspondientes (por ejemplo, colocado a 45° del píxel de predicción). El píxel de predicción puede generarse mediante interpolación lineal de un píxel de referencia de interpolación superior y el un píxel de referencia de interpolación izquierdo o usando un promedio redondeado. Asimismo, en un número predeterminado de modos de intra-predicción adyacentes al modo 6 o 9, puede generarse un bloque de predicción usando los píxeles de referencia izquierdos y los píxeles de referencia superiores. En este caso, para reducir la complejidad, el procedimiento anteriormente mencionado en el presente documento no puede aplicarse en los modos de intra-predicción que tengan números de modo mayores que un número de modo predeterminado (por ejemplo, 9 o 17). Además, el procedimiento puede aplicarse a solo una unidad de predicción actual que tenga un tamaño igual a o mayor que un tamaño predeterminado. El tamaño predeterminado es de 8 x 8 o 16 x 16.
El filtro 260 de bloques de predicción filtra de manera adaptativa el bloque de predicción generado por el generador 250 de bloques de predicción de acuerdo con el modo de intra-predicción la unidad de predicción actual recibida desde el decodificador 230 de modos de predicción. El filtro 260 de bloques de predicción puede estar integrado en el generador 250 de bloques de predicción. Un procedimiento de filtrado de bloques de predicción es el mismo que el del post-procesador 144 de bloques de predicción del intra predictor 140 de la figura 2.
Es decir, para reducir las diferencias en los valores de píxel entre un píxel de referencia y los píxeles en el bloque de predicción adyacente al píxel de referencia, el filtro 260 de bloques de predicción filtra de manera adaptativa algunos o todos los píxeles en el bloque de predicción adyacente al píxel de acuerdo con el modo de intra-predicción. Los píxeles adyacentes al píxel adyacente existen en el bloque de predicción.
En el modo plano, los píxeles en el bloque de predicción adyacentes al píxel de referencia se generan usando el píxel de referencia, y por lo tanto no se aplica ningún filtro.
En el modo de CC, se usa un promedio de píxeles de referencia para generar el píxel de predicción, y por lo tanto se aplica un filtro. Pueden usarse diferentes tipos de filtro de acuerdo con el tamaño de la unidad de predicción (el tamaño del bloque de predicción). En una unidad de predicción de un gran tamaño, puede usarse un filtro que sea el mismo que el que se usa en una unidad de predicción de un tamaño pequeño o un filtro fuerte que tenga un gran efecto de uniformidad.
El reconstructor 270 de imágenes recibe un bloque de predicción desde el generador 250 de bloques de predicción o del filtro 260 de bloques de predicción en unidades de unidades de predicción de acuerdo con el modo de intra- predicción. El reconstructor 270 de imágenes recibe un bloque residual reconstruido mediante el decodificador 220 de señales residuales en unidades de unidades de transformación. El reconstructor 270 de imágenes genera una imagen reconstruida añadiendo el bloque de predicción recibido y el bloque residual. La imagen puede reconstruirse en unidades de unidades de codificación.
Aunque la invención se ha mostrado y descrito con referencia a ciertas realizaciones a modo de ejemplo de la misma, se entenderá por los expertos en la materia que pueden hacerse diversos cambios en la forma y los detalles en la misma sin alejarse del ámbito de la invención tal como se define por las reivindicaciones adjuntas.
Las siguientes realizaciones han de entenderse como ejemplos que no describen partes de la presente invención:
Realización 1. Un aparato de decodificación de intra-predicción, que comprende:
un decodificador de entropía configurado para restaurar coeficientes residuales cuantificados, información de intra- predicción e información de tamaño sobre una unidad de predicción procedente de un flujo de bits recibido;
5
10
15
20
25
30
35
40
45
un decodificador de modo de predicción configurado para restaurar un modo de intra-predicción de la unidad de predicción actual basándose en la información de intra-predicción y en la información de tamaño sobre la unidad de predicción actual recibidas desde un decodificador de entropía;
un decodificador de señales residuales configurado para restaurar una señal residual de acuerdo con el modo de intra-predicción recibido desde el decodificador del modo de predicción;
un generador de píxeles de referencia configurado para generar píxeles de referencia no disponibles den la unidad de predicción actual y para filtrar de manera adaptativa los píxeles de referencia basándose en el modo de intra- predicción de la unidad de predicción actual recibido desde el decodificador del modo de predicción;
un generador de bloques de predicción configurado para generar un bloque de predicción usando píxeles de referencia correspondientes al modo de intra-predicción recibido desde el decodificador del modo de predicción;
un filtro de bloques de predicción configurado para filtrar de manera adaptativa el bloque de predicción generado desde el generador de bloques de predicción de acuerdo con el modo de intra-predicción recibido desde el decodificador del modo de predicción; y
un reconstructor de imágenes configurado para recibir el bloque de predicción desde el generador de bloques de predicción o un filtro de bloques de predicción en unidades de unidades de predicción de acuerdo con el modo de intra-predicción recibido desde el decodificador de modo de predicción, y generar una imagen reconstruida usando un bloque residual restaurado recibido desde el decodificador de señales residuales.
Realización 2. El aparato de decodificación de intra-predicción de la realización 1, en el que el generador de píxeles de referencia filtra de manera adaptativa los píxeles de referencia de acuerdo con un tamaño de una unidad de predicción en modos de intra-predicción que tienen una dirección entre el modo de intra-predicción 3, 6 o 9 que tienen una dirección de 45° y el modo horizontal o el modo vertical.
Realización 3. El aparato de decodificación de intra-predicción de la realización 1, en el que el generador de píxeles de referencia no aplica ningún filtro a los píxeles de referencia de una unidad de predicción inferior a un tamaño predeterminado.
Realización 4. El aparato de decodificación de intra-predicción de la realización 1, en el que, cuando, entre un primer modo direccional y un segundo modo direccional presentes entre un modo horizontal o un modo vertical y un modo de intra-predicción 3, 6 o 9 que tienen una dirección de 45° con respecto al modo horizontal o el modo vertical, el primer modo direccional tiene una directividad más cercana al modo de intra-predicción 3, 6, 9 que tiene la dirección de 45° que el segundo modo direccional, si el generador de píxeles de referencia aplica un filtro a los píxeles de referencia del segundo modo direccional, el generador de píxeles de referencia también aplica el filtro a los píxeles de referencia del primer modo direccional.
Realización 5. El aparato de decodificación de intra-predicción de la realización 1, en el que, cuando el modo de intra-predicción es un modo plano, el generador de bloques de predicción genera píxeles predichos del bloque de predicción usando un píxel de referencia de esquina, un píxel de referencia izquierdo y un píxel de referencia superior.
Realización 6. El aparato de decodificación de intra-predicción de la realización 1, en el que, cuando el modo de intra-predicción es un modo vertical, el generador de píxeles de referencia no filtra los píxeles de referencia, y el filtro de bloques de predicción usa píxeles de referencia que no se han usado para generar el bloque de predicción para filtrar algunos píxeles en el bloque de predicción.
Realización 7. El aparato de decodificación de intra-predicción de la realización 1, en el que, cuando el modo de intra-predicción es un modo de intra-predicción que tiene una dirección de 45° con respecto a un modo vertical (modo número 6) o entre un número predeterminado de modos de intra-predicción que tienen una directividad cercana al modo de intra-predicción, el generador de bloques de predicción genera el bloque de predicción usando píxeles de referencia superiores y píxeles de referencia izquierdos.

Claims (3)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    REIVINDICACIONES
    1. Un aparato para codificar una imagen, comprendiendo el aparato:
    una unidad de intra-predicción (150) configurada para determinar un modo de intra-predicción, para generar píxeles de referencia correspondientes a píxeles de referencia no disponibles, para filtrar de manera adaptativa los píxeles de referencia de acuerdo con el modo de intra-predicción y para generar un bloque de predicción usando los píxeles de referencia determinados por el modo de intra-predicción;
    una unidad de transformación (120) configurada para transformar un bloque residual, que es una señal residual entre un bloque original y el bloque de predicción generado por la unidad de intra-predicción (150), para generar un bloque de transformación;
    una unidad de cuantificación (130) configurada para cuantificar el bloque de transformación para generar un bloque cuantificado;
    una unidad de escaneo (131) configurada para escanear coeficientes del bloque cuantificado usando un patrón de escaneo determinado de acuerdo con el modo de intra-predicción; y
    una unidad de codificación por entropía (140) configurada para codificar por entropía los coeficientes del bloque cuantificado,
    en el que la unidad de intra-predicción (150) filtra de manera adaptativa los píxeles de referencia de acuerdo con un tamaño del bloque de predicción para los modos de intra-predicción que existen entre un modo horizontal y un modo de intra-predicción que tiene una dirección de 45° con respecto al modo horizontal,
    en el que, cuando los píxeles de referencia se filtran para un segundo modo de intra-predicción direccional, los píxeles de referencia también se filtran para un primer modo de intra-predicción direccional que está más cerca del modo de intra-predicción que tiene la dirección de 45° con respecto al modo horizontal de lo que está el segundo modo de intra-predicción direccional,
    en el que los modos de intra-predicción direccionales primero y segundo existen entre el modo horizontal y el modo de intra-predicción que tiene la dirección de 45° con respecto al modo horizontal,
    en el que el número de modos de intra-predicción en los que se aplica el filtro aumenta a medida que aumenta el tamaño del bloque de predicción,
    en el que el filtro se aplica al modo de intra-predicción que tiene una dirección de 45° con respecto al modo horizontal y no se aplica al modo horizontal y al modo vertical,
    en el que la unidad de escaneo (131) divide los coeficientes del bloque cuantificado en una pluralidad de subbloques si se determina que un tamaño de un bloque de transformación es mayor de un tamaño predeterminado,
    en el que el tamaño predeterminado es 4 x 4 u 8 x 8,
    en el que la pluralidad de subbloques y los coeficientes de cada subbloque se escanean de acuerdo con un patrón de escaneo, en donde el patrón de escaneo para escanear la pluralidad de subbloques y para escanear los coeficientes de cada subbloque se determina por el modo de intra-predicción del bloque de predicción.
  2. 2. El aparato de la reivindicación 1, en el que la unidad de intra-predicción (150) no filtra los píxeles de referencia del bloque de predicción que es inferior a un tamaño predeterminado.
  3. 3. El aparato de la reivindicación 1, en el que la unidad de escaneo (131) escanea los coeficientes de cada subbloque en sentido inverso desde un último coeficiente hasta un primer coeficiente.
ES16161943.2T 2010-07-31 2011-07-29 Aparato para codificar una imagen Active ES2691195T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20100074460 2010-07-31
KR20100074460 2010-07-31
KR20110063288 2011-06-28
KR1020110063288A KR20120012385A (ko) 2010-07-31 2011-06-28 인트라 예측 부호화 장치

Publications (1)

Publication Number Publication Date
ES2691195T3 true ES2691195T3 (es) 2018-11-26

Family

ID=45559905

Family Applications (11)

Application Number Title Priority Date Filing Date
ES16161927T Active ES2720581T3 (es) 2010-07-31 2011-07-29 Aparato de codificación de una imagen
ES16161943.2T Active ES2691195T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES16161928T Active ES2700623T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES11814797.4T Active ES2575381T3 (es) 2010-07-31 2011-07-29 Dispositivo de decodificación de intra-predicción
ES16160964T Active ES2718937T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES16161937.4T Active ES2692842T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES16161933.3T Active ES2694041T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES16161929T Active ES2696525T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES16161930.9T Active ES2685577T3 (es) 2010-07-31 2011-07-29 Aparato de intra-predicción
ES16161936T Active ES2700624T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES16161940.8T Active ES2685600T3 (es) 2010-07-31 2011-07-29 Aparato de codificación de una imagen

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES16161927T Active ES2720581T3 (es) 2010-07-31 2011-07-29 Aparato de codificación de una imagen

Family Applications After (9)

Application Number Title Priority Date Filing Date
ES16161928T Active ES2700623T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES11814797.4T Active ES2575381T3 (es) 2010-07-31 2011-07-29 Dispositivo de decodificación de intra-predicción
ES16160964T Active ES2718937T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES16161937.4T Active ES2692842T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES16161933.3T Active ES2694041T3 (es) 2010-07-31 2011-07-29 Aparato para codificar una imagen
ES16161929T Active ES2696525T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES16161930.9T Active ES2685577T3 (es) 2010-07-31 2011-07-29 Aparato de intra-predicción
ES16161936T Active ES2700624T3 (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen
ES16161940.8T Active ES2685600T3 (es) 2010-07-31 2011-07-29 Aparato de codificación de una imagen

Country Status (19)

Country Link
US (11) US9307246B2 (es)
EP (11) EP3059954B1 (es)
JP (10) JP5997152B2 (es)
KR (13) KR20120012385A (es)
CN (13) CN106303532B (es)
CY (5) CY1117856T1 (es)
DK (5) DK3059956T3 (es)
ES (11) ES2720581T3 (es)
HR (5) HRP20160911T1 (es)
HU (11) HUE030354T2 (es)
LT (4) LT3051815T (es)
MX (5) MX336419B (es)
PL (11) PL3059953T3 (es)
PT (5) PT3051815T (es)
RS (5) RS55052B1 (es)
SI (5) SI3051815T1 (es)
SM (1) SMT201600168B (es)
TR (7) TR201809836T4 (es)
WO (1) WO2012018197A2 (es)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
RS54213B1 (en) * 2010-04-23 2015-12-31 M&K Holdings Inc. PICTURE CODING DEVICE
CN105516723B (zh) 2010-09-30 2018-07-27 三菱电机株式会社 运动图像编码装置及方法、运动图像解码装置及方法
US9008175B2 (en) 2010-10-01 2015-04-14 Qualcomm Incorporated Intra smoothing filter for video coding
WO2012134046A2 (ko) 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
GB2505345B (en) 2011-04-25 2018-05-09 Lg Electronics Inc Intra-prediction method, and encoder and decoder using same
KR20120140181A (ko) 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
MX365013B (es) * 2011-08-29 2019-05-20 Ibex Pt Holdings Co Ltd Metodo para generar un bloque de prediccion en modo de prediccion de vector de movimiento avanzada (amvp).
JP2013093792A (ja) * 2011-10-27 2013-05-16 Sony Corp 画像処理装置および方法
KR20130049523A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
KR20130049526A (ko) 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
CN103636209B (zh) 2012-06-08 2017-09-26 太阳专利托管公司 图像解码方法和图像解码装置
WO2014002407A1 (ja) 2012-06-27 2014-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
JP6301932B2 (ja) 2012-10-01 2018-03-28 ジーイー ビデオ コンプレッション エルエルシー エンハンスメント層の中の変換係数ブロックの副ブロックに基づいた符号化を使用するスケーラブルビデオ符号化
JP6391018B2 (ja) * 2013-07-01 2018-09-19 サン パテント トラスト 画像符号化方法、及び、画像符号化装置
JP6253406B2 (ja) * 2013-12-27 2017-12-27 キヤノン株式会社 画像符号化装置、撮像装置、画像符号化方法、及びプログラム
WO2017030418A1 (ko) * 2015-08-19 2017-02-23 엘지전자(주) 다중 그래프 기반 모델에 따라 최적화된 변환을 이용하여 비디오 신호를 인코딩/ 디코딩하는 방법 및 장치
MX2018001540A (es) * 2015-09-10 2018-05-17 Samsung Electronics Co Ltd Dispositivo de codificacion, dispositivo de decodificacion y metodo de codificacion y decodificacion para los mismos.
CN106550238B (zh) * 2015-09-16 2019-09-13 福州瑞芯微电子股份有限公司 一种图像处理方法及系统
WO2017135692A1 (ko) * 2016-02-02 2017-08-10 엘지전자(주) 픽셀 순환 코딩과 변환 코딩의 결합에 기초하여 비디오 신호를 처리하는 방법 및 장치
US20190037217A1 (en) * 2016-02-16 2019-01-31 Samsung Electronics Co., Ltd. Video encoding method and apparatus, and decoding method and apparatus therefor
KR20170108367A (ko) * 2016-03-17 2017-09-27 세종대학교산학협력단 인트라 예측 기반의 비디오 신호 처리 방법 및 장치
KR102346713B1 (ko) * 2016-04-12 2022-01-03 세종대학교산학협력단 인트라 예측 기반의 비디오 신호 처리 방법 및 장치
KR102601732B1 (ko) 2016-05-31 2023-11-14 삼성디스플레이 주식회사 영상 부호화 방법 및 영상 복호화 방법
PL3477951T3 (pl) * 2016-06-24 2022-05-02 Kt Corporation Adaptacyjne filtrowanie pikseli referencyjnych dla predykcji wewnątrzobrazowej z wykorzystaniem oddalonych linii pikseli
CN116527887A (zh) * 2016-08-01 2023-08-01 韩国电子通信研究院 图像编码/解码方法和设备以及存储比特流的记录介质
CN114286091A (zh) * 2016-09-05 2022-04-05 Lg电子株式会社 图像编码和解码方法、比特流存储介质及数据传输方法
CN117201775A (zh) * 2016-09-13 2023-12-08 韩国电子通信研究院 视频编码/解码方法和装置以及存储比特流的记录介质
US10652575B2 (en) * 2016-09-15 2020-05-12 Qualcomm Incorporated Linear model chroma intra prediction for video coding
US20180091812A1 (en) * 2016-09-23 2018-03-29 Apple Inc. Video compression system providing selection of deblocking filters parameters based on bit-depth of video data
JP6953523B2 (ja) * 2016-10-14 2021-10-27 インダストリー アカデミー コーオペレイション ファウンデーション オブ セジョン ユニバーシティ 画像の符号化/復号化方法及び装置
US10694202B2 (en) * 2016-12-01 2020-06-23 Qualcomm Incorporated Indication of bilateral filter usage in video coding
WO2018117891A1 (en) 2016-12-23 2018-06-28 Huawei Technologies Co., Ltd. An intra-prediction apparatus for removing a directional intra-prediction mode from a set of predetermined directional intra-prediction modes
KR20180080115A (ko) 2017-01-02 2018-07-11 한양대학교 산학협력단 참조 화소에 대하여 적응적 필터링을 수행하기 위한 화면 내 예측 방법 및 장치
WO2018124853A1 (ko) * 2017-01-02 2018-07-05 한양대학교 산학협력단 참조 화소에 대하여 적응적 필터링을 수행하기 위한 화면 내 예측 방법 및 장치
US10638126B2 (en) * 2017-05-05 2020-04-28 Qualcomm Incorporated Intra reference filter for video coding
CN110999304B (zh) * 2017-07-28 2023-12-08 韩国电子通信研究院 图像处理方法和图像编码/解码方法以及使用图像处理方法和图像编码/解码方法的装置
US11089299B2 (en) * 2017-09-08 2021-08-10 Kt Corporation Method and device for processing video signal
JP7236800B2 (ja) * 2017-10-10 2023-03-10 株式会社デンソー 車両洗浄システム
EP3496401A1 (en) * 2017-12-05 2019-06-12 Thomson Licensing Method and apparatus for video encoding and decoding based on block shape
EP3744093A4 (en) * 2018-01-25 2022-01-26 LG Electronics Inc. VIDEO DECODER AND RELATED CONTROL METHOD
US10735757B2 (en) 2018-01-30 2020-08-04 Lg Electronics Inc. Video decoder and controlling method thereof
WO2019203559A1 (ko) * 2018-04-17 2019-10-24 엘지전자 주식회사 영상 코딩 시스템에서 리그레션 모델 기반 필터링을 사용하는 영상 디코딩 방법 및 장치
WO2019216712A1 (ko) * 2018-05-10 2019-11-14 삼성전자 주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
EP3888368A4 (en) * 2018-11-27 2022-03-02 OP Solutions, LLC ADAPTIVE TIME REFERENCE IMAGE CROSS-REFERENCE FILTER NOT AVAILABLE TO RELATED APPLICATIONS
US11102513B2 (en) 2018-12-06 2021-08-24 Tencent America LLC One-level transform split and adaptive sub-block transform
US11356699B2 (en) * 2019-01-11 2022-06-07 Hfi Innovation Inc. Method and apparatus of sub-block deblocking in video coding
CN111263156B (zh) * 2019-02-20 2022-03-25 北京达佳互联信息技术有限公司 视频解码方法、视频编码方法及装置
US11190777B2 (en) * 2019-06-30 2021-11-30 Tencent America LLC Method and apparatus for video coding
CN112859327B (zh) * 2019-11-27 2022-10-18 成都理想境界科技有限公司 一种图像输出控制方法及光纤扫描成像系统
WO2023055199A1 (ko) * 2021-09-30 2023-04-06 한국전자통신연구원 영상 부호화/복호화를 위한 방법, 장치 및 기록 매체

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1056295B1 (en) * 1998-12-10 2006-11-02 Matsushita Electric Industrial Co., Ltd. Filter arithmetic device
DE10158658A1 (de) * 2001-11-30 2003-06-12 Bosch Gmbh Robert Verfahren zur gerichteten Prädiktion eines Bildblockes
US7289562B2 (en) * 2003-08-01 2007-10-30 Polycom, Inc. Adaptive filter to improve H-264 video quality
US7782954B2 (en) * 2003-09-07 2010-08-24 Microsoft Corporation Scan patterns for progressive video content
KR101014660B1 (ko) * 2003-10-24 2011-02-16 삼성전자주식회사 인트라 예측 방법 및 장치
JP2006100871A (ja) * 2004-09-28 2006-04-13 Sony Corp 符号化装置、符号化方法、符号化方法のプログラム及び符号化方法のプログラムを記録した記録媒体
KR100679035B1 (ko) * 2005-01-04 2007-02-06 삼성전자주식회사 인트라 bl 모드를 고려한 디블록 필터링 방법, 및 상기방법을 이용하는 다 계층 비디오 인코더/디코더
JP4231020B2 (ja) 2005-03-29 2009-02-25 日本電信電話株式会社 イントラ予測モード選択方法,画像符号化装置,画像符号化プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
DE602006020556D1 (de) 2005-04-01 2011-04-21 Panasonic Corp Bilddecodierungsvorrichtung und bilddecodierungsverfahren
KR100750128B1 (ko) * 2005-09-06 2007-08-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
KR100727990B1 (ko) * 2005-10-01 2007-06-13 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치
KR100868476B1 (ko) * 2005-10-21 2008-11-12 한국전자통신연구원 적응적 스캐닝을 이용한 동영상 부호화/복호화 장치 및 그방법
KR100750145B1 (ko) * 2005-12-12 2007-08-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
JP4542064B2 (ja) 2006-05-11 2010-09-08 日本電信電話株式会社 階層間予測方法,装置,プログラムおよびその記録媒体
CN101502124B (zh) * 2006-07-28 2011-02-23 株式会社东芝 图像编码和解码的方法以及装置
CN101529918B (zh) * 2006-10-30 2011-08-03 日本电信电话株式会社 预测参照信息生成方法、活动图像的编码及解码方法及其装置
KR100856392B1 (ko) 2006-11-08 2008-09-04 한국전자통신연구원 현재 영상의 복원영역을 참조하는 동영상 부호화/복호화장치 및 그 방법
CN101589624A (zh) * 2007-01-22 2009-11-25 日本电气株式会社 图像再编码设备、图像再编码方法以及图像编码程序
US20100118940A1 (en) * 2007-04-19 2010-05-13 Peng Yin Adaptive reference picture data generation for intra prediction
KR101378338B1 (ko) * 2007-06-14 2014-03-28 삼성전자주식회사 영상 복구를 이용한 인트라 예측 부호화, 복호화 방법 및장치
WO2009001793A1 (ja) * 2007-06-26 2008-12-31 Kabushiki Kaisha Toshiba 画像符号化と画像復号化の方法及び装置
JP5437807B2 (ja) 2007-09-18 2014-03-12 富士通株式会社 動画像符号化装置および動画像復号装置
US8204327B2 (en) * 2007-10-01 2012-06-19 Cisco Technology, Inc. Context adaptive hybrid variable length coding
KR101228020B1 (ko) * 2007-12-05 2013-01-30 삼성전자주식회사 사이드 매칭을 이용한 영상의 부호화 방법 및 장치, 그복호화 방법 및 장치
WO2009088340A1 (en) * 2008-01-08 2009-07-16 Telefonaktiebolaget Lm Ericsson (Publ) Adaptive filtering
US20090245351A1 (en) * 2008-03-28 2009-10-01 Kabushiki Kaisha Toshiba Moving picture decoding apparatus and moving picture decoding method
CN100592796C (zh) * 2008-04-15 2010-02-24 中国科学院计算技术研究所 一种视频编码器及其帧内预测模式选择方法
ES2541807T3 (es) 2008-05-07 2015-07-24 Lg Electronics Inc. Procedimiento y aparato para decodificar una señal de vídeo
JP2009284298A (ja) * 2008-05-23 2009-12-03 Hitachi Ltd 動画像符号化装置、動画像復号化装置、動画像符号化方法及び動画像復号化方法
JP2009302776A (ja) 2008-06-11 2009-12-24 Canon Inc 画像符号化装置、その制御方法、及びコンピュータプログラム
US9055146B2 (en) * 2008-06-17 2015-06-09 International Business Machines Corporation Social network based call management
WO2010036772A2 (en) * 2008-09-26 2010-04-01 Dolby Laboratories Licensing Corporation Complexity allocation for video and image coding applications
KR101590500B1 (ko) 2008-10-23 2016-02-01 에스케이텔레콤 주식회사 동영상 부호화/복호화 장치, 이를 위한 인트라 예측 방향에기반한 디블록킹 필터링 장치 및 필터링 방법, 및 기록 매체
WO2010063881A1 (en) * 2008-12-03 2010-06-10 Nokia Corporation Flexible interpolation filter structures for video coding
KR101538704B1 (ko) * 2009-01-28 2015-07-28 삼성전자주식회사 보간 필터를 적응적으로 사용하여 영상을 부호화 및 복호화하는 방법 및 장치
CN101674475B (zh) * 2009-05-12 2011-06-22 北京合讯数通科技有限公司 一种h.264/svc的自适应层间纹理预测方法
KR101062111B1 (ko) 2009-07-06 2011-09-02 안양과학대학 산학협력단 가로등용 엘이디 등기구
CN101715135B (zh) * 2009-09-30 2013-01-09 武汉大学 基于匹配模板的自适应帧内预测滤波编码方法
KR101464538B1 (ko) 2009-10-01 2014-11-25 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
CN101854549B (zh) * 2010-05-28 2012-05-02 浙江大学 基于空域预测的视频和图像编解码方法和装置
KR20110054244A (ko) 2009-11-17 2011-05-25 삼성전자주식회사 미디언 필터를 이용한 깊이영상 부호화의 인트라 예측 장치 및 방법
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
JP5478740B2 (ja) * 2011-01-12 2014-04-23 三菱電機株式会社 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法

Also Published As

Publication number Publication date
PL3059959T3 (pl) 2019-03-29
KR20210131950A (ko) 2021-11-03
US20160057425A1 (en) 2016-02-25
KR20130098255A (ko) 2013-09-04
EP2600613A2 (en) 2013-06-05
CY1120472T1 (el) 2019-07-10
KR20210131949A (ko) 2021-11-03
EP3059960B1 (en) 2018-06-13
PT3059956T (pt) 2018-10-18
US9491468B2 (en) 2016-11-08
KR20200050451A (ko) 2020-05-11
ES2718937T3 (es) 2019-07-05
EP3059960A1 (en) 2016-08-24
KR102164752B1 (ko) 2020-10-14
EP3051815A1 (en) 2016-08-03
EP3059958B1 (en) 2018-09-19
LT3059953T (lt) 2019-03-12
PL2600613T3 (pl) 2016-11-30
DK2600613T3 (en) 2016-08-22
EP3059955B1 (en) 2018-09-26
HUE039985T2 (hu) 2019-02-28
HUE030354T2 (en) 2017-05-29
LT3059960T (lt) 2018-08-27
KR20210131951A (ko) 2021-11-03
KR20120012385A (ko) 2012-02-09
CN106210723A (zh) 2016-12-07
EP3059959A1 (en) 2016-08-24
MX336416B (es) 2016-01-19
ES2575381T3 (es) 2016-06-28
WO2012018197A3 (ko) 2012-04-12
US9467702B2 (en) 2016-10-11
HRP20160911T1 (hr) 2016-09-23
SI3059956T1 (en) 2018-08-31
CN106231313A (zh) 2016-12-14
ES2700623T3 (es) 2019-02-18
CN106067981A (zh) 2016-11-02
JP2017011727A (ja) 2017-01-12
MX2013001232A (es) 2013-03-12
TR201816486T4 (tr) 2018-11-21
JP2017011731A (ja) 2017-01-12
DK3059960T3 (en) 2018-09-10
LT3059956T (lt) 2018-08-27
KR20210096029A (ko) 2021-08-04
MX336418B (es) 2016-01-19
CY1122995T1 (el) 2021-10-29
CN106231314A (zh) 2016-12-14
CY1117856T1 (el) 2017-05-17
ES2694041T3 (es) 2018-12-17
PL3059953T3 (pl) 2019-08-30
CN104602011A (zh) 2015-05-06
EP3059954A1 (en) 2016-08-24
EP3059961B1 (en) 2018-09-12
DK3059953T3 (en) 2019-04-29
RS58564B1 (sr) 2019-05-31
WO2012018197A2 (ko) 2012-02-09
PL3059957T3 (pl) 2019-03-29
EP3059957B1 (en) 2018-09-12
KR20130029097A (ko) 2013-03-21
JP6163597B2 (ja) 2017-07-12
EP3059957A1 (en) 2016-08-24
CN106067977A (zh) 2016-11-02
ES2692842T3 (es) 2018-12-05
PT3059960T (pt) 2018-10-18
PL3059960T3 (pl) 2018-11-30
JP2017011732A (ja) 2017-01-12
JP2017011728A (ja) 2017-01-12
KR20140057510A (ko) 2014-05-13
PL3059956T3 (pl) 2018-11-30
US9307246B2 (en) 2016-04-05
CN103081474B (zh) 2016-09-21
CN104602009A (zh) 2015-05-06
CN106067979A (zh) 2016-11-02
DK3051815T3 (en) 2019-04-29
US20160057423A1 (en) 2016-02-25
KR20140056205A (ko) 2014-05-09
CN106231313B (zh) 2020-02-04
SI2600613T1 (sl) 2016-07-29
CN103081474A (zh) 2013-05-01
CN104602009B (zh) 2016-09-07
TR201809836T4 (tr) 2018-07-23
ES2685600T3 (es) 2018-10-10
KR20210131952A (ko) 2021-11-03
SI3051815T1 (sl) 2019-04-30
MX336419B (es) 2016-01-19
JP6158997B2 (ja) 2017-07-05
TR201816492T4 (tr) 2018-11-21
KR20140057511A (ko) 2014-05-13
JP6163596B2 (ja) 2017-07-12
HUE044305T2 (hu) 2019-10-28
RS58388B1 (sr) 2019-04-30
US20160057449A1 (en) 2016-02-25
PT3059953T (pt) 2019-03-27
EP2600613A4 (en) 2014-09-10
US20160057427A1 (en) 2016-02-25
CN106067981B (zh) 2017-08-11
EP3059956A1 (en) 2016-08-24
EP3059959B1 (en) 2018-09-12
HUE041736T2 (hu) 2019-05-28
US20160057424A1 (en) 2016-02-25
US20160057421A1 (en) 2016-02-25
US9445099B2 (en) 2016-09-13
SI3059960T1 (en) 2018-08-31
US9609325B2 (en) 2017-03-28
CN106210723B (zh) 2019-11-01
JP2016220245A (ja) 2016-12-22
RS55052B1 (sr) 2016-12-30
CN106067977B (zh) 2017-08-11
US20160057450A1 (en) 2016-02-25
HUE041267T2 (hu) 2019-05-28
US9451263B2 (en) 2016-09-20
US20130016774A1 (en) 2013-01-17
CN106067980B (zh) 2017-08-11
CN106067979B (zh) 2017-08-11
CN106231312B (zh) 2019-04-12
PL3059955T3 (pl) 2019-06-28
EP3059956B1 (en) 2018-06-13
HRP20190773T1 (hr) 2019-06-14
JP6163598B2 (ja) 2017-07-12
SI3059953T1 (sl) 2019-04-30
ES2685577T3 (es) 2018-10-10
HUE040206T2 (hu) 2019-02-28
LT3051815T (lt) 2019-02-25
TR201815017T4 (tr) 2018-11-21
JP6158995B2 (ja) 2017-07-05
EP3059953B1 (en) 2019-02-20
DK3059956T3 (en) 2018-09-10
PL3059958T3 (pl) 2019-06-28
US20160057422A1 (en) 2016-02-25
JP6158996B2 (ja) 2017-07-05
JP6163595B2 (ja) 2017-07-12
US9451264B2 (en) 2016-09-20
JP6152461B2 (ja) 2017-06-21
US9615094B2 (en) 2017-04-04
PL3059954T3 (pl) 2019-03-29
JP5997152B2 (ja) 2016-09-28
JP2013534384A (ja) 2013-09-02
HUE041476T2 (hu) 2019-05-28
PT2600613E (pt) 2016-06-03
CY1120479T1 (el) 2019-07-10
CN106303532A (zh) 2017-01-04
HUE041269T2 (hu) 2019-05-28
EP3051815B1 (en) 2019-01-30
EP3059958A1 (en) 2016-08-24
EP3059953A1 (en) 2016-08-24
HUE044403T2 (hu) 2019-10-28
CN106231314B (zh) 2020-02-04
HUE041266T2 (hu) 2019-05-28
EP2600613B1 (en) 2016-05-11
ES2720581T3 (es) 2019-07-23
US20160057426A1 (en) 2016-02-25
JP6158998B2 (ja) 2017-07-05
KR101339903B1 (ko) 2013-12-10
SMT201600168B (it) 2016-07-01
CN106067980A (zh) 2016-11-02
USRE49565E1 (en) 2023-06-27
CN106303532B (zh) 2019-03-12
US9462281B2 (en) 2016-10-04
JP2017011730A (ja) 2017-01-12
HRP20181470T1 (hr) 2018-11-02
CY1121337T1 (el) 2020-05-29
TR201809830T4 (tr) 2018-07-23
KR102322188B1 (ko) 2021-11-05
PT3051815T (pt) 2019-03-01
JP2017011729A (ja) 2017-01-12
CN106231312A (zh) 2016-12-14
MX336417B (es) 2016-01-19
RS57381B1 (sr) 2018-09-28
HRP20181471T1 (hr) 2018-11-02
KR20120012401A (ko) 2012-02-09
HUE041737T2 (hu) 2019-05-28
CN106067978B (zh) 2017-08-29
TR201815529T4 (tr) 2018-11-21
EP3059955A1 (en) 2016-08-24
PL3059961T3 (pl) 2019-04-30
CN106067978A (zh) 2016-11-02
US9438919B2 (en) 2016-09-06
ES2700624T3 (es) 2019-02-18
TR201816011T4 (tr) 2018-11-21
PL3051815T3 (pl) 2019-07-31
ES2696525T3 (es) 2019-01-16
JP2016220246A (ja) 2016-12-22
JP2017011733A (ja) 2017-01-12
HRP20190543T1 (hr) 2019-05-31
EP3059961A1 (en) 2016-08-24
RS57368B1 (sr) 2018-08-31
EP3059954B1 (en) 2018-09-26
CN104602011B (zh) 2018-02-02

Similar Documents

Publication Publication Date Title
ES2691195T3 (es) Aparato para codificar una imagen
ES2720652T3 (es) Aparato para codificar una imagen
ES2696931T3 (es) Procedimiento para codificar un modo de intrapredicción
ES2954979T3 (es) Aparato para codificar un fotograma en movimiento