MX2013001232A - Dispositivo de decodificacion de intraprediccion. - Google Patents

Dispositivo de decodificacion de intraprediccion.

Info

Publication number
MX2013001232A
MX2013001232A MX2013001232A MX2013001232A MX2013001232A MX 2013001232 A MX2013001232 A MX 2013001232A MX 2013001232 A MX2013001232 A MX 2013001232A MX 2013001232 A MX2013001232 A MX 2013001232A MX 2013001232 A MX2013001232 A MX 2013001232A
Authority
MX
Mexico
Prior art keywords
prediction
mode
intra
block
filter
Prior art date
Application number
MX2013001232A
Other languages
English (en)
Inventor
Soo-Mi Oh
Original Assignee
Oh Soomi
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45559905&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=MX2013001232(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Oh Soomi filed Critical Oh Soomi
Publication of MX2013001232A publication Critical patent/MX2013001232A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Abstract

Un dispositivo de intradecodificación de la presente invención restaura un módulo residual cuantizado, información de intrapredicción, e información de tamaños de unidades de predicción del flujo de bits recibido; restaura un modo de intrapredicción de una unidad de predicción presente con base en la información de intrapredicción y la información de tamaño de la unidad de predicción presente; y filtra adaptativamente píxeles de referencia con base en el modo de intrapredicción mediante la generación de píxeles de referencia no utilizables de la unidad de predicción. Asimismo, la presente invención genera bloques de predicción utilizando y filtrando adaptativamente los píxeles de referencia que responden al modo de intrapredicción. Además, la presente invención genera imágenes restauradas utilizando los bloques de predicción y restaura bloques residuales. Por lo tanto, la presente invención mejora la compresibilidad de imágenes restaurando los bloques de predicción cercanos a la imagen original.

Description

DISPOSITIVO DE DECODIFICACION DE INTRAPREDICCION Campo de la Invención La presente invención se relaciona con un aparato de decodificación de intrapredicción, y más particularmente, con un aparato que decodifica un modo de intrapredicción, decodifica adaptati amente un bloque de predicción y un bloque residual de acuerdo con un modo de intrapredicción, y genera de esta manera un bloque reconstruido.
Antecedentes de la Invención En métodos de compresión de imágenes tales como el Grupo de Expertos en Imágenes en Movimiento (MPEG-1, por sus sisglas en inglés) , MPEG-2, MPEG-4 y Codificación Avanzada de Video (AVC, por sus siglas en inglés) H .264/MPEG-4 , una imagen se divide en macrobloques para codificar una imagen. Después, los macrobloques respectivos se codifican utilizando interpredicción o intrapredicción.
En la intrapredicción, un bloque de una imagen actual se codifica no con el uso de una imagen de referencia, sino utilizando valores de píxeles espacialmente adyacentes al bloque actual. Un modo de intrapredicción con poca distorsión se selecciona comparando con un macrobloque original utilizando valores de píxeles adyacentes. Después, utilizando el . modo de intrapredicción seleccionado y los valores de píxeles adyacentes, se calculan los valores de predicción del Ref.: 238773 bloque actual. Y se calcula una diferencia entre los valores de predicción y los valores de píxeles del bloque actual original y después se codifican a través de una codificación de transformación, codificación de cuantización y entropía. El modo de intrapredicción también se codifica.
Los modos de intrapredicción se clasifican generalmente en modo de intrapredicción 4 x 4, modo de intrapredicción 8 x 8 y modo de intrapredicción 16 x 16 para componentes de luminancia y componentes de crominancia.
En el modo de intrapredicción 16 x 16 de conformidad con la técnica relacionada, existen cuatro modos de un modo vertical, un modo horizontal, un modo de corriente directa (DC, por sus siglas en inglés) y un modo plano.
En el modo de intrapredicción 4 x 4 de conformidad con la técnica relacionada, existen nueve modos de un modo vertical, un modo horizontal, un modo de DC, un modo diagonal abajo-izquierda, un modo diagonal abajo-derecha, un modo vertical derecho, un modo vertical izquierdo, un modo horizontal-arriba y un modo horizontal-abajo .
Cada modo de predicción se ha indexado de acuerdo con la frecuencia de uso de los respectivos modos . El modo vertical que es el modo 0 muestra la posibilidad más alta de ser utilizado más frecuentemente para realizar una intrapredicción en un bloque objetivo, y el modo horizontal-arriba que es el modo 8 muestra la posibilidad más alta de ser utilizado con la menor frecuencia.
De conformidad con los estándares de H.264, un bloque actual se codifica utilizando un total de 13 modos, es decir, 4 modos del modo de intrapredicción 4 x 4 y 9 modos del modo de intrapredicción 16 x 16. Un flujo de bits del bloque actual se genera de acuerdo con un modo óptimo entre estos modos .
Sin embargo, cuando algunos o todos los valores de píxeles adyacentes al bloque actual no existen o no están codificados de antemano, es imposible aplicar algunos o todos los modos de intrapredicción. Asimismo, cuando una diferencia entre píxeles de referencia adyacentes es grande, una diferencia entre un bloque de predicción y un bloque original se hace grande. Por lo tanto, se requiere una nueva técnica para reducir la diferencia entre el bloque original y el bloque de predicción generado con base en posiciones de pixeles de referencia utilizados para generar el bloque de predicción.
Breve Descripción de la Invención Problema Técnico La presente invención está dirigida a un aparato de decodificación de intrapredicción para reconstruir efectivamente una imagen codificada con alta eficiencia de compresión mediante la generación de un bloque de predicción cercano a una imagen original .
Solución Técnica Un aspecto de la presente invención proporciona un aparato de decodificación de intrapredicción, que incluye: un decodificador de entropía configurado para restaurar coeficientes residuales cuantizados, información de intrapredicción e información de tamaño en una unidad de predicción de un flujo de bits recibido; un decodificador de modos de predicción configurado para restaurar un modo de intrapredicción de la unidad de predicción actual con base en la información de intrapredicción y la información de tamaños en la unidad de predicción actual recibida del decodificador de entropía; un decodificador de señales residuales configurado para restaurar una señal residual de acuerdo con el modo de intrapredicción recibido del decodificador de modos de predicción; un generador de pixeles de referencia configurado para restaurar pixeles de referencia no disponibles de la unidad de predicción actual, y filtrar adaptativamente los pixeles de referencia con base en el modo de intrapredicción de la unidad de predicción actual recibido del decodificador de modos de predicción; un generador de bloques de predicción configurado para generar un bloque de predicción usando los pixeles de referencia que corresponden al modo de intrapredicción recibido del decodificador de modos de predicción; un postprocesador de bloques de predicción configurado para filtrar adaptativamente el bloque de predicción generado del generador de bloques de predicción de acuerdo con el modo de intrapredicción recibido del decodificador de modos de predicción; y un restaurador de imágenes configurado para recibir el bloque de predicción del generador de bloques de predicción o del postprocesador de bloques de predicción en unidades de las unidades de predicción de acuerdo con el modo de intrapredicción recibido del decodificador de modos de predicción, y generar una imagen de restauración usando un bloque residual restaurado recibido del decodificador de señales residuales.
Efectos Ventajosos Un aparato de decodificador de intrapredicción de conformidad con la presente invención genera píxeles de referencia y filtra adaptativamente los píxeles de referencia con el fin de generar un bloque de predicción similar a un bloque original. También, al generar o modificar el bloque de predicción usando píxeles de referencia que no se utilizan para generar el bloque de predicción, se puede reconstruir el bloque de predicción similar a un bloque original, y puede mejorarse una compresión de imagen.
Breve Descripción de las Figuras La figura 1 es un diagrama de bloques de un aparato codificador de imágenes en movimiento de conformidad con la presente invención.
La figura 2 es un diagrama de bloques de un intrapredictor de conformidad con la presente invención.
La figura 3 es un diagrama conceptual que muestra modos de intraprediccion direccional de conformidad con la presente invención.
La figura 4 es un diagrama de flujo que ilustra un proceso de codificación de un modo de intraprediccion de una unidad de predicción actual realizado en un codificador de modos de predicción de conformidad con la presente invención.
La figura 5 es un diagrama de bloques de un aparato decodificador de intraprediccion de conformidad con la presente invención.
Descripción Detallada de la Invención De aquí en adelante, se describirán detalladamente varias modalidades de la presente invención con referencia a las figuras adjuntas. Sin embargo, la presente invención no está limitada a las modalidades de ejemplo descritas a continuación, sino que puede implementarse de varias maneras. Por lo tanto, son posibles muchas otras modificaciones y variaciones de la presente invención, y se entenderá que dentro del alcance del concepto descrito, la presente invención se puede practicar de manera diferente de lo que se ha descrito específicamente.
Para la codificación de imágenes, cada imagen consiste de una o más rebanadas, y cada rebanada consiste de una pluralidad de unidades de codificación. Dado que una imagen de un grado de alta definición (HD, por sus siglas en inglés) o mayor tiene muchas regiones suaves, una compresión de imagen se puede mejorar codificando la imagen con unidades de codificación de varios tamaños.
Las unidades de codificación de conformidad con la presente invención tienen una estructura de árbol cuádruple y pueden dividirse jerárquicamente usando información de profundidad. Una unidad de codificación del tamaño más grande se denomina unidad de codificación más grande (LCU, por sus siglas en inglés) , y una unidad de codificación del tamaño más pequeño se denomina unidad de codificación más pequeña (SCU, por sus siglas en inglés) . La información relacionada con la LCU y la SCU puede incluirse en un conjunto de parámetros de secuencia (SPS, por sus siglas en inglés) y transmitirse.
Una LCU consiste de una o más unidades de codificación. La LCU tiene forma de un árbol de codificación recursiva para incluir una estructura de división de unidades de codificación y unidades de codificación. Cuando la LCU no está dividida en cuatro unidades de codificación, el árbol de codificación puede consistir de información que indica que la LCU no está dividida y una unidad de codificación. Cuando la LCU está dividida en cuatro unidades de codificación, el árbol de codificación puede consistir de información que indica que la LCU está dividida y cuatro árboles de subcodificación. Similarraente, cada árbol de subcodificación tiene la misma estructura que el árbol de codificación de la LCU. Sin embargo, una unidad de codificación del tamaño de la SCU no está dividida en unidades de codificación.
Mientras tanto, cada unidad de codificación en el árbol de codificación está sujeto a intraprediccion o interprediccion en unidades de las unidades de codificación o unen una subpartición. Una unidad en la cual se realiza la intraprediccion o la interprediccion se conoce como unidad de predicción. Un tamaño de la unidad de predicción puede ser 2N x 2N o N x N en la intraprediccion. Un tamaño de la unidad de predicción puede ser 2N x 2N, 2N x N, N x 2N o N x N en la interprediccion. En este caso, 2N denota longitudes horizontal y vertical de la unidad de codificación.
Por otro lado, una unidad de predicción para intraprediccion puede no ser cuadrada. Por ejemplo, una unidad de codificación cuadrada puede dividirse en cuatro hN x 2N o cuatro 2N x hN para intraprediccion. En este caso, se reduce la distancia entre un píxel de referencia y un píxel de un bloque de predicción para intraprediccion, de tal manera que puede mejorarse la eficiencia de predicción. Este método de intraprediccion es una intraprediccion de corta distancia (SDIP, por sus siglas en inglés) .
Una unidad de codificación incluye información de modos de predicción e información de tamaños (modo de partición) de las unidades de predicción en la unidad de codificación. Para mejorar la eficiencia de codificación, la información de modos de predicción y la información de tamaños se pueden combinar y codificarse conjuntamente. En este caso, cada unidad de codificación incluye un tipo de predicción codificado conjuntamente (pred_type) .
Una unidad de codificación incluye información adicional requerida para generar un bloque de predicción de cada unidad de predicción y una señal residual. La información adicional se define por unidad de predicción en la unidad de codificación. En la intrapredicción, la información adicional incluye información de intrapredicción codificada. En la interpredicción, la información adicional incluye información de movimiento codificada. La información de movimiento incluye un vector de movimiento y un índice de imágenes de referencia.
En cada unidad de codificación está incluida una señal residual. Una señal residual incluye un árbol de transformación, un portador de señales residuales de luminancia y dos portadores de señales residuales de crominancia. Los portadores de señales residuales incluyen información residual codificada en una o más unidades de transformación. El tamaño más grande de la unidad de transformación es igual o menor que el tamaño de la unidad de codificación. La unidad de transformación puede tener el mismo tamaño que la unidad de transformación más grande o una unidad de subtransformación de la unidad de transformación más grande .
El árbol de transformación incluye información que indica una estructura de división de la unidad de transformación para la señal residual incluida en la unidad de codificación. Asimismo, el árbol de transformación incluye información que indica si una señal residual de cada unidad de transformación es o no 0.
El portador de señales residuales porta información residual codificada en unidades de transformación que corresponden a la información que indica la estructura de división en el árbol de transformación en unidades de las unidades de codificación.
Aunque la descripción anterior se ha hecho solo de una unidad de predicción obtenida dividiendo igualmente una unidad de codificación, también es posible una división desigual. En otras palabras, para comprimir una señal residual, puede ser más efectivo dividir desigualmente una señal de imagen en una dirección específica de acuerdo con un límite de una imagen y llevar a cabo la intrapredicción o la interpredicción.
Un modo adaptativo de lo más simple es dividir una unidad de codificación en dos bloques usando una línea recta para extraer la dependencia estadística de una región de predicción en una topografía local. Un límite de una imagen se ajusta a una línea recta y se divide. En este caso, las direcciones divisibles pueden limitarse a un número predeterminado. Por ejemplo, un método de división de un bloque puede limitarse a cuatro direcciones de horizontal, vertical, diagonal ascendente y diagonal descendente. También, la división puede limitarse solo a las direcciones horizontal y vertical. El número de direcciones divisibles puede ser tres, cinco, siete, etcétera. El número de direcciones divisibles puede variar de acuerdo con el tamaño del bloque. Por ejemplo, para una unidad de codificación de un tamaño grande, el número de direcciones divisibles puede aumentar relativamente.
En la interpredicción, cuando una unidad de codificación se divide en dos unidades de predicción para más predicciones adaptativas, debe realizarse una estimación de movimiento y compensación de movimiento en cada una de las unidades de predicción. Después que se han derivado bloques de predicción de las dos unidades de predicción respectivas divididas de la unidad de codificación única, se pueden agregar los dos bloques de predicción para generar el bloque de predicción que tiene el mismo tamaño que la unidad de codificación. En este caso, para reducir la diferencia entre los valores de pxxeles en ambos lados de un límite de división del bloque de predicción del tamaño de la unidad de codificación, se pueden filtrar los píxeles que se encuentran en el límite de división. El bloque de predicción puede generarse de tal manera que los bloques de predicción que corresponden a las unidades de predicción respectivas se traslapen, y la porción límite traslapada puede suavizarse para generar el bloque de predicción único.
La figura 1 es un diagrama de bloques de un aparato codificador de imágenes en movimiento de conformidad con la presente invención.
Con referencia a la figura 1, un aparato codificador de imágenes en movimiento 100 de conformidad con la presente invención incluye un divisor de imágenes 110, un transformador 120, un cuantizador 130, un escáner 131, un codificador de entropía 140, un intrapredictor 150, un interpredictor 160, un cuantizador inverso 135, un transformador inverso 125, un postprocesador 170, un almacenamiento de imágenes 180, un sustractor 190 y un sumador 195.
El divisor de imágenes 110 analiza una señal de video de entrada para dividir cada LCU de una imagen en una o más unidades de codificación cada una de las cuales tiene un tamaño predeterminado, determina el modo de predicción de cada unidad de codificación, y determina el tamaño de la unidad de predicción por cada unidad de codificación. El divisor de imágenes 110 envía la unidad de predicción que se codificará al intrapredictor 150 ó al interpredictor 160 de acuerdo con el modo de predicción. Asimismo, el divisor de imágenes 110 envía las unidades de predicción que se codificarán al sustractor 190.
El transformador 120 transforma un bloque residual que es una señal residual entre un bloque original de una unidad de predicción de entrada y un bloque de predicción generado por el intrapredictor 150 ó el interpredictor 160. Preferentemente, el bloque residual consiste de una unidad de codificación. El bloque residual puede dividirse en unidades de transformación óptimas y transformarse. Un tipo de matriz de transformación puede determinarse adaptativamente de acuerdo con el modo de predicción (intra o inter) y el modo de intrapredicción. La unidad de transformación puede transformarse por medio de matrices de transformación unidimensionales (ID) horizontal y vertical. En la interpredicción, se aplica una matriz de transformación predeterminada. En la intrapredicción, existe una alta posibilidad de que el bloque residual tenga directividad vertical cuando el modo de predicción es horizontal. Por lo tanto, se aplica una matriz de enteros basada en una transformada de coseno discreta (DCT, por sus siglas en inglés) a la dirección vertical, y se aplica una transformada de seno discreta (DST, por sus siglas en inglés) o matriz de enteros basada en la transformada de Karhunen Loéve a la dirección horizontal. Cuando el modo de predicción es vertical, se aplica una matriz de enteros basada en DST o KLT a la dirección vertical, y se aplica una matriz de enteros basada en DCT a la dirección horizontal. Alternativamente, en la intrapredicción, la matriz de transformación puede determinarse adaptativamente de acuerdo con el tamaño de la unidad de transformación.
El cuantizador 130 determina una etapa de cuantización para cada unidad de codificación con el fin de cuantizar coeficientes de transformación del bloque residual transformado por la matriz de transformación. La etapa de cuantización se determina para cada tamaño de unidad de cuantización igual o mayor que un tamaño predeterminado. El tamaño predeterminado puede ser 8 x 8 ó 16 x 16. Al utilizar el tamaño determinado de la etapa de cuantización y una matriz, de cuantización determinada de acuerdo con un modo de predicción, los coeficientes de transformación se cuantizan. El cuantizador 130 utiliza tamaños de etapas de cuantización de las unidades de codificación adyacentes a la unidad de codificación actual como un predictor de tamaños de etapas de cuantización de la unidad de codificación actual. El cuantizador 130 busca secuencialmente una unidad de codificación izquierda, una unidad de codificación superior y una unidad de codificación superior izquierda de la unidad de codificación actual, determina el predictor de tamaños de etapas de cuantización de la unidad de codificación actual usando tamaños de etapas de cuantización de una o más unidades de codificación válidas, y transmite una diferencia al codificador de entropía 140.
Cuando una rebanada se divide en unidades de codificación, puede no haber una unidad de codificación izquierda, una unidad de codificación superior y una unidad de codificación superior izquierda de la unidad de codificación actual. Por otro lado, puede haber una unidad de codificación previa de una LCU en un orden de codificación. Por lo tanto, las unidades de codificación adyacentes a la unidad de codificación actual y las unidades de codificación previas pueden ser candidatas . En este caso, puede darse prioridad secuencialmente a 1) la unidad de codificación izquierda de la unidad de codificación actual, 2) la unidad de codificación superior de la unidad de codificación actual, 3) la unidad de codificación superior izquierda de la unidad de codificación actual y 4) la unidad de codificación anterior de la unidad de codificación actual. La secuencia puede variar, o la unidad de codificación superior izquierda puede omitirse.
El bloque de transformación cuantizado se provee al cuantizador inverso 135 y al escáner 131.
El escáner 131 escanea coeficientes del bloque de transformaciones cuantizadas y convierte los coeficientes del bloque de transformaciones cuantizadas a coeficientes cuantizados ID. Un método de escaneo de coeficientes se determina de acuerdo con él modo de predicción y el modo de intrapredicción. También, el método de escaneo de coeficientes se puede determinar de manera diferente de acuerdo con el tamaño de las unidades de transformación. El escáner 131 determina si divide o no el bloque de coeficientes cuantizados en una pluralidad de subconjuntos con base en un tamaño de la unidad de transformación actual. Cuando el tamaño de la unidad de transformación es mayor que un primer tamaño de referencia, el bloque de transformaciones cuantizadas se divide en una pluralidad de subconjuntos. El primer tamaño de referencia puede ser 4 x 4 u 8 x 8.
El escáner 131 determina un patrón de escaneo que se aplicará al bloque de coeficientes cuantizados. En la interpredicción, solo puede aplicarse un patrón escaneado determinado de acuerdo con el modo de intrapredicción. El patrón de escaneo puede variar de acuerdo con un modo de intrapredicción direccional. El escaneo en zigzag se aplica a modos de intrapredicción no direccionales . Un modo no direccional puede ser un modo de corriente directa (DC, por sus siglas en inglés) o un modo plano. Los coeficientes cuantizados se escanean en una dirección inversa.
Cuando los coeficientes cuantizados se dividen en la pluralidad de subconjuntos, el mismo patrón se aplica a los coeficientes cuantizados en cada subconjunto. La pluralidad de subconjuntos consiste de un subconjunto principal y uno o más subconjuntos residuales. El subconjunto principal se localiza en un lado superior izquierdo e incluye un coeficiente de DC y uno o más subconjuntos residuales cubren una región diferente del subconjunto principal.
El escaneo en zigzag se puede aplicar para escanear los subcon untos. Los subconjuntos pueden escanearse comenzando con el subconjunto principal hasta los subconjuntos residuales en una dirección de avance, o pueden escanearse en una dirección inversa. El patrón de escaneo para escanear los subconjuntos se puede establecer igual que un patrón de escaneo para escanear los coeficientes cuantizados en los subconjuntos. En este caso, el patrón de escaneo para los subconjuntos se determina de acuerdo con el modo de intrapredicción. Mientras tanto, un codificador transmite información capaz de indicar una posición del último coeficiente cuantizado diferente de cero de la unidad de transformaciones a un decodificador . El codificador también transmite información capaz de indicar una posición del último coeficiente cuantizado diferente de cero en cada subconjunto al decodificador .
El cuantizador inverso 135 cuantiza inversamente los coeficientes cuantizados. El transformador inverso 125 reconstruye un bloque residual del dominio espacial de los coeficientes de transformación inversamente cuantizados. El sumador genera un bloque de reconstrucción sumando el bloque residual reconstruido por el transformador inverso 125 y el bloque de predicción del intrapredictor 150 ó el interpredictor 160.
El postprocesador 160 realiza un proceso de filtración de desbloqueo para remover el artefacto de bloqueo en una imagen reconstruida, un proceso de aplicación de compensación adaptativa para complementar una diferencia entre la imagen reconstruida y la imagen original por cada píxel, y un proceso de filtración de ciclo adaptativo para complementar una diferencia entre la imagen reconstruida y la imagen original en una unidad de codificación.
El proceso de filtración de desbloqueo puede aplicarse a un límite entre unidades predictivas y entre unidades de transformación. El tamaño predeterminado puede ser 8 x 8. El proceso de filtración de desbloqueo incluye una etapa de determinación del límite que se filtrará, una etapa de intensidad de filtración de límites que se aplicará al límite, una etapa para determinar si se aplica o no un filtro de desbloqueo, y una etapa de selección de un filtro que se aplicará al límite cuando se determina que se aplicará el filtro de desbloqueo.
La aplicación o no del filtro de desbloqueo se determina de acuerdo con i) si la intensidad de filtración de límites es mayor que 0 y ii) si un valor que indica la diferencia entre píxeles limítrofes de los dos bloques (bloque P y bloque Q) adyacentes al límite que se filtrará es menor o no que un primer valor de referencia determinado de acuerdo con un parámetro de cuantización.
Pueden existir dos o más filtros. Cuando un valor absoluto de una diferencia entre dos píxeles adyacentes al límite del bloque es igual o mayor que un segundo valor de referencia, se selecciona un filtro débil. El segundo valor de referencia se determina por medio del parámetro de cuantización y la intensidad de la filtración de límites.
El proceso de aplicación de compensación adaptativa está dirigido a reducir una diferencia (distorsión) entre un píxel en una imagen sometida al filtro de desbloqueo y el píxel original . Una imagen o rebanada se puede dividir en una pluralidad de regiones de compensación, y puede determinarse un modo de compensación por cada región de compensación. Existen cuatro modos de compensación de borde, dos modos de compensación de banda y un modo de no aplicación de compensación. De acuerdo con cada modo de compensación, los píxeles en cada región de compensación se clasifican en un número predeterminado de clases, y la compensación que corresponde a la clase clasificada se añade al píxel. En el caso de un modo de compensación de borde, una clase de un píxel actual se determina comparando el valor del píxel actual con valores de píxeles de dos o más píxeles adyacentes al píxel actual.
El proceso de filtrado de ciclo adaptativo se puede realizar con base en un valor obtenido comparando una imagen original y una imagen reconstruida a la cual se aplica el proceso de filtración de desbloqueo o el proceso de aplicación de compensación adaptativa. Un filtro de ciclo adaptativo (ALF, por sus siglas en inglés) se detecta a través de un valor de actividad Laplaciana con base en el bloque 4 x 4. El ALF puede aplicarse a todos los píxeles incluidos en un bloque 4 x 4 ó un bloque 8 8. La aplicación o no de un ALF puede determinarse de acuerdo con cada unidad de codificación. Un tamaño de coeficientes de un filtro de ciclos puede variar de acuerdo con cada unidad de codificación. La información que indica si el ALF se aplica a cada unidad de codificación, la información de coeficientes de filtro, la información de formas de filtro, etcétera, puede incluirse en un encabezamiento de rebanada y transmitirse al decodificador . En el caso de una señal de crominancia, la aplicación o no del ALF se puede determinar en unidades de imágenes. A diferencia de la luminancia, el filtro de ciclos puede tener una forma rectangular.
El almacenamiento de imágenes 180 recibe datos de imágenes postprocesadas del postprocesador 160, y almacena la imagen reconstruida en unidades de imágenes . Una imagen puede ser una imagen en un cuadro o un campo . El almacenamiento de imágenes 180 tiene una memoria temporal (no se muestra) capaz de almacenar una pluralidad de imágenes.
El interpredictor 150 realiza una estimación de movimientos usando una o más imágenes de referencia almacenadas en el almacenamiento de imágenes 180, y determinar un índice de imágenes de referencia que indica las imágenes de referencia y un vector de movimiento. De acuerdo con el índice de imágenes de referencia y el vector de movimiento, se extrae un bloque de predicción que corresponde a una unidad de predicción que será codificada de una imagen de referencia seleccionada de entre una pluralidad de imágenes de referencia almacenadas en el almacenamiento de imágenes 150 y se produce el bloque de predicción extraído.
El intrapredictor 140 realiza una codificación de intrapredicción utilizando un valor de píxeles reconstruidos en una imagen que incluye una unidad de predicción actual . El intrapredictor 140 recibe la unidad de predicción actual que se codificará de manera predictiva, selecciona uno del número predeterminado de modos de intrapredicción, y realiza la intrapredicción. El número predeterminado de modos de intrapredicción depende de un tamaño de la unidad de predicción actual. El intrapredictor filtra adaptativamente los píxeles de referencia utilizados para generar el bloque de intrapredicción. Cuando algunos píxeles de referencia no están disponibles, es posible generar los píxeles de referencia en las posiciones no disponibles usando píxeles de referencia disponibles.
El codificador de entropía 130 codifica entrópicamente los coeficientes de transformación cuantizados por el cuantizador 130, la información de intrapredicción recibida del intrapredictor 140, la información de movimiento recibida del interpredictor 150, etcétera.
La figura 2 es un diagrama de bloques de un intrapredictor 140 de conformidad con la presente invención.
Con referencia a la figura 2, el intrapredictor 140 incluye una receptor de unidades de predicción 141, un generador de píxeles de referencia 142, un generador de bloques de predicción 143, un postprocesador de bloques de predicción 144, un determinador de modos de predicción 145 y un codificador de modos de predicción 146.
El receptor de unidades de predicción 141 recibe una entrada de unidades de predicción de un divisor de imágenes 110. El receptor de unidades de predicción 141 transmite información de tamaños en la unidad de predicción recibida al determinador de modos de predicción 145 y el generador de píxeles de referencia 142, y transmite la unidad de predicción al generador de píxeles de referencia 142 y al generador de bloques de predicción 143.
El generador de píxeles de referencia 142 determina si están, disponibles los pixeles de referencia de la unidad de predicción actual recibida. Los pixeles de referencia de la unidad de predicción actual utilizada para intrapredicción consiste de un píxel de referencia de esquina ubicada en (x = -1, y = -l) , pixeles de referencia superiores 2L ubicados en (x = 0, 2L-1, y = -1), y pixeles de referencia izquierdos 2M ubicados en (x = 0, y = 0, y 2M-1) . En este caso, L es una anchura de la unidad de predicción actual, y M es una altura de la unidad de predicción actual.
Cuando los pixeles de referencia no están disponibles o son insuficientes, se generan los pixeles de referencia.
Cuando no está disponible ningún píxel de referencia, los pixeles de referencia se generan con un valor predeterminado .
Cuando algunos de los pixeles de referencia no están disponibles, se determina si los pixeles de referencia no disponibles existen o no en solo una dirección de los pixeles disponibles o entre los pixeles disponibles.
Cuando existen pixeles de referencia no disponibles en solo una dirección de los pixeles disponibles, se genera un bloque de referencia copiando el valor de un píxel disponible más cercano al píxel no disponible. Por ejemplo, cuando la unidad de predicción actual se ubica en un límite superior de una imagen o una rebanada, el píxel de referencia de esquina y los pixeles de referencia superiores no están disponibles.
Por lo tanto, en este caso, el píxel de referencia de esquina y los pixeles de referencia superiores se pueden generar copiando un píxel de referencia ubicado en (x = -1, y = 0) que es la posición más cercana. Alternativamente, los pixeles de referencia se pueden generar usando un píxel de referencia disponible de la posición más cercana y uno o más pixeles de referencia disponibles. Por ejemplo, cuando el píxel de referencia de esquina ubicado en (x = 1, y = 0) y los pixeles de referencia en las posiciones (x = 0, y L-l, y = 1) están disponibles y los pixeles de referencia en las posiciones (x = L, ... , 2L-1, y = 1) no están disponibles, los pixeles de referencia en las posiciones no disponibles se pueden generar usando un cambio en la diferencia entre un valor de píxel de referencia en una posición (x = Ll, y = -1) y un valor de píxel de referencia de esquina u otro valor de píxel de referencia.
Cuando existen pixeles de referencia no disponibles entre los pixeles disponibles, se generan pixeles de referencia usando dos pixeles disponibles p y q adyacentes a los pixeles de referencia no disponibles. Por ejemplo, cuando el píxel de referencia de esquina y los pixeles de referencia superiores L ubicados en (x = 0, y L-l, y = -1) no están disponibles, se pueden generar pixeles de referencia entre el píxel de referencia p en una posición (x = -1, y = 0) y el píxel de referencia q en una posición (x = L, y = -1) utilizando los pixeles de referencia p y q.
Los valores de pixeles de referencia generados se pueden obtener redondeando un promedio del pixel de referencia p y el pixel de referencia q. Asimismo, se pueden generar los valores de pixeles de referencia usando un cambio en la diferencia entre valores de pixeles del pixel de referencia p y del pixel de referencia q. En este caso, los valores de pixeles de referencia se pueden generar por interpolación lineal determinada de acuerdo con posiciones que corresponden a los pixeles que se generarán o utilizando un promedio ponderado de los dos pixeles de referencia.
Mientras tanto, cuando una pluralidad de unidades de predicción están en un lado superior de la unidad de predicción actual, existe una alta posibilidad de que una diferencia entre pixeles de limítrofes presentes en ambos lados de un límite entre dos de las unidades de predicción superiores sea mayor que una diferencia entre pixeles adyacentes en cada unidad de predicción superior. Esto resulta de un error ocasionado por un parámetro de cuantización. Es bastante probable que el error ocurrirá en modos de intrapredicción direccional en los cuales se genera un bloque de predicción usando dos pixeles de referencia adyacentes .
En particular, los modos (números de modo 3, 6 y 9) que tienen una dirección de 45° con referencia a la dirección horizontal o vertical de la figura 3 son los más seriamente afectados. En los modos vertical y horizontal (números de modo 0 y 1) , un píxel se utiliza para generar un píxel de predicción del bloque de predicción, y por lo tanto los modos vertical y horizontal se afectan ligeramente.
Por esta razón, se aplica un filtro (un filtro de suavizado) a los píxeles de referencia en los modos de intrapredicción direccional 3, 6 y 9, y no se aplica a los píxeles de referencia en los modos de intrapredicción vertical y horizontal. En el modo de DC de entre los modos de intrapredicción no direccional, el filtro tampoco se aplica a píxeles de referencia. Para estos modos, se puede determinar si ha de aplicarse o no el filtro independientemente del tamaño de la unidad de predicción actual.
En los modos de intrapredicción direccional que existen entre el modo de intrapredicción 3, 6 ó 9 y el modo de intrapredicción horizontal o vertical, el filtro (el filtro de suavizado) puede aplicarse adaptativamente a píxeles de referencia de acuerdo con el tamaño de la unidad de predicción. Es preferible aumentar una probabilidad de aplicar el filtro (el filtro de suavizado) cuando la dirección del modo de intrapredicción direccional está relativamente más cerca de la dirección del modo de intrapredicción que tiene la dirección de 45°. Específicamente, cuando un primer modo direccional está más cerca en directividad al modo de intrapredicción que tiene la dirección de 45° que un segundo modo direccional, si se aplica el filtro a los pixeles de referencia en el segundo modo direccional, el filtro también se aplica a los pixeles de referencia en el primer modo direccional. Por otro lado, si se aplica el filtro a los pixeles de referencia en el primer modo direccional, el filtro puede o no aplicarse a los pixeles de referencia en el segundo modo direccional.
Existe una alta posibilidad que un cambio en diferencia entre pixeles en una unidad de predicción de un tamaño grande sea menor que un cambio en diferencia entre pixeles en una unidad de predicción de un tamaño pequeño. Por lo tanto, el número de modos direccionales en los que se aplica el filtro puede aumentar o el filtro más fuerte se puede aplicar cuando el tamaño de la unidad de predicción aumenta. Por otro lado, cuando la unidad de predicción se hace más pequeña que un tamaño especifico, el filtro puede no aplicarse.
Como un ejemplo, en el intrapredicción 3, 6 ó 9, un primer filtro puede aplicarse a pixeles de referencia de una unidad de predicción que tiene un tamaño igual o menor que un primer tamaño, y un segundo filtro que es más fuerte que el primer filtro se puede aplicar a pixeles de referencia de una unidad de predicción que tiene un tamaño más grande que el primer tamaño . El primer tamaño puede variar de acuerdo con los modos de predicción direccionales.
Como otro ejemplo, en el modo de intrapredicción 5 que existe entre el modo de intrapredicción vertical y el modo de intrapredicción 6, puede no aplicarse un filtro a una unidad de predicción que tiene un tamaño igual o menor que un segundo tamaño, el primer filtro se puede aplicar a píxeles de referencia de una unidad de predicción que tiene un tamaño más grande que el segundo tamaño e igual o menor que un tercer tamaño, y el segundo filtro se puede aplicar a una unidad de predicción que tiene un tamaño más grande que el tercer tamaño. El segundo tamaño y el tercer tamaño pueden variar de acuerdo con los modos de predicción direccionales .
El primer filtro puede ser un filtro de 3 coeficientes [1, 2, 1] o un filtro de 5 coeficientes [1, 2, 4, 2, 1] . El segundo filtro tiene un efecto de suavizado mayor que el primer filtro.
El generador de bloques de predicción 143 genera un bloque de predicción usando píxeles de referencia determinados por el modo de intrapredicción.
En el. modo de intrapredicción direccional, los píxeles de referencia correspondientes varían de acuerdo con el modo de intrapredicción. Por ejemplo, en el modo vertical, se usan los píxeles de referencia superiores L ubicados en (x = 0, y L-l, y = -1), y en el modo horizontal, se usan los píxeles de referencia izquierdos L ubicados en (x = -1, y = 0, ... , y L-l) .
En el modo de intrapredicción no direccional, se utilizan el píxel de esquina, los píxeles de referencia superiores L ubicados en (x = 0, y L-l, y = -1) y los píxeles de referencia izquierdos L ubicados en (x = -1, y = 0, ... , y L-l) . El modo de intrapredicción no direccional es el modo de DC o el modo plano.
En el, modo plano, se genera un píxel de referencia de un bloque de predicción utilizando el píxel de referencia de esquina, un píxel de referencia izquierdo y un píxel de referencia superior. Cuando un píxel de referencia que va a generarse está ubicado en (a, b) , se genera un píxel de predicción X(a, b) usando el píxel de referencia de esquina C(x = -1, y = -1), un píxel de referencia superior T(x = a, y = -1) y un píxel de referencia izquierdo L(x = -1, y = b) . Específicamente, X(a, b) puede ser L(x = -1, y = b) + T(x = a, y = -1) - C(x = -1, y = -1) .
En el modo de intrapredicción que existe en el lado derecho del modo vertical (el número de modo es 0) de la figura 3, aumentará una posibilidad de que las diferencias entre píxeles de una región izquierda inferior del bloque de predicción generado y los píxeles correspondientes de la unidad de predicción original aumentarán si el bloque de predicción se genera usando solo píxeles de referencia superiores. Sin embargo, cuando se genera un bloque de predicción usando píxeles de referencia superiores y píxeles de referencia izquierdos, se puede reducir la diferencia. Este efecto es el más grande en el modo de intrapredicción 6. También en modos de intrapredicción que existen bajo el modo horizontal (el número de modo es 1) de la figura 3, se puede aplicar el mismo método, y el efecto es el más grande en el modo de intrapredicción 9.
Por lo tanto, en el modo de intrapredicción 6 ó 9, se puede generar un píxel de predicción utilizando un píxel de referencia de interpolación superior correspondiente (por ejemplo, ubicado a 45° del píxel de predicción) y un píxel de referencia de interpolación izquierdo. El píxel de predicción se puede generar por interpolación lineal del píxel de referencia de interpolación superior y el píxel de referencia de interpolación izquierdo o usando un promedio redondeado. Similarmente, en. un número predeterminado de modos de intrapredicción adyacentes al modo 6 ó 9, se puede generar un bloque de predicción utilizando los píxeles de referencia izquierdos y los píxeles de referencia superiores. Por ejemplo, en el modo de intrapredicción 6 ó en el modo que pertenece al número predeterminado de (por ejemplo, cuatro) modos de predicción adyacentes al modo 6, se pueden usar los píxeles de referencia izquierdos y los píxeles de referencia superiores para generar un bloque de predicción. En este caso, para reducir la complejidad, el método antes mencionado puede no aplicarse en modos de intrapredicción que tienen números de modos mayores que un número de modos predeterminado (por ejemplo 9, ó 17) . También, el método puede aplicarse a solo una unidad de predicción que tiene un tamaño igual o mayor que un tamaño predeterminado. El tamaño predeterminado e 8 x 8 ó l6 x l6.
El postprocesador de bloques de predicciones 144 filtra adaptativamente el bloque de predicción generado por el generador de bloques de predicciones 143. Para reducir las diferencias entre un píxel de referencia y píxeles adyacentes al píxel de referencia, el postprocesador de bloques de predicciones 144 filtra adaptativamente algunos o todos los píxeles adyacentes al bloque de píxeles de referencia de acuerdo con el modo de intrapredicción. Los píxeles adyacentes al píxel de referencia existe en el bloque de predicción.
En el modo plano, se generan los píxeles adyacentes al píxel de referencia usando el píxel de referencia, y por lo tanto no se aplica ningún filtro.
En el modo de DC se usa un promedio de píxeles de referencia, y por lo tanto se aplica un filtro. Puede usarse un tipo diferente de filtro de acuerdo con el tamaño de la unidad de predicción. Para una unidad de predicción de un tamaño grande, se puede utilizar un filtro que es el mismo que el utilizado en una unidad de predicción de un tamaño pequeño o un filtro fuerte que tiene un gran efecto de suavizado.
Por otro lado, en los modos de intrapredicción que existen en el lado derecho del modo vertical (número de modo 0) de la figura 3, si se genera el bloque de predicción usando solo píxeles de referencia superiores, existe una posibilidad de que una diferencia entre un píxel en el bloque de predicción generado y el píxel correspondiente de la unidad de predicción original aumente cuando la posición del píxel en el bloque de predicción generado esté descendiendo a la región inferior izquierda. En particular, la diferencia aumenta notablemente en el modo de intrapredicción 6.
Similarmente, en los modos de intrapredicción que existen bajo el modo horizontal (número de modo 1) de la figura 3, si se genera un bloque de predicción usando solo píxeles de referencia izquierdos, existe una posibilidad de que una diferencia entre un píxel en el bloque de predicción y el píxel correspondiente de la unidad de predicción original aumente cuando la posición del píxel en el bloque de predicción generado esté subiendo a la región superior derecha. La diferencia aumenta notablemente en el modo de intrapredicción 9.
En el modo vertical (número de modo 0), una diferencia entre un píxel en el bloque de predicción y el píxel correspondiente de la unidad de predicción original aumenta cuando desciende la posición del píxel. En el modo horizontal (número de modo 1) , una diferencia entre un píxel en el bloque de predicción y el plxel correspondiente de la unidad de predicción original aumenta cuando la posición del píxel se mueve a la derecha.
Por lo tanto, para reducir la diferencia, algunos píxeles de predicción en el bloque de predicción pueden filtrarse adaptativamente de acuerdo con el modo de intrapredicción direccional. En este caso, algunos píxeles de predicción en el bloque de predicción son filtrados usando píxeles de referencia en la unidad de predicción no utilizada para generar el bloque de predicción.
Se puede establecer una región para filtrar de manera diferente de acuerdo con un modo de intrapredicción direccional. Cuando una dirección del modo de intrapredicción se aproxima al modo 6 ó al modo 9, la región a filtrar puede hacerse más grande o permanecer igual .
Como un ejemplo, cuando un tamaño de una unidad de predicción es 2N x 2N en el modo de intrapredicción 6, se puede aplicar un filtro a solo un número predeterminado (1-3) de modos de intrapredicción adyacentes al modo de intrapredicción 6 de entre modos de intrapredicción que existen del lado derecho del modo vertical (número de modo 0). En este caso para reducir la complejidad, puede no aplicarse ningún filtro al modo de intrapredicción que tiene un número de modo mayor que un número de modo predeterminado (por ejemplo, 9 ó 17) . Asimismo, algunos pixeles en el bloque de predicción pueden filtrarse adaptativamente de acuerdo con un tamaño de la unidad de predicción. Cuando el tamaño de la unidad de predicción aumenta, el número de pixeles a filtrar puede aumentar o permanecer igual .
Como otro ejemplo, en el modo de intrapredicción 6, el bloque de predicción puede no filtrarse si el tamaño de la unidad de predicción es 4 x 4. Si el tamaño de la unidad de predicción es 8 x 8 ó 16 x 16, solo pueden filtrarse cuatro pixeles limítrofes izquierdos del bloque de predicción de entre ocho pixeles ubicados en (x = 0, y = 0, ..., y 7) . Si el tamaño de la unidad de predicción es 32 x 32 ó mayor, los ocho pixeles limítrofes pueden filtrarse.
La fuerza del filtro que se aplicará a los pixeles en el bloque de predicción también puede varar de acuerdo con el tamaño de la unidad de predicción. Cuando el tamaño de la unidad de predicción aumenta, la fuerza del filtro puede aumentar o permanecer igual .
El determinador de modos de predicción 145 determina el modo de intrapredicción de la unidad de predicción actual usando pixeles de referencia. El determinador de modos de predicción 145 puede determinar un modo de intrapredicción con bits codificados mínimos anticipados de un bloque residual como un modo de intrapredicción de la unidad de predicción actual. Aquí, el bloque residual se genera usando un bloque de predicción que corresponde a cada modo de intrapredicción o un bloque de predicción postprocesado.
El codificador de modos de predicción 146 codifica el modo de intrapredicción de la unidad de predicción actual usando modos de intrapredicción de unidades de predicción adyacentes a la unidad de predicción actual.
La figura 4 es un diagrama de flujo que ilustra un proceso de codificación de un modo de intrapredicción de una unidad de predicción actual realizado en un codificador de modos de predicción 146 de conformidad con la presente invención .
En primer lugar, se buscan los candidatos de modos de predicción de una unidad de predicción actual para (S110) . Un modo de intrapredicción superior y un modo de intrapredicción izquierdo de la unidad de predicción actual pueden ser los candidatos de modos de intrapredicción. También puede añadirse un modo de intrapredicción de esquina, o puede añadirse cualquier otro modo de acuerdo con el modo de intrapredicción superior y el modo de intrapredicción izquierdo.
Cuando existen una pluralidad de unidades de predicción superiores de la unidad de predicción actual, la pluralidad de unidades de predicción superiores se escanean en una dirección predeterminada (por ejemplo, de izquierda a derecha) para determinar el modo de intrapredicción de una primera unidad de predicción disponible como el modo de intraprediccion superior. Asimismo, cuando existen una pluralidad de unidades de predicción izquierdas de la unidad de predicción actual, la pluralidad de unidades de predicción izquierdas se escanean en una dirección predeterminada (por ejemplo, de abajo hacia arriba) para determinar el modo de intraprediccion de una primera unidad de predicción disponible como un modo de intrapredicción izquierdo. Alternativamente, de entre una pluralidad de unidades de predicción disponibles, el modo de intrapredicción de una unidad de predicción disponible que tiene el numero de modo de intrapredicción más bajo se puede establecer como el modo de intrapredicción superior.
El modo de intrapredicción de esquina se puede establecer como un modo de predicción de una unidad de predicción adyacente al lado superior derecho o al lado superior izquierdo de la unidad de predicción actual. Alternativamente, el modo de intrapredicción de esquina puede establecerse como un primer modo de intrapredicción disponible obtenido escaneando modos de intrapredicción adyacentes al lado superior izquierdo, al lado superior derecho y a un lado inferior derecho de la unidad de predicción actual en un orden predeterminado. El orden predeterminado es el lado superior izquierdo, el lado inferior derecho y el lado superior derecho.
Alternativamente, dos (lado superior derecho y lado superior izquierdo) o tres (lado superior derecho, lado superior izquierdo y lado inferior izquierdo) modos de intrapredicción de esquina se pueden añadir como candidatos de modos de intrapredicción de la unidad de predicción actual.
Enseguida, se determina si se cambia o no el modo de intrapredicción de los candidatos de modos de intrapredicción disponibles (S120) .
Cuando se determina cambiar el modo de intrapredicción, se cambia el candidato de modo de intrapredicción disponible (S130) .
De manera detallada, cuando el número de modo del candidato de modo de intrapredicción disponible es igual o mayor que el número de modos de intrapredicción permisibles para la unidad de predicción actual, el candidato de modo de intrapredicción disponible se convierta a uno de los modos permisibles. El número de modos permisibles puede variar de acuerdo con un tamaño de la unidad de predicción actual. Por ejemplo, cuando el tamaño de la unidad de predicción actual 4 x 4, el modo de intrapredicción del candidato de modo de intrapredicción disponible se convierte a uno de nueve modos (modo 0 a modo 8) ó 18 modos, y cuando el tamaño de la unidad de predicción actual es 64 x 64, el modo de intrapredicción del candidato de modo de intrapredicción disponible se convierte a uno de cuatro modos (modo 0 a modo 2) .
Enseguida, se construye la lista de candidatos de intraprediccion de la unidad de predicción actual (S140) . Los candidatos pueden enumerarse en un orden numérico. Alternativamente, los candidatos pueden enumerarse en orden de frecuencia, y los candidatos de intraprediccion que tienen la misma frecuencia se pueden enumerar en el orden numérico de modos . Cuando los candidatos de modos de intraprediccion tienen el mismo número de modo, los candidatos de intraprediccion excepto uno se eliminan de la lista.
Enseguida, se determina si el modo de intraprediccion de la unidad de predicción actual es la misma que cualquiera de los candidatos de modos de intraprediccion en la lista construida (S150) .
Cuando el modo de intraprediccion de la unidad de predicción actual es la misma que uno de los candidatos de modos de intraprediccion, la información que indica que el modo de intraprediccion es igual que uno de los candidatos de modos de intraprediccion y un índice de candidatos se determinan como información de intraprediccion (S160) .
Cuando el modo de intraprediccion de la unidad de predicción actual no es igual que alguno de los candidatos de modos de intrapredicción, se calcula un valor de cambio de modo para cambiar el modo de intrapredicción de la unidad de predicción actual (S170) . El valor de cambio de modo es el número de candidatos de modos de intrapredicción que tienen un número de modos de intrapredicción que no es mayor que el número modos de intrapredicción de la unidad de predicción actual. El valor de cambio de modo se obtiene comparando los valores de modos de intrapredicción en la lista.
Enseguida, el modo de intrapredicción de la unidad de predicción actual cambia usando el valor de cambio de modo (S180) . El modo de intrapredicción cambiado se determina como el modo de intrapredicción de la unidad de predicción actual. El modo de intrapredicción cambiado de la unidad de predicción actual se transmite al codificador de entropía 140.
La figura 5 es un diagrama de bloques de un aparato decodificador de intrapredicción 200 de conformidad con la presente invención.
El aparato de decodificación de intrapredicción 200 de conformidad con la presente invención incluye un decodificador de entropía 210, un decodificador de señales residuales 220, un decodificador de modos de predicción 230, un generador de píxeles de referencia 240, un generador de bloques de predicción 250, un filtro de bloques de predicción 260 y un reconstructor de imágenes 270.
El decodificador de entropía 210 extrae coeficientes residuales cuantizados de un flujo de bits recibidos, y transmite los coeficientes residuales cuantizados y un tamaño de la unidad de transformación al decodificador de señales residuales 220 en unidades de las unidades de transformación. Asimismo, el decodificador de entropía 210 transmite información de intrapredicción y un tamaño de una unidad de predicción que se decodificará al decodificador de modos de predicción 230.
El decodificador de señales residuales 220 convierte los coeficientes residuales cuantizados a un bloque inversamente cuantizado de una disposición bidimensional (2D) . Para esta conversión, se selecciona uno de una pluralidad de patrones de escaneo. El patrón de escaneo del bloque de transformación se determina con base en por lo menos uno del modo de predicción y el modo de intrapredicción. Una operación de escaneo inverso es igual que un proceso de operación inversa del escáner 131 de la figura 1. Por ejemplo, cuando un tamaño de la unidad de transformación actual que será decodificada es mayor que un primer tamaño de referencia, los coeficientes residuales cuantizados se escanean inversamente para formar una pluralidad de subconjuntos de acuerdo con el patrón de escaneo, y se genera un bloque cuantizado inverso que tiene el tamaño de la unidad de transformación usando la pluralidad de subconjuntos . Por otro lado, cuando el tamaño de la unidad de transformación actual que se decodificará no es mayor que el primer tamaño de referencia, los coeficientes residuales cuantizados se escanean inversamente para generar un bloque cuantizado inverso que tiene el mismo tamaño que la unidad de transformación de acuerdo con el patrón de escaneo.
El decodificador de modos de predicción 230 reconstruye el modo de intrapredicción del modo de predicción actual con base en la información de intrapredicción y la información de tamaños en la unidad de predicción actual recibida del decodificador de entropía 210. La información de intrapredicción recibida se restaura a través de un proceso inverso del proceso mostrado en la figura 4.
El generador de píxeles de referencia 240 genera píxeles de referencia no disponibles de la unidad de predicción actual, y filtra adaptativamente los píxeles de referencia de acuerdo con el modo de intrapredicción de la unidad de predicción actual recibida del decodificador de modos de predicción 230. Un método de generación de píxeles de referencia y un método de filtrado de los píxeles de referencia son iguales que los del generador de píxeles de referencia 142 en el intrapredictor 140 de la figura 2.
Específicamente, se determina si están disponibles los píxeles de referencia de la unidad de predicción actual. Los píxeles de referencia de la unidad de predicción actual utilizada para intrapredicción consiste de un píxel de referencia de esquina ubicado en (x = -1, y = -1), píxeles de referencia superiores 2L ubicados en (x = 0, y 2L-1, y= -1) , y píxeles de referencia izquierdos 2M ubicados en (x = 0, y = 0, ..., y 2M-1) . En este caso L es una anchura de la unidad de predicción actual, y M es una altura de la unidad de predicción actual.
Cuando los pixeles de referencia para generar un bloque de predicción no están disponibles o son insuficientes, se generan pixeles de referencia.
Cuando no está disponible ningún píxel de referencia, los pixeles de referencia se generan con un valor predeterminado .
Cuando algunos de los pixeles de referencia no están disponibles, se determina si los pixeles de referencia no disponibles existen solo en una dirección de los pixeles disponibles o entre los pixeles disponibles .
Cuando existen pixeles de referencia no disponibles en solo una dirección de los pixeles disponibles, se generan pixeles de referencia copiando el valor de un pixel disponible más cercano al píxel no disponible. Por ejemplo, cuando la unidad de predicción actual se ubica en un límite superior de una imagen o una rebanada, el píxel de referencia de esquina y los pixeles de referencia superiores no están disponibles. Por lo tanto, en este caso, el píxel de referencia de esquina y los pixeles de referencia superiores se pueden generar copiando un píxel de referencia ubicado en (x = -1, y = 0) . Alternativamente, los pixeles de referencia se pueden generar utilizando un píxel de referencia disponible de la posición más cercana y uno o más pixeles de referencia disponibles. Por ejemplo, cuando el píxel de referencia de esquina que tiene una posición (x = l, y = -1) y los píxeles de referencia en las posiciones (x = 0, y L-l, y = 1) están disponibles y los píxeles de referencia en las posiciones (x = L, 2L-1, y = 1) no están disponibles, los píxeles de referencia en las posiciones no disponibles se pueden generar usando un cambio en la diferencia entre un píxel de referencia en una posición (x = Ll, y = -1) y un valor de píxeles de referencia de esquina u otro valor de píxeles de referencia.
Cuando existen píxeles de referencia no disponibles entre los píxeles disponibles, se generan píxeles de referencia usando dos píxeles disponibles p y q adyacentes a los píxeles de referencia no disponibles. Por ejemplo, cuando el píxel de referencia de esquina y los píxeles de referencia superiores L ubicados en (x = 0, ... , y L-l, y = -1) no están disponibles, se pueden generar píxeles de referencia entre el píxel de referencia p en una posición (x = -l, y = o) y el píxel de referencia q en una posición (x = L, y = -1) utilizando los píxeles de referencia p y q.
Los valores de píxeles de referencia generados se pueden obtener redondeando un promedio del píxel de referencia p y el píxel de referencia q. Asimismo, se pueden generar los valores de píxeles de referencia usando un cambio en la diferencia entre valores de píxeles del píxel de referencia p y del píxel de referencia q. En este caso, los valores de pixeles de referencia se pueden generar por interpolación lineal de acuerdo con posiciones que corresponden a los valores de pixeles que se generarán o utilizando un promedio ponderado de los dos pixeles de referencia.
Mientras tanto, cuando una pluralidad de unidades de predicción están en un lado superior de la unidad de predicción actual, existe una alta posibilidad de que una diferencia entre pixeles limítrofes presentes en ambos lados de un límite entre dos de las unidades de predicción superiores sea mayor que una diferencia entre pixeles adyacentes en cada unidad de predicción superior. Esto resulta de un error ocasionado por un parámetro de cuantización . Es bastante probable que el error ocurrirá en modos de intrapredicción direccional en los cuales se genera un bloque de predicción utilizando dos pixeles de referencia adyacentes .
En particular, los modos (números de modo 3, 6 y 9) que tienen una dirección de 45° con referencia a la dirección horizontal o vertical de la figura 3 son los más seriamente afectados . En los modos de intrapredicción vertical y horizontal (números de modo 0 y 1) , un píxel se usa para generar el bloque de predicción, y por lo tanto los modos de intrapredicción vertical y horizontal son ligeramente afectados.
Por esta razón, se aplica un filtro (filtro de suavizado) a los píxeles de referencia en los modos de intrapredicción direccional 3, 6 y 9, y no se aplica a los píxeles de referencia en los modos de intrapredicción vertical y horizontal. En el modo de DC de entre los modos de intrapredicción no direccional, el filtro tampoco se aplica. Para estos modos, se puede determinar si ha de aplicarse o no el filtro independientemente de un tamaño de la unidad de predicción actual.
En los modos de intrapredicción direccional que existen entre el modo de intrapredicción 3, 6 ó 9 y el modo de intrapredicción horizontal o vertical, el filtro (filtro de suavizado) puede aplicarse adaptativamente a píxeles de referencia. Es preferible aumentar una probabilidad de aplicar el filtro (filtro de suavizado) cuando la dirección del modo de intrapredicción direccional está relativamente más cerca de la dirección del modo de intrapredicción que tiene la dirección de 45°. Específicamente, cuando un primer modo direccional está más cerca en directividad al modo de intrapredicción que tiene la dirección de 45° que un segundo modo de intrapredicción direccional, si se aplica un filtro al segundo modo de intrapredicción direccional, el filtro también se aplica al primer modo de intrapredicción direccional. Por otro lado, si se aplica el filtro al primer modo de intrapredicción direccional, el filtro puede o no aplicarse al segundo modo de intrapredicción direccional.
Existe una alta posibilidad que un cambio en diferencia entre pixeles en una unidad de predicción de un tamaño grande sea menor que un cambio en diferencia entre pixeles en una unidad de predicción de un tamaño pequeño. Por lo tanto, el número de modos direccionales en los que se aplica el filtro puede aumentar o puede aplicarse el filtro más fuerte cuando el tamaño de la unidad de predicción aumenta. Por otro lado, cuando una unidad de predicción se hace más pequeña que un tamaño específico, el filtro puede no aplicarse.
Como un ejemplo, en el modo de intrapredicción 3, 6 ó 9 que tiene la dirección de 45°, se puede aplicar un primer filtro a una unidad de predicción que tiene un tamaño igual o menor que un primer tamaño, y se puede aplicar un segundo filtro que es más fuerte que el primer filtro a una unidad de predicción que tiene un tamaño más grande que el primer tamaño . El primer tamaño puede variar de acuerdo con los modos de predicción direccionales .
Como otro ejemplo, en el modo de intrapredicción 5 que existe entre el modo de intrapredicción vertical y el modo de intrapredicción 6 que tiene la dirección de 45°, puede no aplicarse ningún filtro a una unidad de predicción que tiene un tamaño igual o menor que un segundo tamaño, el primer filtro se puede aplicar a una unidad de predicción que tiene un tamaño más grande que el segundo tamaño e igual o menor que un tercer tamaño, y el segundo filtro se puede aplicar a una unidad de predicción que tiene un tamaño más grande que el tercer tamaño. El segundo tamaño y el tercer tamaño pueden variar de acuerdo con los modos de predicción direccionales .
El primer filtro puede ser un filtro de 3 coeficientes [1, 2, 1] o un filtro de 5 coeficientes [1, 2, 4, 2, 1] . El segundo filtro tiene un efecto de suavizado mayor que el primer filtro.
El generador de bloques de predicción 250 genera un bloque de predicción de acuerdo con el modo de intrapredicción de la unidad de predicción actual recibida del decodificador de modos de predicción 230. Un método de generación del bloque de predicción es igual que el del generador de bloques de predicción 142 en el intrapredictor 140 de la figura 2.
Es decir, en el modo de intrapredicción direccional, los pixeles de referencia correspondientes varían de acuerdo con los modos de intrapredicción. Por ejemplo, en el modo vertical, se usan los pixeles de referencia superiores L ubicados en (x = 0, y L-l, y = -1), y en el modo horizontal, se usan los pixeles de referencia izquierdos L ubicados en (x = -1, y = 0, y L-l).
En los modos de intrapredicción no direccionales, se utilizan el píxel de esquina, los pixeles de referencia superiores L ubicados en (x = 0, y L-l, y = -1) y los pixeles de referencia izquierdos L ubicados en (x = -1, y = 0, y L-l) . Los modos de intrapredicción no direccionales son el modo de DC y el modo plano.
En el modo plano, se genera un píxel de referencia de un bloque de predicción usando el píxel de referencia de esquina, un píxel de referencia izquierdo y un píxel de referencia superior. Cuando un píxel de referencia que va a generarse está ubicado en (a, b) , se genera el píxel de referencia del bloque de predicción X(a, b) usando el píxel de referencia de esquina C(x = -1, y = -1), un píxel de referencia superior T(x = a, y = -1) y un píxel de referencia izquierdo L(x = -1, y = b) . Específicamente, X(a, b) puede ser L(x = -1, y = b) + T(x = a, y = -1) - C(x = -1, y = -1) .
En el modo de intrapredicción que existe en el lado derecho del modo vertical (número de modo 0) de la figura 3, existe la posibilidad de que aumentarán las diferencias entre pixeles de una región inferior izquierda del bloque de predicción generado y los pixeles de la unidad de predicción original si el bloque de predicción se genera usando solo pixeles de referencia superiores. Sin embargo, cuando se genera un bloque de predicción usando pixeles de referencia superiores y pixeles de referencia izquierdos para varios modos entre los modos, se puede reducir la diferencia. Este efecto es el mayor en el modo de intrapredicción 6. También en modos de intrapredicción que existen bajo el modo horizontal (número de modo 1) de la figura 3, se puede aplicar el mismo método, y el efecto es el mayor en el modo de intrapredicción 9.
Por lo tanto, en el modo de predicción 6 ó 9, se puede generar un píxel de predicción utilizando un píxel de referencia de interpolación superior correspondiente (por ejemplo, ubicado a 45° del píxel de predicción) y un píxel de referencia de interpolación izquierdo. El píxel de predicción se puede generar por interpolación lineal del píxel de referencia de interpolación superior y del píxel de referencia de interpolación izquierdo o usando un promedio redondeado. Similarmente, en un número predeterminado de modos de intrapredicción adyacentes al modo 6 ó 9, se puede generar un bloque de predicción utilizando los píxeles de referencia izquierdos y los píxeles de referencia superiores. En este caso, para reducir la complejidad, el método antes mencionado puede no aplicarse en modos de intrapredicción que tienen números de modos mayores que un número de modos predeterminado (por ejemplo 9, ó 17) . También, el método puede aplicarse a solo una unidad de predicción que tiene un tamaño igual o mayor que un tamaño predeterminado. El tamaño predeterminado es 8 x 8 ó 16 x 16.
El postprocesador de bloques de predicciones 260 filtra adaptativamente el bloque de predicción generado por el generador de bloques de predicción 250 de acuerdo con el modo de intrapredicción de la unidad de predicción actual recibida del decodificador de modos de predicción 230. El postprocesador de bloques de predicción puede integrarse en el generador de bloques de predicción 250. Un método de filtración de bloques de predicción es igual que el del postprocesador de bloques de predicción 144 del intrapredictor 140 de la figura 2.
Es decir, para reducir las diferencias en valores de píxeles entre un píxel de referencia y píxeles en el bloque de predicción adyacente al píxel de referencia, el filtro de bloques de predicción 260 filtra adaptativamente algunos o todos los píxeles en el bloque de predicción adyacentes al píxeles de referencia de acuerdo con el modo de intrapredicción. Los píxeles adyacentes al píxel de referencia existen en el bloque de predicción.
En el modo plano, se generan píxeles en el bloque de predicción adyacente a un píxel de referencia usando el píxel de referencia, y por lo tanto no se aplica ningún filtro.
En el modo de DC, se usa un promedio de píxeles de referencia para generar un píxel de predicción, y por lo tanto se aplica un filtro. Puede usarse un tipo diferente de filtro de acuerdo con el tamaño de la unidad de predicción (el tamaño del bloque de predicción) . En una unidad de predicción de un tamaño grande, se puede utilizar un filtro que es el mismo que el utilizado en una unidad de predicción de un tamaño pequeño o un filtro fuerte que tiene un gran efecto de suavizado.
Por otro lado, en los modos de intrapredicción que existen en el lado derecho del modo vertical (número de modo 0) de la figura 3, si se genera el bloque de predicción usando solo píxeles de referencia superiores, existe una posibilidad de que una diferencia entre un píxel en el bloque de predicción generado y el píxel correspondiente de la unidad de predicción original aumente cuando la posición del píxel en el bloque de predicción generado esté descendiendo a la región inferior izquierda. En particular, la diferencia aumenta notablemente en el modo de intrapredicción 6.
Similarmente, en los modos de intrapredicción que existen bajo el modo horizontal (número de modo 1) de la figura 3, si se genera un bloque de predicción usando solo píxeles de referencia izquierdos, existe una posibilidad de que una diferencia entre un píxel en el bloque de predicción generado y el píxel correspondiente de la unidad de predicción original aumente cuando la posición del píxel en el bloque de predicción generado ascienda a la región superior derecha. La diferencia aumenta notablemente en el modo de intrapredicción 9.
En el modo vertical (número de modo 0) , una diferencia entre un píxel en el bloque de predicción y el píxel correspondiente de la unidad de predicción original aumenta cuando desciende la posición del píxel. En el modo horizontal (número de modo 1) , una diferencia entre un píxel en el bloque de predicción y el píxel correspondiente de la unidad de predicción original aumenta cuando la posición del píxel se mueve a la derecha.
Por lo tanto, para reducir la diferencia, algunos píxeles de predicción en el bloque de predicción pueden filtrarse adaptativamente de acuerdo con el modo de intrapredicción direccional. En este caso, algunos píxeles de predicción en el bloque de predicción son filtrados usando píxeles de referencia en la unidad de predicción no utilizada para generar el bloque de predicción.
Se puede establecer una región que será filtrada de manera diferente de acuerdo con un modo de intrapredicción direccional. Cuando una dirección del modo de intrapredicción se aproxima al modo 6 ó al modo 9, la región a filtrar puede hacerse más grande o permanecer igual .
Como un ejemplo, cuando un tamaño de una unidad de predicción es 2N x 2N en el modo de intrapredicción 6, se puede aplicar un filtro a solo un número predeterminado (1-3) de modos de intrapredicción adyacentes al modo de intrapredicción 6 entre los modos de intrapredicción que existen del lado derecho del modo vertical (número de modo 0) . En este caso para reducir la complejidad, puede no aplicarse ningún filtro al modo de intrapredicción que tiene un número de modo mayor que un número de modo predeterminado (por ejemplo, 9 ó 17) . Asimismo, algunos píxeles en el bloque de predicción pueden filtrarse adaptativamente de acuerdo con un tamaño de la unidad de predicción. Cuando el tamaño de la unidad de predicción aumenta, el número de píxeles a filtrar puede aumentar o permanecer igual .
Como otro ejemplo, en el modo de intrapredicción 6, el bloque de predicción puede no filtrarse si el tamaño de la unidad de predicción es 4 x 4. Si el tamaño de la unidad de predicción es 8 x 8 ó 16 x 16, solo pueden filtrarse cuatro píxeles limítrofes izquierdos del bloque de predicción de entre ocho píxeles ubicados en (x = 0, y = 0, ... , y 7) . Si el tamaño de la unidad de predicción es 32 x 32 ó mayor, se pueden filtrar los ocho píxeles limítrofes.
La fuerza del filtro que se aplicará a los píxeles en el bloque de predicción también puede varar de acuerdo con el tamaño de la unidad de predicción. Cuando el tamaño de la unidad de predicción aumenta, la fuerza del filtro puede aumentar o permanecer igual .
El reconstructor de imágenes 270 recibe un bloque de predicción del generador de bloques de predicción 250 ó del filtro de bloques de predicción 260 en unidades de las unidades de predicción de acuerdo con el modo de intrapredicción. El reconstructor de imágenes 270 recibe un bloque residual reconstruido por el decodificador de señales 220 en unidades de las unidades de transformación. El reconstructor de imágenes 270 genera una imagen reconstruida adicionando el bloque de predicción recibido y el bloque residual. La imagen puede reconstruirse en unidades de las unidades de codificación.
Aunque la invención se ha mostrado y descrito con referencia a ciertas modalidades de ejemplo de la misma, aquellos con experiencia en la técnica entenderán que pueden hacerse varios cambios en la forma y los detalles sin alejarse del espíritu y alcance de la invención como lo definen las reivindicaciones anexas.
Se hace constar que con relación a esta fecha, el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.

Claims (7)

REIVINDICACIONES Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes reivindicaciones :
1. Un aparato de decodificación de intrapredicción, caracterizado porque comprende: un decodificador de entropía configurado para restaurar coeficientes residuales cuantizados, información de intrapredicción e información de tamaños en una unidad de predicción de un flujo de bits recibido; un decodificador de modos de predicción configurado para restaurar un modo de intrapredicción de la unidad de predicción actual con base en la información de intrapredicción y la información de tamaños en la unidad de predicción actual recibida del decodificador de entropía; un decodificador de señales residuales configurado para restaurar una señal residual de acuerdo con un modo de intrapredicción recibido del decodificador de modos de predicción; un generador de píxeles de referencia configurado para restaurar píxeles de referencia no disponibles de la unidad de predicción actual, y filtrar adaptativamente los píxeles de referencia con base en el modo de intrapredicción de la unidad de predicción actual recibido del decodificador de modos de predicción; un generador de bloques de predicción configurado para general un bloque de predicción usando los pixeles de referencia que corresponden al modo de intrapredicción recibido del decodificador de modos de predicción; un filtro de bloques de predicción configurado para filtrar adaptativamente el bloque de predicción generado del generador de bloques de predicción de acuerdo con el modo de intrapredicción recibido del decodificador de modos de predicción; y un reconstructor de imágenes configurado para recibir el bloque de predicción del generador de bloques de predicción o del filtro de bloques de predicción en unidades de las unidades de predicción de acuerdo con el modo de intrapredicción recibido del decodificador de modos de predicción, y generar una imagen reconstruida usando un bloque residual restaurado recibido del decodificador de señales residuales.
2. El aparato de decodificación de intrapredicción de conformidad con la reivindicación 1, caracterizado porque el generador de pixeles de referencia filtra adaptativamente los pixeles de referencia de acuerdo con un tamaño de una unidad de predicción en modos de intrapredicción que tienen una dirección entre el modo de intrapredicción 3, 6 ó 9 que tiene una dirección de 45° y el modo horizontal o el modo vertical.
3. El aparato de decodificación de intrapredicción de conformidad con la reivindicación 1, caracterizado porque el generador de pixeles de referencia no aplica ningún filtro a los pixeles de referencia de una unidad de predicción más pequeña que un tamaño predeterminado.
4. El aparato de decodificación de intrapredicción de conformidad con la reivindicación 1, caracterizado porque, cuando, entre un primer modo direccional y un segundo modo direccional presentes entre un modo horizontal o un modo vertical y un modo de intrapredicción 3, 6 ó 9 que tiene una dirección de 45° con respecto al modo horizontal o el modo vertical, el primer modo direccional tiene directividad más cercana al modo de intrapredicción que tiene la dirección de 45° que el segundo modo direccional, si el generador de pixeles de referencia aplica un filtro a pixeles de referencia del segundo modo direccional, el generador de pixeles de referencia también aplica el filtro a los pixeles de referencia del primer modo direccional.
5. El aparato de decodificación de intrapredicción de conformidad con la reivindicación 1, caracterizado porque el modo de intrapredicción es un modo plano, el generador de bloques de predicción genera pixeles predichos del bloque de predicción usando un píxel de referencia de esquina, un pixel de referencia izquierdo y un píxel de referencia superior.
6. El aparato de decodificación de intrapredicción de conformidad con la reivindicación 1, caracterizado porque cuando el modo de intrapredicción es un modo vertical, el generador de píxeles de referencia no filtra los píxeles de referencia, y el filtro de bloques de predicción utiliza píxeles de referencia que no se han utilizado para generar el bloque de predicción para filtrar algunos píxeles en el bloque de predicción .
7. El aparato de decodificación de intrapredicción de conformidad con la reivindicación 1, caracterizado porque cuando el modo de intrapredicción es un modo de intrapredicción que tiene una dirección de 45° con respecto a un modo vertical (número de modo 6) o entre un número predeterminado de modos de intrapredicción que tienen directividad cercana al modo de intrapredicción, el generador de bloques de predicción genera el bloque de predicción utilizando píxeles de referencia superiores y píxeles de referencia izquierdos.
MX2013001232A 2010-07-31 2011-07-29 Dispositivo de decodificacion de intraprediccion. MX2013001232A (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20100074460 2010-07-31
KR1020110063288A KR20120012385A (ko) 2010-07-31 2011-06-28 인트라 예측 부호화 장치
PCT/KR2011/005590 WO2012018197A2 (ko) 2010-07-31 2011-07-29 인트라 예측 복호화 장치

Publications (1)

Publication Number Publication Date
MX2013001232A true MX2013001232A (es) 2013-03-12

Family

ID=45559905

Family Applications (5)

Application Number Title Priority Date Filing Date
MX2015001383A MX336419B (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen en movimiento.
MX2015001380A MX336416B (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen en movimiento.
MX2015001381A MX336417B (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen en movimiento.
MX2015001382A MX336418B (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen en movimiento.
MX2013001232A MX2013001232A (es) 2010-07-31 2011-07-29 Dispositivo de decodificacion de intraprediccion.

Family Applications Before (4)

Application Number Title Priority Date Filing Date
MX2015001383A MX336419B (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen en movimiento.
MX2015001380A MX336416B (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen en movimiento.
MX2015001381A MX336417B (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen en movimiento.
MX2015001382A MX336418B (es) 2010-07-31 2011-07-29 Aparato para decodificar una imagen en movimiento.

Country Status (19)

Country Link
US (11) US9307246B2 (es)
EP (11) EP3059954B1 (es)
JP (10) JP5997152B2 (es)
KR (13) KR20120012385A (es)
CN (13) CN106303532B (es)
CY (5) CY1117856T1 (es)
DK (5) DK3059956T3 (es)
ES (11) ES2720581T3 (es)
HR (5) HRP20160911T1 (es)
HU (11) HUE030354T2 (es)
LT (4) LT3051815T (es)
MX (5) MX336419B (es)
PL (11) PL3059953T3 (es)
PT (5) PT3051815T (es)
RS (5) RS55052B1 (es)
SI (5) SI3051815T1 (es)
SM (1) SMT201600168B (es)
TR (7) TR201809836T4 (es)
WO (1) WO2012018197A2 (es)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
RS54213B1 (en) * 2010-04-23 2015-12-31 M&K Holdings Inc. PICTURE CODING DEVICE
CN105516723B (zh) 2010-09-30 2018-07-27 三菱电机株式会社 运动图像编码装置及方法、运动图像解码装置及方法
US9008175B2 (en) 2010-10-01 2015-04-14 Qualcomm Incorporated Intra smoothing filter for video coding
WO2012134046A2 (ko) 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
GB2505345B (en) 2011-04-25 2018-05-09 Lg Electronics Inc Intra-prediction method, and encoder and decoder using same
KR20120140181A (ko) 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
MX365013B (es) * 2011-08-29 2019-05-20 Ibex Pt Holdings Co Ltd Metodo para generar un bloque de prediccion en modo de prediccion de vector de movimiento avanzada (amvp).
JP2013093792A (ja) * 2011-10-27 2013-05-16 Sony Corp 画像処理装置および方法
KR20130049523A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
KR20130049526A (ko) 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
CN103636209B (zh) 2012-06-08 2017-09-26 太阳专利托管公司 图像解码方法和图像解码装置
WO2014002407A1 (ja) 2012-06-27 2014-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
JP6301932B2 (ja) 2012-10-01 2018-03-28 ジーイー ビデオ コンプレッション エルエルシー エンハンスメント層の中の変換係数ブロックの副ブロックに基づいた符号化を使用するスケーラブルビデオ符号化
JP6391018B2 (ja) * 2013-07-01 2018-09-19 サン パテント トラスト 画像符号化方法、及び、画像符号化装置
JP6253406B2 (ja) * 2013-12-27 2017-12-27 キヤノン株式会社 画像符号化装置、撮像装置、画像符号化方法、及びプログラム
WO2017030418A1 (ko) * 2015-08-19 2017-02-23 엘지전자(주) 다중 그래프 기반 모델에 따라 최적화된 변환을 이용하여 비디오 신호를 인코딩/ 디코딩하는 방법 및 장치
MX2018001540A (es) * 2015-09-10 2018-05-17 Samsung Electronics Co Ltd Dispositivo de codificacion, dispositivo de decodificacion y metodo de codificacion y decodificacion para los mismos.
CN106550238B (zh) * 2015-09-16 2019-09-13 福州瑞芯微电子股份有限公司 一种图像处理方法及系统
WO2017135692A1 (ko) * 2016-02-02 2017-08-10 엘지전자(주) 픽셀 순환 코딩과 변환 코딩의 결합에 기초하여 비디오 신호를 처리하는 방법 및 장치
US20190037217A1 (en) * 2016-02-16 2019-01-31 Samsung Electronics Co., Ltd. Video encoding method and apparatus, and decoding method and apparatus therefor
KR20170108367A (ko) * 2016-03-17 2017-09-27 세종대학교산학협력단 인트라 예측 기반의 비디오 신호 처리 방법 및 장치
KR102346713B1 (ko) * 2016-04-12 2022-01-03 세종대학교산학협력단 인트라 예측 기반의 비디오 신호 처리 방법 및 장치
KR102601732B1 (ko) 2016-05-31 2023-11-14 삼성디스플레이 주식회사 영상 부호화 방법 및 영상 복호화 방법
PL3477951T3 (pl) * 2016-06-24 2022-05-02 Kt Corporation Adaptacyjne filtrowanie pikseli referencyjnych dla predykcji wewnątrzobrazowej z wykorzystaniem oddalonych linii pikseli
CN116527887A (zh) * 2016-08-01 2023-08-01 韩国电子通信研究院 图像编码/解码方法和设备以及存储比特流的记录介质
CN114286091A (zh) * 2016-09-05 2022-04-05 Lg电子株式会社 图像编码和解码方法、比特流存储介质及数据传输方法
CN117201775A (zh) * 2016-09-13 2023-12-08 韩国电子通信研究院 视频编码/解码方法和装置以及存储比特流的记录介质
US10652575B2 (en) * 2016-09-15 2020-05-12 Qualcomm Incorporated Linear model chroma intra prediction for video coding
US20180091812A1 (en) * 2016-09-23 2018-03-29 Apple Inc. Video compression system providing selection of deblocking filters parameters based on bit-depth of video data
JP6953523B2 (ja) * 2016-10-14 2021-10-27 インダストリー アカデミー コーオペレイション ファウンデーション オブ セジョン ユニバーシティ 画像の符号化/復号化方法及び装置
US10694202B2 (en) * 2016-12-01 2020-06-23 Qualcomm Incorporated Indication of bilateral filter usage in video coding
WO2018117891A1 (en) 2016-12-23 2018-06-28 Huawei Technologies Co., Ltd. An intra-prediction apparatus for removing a directional intra-prediction mode from a set of predetermined directional intra-prediction modes
KR20180080115A (ko) 2017-01-02 2018-07-11 한양대학교 산학협력단 참조 화소에 대하여 적응적 필터링을 수행하기 위한 화면 내 예측 방법 및 장치
WO2018124853A1 (ko) * 2017-01-02 2018-07-05 한양대학교 산학협력단 참조 화소에 대하여 적응적 필터링을 수행하기 위한 화면 내 예측 방법 및 장치
US10638126B2 (en) * 2017-05-05 2020-04-28 Qualcomm Incorporated Intra reference filter for video coding
CN110999304B (zh) * 2017-07-28 2023-12-08 韩国电子通信研究院 图像处理方法和图像编码/解码方法以及使用图像处理方法和图像编码/解码方法的装置
US11089299B2 (en) * 2017-09-08 2021-08-10 Kt Corporation Method and device for processing video signal
JP7236800B2 (ja) * 2017-10-10 2023-03-10 株式会社デンソー 車両洗浄システム
EP3496401A1 (en) * 2017-12-05 2019-06-12 Thomson Licensing Method and apparatus for video encoding and decoding based on block shape
EP3744093A4 (en) * 2018-01-25 2022-01-26 LG Electronics Inc. VIDEO DECODER AND RELATED CONTROL METHOD
US10735757B2 (en) 2018-01-30 2020-08-04 Lg Electronics Inc. Video decoder and controlling method thereof
WO2019203559A1 (ko) * 2018-04-17 2019-10-24 엘지전자 주식회사 영상 코딩 시스템에서 리그레션 모델 기반 필터링을 사용하는 영상 디코딩 방법 및 장치
WO2019216712A1 (ko) * 2018-05-10 2019-11-14 삼성전자 주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
EP3888368A4 (en) * 2018-11-27 2022-03-02 OP Solutions, LLC ADAPTIVE TIME REFERENCE IMAGE CROSS-REFERENCE FILTER NOT AVAILABLE TO RELATED APPLICATIONS
US11102513B2 (en) 2018-12-06 2021-08-24 Tencent America LLC One-level transform split and adaptive sub-block transform
US11356699B2 (en) * 2019-01-11 2022-06-07 Hfi Innovation Inc. Method and apparatus of sub-block deblocking in video coding
CN111263156B (zh) * 2019-02-20 2022-03-25 北京达佳互联信息技术有限公司 视频解码方法、视频编码方法及装置
US11190777B2 (en) * 2019-06-30 2021-11-30 Tencent America LLC Method and apparatus for video coding
CN112859327B (zh) * 2019-11-27 2022-10-18 成都理想境界科技有限公司 一种图像输出控制方法及光纤扫描成像系统
WO2023055199A1 (ko) * 2021-09-30 2023-04-06 한국전자통신연구원 영상 부호화/복호화를 위한 방법, 장치 및 기록 매체

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1056295B1 (en) * 1998-12-10 2006-11-02 Matsushita Electric Industrial Co., Ltd. Filter arithmetic device
DE10158658A1 (de) * 2001-11-30 2003-06-12 Bosch Gmbh Robert Verfahren zur gerichteten Prädiktion eines Bildblockes
US7289562B2 (en) * 2003-08-01 2007-10-30 Polycom, Inc. Adaptive filter to improve H-264 video quality
US7782954B2 (en) * 2003-09-07 2010-08-24 Microsoft Corporation Scan patterns for progressive video content
KR101014660B1 (ko) * 2003-10-24 2011-02-16 삼성전자주식회사 인트라 예측 방법 및 장치
JP2006100871A (ja) * 2004-09-28 2006-04-13 Sony Corp 符号化装置、符号化方法、符号化方法のプログラム及び符号化方法のプログラムを記録した記録媒体
KR100679035B1 (ko) * 2005-01-04 2007-02-06 삼성전자주식회사 인트라 bl 모드를 고려한 디블록 필터링 방법, 및 상기방법을 이용하는 다 계층 비디오 인코더/디코더
JP4231020B2 (ja) 2005-03-29 2009-02-25 日本電信電話株式会社 イントラ予測モード選択方法,画像符号化装置,画像符号化プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
DE602006020556D1 (de) 2005-04-01 2011-04-21 Panasonic Corp Bilddecodierungsvorrichtung und bilddecodierungsverfahren
KR100750128B1 (ko) * 2005-09-06 2007-08-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
KR100727990B1 (ko) * 2005-10-01 2007-06-13 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치
KR100868476B1 (ko) * 2005-10-21 2008-11-12 한국전자통신연구원 적응적 스캐닝을 이용한 동영상 부호화/복호화 장치 및 그방법
KR100750145B1 (ko) * 2005-12-12 2007-08-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
JP4542064B2 (ja) 2006-05-11 2010-09-08 日本電信電話株式会社 階層間予測方法,装置,プログラムおよびその記録媒体
CN101502124B (zh) * 2006-07-28 2011-02-23 株式会社东芝 图像编码和解码的方法以及装置
CN101529918B (zh) * 2006-10-30 2011-08-03 日本电信电话株式会社 预测参照信息生成方法、活动图像的编码及解码方法及其装置
KR100856392B1 (ko) 2006-11-08 2008-09-04 한국전자통신연구원 현재 영상의 복원영역을 참조하는 동영상 부호화/복호화장치 및 그 방법
CN101589624A (zh) * 2007-01-22 2009-11-25 日本电气株式会社 图像再编码设备、图像再编码方法以及图像编码程序
US20100118940A1 (en) * 2007-04-19 2010-05-13 Peng Yin Adaptive reference picture data generation for intra prediction
KR101378338B1 (ko) * 2007-06-14 2014-03-28 삼성전자주식회사 영상 복구를 이용한 인트라 예측 부호화, 복호화 방법 및장치
WO2009001793A1 (ja) * 2007-06-26 2008-12-31 Kabushiki Kaisha Toshiba 画像符号化と画像復号化の方法及び装置
JP5437807B2 (ja) 2007-09-18 2014-03-12 富士通株式会社 動画像符号化装置および動画像復号装置
US8204327B2 (en) * 2007-10-01 2012-06-19 Cisco Technology, Inc. Context adaptive hybrid variable length coding
KR101228020B1 (ko) * 2007-12-05 2013-01-30 삼성전자주식회사 사이드 매칭을 이용한 영상의 부호화 방법 및 장치, 그복호화 방법 및 장치
WO2009088340A1 (en) * 2008-01-08 2009-07-16 Telefonaktiebolaget Lm Ericsson (Publ) Adaptive filtering
US20090245351A1 (en) * 2008-03-28 2009-10-01 Kabushiki Kaisha Toshiba Moving picture decoding apparatus and moving picture decoding method
CN100592796C (zh) * 2008-04-15 2010-02-24 中国科学院计算技术研究所 一种视频编码器及其帧内预测模式选择方法
ES2541807T3 (es) 2008-05-07 2015-07-24 Lg Electronics Inc. Procedimiento y aparato para decodificar una señal de vídeo
JP2009284298A (ja) * 2008-05-23 2009-12-03 Hitachi Ltd 動画像符号化装置、動画像復号化装置、動画像符号化方法及び動画像復号化方法
JP2009302776A (ja) 2008-06-11 2009-12-24 Canon Inc 画像符号化装置、その制御方法、及びコンピュータプログラム
US9055146B2 (en) * 2008-06-17 2015-06-09 International Business Machines Corporation Social network based call management
WO2010036772A2 (en) * 2008-09-26 2010-04-01 Dolby Laboratories Licensing Corporation Complexity allocation for video and image coding applications
KR101590500B1 (ko) 2008-10-23 2016-02-01 에스케이텔레콤 주식회사 동영상 부호화/복호화 장치, 이를 위한 인트라 예측 방향에기반한 디블록킹 필터링 장치 및 필터링 방법, 및 기록 매체
WO2010063881A1 (en) * 2008-12-03 2010-06-10 Nokia Corporation Flexible interpolation filter structures for video coding
KR101538704B1 (ko) * 2009-01-28 2015-07-28 삼성전자주식회사 보간 필터를 적응적으로 사용하여 영상을 부호화 및 복호화하는 방법 및 장치
CN101674475B (zh) * 2009-05-12 2011-06-22 北京合讯数通科技有限公司 一种h.264/svc的自适应层间纹理预测方法
KR101062111B1 (ko) 2009-07-06 2011-09-02 안양과학대학 산학협력단 가로등용 엘이디 등기구
CN101715135B (zh) * 2009-09-30 2013-01-09 武汉大学 基于匹配模板的自适应帧内预测滤波编码方法
KR101464538B1 (ko) 2009-10-01 2014-11-25 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
CN101854549B (zh) * 2010-05-28 2012-05-02 浙江大学 基于空域预测的视频和图像编解码方法和装置
KR20110054244A (ko) 2009-11-17 2011-05-25 삼성전자주식회사 미디언 필터를 이용한 깊이영상 부호화의 인트라 예측 장치 및 방법
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
JP5478740B2 (ja) * 2011-01-12 2014-04-23 三菱電機株式会社 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法

Also Published As

Publication number Publication date
PL3059959T3 (pl) 2019-03-29
KR20210131950A (ko) 2021-11-03
US20160057425A1 (en) 2016-02-25
KR20130098255A (ko) 2013-09-04
EP2600613A2 (en) 2013-06-05
CY1120472T1 (el) 2019-07-10
KR20210131949A (ko) 2021-11-03
EP3059960B1 (en) 2018-06-13
PT3059956T (pt) 2018-10-18
US9491468B2 (en) 2016-11-08
KR20200050451A (ko) 2020-05-11
ES2718937T3 (es) 2019-07-05
EP3059960A1 (en) 2016-08-24
KR102164752B1 (ko) 2020-10-14
EP3051815A1 (en) 2016-08-03
EP3059958B1 (en) 2018-09-19
LT3059953T (lt) 2019-03-12
PL2600613T3 (pl) 2016-11-30
DK2600613T3 (en) 2016-08-22
EP3059955B1 (en) 2018-09-26
HUE039985T2 (hu) 2019-02-28
HUE030354T2 (en) 2017-05-29
LT3059960T (lt) 2018-08-27
KR20210131951A (ko) 2021-11-03
KR20120012385A (ko) 2012-02-09
CN106210723A (zh) 2016-12-07
EP3059959A1 (en) 2016-08-24
MX336416B (es) 2016-01-19
ES2575381T3 (es) 2016-06-28
WO2012018197A3 (ko) 2012-04-12
US9467702B2 (en) 2016-10-11
HRP20160911T1 (hr) 2016-09-23
SI3059956T1 (en) 2018-08-31
CN106231313A (zh) 2016-12-14
ES2700623T3 (es) 2019-02-18
CN106067981A (zh) 2016-11-02
JP2017011727A (ja) 2017-01-12
TR201816486T4 (tr) 2018-11-21
JP2017011731A (ja) 2017-01-12
DK3059960T3 (en) 2018-09-10
LT3059956T (lt) 2018-08-27
KR20210096029A (ko) 2021-08-04
MX336418B (es) 2016-01-19
CY1122995T1 (el) 2021-10-29
CN106231314A (zh) 2016-12-14
CY1117856T1 (el) 2017-05-17
ES2694041T3 (es) 2018-12-17
PL3059953T3 (pl) 2019-08-30
CN104602011A (zh) 2015-05-06
EP3059954A1 (en) 2016-08-24
EP3059961B1 (en) 2018-09-12
DK3059953T3 (en) 2019-04-29
RS58564B1 (sr) 2019-05-31
WO2012018197A2 (ko) 2012-02-09
PL3059957T3 (pl) 2019-03-29
EP3059957B1 (en) 2018-09-12
KR20130029097A (ko) 2013-03-21
JP6163597B2 (ja) 2017-07-12
EP3059957A1 (en) 2016-08-24
CN106067977A (zh) 2016-11-02
ES2692842T3 (es) 2018-12-05
PT3059960T (pt) 2018-10-18
PL3059960T3 (pl) 2018-11-30
JP2017011732A (ja) 2017-01-12
JP2017011728A (ja) 2017-01-12
KR20140057510A (ko) 2014-05-13
PL3059956T3 (pl) 2018-11-30
US9307246B2 (en) 2016-04-05
CN103081474B (zh) 2016-09-21
CN104602009A (zh) 2015-05-06
ES2691195T3 (es) 2018-11-26
CN106067979A (zh) 2016-11-02
DK3051815T3 (en) 2019-04-29
US20160057423A1 (en) 2016-02-25
KR20140056205A (ko) 2014-05-09
CN106231313B (zh) 2020-02-04
SI2600613T1 (sl) 2016-07-29
CN103081474A (zh) 2013-05-01
CN104602009B (zh) 2016-09-07
TR201809836T4 (tr) 2018-07-23
ES2685600T3 (es) 2018-10-10
KR20210131952A (ko) 2021-11-03
SI3051815T1 (sl) 2019-04-30
MX336419B (es) 2016-01-19
JP6158997B2 (ja) 2017-07-05
TR201816492T4 (tr) 2018-11-21
KR20140057511A (ko) 2014-05-13
JP6163596B2 (ja) 2017-07-12
HUE044305T2 (hu) 2019-10-28
RS58388B1 (sr) 2019-04-30
US20160057449A1 (en) 2016-02-25
PT3059953T (pt) 2019-03-27
EP2600613A4 (en) 2014-09-10
US20160057427A1 (en) 2016-02-25
CN106067981B (zh) 2017-08-11
EP3059956A1 (en) 2016-08-24
EP3059959B1 (en) 2018-09-12
HUE041736T2 (hu) 2019-05-28
US20160057424A1 (en) 2016-02-25
US20160057421A1 (en) 2016-02-25
US9445099B2 (en) 2016-09-13
SI3059960T1 (en) 2018-08-31
US9609325B2 (en) 2017-03-28
CN106210723B (zh) 2019-11-01
JP2016220245A (ja) 2016-12-22
RS55052B1 (sr) 2016-12-30
CN106067977B (zh) 2017-08-11
US20160057450A1 (en) 2016-02-25
HUE041267T2 (hu) 2019-05-28
US9451263B2 (en) 2016-09-20
US20130016774A1 (en) 2013-01-17
CN106067980B (zh) 2017-08-11
CN106067979B (zh) 2017-08-11
CN106231312B (zh) 2019-04-12
PL3059955T3 (pl) 2019-06-28
EP3059956B1 (en) 2018-06-13
HRP20190773T1 (hr) 2019-06-14
JP6163598B2 (ja) 2017-07-12
SI3059953T1 (sl) 2019-04-30
ES2685577T3 (es) 2018-10-10
HUE040206T2 (hu) 2019-02-28
LT3051815T (lt) 2019-02-25
TR201815017T4 (tr) 2018-11-21
JP6158995B2 (ja) 2017-07-05
EP3059953B1 (en) 2019-02-20
DK3059956T3 (en) 2018-09-10
PL3059958T3 (pl) 2019-06-28
US20160057422A1 (en) 2016-02-25
JP6158996B2 (ja) 2017-07-05
JP6163595B2 (ja) 2017-07-12
US9451264B2 (en) 2016-09-20
JP6152461B2 (ja) 2017-06-21
US9615094B2 (en) 2017-04-04
PL3059954T3 (pl) 2019-03-29
JP5997152B2 (ja) 2016-09-28
JP2013534384A (ja) 2013-09-02
HUE041476T2 (hu) 2019-05-28
PT2600613E (pt) 2016-06-03
CY1120479T1 (el) 2019-07-10
CN106303532A (zh) 2017-01-04
HUE041269T2 (hu) 2019-05-28
EP3051815B1 (en) 2019-01-30
EP3059958A1 (en) 2016-08-24
EP3059953A1 (en) 2016-08-24
HUE044403T2 (hu) 2019-10-28
CN106231314B (zh) 2020-02-04
HUE041266T2 (hu) 2019-05-28
EP2600613B1 (en) 2016-05-11
ES2720581T3 (es) 2019-07-23
US20160057426A1 (en) 2016-02-25
JP6158998B2 (ja) 2017-07-05
KR101339903B1 (ko) 2013-12-10
SMT201600168B (it) 2016-07-01
CN106067980A (zh) 2016-11-02
USRE49565E1 (en) 2023-06-27
CN106303532B (zh) 2019-03-12
US9462281B2 (en) 2016-10-04
JP2017011730A (ja) 2017-01-12
HRP20181470T1 (hr) 2018-11-02
CY1121337T1 (el) 2020-05-29
TR201809830T4 (tr) 2018-07-23
KR102322188B1 (ko) 2021-11-05
PT3051815T (pt) 2019-03-01
JP2017011729A (ja) 2017-01-12
CN106231312A (zh) 2016-12-14
MX336417B (es) 2016-01-19
RS57381B1 (sr) 2018-09-28
HRP20181471T1 (hr) 2018-11-02
KR20120012401A (ko) 2012-02-09
HUE041737T2 (hu) 2019-05-28
CN106067978B (zh) 2017-08-29
TR201815529T4 (tr) 2018-11-21
EP3059955A1 (en) 2016-08-24
PL3059961T3 (pl) 2019-04-30
CN106067978A (zh) 2016-11-02
US9438919B2 (en) 2016-09-06
ES2700624T3 (es) 2019-02-18
TR201816011T4 (tr) 2018-11-21
PL3051815T3 (pl) 2019-07-31
ES2696525T3 (es) 2019-01-16
JP2016220246A (ja) 2016-12-22
JP2017011733A (ja) 2017-01-12
HRP20190543T1 (hr) 2019-05-31
EP3059961A1 (en) 2016-08-24
RS57368B1 (sr) 2018-08-31
EP3059954B1 (en) 2018-09-26
CN104602011B (zh) 2018-02-02

Similar Documents

Publication Publication Date Title
USRE49565E1 (en) Apparatus for encoding an image

Legal Events

Date Code Title Description
FG Grant or registration
PD Change of proprietorship

Owner name: M&K HOLDINGS INC.