ES2863540T3 - Método para realizar intra-predicción utilizando un filtro adaptativo - Google Patents

Método para realizar intra-predicción utilizando un filtro adaptativo Download PDF

Info

Publication number
ES2863540T3
ES2863540T3 ES18194215T ES18194215T ES2863540T3 ES 2863540 T3 ES2863540 T3 ES 2863540T3 ES 18194215 T ES18194215 T ES 18194215T ES 18194215 T ES18194215 T ES 18194215T ES 2863540 T3 ES2863540 T3 ES 2863540T3
Authority
ES
Spain
Prior art keywords
prediction
current block
filter
intra
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18194215T
Other languages
English (en)
Inventor
Jin Ho Lee
Hui Yong Kim
Se Yoon Jeong
Suk Hee Cho
Ha Hyun Lee
Jong Ho Kim
Sung Chang Lim
Jin Soo Choi
Jin Woong Kim
Chie Teuk Ahn
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45028890&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2863540(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Application granted granted Critical
Publication of ES2863540T3 publication Critical patent/ES2863540T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel

Abstract

Un método de decodificación de vídeo, que comprende: determinar si aplicar un primer filtro a un valor de píxel de referencia de un bloque actual basándose en un modo de intra-predicción del bloque actual y un tamaño del bloque actual; cuando se determina aplicar el primer filtro al valor de píxel de referencia del bloque actual, derivar un valor de intra- predicción del bloque actual utilizando el valor de píxel de referencia filtrado y el modo de intra-predicción del bloque actual; y determinar si aplicar un segundo filtro al valor de intra-predicción del bloque actual basándose en un modo de intra- predicción del bloque actual y un tamaño del bloque actual, para producir así un valor de intra-predicción filtrado, y en donde el modo de intra-predicción del bloque actual es un modo horizontal, el valor de intra-predicción filtrado se genera al aplicar el segundo filtro solamente cuando el valor de intra-predicción se posiciona en una fila lo más superior del bloque actual, en donde el modo horizontal usa exclusivamente al menos uno de los valores de los píxeles de referencia ubicados en el límite izquierdo del bloque actual.

Description

DESCRIPCIÓN
Método para realizar intra-predicción utilizando un filtro adaptativo
[Campo técnico]
La presente invención se refiere a la codificación de vídeo y, más particularmente, a un método de codificación y decodificación de vídeo para realizar intra-predicciones mediante la aplicación de un filtro adaptativo según las reivindicaciones adjuntas.
[Antecedentes de la técnica]
Con la reciente aparición de la televisión digital, etc., se está desarrollando abruptamente la tecnología en los campos de la radiodifusión televisiva y del entretenimiento en el hogar. La tecnología de los campos se está comercializando mediante la estandarización de la tecnología de compresión de vídeo. Para la compresión de vídeo, se está utilizando ampliamente un estándar ITU-T (Unión Internacional de Telecomunicaciones-Telecomunicaciones) H. 263. El MPEG-4, que es el próximo estándar de MPEG (Grupo de Expertos de Imágenes en Movimiento), se está utilizando para aplicaciones de vídeo basadas en Internet.
Después de que se ha completado el estándar H. 263, ITU-T VCEG (Grupo de Expertos de Codificación de Vídeo) se ha dedicado a lograr un objetivo a corto plazo para agregar características adicionales al estándar H. 263 y un objetivo a largo plazo para desarrollar un nuevo estándar para comunicación visual de una tasa de bits baja. En el año 2001, se construyó el JVT (Equipo Mixto de Vídeo) que consiste en los expertos de MPEG y VCEG, y el JVT ha realizado una tarea de estandarización de ITU-T H. 264/MPEG-4 parte 10, que es un nuevo estándar para la codificación de vídeo. El estándar H. 264 también puede denominarse AVC (Codificación de Vídeo Avanzada). El objetivo tecnológico del H. 264/AVC es la mejora significativa de la eficiencia de la codificación, la tecnología de codificación resistente a pérdidas y errores, la tecnología de codificación compatible con la red, la capacidad de baja latencia, la decodificación precisa de coincidencias, etc.
La mayoría de los píxeles circundantes dentro del vídeo tienen valores similares. El mismo principio se aplica a bloques de 4x4 o bloques de 16x16 que tienen un tamaño de bloque mínimo del estándar H. 264/AVC. La predicción para el vídeo se puede realizar utilizando la semejanza entre los valores entre bloques como se ha descrito anteriormente, y se puede codificar una diferencia entre el vídeo y un vídeo original. Esto se denomina intrapredicción. La eficiencia de la codificación de vídeo se puede incrementar mediante la intra-predicción.
Además, al realizar la intra-predicción, se puede aplicar un filtro antes de que se realice la intra-predicción. En casos típicos, cuando la intra-predicción se realiza en el estándar H. 264/AVC, se aplica un filtro a los valores de píxeles de referencia, y los valores a los que se han aplicado el filtro se utilizan para la intra-predicción. Sin embargo, el rendimiento de la codificación de vídeo puede aumentar cuando se realiza la intra-predicción sin aplicar el filtro en lugar de cuando la intra-predicción se realiza después de que se aplica el filtro, según las circunstancias.
Por consiguiente, se puede proponer un método para determinar si aplicar un filtro al realizar una intra-predicción. Un ejemplo de tal método se encuentra en KIM (ETRI) H Y ET AL: “Video coding technology proposal by the Electronics and Telecommunications Research Institute (ETRI)", 1. REUNIÓN JCT-VC; 15-4-2010 - 23-4-2010; DRESDEN; (EQUIPO MIXTO COLABORATIVO SOBRE CODIFICACIÓN DE VÍDEO DE ISO/IEC JTC1/SC29/WG11 Y ITU-TSG.16); URL: HTTP://WFTP3.ITU.INT/AV-ARCH/JCTVC-SITE/, n.2 JCTVC-A127, 21 de abril de 2010 (21­ 04-2010), ISSN: 0000-0049 que describe la aplicación de un primer filtro (filtro previo) a un valor de píxel de referencia de un bloque actual y un segundo filtro (filtro posterior) a las muestras intra-predecibles en direcciones vertical y horizontal. Por lo tanto, el segundo filtro se aplica para todas las muestras intra predichas, independientemente del modo de intra-predicción.
[Compendio de la invención]
[Problema técnico]
Un objeto de la presente invención es proporcionar un método de codificación y decodificación de vídeo que realiza intra-predicción aplicando un filtro adaptativo a los valores de píxeles circundantes de un bloque que se ha de predecir o los valores de píxeles predichos de un bloque actual en la codificación de vídeo. Más particularmente, después de que se aplica un filtro adaptativo (es decir, un filtro previo) a los valores de píxeles de referencia de un bloque actual para realizar la intra-predicción, se realiza la predicción. Además, se calcula una señal residual después de aplicar un filtro adaptativo (es decir, un filtro posterior) a los valores de píxeles de un bloque de corriente predicho.
[Solución técnica]
La presente invención se define en las reivindicaciones adjuntas. La descripción propicia se encuentra en las realizaciones descritas con referencia a la figura 6 y la figura 7, en particular la parte relacionada con la tabla 1 y el modo horizontal (también denominado "modo 1"). Otras realizaciones/aspectos/ejemplos no están según la invención y están presentes solamente con fines ilustrativos.
[Efectos ventajosos]
El rendimiento de la codificación se mejora al predecir eficazmente un bloque de señal de luminancia o crominancia que se ha de codificar.
[Descripción de dibujos]
La figura 1 es un diagrama de bloques de un codificador según el estándar H. 264/AVC (Codificación de Vídeo Avanzada).
La figura 2 es un diagrama de bloques de un decodificador según el estándar H. 264/AVC.
La figura 3 es un diagrama que muestra un ejemplo de muestras de predicción etiquetadas en un modo de predicción de luma 4x4.
La figura 4 es un diagrama que muestra 9 tipos de modos de predicción dentro del modo de predicción de luma 4x4. La figura 5 es un diagrama que muestra un ejemplo de un método para aplicar un filtro antes de que se realice la intra-predicción.
La figura 6 es un diagrama que muestra una realización de un método propuesto para realizar intra-predicción utilizando un filtro adaptativo.
La figura 7 es un diagrama que muestra un ejemplo en el que se aplica un filtro a un valor de predicción según el método propuesto para realizar intra-predicción utilizando el filtro adaptativo.
La figura 8 es un diagrama de bloques de un codificador y un decodificador, que no forman parte de la presente invención, en el que se implementan las realizaciones de la presente invención.
[Modo de invención]
A continuación en el presente documento, se describen en detalle realizaciones de la presente invención con referencia a los dibujos adjuntos con el fin de que los expertos en la técnica sean capaces de implementar fácilmente la presente invención. Sin embargo, la presente invención se puede implementar de varias formas diferentes y no se limita a las siguientes realizaciones. Con el fin de aclarar una descripción de la presente invención, se omiten las partes no relacionadas con la descripción, y se utilizan números de referencia similares en todos los dibujos para hacer referencia a partes similares. Además, se omite una descripción de partes que los expertos en la técnica pueden comprender fácilmente.
Además, cuando se dice que cualquier parte "incluye (o comprende)" cualquier elemento, significa que la parte correspondiente puede incluir además otros elementos a menos que se describa lo contrario sin excluir los elementos.
La figura 1 es un diagrama de bloques de un codificador según el estándar H. 264/AVC (Codificación de Vídeo Avanzada).
Con referencia a la figura 1, el codificador incluye dos tipos de trayectorias de flujo de datos. Una de ellas es una trayectoria de avance y la otra es una trayectoria de reconstrucción.
En primer lugar, se describe la trayectoria hacia adelante. La codificación se realiza para una trama de entrada Fn para cada macrobloque. El macrobloque tiene el tamaño de 16x16 píxeles en un vídeo original. Se realiza intrapredicción o inter-predicción para cada trama de entrada. En la intra-predicción, la predicción se realiza utilizando una semejanza entre los valores entre bloques dentro de la trama, y se codifica una diferencia entre el vídeo original y un vídeo relevante. En la inter-predicción, la predicción se realiza utilizando una semejanza entre los valores entre bloques entre tramas, y se codifica una diferencia entre el vídeo original y un vídeo relevante. En el momento de la intra-predicción o la inter-predicción, P (es decir, un macrobloque de predicción) se forma de acuerdo con la trama reconstruida. En el momento de la intra-predicción, el macrobloque de predicción P puede formarse a partir de muestras dentro de una trama actual previamente codificada, una trama actual decodificada o una trama actual reconstruida uFn'. Cuando el macrobloque de predicción P se forma a partir de la trama actual reconstruida, pueden utilizarse muestras sin filtrar. En el momento de la inter-predicción, el macrobloque de predicción P puede formarse a partir de uno o más tramas de referencia mediante compensación de movimiento o predicción de movimiento. En la figura 1, se supone que la trama de referencia es una trama Fn-1' previamente codificada. Sin embargo, la presente invención no se limita a ello, y cada macrobloque de predicción puede formarse a partir de una trama 1 anterior o 2 tramas anteriores ya codificadas o reconstruidas, o una trama posterior o 2 tramas posteriores.
P se resta del macrobloque actual con el fin de generar un macrobloque Dn residual o diferente. El macrobloque Dn se transforma (T) utilizando una transformación de bloque y se cuantifica (Q), generando así X. X es un conjunto de coeficientes codificados. Los coeficientes codificados se reordenan y a continuación se someten a codificación de entropía. Los coeficientes codificados de entropía forman un flujo de bits comprimido, junto con la información necesaria para decodificar el macrobloque. El flujo de bits comprimido se envía a una Capa de Abstracción de Red (NAL) para su transmisión o almacenamiento.
La trayectoria de reconstrucción se describe a continuación. Los coeficientes X del macrobloque cuantificado se decodifican con el fin de generar una trama reconstruida que se utiliza para codificar otros macrobloques. X son cuantificados inversamente (Q-1) y a continuación transformados inversamente (T-1), generando así un macrobloque Dn'. La diferencia del macrobloque D' generado en la trayectoria de reconstrucción no es lo mismo que la diferencia del macrobloque Dn generado en la trayectoria de avance. La pérdida se genera debido a la cuantificación y así, el macrobloque Dn' puede tener una forma distorsionada de Dn. El macrobloque de predicción P se agrega al macrobloque Dn', y se genera un macrobloque uFn' de reconstrucción. El macrobloque uFn' de reconstrucción también puede tener una forma distorsionada del macrobloque Fn original. Con el fin de reducir la distorsión de bloqueo para el macrobloque uFn' de reconstrucción, se puede aplicar un filtro. Una trama reconstruida puede formarse a partir de una pluralidad de macrobloques de reconstrucción a los que se ha aplicado el filtro. La figura 2 es un diagrama de bloques de un decodificador según el estándar H. 264/AVC.
Con referencia a la figura 2, el decodificador recibe un flujo de bits comprimido de un NAL. Los datos recibidos se someten a decodificación de entropía con el fin de generar un conjunto de coeficientes X cuantificados y a continuación se reordenan. La cuantificación inversa y la transformación inversa se realizan para los coeficientes X cuantificados, generando por ello Dn'. El decodificador genera el mismo macrobloque de predicción P que un macrobloque de predicción, generado en un codificador, utilizando información de encabezado decodificada del flujo de bits. uFn' se genera agregando Dn' a P, y uFn' puede experimentar un filtro, generando por ello, un macrobloque Fn' decodificado.
La intra-predicción se describe a continuación.
Cuando se realiza la intra-predicción para un bloque (o un macrobloque), un bloque de predicción (o un macrobloque) P puede formarse de acuerdo con los bloques codificados (o macrobloques) o bloques reconstruidos (o macrobloques). P se resta de un vídeo original, y una diferencia de la cual P se ha restado se codifica y a continuación se transmite. La intra-predicción se puede realizar según un modo de predicción de luma o un modo de predicción de crominancia. En el modo de predicción de luma, la intra-predicción se puede realizar en la unidad de un tamaño de subbloque de 4x4 o un tamaño de macrobloque de 16x16. Existe un total de 9 modos de predicción adicionales en el modo de predicción de luma 4x4, y existe un total de 4 modos de predicción adicionales en el modo de predicción de luma 16x16. La unidad en la que se realiza la intra-predicción no se limita al subbloque o al macrobloque, sino que se puede realizar utilizando varios tamaños como unidad. La unidad de un píxel en la que se realiza la intra-predicción puede denominarse Unidad de Codificación (CU) o Unidad de Predicción (PU). El tamaño de la CU o la PU puede ser el mismo que el tamaño de un subbloque o un macrobloque como se ha descrito anteriormente.
La figura 3 es un diagrama que muestra un ejemplo de muestras de predicción etiquetadas en el modo de predicción luma 4x4. Con referencia a la figura 3, un bloque de predicción P es A a H o I a L y se calcula de acuerdo con las muestras etiquetadas.
La figura 4 es un diagrama que muestra 9 tipos de modos de predicción dentro del modo de predicción de luma 4x4. Un codificador puede seleccionar cualquiera de los 9 modos de predicción para cada bloque con el fin de minimizar la diferencia entre un bloque de predicción P y un bloque que se ha de codificar. Los 9 modos de predicción son los siguientes.
1) modo 0 (vertical): A a D, que son muestras superiores del bloque de predicción que se extrapolan verticalmente.
2) modo 1 (horizontal): I a L, que son muestras a la izquierda del bloque de predicción que se extrapolan horizontalmente.
3) modo 2 (DC); todas las muestras A a D e I a L dentro del bloque de predicción P se predicen por promedio.
4) modo 3 (diagonal hacia abajo a la izquierda): las muestras dentro del bloque de predicción P se interpolan en un ángulo de 45° una posición entre un lado hacia abajo a la izquierda y un lado hacia arriba a la derecha.
5) modo 4 (diagonal hacia abajo a la derecha): las muestras dentro del bloque de predicción P se extrapolan hacia la derecha hacia abajo en un ángulo de 45°.
6) modo 5 (vertical a la derecha): las muestras dentro del bloque de predicción P se extrapolan o interpolan a la derecha en un ángulo de aproximadamente 26,6° en un eje vertical.
7) modo 6 (horizontal hacia abajo): las muestras dentro del bloque de predicción P se extrapolan hacia abajo en un ángulo de aproximadamente 26,6° en un eje horizontal. El modo 6 es un ejemplo y está excluido del alcance de las reivindicaciones.
8) modo 7 (vertical a la izquierda): las muestras dentro del bloque de predicción P se extrapolan a la izquierda en un ángulo de aproximadamente 26,6° en el eje vertical.
9) modo 8 (horizontal hacia arriba): las muestras dentro del bloque de predicción P se interpolan hacia arriba en un ángulo de aproximadamente 26,6° en el eje horizontal. El modo 8 es un ejemplo y está excluido del alcance de las reivindicaciones.
En la figura 4, la flecha indica una dirección en la que se realiza la predicción dentro de cada modo. Mientras tanto, en relación con el modo 3 al modo 8, las muestras dentro del bloque de predicción P se forman a partir de un promedio ponderado de las muestras de predicción A a H o I a L. Por ejemplo, en el modo 4, una muestra d colocada en el lado superior derecho del bloque de predicción P, se puede predecir como redondo (B/4+C/2+D/4). El codificador calcula la Suma de Errores Absolutos (SAE) para un bloque de predicción generado por cada uno de los modos de predicción y realiza una intra-predicción basándose en el modo de predicción que tiene el SAE más pequeño.
La figura 5 es un diagrama que muestra un ejemplo de un método para aplicar un filtro antes de que se realice la intra-predicción.
En general, se aplica un filtro a las muestras utilizadas en el estándar H. 264/AVC, y a continuación se realiza la intra-predicción. Las muestras también pueden denominarse valores de píxeles de referencia. En el ejemplo de la figura 5, se supone que un filtro es un filtro de paso bajo y se aplica solamente a un bloque de 8x8.
La Ecuación 1 es un ejemplo de Ecuación que muestra un filtro de 3 tomas aplicado a un valor de píxel de referencia.
<Ecuación 1>
h[Z] = (A 2XZ Q)/4
h[A] = (Z 2XA B)/4
h[P] = (0 3 x p ) / 4
h[Q] = (Z 2XQ R)/4
h[X] = (W 3xX)/4
h[Z] indica un valor calculado aplicando el filtro a Z. Con referencia a la Ecuación 1, el filtrado para el valor de píxel de referencia se realiza aplicando coeficientes de filtro (1,2,1) e intra-predicción según los 9 modos de predicción se realiza de acuerdo con los valores de píxeles de referencia h[A]~h[Z] que se han filtrado. Como en el proceso de codificación, el filtro puede aplicarse incluso en un proceso de decodificación.
Al realizar el filtrado antes de que se realice la intra-predicción, el rendimiento de la codificación puede mejorarse cuando no se realiza el filtrado. Por consiguiente, puede proponerse un método para realizar intra-predicción aplicando adaptativamente el filtro.
La figura 6 es un diagrama que muestra una realización del método propuesto de realizar intra-predicción utilizando un filtro adaptativo.
Con referencia a la figura 6, en la etapa S201, un codificador determina si aplicar el filtro adaptativo a un valor de píxel de referencia. Al determinar si aplicar el filtro adaptativo, el codificador puede determinar si aplicar el filtro adaptativo de acuerdo con información sobre un bloque circundante o, según un ejemplo que no forma parte de la presente invención, según a un método de optimización de la distorsión de frecuencia (RDO).
Al determinar si aplicar el filtro adaptativo al valor de píxel de referencia basándose en la información sobre un bloque circundante, se puede determinar un modo de predicción de un bloque actual basándose en la información del modo de predicción (es decir, un modo más probable (MPM) sobre el bloque circundante, y puede determinarse si aplicar el filtro adaptativo al valor de píxel de referencia según el modo de predicción determinado del bloque actual. Por ejemplo, suponiendo que un bloque actual es “C”, un bloque superior es “A”, y un bloque izquierdo es “B”, cuando un modo de predicción del bloque actual es el mismo que un modo de predicción del bloque superior “A”, el modo de predicción del bloque superior “A” puede determinarse como el modo de predicción del bloque actual. Cuando el modo de predicción del bloque actual es el mismo que el modo de predicción del bloque izquierdo “B”, el modo de predicción del bloque izquierdo “B” puede determinarse como el modo de predicción del bloque actual. Alternativamente, cuando el modo de predicción del bloque actual es un modo de predicción distinto del modo de predicción del bloque superior “A” o el modo de predicción del bloque izquierdo “B”, se codifica y transmite un modo de predicción relevante. Puede determinarse si aplicar el filtro adaptativo al valor de píxel de referencia según el modo de predicción del bloque actual determinado como se ha descrito anteriormente. Incluso cuando el bloque actual, el bloque superior y el bloque izquierdo tienen tamaños diferentes, el modo de predicción de un bloque actual puede determinarse basándose en el modo de predicción de un bloque circundante.
Alternativamente, según otro ejemplo que no forma parte de la presente invención, al determinar si se aplica el filtro adaptativo al valor de píxel de referencia basándose en la información sobre un bloque circundante, se puede determinar si aplicar el filtro adaptativo de acuerdo con un cambio en el valor de píxel de referencia circundante. Por ejemplo, suponiendo que un valor de píxel de referencia al que se aplicará el filtro es p[n], se puede calcular una diferencia entre p[n-1] y p[n+1] (es decir, valores de píxeles de referencia circundantes), y puede determinarse si aplicar el filtro comparando la diferencia con un umbral específico.
Alternativamente, según un ejemplo adicional que no forma parte de la presente invención, se puede determinar si aplicar el filtro al valor de píxel de referencia basándose en el tamaño de un bloque actual distinto de un modo de predicción del bloque actual. Aquí, se designa previamente si aplicar el filtro basándose en el modo de predicción del bloque actual y el tamaño del bloque actual, y se determina si aplicar el filtro de forma adaptativa según el modo de predicción relevante o el tamaño relevante.
La Tabla 1 indica, según la presente invención, si aplicar el filtro según el modo de predicción de un bloque actual y el tamaño del bloque actual.
[Tabla 1]
Figure imgf000006_0001
Con referencia a la Tabla 1, “0” indica que no se aplica el filtro y “1” indica que se aplica el filtro. Por ejemplo, cuando el tamaño del bloque actual es 4x4, si el modo de predicción del bloque actual es 1, no se puede aplicar el filtro. Si el modo de predicción del bloque actual es 3, se puede aplicar el filtro.
Además, según un ejemplo que no forma parte de la presente invención, se puede determinar si aplicar el filtro al valor de píxel de referencia según que bloques circundantes están sujetos a codificación por compresión espacial (intra-frame) o codificación por compresión temporal (inter-frame). Por ejemplo, cuando se realiza una intrapredicción restringida, un valor sometido a la codificación por compresión temporal se rellena con el valor de un bloque circundante sometido a codificación por compresión espacial cuando el bloque circundante se somete a la codificación por compresión temporal. Aquí, no se puede aplicar el filtro.
Si, como resultado de la determinación, se determina el filtro que se ha de aplicar al valor de píxel de referencia, el codificador aplica el filtro al valor de píxel de referencia en la etapa S202. El filtro aplicado puede ser un filtro común. Por ejemplo, se puede utilizar el filtro de 3 tomas de la Ecuación 1, o se puede utilizar un filtro de 2 tomas. Cuando se utiliza el filtro de 2 tomas, se pueden utilizar varios coeficientes de filtro, tales como (1/8, 7/8), (2/8, 6/8) y (3/8, 5/8). El valor de píxel de referencia al que se ha aplicado el filtro se puede utilizar cuando el filtro se aplica a otros valores de píxel de referencia. Además, cuando el filtro se aplica al valor de píxel de referencia, el filtro se puede aplicar a todos los valores de píxel de referencia o solamente a algunos de los valores de píxeles de referencia.
En la etapa S203, el codificador realiza una intra-predicción de acuerdo con el valor de píxel de referencia al que se ha aplicado el filtro o al que no se ha aplicado el filtro.
En la etapa S204, el codificador determina si aplicar el filtro a un valor de predicción para cada modo de predicción, predicho realizando la intra-predicción, con el fin de codificar un bloque actual. Aquí, cada modo de predicción puede ser cada uno de los 9 modos de predicción en el modo de predicción de luma 4x4. Al determinar si aplicar el filtro a un valor de predicción para cada modo de predicción, se puede determinar si aplicar el filtro basándose en la información sobre un bloque circundante o, en un ejemplo que no forma parte de la presente invención, según el método RDO.
Cuando se determina si aplicar el filtro al valor de predicción basándose en la información sobre un bloque circundante, se puede determinar un modo de predicción del bloque actual basándose en la información del modo de predicción (MPM) sobre el bloque circundante y puede determinarse si aplicar el filtro al valor de predicción basándose en el modo de predicción determinado del bloque actual. Por ejemplo, suponiendo que un bloque actual es “C”, un bloque superior es “A” y un bloque izquierdo es “B”, cuando un modo de predicción del bloque actual es el mismo que un modo de predicción del bloque superior “A”, el modo de predicción del bloque superior “A” puede determinarse como el modo de predicción del bloque actual. Cuando el modo de predicción del bloque actual es el mismo que el modo de predicción del bloque izquierdo “B”, el modo de predicción del bloque izquierdo “B” puede determinarse como el modo de predicción del bloque actual. Alternativamente, cuando el modo de predicción del bloque actual es un modo de predicción distinto del modo de predicción del bloque superior “A” o el modo de predicción del bloque izquierdo “B”, se codifica y transmite un modo de predicción relevante. Aquí, cuando el modo de predicción del bloque actual es un modo de predicción específico (DC o plano), una diferencia entre un valor de píxel de referencia y un valor de predicción puede ser relativamente mayor que la de otros modos de predicción. Por ejemplo, una diferencia entre un valor de píxel de referencia y un valor de predicción en el modo de predicción plano puede ser relativamente mayor que la de otros modos de predicción. El valor de predicción en el modo de predicción plano puede calcularse promediando un primer valor de predicción, obtenido realizando una interpolación lineal horizontalmente para cada fila, y un segundo valor de predicción obtenido realizando una interpolación lineal verticalmente para cada columna. Cuando la interpolación lineal se realiza horizontalmente, un valor derecho es el mismo que un valor colocado en una posición hacia arriba a la derecha (es decir, D en la figura 3), entre los valores de píxeles de referencia. Cuando la interpolación lineal se realiza verticalmente, un valor hacia abajo es el mismo que un valor colocado en una posición hacia abajo a la izquierda (es decir, L en la Figura 3), entre los valores de píxeles de referencia. Ya que el valor de predicción no se obtiene directamente del valor de píxel de referencia, una diferencia entre el valor de píxel de referencia y el valor de predicción puede ser relativamente grande. En este caso, la eficacia de intra-predicción se puede incrementar aplicando el filtro al valor de predicción. Se puede determinar si aplicar el filtro al valor de predicción según el modo de predicción del bloque actual determinado como se ha descrito anteriormente. Incluso cuando un bloque actual, un bloque superior y un bloque izquierdo tienen tamaños diferentes, se puede determinar un modo de predicción del bloque actual según el modo de predicción de un bloque circundante.
Alternativamente, según la presente invención, se determina si aplicar el filtro al valor de predicción según el tamaño de un bloque actual además del modo de predicción de un bloque actual. Aquí, se designa previamente si aplicar el filtro según el modo de predicción del bloque actual y el tamaño del bloque actual, y se determina adaptativamente si aplicar el filtro según el modo de predicción relevante y el tamaño relevante. Alternativamente, según un ejemplo que no forma parte de la presente invención, se puede determinar si aplicar el filtro al valor de predicción según que bloques circundantes se han sometido a codificación por compresión espacial o codificación por compresión temporal.
Si, como resultado de la determinación, se determina que el filtro se ha aplicado al valor de predicción, el codificador aplica el filtro al valor de predicción en la etapa S205. Por consiguiente, se completa la predicción del bloque actual y el codificador calcula una señal residual y realiza la codificación por entropía.
La figura 7 es un diagrama que muestra un ejemplo en el que el filtro se aplica al valor de predicción según el método propuesto para realizar intra-predicción utilizando el filtro adaptativo.
Con referencia a la figura 7, en el caso donde el modo de predicción de un bloque actual sea un modo no direccional, una diferencia entre un valor de píxel de referencia y un valor de predicción puede llegar a ser relativamente mayor que la de otros modos de predicción. Por consiguiente, el filtro puede aplicarse únicamente a los valores de predicción de los píxeles adyacentes al límite con los valores de los píxeles de referencia restaurados circundantes. Por ejemplo, el filtrado puede realizarse para los valores de predicción correspondientes a a1~a8, y b1, c1, d1, e l, f1, g1 y h1 correspondientes a los píxeles de una línea que se coloca en el límite en la figura 7. Alternativamente, el filtrado se puede realizar para los valores de predicción correspondientes a a1~a8, b1~b8, y c1 ~c2, d1 ~d2, e1 ~e2, f1 ~f2, g1 ~g2 y h1 ~h2 correspondientes a los píxeles de dos líneas que se colocan en el límite en la figura 7. Aquí, el filtro aplicado puede ser un filtro común. Por ejemplo, se puede utilizar el filtro de 3 tomas de la Ecuación 1 o se puede utilizar un filtro de 2 tomas. Cuando se utiliza el filtro de 2 tomas, se pueden utilizar varios coeficientes de filtro, tales como (1/8, 7/8), (2/8, 6/8) y (3/8, 5/8). Alternativamente, cualquiera del filtro de 2 tomas y el filtro de 3 tomas puede seleccionarse y procesarse según las posiciones de los píxeles.
En el caso donde el modo de predicción de un bloque actual es un modo de predicción que utiliza los valores de píxeles de referencia correspondientes a A~P como en el modo 0, el modo 3 o el modo 7 de esta manera, el filtro puede aplicarse a los valores de predicción que corresponden a a1~a8 que tienen una diferencia relativamente grande entre el valor de píxel de referencia y el valor de predicción. Además, en el caso en el que el modo de predicción de un bloque actual es un modo de predicción que utiliza los valores de píxeles de referencia correspondientes a Q~X como en el modo 1 o el modo 8, el filtro se aplica a los valores de predicción que corresponden a a1, b1, c1, d1, e1, f1, g1 y h1 que tienen una diferencia relativamente grande entre el valor de píxel de referencia y el valor de predicción.
La Ecuación 2 es un ejemplo de Ecuación, que indica el filtro aplicado a los valores de predicción cuando se selecciona y se utiliza el filtro de 2 tomas o el filtro de 3 tomas según las posiciones de los píxeles.
<Ecuación 2>
f [al] = Í2XA 4 x al 2xQ)/8
f [bl] = (2 xb 6X bl) /8
f [el] = (2XC 6 X C1)/S
f[a2] - (2XR 6 x a2)/8
f[a3] = (2XS 6 x a3)/8
En la Ecuación 2, f[a1] es un valor en el que el filtro se aplica al valor de predicción a1, y A y Q indican los valores de píxeles de referencia. De la Ecuación 2, se puede ver que el filtro de 3 tomas se aplica al valor de predicción de un píxel donde se coloca el valor de predicción a1, y el filtro de 2 tomas se aplica a los valores de predicción de los píxeles restantes.
La Ecuación 3 es otro ejemplo de Ecuación, que indica el filtro aplicado a los valores de predicción cuando el filtro se aplica a los valores de predicción según el método propuesto para realizar intra-predicción utilizando el filtro adaptativo.
<Ecuación 3>
1. Filtro vertical de paso bajo
v[a1] = (A 2xa1 a2)/4
v[a2] = (v[a1] 2xa2 a3)/4
v[a8] = (v[a7] 3xa8)/4
v[b1] = (B 2xb1 b2)/4
2. Filtro horizontal de paso bajo
h[a1] = (Q 2xv[a1] v[b1])/4
h[b1] = (h[a1] 2xv[b1] v[c1])/4
h[h1] = (h[g1 ] 3xv[h1])/4
h[a2] = (R 2xv[a2] v[b2])/4
En la Ecuación 3, el filtro puede utilizarse cuando el filtro adaptativo se aplica según el método que utiliza información sobre los bloques circundantes o el método RDO para cada uno de los modos de predicción. Con referencia a la Ecuación 3, se aplica secuencialmente un filtro de paso bajo que tiene coeficientes de filtro (1, 2, 1) en dos direcciones vertical y horizontal. En Primer lugar, el filtro se aplica en la dirección vertical y el filtro se aplica en la dirección horizontal basándose en un valor de predicción al que se ha aplicado el filtro. El valor de predicción al que se ha aplicado el filtro se puede utilizar cuando el filtro se aplica a otros valores de predicción.
Mientras tanto, cuando se utiliza el método RDO, el método para realizar intra-predicción descrito con referencia a la figura 6 pueden ejecutarse repetidamente.
La figura 8 es un diagrama de bloques de un codificador y un decodificador en el que se implementan las realizaciones de la presente invención, que no forma parte de la invención reivindicada y se presenta únicamente con fines ilustrativos.
El codificador 800 incluye un procesador 810 y una memoria 820. El procesador 810 implementa las funciones, procesos y/o métodos propuestos. El procesador 810 está configurado para determinar si aplicar un primer filtro a los valores de píxeles de referencia basándose en la información sobre los bloques circundantes de un bloque actual, aplicar el primer filtro a los valores de píxeles de referencia si, como resultado de la determinación, se determina que se ha de aplicar el primer filtro , realizar intra-predicción para el bloque actual de acuerdo con los valores de píxeles de referencia, determinar si aplicar un segundo filtro a un valor de predicción para cada modo de predicción del bloque actual que se ha predicho realizando la intra- predicción basándose en la información sobre bloques circundantes, y aplicar el segundo filtro al valor de predicción para cada modo de predicción del bloque actual si, como resultado de la determinación, se determina que se ha de aplicar el segundo filtro. La memoria 820 está conectada al procesador 810 y está configurada para almacenar varias piezas de información para manejar el procesador 810.
El decodificador 900 incluye un procesador 910 y una memoria 920. El procesador 910 implementa las funciones, procesos y/o métodos propuestos. El procesador 910 está configurado para determinar si aplicar un primer filtro a los valores de píxeles de referencia basándose en la información sobre los bloques circundantes de un bloque actual, aplicar el primer filtro a los valores de píxeles de referencia si, como resultado de la determinación, se determina que se ha de aplicar el primer filtro , realizar intra-predicción para el bloque actual de acuerdo con los valores de píxeles de referencia, determinar si aplicar un segundo filtro a un valor de predicción para cada modo de predicción del bloque actual que se ha predicho realizando la intra- predicción basándose en la información sobre bloques circundantes, y aplicar el segundo filtro al valor de predicción para cada modo de predicción del bloque actual si, como resultado de la determinación, se determina que se ha de aplicar el segundo filtro. La memoria 920 está conectada al procesador 910 y está configurada para almacenar varias piezas de información para manejar el procesador 910.
El procesador 810, 910 puede incluir Circuitos Integrados de Aplicación Específica (ASIC), otros conjuntos de chips, circuitos lógicos y/o procesadores de datos. La memoria 820, 920 puede incluir Memoria de Sólo Lectura (ROM), Memoria de Acceso Aleatorio (RAM), memoria flash, una tarjeta de memoria, un medio de almacenamiento y/u otros dispositivos de almacenamiento. Cuando las realizaciones anteriores se implementan en software, los esquemas anteriores se pueden implementar utilizando un módulo (o un proceso o función) para realizar las funciones anteriores. El módulo puede almacenarse en la memoria 820, 920 y puede ser ejecutado por el procesador 810, 910. La memoria 820, 920 puede ser interna o externa al procesador 810, 910 y puede acoplarse al procesador 810, 910 utilizando un variedad de medios bien conocidos.

Claims (3)

  1. REIVINDICACIONES
    1 Un método de decodificación de vídeo, que comprende:
    determinar si aplicar un primer filtro a un valor de píxel de referencia de un bloque actual basándose en un modo de intra-predicción del bloque actual y un tamaño del bloque actual;
    cuando se determina aplicar el primer filtro al valor de píxel de referencia del bloque actual, derivar un valor de intrapredicción del bloque actual utilizando el valor de píxel de referencia filtrado y el modo de intra-predicción del bloque actual; y
    determinar si aplicar un segundo filtro al valor de intra-predicción del bloque actual basándose en un modo de intrapredicción del bloque actual y un tamaño del bloque actual, para producir así un valor de intra-predicción filtrado, y en donde el modo de intra-predicción del bloque actual es un modo horizontal, el valor de intra-predicción filtrado se genera al aplicar el segundo filtro solamente cuando el valor de intra-predicción se posiciona en una fila lo más superior del bloque actual, en donde el modo horizontal usa exclusivamente al menos uno de los valores de los píxeles de referencia ubicados en el límite izquierdo del bloque actual.
  2. 2. - El método de decodificación de vídeo de la reivindicación 1, en donde el modo de intra-predicción del bloque actual se determina basándose en un Modo de Mayor Probabilidad (MPM).
  3. 3. - Un método de codificación de vídeo que comprende:
    determinar si aplicar un primer filtro a un valor de píxel de referencia de un bloque actual basándose en un modo de intra-predicción del bloque actual y un tamaño del bloque actual;
    cuando se determina aplicar el primer filtro al valor de píxel de referencia del bloque actual, predecir un valor de intra-predicción del bloque actual utilizando el valor de píxel de referencia filtrado y el modo de intra-predicción del bloque actual; y
    determinar si aplicar un segundo filtro al valor de intra-predicción del bloque actual basándose en al menos uno de un modo de intra-predicción del bloque actual y un tamaño del bloque actual, para producir así un valor de intrapredicción filtrado, y
    codificar información incluyendo el modo de intra-predicción del bloque actual y el tamaño del bloque actual, y en donde cuando el modo de intra-predicción del bloque actual es un modo horizontal que usa al menos uno de los valores de los píxeles de referencia ubicados en el límite izquierdo del bloque actual, el valor de intra-predicción filtrado se genera al aplicar el segundo filtro solamente a la fila más superior del bloque actual, en donde el modo horizontal usa exclusivamente al menos uno de los valores de los píxeles de referencia ubicados en el límite izquierdo del bloque actual.
ES18194215T 2010-04-09 2011-04-11 Método para realizar intra-predicción utilizando un filtro adaptativo Active ES2863540T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20100032778 2010-04-09
KR1020110026079A KR20110113561A (ko) 2010-04-09 2011-03-23 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
KR1020110032766A KR101529475B1 (ko) 2010-04-09 2011-04-08 적응적 필터를 이용한 인트라 예측을 수행하는 영상 복호화 장치

Publications (1)

Publication Number Publication Date
ES2863540T3 true ES2863540T3 (es) 2021-10-11

Family

ID=45028890

Family Applications (4)

Application Number Title Priority Date Filing Date
ES18194215T Active ES2863540T3 (es) 2010-04-09 2011-04-11 Método para realizar intra-predicción utilizando un filtro adaptativo
ES18194210T Active ES2863536T3 (es) 2010-04-09 2011-04-11 Método para realizar intra-predicción utilizando un filtro adaptativo
ES18194204T Active ES2852376T3 (es) 2010-04-09 2011-04-11 Método para realizar intra-predicción utilizando un filtro adaptable
ES11766200T Active ES2851009T3 (es) 2010-04-09 2011-04-11 Método para realizar intra-predicción utilizando un filtro adaptable

Family Applications After (3)

Application Number Title Priority Date Filing Date
ES18194210T Active ES2863536T3 (es) 2010-04-09 2011-04-11 Método para realizar intra-predicción utilizando un filtro adaptativo
ES18194204T Active ES2852376T3 (es) 2010-04-09 2011-04-11 Método para realizar intra-predicción utilizando un filtro adaptable
ES11766200T Active ES2851009T3 (es) 2010-04-09 2011-04-11 Método para realizar intra-predicción utilizando un filtro adaptable

Country Status (16)

Country Link
US (16) US9549204B2 (es)
EP (6) EP3829178A1 (es)
JP (15) JP5583840B2 (es)
KR (14) KR20110113561A (es)
CN (5) CN104994396B (es)
CY (2) CY1123771T1 (es)
DK (2) DK3448035T3 (es)
ES (4) ES2863540T3 (es)
HR (2) HRP20210238T1 (es)
HU (2) HUE053328T2 (es)
LT (2) LT2557797T (es)
PL (2) PL3448035T3 (es)
PT (2) PT2557797T (es)
RS (2) RS61410B1 (es)
SI (2) SI2557797T1 (es)
WO (1) WO2011126349A2 (es)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101510108B1 (ko) 2009-08-17 2015-04-10 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
KR20110123651A (ko) 2010-05-07 2011-11-15 한국전자통신연구원 생략 부호화를 이용한 영상 부호화 및 복호화 장치 및 그 방법
KR20120012385A (ko) * 2010-07-31 2012-02-09 오수미 인트라 예측 부호화 장치
KR101373814B1 (ko) * 2010-07-31 2014-03-18 엠앤케이홀딩스 주식회사 예측 블록 생성 장치
KR101563833B1 (ko) 2010-09-30 2015-10-27 미쓰비시덴키 가부시키가이샤 화상 복호 장치, 화상 복호 방법, 화상 부호화 장치 및 화상 부호화 방법
US9299133B2 (en) * 2011-01-12 2016-03-29 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, and image decoding method for generating a prediction image
WO2012134046A2 (ko) * 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
KR101855951B1 (ko) 2011-04-25 2018-05-09 엘지전자 주식회사 인트라 예측 방법과 이를 이용한 부호화기 및 복호화기
KR101383775B1 (ko) 2011-05-20 2014-04-14 주식회사 케이티 화면 내 예측 방법 및 장치
US9654785B2 (en) * 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
KR20120140181A (ko) 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
AU2012326895B2 (en) 2011-10-17 2015-12-17 Kt Corporation Adaptive transform method based on in-screen prediction and apparatus using the method
EP2797324A4 (en) 2011-10-24 2015-11-11 Infobridge Pte Ltd DEVICE FOR IMAGE DECODING
KR20130049526A (ko) 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
KR20130049522A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
US9282344B2 (en) 2011-11-04 2016-03-08 Qualcomm Incorporated Secondary boundary filtering for video coding
EP2797325A4 (en) 2011-12-23 2015-09-16 Korea Electronics Telecomm METHOD AND DEVICE FOR DETERMINING A REFERENCE FILE INDEX OF A TIMELY COMBINATION CANDIDATE
US9210438B2 (en) 2012-01-20 2015-12-08 Sony Corporation Logical intra mode naming in HEVC video coding
KR101530758B1 (ko) * 2012-07-04 2015-07-20 한양대학교 산학협력단 적응적 필터링을 이용하는 인트라 예측 방법 및 장치
US9277212B2 (en) * 2012-07-09 2016-03-01 Qualcomm Incorporated Intra mode extensions for difference domain intra prediction
US20150256827A1 (en) * 2012-09-28 2015-09-10 Mitsubishi Electric Corporation Video encoding device, video decoding device, video encoding method, and video decoding method
WO2014146079A1 (en) 2013-03-15 2014-09-18 Zenkich Raymond System and method for non-uniform video coding
WO2014178563A1 (ko) * 2013-04-29 2014-11-06 인텔렉추얼 디스커버리 주식회사 인트라 예측 방법 및 장치
US10015515B2 (en) * 2013-06-21 2018-07-03 Qualcomm Incorporated Intra prediction from a predictive block
US20160373740A1 (en) * 2014-03-05 2016-12-22 Sony Corporation Image encoding device and method
US10148953B2 (en) * 2014-11-10 2018-12-04 Samsung Electronics Co., Ltd. System and method for intra prediction in video coding
JP6383327B2 (ja) * 2015-06-10 2018-08-29 日本電信電話株式会社 イントラ予測処理装置、イントラ予測処理方法、イントラ予測処理プログラム、画像符号化装置及び画像復号装置
US11477484B2 (en) * 2015-06-22 2022-10-18 Qualcomm Incorporated Video intra prediction using hybrid recursive filters
JP6599552B2 (ja) * 2015-09-10 2019-10-30 エルジー エレクトロニクス インコーポレイティド ビデオコーディングシステムにおけるイントラ予測方法及び装置
CN108141585B (zh) 2015-10-22 2021-11-19 Lg 电子株式会社 视频编码系统中的帧内预测方法和装置
WO2017082670A1 (ko) * 2015-11-12 2017-05-18 엘지전자 주식회사 영상 코딩 시스템에서 계수 유도 인트라 예측 방법 및 장치
US10362314B2 (en) * 2015-11-27 2019-07-23 Mediatek Inc. Apparatus and method for video coding by intra-prediction
EP3414906A4 (en) 2016-02-08 2019-10-02 Sharp Kabushiki Kaisha SYSTEMS AND METHOD FOR INTRAPRADICATION CODING
US11095911B2 (en) * 2016-02-16 2021-08-17 Samsung Electronics Co., Ltd. Method and apparatus for encoding image
KR102609632B1 (ko) * 2016-02-25 2023-12-01 주식회사 케이티 비디오 신호 처리 방법 및 장치
KR20170108367A (ko) 2016-03-17 2017-09-27 세종대학교산학협력단 인트라 예측 기반의 비디오 신호 처리 방법 및 장치
CN105933708B (zh) * 2016-04-15 2019-02-12 杨桦 一种数据压缩和解压缩的方法和装置
CN114189678A (zh) 2016-04-26 2022-03-15 英迪股份有限公司 图像解码方法、图像编码方法以及传输比特流的方法
US11503315B2 (en) * 2016-08-19 2022-11-15 Lg Electronics Inc. Method and apparatus for encoding and decoding video signal using intra prediction filtering
WO2018044142A1 (ko) * 2016-09-05 2018-03-08 엘지전자(주) 영상 부호화/복호화 방법 및 이를 위한 장치
WO2018052224A1 (ko) 2016-09-13 2018-03-22 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN117255194A (zh) * 2016-09-30 2023-12-19 罗斯德尔动力有限责任公司 图像处理方法及其装置
WO2018097700A1 (ko) * 2016-11-28 2018-05-31 한국전자통신연구원 필터링을 위한 방법 및 장치
CN116320494A (zh) * 2016-11-28 2023-06-23 韩国电子通信研究院 用于滤波的方法和装置
WO2018124853A1 (ko) * 2017-01-02 2018-07-05 한양대학교 산학협력단 참조 화소에 대하여 적응적 필터링을 수행하기 위한 화면 내 예측 방법 및 장치
CN117336473A (zh) * 2017-01-02 2024-01-02 Lx 半导体科技有限公司 图像编码/解码方法、发送图像数据的方法以及存储介质
KR20180080115A (ko) 2017-01-02 2018-07-11 한양대학교 산학협력단 참조 화소에 대하여 적응적 필터링을 수행하기 위한 화면 내 예측 방법 및 장치
WO2018128345A2 (ko) * 2017-01-04 2018-07-12 삼성전자 주식회사 복호화 방법 및 그 장치
KR102377482B1 (ko) * 2017-03-09 2022-03-22 광운대학교 산학협력단 효과적인 영상 부/복호화를 위한 인루프 필터 정보 전송 방법 및 장치
KR20180105294A (ko) 2017-03-14 2018-09-28 한국전자통신연구원 이미지 압축 장치
US10225578B2 (en) * 2017-05-09 2019-03-05 Google Llc Intra-prediction edge filtering
US10992939B2 (en) 2017-10-23 2021-04-27 Google Llc Directional intra-prediction coding
JP6770192B2 (ja) * 2017-06-01 2020-10-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 符号化装置、符号化方法、復号装置及び復号方法
WO2019013515A1 (ko) * 2017-07-10 2019-01-17 삼성전자 주식회사 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
CN117528071A (zh) 2017-08-21 2024-02-06 韩国电子通信研究院 编码/解码视频的方法和设备以及存储比特流的记录介质
EP3700208A4 (en) 2017-10-18 2021-04-07 Electronics and Telecommunications Research Institute IMAGE ENCODING / DECODING METHOD AND DEVICE AND RECORDING MEDIUM WITH BITSTREAM STORED ON IT
JP6992825B2 (ja) 2018-01-30 2022-01-13 富士通株式会社 映像符号化装置、映像符号化方法、映像復号装置、映像復号方法、及び映像符号化システム
KR102479494B1 (ko) * 2018-06-11 2022-12-20 삼성전자주식회사 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
CN112335249A (zh) * 2018-06-25 2021-02-05 金起佰 用于编码/解码图像的方法和装置
CN110650349B (zh) * 2018-06-26 2024-02-13 中兴通讯股份有限公司 一种图像编码方法、解码方法、编码器、解码器及存储介质
CN110650337B (zh) * 2018-06-26 2022-04-01 中兴通讯股份有限公司 一种图像编码方法、解码方法、编码器、解码器及存储介质
JP7195349B2 (ja) * 2018-07-02 2022-12-23 ホアウェイ・テクノロジーズ・カンパニー・リミテッド ビデオコーディングにおけるフィルタリングのための装置および方法
KR20200006932A (ko) * 2018-07-11 2020-01-21 인텔렉추얼디스커버리 주식회사 화면내 예측 기반의 비디오 코딩 방법 및 장치
WO2020177520A1 (en) * 2019-03-04 2020-09-10 Huawei Technologies Co., Ltd. An encoder, a decoder and corresponding methods using ibc search range optimization for abitrary ctu size
CN109862371A (zh) * 2019-03-12 2019-06-07 北京大学深圳研究生院 一种基于帧内预测的编解码方法、装置及滤波器
US11818395B2 (en) 2021-04-22 2023-11-14 Electronics And Telecommunications Research Institute Immersive video decoding method and immersive video encoding method

Family Cites Families (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1020596A (en) 1911-11-17 1912-03-19 Karl August Braeuning Automatic firearm with fixed barrel and breech-action.
KR920008629B1 (ko) 1990-09-27 1992-10-02 삼성전자 주식회사 화상의 윤곽 보정회로
US5621467A (en) * 1995-02-16 1997-04-15 Thomson Multimedia S.A. Temporal-spatial error concealment apparatus and method for video signal processors
US20060026899A1 (en) * 1999-06-08 2006-02-09 Weder Donald E Floral wrapper with decorative portion and method
JP2005510985A (ja) 2001-11-21 2005-04-21 ジェネラル・インストルメント・コーポレーション デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
US20030099294A1 (en) 2001-11-27 2003-05-29 Limin Wang Picture level adaptive frame/field coding for digital video content
DE10158658A1 (de) * 2001-11-30 2003-06-12 Bosch Gmbh Robert Verfahren zur gerichteten Prädiktion eines Bildblockes
EP3139606B1 (en) * 2002-05-28 2019-07-10 Dolby International AB Method and systems for image intra-prediction mode estimation, communication, and organization
AU2003248913A1 (en) * 2003-01-10 2004-08-10 Thomson Licensing S.A. Defining interpolation filters for error concealment in a coded image
US7289562B2 (en) 2003-08-01 2007-10-30 Polycom, Inc. Adaptive filter to improve H-264 video quality
CN100536573C (zh) * 2004-01-16 2009-09-02 北京工业大学 基于方向的dc预测方法及用于视频编码的帧内预测方法
JP2006005438A (ja) 2004-06-15 2006-01-05 Sony Corp 画像処理装置およびその方法
KR100913088B1 (ko) * 2005-01-21 2009-08-21 엘지전자 주식회사 베이스 레이어의 내부모드 블록의 예측정보를 이용하여영상신호를 엔코딩/디코딩하는 방법 및 장치
JP2006229411A (ja) * 2005-02-16 2006-08-31 Matsushita Electric Ind Co Ltd 画像復号化装置及び画像復号化方法
US7876833B2 (en) * 2005-04-11 2011-01-25 Sharp Laboratories Of America, Inc. Method and apparatus for adaptive up-scaling for spatially scalable coding
KR100873636B1 (ko) * 2005-11-14 2008-12-12 삼성전자주식회사 단일 부호화 모드를 이용하는 영상 부호화/복호화 방법 및장치
KR101246294B1 (ko) * 2006-03-03 2013-03-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
JP2007252256A (ja) 2006-03-22 2007-10-04 Daiwa Seiko Inc 魚釣用電動リール
KR100745765B1 (ko) * 2006-04-13 2007-08-02 삼성전자주식회사 화상 데이터의 공간상 예측 장치 및 방법과 그를 이용한부호화 장치 및 방법, 화상 데이터의 공간상 예측 보상장치 및 방법과 그를 이용한 복호화 장치 및 방법
CA2659351A1 (en) * 2006-07-28 2008-01-31 Kabushiki Kaisha Toshiba Method and apparatus for encoding and decoding image
JP4719650B2 (ja) * 2006-08-31 2011-07-06 富士通株式会社 画像符号化装置
US9014280B2 (en) * 2006-10-13 2015-04-21 Qualcomm Incorporated Video coding with adaptive filtering for motion compensated prediction
KR101566557B1 (ko) * 2006-10-18 2015-11-05 톰슨 라이센싱 예측 데이터 리파인먼트를 이용한 비디오 코딩 방법 및 장치
CN101267567A (zh) * 2007-03-12 2008-09-17 华为技术有限公司 帧内预测、编解码方法及装置
EP2119236A1 (en) * 2007-03-15 2009-11-18 Nokia Corporation System and method for providing improved residual prediction for spatial scalability in video coding
CN103281542B (zh) * 2007-06-29 2017-07-14 夏普株式会社 图像编码装置、图像编码方法、图像译码装置、图像译码方法
US7650455B2 (en) * 2007-07-27 2010-01-19 International Business Machines Corporation Spider web interconnect topology utilizing multiple port connection
US9237357B2 (en) * 2007-09-02 2016-01-12 Lg Electronics Inc. Method and an apparatus for processing a video signal
CN101163249B (zh) * 2007-11-20 2010-07-21 北京工业大学 直流模式预测方法
US8165210B2 (en) * 2007-12-17 2012-04-24 Vixs Systems, Inc. Video codec with shared interpolation filter and method for use therewith
KR101460608B1 (ko) 2008-03-04 2014-11-14 삼성전자주식회사 필터링된 예측 블록을 이용한 영상 부호화, 복호화 방법 및장치
KR101591825B1 (ko) * 2008-03-27 2016-02-18 엘지전자 주식회사 비디오 신호의 인코딩 또는 디코딩 방법 및 장치
WO2009131508A2 (en) * 2008-04-23 2009-10-29 Telefonaktiebolaget Lm Ericsson (Publ) Template-based pixel block processing
JP2009284298A (ja) * 2008-05-23 2009-12-03 Hitachi Ltd 動画像符号化装置、動画像復号化装置、動画像符号化方法及び動画像復号化方法
JP2010035137A (ja) * 2008-07-01 2010-02-12 Sony Corp 画像処理装置および方法、並びにプログラム
WO2010001198A1 (en) * 2008-07-02 2010-01-07 Telefonaktiebolaget L M Ericsson (Publ) Service enablement/disablement based on service relationships
US20100061650A1 (en) 2008-09-05 2010-03-11 Barinder Singh Rai Method And Apparatus For Providing A Variable Filter Size For Providing Image Effects
KR100968774B1 (ko) 2008-09-18 2010-07-09 고려대학교 산학협력단 다수의 이종 프로세서를 구비하는 멀티 프로세싱 시스템 및그 구동 방법
EP2262267A1 (en) 2009-06-10 2010-12-15 Panasonic Corporation Filter coefficient coding scheme for video coding
KR101510108B1 (ko) 2009-08-17 2015-04-10 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
KR101616941B1 (ko) 2009-09-07 2016-04-29 삼성전자주식회사 체적 탄성파 공진기를 이용한 위상 천이 장치
KR101464423B1 (ko) 2010-01-08 2014-11-25 노키아 코포레이션 비디오 프로세싱을 위한 장치, 방법 및 컴퓨터 프로그램
US8644375B2 (en) * 2010-04-09 2014-02-04 Sharp Laboratories Of America, Inc. Methods and systems for intra prediction
KR20110113561A (ko) 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
US8619857B2 (en) * 2010-04-09 2013-12-31 Sharp Laboratories Of America, Inc. Methods and systems for intra prediction
US9197893B2 (en) * 2010-04-26 2015-11-24 Panasonic Intellectual Property Corporation Of America Filtering mode for intra prediction inferred from statistics of surrounding blocks
WO2011136896A1 (en) * 2010-04-27 2011-11-03 Sony Corporation Boundary adaptive intra prediction for improving subjective video quality
EP2388999B1 (en) * 2010-05-17 2021-02-24 Lg Electronics Inc. New intra prediction modes
KR101373814B1 (ko) * 2010-07-31 2014-03-18 엠앤케이홀딩스 주식회사 예측 블록 생성 장치
KR20120012385A (ko) * 2010-07-31 2012-02-09 오수미 인트라 예측 부호화 장치
SI3125555T1 (en) 2010-08-17 2018-07-31 M&K Holdings Inc. Procedure for coding the internal predictive mode
US10085019B2 (en) * 2010-08-17 2018-09-25 M&K Holdings Inc. Method for restoring an intra prediction mode
US9008175B2 (en) * 2010-10-01 2015-04-14 Qualcomm Incorporated Intra smoothing filter for video coding
US9258573B2 (en) * 2010-12-07 2016-02-09 Panasonic Intellectual Property Corporation Of America Pixel adaptive intra smoothing
CN107257465B (zh) 2010-12-08 2020-08-04 Lg 电子株式会社 由编码装置和解码装置执行的内预测方法及可读存储介质
WO2012092763A1 (en) 2011-01-07 2012-07-12 Mediatek Singapore Pte. Ltd. Method and apparatus of improved intra luma prediction mode coding
WO2012134046A2 (ko) * 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
US9432699B2 (en) * 2011-05-18 2016-08-30 Nokia Technologies Oy Methods, apparatuses and computer programs for video coding
KR20120140181A (ko) 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
SG10201408745YA (en) 2011-06-28 2015-02-27 Samsung Electronics Co Ltd Prediction method and apparatus for chroma component of image using luma component of image
PL3402200T3 (pl) 2011-10-24 2023-04-11 Gensquare Llc Aparat do dekodowania obrazu
TWI601414B (zh) * 2011-10-28 2017-10-01 三星電子股份有限公司 對視訊進行畫面內預測的方法
US9282344B2 (en) * 2011-11-04 2016-03-08 Qualcomm Incorporated Secondary boundary filtering for video coding
RS60786B1 (sr) * 2012-01-20 2020-10-30 Dolby Laboratories Licensing Corp Postupak mapiranja režima intra predikcije
US9467692B2 (en) 2012-08-31 2016-10-11 Qualcomm Incorporated Intra prediction improvements for scalable video coding
US9357211B2 (en) * 2012-12-28 2016-05-31 Qualcomm Incorporated Device and method for scalable and multiview/3D coding of video information
US9615086B2 (en) * 2013-02-06 2017-04-04 Research & Business Foundation Sungkyunkwan University Method and apparatus for intra prediction
US9451254B2 (en) 2013-07-19 2016-09-20 Qualcomm Incorporated Disabling intra prediction filtering
US10225578B2 (en) * 2017-05-09 2019-03-05 Google Llc Intra-prediction edge filtering

Also Published As

Publication number Publication date
JP5583840B2 (ja) 2014-09-03
US10623769B2 (en) 2020-04-14
CN106060566A (zh) 2016-10-26
US20190037238A1 (en) 2019-01-31
WO2011126349A3 (ko) 2012-01-26
US9549204B2 (en) 2017-01-17
PL2557797T3 (pl) 2021-06-14
JP2014207684A (ja) 2014-10-30
CN104994395A (zh) 2015-10-21
DK3448035T3 (da) 2021-02-15
US20160044336A1 (en) 2016-02-11
US10623770B2 (en) 2020-04-14
HUE053328T2 (hu) 2021-06-28
US20180048912A1 (en) 2018-02-15
EP3829178A1 (en) 2021-06-02
CN104902283B (zh) 2018-12-14
JP2014207683A (ja) 2014-10-30
SI2557797T1 (sl) 2021-04-30
EP3823285A1 (en) 2021-05-19
EP2557797A2 (en) 2013-02-13
EP2557797A4 (en) 2016-07-06
US10623771B2 (en) 2020-04-14
JP6574011B2 (ja) 2019-09-11
US20180352250A1 (en) 2018-12-06
US20190007701A1 (en) 2019-01-03
KR20110113561A (ko) 2011-10-17
US20180376167A1 (en) 2018-12-27
US20190014346A1 (en) 2019-01-10
JP7111859B2 (ja) 2022-08-02
JP2017143542A (ja) 2017-08-17
HUE052884T2 (hu) 2021-05-28
US10440392B2 (en) 2019-10-08
PL3448035T3 (pl) 2021-05-17
CN104994395B (zh) 2018-06-01
JP2018137782A (ja) 2018-08-30
JP2023139224A (ja) 2023-10-03
US10432968B2 (en) 2019-10-01
KR20170032894A (ko) 2017-03-23
EP3448037A1 (en) 2019-02-27
HRP20210238T1 (hr) 2021-04-02
JP6574012B2 (ja) 2019-09-11
KR20170120538A (ko) 2017-10-31
US20230188749A1 (en) 2023-06-15
LT2557797T (lt) 2021-03-10
KR101529475B1 (ko) 2015-06-17
US10440393B2 (en) 2019-10-08
KR20130110126A (ko) 2013-10-08
JP6574014B2 (ja) 2019-09-11
KR101719346B1 (ko) 2017-03-27
KR20180127286A (ko) 2018-11-28
JP6574010B2 (ja) 2019-09-11
KR102403965B1 (ko) 2022-05-31
EP3448036B1 (en) 2021-02-17
KR20110113592A (ko) 2011-10-17
JP2016140090A (ja) 2016-08-04
JP2018137779A (ja) 2018-08-30
KR102028105B1 (ko) 2019-10-01
KR102143512B1 (ko) 2020-08-11
JP2014207685A (ja) 2014-10-30
CY1123800T1 (el) 2022-05-27
KR101791076B1 (ko) 2017-11-20
KR101922459B1 (ko) 2018-11-27
US20180352251A1 (en) 2018-12-06
KR101719347B1 (ko) 2017-03-27
JP2018137783A (ja) 2018-08-30
ES2851009T3 (es) 2021-09-02
RS61405B1 (sr) 2021-02-26
US20190007700A1 (en) 2019-01-03
WO2011126349A2 (ko) 2011-10-13
EP3448037B1 (en) 2021-02-17
JP2018137781A (ja) 2018-08-30
US20130039421A1 (en) 2013-02-14
JP2022141850A (ja) 2022-09-29
CN104994396B (zh) 2018-11-06
ES2863536T3 (es) 2021-10-11
KR20130110127A (ko) 2013-10-08
KR20200096466A (ko) 2020-08-12
JP2013524681A (ja) 2013-06-17
US20160044337A1 (en) 2016-02-11
KR20220077905A (ko) 2022-06-09
EP3448035B1 (en) 2021-01-13
KR102578697B1 (ko) 2023-09-14
US10560721B2 (en) 2020-02-11
EP3448036A1 (en) 2019-02-27
KR101666862B1 (ko) 2016-10-19
PT3448035T (pt) 2021-02-18
US20180352252A1 (en) 2018-12-06
US10075734B2 (en) 2018-09-11
US9661345B2 (en) 2017-05-23
CN104994396A (zh) 2015-10-21
HRP20210264T1 (hr) 2021-06-11
US20210176494A1 (en) 2021-06-10
KR20230132431A (ko) 2023-09-15
CY1123771T1 (el) 2022-05-27
US10560722B2 (en) 2020-02-11
US20170164002A1 (en) 2017-06-08
PT2557797T (pt) 2021-02-16
US20200128273A1 (en) 2020-04-23
JP7324909B2 (ja) 2023-08-10
US11601673B2 (en) 2023-03-07
LT3448035T (lt) 2021-03-10
EP3448035A1 (en) 2019-02-27
CN104902283A (zh) 2015-09-09
SI3448035T1 (sl) 2021-08-31
KR20180127285A (ko) 2018-11-28
KR20180081027A (ko) 2018-07-13
JP6313497B2 (ja) 2018-04-18
JP2018137780A (ja) 2018-08-30
KR101885772B1 (ko) 2018-08-06
US9838711B2 (en) 2017-12-05
KR20130106341A (ko) 2013-09-27
JP2020005277A (ja) 2020-01-09
KR20210088508A (ko) 2021-07-14
JP2021106403A (ja) 2021-07-26
KR102277360B1 (ko) 2021-07-14
EP2557797B1 (en) 2021-01-13
DK2557797T3 (da) 2021-02-15
KR102028104B1 (ko) 2019-10-01
KR20190111877A (ko) 2019-10-02
CN102939761A (zh) 2013-02-20
CN102939761B (zh) 2016-08-24
US10951917B2 (en) 2021-03-16
ES2852376T3 (es) 2021-09-13
JP6574013B2 (ja) 2019-09-11
US9781448B2 (en) 2017-10-03
CN106060566B (zh) 2019-03-29
RS61410B1 (sr) 2021-03-31

Similar Documents

Publication Publication Date Title
ES2863540T3 (es) Método para realizar intra-predicción utilizando un filtro adaptativo