ES2967198T3 - Predicción intra utilizando píxeles de referencia de líneas adicionales - Google Patents

Predicción intra utilizando píxeles de referencia de líneas adicionales

Info

Publication number
ES2967198T3
ES2967198T3 ES21176389T ES21176389T ES2967198T3 ES 2967198 T3 ES2967198 T3 ES 2967198T3 ES 21176389 T ES21176389 T ES 21176389T ES 21176389 T ES21176389 T ES 21176389T ES 2967198 T3 ES2967198 T3 ES 2967198T3
Authority
ES
Spain
Prior art keywords
prediction
sample
block
current block
reference sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES21176389T
Other languages
English (en)
Inventor
Bae Keun Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KT Corp
Original Assignee
KT Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KT Corp filed Critical KT Corp
Application granted granted Critical
Publication of ES2967198T3 publication Critical patent/ES2967198T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Un método para procesar un vídeo según la presente invención puede comprender: generar una pluralidad de candidatos al Modo Más Probable (MPM); determinar si hay un candidato de MPM idéntico a un modo de intrapredicción de un bloque actual entre la pluralidad de candidatos de MPM; obtener el modo de intrapredicción del bloque actual, en base a un resultado de la determinación; y realizar una intrapredicción para el bloque actual, basándose en el modo de intrapredicción del bloque actual. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Predicción intra utilizando píxeles de referencia de líneas adicionales
Campo técnico
La presente invención se refiere a un procedimiento y un aparato para procesar señales de vídeo.
Técnica anterior
Recientemente, la demanda de imágenes de alta resolución y alta calidad, como imágenes de alta definición (HD) e imágenes de ultra alta definición (UHD), ha aumentado en diversos campos de aplicación. Sin embargo, los datos de imágenes de mayor resolución y calidad tienen cantidades cada vez mayores de datos en comparación con los datos de imágenes convencionales. Por lo tanto, cuando se transmiten datos de imágenes usando un medio tal como redes de banda ancha inalámbricas y alámbricas convencionales, o cuando se almacenan datos de imágenes usando un medio de almacenamiento convencional, los costes de transmisión y almacenamiento aumentan. Para resolver estos problemas que ocurren con un aumento en la resolución y la calidad de los datos de imagen, se pueden utilizartécnicas de codificación/decodificación de imágenes de alta eficiencia.
La tecnología de compresión de imágenes incluye varias técnicas, que incluyen: una técnica de interpredicción para predecir un valor de píxel incluido en una imagen actual a partir de una imagen anterior o posterior de la imagen actual; una técnica de intrapredicción para predecir un valor de píxel incluido en una imagen actual utilizando información de píxel en la imagen actual; una técnica de codificación entrópica para asignar un código corto a un valor con una frecuencia de aparición alta y asignar un código largo a un valor con una frecuencia de aparición baja; etc. Los datos de imagen pueden comprimirse de manera efectiva mediante el uso de dicha tecnología de compresión de imágenes y pueden transmitirse o almacenarse.
Mientras tanto, con la demanda de imágenes de alta resolución, también ha aumentado la demanda de contenido de imágenes estereográficas, que es un nuevo servicio de imágenes. Se está debatiendo una técnica de compresión de vídeo para proporcionar eficazmente contenido de imágenes estereográficas con alta y ultra alta resolución.
El documento EP 1569461 A2 divulga un aparato de codificación de imágenes, un procedimiento de codificación de imágenes y un programa de codificación de imágenes que puede codificar imágenes de manera eficiente reemplazando píxeles de referencia no disponibles para intrapredicción usando píxeles de la siguiente línea de referencia disponible.
Divulgación
Problema técnico
Un objeto de la presente invención pretende proporcionar un procedimiento y un aparato para realizar eficientemente intrapredicción para un bloque objetivo de codificación/decodificación al codificar/decodificar una señal de vídeo. Un objeto de la presente invención pretende proporcionar un procedimiento y un aparato para realizar intrapredicción para un bloque objetivo de codificación/decodificación basado en una pluralidad de líneas de referencia.
Un objeto de la presente invención pretende proporcionar un procedimiento y un aparato para reemplazar una muestra de referencia no disponible con una muestra de referencia disponible durante una generación de una pluralidad de líneas de referencia al codificar/decodificar una señal de vídeo.
Un objeto de la presente invención pretende proporcionar un procedimiento y un aparato para calcular un valor promedio de una cualquiera de una pluralidad de líneas de referencia al codificar/decodificar una señal de vídeo. Los objetivos técnicos que se pretenden alcanzar con la presente invención no se limitan a los problemas técnicos mencionados anteriormente. Y, aparentemente, los expertos en la técnica entenderán otros problemas técnicos que no se mencionan a partir de la siguiente descripción.
Solución técnica
La invención se define en las reivindicaciones independientes y en las reivindicaciones dependientes se describen diversas realizaciones.
Efectos ventajosos
Según la presente invención, se puede realizar una intrapredicción eficaz para un bloque objetivo de codificación/decodificación.
Según la presente invención, la intrapredicción para un bloque objetivo de codificación/decodificación se puede realizar basándose en una pluralidad de líneas de referencia.
Según la presente invención, una muestra de referencia no disponible se reemplaza con una muestra de referencia disponible durante una generación de una pluralidad de líneas de referencia.
Según la presente invención, la intrapredicción para un bloque objetivo de codificación/decodificación calculando un valor promedio de una de la pluralidad de líneas de referencia.
Los efectos que se pueden obtener mediante la presente invención no se limitan a los efectos mencionados anteriormente, y los expertos en la técnica pueden entender claramente otros efectos no mencionados a partir de la descripción siguiente.
Descripción de dibujos
La figura 1 es un diagrama de bloques que ilustra un dispositivo para codificar un vídeo según una realización de la presente invención.
La figura 2 es un diagrama de bloques que ilustra un dispositivo para decodificar un vídeo según una realización de la presente invención.
La figura 3 es un dibujo que ilustra un ejemplo de partición jerárquica de un bloque de codificación basándose en una estructura de árbol según una realización de la presente invención.
La figura 4 es un dibujo que ilustra un modo de partición que se puede aplicar a un bloque de codificación cuando el bloque de codificación se codifica mediante interpredicción.
La figura 5 es un dibujo que ilustra tipos de modos de intrapredicción predefinidos para un dispositivo para codificar/decodificar un vídeo según una realización de la presente invención.
La figura 6 es un dibujo que ilustra un tipo de modos de intrapredicción extendidos según una realización de la presente invención.
La figura 7 es un diagrama de flujo que ilustra brevemente un procedimiento de intrapredicción según una realización de la presente invención.
La figura 8 es un dibujo que ilustra un procedimiento para corregir una muestra de predicción de un bloque actual basándose en información diferencial de muestras vecinas según una realización de la presente invención. Las figuras 9 y 10 son dibujos que ilustran un procedimiento para corregir una muestra de predicción basándose en un filtro de corrección predeterminado según una realización de la presente invención.
La figura 11 muestra una gama de muestras de referencia para intrapredicción según una realización a la que se aplica la presente invención.
Las figuras 12 a 14 ilustran un ejemplo de filtrado de muestras de referencia según una realización de la presente invención.
La figura 15 es un dibujo que ilustra una pluralidad de líneas de muestra de referencia según una realización de la presente invención.
La figura 16 es un diagrama de flujo que ilustra un procedimiento para realizar intrapredicción usando una línea de referencia extendida según la presente invención.
La figura 17 es un dibujo que ilustra una pluralidad de líneas de referencia para un bloque no cuadrado según la presente invención.
La figura 18 es un dibujo para explicar un ejemplo en el que una muestra de referencia no disponible se reemplaza con una muestra de referencia disponible ubicada a la distancia más corta de la muestra de referencia no disponible.
Las figuras 19 y 20 son dibujos para explicar una realización en la que la posición de una muestra de referencia disponible se determina de forma adaptativa según una distancia entre una muestra de referencia no disponible y una muestra de referencia disponible incluida en la misma línea de referencia que la muestra de referencia no disponible.
Las figuras 21 y 22 son dibujos que ilustran muestras de referencia utilizadas para derivar un valor promedio de una línea de referencia según una realización a la que se aplica la presente invención.
Modo de invención
Se pueden realizar una variedad de modificaciones a la presente invención y hay varias realizaciones de la presente invención, cuyos ejemplos se proporcionarán ahora con referencia a los dibujos y se describirán en detalle. Sin embargo, la presente invención no se limita a esto, y se puede interpretar que las realizaciones ejemplares incluyen todas las modificaciones, equivalentes o sustitutos en un concepto técnico y un ámbito técnico de la presente invención. Los números de referencia similares se refieren al elemento similar descrito en los dibujos.
Los términos utilizados en la especificación, 'primero", 'segundo", etc., pueden usarse para describir varios componentes, pero los componentes no deben interpretarse como limitados a los términos. Los términos sólo se utilizan para diferenciar un componente de otros componentes. Por ejemplo, el 'primer' componente puede denominarse 'segundo' componente sin apartarse del alcance de la presente invención, y el 'segundo' componente también puede denominarse de manera similar 'primer' componente. El término 'y/o' incluye una combinación de una pluralidad de elementos o cualquiera de una pluralidad de términos.
Se entenderá que cuando en la presente descripción se hace referencia a un elemento simplemente como 'conectado a' o 'acoplado a' otro elemento sin estar 'directamente conectado a' o 'acoplado directamente a' otro elemento, puede estar 'directamente conectado a' o 'directamente acoplado a' otro elemento o estar conectado o acoplado a otro elemento, teniendo el otro elemento interpuesto entre ellos. Por el contrario, debe entenderse que cuando se hace referencia a un elemento como 'directamente acoplado' o 'directamente conectado' a otro elemento, no hay elementos intermedios presentes.
Los términos utilizados en la presente especificación se utilizan simplemente para describir realizaciones particulares y no pretenden limitar la presente invención. Una expresión utilizada en singular abarca la expresión del plural, a menos que tenga un significado claramente diferente en el contexto. En la presente especificación, se entenderá que términos tales como 'incluyendo', 'teniendo', etc. pretenden indicar la existencia de las características, números, etapas, acciones, elementos, partes o combinaciones de los mismos divulgados en la especificación, y no pretenden excluir la posibilidad de que una o más características, números, etapas, acciones, elementos, partes o combinaciones de los mismos puedan existir o agregarse.
A continuación, se describirán en detalle realizaciones preferidas de la presente invención con referencia a los dibujos adjuntos. En lo sucesivo, los mismos elementos constitutivos en los dibujos se indican con los mismos números de referencia y se omitirá una descripción repetida de los mismos elementos.
La figura 1 es un diagrama de bloques que ilustra un dispositivo para codificar un vídeo según una realización de la presente invención.
Haciendo referencia a la figura 1, el dispositivo 100 para codificar un vídeo puede incluir: un módulo 110 de partición de imágenes, módulos 120 y 125 de predicción, un módulo 130 de transformación, un módulo 135 de cuantificación, un módulo 160 de reordenamiento, un módulo 165 de codificación de entropía, un módulo 140 de cuantificación inversa, un módulo 145 de transformación inversa, un módulo 150 de filtro y una memoria 155.
Las partes constitucionales que se muestran en la figura 1 se muestran de forma independiente para representar funciones características diferentes entre sí en el dispositivo para codificar un vídeo. Por tanto, no significa que cada parte constitucional esté constituida en una unidad constitucional de hardware o software separado. En otras palabras, cada parte constitucional incluye cada una de las partes constitucionales enumeradas por conveniencia. Así, al menos dos partes constitucionales de cada parte constitucional pueden combinarse para formar una parte constitucional o una parte constitucional puede dividirse en una pluralidad de partes constitucionales para desempeñar cada función. La realización en la que se combina cada parte constitucional y la realización en la que se divide una parte constitucional también están incluidas en el alcance de la presente invención, si no se apartan de la esencia de la presente invención.
Además, algunos de los constituyentes pueden no ser constituyentes indispensables que realicen funciones esenciales de la presente invención, sino que sean constituyentes selectivos que mejoren únicamente el desempeño de la misma. La presente invención puede implementarse incluyendo solo las partes constitucionales indispensables para implementar la esencia de la presente invención, excepto los constituyentes utilizados para mejorar el rendimiento. La estructura que incluye sólo los constituyentes indispensables, excepto los constituyentes selectivos utilizados sólo para mejorar el rendimiento, también está incluida en el ámbito de la presente invención.
El módulo 110 de partición de imágenes puede dividir una imagen de entrada en una o más unidades de procesamiento. Aquí, la unidad de procesamiento puede ser una unidad de predicción (PU), una unidad de transformación (TU) o una unidad de codificación (CU). El módulo 110 de partición de imágenes puede dividir una imagen en combinaciones de múltiples unidades de codificación, unidades de predicción y unidades de transformación, y puede codificar una imagen seleccionando una combinación de unidades de codificación, unidades de predicción y unidades de transformación con un criterio predeterminado (por ejemplo, función de coste).
Por ejemplo, una imagen puede dividirse en múltiples unidades de codificación. Se puede utilizar una estructura de árbol recursiva, tal como una estructura de árbol cuádruple, para dividir una imagen en unidades de codificación. Una unidad de codificación que está dividida en otras unidades de codificación con una imagen o una unidad de codificación más grande como raíz puede dividirse con nodos secundarios correspondientes al número de unidades de codificación divididas. Una unidad de codificación que ya no está dividida por una limitación predeterminada sirve como nodo hoja. Es decir, cuando se supone que sólo es posible la partición cuadrada para una unidad de codificación, una unidad de codificación puede dividirse en otras cuatro unidades de codificación como máximo.
De ahora en adelante, en la realización de la presente invención, la unidad de codificación puede significar una unidad que realiza la codificación o una unidad que realiza la decodificación.
Una unidad de predicción puede ser una de las particiones divididas en una forma cuadrada o rectangular que tiene el mismo tamaño en una única unidad de codificación, o una unidad de predicción puede ser una de las particiones divididas para tener una forma/tamaño diferente en una única unidad de codificación.
Cuando una unidad de predicción sometida a intrapredicción se genera basándose en una unidad de codificación y la unidad de codificación no es la unidad de codificación más pequeña, la intrapredicción se puede realizar sin dividir la unidad de codificación en múltiples unidades de predicción NxN.
Los módulos 120 y 125 de predicción pueden incluir un módulo 120 de interpredicción que realiza interpredicción y un módulo 125 de intrapredicción que realiza intrapredicción. Se puede determinar si se debe realizar interpredicción o intrapredicción para la unidad de predicción, y se puede determinar información detallada (por ejemplo, un modo de intrapredicción, un vector de movimiento, una imagen de referencia, etc.) de acuerdo con cada procedimiento de predicción. Aquí, la unidad de procesamiento sujeta a predicción puede ser diferente de la unidad de procesamiento para la cual se determina el procedimiento de predicción y el contenido detallado. Por ejemplo, el procedimiento de predicción, el modo de predicción, etc. pueden ser determinados por la unidad de predicción, y la predicción puede ser realizada por la unidad de transformación. Un valor residual (bloque residual) entre el bloque de predicción generado y un bloque original puede introducirse en el módulo 130 de transformación. Además, la información del modo de predicción, la información del vector de movimiento, etc. usada para la predicción puede codificarse con el valor residual mediante el módulo 165 de codificación de entropía y puede transmitirse a un dispositivo para decodificar un vídeo. Cuando se utiliza un modo de codificación particular, es posible transmitir a un dispositivo para decodificar vídeo codificando el bloque original tal como está sin generar el bloque de predicción a través de los módulos 120 y 125 de predicción.
El módulo 120 de interpredicción puede predecir la unidad de predicción basándose en información de al menos una de una imagen anterior o una imagen posterior de la imagen actual, o puede predecir la unidad de predicción basándose en información de algunas regiones codificadas en la imagen actual, en algunos casos. El módulo 120 de interpredicción puede incluir un módulo de interpolación de imágenes de referencia, un módulo de predicción de movimiento y un módulo de compensación de movimiento.
El módulo de interpolación de imágenes de referencia puede recibir información de imágenes de referencia desde la memoria 155 y puede generar información de píxeles de un píxel entero o menos que el píxel entero de la imagen de referencia. En el caso de píxeles de luma, se puede usar un filtro de interpolación basado en DCT de 8 derivaciones que tiene diferentes coeficientes de filtro para generar información de píxeles de un píxel entero o menos de un píxel entero en unidades de 1/4 de píxel. En el caso de señales cromáticas, se puede usar un filtro de interpolación basado en DCT de 4 derivaciones que tiene un coeficiente de filtro diferente para generar información de píxel de un píxel entero o menos de un píxel entero en unidades de 1/8 de píxel.
El módulo de predicción de movimiento puede realizar predicción de movimiento basándose en la imagen de referencia interpolada por el módulo de interpolación de imágenes de referencia. Como procedimientos para calcular un vector de movimiento, se pueden utilizar varios procedimientos, tales como un algoritmo de coincidencia de bloques basado en búsqueda completa (FBMA), una búsqueda de tres pasos (TSS), un nuevo algoritmo de búsqueda de tres pasos (NTS), etc. El vector de movimiento puede tener un valor de vector de movimiento en unidades de 1/2 píxel o 1/4 de píxel basándose en un píxel interpolado. El módulo de predicción de movimiento puede predecir una unidad de predicción actual cambiando el procedimiento de predicción de movimiento. Como procedimientos de predicción de movimiento, se pueden usar varios procedimientos, tales como un procedimiento de omisión, un procedimiento de fusión, un procedimiento AMVP (predicción avanzada de vectores de movimiento), un procedimiento de copia intrabloques, etc.
El módulo 125 de intrapredicción puede generar una unidad de predicción basada en información de píxeles de referencia vecina a un bloque actual que es información de píxeles en la imagen actual. Cuando el bloque vecino de la unidad de predicción actual es un bloque sometido a interpredicción y, por tanto, un píxel de referencia es un píxel sometido a interpredicción, el píxel de referencia incluido en el bloque sometido a interpredicción puede sustituirse con información de píxel de referencia de un bloque vecino sometido a intrapredicción. Es decir, cuando un píxel de referencia no está disponible, se puede utilizar al menos un píxel de referencia de los píxeles de referencia disponibles en lugar de información de píxeles de referencia no disponibles.
Los modos de predicción en la intrapredicción pueden incluir un modo de predicción direccional que utiliza información de píxeles de referencia dependiendo de una dirección de predicción y un modo de predicción no direccional que no utiliza información direccional para realizar la predicción. Un modo para predecir información de luma puede ser diferente de un modo para predecir información de croma, y para predecir la información de croma, se puede utilizar información de modo de intrapredicción usada para predecir información de luma o información de señal de luma predicha.
Al realizar una intrapredicción, cuando el tamaño de la unidad de predicción es el mismo que el tamaño de la unidad de transformación, la intrapredicción se puede realizar en la unidad de predicción basándose en los píxeles colocados en la izquierda, en la parte superior izquierda y en la parte superior de la unidad de predicción. Sin embargo, al realizar una intrapredicción, cuando el tamaño de la unidad de predicción es diferente del tamaño de la unidad de transformación, la intrapredicción se puede realizar usando un píxel de referencia basado en la unidad de transformación. Además, la intrapredicción usando partición NxN puede usarse sólo para la unidad de codificación más pequeña.
En el procedimiento de intrapredicción, se puede generar un bloque de predicción después de aplicar un filtro AIS (Intra suavizado adaptativo) a un píxel de referencia dependiendo de los modos de predicción. El tipo de filtro AIS aplicado al píxel de referencia puede variar. Para realizar el procedimiento de intrapredicción, se puede predecir un modo de intrapredicción de la unidad de predicción actual a partir del modo de intrapredicción de la unidad de predicción vecina a la unidad de predicción actual. En la predicción del modo de predicción de la unidad de predicción actual utilizando información de modo predicha a partir de la unidad de predicción vecina, cuando el modo de intrapredicción de la unidad de predicción actual es el mismo que el modo de intrapredicción de la unidad de predicción vecina, la información que indica que el los modos de predicción de la unidad de predicción actual y la unidad de predicción vecina son iguales entre sí y pueden transmitirse usando información de indicador predeterminada. Cuando el modo de predicción de la unidad de predicción actual es diferente del modo de predicción de la unidad de predicción vecina, se puede realizar codificación entrópica para codificar información del modo de predicción del bloque actual.
Además, se puede generar un bloque residual que incluye información sobre un valor residual que es diferente entre la unidad de predicción sujeta a predicción y el bloque original de la unidad de predicción basándose en las unidades de predicción generadas por los módulos 120 y 125 de predicción. El bloque residual generado puede introducirse en el módulo 130 de transformación.
El módulo 130 de transformación puede transformar el bloque residual incluyendo la información sobre el valor residual entre el bloque original y la unidad de predicción generada por los módulos 120 y 125 de predicción usando un procedimiento de transformación, tal como transformada de coseno discreta (DCT), transformada de seno discreta (DST) y KLT. Se puede determinar si aplicar DCT, DST o KLT para transformar el bloque residual basándose en la información del modo de intrapredicción de la unidad de predicción utilizada para generar el bloque residual.
El módulo 135 de cuantificación puede cuantificar valores transformados a un dominio de frecuencia por el módulo 130 de transformación. Los coeficientes de cuantificación pueden variar según el bloque o la importancia de una imagen. Los valores calculados por el módulo 135 de cuantificación pueden proporcionarse al módulo 140 de cuantificación inversa y al módulo 160 de reordenamiento.
El módulo 160 de reordenamiento puede reordenar coeficientes de valores residuales cuantificados.
El módulo 160 de reordenamiento puede cambiar un coeficiente en forma de un bloque bidimensional a un coeficiente en forma de un vector unidimensional a través de un procedimiento de exploración de coeficientes. Por ejemplo, el módulo 160 de reordenamiento puede escanear desde un coeficiente<d>C a un coeficiente en un dominio de alta frecuencia usando un procedimiento de escaneo en zigzag para cambiar los coeficientes para que tengan la forma de vectores unidimensionales. Dependiendo del tamaño de la unidad de transformación y del modo de intrapredicción, se puede utilizar el escaneo en dirección vertical donde los coeficientes en forma de bloques bidimensionales se escanean en la dirección de la columna o el escaneo en dirección horizontal donde los coeficientes en forma de bloques bidimensionales se escanean en la dirección de la fila en lugar del escaneo en zigzag. Es decir, qué procedimiento de exploración entre exploración en zigzag, exploración en dirección vertical y exploración en dirección horizontal se utiliza puede determinarse dependiendo del tamaño de la unidad de transformación y del modo de intrapredicción.
El módulo 165 de codificación de entropía puede realizar codificación de entropía basándose en los valores calculados por el módulo 160 de reordenamiento. La codificación entrópica puede utilizar varios procedimientos de codificación, por ejemplo, codificación Golomb exponencial, codificación de longitud variable adaptativa al contexto (CAVLC) y codificación aritmética binaria adaptativa al contexto (CABAC).
El módulo 165 de codificación de entropía puede codificar una variedad de información, tal como información de coeficiente de valor residual e información de tipo de bloque de la unidad de codificación, información de modo de predicción, información de unidad de partición, información de unidad de predicción, información de unidad de transformación, información de vector de movimiento, información de marco de referencia, bloquear información de interpolación, información de filtrado, etc. del módulo 160 de reordenamiento y los módulos 120 y 125 de predicción.
El módulo 165 de codificación por entropía puede codificar por entropía los coeficientes de la unidad de codificación introducida desde el módulo 160 de reordenamiento.
El módulo 140 de cuantificación inversa puede cuantificar inversamente los valores cuantificados por el módulo 135 de cuantificación y el módulo 145 de transformación inversa puede transformar inversamente los valores transformados por el módulo 130 de transformación. El valor residual generado por el módulo 140 de cuantificación inversa y el módulo 145 de transformación inversa se puede combinar con la unidad de predicción predicha por un módulo de estimación de movimiento, un módulo de compensación de movimiento y el módulo de intrapredicción de los módulos 120 y 125 de predicción de manera que se puede generar un bloque reconstruido.
El módulo 150 de filtro puede incluir al menos uno de entre un filtro de desbloqueo, una unidad de corrección de compensación y un filtro de bucle adaptativo (ALF).
El filtro de desbloqueo puede eliminar la distorsión de bloques que se produce debido a los límites entre los bloques en la imagen reconstruida. Para determinar si se debe realizar el desbloqueo, los píxeles incluidos en varias filas o columnas del bloque pueden ser una base para determinar si se debe aplicar el filtro de desbloqueo al bloque actual. Cuando se aplica el filtro de desbloqueo al bloque, se puede aplicar un filtro fuerte o un filtro débil dependiendo de la fuerza de filtrado de desbloqueo requerida. Además, al aplicar el filtro de desbloqueo, se pueden procesar en paralelo el filtrado en dirección horizontal y el filtrado en dirección vertical.
El módulo de corrección de desplazamiento puede corregir el desplazamiento con la imagen original en unidades de un píxel en la imagen sujeta a desbloqueo. Para realizar la corrección de desplazamiento en una imagen particular, es posible utilizar un procedimiento para aplicar el desplazamiento teniendo en cuenta la información de los bordes de cada píxel o un procedimiento para dividir los píxeles de una imagen en un número predeterminado de regiones, determinando una región para ser sometido a realizar compensación, y aplicar la compensación a la región determinada.
El filtrado de bucle adaptativo (ALF) se puede realizar basándose en el valor obtenido comparando la imagen reconstruida filtrada y la imagen original. Los píxeles incluidos en la imagen se pueden dividir en grupos predeterminados, se puede determinar un filtro a aplicar a cada uno de los grupos y el filtrado se puede realizar individualmente para cada grupo. La información sobre si se debe aplicar ALF y una señal luma puede transmitirse mediante unidades de codificación (CU). La forma y coeficiente de filtrado de un filtro para ALF puede variar dependiendo de cada bloque. Además, el filtro para ALF en la misma forma (forma fija) se puede aplicar independientemente de las características del bloque de destino de la aplicación.
La memoria 155 puede almacenar el bloque reconstruido o la imagen calculada a través del módulo 150 de filtro. La imagen o el bloque reconstruido almacenado se puede proporcionar a los módulos 120 y 125 de predicción al realizar la interpredicción.
La figura 2 es un diagrama de bloques que ilustra un dispositivo para decodificar un vídeo según una realización de la presente invención.
Haciendo referencia a la figura 2, el dispositivo 200 para decodificar un vídeo puede incluir: un módulo 210 de decodificación de entropía, un módulo 215 de reordenamiento, un módulo 220 de cuantificación inversa, un módulo 225 de transformación inversa, módulos 230 y 235 de predicción, un módulo 240 de filtro y una memoria 245.
Cuando se introduce un flujo de bits de vídeo desde el dispositivo para codificar un vídeo, el flujo de bits de entrada se puede decodificar según un proceso inverso del dispositivo para codificar un vídeo.
El módulo 210 de decodificación de entropía puede realizar la decodificación de entropía según un proceso inverso de codificación de entropía mediante el módulo de codificación de entropía del dispositivo para codificar un vídeo. Por ejemplo, en correspondencia con los procedimientos realizados por el dispositivo para codificar un vídeo, se pueden aplicar varios procedimientos, tales como codificación Golomb exponencial, codificación de longitud variable adaptativa al contexto (CAVLC) y codificación aritmética binaria adaptativa al contexto (CABAC).
El módulo 210 de decodificación de entropía puede decodificar información sobre intrapredicción e interpredicción realizada por el dispositivo para codificar un vídeo.
El módulo 215 de reordenamiento puede realizar un reordenamiento en la entropía del flujo de bits decodificado por el módulo 210 de decodificación de entropía basándose en el procedimiento de reordenamiento usado en el dispositivo para codificar un vídeo. El módulo de reordenamiento puede reconstruir y reordenar los coeficientes en forma de vectores unidimensionales al coeficiente en forma de bloques bidimensionales. El módulo 215 de reordenamiento puede recibir información relacionada con la exploración de coeficientes realizada en el dispositivo para codificar un vídeo y puede realizar la reorganización mediante un procedimiento de exploración inversa de los coeficientes en función del orden de exploración realizado en el dispositivo para codificar un vídeo.
El módulo 220 de cuantificación inversa puede realizar una cuantificación inversa basándose en un parámetro de cuantificación recibido desde el dispositivo para codificar un vídeo y los coeficientes reordenados del bloque.
El módulo 225 de transformación inversa puede realizar la transformación inversa, es decir, DCT inversa, DST inversa y KLT inversa, que es el proceso inverso de transformación, es decir, DCT, DST y KLT, realizado por el módulo de transformación en el resultado de cuantificación por el dispositivo para codificar un vídeo. La transformación inversa se puede realizar basándose en una unidad de transferencia determinada por el dispositivo para codificar un vídeo. El módulo 225 de transformación inversa del dispositivo para decodificar un vídeo puede realizar selectivamente esquemas de transformación (por ejemplo, DCT, DST y KLT) dependiendo de múltiples piezas de información, tales como el procedimiento de predicción, el tamaño del bloque actual, la dirección de predicción, etc.
Los módulos 230 y 235 de predicción pueden generar un bloque de predicción basado en la información sobre la generación del bloque de predicción recibida desde el módulo 210 de decodificación de entropía y la información de bloque o imagen previamente decodificada recibida desde la memoria 245.
Como se describió anteriormente, al igual que la operación del dispositivo para codificar un video, al realizar la intrapredicción, cuando el tamaño de la unidad de predicción es el mismo que el tamaño de la unidad de transformación, la intrapredicción se puede realizar en la unidad de predicción basándose en el píxeles colocados a la izquierda, arriba a la izquierda y arriba de la unidad de predicción. Al realizar la intrapredicción, cuando el tamaño de la unidad de predicción es diferente del tamaño de la unidad de transformación, la intrapredicción se puede realizar utilizando un píxel de referencia basado en la unidad de transformación. Además, la intrapredicción usando partición NxN puede usarse sólo para la unidad de codificación más pequeña.
Los módulos 230 y 235 de predicción pueden incluir un módulo de determinación de unidad de predicción, un módulo de interpredicción y un módulo de intrapredicción. El módulo de determinación de unidad de predicción puede recibir una variedad de información, tal como información de unidad de predicción, información de modo de predicción de un procedimiento de intrapredicción, información sobre predicción de movimiento de un procedimiento de interpredicción, etc. del módulo 210 de decodificación de entropía, puede dividir una corriente unidad de codificación en unidades de predicción, y puede determinar si se realiza interpredicción o intrapredicción en la unidad de predicción. Al utilizar la información requerida en la interpredicción de la unidad de predicción actual recibida desde el dispositivo para codificar un vídeo, el módulo de interpredicción 230 puede realizar interpredicción en la unidad de predicción actual basándose en información de al menos una de una imagen anterior o una imagen posterior de la imagen actual, incluida la unidad de predicción actual. Alternativamente, la interpredicción se puede realizar basándose en información de algunas regiones reconstruidas previamente en la imagen actual, incluida la unidad de predicción actual.
Para realizar interpredicción, se puede determinar para la unidad de codificación cuál de un modo de salto, un modo de fusión, un modo AMVP y un modo de copia entre bloques se usa como procedimiento de predicción de movimiento de la unidad de predicción incluida en la unidad de codificación.
El módulo 235 de intrapredicción puede generar un bloque de predicción basado en información de píxeles en la imagen actual. Cuando la unidad de predicción es una unidad de predicción sujeta a intrapredicción, la intrapredicción se puede realizar basándose en la información del modo de intrapredicción de la unidad de predicción recibida desde el dispositivo para codificar un vídeo. El módulo 235 de intrapredicción puede incluir un filtro de intra suavizado adaptativo (AIS), un módulo de interpolación de píxeles de referencia y un filtro de CC. El filtro AIS realiza el filtrado en el píxel de referencia del bloque actual, y se puede determinar si se aplica el filtro dependiendo del modo de predicción de la unidad de predicción actual. El filtrado AIS se puede realizar en el píxel de referencia del bloque actual utilizando el modo de predicción de la unidad de predicción y la información del filtro AIS recibida desde el dispositivo para codificar un vídeo. Cuando el modo de predicción del bloque actual es un modo en el que no se realiza el filtrado AIS, es posible que no se aplique el filtro AIS.
Cuando el modo de predicción de la unidad de predicción es un modo de predicción en el que la intrapredicción se realiza basándose en el valor de píxel obtenido interpolando el píxel de referencia, el módulo de interpolación de píxeles de referencia puede interpolar el píxel de referencia para generar el píxel de referencia de un píxel entero o menos de un píxel entero. Cuando el modo de predicción de la unidad de predicción actual es un modo de predicción en el que se genera un bloque de predicción sin interpolar el píxel de referencia, el píxel de referencia puede no interpolarse. El filtro DC puede generar un bloque de predicción mediante filtrado cuando el modo de predicción del bloque actual es un modo DC.
El bloque o imagen reconstruida puede proporcionarse al módulo 240 de filtro. El módulo 240 de filtro puede incluir el filtro de desbloqueo, el módulo de corrección de compensación y el ALF.
Información sobre si el filtro de desbloqueo se aplica o no al bloque o imagen correspondiente e información sobre cuál de los filtros fuerte y débil se aplica cuando se aplica el filtro de desbloqueo puede recibirse desde el dispositivo para codificar un vídeo. El filtro de desbloqueo del dispositivo para decodificar un vídeo puede recibir información sobre el filtro de desbloqueo del dispositivo para codificar un vídeo y puede realizar un filtrado de desbloqueo en el bloque correspondiente.
El módulo de corrección de desplazamiento puede realizar una corrección de desplazamiento en la imagen reconstruida basándose en el tipo de corrección de desplazamiento y la información del valor de desplazamiento aplicado a una imagen al realizar la codificación.
El ALF se puede aplicar a la unidad de codificación en función de la información sobre si se debe aplicar el ALF, la información del coeficiente de ALF, etc., recibida desde el dispositivo para codificar un vídeo. La información ALF puede proporcionarse como incluida en un conjunto de parámetros particular.
La memoria 245 puede almacenar la imagen o bloque reconstruido para su uso como imagen o bloque de referencia, y puede proporcionar la imagen reconstruida a un módulo de salida.
Como se describió anteriormente, en la realización de la presente invención, para facilitar la explicación, la unidad de codificación se usa como un término que representa una unidad para codificar, pero la unidad de codificación puede servir como una unidad que realiza tanto la decodificación como la codificación.
Además, un bloque actual puede representar un bloque objetivo a codificar/descodificar. Y, el bloque actual puede representar un bloque de árbol de codificación (o una unidad de árbol de codificación), un bloque de codificación (o una unidad de codificación), un bloque de transformación (o una unidad de transformación), un bloque de predicción (o una unidad de predicción), o similares dependiendo de una etapa de codificación/decodificación.
Una imagen puede codificarse/descodificarse dividiéndose en bloques base que tengan una forma cuadrada o una forma no cuadrada. En este momento, el bloque base puede denominarse unidad de árbol de codificación. La información relativa a si la unidad de árbol de codificación tiene una forma cuadrada o no cuadrada o información relativa al tamaño de la unidad de árbol de codificación se puede señalar a través de un conjunto de parámetros de secuencia, un conjunto de parámetros de imagen o un encabezado de segmento. La unidad de árbol de codificación se puede dividir en una estructura de árbol cuádruple o de árbol binario de modo que se pueda generar una unidad de codificación.
La figura 3 es un dibujo que ilustra un ejemplo de partición jerárquica de un bloque de codificación basándose en una estructura de árbol según una realización de la presente invención.
Una señal de vídeo de entrada se decodifica en unidades de bloques predeterminadas. Una unidad predeterminada de este tipo para decodificar la señal de vídeo de entrada es un bloque de codificación. El bloque de codificación puede ser una unidad que realiza intra/interpredicción, transformación y cuantificación. Además, un modo de predicción (por ejemplo, modo de intrapredicción o modo de interpredicción) se determina en unidades de un bloque de codificación, y los bloques de predicción incluidos en el bloque de codificación pueden compartir el modo de predicción determinado. El bloque de codificación puede ser un bloque cuadrado o no cuadrado que tiene un tamaño arbitrario en un intervalo de 8x8 a 64x64, o puede ser un bloque cuadrado o no cuadrado que tiene un tamaño de 128x128, 256x256 o más.
Específicamente, el bloque de codificación puede dividirse jerárquicamente basándose en al menos uno de entre un árbol cuádruple y un árbol binario. Aquí, la partición basada en árbol cuádruple puede significar que un bloque de codificación 2Nx2N se divide en cuatro bloques de codificación NxN, y la partición basada en árbol binario puede significar que un bloque de codificación se divide en dos bloques de codificación. La partición basada en árbol binario se puede realizar de forma simétrica o asimétrica. El bloque de codificación dividido basándose en el árbol binario puede ser un bloque cuadrado o un bloque no cuadrado, tal como una forma rectangular. La partición basada en árbol binario se puede realizar en un bloque de codificación donde ya no se realiza la partición basada en árbol cuádruple. La partición basada en árbol cuádruple ya no se puede realizar en el bloque de codificación particionado según el árbol binario.
Para implementar la partición adaptativa basada en el árbol cuádruple o el árbol binario, información que indique la partición basada en el árbol cuádruple, información sobre el tamaño/profundidad del bloque de codificación en el que se permite la partición basada en el árbol cuádruple, información que indique la partición basada en el árbol binario, información sobre el tamaño/profundidad del bloque de codificación en el que se permite la partición binaria basada en árbol, información sobre el tamaño/profundidad del bloque de codificación en el que no se permite la partición binaria basada en árbol, información sobre si la partición binaria basada en árbol se realiza en una dirección vertical o una dirección horizontal, etc.
Como se muestra en la figura 3, el primer bloque de codificación 300 con la profundidad de partición (profundidad de división) de k puede dividirse en múltiples segundos bloques de codificación basándose en el árbol cuádruple. Por ejemplo, los segundos bloques de codificación 310 a 340 pueden ser bloques cuadrados que tienen la mitad del ancho y la mitad de la altura del primer bloque de codificación, y la profundidad de partición del segundo bloque de codificación puede aumentarse hasta k+1.
El segundo bloque 310 de codificación con la profundidad de partición de k+1 puede dividirse en múltiples terceros bloques de codificación con la profundidad de partición de k+2. La partición del segundo bloque 310 de codificación se puede realizar usando selectivamente uno del árbol cuádruple y el árbol binario dependiendo del procedimiento de partición. Aquí, el procedimiento de partición se puede determinar basándose en al menos una de la información que indica la partición basada en árboles cuádruples y la información que indica la partición basada en árboles binarios.
Cuando el segundo bloque 310 de codificación se divide basándose en el árbol cuádruple, el segundo bloque 310 de codificación se puede dividir en cuatro terceros bloques 310a de codificación que tienen la mitad del ancho y la mitad de la altura del segundo bloque de codificación, y la profundidad de partición del tercer bloque de codificación. El bloque 310a puede aumentarse a k+2. Por el contrario, cuando el segundo bloque 310 de codificación se divide basándose en el árbol binario, el segundo bloque 310 de codificación se puede dividir en dos terceros bloques de codificación. Aquí, cada uno de los dos terceros bloques de codificación puede ser un bloque no cuadrado que tiene la mitad del ancho y la mitad de la altura del segundo bloque de codificación, y la profundidad de la partición puede aumentarse hasta k+2. El segundo bloque de codificación puede determinarse como un bloque no cuadrado de una dirección horizontal o una dirección vertical dependiendo de una dirección de partición, y la dirección de partición puede determinarse basándose en la información sobre si la partición basada en árbol binario se realiza en una dirección vertical o una dirección horizontal.
Mientras tanto, el segundo bloque 310 de codificación puede determinarse como un bloque de codificación de hoja que ya no está dividido en función del árbol cuádruple o del árbol binario. En este caso, el bloque de codificación de hoja puede usarse como un bloque de predicción o un bloque de transformación.
Al igual que la partición del segundo bloque 310 de codificación, el tercer bloque 310a de codificación puede determinarse como un bloque de codificación de hoja, o puede dividirse adicionalmente basándose en el árbol cuádruple o el árbol binario.
Mientras tanto, el tercer bloque 310b de codificación dividido en base al árbol binario puede dividirse además en bloques 310b-2 de codificación de una dirección vertical o bloques 310b-3 de codificación de una dirección horizontal basado en el árbol binario, y la profundidad de partición de los bloques de codificación relevantes pueden aumentarse a k+3. Alternativamente, el tercer bloque 310b de codificación puede determinarse como un bloque 310b-1 de codificación de hoja que ya no está dividido en función del árbol binario. En este caso, el bloque 310b-1 de codificación puede usarse como un bloque de predicción o un bloque de transformación. Sin embargo, el proceso de partición anterior puede realizarse de forma limitada basándose en al menos una de la información sobre el tamaño/profundidad del bloque de codificación en la que se permite la partición basada en árbol cuádruple, la información sobre el tamaño/profundidad del bloque de codificación en ese árbol binario se permite, y la información sobre el tamaño/profundidad del bloque de codificación no está permitida la partición basada en árboles binarios.
Un número de candidato que representa un tamaño de un bloque de codificación puede estar limitado a un número predeterminado, o un tamaño de un bloque de codificación en una unidad predeterminada puede tener un valor fijo. Como ejemplo, el tamaño del bloque de codificación en una secuencia o en una imagen puede limitarse a 256x256, 128x128 o 32x32. La información que indica el tamaño del bloque de codificación en la secuencia o en la imagen puede señalarse a través de un encabezado de secuencia o un encabezado de imagen.
Un bloque de codificación se codifica usando al menos uno de un modo de salto, intrapredicción, interpredicción o un procedimiento de salto. Una vez que se determina un bloque de codificación, se puede determinar un bloque de predicción mediante la partición predictiva del bloque de codificación. La partición predictiva del bloque de codificación puede realizarse mediante un modo de partición (modo_part) que indica un tipo de partición del bloque de codificación. Se puede determinar un tamaño o una forma del bloque de predicción según el modo de partición del bloque de codificación. Por ejemplo, un tamaño de un bloque de predicción determinado según el modo de partición puede ser igual o menor que un tamaño de un bloque de codificación.
La figura 4 es un diagrama que ilustra un modo de partición que se puede aplicar a un bloque de codificación cuando el bloque de codificación se codifica mediante interpredicción.
Cuando un bloque de codificación se codifica mediante interpredicción, se puede aplicar uno de los 8 modos de partición al bloque de codificación, como en el ejemplo mostrado en la figura 4.
Cuando un bloque de codificación se codifica mediante intrapredicción, se puede aplicar un modo de partición PART_2Nx2N o un modo de partición PART_NxN al bloque de codificación.
PART_NxN se puede aplicar cuando un bloque de codificación tiene un tamaño mínimo. Aquí, el tamaño mínimo del bloque de codificación puede predefinirse en un codificador y un decodificador. O bien, la información relativa al tamaño mínimo del bloque de codificación puede señalarse a través de un flujo de bits. Por ejemplo, el tamaño mínimo del bloque de codificación puede señalarse a través de un encabezado de segmento, de modo que el tamaño mínimo del bloque de codificación puede definirse por segmento.
En general, un bloque de predicción puede tener un tamaño de 64*64 a 4*4. Sin embargo, cuando un bloque de codificación se codifica mediante interpredicción, se puede restringir que el bloque de predicción no tenga un tamaño de 4x4 para reducir el ancho de banda de la memoria al realizar la compensación de movimiento.
La figura 5 es un dibujo que ilustra tipos de modos de intrapredicción predefinidos para un dispositivo para codificar/decodificar un vídeo según una realización de la presente invención.
El dispositivo para codificar/decodificar un vídeo puede realizar una intrapredicción usando uno de los modos de intrapredicción predefinidos. Los modos de intrapredicción predefinidos para la intrapredicción pueden incluir modos de predicción no direccionales (por ejemplo, un modo plano, un modo d C) y 33 modos de predicción direccional.
Alternativamente, para mejorar la precisión de la intrapredicción, se puede utilizar un número mayor de modos de predicción direccional que los 33 modos de predicción direccional. Es decir, se pueden definir M modos de predicción direccional extendidos subdividiendo ángulos de los modos de predicción direccional (M>33), y se puede derivar un modo de predicción direccional que tiene un ángulo predeterminado usando al menos uno de los 33 modos de predicción direccional predefinidos.
Un número mayor de modos de intrapredicción que los 35 modos de intrapredicción mostrados en la figura Se pueden utilizar 5. Por ejemplo, se puede usar un número mayor de modos de intrapredicción que los 35 modos de intrapredicción subdividiendo ángulos de modos de predicción direccional o derivando un modo de predicción direccional que tiene un ángulo predeterminado usando al menos uno de un número predefinido de modos de predicción direccional. En este momento, el uso de un número mayor de modos de intrapredicción que los 35 modos de intrapredicción puede denominarse modo de intrapredicción extendido.
La figura 6 muestra un ejemplo de modos de intrapredicción extendidos, y los modos de intrapredicción extendidos pueden incluir dos modos de predicción no direccionales y 65 modos de predicción direccional extendidos. Se pueden usar los mismos números de modos de intrapredicción extendidos para un componente luma y un componente croma, o se puede usar un número diferente de modos de intrapredicción para cada componente. Por ejemplo, se pueden usar 67 modos de intrapredicción extendidos para el componente luma y se pueden usar 35 modos de intrapredicción para el componente croma.
Alternativamente, dependiendo del formato de croma, se puede usar un número diferente de modos de intrapredicción para realizar la intrapredicción. Por ejemplo, en el caso del formato 4:2:0, se pueden usar 67 modos de intrapredicción para que el componente luma realice la intrapredicción y se pueden usar 35 modos de intrapredicción para el componente croma. En el caso del formato 4:4:4, se pueden usar 67 modos de intrapredicción tanto para el componente luma como para el componente croma para realizar la intrapredicción.
Alternativamente, dependiendo del tamaño y/o la forma del bloque, se puede usar un número diferente de modos de intrapredicción para realizar la intrapredicción. Es decir, dependiendo del tamaño y/o forma de la PU o CU, se pueden usar 35 modos de intrapredicción o 67 modos de intrapredicción para realizar la intrapredicción. Por ejemplo, cuando la CU o PU tiene un tamaño inferior a 64x64 o está dividida asimétricamente, se pueden usar 35 modos de intrapredicción para realizar la intrapredicción. Cuando el tamaño de la CU o PU es igual o mayor que 64x64, se pueden usar 67 modos de intrapredicción para realizar intrapredicción. Se pueden permitir 65 modos de intrapredicción direccional para Intra_2N*2N, y sólo se pueden permitir 35 modos de intrapredicción direccional para Intra_NxN.
El tamaño de un bloque al que se aplica el modo de intrapredicción extendido se puede establecer de manera diferente para cada secuencia, imagen o segmento. Por ejemplo, se establece que el modo de intrapredicción extendido se aplique a un bloque (por ejemplo, CU o PU) que tiene un tamaño mayor que 64x64 en el primer segmento. Por otro lado, se establece que el modo de intrapredicción extendido se aplique a un bloque que tenga un tamaño mayor que 32*32 en el segundo segmento. La información que representa un tamaño de un bloque al que se aplica el modo de intrapredicción extendida puede señalizarse en unidades de una secuencia, una imagen o un segmento. Por ejemplo, la información que indica el tamaño del bloque al que se aplica el modo de intrapredicción extendida puede definirse como 'log2_tamaño_modo _intra_extendido_menos4' obtenido tomando un logaritmo del tamaño del bloque y luego restando el número entero 4. Por ejemplo, si un valor de log2_tamaño_modo _intra_extendido_menos4 es 0, puede indicar que el modo de intrapredicción extendido puede aplicarse a un bloque que tiene un tamaño igual o mayor que 16*16. Y si un valor delog2_tamaño_modo _intra_extendido_menos4 es 1, puede indicar que el modo de intrapredicción extendido puede aplicarse a un bloque que tiene un tamaño igual o mayor que 32x32.
Como se describió anteriormente, el número de modos de intrapredicción se puede determinar considerando al menos uno de un componente de color, un formato cromático y un tamaño o forma de un bloque. Además, el número de candidatos de modo de intrapredicción (por ejemplo, el número de MPM) usados para determinar un modo de intrapredicción de un bloque actual a codificar/descodificar también puede determinarse según al menos uno de un componente de color, un color formato y el tamaño o la forma de un bloque. Con los dibujos se describirá un procedimiento para determinar un modo de intrapredicción de un bloque actual a codificar/descodificar y un procedimiento para realizar una intrapredicción usando el modo de intrapredicción determinado.
La figura 7 es un diagrama de flujo que ilustra brevemente un procedimiento de intrapredicción según una realización de la presente invención.
Haciendo referencia a la figura 7, se puede determinar un modo de intrapredicción del bloque actual en la etapa S800.
Específicamente, el modo de intrapredicción del bloque actual puede derivarse basándose en una lista de candidatos y un índice. Aquí, la lista de candidatos contiene múltiples candidatos, y los múltiples candidatos pueden determinarse basándose en un modo de intrapredicción del bloque vecino adyacente al bloque actual. El bloque vecino puede incluir al menos uno de los bloques ubicados en la parte superior, inferior, izquierda, derecha y en la esquina del bloque actual. El índice puede especificar uno de los múltiples candidatos de la lista de candidatos. El candidato especificado por el índice se puede configurar en el modo de intrapredicción del bloque actual.
Se puede establecer como candidato un modo de intrapredicción utilizado para la intrapredicción en el bloque vecino. Además, se puede establecer como candidato un modo de intrapredicción que tenga una direccionalidad similar a la del modo de intrapredicción del bloque vecino. Aquí, el modo de intrapredicción que tiene una direccionalidad similar puede determinarse sumando o restando un valor constante predeterminado al modo de intrapredicción del bloque vecino. El valor constante predeterminado puede ser un número entero, tal como uno, dos o más.
La lista de candidatos puede incluir además un modo predeterminado. El modo predeterminado puede incluir al menos uno de un modo plano, un modo DC, un modo vertical y un modo horizontal. El modo predeterminado se puede agregar de forma adaptativa considerando el número máximo de candidatos que se pueden incluir en la lista de candidatos del bloque actual.
El número máximo de candidatos que podrán incluirse en la lista de candidatos podrá ser tres, cuatro, cinco, seis o más. El número máximo de candidatos que se puede incluir en la lista de candidatos puede ser un valor fijo preestablecido en el dispositivo para codificar/decodificar un vídeo, o puede determinarse de forma variable basándose en una característica del bloque actual. La característica puede significar la ubicación/tamaño/forma del bloque, el número/tipo de modos de intrapredicción que el bloque puede usar, un tipo de color, un formato de color, etc. Alternativamente, información que indique el número máximo de candidatos que pueden ser incluidos en la lista de candidatos se pueden señalar por separado, y el número máximo de candidatos que se pueden incluir en la lista de candidatos se puede determinar de forma variable utilizando la información. La información que indica el número máximo de candidatos puede señalarse en al menos uno de entre un nivel de secuencia, un nivel de imagen, un nivel de sector y un nivel de bloque.
Cuando se utilizan selectivamente los modos de intrapredicción extendidos y los 35 modos de intrapredicción predefinidos, los modos de intrapredicción de los bloques vecinos pueden transformarse en índices correspondientes a los modos de intrapredicción extendidos, o en índices correspondientes a los 35 modos de intrapredicción, mediante el cual se pueden derivar candidatos. Para transformar a un índice, se puede usar una tabla predefinida o una operación de escala basada en un valor predeterminado. Aquí, la tabla predefinida puede definir una relación de mapeo entre diferentes grupos de modos de intrapredicción (por ejemplo, modos de intrapredicción extendidos y 35 modos de intrapredicción).
Por ejemplo, cuando el bloque vecino izquierdo usa los 35 modos de intrapredicción y el modo de intrapredicción del bloque vecino izquierdo es 10 (un modo horizontal), se puede transformar en un índice de 16 correspondiente a un modo horizontal en los modos de intrapredicción extendidos.
Alternativamente, cuando el bloque vecino superior usa los modos de intrapredicción extendidos y en el modo de intrapredicción el bloque vecino superior tiene un índice de 50 (un modo vertical), se puede transformar en un índice de 26 correspondiente a un modo vertical en los 35 modos de intrapredicción.
Basado en el procedimiento descrito anteriormente para determinar el modo de intrapredicción, el modo de intrapredicción se puede derivar independientemente para cada uno del componente luma y el componente croma, o el modo de intrapredicción del componente croma se puede derivar dependiendo del modo de intrapredicción del componente luma.
Específicamente, el modo de intrapredicción del componente croma se puede determinar basándose en el modo de intrapredicción del componente luma como se muestra en la siguiente Tabla 1.
Tabla 1
En la Tabla 1, modo_pred_croma_intra significa información señalizada para especificar el modo de intrapredicción del componente croma, e ModoPredIntraY indica el modo de intrapredicción del componente luma.
Con referencia a la figura 7, en la etapa S710 se puede derivar una muestra de referencia para la intrapredicción del bloque actual.
Específicamente, se puede derivar una muestra de referencia para predicción intra basándose en una muestra vecina del bloque actual. La muestra vecina puede ser una muestra reconstruida del bloque vecino, y la muestra reconstruida puede ser una muestra reconstruida antes de que se aplique un filtro en bucle o una muestra reconstruida después de que se aplique el filtro en bucle.
Se puede usar como muestra de referencia una muestra vecina reconstruida antes del bloque actual, y como muestra de referencia se puede usar una muestra vecina filtrada basándose en un intrafiltro predeterminado. El filtrado de muestras vecinas utilizando un intrafiltro también puede denominarse suavizado de muestra de referencia. El intrafiltro puede incluir al menos uno del primer intrafiltro aplicado a múltiples muestras vecinas colocadas en la misma línea horizontal y el segundo intrafiltro aplicado a múltiples muestras vecinas colocadas en la misma línea vertical. Dependiendo de las posiciones de las muestras vecinas, se puede aplicar selectivamente uno del primer intrafiltro y el segundo intrafiltro, o se pueden aplicar ambos intrafiltros. En este momento, al menos un coeficiente de filtro del primer intrafiltro o del segundo intrafiltro puede ser(1, 2, 1), pero no se limita a ellos.
El filtrado se puede realizar de forma adaptativa basándose en al menos uno del modo de intrapredicción del bloque actual y el tamaño del bloque de transformación para el bloque actual. Por ejemplo, cuando el modo de intrapredicción del bloque actual es el modo DC, el modo vertical o el modo horizontal, es posible que no se realice el filtrado. Cuando el tamaño del bloque de transformación es NxM, es posible que no se realice el filtrado. Aquí, N y M pueden ser los mismos valores o valores diferentes, o pueden ser valores de 4, 8, 16 o más. Por ejemplo, si el tamaño del bloque de transformación es 4*4, es posible que no se realice el filtrado. Alternativamente, el filtrado se puede realizar selectivamente basándose en el resultado de una comparación de un umbral predefinido y la diferencia entre el modo de intrapredicción del bloque actual y el modo vertical (o el modo horizontal). Por ejemplo, cuando la diferencia entre el modo de intrapredicción del bloque actual y el modo vertical es mayor que un umbral, se puede realizar un filtrado. El umbral se puede definir para cada tamaño del bloque de transformación como se muestra en la Tabla 2.
Tabla 2
El intrafiltro puede determinarse como uno de los múltiples candidatos de intrafiltro predefinidos en el dispositivo para codificar/decodificar un vídeo. Para este fin, se puede señalar un índice que especifica un intrafiltro del bloque actual entre los múltiples candidatos de intrafiltro. Alternativamente, el intrafiltro se puede determinar basándose en al menos uno de entre el tamaño/forma del bloque actual, el tamaño/forma del bloque de transformación, información sobre la intensidad del filtro y variaciones de las muestras vecinas.
Haciendo referencia a la figura 7, la intrapredicción se puede realizar usando el modo de intrapredicción del bloque actual y la muestra de referencia en la etapa S720.
Es decir, la muestra de predicción del bloque actual se puede obtener usando el modo de intrapredicción determinado en la etapa S700 y la muestra de referencia derivada en la etapa S710. Sin embargo, en el caso de intrapredicción, se puede utilizar una muestra de límites del bloque vecino y, por tanto, se puede reducir la calidad de la imagen de predicción. Por lo tanto, se puede realizar un proceso de corrección en la muestra de predicción generada mediante el proceso de predicción descrito anteriormente, y se describirá en detalle con referencia a las figuras 8 a 10. Sin embargo, el proceso de corrección no se limita a aplicarse únicamente a la muestra de intrapredicción, y puede aplicarse a una muestra de interpredicción o a la muestra reconstruida.
La figura 8 es un dibujo que ilustra un procedimiento para corregir una muestra de predicción de un bloque actual basándose en información diferencial de muestras vecinas según una realización de la presente invención.
La muestra de predicción del bloque actual se puede corregir en función de la información diferencial de múltiples muestras vecinas para el bloque actual. La corrección se puede realizar en todas las muestras de predicción en el bloque actual, o se puede realizar en muestras de predicción en regiones parciales predeterminadas. Las regiones parciales pueden ser una fila/columna o múltiples filas/columnas, y estas pueden ser regiones preestablecidas para corrección en el dispositivo para codificar/decodificar un vídeo. Por ejemplo, la corrección se puede realizar en una fila/columna ubicada en un límite del bloque actual o se puede realizar en una pluralidad de filas/columnas desde un límite del bloque actual. Alternativamente, las regiones parciales pueden determinarse de forma variable basándose en al menos uno de entre el tamaño/forma del bloque actual y el modo de intrapredicción.
Las muestras vecinas pueden pertenecer a los bloques vecinos ubicados en la esquina superior, izquierda y superior izquierda del bloque actual. El número de muestras vecinas utilizadas para la corrección puede ser dos, tres, cuatro o más. Las posiciones de las muestras vecinas pueden determinarse de forma variable dependiendo de la posición de la muestra de predicción que es el objetivo de corrección en el bloque actual. Alternativamente, algunas de las muestras vecinas pueden tener posiciones fijas independientemente de la posición de la muestra de predicción que es el objetivo de corrección, y las muestras vecinas restantes pueden tener posiciones variables dependiendo de la posición de la muestra de predicción que es el objetivo de corrección.
La información diferencial de las muestras vecinas puede significar una muestra diferencial entre las muestras vecinas, o puede significar un valor obtenido escalando la muestra diferencial mediante un valor constante predeterminado (por ejemplo, uno, dos, tres, etc.). Aquí, el valor constante predeterminado se puede determinar considerando la posición de la muestra de predicción que es el objetivo de corrección, la posición de la columna o fila que incluye la muestra de predicción que es el objetivo de corrección, la posición de la muestra de predicción dentro de la columna o fila, etc.
Por ejemplo, cuando el modo de intrapredicción del bloque actual es el modo vertical, las muestras diferenciales entre la muestra vecina superior izquierda p(-1, -1) y las muestras vecinas p(-1, y) adyacentes al límite izquierdo del El bloque actual se puede utilizar para obtener la muestra de predicción final como se muestra en la ecuación 1.
[Ecuación 1]
P'(0,y)=P(0,y)+((p+(-1,y)-p(-1,-1))>>1 para y=0...N-1
Por ejemplo, cuando el modo de intrapredicción del bloque actual es el modo horizontal, las muestras diferenciales entre la muestra vecina superior izquierda p(-1, -1) y las muestras vecinas p(x, -1) adyacentes al límite superior del El bloque actual se puede utilizar para obtener la muestra de predicción final como se muestra en la ecuación 2.
[Ecuación 2]
P'(x,0)=p(x,0)+((p+(x,-1)-p(-1,-1))>>1 para x=0.N -1
Por ejemplo, cuando el modo de intrapredicción del bloque actual es el modo vertical, las muestras diferenciales entre la muestra vecina superior izquierda p(-1, -1) y las muestras vecinas p(-1, y) adyacentes al límite izquierdo del bloque actual El bloque actual se puede utilizar para obtener la muestra de predicción final. Aquí, la muestra diferencial puede agregarse a la muestra de predicción, o la muestra diferencial puede escalarse mediante un valor constante predeterminado y luego agregarse a la muestra de predicción. El valor constante predeterminado utilizado en la escala se puede determinar de manera diferente dependiendo de la columna y/o fila. Por ejemplo, la muestra de predicción se puede corregir como se muestra en la ecuación 3 y la ecuación 4.
[Ecuación 3]
P'(0,y)=P(0,y)+((p(-1,y)-p(-1,-1))>>1 para y=0...N-1
[Ecuación 4]
P'(1,y)=P(1,y)+((p+(-1,y)-p(-1,-1))>>2 para y=0...N-1
Por ejemplo, cuando el modo de intrapredicción del bloque actual es el modo horizontal, las muestras diferenciales entre la muestra vecina superior izquierda p(-1, -1) y las muestras vecinas p(x, -1) adyacentes al límite superior del bloque actual se puede utilizar para obtener la muestra de predicción final, como se describe en el caso del modo vertical. Por ejemplo, la muestra de predicción se puede corregir como se muestra en la ecuación 5 y la ecuación 6.
[Ecuación 5]
P'(x,0)=p(x,0)+((p+(x,-1)-p(-1,-1))>>1 para x=0.N -1
[Ecuación 6]
P'(x,1)=p(x,1)+((p+(x,-1)-p(-1,-1))>>2 para x=0.N -1
Las figuras 9 y 10 son dibujos que ilustran un procedimiento para corregir una muestra de predicción basándose en un filtro de corrección predeterminado según una realización de la presente invención.
La muestra de predicción se puede corregir basándose en la muestra vecina de la muestra de predicción que es el objetivo de corrección y un filtro de corrección predeterminado. Aquí, la muestra vecina puede especificarse mediante una línea angular del modo de predicción direccional del bloque actual, o puede ser al menos una muestra colocada en la misma línea angular que la muestra de predicción que es el objetivo de corrección. Además, la muestra vecina puede ser una muestra de predicción en el bloque actual, o puede ser una muestra reconstruida en un bloque vecino reconstruido antes del bloque actual.
Al menos uno del número de toques, la intensidad y un coeficiente de filtro del filtro de corrección se puede determinar basándose en al menos una de la posición de la muestra de predicción que es el objetivo de corrección, independientemente de si la muestra de predicción que es la corrección el objetivo está ubicado en el límite del bloque actual, el modo de intrapredicción del bloque actual, el ángulo del modo de predicción direccional, el modo de predicción (modo inter o intra) del bloque vecino y el tamaño/forma del bloque actual.
Haciendo referencia a la figura 9, cuando el modo de predicción direccional tiene un índice de 2 o 34, al menos una muestra de predicción/reconstruida colocada en la parte inferior izquierda de la muestra de predicción que es el objetivo de corrección y el filtro de corrección predeterminado se pueden usar para obtener la muestra de predicción final. Aquí, la muestra de predicción/reconstruida en la parte inferior izquierda puede pertenecer a una línea anterior de una línea que incluye la muestra de predicción que es el objetivo de corrección. La muestra de predicción/reconstrucción en la parte inferior izquierda puede pertenecer al mismo bloque que la muestra actual, o a un bloque vecino adyacente al bloque actual.
El filtrado de la muestra de predicción se puede realizar solo en la línea ubicada en el límite del bloque, o se puede realizar en varias líneas. Se puede utilizar el filtro de corrección en el que al menos uno del número de derivaciones de filtro y un coeficiente de filtro es diferente para cada una de las líneas. Por ejemplo, se puede usar un filtro (1/2, 1/2) para la primera línea izquierda más cercana al límite del bloque, se puede usar un filtro (12/16, 4/16) para la segunda línea, un (14/16, 2/16) se puede usar para la tercera línea y un filtro (15/16, 1/16) para la cuarta línea.
Alternativamente, cuando el modo de predicción direccional tiene un índice de 3 a 6 o de 30 a 33, el filtrado se puede realizar en el límite del bloque como se muestra en la figura 10, y se puede usar un filtro de corrección de 3 toques para corregir la muestra de predicción. El filtrado se puede realizar usando la muestra inferior izquierda de la muestra de predicción que es el objetivo de corrección, la muestra inferior de la muestra inferior izquierda y un filtro de corrección de 3 toques que toma como entrada la muestra de predicción que es el objetivo de corrección. La posición de la muestra vecina utilizada por el filtro de corrección se puede determinar de manera diferente basándose en el modo de predicción direccional. El coeficiente de filtrado del filtro de corrección se puede determinar de forma diferente dependiendo del modo de predicción direccional.
Se pueden aplicar diferentes filtros de corrección dependiendo de si el bloque vecino está codificado en el modo inter o en el modo intra. Cuando el bloque vecino se codifica en el modo intra, se puede utilizar un procedimiento de filtrado en el que se le da más peso a la muestra de predicción, en comparación con cuando el bloque vecino se codifica en el modo inter. Por ejemplo, en el caso de que el modo de intrapredicción sea 34, cuando el bloque vecino esté codificado en el modo inter, se podrá utilizar un filtro (1/2, 1/2), y cuando el bloque vecino esté codificado en el modo intra, se puede utilizar un filtro (4/16, 12/16).
El número de líneas a filtrar en el bloque actual puede variar dependiendo del tamaño/forma del bloque actual (por ejemplo, el bloque de codificación o el bloque de predicción). Por ejemplo, cuando el tamaño del bloque actual es igual o menor que 32x32, el filtrado se puede realizar en una sola línea en el límite del bloque; de lo contrario, el filtrado se puede realizar en varias líneas, incluida la línea en el límite del bloque.
Las figuras 9 y 10 se basan en el caso en el que los 35 modos de intrapredicción en la figura 4, pero se pueden aplicar de manera igual o similar al caso en el que se usan los modos de intrapredicción extendidos.
La figura 11 muestra una gama de muestras de referencia para intrapredicción según una realización a la que se aplica la presente invención.
Haciendo referencia a la figura 11, la intrapredicción se puede realizar utilizando muestras de referencia P (-1, -1), P (-1, y) (0 <= y <= 2N-1) y P (x, -1) (0 <= x <= 2N-1) ubicado en el límite de un bloque actual. En este momento, el filtrado de muestras de referencia se realiza selectivamente basándose en al menos uno de un modo de intrapredicción (por ejemplo, índice, direccionalidad, ángulo, etc. del modo de intrapredicción) del bloque actual o un tamaño de un bloque de transformación relacionado al bloque actual.
El filtrado de muestras de referencia se puede realizar utilizando un intrafiltro predefinido en un codificador y un decodificador. Por ejemplo, se puede usar un intrafiltro con un coeficiente de filtro de (1,2,1) o un intrafiltro con un coeficiente de filtro de (2,3,6,3,2) para derivar muestras de referencia finales para su uso en intrapredicción.
Alternativamente, se puede seleccionar al menos uno de una pluralidad de candidatos de intrafiltro para realizar el filtrado en muestras de referencia. Aquí, la pluralidad de candidatos de intrafiltro pueden diferir entre sí en al menos uno de entre una intensidad de filtro, un coeficiente de filtro o un número de derivación (por ejemplo, un número de coeficientes de filtro, una longitud de filtro). Se puede definir una pluralidad de candidatos intrafiltro en al menos uno de entre un nivel de secuencia, imagen, sector o bloque. Es decir, una secuencia, una imagen, un segmento o un bloque en el que está incluido el bloque actual puede utilizar la misma pluralidad de candidatos intrafiltro.
En lo sucesivo, para facilitar la explicación, se supone que una pluralidad de candidatos a intrafiltro incluye un primer intrafiltro y un segundo intrafiltro. También se supone que el primer intrafiltro es un filtro de (1,2,1) 3 toques y el segundo intrafiltro es un filtro de (2,3,6,3,2) 5 toques.
Cuando las muestras de referencia se filtran aplicando un primer intrafiltro, las muestras de referencia filtradas pueden derivarse como se muestra en la ecuación 7.
[Ecuación 7]
P ( - 11 ) = ( P ( - 1,0 )+ 2 P (-11 )+ P (0 ,- 1 ) 2 ) » 2
JP ( - l ,p ) = ( P ( - E p l ) 2 P ( - l ^ ) P ( - l ^ - l ) 2 ) » 2
P (x ,-1 ) = ( P O 11 )+ 2 P (x ,-1 )+PC x-11 ) 2 ) » 2
Cuando las muestras de referencia se filtran aplicando el segundo intrafiltro, las muestras de referencia filtradas se pueden derivar como se muestra en la siguiente ecuación 8.
[Ecuación 8]
P ( - l r l ) = (2 P (- 2 ,0 )+ 3 P (~ l ,0 )+ 6 P (- l ,- l ) 3 P (0 ,- l )+ 2 P (0 ,- 2 )+ 8 )» 4
P ( - l ,y )= ( 2 P ( - l ,y 2 )+ 3 P ( - l ,y l )+ 6 P ( - l ,y )+ 3 P ( - l ,y - l ) 2 P ( - l ,y - 2 )+ 8 ) » 4
P (x ,-1 )= (2 P U 2 ,- 1 ) 3 P O 1,-1 )+ 6 P U - l ) 3 P O - 1,- l)+ 2 P O -2 ,-1 ) 8 ) » 4
En las ecuaciones 7 y 8 anteriores, x puede ser un número entero entre 0 y 2N-2, e y puede ser un número entero entre 0 y 2N-2.
Alternativamente, basándose en la posición de una muestra de referencia, se puede determinar uno de una pluralidad de candidatos de intrafiltro y se puede realizar el filtrado de la muestra de referencia utilizando el determinado. Por ejemplo, se puede aplicar un primer intrafiltro a muestras de referencia incluidas en un primer rango, y se puede aplicar un segundo intrafiltro a muestras de referencia incluidas en un segundo rango. Aquí, el primer rango y el segundo rango se pueden distinguir basándose en si son adyacentes a un límite de un bloque actual, si están ubicados en el lado superior o en el lado izquierdo de un bloque actual, o si son adyacentes a un esquina de un bloque actual. Por ejemplo, como se muestra en la figura 12, filtrado de muestras de referencia (P (-1, -1), P (-1,0), P (-1,1), ... , P (-1, N-1) y P (0, -1), P (1, -1), ...) que son adyacentes a un límite del bloque actual se realiza aplicando un primer intrafiltro como se muestra en la ecuación 7, y el filtrado de las otras muestras de referencia que no son adyacentes a un límite del bloque actual se realiza aplicando un segundo filtro de referencia como se muestra en la ecuación 8. Es posible seleccionar uno de una pluralidad de candidatos de intrafiltro en función de un tipo de transformación utilizado para un bloque actual y realizar un filtrado en muestras de referencia utilizando el seleccionado. Aquí, el tipo de transformación puede significar (1) un esquema de transformación como DCT, DST o KLT, (2) un indicador de modo de transformación como una transformación 2D, una transformación 1D o una no transformación o (3) el número de transformaciones como una primera transformación y una segunda transformación. En lo sucesivo, para facilitar la descripción, se supone que el tipo de transformación significa el esquema de transformación tal como DCT, DST y KLT.
Por ejemplo, si un bloque actual se codifica usando un DCT, el filtrado se puede realizar usando un primer intrafiltro, y si un bloque actual se codifica usando un DST, el filtrado se puede realizar usando un segundo intrafiltro. O, si un bloque actual está codificado usando DCT o DST, el filtrado se puede realizar usando un primer intrafiltro, y si el bloque actual está codificado usando un KLT, el filtrado se puede realizar usando un segundo intrafiltro.
El filtrado se puede realizar utilizando un filtro seleccionado en función de un tipo de transformación de un bloque actual y una posición de una muestra de referencia. Por ejemplo, si un bloque actual se codifica utilizando una d Ct , se filtran las muestras de referencia P (-1, -1), P (-1,0), P (-1,1), ... , P (-1, N-1) y P (0, -1), P (1, -1), ... , P (N-1, -1) se puede realizar usando un primer intrafiltro, y el filtrado de otras muestras de referencia se puede realizar usando un segundo intrafiltro. Si un bloque actual se codifica utilizando un DST, se filtra en muestras de referencia P (-1, -1), P ( 1,0), P (-1,1), ... , P (-1, N-1) y P (0, -1), P (1, -1), ... , P (N-1, -1) se puede realizar usando un segundo intrafiltro, y el filtrado en otras muestras de referencia se puede realizar usando un primer intrafiltro.
Se puede seleccionar uno de una pluralidad de candidatos de intrafiltro en función de si un tipo de transformación de un bloque vecino que incluye una muestra de referencia es el mismo que un tipo de transformación de un bloque actual, y el filtrado se puede realizar usando el candidato intrafiltro seleccionado. Por ejemplo, cuando un bloque actual y un bloque vecino usan el mismo tipo de transformación, el filtrado se realiza usando un primer intrafiltro, y cuando los tipos de transformación de un bloque actual y de un bloque vecino son diferentes entre sí, el segundo intrafiltro se puede utilizar para realizar el filtrado.
Es posible seleccionar cualquiera de una pluralidad de candidatos de intrafiltro en función de un tipo de transformación de un bloque vecino y realizar el filtrado en una muestra de referencia utilizando la seleccionada. Es decir, se puede seleccionar un filtro específico teniendo en cuenta un tipo de transformación de un bloque en el que se incluye una muestra de referencia. Por ejemplo, como se muestra en la figura 13, si un bloque adyacente a la izquierda/inferior izquierda de un bloque actual es un bloque codificado usando un DCT, y un bloque adyacente a la parte superior/arriba derecha de un bloque actual es un bloque codificado usando un DST, filtrar en muestras de referencia adyacentes a la izquierda/inferior izquierda de un bloque actual se realiza aplicando un primer intrafiltro y el filtrado en muestras de referencia adyacentes a la parte superior/arriba derecha de un bloque actual se realiza aplicando un segundo intrafiltro.
En unidades de una región predeterminada, se puede definir un filtro utilizable en la región correspondiente. En el presente documento, la unidad de la región predeterminada puede ser cualquiera de una secuencia, una imagen, un segmento, un grupo de bloques (por ejemplo, una fila de unidades de árbol de codificación) o un bloque (por ejemplo, una unidad de árbol de codificación) u otra región se puede definir que comparta uno o más filtros. Una muestra de referencia se puede filtrar utilizando un filtro asignado a una región en la que se incluye un bloque actual.
Por ejemplo, como se muestra en la figura 14, es posible realizar filtrado en muestras de referencia utilizando diferentes filtros en unidades CTU. En este caso, la información que indica si se usa el mismo filtro en una secuencia o una imagen, un tipo de filtro usado para cada CTU, un índice que especifica un filtro usado en la CTU correspondiente entre los candidatos de intrafiltro disponibles se puede señalar a través de una secuencia. conjunto de parámetros de imagen (SPS) o un conjunto de parámetros de imagen (PPS).
El intrafiltro descrito anteriormente se puede aplicar en unidades de una unidad de codificación. Por ejemplo, el filtrado se puede realizar aplicando un primer intrafiltro o un segundo intrafiltro para referenciar muestras alrededor de una unidad de codificación.
Cuando se determina un modo de intrapredicción de un bloque actual, la intrapredicción se puede realizar utilizando una muestra de referencia adyacente al bloque actual. Por ejemplo, las muestras de predicción de un bloque actual pueden generarse promediando muestras de referencia, o pueden generarse duplicando muestras de referencia en una dirección específica considerando una direccionalidad de un modo de intrapredicción. Como se describió anteriormente en un ejemplo con referencia a la figura 11, P(-1, -1), P(-1, y) (0<= y <= 2N-1), P(x, -1) (0 <= x <= 2N-1) que son ubicadas en un límite de un bloque actual pueden usarse como muestras de referencia.
Cuando se determina que una muestra incluida en un bloque vecino adyacente a un bloque actual no está disponible como muestra de referencia, la muestra que no está disponible puede ser reemplazada por una muestra de referencia que sí esté disponible. Por ejemplo, una muestra vecina puede determinarse como no disponible en caso de que una posición de una muestra incluida en un bloque vecino esté fuera de una imagen, una muestra incluida en un bloque vecino esté presente en un segmento diferente de un bloque actual, o una muestra incluida en un bloque vecino está incluido en un bloque codificado por una interpredicción. Aquí, si una muestra incluida en un bloque codificado por una interpredicción no está disponible o no se puede determinar basándose en la información que indica si se debe usar una muestra incluida en un bloque codificado por una interpredicción como muestra de referencia cuando se realiza una intrapredicción de un bloque actual. Aquí, la información puede ser un indicador de 1 bit (por ejemplo, 'indicador_intra_predicción_restringido'), pero no se limita a ello. Por ejemplo, cuando un valor de 'indicador_intra_predicción_restringido' es 1, se puede determinar que una muestra incluida en un bloque codificado por una interpredicción no está disponible como muestra de referencia. En adelante, una muestra que no pueda utilizarse como muestra de referencia se denominará muestra de referencia no disponible.
En el ejemplo mostrado en la figura 11, cuando se determina que una muestra ubicada en el extremo inferior izquierdo (por ejemplo, P(-1,2N-1)) no está disponible, la muestra ubicada en el extremo inferior izquierdo puede reemplazarse con una primera muestra de referencia disponible que se busca primero por escanear muestras disponibles en un orden predeterminado. Aquí, el orden de exploración se puede realizar secuencialmente a partir de una muestra adyacente a la muestra más baja a la izquierda. Por ejemplo, en el ejemplo mostrado en la figura 11, cuando una muestra P(-1, 2N-1) no está disponible, el escaneo se puede realizaren un orden de P(-1, -2N-2) a P(-1, -1), P(-1 ) a P(2N-1, -1). P(-1,2N-1) puede reemplazarse con una primera muestra de referencia disponible que se encuentre como resultado del escaneo.
Cuando una muestra de referencia izquierda, excepto una muestra de referencia ubicada en el extremo inferior izquierdo, no está disponible, la muestra de referencia izquierda puede reemplazarse con una muestra de referencia adyacente a la parte inferior de la muestra de referencia izquierda. Por ejemplo, una muestra de referencia no disponible P(-1, y) entre P(-1,2N-1) y P(-1, -1) puede reemplazarse con una muestra de referencia P(-1, y+1).
Cuando una muestra de referencia superior no está disponible, la muestra de referencia superior puede reemplazarse con una muestra de referencia adyacente a la izquierda de la muestra de referencia superior. Por ejemplo, una muestra de referencia no disponible P(x, -1) entre P(0, -1) y P(2N-1, -1) puede reemplazarse con una muestra de referencia P(x-1,-1).
Un conjunto de muestras de referencia para un bloque actual puede denominarse 'línea de referencia' (o 'línea intrarreferencia' o 'línea de muestra de referencia"). Aquí, la línea de referencia puede incluir un conjunto de muestras de referencia compuestas por una fila y una columna. Por ejemplo, en el ejemplo mostrado en la figura 11, una 'línea de referencia', un conjunto de muestras de referencia que incluye P(-1, 2N-1) a P(-1, 1), P(0, -1) a P(2N-2, -1). Se puede realizar una intrapredicción de un bloque actual basándose en muestras de referencia incluidas en una línea de referencia. Se puede realizar una intrapredicción de un bloque actual, utilizando muestras de referencia incluidas en una línea de referencia, basándose en un modo de intrapredicción de un bloque actual. Por ejemplo, cuando un modo de intrapredicción de un bloque actual es un modo DC, se puede generar una señal de predicción usando una predicción promedio y ponderada de muestras de referencia incluidas en la línea de referencia. Por ejemplo, cuando un modo de intrapredicción de un bloque actual es un modo DC, se pueden obtener muestras de predicción del bloque actual según la ecuación 9.
[Ecuación 9]
P(0 ,0 )=(p (- l , 0 )+P(0 ,- l )+2*dcV &/]>2
P{x,Q)=[p(x, -l )+3 *dcVal)>2
P[Q>y } =[ p [ ~l l y)+3*dcVal)>2
En la ecuación 9, dcVal puede generarse basándose en un valor promedio de muestras excepto P(-1, -1) entre las muestras de referencia incluidas en una línea de referencia.
Un modo plano proporciona una eficacia de predicción eficaz en un área suave que no tiene bordes fuertes y es eficaz para mejorar la discontinuidad del límite de bloque o el deterioro de la calidad de la imagen de un límite de bloque. Cuando un modo de intrapredicción de un bloque actual es un modo plano, se puede obtener una muestra de predicción provisional en dirección horizontal del bloque actual usando una muestra de referencia adyacente a una esquina superior derecha del bloque actual y una muestra de referencia que tiene la coordenada y idéntica. a la muestra de predicción provisional en dirección horizontal, y se puede obtener una muestra de predicción provisional en dirección vertical del bloque actual usando una muestra de referencia adyacente a una esquina inferior izquierda del bloque actual y una muestra de referencia que tiene la coordenada x idéntica a la muestra de predicción provisional en dirección vertical. Por ejemplo, una muestra de predicción provisional en dirección horizontal y una muestra de predicción provisional en dirección vertical de un bloque actual se pueden obtener según la ecuación 10.
[Ecuación 10]
Se puede generar una muestra de predicción de un bloque actual sumando una muestra de predicción provisional en dirección horizontal y una muestra de predicción provisional en dirección vertical, y luego desplazando el resultado de la suma en un valor determinado según el tamaño de un bloque actual. Por ejemplo, se puede obtener una muestra de predicción de un bloque actual según la ecuación 11.
[Ecuación 11]
Se puede realizar una intrapredicción de un bloque actual utilizando una pluralidad de líneas de referencia. Suponiendo que un bloque actual tiene un tamaño WxH, la k-ésima línea de referencia puede incluir p(-k, -k), muestras de referencia ubicadas en una fila idéntica a p(-k, -k) (por ejemplo, muestras de referencia de p( k+1,-k) a p(W+H+2(k-1), -k) o muestras de referencia de p(-k+1, -k) a p(2W+2(k-1), -k)) y referencia muestras ubicadas en una columna idéntica a p(-k, -k) (por ejemplo, muestras de referencia de p(-k,-k+1) a p(-k, W+H+2(k-1)) o muestras de referencia de p(-k,-k+1)ap(-k, 2H+2(k-1))).
La figura 15 ejemplifica una pluralidad de líneas de muestra de referencia. Como en el ejemplo mostrado en la figura 15, cuando una primera línea de referencia adyacente a un límite de un bloque actual se denomina 'línea de referencia 0', la k-ésima línea de referencia puede establecerse adyacente a (k-1)-ésima línea de referencia.
Alternativamente, a diferencia del ejemplo mostrado en la figura 15, también es posible configurar todas las líneas de referencia para que tengan el mismo número de muestras de referencia.
Se puede realizar una intrapredicción de un bloque actual mediante al menos una de una pluralidad de líneas de referencia. Un procedimiento para realizar intrapredicción utilizando una pluralidad de líneas de referencia como se describe anteriormente puede denominarse 'procedimiento de intrapredicción utilizando una muestra de referencia extendida' o 'procedimiento de intrapredicción extendido'. Además, una pluralidad de líneas de referencia puede denominarse 'línea de referencia extendida'.
Se puede determinar si se realiza o no una intrapredicción utilizando una línea de referencia extendida basándose en la información señalizada a través de un flujo de bits. En este caso, la información puede ser un indicador de 1 bit, pero no se limita a ello. La información sobre si la realización de intrapredicción utilizando una línea de referencia extendida se puede señalizar en unidades de una unidad de árbol de codificación, una unidad de codificación o una unidad de predicción, o se puede señalizar en unidades de una secuencia, una imagen o un segmento. Es decir, si se debe realizar una intrapredicción usando la línea de referencia extendida se puede determinar en unidades de una secuencia, una imagen, un segmento, una CTU, una CU o una PU.
Alternativamente, se puede determinar si se realiza o no una intrapredicción utilizando una línea de referencia extendida basándose en al menos uno de entre el tamaño, la forma, la profundidad o el modo de intrapredicción de un bloque actual.
Cuando se determina realizar intrapredicción usando una línea de referencia extendida, se pueden determinar varias líneas de referencia. Aquí, una serie de líneas de referencia pueden tener un valor fijo y pueden determinarse de forma adaptativa según el tamaño, la forma o el modo de intrapredicción de un bloque actual. Por ejemplo, cuando un modo de intrapredicción de un bloque actual es un modo no direccional, la intrapredicción del bloque actual se realiza utilizando una línea de referencia. Cuando un modo de intrapredicción de un bloque actual es un modo direccional, la intrapredicción del bloque actual se puede realizar usando una pluralidad de líneas de referencia.
Como ejemplo adicional, un número de líneas de referencia puede determinarse mediante información que se señaliza en unidades de una secuencia, una imagen, un segmento o una unidad a decodificar. En este caso, la unidad a decodificar puede representar una unidad de árbol de codificación, una unidad de codificación, una unidad de transformación, una unidad de predicción o similares. Por ejemplo, un elemento de sintaxis 'máx_intra_línea_idx_menos2' que indica un número de líneas de referencia disponibles en una secuencia o un segmento puede señalarse a través de un encabezado de secuencia o un encabezado de segmento. En este caso, el número de líneas de referencia disponibles se puede establecer en máx_intra_línea_idx_menos2+2.
De aquí en adelante, se describirá en detalle un procedimiento para realizar intrapredicción usando una línea de referencia extendida.
La figura 16 es un diagrama de flujo que ilustra un procedimiento para realizar intrapredicción usando una línea de referencia extendida según la presente invención.
Primero, un decodificador puede generar una pluralidad de líneas de referencia (S1610). Las muestras de referencia incluidas en cada línea de referencia se pueden generar basándose en muestras reconstruidas incluidas en bloques decodificados antes que un bloque actual.
Cuando un modo de intrapredicción de un bloque actual es un modo direccional, un decodificador puede generar una línea de referencia considerando una direccionalidad del modo de intrapredicción. Considerando la direccionalidad de un modo de intrapredicción, se puede incluir un mayor número de muestras de referencia en la k-ésima línea de referencia que en (k-1)-ésima línea de referencia. Es decir, una línea de referencia alejada de un bloque actual puede incluir un número mayor de muestras de referencia que una línea de referencia cercana al bloque actual.
Aquí, un número de muestras de referencia incluidas más en la k-ésima línea de referencia que en (k-1)-ésima línea de referencia se puede determinar de forma variable según un tamaño, una forma o un modo de intrapredicción de un bloque actual.
Por ejemplo, cuando un bloque actual tiene un tamaño de 4x4, la k-ésima línea de referencia puede incluir además cuatro (específicamente, 2 en dirección horizontal y 2 en dirección vertical) muestras de referencia que la (k-1)-ésima línea de referencia. Además, cuando un bloque actual tiene un tamaño de 8x8, la k-ésima línea de referencia puede incluir además ocho (específicamente, 4 en dirección horizontal y 4 en dirección vertical) muestras de referencia que la (k-1)-ésima línea de referencia.
Haciendo referencia a la figura 15, como el tamaño de un bloque actual es 4*4, se ejemplifica que una primera muestra de referencia incluye un total de 9 muestras de referencia y una segunda muestra de referencia incluye un total de 13 (=9+2*2) muestras de referencia.
Cuando un bloque actual no es cuadrado, se puede determinar un número de muestras de referencia incluidas en una línea de referencia de acuerdo con las longitudes horizontal y vertical de un bloque actual.
Por ejemplo, la figura 17 es un diagrama que ejemplifica una pluralidad de líneas de referencia para un bloque no cuadrado. Describiendo comparando las figuras 15 y 17, a medida que el ancho de un bloque actual disminuye a 1/2, un número de muestras de referencia superiores, excepto una muestra de referencia superior izquierda incluida en una línea de referencia 0, se reduce de 8 a 4.
Es decir, según las figuras 15 y 17, cuando se supone que un bloque actual tiene un tamaño WxH, la k-ésima línea de referencia puede incluir un total de 2{(W+H)+2(k-1)}+1 muestras de referencia, incluidas muestras de referencia superior W+H+2(k-1)(o 2W+2(k-1) muestras de referencia superiores) (es decir, muestras de referencia en dirección horizontal), W+H+2(k-1) muestras de referencia izquierda (o 2H+2(k-1) muestras de referencia izquierda) (es decir, muestras de referencia de dirección vertical) y muestra de referencia superior izquierda.
Si una muestra de referencia que no está disponible se incluye en una línea de referencia, la muestra de referencia no disponible puede reemplazarse con una muestra de referencia disponible vecina. En este momento, la muestra vecina que reemplaza la muestra de referencia no disponible puede incluirse en una misma línea de referencia que la muestra de referencia no disponible, o puede incluirse en una línea de referencia diferente de la muestra de referencia no disponible.
Por ejemplo, si una posición de una muestra de referencia está fuera de una imagen o en un segmento diferente de un bloque actual cuando la intrapredicción se realiza usando una línea de referencia extendida o si una muestra de referencia se incluye en un bloque codificado por interpredicción cuando la intrapredicción se realiza utilizando una línea de referencia extendida, es posible que se determine que la muestra de referencia no está disponible. La muestra de referencia incluida en un bloque codificado mediante interpredicción puede determinarse como no disponible cuando se establece que una muestra de referencia incluida en un bloque codificado mediante interpredicción no se utiliza (por ejemplo, sólo cuando un valor de indicador_intra_predicción_restringido es 0). O, si se establece que un bloque codificado por intrapredicción debe decodificarse antes que un bloque codificado por interpredicción, es posible que el bloque codificado por interpredicción aún no se reconstruya cuando se decodifica el bloque codificado por intrapredicción. En consecuencia, se puede determinar que una muestra de referencia incluida en el bloque codificado mediante interpredicción no está disponible.
Una muestra de referencia utilizada para reemplazar una muestra de referencia no disponible puede determinarse teniendo en cuenta una posición de la muestra de referencia no disponible, una distancia entre la muestra de referencia no disponible y la muestra de referencia disponible, o similares. Por ejemplo, una muestra no disponible puede reemplazarse con una muestra disponible que esté a la distancia más corta de la muestra de referencia no disponible. Es decir, una muestra de referencia disponible que tiene la distancia más corta y se selecciona comparando una distancia (primer desplazamiento) entre una muestra de referencia disponible incluida en la misma línea de referencia con la muestra de referencia no disponible y la muestra no disponible y una distancia (segundo desplazamiento) entre una muestra de referencia disponible incluida en una línea de referencia diferente de la muestra de referencia no disponible y la muestra de referencia no disponible podrá sustituirse por la muestra de referencia no disponible.
En el ejemplo mostrado en la figura 18, se representa que una distancia entre la muestra de referencia no disponible incluida en la línea de referencia 0 y la muestra de referencia disponible incluida en la línea de referencia 0 es 4, y una distancia entre la muestra de referencia no disponible incluida en la línea de referencia 0 y la disponible la muestra de referencia incluida en la línea de referencia 2 es 2. En consecuencia, la muestra no disponible incluida en la línea de referencia 0 puede sustituirse utilizando la muestra de referencia disponible incluida en la línea de referencia 2.
Si un primer desplazamiento y un segundo desplazamiento son iguales, una muestra de referencia no disponible puede reemplazarse utilizando una muestra de referencia disponible incluida en la misma línea de referencia que la muestra de referencia no disponible.
Una muestra de referencia no disponible puede ser reemplazada usando una muestra de referencia disponible incluida en una línea de referencia diferente de la muestra de referencia no disponible solo cuando se establece una distancia (es decir, un primer desplazamiento) entre una muestra disponible incluida en la misma línea de referencia que la muestra de referencia no disponible y la muestra de referencia no disponible es igual o mayor que N. Alternativamente, incluso cuando el primer desplazamiento es igual o mayor que N, se puede usar una muestra de referencia disponible incluida en una línea de referencia diferente de una muestra de referencia no disponible para reemplazar la muestra de referencia no disponible sólo cuando un segundo desplazamiento es menor que el primer desplazamiento. Aquí, N puede representar un número entero de 1 o más.
Si un primer desplazamiento no es igual o mayor que N, una muestra de referencia no disponible puede reemplazarse utilizando una muestra de referencia disponible incluida en la misma línea de referencia que la muestra de referencia no disponible.
Las figuras 19 y 20 muestran un ejemplo en el que una muestra de referencia no disponible se reemplaza con una muestra de referencia disponible cuando N es 2. Si una distancia entre una muestra de referencia no disponible incluida en la línea de referencia 0 y una muestra de referencia disponible incluida en la línea de referencia 0 es 2, como en el ejemplo mostrado en la figura 19, la muestra de referencia no disponible incluida en la línea de referencia 0 puede reemplazarse usando una muestra de referencia disponible incluida en la línea de referencia 1.
Por otro lado, si una distancia entre una muestra de referencia no disponible incluida en la línea de referencia 0 y una muestra de referencia disponible incluida en la línea de referencia 0 es 1, como en el ejemplo mostrado en la figura 20, la muestra de referencia no disponible incluida en la línea de referencia 0 puede reemplazarse usando la muestra de referencia disponible incluida en la línea de referencia 0.
Una muestra de referencia no disponible puede reemplazarse utilizando una muestra de referencia disponible incluida en la misma línea de referencia que la muestra de referencia no disponible o una muestra de referencia disponible incluida en una línea de referencia adyacente a una línea de referencia en la que se incluye la muestra de referencia no disponible. Aquí, una línea de referencia adyacente a una línea de referencia en la que se incluye la muestra de referencia no disponible puede hacer referencia a una línea de referencia que tiene una diferencia de índice de 1 con respecto a la línea de referencia que incluye la muestra de referencia no disponible. Alternativamente, la muestra de referencia no disponible puede reemplazarse con una muestra de referencia disponible incluida en una línea de referencia que tiene una diferencia de índice de dos o más con respecto a la línea de referencia que incluye la muestra de referencia no disponible.
Alternativamente, una muestra de referencia no disponible puede reemplazarse usando una muestra de referencia disponible incluida en una línea de referencia que tenga un valor de índice mayor o que tenga un valor de índice menor que una línea de referencia que incluya la muestra de referencia no disponible. Por ejemplo, si se usa una línea de referencia que tiene un valor de índice mayor que una línea de referencia que incluye la muestra de referencia no disponible, se puede usar una muestra de referencia ubicada a la izquierda o en la parte superior de la muestra de referencia no disponible para reemplazar la muestra de referencia no disponible.
Se puede realizar una búsqueda de una muestra de referencia disponible para reemplazar una muestra de referencia no disponible en una dirección predefinida. Por ejemplo, solo una muestra de referencia ubicada en la dirección superior, inferior, izquierda o derecha de la muestra no disponible entre las muestras de referencia incluidas en la misma línea de referencia que la muestra de referencia no disponible puede usarse para reemplazar la muestra de referencia no disponible. Alternativamente, solo se puede usar una muestra de referencia ubicada en la dirección superior, inferior, izquierda o derecha de la muestra no disponible entre las muestras de referencia incluidas en una línea de referencia diferente de la muestra de referencia no disponible para reemplazar la muestra no disponible.
Un decodificador puede decodificar, basándose en un flujo de bits, información de índice que especifica una de una pluralidad de líneas de referencia (S1620). Por ejemplo, cuando hay 4 líneas de referencia disponibles como en el ejemplo mostrado en la figura 15, la información del índice puede especificar cualquiera de las 4 líneas de referencia.
Una línea de referencia para realizar una intrapredicción para un bloque actual se puede determinar de manera adaptativa basándose en un tamaño de un bloque actual, un tipo de bloque actual, un modo de intrapredicción de un bloque actual, información de índice en un bloque vecino o un diferencia entre un modo de intrapredicción de un bloque actual y un modo de intrapredicción predeterminado, y similares.
Cuando se determina cualquiera de una pluralidad de líneas de referencia, un decodificador puede realizar una intrapredicción para un bloque actual utilizando la línea de referencia determinada (S1630).
Por ejemplo, cuando un modo de intrapredicción de un bloque actual es el modo DC, se puede generar una muestra de predicción del bloque actual basándose en un valor promedio (dcVal) de muestras de referencia incluidas en la línea de referencia determinada. Haciendo referencia a las figuras 21 y 22, se describirá en detalle un cálculo del valor medio de las muestras de referencia incluidas en la línea de referencia.
Alternativamente, cuando un modo de intrapredicción de un bloque actual es un modo direccional, se puede generar una muestra de predicción del bloque actual basándose en una muestra de referencia especificada por el modo direccional entre las muestras de referencia incluidas en la línea de referencia determinada. En este momento, si un segmento de línea que se extiende desde una muestra de predicción hacia la dirección indicada por el modo direccional apunta entre muestras de referencia, la muestra de predicción del bloque actual puede generarse basándose en una suma ponderada (predicción ponderada) de una primera muestra de referencia y una segunda muestra de referencia que están ubicadas a ambos lados del punto indicado por el segmento de línea que se extiende hacia la dirección indicada por el modo direccional.
Cuando un modo de intrapredicción de un bloque actual es el modo DC, es necesario calcular un valor promedio (dcVal) de las muestras de referencia incluidas en una línea de referencia para realizar la predicción en el bloque actual. En este momento, el valor promedio de las muestras de referencia en la k-ésima línea de referencia se puede calcular utilizando solo una parte de las muestras de referencia incluidas en la k-ésima línea de referencia. En este momento, el número de muestras de referencia utilizadas para derivar el valor promedio puede ser el mismo para cada línea de referencia o puede ser diferente para cada línea de referencia.
Alternativamente, se puede derivar un valor promedio para las muestras de referencia en la k-ésima línea de referencia utilizando todas las muestras de referencia incluidas en la k-ésima línea de referencia. Alternativamente, se puede determinar en función del tamaño de un bloque actual, la forma de un bloque actual o la posición de una línea de referencia, ya sea para derivar un valor promedio usando una parte de las muestras de referencia en la k-ésima línea de referencia o para derivar un valor promedio utilizando todas las muestras de referencia en la k-ésima línea de referencia.
La figura 21 es un diagrama que ilustra muestras de referencia utilizadas para derivar un valor promedio de una línea de referencia.
La figura 21 muestra un ejemplo de cómo derivar un valor promedio de muestra de referencia de la k-ésima línea de referencia usando una parte de las muestras de referencia incluidas en una línea de referencia. Por ejemplo, un ejemplo ilustrado en la figura 21, un valor promedio de muestra de referencia de una primera línea de referencia adyacente a un bloque actual (es decir, la línea de referencia 0 mostrada en la figura 21) se puede calcular utilizando muestras de referencia superiores y muestras de referencia izquierda excluyendo una muestra de referencia adyacente a una esquina superior izquierda del bloque actual. Es decir, cuando el tamaño del bloque actual es NxN, se puede usar un total de 4N muestras de referencia, tales como 2N muestras de referencia superiores y 2N muestras de referencia izquierda, para calcular el valor promedio de la primera línea de referencia.
El número de muestras de referencia utilizadas para calcular un valor medio de muestra de referencia de la k-ésima línea de referencia puede ser el mismo que el número de muestras de referencia utilizadas para calcular un valor medio de muestra de referencia de la primera línea de referencia. En este momento, una posición de una muestra de referencia utilizada para calcular el valor medio de la k-ésima línea de referencia puede corresponder a una posición de una muestra de referencia utilizada para calcular el valor medio de la muestra de referencia de la primera línea de referencia.
Una muestra de referencia en la k-ésima línea de referencia correspondiente a una muestra de referencia de una primera línea de referencia puede tener la misma coordenada x o la misma coordenada y que la muestra de referencia de la primera línea de referencia. Por ejemplo, una coordenada de una muestra de referencia superior incluida en la k-ésima línea de referencia correspondiente a una muestra de referencia superior P (i, j) incluida en una primera línea de referencia puede ser P(i, j-k+1) que tiene la misma coordenada x como P(i, j). Por ejemplo, una coordenada de una muestra de referencia izquierda en la k-ésima línea de referencia correspondiente a una muestra de referencia izquierda P (i, j) incluida en una primera línea de referencia puede ser P(i-k+1, j) que tiene la misma coordenada y que P(i, j).
En la figura 21, se muestran muestras de referencia de la segunda a cuarta líneas de referencia correspondientes a la muestra de referencia superior y la muestra de referencia izquierda en una primera línea de referencia. Se puede calcular un valor promedio de muestra de referencia de cada línea de referencia usando las muestras de referencia mostradas en la figura 21.
En la figura 21, se supone que un bloque actual tiene una forma cuadrada, pero incluso si el bloque actual tiene una forma no cuadrada, la realización anterior se puede aplicar tal como está. Por ejemplo, cuando la corriente es un bloque no cuadrado que tiene un tamaño WxH, se puede calcular un valor promedio de muestra de referencia de cada línea de referencia usando un total de 2(W+H) muestras de referencia, tales como muestras de referencia superiores de 2W y muestras de referencia izquierda de 2H. En consecuencia, como en el ejemplo mostrado en la figura 22, el número de muestras de referencia utilizadas para calcular un valor medio de la k-ésima línea de referencia puede tener el mismo valor que el número de muestras de referencia utilizadas para calcular un valor medio de la primera línea de referencia. Además, la ubicación de la muestra de referencia utilizada para calcular el valor promedio de la késima línea de referencia puede corresponder a la ubicación de la muestra de referencia utilizada para calcular el valor promedio de la muestra de referencia de la primera línea de referencia.
En las figuras 21 y 22, se utilizan muestras de referencia superiores de hasta dos veces el ancho de un bloque actual y muestras de referencia izquierda de hasta dos veces la altura del bloque actual para calcular un valor promedio de muestra de referencia de una línea de referencia. Se puede calcular un valor promedio de muestra de referencia de una línea de referencia utilizando un número mayor o menor de muestras de referencia que las que se muestran en las figuras 21 y 22. Por ejemplo, el valor promedio de la muestra de referencia de la línea de referencia se puede calcular usando el mismo número de muestras de referencia superiores que el ancho del bloque actual y el mismo número de muestras de referencia izquierda que la altura del bloque actual.
Se puede calcular un valor promedio de muestra de referencia de una línea de referencia asignando diferentes pesos a las muestras de referencia, dependiendo de la forma de un bloque actual y de la posición de una muestra de referencia. Por ejemplo, si el bloque actual tiene forma cuadrada, el valor promedio de la muestra de referencia se puede calcular asignando el mismo peso a las muestras de referencia superiores y a las muestras de referencia izquierda. Por otro lado, cuando el bloque actual tiene una forma no cuadrada, el valor promedio de la muestra de referencia se puede calcular asignando un peso mayor a una de las muestras de referencia superior y a las muestras de referencia izquierda. Por ejemplo, si la altura del bloque actual es mayor que el ancho, el valor promedio se puede calcular asignando un peso mayor a las muestras de referencia superiores que a las muestras de referencia izquierda. Por otro lado, cuando el ancho del bloque actual es mayor que la altura, el valor promedio se puede calcular asignando un peso mayor a las muestras de referencia izquierda que a las muestras de referencia superiores.
Por ejemplo, cuando el tamaño del bloque actual es N/2 x N, el valor promedio de la k-ésima línea de referencia dcVal puede calcularse mediante la siguiente ecuación 12.
[Ecuación 12]
2N- 12N-1
d c V a l= {Z<p c>- *, / ) ) > 2 N ( Y i 2 X P ( l , - k ) ) > 2 N
/= o1=0
Por ejemplo, cuando el tamaño del bloque actual es NxN/2, el valor promedio de la k-ésima línea de referencia dcVal puede calcularse mediante la siguiente ecuación 13.
[Ecuación 13]
dcV a
En las ecuaciones 12 y 13, k puede establecerse en un valor entre 1 y máx_intra_línea_idx_menos2 2.
En el ejemplo descrito a través de la figura 16, se ejemplifica que la información de índice que especifica una de la pluralidad de líneas de referencia se decodifica después de generar una pluralidad de líneas de referencia. También es posible obtener sólo una línea de referencia especificada por información de índice entre una pluralidad de líneas de referencia después de decodificar la información de índice que especifica una de la pluralidad de líneas de referencia.
En la realización descrita a través de la figura 16, se describe que la intrapredicción para un bloque actual se realiza usando cualquier línea de referencia especificada por información de índice entre una pluralidad de líneas de referencia. También es posible que la intrapredicción para un bloque actual se pueda realizar usando dos o más líneas de referencia entre una pluralidad de líneas de referencia. El uso o no de dos o más líneas de referencia al realizar una intrapredicción para un bloque actual se puede determinar basándose en la información señalizada desde un flujo de bits, un tamaño de un bloque actual, un tipo de bloque actual, un modo de intrapredicción de un bloque actual, si un modo de intrapredicción de un bloque actual es no direccional o una diferencia entre un modo de intrapredicción de un bloque actual y un modo de intrapredicción predeterminado, y similares.
Las dos o más líneas de referencia pueden especificarse mediante una pluralidad de información de índice señalizada desde un flujo de bits. Por ejemplo, cuando se configura el uso de dos líneas de referencia, cualquiera de las dos líneas de referencia puede especificarse mediante la primera información de índice y la otra puede especificarse mediante la segunda información de índice.
Alternativamente, dos o más líneas de referencia pueden ser espacialmente contiguas. En este caso, la información de índice para especificar cualquiera de las dos o más líneas de referencia puede señalarse a través de un flujo de bits. Si cualquiera de las dos o más líneas de referencia es seleccionada por la información de índice, la línea de referencia restante puede seleccionarse automáticamente basándose en la adyacencia espacial con la línea de referencia seleccionada. Por ejemplo, cuando está configurado para usar dos líneas de referencia, y la información de índice indica 'línea de referencia 0', entonces se puede realizar la intrapredicción de un bloque actual basándose en la línea de referencia 0 y la línea de referencia 1 vecinas a la línea de referencia 0.
Cuando se configura para usar una pluralidad de líneas de referencia, la intrapredicción de un bloque actual se puede realizar basándose en un valor promedio, un valor máximo, un valor mínimo o una suma ponderada de muestras de referencia incluidas en la pluralidad de líneas de referencia.
Por ejemplo, suponiendo que un modo de intrapredicción de un bloque actual es un modo direccional (es decir, un modo angular), se puede generar una muestra predicha del bloque actual basándose en una primera muestra de referencia y una segunda muestra de referencia, cada una de que se incluye en una línea de referencia de diferencia. Aquí, una primera línea de referencia que incluye la primera muestra de referencia y una segunda línea de referencia que incluye la segunda muestra de referencia pueden colocarse una al lado de la otra, pero no se limita a ellas. Además, la primera muestra de referencia y la segunda muestra de referencia pueden determinarse mediante un modo de intrapredicción del bloque actual. La primera muestra de referencia y la segunda muestra de referencia pueden colocarse una al lado de la otra, pero no se limita a ellas. Se puede generar una muestra de predicción de un bloque actual en consideración de una suma ponderada de la primera muestra de referencia y la segunda muestra de referencia, o se puede generar en base a un valor promedio, un valor mínimo o un valor máximo de la primera muestra de referencia y la segunda muestra de referencia.
La intrapredicción de un bloque actual se puede realizar realizando una primera intrapredicción basada en una parte de una pluralidad de líneas de referencia y realizando una segunda intrapredicción basada en las líneas de referencia restantes. En este caso, un modo de intrapredicción usado en una primera intrapredicción y un modo de intrapredicción usado en una segunda intrapredicción pueden ser iguales o diferentes. Se puede generar una muestra de predicción de un bloque actual basándose en una primera muestra de predicción generada al realizar una primera intrapredicción y una segunda muestra de predicción generada al realizar una segunda intrapredicción.
Las realizaciones anteriores se han descrito principalmente sobre el proceso de decodificación, el proceso de codificación se puede realizar en el mismo orden descrito o en orden inverso.
Aunque las realizaciones descritas anteriormente se han descrito sobre la base de una serie de pasos o diagramas de flujo, no limitan el orden de las series temporales de la invención y pueden realizarse simultáneamente o en diferentes órdenes según sea necesario. Además, cada uno de los componentes (por ejemplo, unidades, módulos, etc.) que constituyen el diagrama de bloques en las realizaciones descritas anteriormente puede implementarse mediante un dispositivo de hardware o software y una pluralidad de componentes. O se pueden combinar e implementar una pluralidad de componentes mediante un único dispositivo de hardware o software. Las realizaciones descritas anteriormente pueden implementarse en forma de instrucciones de programa que pueden ejecutarse a través de varios componentes de ordenador y grabarse en un medio de grabación legible por ordenador. El medio de grabación legible por ordenador puede incluir uno o una combinación de comandos de programa, archivos de datos, estructuras de datos y similares. Ejemplos de medios legibles por ordenador incluyen medios magnéticos como discos duros, disquetes y cintas magnéticas, medios de grabación ópticos como CD-ROM y DVD, medios magnetoópticos como disquetes, medios y dispositivos de hardware configurados específicamente para almacenar y ejecutar instrucciones de programas como ROM, RAM, memoria flash y similares. El dispositivo de hardware puede configurarse para funcionar como uno o más módulos de software para realizar el proceso según la presente invención, y viceversa.
Aplicabilidad industrial
La presente invención se puede aplicar a dispositivos electrónicos capaces de codificar/decodificar un vídeo.

Claims (9)

REIVINDICACIONES
1. Un procedimiento para decodificar un vídeo, comprendiendo el procedimiento:
seleccionar una línea de muestra de referencia de un bloque actual entre una o más candidatas de líneas de muestra de referencia;
derivar muestras de referencia incluidas en la línea de muestra de referencia seleccionada, en donde una muestra de referencia no disponible en la línea de muestra de referencia seleccionada se reemplaza con una muestra de referencia disponible en la línea de muestra de referencia seleccionada o en una línea de muestra de referencia vecina de la línea de muestra de referencia seleccionada; y
realizar intrapredicción para el bloque actual utilizando las muestras de referencia en la línea de muestra de referencia seleccionada,
caracterizado por que:
un número de uno o más candidatos de línea de muestra de referencia se determina basándose en información señalizada a nivel de secuencia,
una muestra de predicción en el bloque actual se corrige basándose en una muestra vecina y un filtro de corrección predeterminado, estando la muestra vecina en una línea angular de un modo de intrapredicción del bloque actual y siendo una muestra reconstruida incluida en un bloque vecino decodificado antes del bloque actual,
un número de columnas en las que se incluyen muestras de predicción que se corrigen se determina en función del tamaño del bloque actual.
2. El procedimiento de la reivindicación 1, en el que, cuando el modo de intrapredicción del bloque actual es un modo DC, se genera una muestra de predicción del bloque actual basándose en un valor promedio de una parte de las muestras de referencia en la línea de muestra de referencia seleccionada.
3. El procedimiento de la reivindicación 2, en el que un número de muestras de referencia utilizadas para calcular el valor promedio es el mismo para cada una de las una o más líneas de muestras de referencia.
4. El procedimiento de la reivindicación 1,
en el que la corrección de la muestra de predicción se realiza aplicando una primera ponderación a la muestra de predicción y aplicando una segunda ponderación a la muestra vecina, y
en el que el primer peso y el segundo peso se determinan en función de en qué columna se incluye la muestra de predicción.
5. Un procedimiento para codificar un vídeo, comprendiendo el procedimiento:
seleccionar una línea de muestra de referencia de un bloque actual entre una o más candidatas de líneas de muestra de referencia;
derivar muestras de referencia incluidas en la línea de muestra de referencia seleccionada, en donde una muestra de referencia no disponible en la línea de muestra de referencia seleccionada se reemplaza con una muestra de referencia disponible en la línea de muestra de referencia seleccionada o en una línea de muestra de referencia vecina de la línea de muestra de referencia seleccionada; y
realizar intrapredicción para el bloque actual utilizando las muestras de referencia en la línea de muestra de referencia seleccionada,
caracterizado por que
la información para determinar un número de uno o más candidatos de línea de muestra de referencia se codifica a un nivel de secuencia, y
una muestra de predicción en el bloque actual se corrige basándose en una muestra vecina y un filtro de corrección predeterminado, estando la muestra vecina en una línea angular de un modo de intrapredicción del bloque actual y siendo una muestra reconstruida incluida en un bloque vecino codificado antes del bloque actual,
un número de columnas en las que se incluyen muestras de predicción que se corrigen se determina en función del tamaño del bloque actual.
6. El procedimiento de la reivindicación 5, en el que, cuando el modo de intrapredicción del bloque actual es un modo DC, se genera una muestra de predicción del bloque actual basándose en un valor promedio de una parte de las muestras de referencia incluidas en la línea de muestra de referencia seleccionada.
7. El procedimiento de la reivindicación 6, en el que un número de muestras de referencia utilizadas para calcular el valor promedio es el mismo para cada una de las una o más líneas de muestras de referencia.
8. El procedimiento de la reivindicación 5,
en el que la corrección de la muestra de predicción se realiza aplicando una primera ponderación a la muestra de predicción y aplicando una segunda ponderación a la muestra vecina, y
en el que el primer peso y el segundo peso se determinan en función de en qué columna se incluye la muestra de predicción.
9. Un medio legible por ordenador que comprende instrucciones que, cuando son ejecutadas por un ordenador, hacen que el ordenador lleve a cabo el procedimiento según cualquiera de las reivindicaciones 1-4.
ES21176389T 2016-06-24 2017-06-22 Predicción intra utilizando píxeles de referencia de líneas adicionales Active ES2967198T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160079639 2016-06-24
KR20160079638 2016-06-24

Publications (1)

Publication Number Publication Date
ES2967198T3 true ES2967198T3 (es) 2024-04-29

Family

ID=60783923

Family Applications (4)

Application Number Title Priority Date Filing Date
ES21176389T Active ES2967198T3 (es) 2016-06-24 2017-06-22 Predicción intra utilizando píxeles de referencia de líneas adicionales
ES202031209A Active ES2800551B2 (es) 2016-06-24 2017-06-22 Método y aparato para tratar una señal de vídeo
ES201890085A Active ES2699723B2 (es) 2016-06-24 2017-06-22 Metodo y aparato para tratar una senal de video
ES201930739A Active ES2724568B2 (es) 2016-06-24 2017-06-22 Método y aparato para tratar una señal de vídeo

Family Applications After (3)

Application Number Title Priority Date Filing Date
ES202031209A Active ES2800551B2 (es) 2016-06-24 2017-06-22 Método y aparato para tratar una señal de vídeo
ES201890085A Active ES2699723B2 (es) 2016-06-24 2017-06-22 Metodo y aparato para tratar una senal de video
ES201930739A Active ES2724568B2 (es) 2016-06-24 2017-06-22 Método y aparato para tratar una señal de vídeo

Country Status (7)

Country Link
US (2) US11234015B2 (es)
EP (3) EP3890326B1 (es)
KR (1) KR102383104B1 (es)
CN (4) CN113873239A (es)
ES (4) ES2967198T3 (es)
PL (2) PL3477950T3 (es)
WO (1) WO2017222325A1 (es)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018016823A1 (ko) 2016-07-18 2018-01-25 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN115733973A (zh) * 2016-12-23 2023-03-03 华为技术有限公司 一种用于矩形视频编码块的编码方法、装置及计算机可读存储介质
KR20190028324A (ko) * 2017-09-08 2019-03-18 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2019059107A1 (ja) * 2017-09-20 2019-03-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
CN115022632A (zh) 2017-10-18 2022-09-06 韩国电子通信研究院 图像编码/解码方法和装置以及存储有比特流的记录介质
CN111247796B (zh) * 2017-10-20 2022-11-04 韩国电子通信研究院 图像编码/解码方法和装置以及存储比特流的记录介质
GB2567861A (en) * 2017-10-27 2019-05-01 Sony Corp Image data encoding and decoding
WO2019164306A1 (ko) * 2018-02-23 2019-08-29 인텔렉추얼디스커버리 주식회사 영상 부호화 방법/장치, 영상 복호화 방법/장치 및 비트스트림을 저장한 기록 매체
WO2019190201A1 (ko) * 2018-03-27 2019-10-03 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2019194441A1 (ko) * 2018-04-02 2019-10-10 엘지전자 주식회사 적응적으로 도출되는 mpm 리스트에 기반한 영상 코딩 방법 및 그 장치
EP3800883A4 (en) * 2018-06-25 2021-07-07 Guangdong Oppo Mobile Telecommunications Corp., Ltd. INTRAFRAME PREDICTION PROCESS AND DEVICE
KR20200006932A (ko) * 2018-07-11 2020-01-21 인텔렉추얼디스커버리 주식회사 화면내 예측 기반의 비디오 코딩 방법 및 장치
KR20200028856A (ko) * 2018-09-07 2020-03-17 김기백 인트라 예측을 이용한 영상 부호화/복호화 방법 및 장치
KR20200034639A (ko) * 2018-09-21 2020-03-31 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN117915085A (zh) 2018-10-07 2024-04-19 三星电子株式会社 用于编码或解码视频信号的视频信号处理方法和设备
CN117061740A (zh) 2018-10-12 2023-11-14 三星电子株式会社 通过使用交叉分量线性模型来处理视频信号的方法和设备
EP3840387B1 (en) * 2018-10-12 2024-03-06 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method for encoding/decoding image signal and device for same
WO2020091213A1 (ko) 2018-11-04 2020-05-07 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측 방법 및 장치
BR112021009686A2 (pt) * 2018-11-21 2021-08-31 Huawei Technologies Co., Ltd. Método e dispositivo de intrapredição
WO2020111843A1 (ko) * 2018-11-28 2020-06-04 주식회사 윌러스표준기술연구소 화면 내 예측 필터링을 이용한 비디오 신호 처리 방법 및 장치
WO2020175918A1 (ko) * 2019-02-26 2020-09-03 엘지전자 주식회사 단일화된 mpm 리스트를 사용하는 인트라 예측 기반 영상 코딩 방법 및 장치
MX2021011369A (es) * 2019-03-21 2021-11-12 Huawei Tech Co Ltd Método y aparato para intrapredicción.
CN113647103B (zh) * 2019-03-24 2023-07-11 华为技术有限公司 用于基于矩阵的帧内预测技术的量化系数的方法和设备
WO2020256599A1 (en) * 2019-06-21 2020-12-24 Huawei Technologies Co., Ltd. Method and apparatus of quantizing coefficients for matrix-based intra prediction technique
EP3970365A4 (en) * 2019-06-21 2022-08-10 Huawei Technologies Co., Ltd. MATRIX-BASED INTRA PREDICTION FOR STILL IMAGE AND VIDEO CODING
CN113382253B (zh) * 2019-06-21 2022-05-20 杭州海康威视数字技术股份有限公司 一种编解码方法、装置、设备及存储介质
KR20220024835A (ko) * 2019-06-25 2022-03-03 인터디지털 브이씨 홀딩스 프랑스 에스에이에스 픽처 데이터를 코딩/디코딩하기 위한 방법 및 장치
CN114830665B (zh) 2019-09-30 2023-08-04 华为技术有限公司 仿射运动模型限制
WO2021034229A2 (en) * 2019-12-16 2021-02-25 Huawei Technologies Co., Ltd. Method and apparatus of reference sample interpolation filtering for directional intra prediction
CN115176474A (zh) 2019-12-31 2022-10-11 抖音视界有限公司 多参数模型的跨分量预测
US20220337875A1 (en) * 2021-04-16 2022-10-20 Tencent America LLC Low memory design for multiple reference line selection scheme
WO2023224289A1 (ko) * 2022-05-16 2023-11-23 현대자동차주식회사 가상의 참조라인을 사용하는 비디오 코딩을 위한 방법 및 장치

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4213646B2 (ja) 2003-12-26 2009-01-21 株式会社エヌ・ティ・ティ・ドコモ 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法、及び画像復号プログラム。
JP2006121302A (ja) * 2004-10-20 2006-05-11 Canon Inc 符号化装置および符号化方法
CN101682774B (zh) * 2007-02-23 2013-07-24 日本电信电话株式会社 视频编码方法和解码方法、视频编码装置和解码装置
KR101456279B1 (ko) 2008-01-03 2014-11-04 한국전자통신연구원 참조 블록 파형 정보에 기반하여 인트라 영상을 부호화하는 장치 및 복호화 하는 장치
EP2304963B1 (fr) * 2008-07-01 2015-11-11 Orange Procede et dispositif de codage d'images mettant en oeuvre une prediction amelioree, procede et dispositif de decodage, signal et programmes d'ordinateur correspondants
WO2010017166A2 (en) * 2008-08-04 2010-02-11 Dolby Laboratories Licensing Corporation Overlapped block disparity estimation and compensation architecture
KR101479123B1 (ko) * 2009-09-25 2015-01-09 에스케이 텔레콤주식회사 인접 화소를 이용한 인터 예측 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
CN101742320B (zh) 2010-01-20 2012-09-12 李博航 图像处理方法
KR101789634B1 (ko) 2010-04-09 2017-10-25 엘지전자 주식회사 비디오 데이터 처리 방법 및 장치
CN102972028B (zh) * 2010-05-17 2015-08-12 Lg电子株式会社 新的帧内预测模式
US8902978B2 (en) * 2010-05-30 2014-12-02 Lg Electronics Inc. Enhanced intra prediction mode signaling
CN107181950B (zh) * 2010-12-08 2020-11-06 Lg 电子株式会社 一种执行内预测的编码装置和解码装置
WO2012081895A1 (ko) 2010-12-13 2012-06-21 한국전자통신연구원 인트라 예측 방법 및 그 장치
US9462272B2 (en) 2010-12-13 2016-10-04 Electronics And Telecommunications Research Institute Intra prediction method and apparatus
KR101444667B1 (ko) 2011-01-15 2014-09-30 에스케이 텔레콤주식회사 양방향 인트라 예측을 이용한 영상 부호화/복호화 방법 및 장치
US9930366B2 (en) * 2011-01-28 2018-03-27 Qualcomm Incorporated Pixel level adaptive intra-smoothing
EP3703368B1 (en) 2011-03-06 2022-11-02 LG Electronics Inc. Intra prediction method for chrominance blocks
KR101204385B1 (ko) * 2011-04-01 2012-11-29 주식회사 아이벡스피티홀딩스 인트라 예측 모드에서의 영상 복호화 방법
CA3082413C (en) 2011-04-25 2022-01-25 Lg Electronics Inc. Intra-prediction method, and video encoder and decoder using same
KR20120140181A (ko) 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
RU2619706C2 (ru) 2011-06-28 2017-05-17 Самсунг Электроникс Ко., Лтд. Способ и устройство для кодирования видео, а также способ и устройство для декодирования видео, сопровождаемого внутренним прогнозированием
CN102857752B (zh) 2011-07-01 2016-03-30 华为技术有限公司 一种像素预测方法和装置
KR101348544B1 (ko) 2011-08-17 2014-01-10 주식회사 케이티 단거리 화면 내 예측 모드에서 화면 내 예측 방법 및 이러한 방법을 사용하는 장치
KR20130027400A (ko) 2011-09-07 2013-03-15 주식회사 케이티 Dc 모드에서의 인트라 예측 방법 및 장치
US9338474B2 (en) 2011-09-23 2016-05-10 Qualcomm Incorporated Reference picture list construction for video coding
US9154796B2 (en) 2011-11-04 2015-10-06 Qualcomm Incorporated Intra-mode video coding
JP2013141187A (ja) 2012-01-06 2013-07-18 Sony Corp 画像処理装置及び画像処理方法
KR20130105114A (ko) * 2012-03-16 2013-09-25 주식회사 아이벡스피티홀딩스 인트라 예측 모드에서의 영상 복호화 방법
KR20140124443A (ko) * 2013-04-15 2014-10-27 인텔렉추얼디스커버리 주식회사 인트라 예측을 이용한 비디오 부호화/복호화 방법 및 장치
KR102269506B1 (ko) * 2013-10-18 2021-06-25 엘지전자 주식회사 멀티-뷰 비디오를 디코딩하는 비디오 디코딩 방법 및 장치
AU2014216056A1 (en) * 2014-08-25 2016-03-10 Canon Kabushiki Kaisha Method, apparatus and system for predicting a block of video samples
US10587894B2 (en) * 2014-10-08 2020-03-10 Lg Electronics Inc. Method and device for encoding/decoding 3D video
WO2016066093A1 (en) 2014-10-31 2016-05-06 Mediatek Inc. Method of improved directional intra prediction for video coding
KR102432085B1 (ko) * 2015-09-23 2022-08-11 노키아 테크놀로지스 오와이 360도 파노라마 비디오를 코딩하는 방법, 장치 및 컴퓨터 프로그램 제품
EP3355579A1 (en) * 2015-11-24 2018-08-01 Samsung Electronics Co., Ltd. Method for encoding/decoding image and device therefor
CN105842694B (zh) * 2016-03-23 2018-10-09 中国电子科技集团公司第三十八研究所 一种基于ffbp sar成像的自聚焦方法
KR20180129860A (ko) * 2016-04-25 2018-12-05 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측 방법 및 장치
US10841574B2 (en) * 2016-04-25 2020-11-17 Lg Electronics Inc. Image decoding method and device using intra prediction in image coding system
WO2017190288A1 (en) * 2016-05-04 2017-11-09 Microsoft Technology Licensing, Llc Intra-picture prediction using non-adjacent reference lines of sample values
US10484712B2 (en) * 2016-06-08 2019-11-19 Qualcomm Incorporated Implicit coding of reference line index used in intra prediction

Also Published As

Publication number Publication date
KR102383104B1 (ko) 2022-04-06
CN109716773A (zh) 2019-05-03
US11234015B2 (en) 2022-01-25
EP4246969A3 (en) 2023-12-20
EP3477950A4 (en) 2020-02-19
EP4246969A2 (en) 2023-09-20
ES2699723A2 (es) 2019-02-12
EP3477950B1 (en) 2021-08-04
US20190313116A1 (en) 2019-10-10
ES2724568R1 (es) 2020-05-06
ES2800551B2 (es) 2023-02-09
ES2724568B2 (es) 2021-05-19
KR20180001478A (ko) 2018-01-04
EP3477950A1 (en) 2019-05-01
ES2800551R1 (es) 2022-04-11
CN109716773B (zh) 2021-10-29
EP3890326B1 (en) 2023-09-06
ES2800551A2 (es) 2020-12-30
PL3477950T3 (pl) 2022-02-07
CN113873239A (zh) 2021-12-31
CN113873240A (zh) 2021-12-31
ES2699723R1 (es) 2019-04-05
US20220094972A1 (en) 2022-03-24
WO2017222325A1 (ko) 2017-12-28
EP3890326C0 (en) 2023-09-06
ES2699723B2 (es) 2020-10-16
CN113873238A (zh) 2021-12-31
EP3890326A1 (en) 2021-10-06
ES2724568A2 (es) 2019-09-12
PL3890326T3 (pl) 2024-02-12

Similar Documents

Publication Publication Date Title
ES2967198T3 (es) Predicción intra utilizando píxeles de referencia de líneas adicionales
ES2703607B2 (es) Método y aparato para procesar señales de vídeo
ES2908214T3 (es) Filtración adaptativa de muestras de referencia para intra predicción usando líneas de píxeles distantes
ES2677193B1 (es) Procedimiento y dispositivo para procesar señales de vídeo
ES2739668B1 (es) Metodo y aparato para procesar senales de video
ES2917099B1 (es) Método y aparato para procesar señales de video
ES2710234B1 (es) Procedimiento y dispositivo para procesar señales de vídeo
ES2948265T3 (es) Método de codificación/descodificación de señales de imagen y aparato para el mismo
ES2737874B2 (es) Metodo y aparato para procesar senal de video
ES2786077B2 (es) Metodo y aparato para procesar una senal de video
ES2688624A2 (es) Método y aparato para procesar señales de vídeo
ES2711474A2 (es) Metodo y aparato para procesar una senal de video
ES2703458A2 (es) Metodo y aparato para procesar senales de video
ES2711223A2 (es) Metodo y aparato para procesar senales de video
ES2711473A2 (es) Metodo y aparato para procesar una senal de video