ES2800551B2 - Method and apparatus for processing a video signal - Google Patents

Method and apparatus for processing a video signal Download PDF

Info

Publication number
ES2800551B2
ES2800551B2 ES202031209A ES202031209A ES2800551B2 ES 2800551 B2 ES2800551 B2 ES 2800551B2 ES 202031209 A ES202031209 A ES 202031209A ES 202031209 A ES202031209 A ES 202031209A ES 2800551 B2 ES2800551 B2 ES 2800551B2
Authority
ES
Spain
Prior art keywords
prediction
current block
intra
reference sample
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES202031209A
Other languages
Spanish (es)
Other versions
ES2800551A2 (en
ES2800551R1 (en
Inventor
Bae Keun Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KT Corp
Original Assignee
KT Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KT Corp filed Critical KT Corp
Publication of ES2800551A2 publication Critical patent/ES2800551A2/en
Publication of ES2800551R1 publication Critical patent/ES2800551R1/en
Application granted granted Critical
Publication of ES2800551B2 publication Critical patent/ES2800551B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Description

DESCRIPCIÓNDESCRIPTION

Método y aparato para tratar una señal de vídeoMethod and apparatus for processing a video signal

Campo técnicotechnical field

La presente invención se refiere a un método y un aparato para procesar señales de vídeo.The present invention relates to a method and an apparatus for processing video signals.

Técnica anteriorprior art

Recientemente, la demanda de imágenes de alta resolución y alta calidad como imágenes de alta definición (HD) e imágenes de ultra alta definición (UHD) ha aumentado en varios campos de aplicación. Sin embargo, los datos de imagen de mayor resolución y calidad tienen cantidades cada vez mayores de datos en comparación con los datos de imagen convencionales. Por lo tanto, cuando se transmiten datos de imágenes utilizando un medio como las redes de banda ancha convencionales e inalámbricas, o cuando se almacenan datos de imágenes utilizando un medio de almacenamiento convencional, aumentan los costes de transmisión y almacenamiento. Para resolver estos problemas que ocurren con un aumento en la resolución y la calidad de los datos de imagen, se pueden utilizar técnicas de codificación/decodificación de imagen de alta eficiencia.Recently, the demand for high-resolution and high-quality images such as high-definition (HD) images and ultra-high-definition (UHD) images has increased in various application fields. However, image data of higher resolution and quality have increasing amounts of data compared to conventional image data. Therefore, when image data is transmitted using a medium such as conventional broadband and wireless networks, or when image data is stored using a conventional storage medium, transmission and storage costs increase. To solve these problems that occur with an increase in the resolution and quality of the image data, high-efficiency image encoding/decoding techniques can be used.

La tecnología de compresión de imágenes incluye varias técnicas, entre ellas: una técnica de inter-predicción, para la predicción de un valor de píxel incluido en una imagen actual a partir de una imagen anterior o posterior de la imagen actual; una técnica de intrapredicción de predicción de un valor de píxel incluido en una imagen actual mediante el uso de información de píxeles en la imagen actual; una técnica de codificación por entropía de asignar un código corto a un valor con una frecuencia de aparición alta y asignar un código largo a un valor con una frecuencia de aparición baja; etc. Los datos de imagen se pueden comprimir de manera efectiva usando dicha tecnología de compresión de imagen y se pueden transmitir o almacenar.Image compression technology includes various techniques, including: an inter-prediction technique, for predicting a pixel value included in a current image from an image before or after the current image; an intra-prediction technique of predicting a pixel value included in a current image by using pixel information in the current image; an entropy coding technique of assigning a short code to a value with a high occurrence frequency and assigning a long code to a value with a low occurrence frequency; etc Image data can be effectively compressed using said image compression technology and can be transmitted or stored.

Mientras tanto, con la demanda de imágenes de alta resolución, la demanda de contenido de imágenes estereográficas, que es un nuevo servicio de imágenes, también ha aumentado. Se está discutiendo una técnica de compresión de vídeo para proporcionar de forma efectiva contenido de imágenes estereográficas con alta resolución y resolución ultraalta.Meanwhile, with the demand for high-resolution images, the demand for stereographic image content, which is a new image service, has also increased. A video compression technique is being discussed to effectively deliver high-resolution and ultra-high-resolution stereographic image content.

DivulgaciónDivulgation

Problema técnicotechnical problem

Un objeto de la presente invención está destinado a proporcionar un método y un aparato para realizar eficazmente la intrapredicción para un bloque objetivo de codificación/decodificación en la codificación/decodificación de una señal de vídeo.An object of the present invention is to provide a method and an apparatus for efficiently performing intra-prediction for a target encoding/decoding block in encoding/decoding of a video signal.

Un objeto de la presente invención pretende proporcionar un método y un aparato para realizar una intrapredicción para un bloque objetivo de codificación/decodificación basado en una pluralidad de líneas de referencia.An object of the present invention is to provide a method and an apparatus for performing an intra-prediction for a target encoding/decoding block based on a plurality of reference lines.

Un objeto de la presente invención pretende proporcionar un método y un aparato para reemplazar una muestra de referencia no disponible con una muestra de referencia disponible durante una generación de una pluralidad de líneas de referencia en la codificación/decodificación de una señal de vídeo.An object of the present invention is to provide a method and an apparatus for replacing an unavailable reference sample with an available reference sample during generation of a plurality of reference lines in encoding/decoding of a video signal.

Un objeto de la presente invención pretende proporcionar un método y un aparato para calcular un valor promedio de una cualquiera de una pluralidad de líneas de referencia en la codificación/decodificación de una señal de vídeo.An object of the present invention is to provide a method and apparatus for calculating an average value of any one of a plurality of reference lines in encoding/decoding a video signal.

Los objetivos técnicos a alcanzar por la presente invención no están limitados a los problemas técnicos mencionados anteriormente. Otros problemas técnicos que no se mencionan serán entendidos de manera inmediata por los expertos en la materia a partir de la siguiente descripción.The technical objectives to be achieved by the present invention are not limited to the technical problems mentioned above. Other technical problems that are not mentioned will be immediately understood by those skilled in the art from the following description.

Solución técnicatechnical solution

Un método y un aparato para decodificar una señal de vídeo de acuerdo con la presente invención pueden derivar una pluralidad de líneas de muestra de referencia para un bloque actual, seleccionar una línea de muestra de referencia utilizada para la intrapredicción del bloque actual entre la pluralidad de líneas de muestra de referencia, y realice la intrapredicción para el bloque actual utilizando la línea de muestra de referencia seleccionada. En este momento, si se incluye una muestra de referencia no disponible en una primera línea de muestra de referencia entre la pluralidad de líneas de muestra de referencia, la muestra de referencia no disponible se reemplaza con una muestra de referencia disponible incluida en la primera línea de muestra de referencia o en una segunda línea de muestra de referencia diferente de la primera línea de muestra de referencia.A method and apparatus for decoding a video signal according to the present invention can derive a plurality of reference sample lines for a current block, select a reference sample line used for intra-prediction of the current block among the plurality of reference sample lines, and intrapredict for the current block using the selected reference sample line. At this time, if you include a unavailable reference sample in a first reference sample line among the plurality of reference sample lines, the unavailable reference sample is replaced with an available reference sample included in the first or second reference sample line reference sample line different from the first reference sample line.

Un método y un aparato para codificar una señal de vídeo de acuerdo con la presente invención pueden derivar una pluralidad de líneas de muestra de referencia para un bloque actual, seleccionar una línea de muestra de referencia usada para la intrapredicción del bloque actual entre la pluralidad de líneas de muestra de referencia, y realizar la intrapredicción para el bloque actual utilizando la línea de muestra de referencia seleccionada. En este momento, si se incluye una muestra de referencia no disponible en una primera línea de muestra de referencia entre la pluralidad de líneas de muestra de referencia, la muestra de referencia no disponible se reemplaza con una muestra de referencia disponible incluida en la primera línea de muestra de referencia o en una segunda línea de muestra de referencia diferente de la primera línea de muestra de referencia.A method and apparatus for encoding a video signal according to the present invention can derive a plurality of reference sample lines for a current block, select a reference sample line used for intra-prediction of the current block among the plurality of reference sample lines, and intrapredict for the current block using the selected reference sample line. At this time, if an unavailable reference sample is included in a first reference sample line among the plurality of reference sample lines, the unavailable reference sample is replaced with an available reference sample included in the first line. reference sample line or on a second reference sample line different from the first reference sample line.

En el método y el aparato para codificar/decodificar una señal de vídeo de acuerdo con la presente invención, la muestra de referencia no disponible se reemplaza por una muestra de referencia disponible que tiene una distancia más corta de la muestra de referencia no disponible entre las muestras de referencia disponibles incluidas en la primera línea de muestra de referencia o en la segunda línea de muestra de referencia.In the method and apparatus for encoding/decoding a video signal according to the present invention, the unavailable reference sample is replaced with an available reference sample having a shorter distance from the unavailable reference sample between the available reference samples included in the first reference sample line or the second reference sample line.

En el método y el aparato para codificar/decodificar una señal de vídeo de acuerdo con la presente invención, si una distancia entre la muestra de referencia no disponible y una muestra de referencia disponible incluida en la primera línea de referencia es igual o mayor que un valor umbral, el valor no disponible la muestra de referencia se reemplaza con una muestra de referencia disponible incluida en la segunda línea de referencia.In the method and apparatus for encoding/decoding a video signal according to the present invention, if a distance between the unavailable reference sample and an available reference sample included in the first reference line is equal to or greater than a threshold value, value not available reference sample is replaced with an available reference sample included in the second reference line.

En el método y el aparato para codificar/decodificar una señal de vídeo de acuerdo con la presente invención, la segunda línea de referencia tiene un valor de índice mayor que la primera línea de referencia.In the method and apparatus for encoding/decoding a video signal according to the present invention, the second reference line has a larger index value than the first reference line.

En el método y el aparato para codificar/decodificar una señal de vídeo de acuerdo con la presente invención, se genera una muestra de predicción del bloque actual en base a un valor promedio de una parte de muestras de referencia incluidas en la línea de muestra de referencia seleccionada.In the method and apparatus for encoding/decoding a video signal according to With the present invention, a prediction sample of the current block is generated based on an average value of a part of reference samples included in the selected reference sample line.

En el método y el aparato para codificar/decodificar una señal de vídeo de acuerdo con la presente invención, una cantidad de muestras de referencia utilizadas para calcular el valor promedio entre las muestras de referencia incluidas en la línea de muestra de referencia seleccionada se determina en función del tamaño del bloque actual.In the method and apparatus for encoding/decoding a video signal according to the present invention, a number of reference samples used to calculate the average value among the reference samples included in the selected reference sample line is determined in function of the current block size.

Las características anteriormente resumidas brevemente para la presente invención son solo aspectos ilustrativos de la descripción detallada de la invención que sigue, pero no limitan el alcance de la invención.The above briefly summarized features for the present invention are only illustrative aspects of the detailed description of the invention that follows, but do not limit the scope of the invention.

Efectos ventajososadvantageous effects

De acuerdo con la presente invención, se puede realizar una eficiente intrapredicción para un bloque objetivo de codificación/decodificación.According to the present invention, efficient intra-prediction can be performed for a target encode/decode block.

De acuerdo con la presente invención, la intrapredicción para un bloque objetivo de codificación/decodificación se puede realizar basándose en una pluralidad de líneas de referencia.According to the present invention, intra-prediction for a target encode/decode block can be performed based on a plurality of reference lines.

De acuerdo con la presente invención, una muestra de referencia no disponible se reemplaza con una muestra de referencia disponible durante una generación de una pluralidad de líneas de referencia.In accordance with the present invention, an unavailable reference sample is replaced with an available reference sample during a generation of a plurality of reference lines.

De acuerdo con la presente invención, la intrapredicción para un bloque objetivo de codificación/decodificación mediante el cálculo de un valor promedio de una de la pluralidad de líneas de referencia.In accordance with the present invention, intra-prediction for a target encoding/decoding block by calculating an average value of one of the plurality of reference lines.

Los efectos obtenibles por la presente invención no están limitados a los efectos mencionados anteriormente, y los expertos en la técnica pueden entender claramente otros efectos no mencionados a partir de la siguiente descripción. The effects obtainable by the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description.

Descripción de dibujosDescription of drawings

La figura 1 es un diagrama de bloques que ilustra un dispositivo para codificar un vídeo de acuerdo con una realización de la presente invención;Fig. 1 is a block diagram illustrating a device for encoding a video according to an embodiment of the present invention;

La figura 2 es un diagrama de bloques de un dispositivo para decodificar un vídeo de acuerdo con una realización de la presente invención;Fig. 2 is a block diagram of a device for decoding a video according to an embodiment of the present invention;

La figura 3 es un dibujo que ilustra un ejemplo de partición jerárquica de un bloque de codificación basado en una estructura de árbol de acuerdo con una realización de la presente invención.Fig. 3 is a drawing illustrating an example of hierarchical partitioning of a coding block based on a tree structure according to an embodiment of the present invention.

La figura 4 es un dibujo que ilustra un modo de partición que puede aplicarse a un bloque de codificación cuando el bloque de codificación está codificado mediante interpredicción.Fig. 4 is a drawing illustrating a partition mode that can be applied to a coding block when the coding block is interprediction coded.

La figura 5 es un dibujo que ilustra tipos de modos de intrapredicción predefinidos para un dispositivo para codificar/decodificar un vídeo de acuerdo con una realización de la presente invención.Fig. 5 is a drawing illustrating kinds of predefined intra-prediction modes for a device for encoding/decoding a video according to an embodiment of the present invention.

La figura 6 es un diagrama que ilustra un tipo de modos de intrapredicción extendida de acuerdo con una realización de la presente invención;Fig. 6 is a diagram illustrating one type of extended intra-prediction modes according to one embodiment of the present invention;

La figura 7 es un diagrama de flujo que ilustra brevemente un método de intrapredicción según una realización de la presente invención.Fig. 7 is a flow chart briefly illustrating an intra-prediction method according to one embodiment of the present invention.

La figura 8 es un dibujo que ilustra un método para corregir una muestra de predicción de un bloque actual basándose en información diferencial de muestras vecinas de acuerdo con una realización de la presente invención.Fig. 8 is a drawing illustrating a method for correcting a prediction sample of a current block based on differential information from neighboring samples according to an embodiment of the present invention.

Las figuras 9 y 10 son dibujos que ilustran un método para corregir una muestra de predicción basándose en un filtro de corrección predeterminado de acuerdo con una realización de la presente invención.Figures 9 and 10 are drawings illustrating a method for correcting a prediction sample based on a predetermined correction filter according to an embodiment of the present invention.

La figura 11 muestra una gama de muestras de referencia para la intrapredicción de acuerdo con una realización a la que se aplica la presente invención.Figure 11 shows a range of reference samples for intra-prediction according to an embodiment to which the present invention is applied.

Las figuras 12 a 14 ilustran un ejemplo de filtrado sobre muestras de referencias según una realización de la presente invención. Figures 12 to 14 illustrate an example of filtering on reference samples according to one embodiment of the present invention.

La figura 15 es un diagrama que ilustra una pluralidad de líneas de muestra de referencia de acuerdo con una realización de la presente invención.Fig. 15 is a diagram illustrating a plurality of reference sample lines in accordance with one embodiment of the present invention.

La figura 16 es un diagrama de flujo que ilustra un método para realizar la intrapredicción utilizando una línea de referencia extendida según la presente invención.Fig. 16 is a flow chart illustrating a method for performing intra-prediction using an extended baseline in accordance with the present invention.

La figura 17 es un dibujo que ilustra una pluralidad de líneas de referencia para un bloque no cuadrado de acuerdo con la presente invención.Fig. 17 is a drawing illustrating a plurality of reference lines for a non-square block according to the present invention.

La figura 18 es un dibujo para explicar un ejemplo donde una muestra de referencia no disponible se reemplaza con una muestra de referencia disponible ubicada a la distancia más corta de la muestra de referencia no disponible.Fig. 18 is a drawing to explain an example where an unavailable reference sample is replaced with an available reference sample located at the shortest distance from the unavailable reference sample.

Las figuras 19 y 20 son dibujos para explicar una realización en la que la posición de una muestra de referencia disponible se determina de forma adaptativa según una distancia entre una muestra de referencia no disponible y una muestra de referencia disponible incluida en la misma línea de referencia que la muestra de referencia no disponible.Figs. 19 and 20 are drawings for explaining an embodiment in which the position of an available reference sample is adaptively determined according to a distance between an unavailable reference sample and an available reference sample included in the same reference line. than the reference sample not available.

Las figuras 21 y 22 son dibujos que ilustran muestras de referencia utilizadas para obtener un valor promedio de una línea de referencia de acuerdo con una realización a la que se aplica la presente invención.Figs. 21 and 22 are drawings illustrating reference samples used to obtain an average value of a reference line according to an embodiment to which the present invention is applied.

Modo de la invenciónmode of invention

Se pueden realizar una variedad de modificaciones a la presente invención y existen diversas realizaciones de la presente invención, cuyos ejemplos se proporcionarán ahora con referencia a los dibujos y se describirán con detalle. Sin embargo, la presente invención no se limita a esto, y las realizaciones ejemplares pueden interpretarse como que incluyen todas las modificaciones, equivalentes o sustitutos en un concepto técnico y un alcance técnico de la presente invención. Los números de referencia similares se refieren al elemento similar descrito en los dibujos.A variety of modifications can be made to the present invention and there are various embodiments of the present invention, examples of which will now be given with reference to the drawings and described in detail. However, the present invention is not limited to this, and the exemplary embodiments may be construed as including all modifications, equivalents, or substitutes in a technical concept and technical scope of the present invention. Like reference numerals refer to the like element described in the drawings.

Los términos utilizados en la especificación, 'primero', 'segundo', etc. se pueden usar para describir varios componentes, pero los componentes no deben interpretarse como limitados a los términos. Los términos solo se utilizan para diferenciar un componente de otros componentes. Por ejemplo, el "primer" componente puede denominarse el "segundo" componente sin apartarse del alcance de la presente invención, y el "segundo" componente también puede denominarse de manera similar al "primer" componente. El término 'y/o' incluye una combinación de una pluralidad de elementos o cualquiera de una pluralidad de términos.The terms used in the specification, 'first', 'second', etc. can be used to describe various components, but the components must not be construed as limited to the terms. The terms are only used to differentiate a component from other components. For example, the "first" component may be referred to as the "second" component without departing from the scope of the present invention, and the "second" component may also be similarly referred to as the "first" component. The term 'and/or' includes a combination of a plurality of elements or any of a plurality of terms.

Se entenderá que cuando se hace referencia simplemente a un elemento como 'conectado a' o 'acoplado a' otro elemento sin estar 'directamente conectado a' o 'directamente acoplado a' otro elemento en la presente descripción, puede estar 'directamente' conectado a 'o' directamente acoplado a’ otro elemento o estar conectado o acoplado a otro elemento, teniendo el otro elemento que interviene entre ellos. Por el contrario, cuando se hace referencia a un elemento como "directamente conectado” o "directamente acoplado" a otra característica o elemento, no hay elementos intermedios presentes.It will be understood that where an element is simply referred to as 'connected to' or 'coupled to' another element without being 'directly connected to' or 'directly coupled to' another element in the present description, it may be 'directly' connected to 'or' directly attached to' another element or being connected or attached to another element, with the other element intervening between them. Conversely, when an element is referred to as "directly connected" or "directly coupled" to another feature or element, no intermediate elements are present.

Los términos utilizados en la presente memoria descriptiva se usan simplemente para describir realizaciones particulares, y no pretenden limitar la presente invención. Una expresión usada en singular abarca la expresión del plural, a menos que tenga un significado claramente diferente en el contexto. En la presente memoria descriptiva, debe entenderse que términos tales como "incluyendo", "teniendo", etc. pretenden indicar la existencia de las características, números, etapas, acciones, elementos, partes o combinaciones de los mismos que se describen en la especificación, y no pretenden excluir la posibilidad de que una o más características, números, etapas, acciones, elementos, partes o combinaciones de los mismos puedan existir o agregarse.The terms used in the present specification are used merely to describe particular embodiments, and are not intended to limit the present invention. An expression used in the singular encompasses the expression in the plural, unless it has a clearly different meaning in the context. In the present specification, it is to be understood that terms such as "including", "having", etc. are intended to indicate the existence of the features, numbers, stages, actions, elements, parts, or combinations thereof that are described in the specification, and are not intended to exclude the possibility that one or more features, numbers, stages, actions, elements, parts or combinations thereof may exist or be aggregated.

A continuación, se describirán detalladamente las realizaciones de la presente invención en el presente documento con referencia a los dibujos adjuntos. De aquí en adelante, los mismos elementos constituyentes en los dibujos se denotan con los mismos números de referencia, y se omitirá una descripción repetida de los mismos elementos.Next, the embodiments of the present invention will be described in detail herein with reference to the accompanying drawings. Hereinafter, the same constituent elements in the drawings are denoted by the same reference numerals, and a repeated description of the same elements will be omitted.

La figura 1 es un diagrama de bloques que ilustra un dispositivo para codificar un vídeo de acuerdo con una realización de la presente invención. Fig. 1 is a block diagram illustrating a device for encoding a video according to one embodiment of the present invention.

Con referencia a la figura 1, el dispositivo 100 para codificar un vídeo puede incluir: un módulo de partición de imágenes 110, módulos de predicción 120 y 125, un módulo de transformación 130, un módulo de cuantificación 135, un módulo de reordenamiento 160, un módulo de codificación de entropía 165, un módulo de cuantificación inversa 140, un módulo de transformación inversa 145, un módulo de filtro 150 y una memoria 155.With reference to figure 1, the device 100 for encoding a video may include: an image partitioning module 110, prediction modules 120 and 125, a transformation module 130, a quantization module 135, a reordering module 160, an entropy encoding module 165, an inverse quantization module 140, an inverse transform module 145, a filter module 150, and a memory 155.

La unidad, como se muestra en la figura 1 se muestran de forma independiente para representar funciones características diferentes entre sí en el dispositivo para codificar un vídeo. Por lo tanto, no significa que cada parte constitucional se constituya en una unidad constitucional de hardware o software separado. En otras palabras, cada parte constitucional incluye cada una de las partes constitucionales enumeradas por conveniencia. Por lo tanto, al menos dos partes constitucionales de cada parte constitucional pueden combinarse para formar una parte constitucional o una parte constitucional puede dividirse en una pluralidad de partes constitucionales para realizar cada función. La realización en la que se combina cada parte constitucional y la realización en la que se divide una parte constitucional también se incluyen en el alcance de la presente invención, si no se apartan de la esencia de la presente invención.The unit as shown in Fig. 1 are shown independently to represent mutually different characteristic functions in the device for encoding a video. Therefore, it does not mean that each constitutional part constitutes a separate hardware or software constitutional unit. In other words, each constitutional part includes each of the constitutional parts listed for convenience. Therefore, at least two constitutional parts of each constitutional part can be combined to form a constitutional part or a constitutional part can be divided into a plurality of constitutional parts to perform each function. The embodiment in which each constitutional part is combined and the embodiment in which one constitutional part is divided are also included in the scope of the present invention, if they do not depart from the gist of the present invention.

Además, algunos de los constituyentes pueden no ser constituyentes indispensables que realizan funciones esenciales de la presente invención, pero pueden ser constituyentes selectivos que mejoran solo el rendimiento de los mismos. La presente invención puede implementarse incluyendo solo las partes constitucionales indispensables para implementar la esencia de la presente invención, excepto los constituyentes utilizados para mejorar el rendimiento. La estructura que incluye solo los constituyentes indispensables, excepto los constituyentes selectivos utilizados para mejorar solo el rendimiento, también se incluye en el alcance de la presente invención.Furthermore, some of the constituents may not be essential constituents that perform essential functions of the present invention, but may be selective constituents that only enhance the performance thereof. The present invention can be implemented including only the constitutional parts indispensable to implement the gist of the present invention, except for the constituents used to improve performance. The structure including only the indispensable constituents, except for the selective constituents used for improving performance only, is also included in the scope of the present invention.

El módulo de partición de imágenes 110 puede dividir una imagen de entrada en una o más unidades de procesamiento. Aquí, la unidad de procesamiento puede ser una unidad de predicción (PU), una unidad de transformación (TU) o una unidad de codificación (CU). El módulo de partición de imágenes 110 puede dividir una imagen en combinaciones de múltiples unidades de codificación, unidades de predicción y unidades de transformación, y puede codificar una imagen seleccionando una combinación de unidades de codificación, unidades de predicción y unidades de transformación con un criterio predeterminado (por ejemplo, función de coste).The image partitioning module 110 can divide an input image into one or more processing units. Here, the processing unit may be a prediction unit (PU), a transformation unit (TU) or a coding unit (CU). The image partitioning module 110 can divide an image into combinations of multiple encoding units, prediction units, and transformation units, and can encode an image by selecting a combination of encoding units, prediction units, and transformation units. prediction and transformation units with a predetermined criterion (for example, cost function).

Por ejemplo, una imagen puede dividirse en varias unidades de codificación. Se puede usar una estructura de árbol recursiva, como una estructura de árbol cuádruple, para dividir una imagen en unidades de codificación. Una unidad de codificación que se divide en otras unidades de codificación con una imagen o una unidad de codificación más grande como raíz puede particionarse con nodos secundarios correspondientes al número de unidades de codificación particionadas. Una unidad de codificación que ya no está particionada por una limitación predeterminada sirve como un nodo de hoja. Es decir, cuando se supone que solo es posible una partición cuadrada para una unidad de codificación, una unidad de codificación se puede dividir como máximo en otras cuatro unidades de codificación.For example, an image can be divided into several encoding units. A recursive tree structure, such as a quad tree structure, can be used to divide an image into encoding units. A coding unit that is partitioned into other coding units with an image or a larger coding unit as root may be partitioned with child nodes corresponding to the number of partitioned coding units. An encoding unit that is no longer partitioned by a default constraint serves as a leaf node. That is, when it is assumed that only one square partition is possible for one encoding unit, one encoding unit can be divided into at most four other encoding units.

De aquí en adelante, en la realización de la presente invención, la unidad de codificación puede significar una unidad que realiza la codificación, o una unidad que realiza la descodificación.Hereinafter, in the embodiment of the present invention, the encoding unit may mean a unit that performs encoding, or a unit that performs decoding.

Una unidad de predicción puede ser una de las particiones divididas en una forma cuadrada o rectangular que tiene el mismo tamaño en una sola unidad de codificación, o una unidad de predicción puede ser una de las particiones particionadas para tener una forma/tamaño diferente en una sola unidad de codificación.A prediction unit can be one of the partitions partitioned into a square or rectangular shape having the same size in a single coding unit, or a prediction unit can be one of the partitions partitioned to have a different shape/size in a single encoding unit. single coding unit.

Cuando se genera una unidad de predicción sujeta a intrapredicción basada en una unidad de codificación y la unidad de codificación no es la unidad de codificación más pequeña, se puede realizar la intrapredicción sin dividir la unidad de codificación en múltiples unidades de predicción NxN.When a prediction unit subject to intra-prediction is generated based on a coding unit and the coding unit is not the smallest coding unit, intra-prediction can be performed without splitting the coding unit into multiple NxN prediction units.

Los módulos de predicción 120 y 125 pueden incluir un módulo de interpredicción 120 que realiza la interpredicción y un módulo de intrapredicción 125 que realiza la intrapredicción. Se puede determinar si realizar la interpredicción o la intrapredicción para la unidad de predicción, y se puede determinar información detallada (por ejemplo, un modo de intrapredicción, un vector de movimiento, una imagen de referencia, etc.) de acuerdo con cada método de predicción. Aquí, la unidad de procesamiento sujeta a predicción puede ser diferente de la unidad de procesamiento para la cual se determina el método de predicción y el contenido detallado. Por ejemplo, el método de predicción, el modo de predicción, etc. pueden determinarse por la unidad de predicción, y la unidad de transformación puede realizar la predicción. Se puede ingresar un valor residual (bloque residual) entre el bloque de predicción generado y un bloque original al módulo de transformación 130. Además, la información del modo de predicción, la información del vector de movimiento, etc. utilizada para la predicción puede codificarse con el valor residual mediante el módulo de codificación de entropía 165 y puede transmitirse a un dispositivo para decodificar un vídeo. Cuando se usa un modo de codificación particular, es posible transmitir a un dispositivo para decodificar vídeo codificando el bloque original tal como es sin generar el bloque de predicción a través de los módulos de predicción 120 y 125.The prediction modules 120 and 125 may include an interprediction module 120 that performs the interprediction and an intraprediction module 125 that performs the intraprediction. Whether to perform interprediction or intraprediction for the prediction unit can be determined, and detailed information (for example, an intraprediction mode, a motion vector, a reference image, etc.) can be determined according to each method of prediction. Here, the processing unit subject to prediction may be different from the processing unit. processing for which the prediction method and detailed content are determined. For example, prediction method, prediction mode, etc. they can be determined by the prediction unit, and the transformation unit can perform the prediction. A residual value (residual block) between the generated prediction block and an original block may be input to the transformation module 130. In addition, prediction mode information, motion vector information, etc. used for prediction can be encoded with the residual value by the entropy encoding module 165 and can be transmitted to a device for decoding a video. When a particular coding mode is used, it is possible to transmit to a device for decoding video encoding the original block as it is without generating the prediction block through the prediction modules 120 and 125.

El módulo de interpredicción 120 puede predecir la unidad de predicción basándose en la información de al menos una de una imagen anterior o una imagen subsiguiente de la imagen actual, o puede predecir la unidad de predicción basándose en la información de algunas regiones codificadas en la imagen actual, en algunos casos. El módulo de interpredicción 120 puede incluir un módulo de interpolación de imágenes de referencia, un módulo de predicción de movimiento y un módulo de compensación de movimiento.The interprediction module 120 may predict the prediction unit based on the information of at least one of a previous image or a subsequent image of the current image, or may predict the prediction unit based on the information of some coded regions in the image. current, in some cases. The interprediction module 120 may include a reference image interpolation module, a motion prediction module, and a motion compensation module.

El módulo de interpolación de imágenes de referencia puede recibir información de imágenes de referencia de la memoria 155 y puede generar información de píxeles de un píxel entero o menos que el píxel entero de la imagen de referencia. En el caso de píxeles de luminancia, se puede usar un filtro de interpolación de 8 derivaciones basado en DCTcon diferentes coeficientes de filtro para generar información de píxeles de un píxel entero o menos de un píxel entero en unidades de 1/4 de píxel. En el caso de señales de crominancia, se puede usar un filtro de interpolación de 4 derivaciones basado en DCT que tiene un coeficiente de filtro diferente para generar información de píxeles de un píxel entero o menos de un píxel entero en unidades de 1/8 de píxel.The reference image interpolation module may receive reference image information from the memory 155 and may generate pixel information of one integer pixel or less than the integer pixel of the reference image. In the case of luminance pixels, a DCT-based 8-lead interpolation filter with different filter coefficients can be used to generate pixel information of one whole pixel or less than one whole pixel in 1/4 pixel units. In the case of chrominance signals, a DCT-based 4-tap interpolation filter having a different filter coefficient can be used to generate pixel information of one whole pixel or less than one whole pixel in 1/8 units. pixel.

El módulo de predicción de movimiento puede realizar la predicción de movimiento basándose en la imagen de referencia interpolada por el módulo de interpolación de imagen de referencia. Como métodos para calcular un vector de movimiento, se pueden utilizar varios métodos, como un algoritmo de coincidencia de bloques basado en búsqueda completa (FBMA), una búsqueda en tres etapas (TSS), un nuevo algoritmo de búsqueda en tres etapas (NTS), etc. El vector de movimiento puede tener un valor de vector de movimiento en unidades de 1/2 píxel o 1/4 de píxel basado en un píxel interpolado. El módulo de predicción de movimiento puede predecir una unidad de predicción actual cambiando el método de predicción de movimiento. Como métodos de predicción de movimiento, se pueden usar varios métodos, como el método de omisión, el método de combinación, el método AMVP (predicción avanzada de vectores de movimiento), el método de copia intrabloque, etc.The motion prediction module can perform motion prediction based on the reference image interpolated by the reference image interpolation module. As methods for calculating a motion vector, various methods can be used, such as a full search-based block matching algorithm (FBMA), a three-stage search (TSS), a new three-stage search algorithm (NTS), etc. The motion vector can have a motion vector value in units of 1/2 pixel or 1/4 pixel based on an interpolated pixel. The motion prediction module can predict a current prediction unit by changing the motion prediction method. As motion prediction methods, various methods can be used, such as the skip method, the combination method, the AMVP (Advanced Motion Vector Prediction) method, the intra-block copy method, etc.

El módulo de intrapredicción 125 puede generar una unidad de predicción basada en información de píxeles de referencia adyacente a un bloque actual que es información de píxeles en la imagen actual. Cuando el bloque vecino de la unidad de predicción actual es un bloque sometido a interpredicción y, por lo tanto, un píxel de referencia es un píxel sometido a interpredicción, el píxel de referencia incluido en el bloque sometido a interpredicción puede ser reemplazado por información de píxeles de referencia de un bloque vecino sujeto a intrapredicción. Es decir, cuando un píxel de referencia no está disponible, se puede usar al menos un píxel de referencia de píxeles de referencia disponibles en lugar de información de píxeles de referencia no disponible.The intra-prediction module 125 can generate a prediction unit based on reference pixel information adjacent to a current block that is pixel information in the current image. When the neighbor block of the current prediction unit is an interprediction block and therefore a reference pixel is an interprediction pixel, the reference pixel included in the interprediction block may be replaced by information reference pixels of a neighboring block subject to intraprediction. That is, when a reference pixel is not available, at least one reference pixel of available reference pixels may be used instead of unavailable reference pixel information.

Los modos de predicción en la intrapredicción pueden incluir un modo de predicción direccional que utiliza información de píxeles de referencia que depende de la dirección de la predicción y un modo de predicción no direccional que no utiliza información direccional para realizar la predicción. Un modo para predecir la información de luminancia puede ser diferente de un modo para predecir la información de crominancia, y para predecir la información de crominancia, se puede utilizar la información de modo de intrapredicción utilizada para predecir la información de luminancia o información de señal de luminancia predicha.The prediction modes in the intra-prediction may include a directional prediction mode that uses reference pixel information that depends on the direction of the prediction and a non-directional prediction mode that does not use directional information to perform the prediction. A mode for predicting luminance information may be different from a mode for predicting chrominance information, and for predicting chrominance information, intra-prediction mode information used for predicting luminance information or signal information may be used. predicted luminance.

Al realizar la intrapredicción, cuando el tamaño de la unidad de predicción es el mismo que el tamaño de la unidad de transformación, la intrapredicción se puede realizar en la unidad de predicción en función de los píxeles situados a la izquierda, arriba a la izquierda y arriba de la unidad de predicción. Sin embargo, al realizar la intrapredicción, cuando el tamaño de la unidad de predicción es diferente del tamaño de la unidad de transformación, la intrapredicción puede realizarse utilizando un píxel de referencia basado en la unidad de transformación. Además, la intrapredicción utilizando partición NxN puede usarse solo para la unidad de codificación más pequeña.When performing intra-prediction, when the prediction unit size is the same as the transformation unit size, intra-prediction can be performed on the prediction unit based on the pixels to the left, top left, and pixels. above the prediction unit. However, when performing intra-prediction, when the size of the prediction unit is different from the size of the transformation unit, the intra-prediction can be performed using a reference pixel based on the transformation unit. In addition, intraprediction using NxN partitioning can be used only for the unit of smaller encoding.

En el método de intrapredicción, se puede generar un bloque de predicción después de aplicar un filtro AIS (filtrado intra adaptativo) a un píxel de referencia en función de los modos de predicción. El tipo de filtro AIS aplicado al píxel de referencia puede variar. Para realizar el método de intrapredicción, se puede predecir un modo de intrapredicción de la unidad de predicción actual a partir del modo de intrapredicción de la unidad de predicción adyacente a la unidad de predicción actual. En la predicción del modo de predicción de la unidad de predicción actual mediante el uso de información de modo predicha desde la unidad de predicción vecina, cuando el modo de intrapredicción de la unidad de predicción actual es el mismo que el modo de intrapredicción de la unidad de predicción vecina, la información indica que los modos de predicción de la unidad de predicción actual y la unidad de predicción vecina son iguales entre sí pueden transmitirse usando información de etiquetado predeterminada. Cuando el modo de predicción de la unidad de predicción actual es diferente del modo de predicción de la unidad de predicción vecina, se puede realizar la codificación de entropía para codificar la información del modo de predicción del bloque actual.In the intra-prediction method, a prediction block can be generated after applying an AIS (intra-adaptive filtering) filter to a reference pixel based on the prediction modes. The type of AIS filter applied to the reference pixel may vary. To perform the intra-prediction method, an intra-prediction mode of the current prediction unit can be predicted from the intra-prediction mode of the prediction unit adjacent to the current prediction unit. In prediction of the prediction mode of the current prediction unit by using predicted mode information from the neighboring prediction unit, when the intra-prediction mode of the current prediction unit is the same as the intra-prediction mode of the neighboring unit For the neighbor prediction unit, the information indicating that the prediction modes of the current prediction unit and the neighbor prediction unit are equal to each other may be transmitted using predetermined tagging information. When the prediction mode of the current prediction unit is different from the prediction mode of the neighboring prediction unit, entropy coding may be performed to encode the prediction mode information of the current block.

Además, un bloque residual que incluye información sobre un valor residual que es diferente entre la unidad de predicción sometida a predicción y el bloque original de la unidad de predicción puede generarse basándose en las unidades de predicción generadas por los módulos de predicción 120 y 125. El bloque residual generado puede introducirse en el módulo de transformación 130.In addition, a residual block including information on a residual value that is different between the prediction unit under prediction and the original block of the prediction unit can be generated based on the prediction units generated by the prediction modules 120 and 125. The generated residual block can be input into the transformation module 130.

El módulo de transformación 130 puede transformar el bloque residual que incluye la información sobre el valor residual entre el bloque original y la unidad de predicción generada por los módulos de predicción 120 y 125 mediante el uso de un método de transformación, como la transformada discreta de coseno (DCT), la transformada de seno discreta (DST), y KLT. La aplicación de DCT, DST o KLT para transformar el bloque residual puede determinarse en función de la información del modo de intrapredicción de la unidad de predicción utilizada para generar el bloque residual.The transformation module 130 can transform the residual block including the residual value information between the original block and the prediction unit generated by the prediction modules 120 and 125 by using a transformation method, such as the discrete transform of cosine (DCT), the discrete sine transform (DST), and KLT. The application of DCT, DST or KLT to transform the residual block can be determined based on the intra-prediction mode information of the prediction unit used to generate the residual block.

El módulo de cuantización 135 puede cuantizar los valores transformados en un dominio de frecuencia por el módulo de transformación 130. Los coeficientes de cuantificación pueden variar según el bloque o la importancia de una imagen. Los valores calculados por el módulo de cuantificación 135 pueden proporcionarse al módulo de cuantificación inversa 140 y al módulo de reordenamiento 160.The quantization module 135 can quantize the values transformed in a frequency domain by the transformation module 130. The quantization coefficients can vary according to the block or the importance of an image. The Values calculated by the quantization module 135 can be provided to the inverse quantization module 140 and the reordering module 160.

El módulo de reordenamiento 160 puede reorganizar los coeficientes de los valores residuales cuantificados.The reordering module 160 may reorder the coefficients of the quantized residuals.

El módulo de reordenamiento 160 puede cambiar un coeficiente en forma de un bloque bidimensional en un coeficiente en forma de un vector unidimensional a través de un método de exploración de coeficientes. Por ejemplo, el módulo de reordenamiento 160 puede escanear desde un coeficiente CC a un coeficiente en un dominio de alta frecuencia usando un método de escaneo en zigzag para cambiar los coeficientes para que estén en la forma de vectores unidimensionales. Dependiendo del tamaño de la unidad de transformación y del modo de intrapredicción, el escaneo en dirección vertical donde los coeficientes en forma de bloques bidimensionales se escanean en la dirección de columna o el escaneo en dirección horizontal donde los coeficientes en forma de bloques bidimensionales se escanean en la dirección de la fila puede usarse en lugar del escaneo en zigzag. Es decir, el método de exploración entre zigzag, exploración en dirección vertical y exploración en dirección horizontal se puede determinar según el tamaño de la unidad de transformación y el modo de intrapredicción.The reordering module 160 can change a coefficient in the form of a two-dimensional block into a coefficient in the form of a one-dimensional vector through a coefficient scan method. For example, the reordering module 160 can scan from a CC coefficient to a coefficient in a high frequency domain using a zigzag scanning method to change the coefficients to be in the form of one-dimensional vectors. Depending on the size of the transformation unit and the intra-prediction mode, scanning in the vertical direction where the coefficients in the form of two-dimensional blocks are scanned in the column direction or scanning in the horizontal direction where the coefficients in the form of two-dimensional blocks are scanned in the direction of the row can be used instead of zigzag scanning. That is, the scanning method among zigzag, vertical-direction scanning, and horizontal-direction scanning can be determined according to the size of the transformation unit and the intra-prediction mode.

El módulo de codificación de entropía 165 puede realizar la codificación de entropía basándose en los valores calculados por el módulo de reordenamiento 160. La codificación de entropía puede utilizar varios métodos de codificación, por ejemplo, la codificación exponencial de Golomb, la codificación de longitud variable adaptada al contexto (CAVLC) y la codificación aritmética binaria adaptada al contexto (CABAC).The entropy coding module 165 can perform entropy coding based on the values calculated by the reordering module 160. The entropy coding can use various coding methods, for example, Golomb exponential coding, variable length coding Context Adaptive Arithmetic Coding (CABAC) and Context Adaptive Arithmetic Coding (CABAC).

El módulo de codificación de entropía 165 puede codificar una variedad de información, tal como información de coeficiente de valor residual e información de tipo de bloque de la unidad de codificación, información de modo de predicción, información de unidad de partición, información de unidad de predicción, información de unidad de transformación, información de vector de movimiento, información de cuadro de referencia, información de interpolación de bloque, información de filtrado, etc. del módulo de reordenamiento 160 y los módulos de predicción 120 y 125. The entropy encoding module 165 can encode a variety of information, such as residual value coefficient information and encoding unit block type information, prediction mode information, partition unit information, data unit information, etc. prediction, transformation unit information, motion vector information, reference frame information, block interpolation information, filtering information, etc. of the reordering module 160 and the prediction modules 120 and 125.

El módulo de codificación de entropía 165 puede codificar mediante entropía los coeficientes de la entrada de la unidad de codificación del módulo de reordenamiento 160.The entropy encoding module 165 can entropy encode the coefficients of the input of the encoding unit of the reordering module 160.

El módulo de cuantización inversa 140 puede cuantizar inversamente los valores cuantificados por el módulo de cuantificación 135 y el módulo de transformación inversa 145 puede transformar inversamente los valores transformados por el módulo de transformación 130. El valor residual generado por el módulo de cuantización inversa 140 y el módulo de transformación inversa 145 puede combinarse con la unidad de predicción predicha por un módulo de estimación de movimiento, un módulo de compensación de movimiento y el módulo de intrapredicción de los módulos de predicción 120 y 125, de manera que se puede generar un bloque reconstruido.The inverse quantization module 140 can inversely quantize the values quantized by the quantization module 135, and the inverse transformation module 145 can inversely transform the values transformed by the transformation module 130. The residual value generated by the inverse quantization module 140 and the inverse transform module 145 can be combined with the prediction unit predicted by a motion estimation module, a motion compensation module and the intra-prediction module of the prediction modules 120 and 125, so that a block can be generated. rebuilt.

El módulo de filtro 150 puede incluir al menos uno de entre un filtro de desbloqueo, una unidad de corrección de desplazamiento y un filtro de bucle adaptativo (ALF).Filter module 150 may include at least one of an unblocking filter, an offset correction unit, and an adaptive loop filter (ALF).

El filtro de desbloqueo puede eliminar la distorsión del bloque que se produce debido a los límites entre los bloques en la imagen reconstruida. Para determinar si se debe realizar el desbloqueo, los píxeles incluidos en varias filas o columnas en el bloque pueden ser una base para determinar si aplicar el filtro de desbloqueo al bloque actual. Cuando el filtro de desbloqueo se aplica al bloque, se puede aplicar un filtro fuerte o un filtro débil dependiendo de la fuerza de filtrado de desbloqueo requerida. Además, al aplicar el filtro de desbloqueo, el filtrado en dirección horizontal y el filtrado en dirección vertical pueden procesarse en paralelo.The deblocking filter can remove block distortion that occurs due to boundaries between blocks in the reconstructed image. In determining whether to unlock, the pixels included in multiple rows or columns in the block can be a basis for determining whether to apply the unlock filter to the current block. When the unlock filter is applied to the block, either a strong filter or a weak filter can be applied depending on the strength of unlock filtering required. Furthermore, by applying the unblocking filter, filtering in the horizontal direction and filtering in the vertical direction can be processed in parallel.

El módulo de corrección de desplazamiento puede corregir el desplazamiento con la imagen original en unidades de un píxel en la imagen sujeta a desbloqueo. Para realizar la corrección de desplazamiento en una imagen en particular, es posible usar un método para aplicar el desplazamiento en consideración a la información de borde de cada píxel o un método de partición de píxeles de una imagen en el número predeterminado de regiones, determinando una región para estar sujeta a realizar un desplazamiento, y aplicar el desplazamiento a la región determinada.The skew correction module can correct skew with the original image in units of one pixel in the image subject to unlocking. To perform displacement correction on a particular image, it is possible to use a method of applying displacement in consideration of the edge information of each pixel or a method of partitioning pixels of an image into the predetermined number of regions, determining a region to be subject to offset, and apply the offset to the given region.

El filtrado de bucle adaptativo (ALF) se puede realizar según el valor obtenido al comparar la imagen reconstruida filtrada y la imagen original. Los píxeles incluidos en la imagen se pueden dividir en grupos predeterminados, se puede determinar un filtro que se aplicará a cada uno de los grupos y se puede realizar un filtrado individual para cada grupo. La información sobre si aplicar ALF y una señal de luz puede ser transmitida por unidades de codificación (CU). La forma y el coeficiente de filtro de un filtro para ALF pueden variar dependiendo de cada bloque. Además, el filtro para ALF en la misma forma (forma fija) puede aplicarse independientemente de las características del bloque objetivo de la aplicación.Adaptive Loop Filtering (ALF) can be performed based on the value obtained by comparing the filtered reconstructed image and the original image. The pixels included in the image can be divided into predetermined groups, a filter that will be applied to each of the groups and you can perform an individual filter for each group. Information about whether to apply ALF and a light signal can be transmitted by coding units (CU). The shape and filter coefficient of a filter for ALF can vary depending on each block. Furthermore, the filter for ALF in the same form (fixed form) can be applied regardless of the characteristics of the application's target block.

La memoria 155 puede almacenar el bloque reconstruido o la imagen calculada a través del módulo de filtro 150. El bloque o imagen reconstruidos almacenados pueden proporcionarse a los módulos de predicción 120 y 125 para realizar la interpredicción.The memory 155 may store the reconstructed block or the image computed through the filter module 150. The stored reconstructed block or image may be provided to the prediction modules 120 and 125 to perform interprediction.

La figura 2 es un diagrama de bloques de un dispositivo para decodificar un vídeo de acuerdo con una realización de la presente invención.Fig. 2 is a block diagram of a device for decoding a video according to an embodiment of the present invention.

Con referencia a la figura 2, el dispositivo 200 para decodificar un vídeo puede incluir: un módulo de decodificación de entropía 210, un módulo de reorganización 215, un módulo de cuantificación inversa 220, un módulo de transformación inversa 225, módulos de predicción 230 y 235, un módulo de filtro 240 y una memoria 245.Referring to Fig. 2, the device 200 for decoding a video may include: an entropy decoding module 210, a reorganization module 215, an inverse quantization module 220, an inverse transformation module 225, prediction modules 230, and 235, a 240 filter module and a 245 memory.

Cuando se ingresa un flujo de bits de vídeo desde el dispositivo para codificar un vídeo, el flujo de bits de entrada se puede decodificar de acuerdo con un proceso inverso del dispositivo para codificar un vídeo.When a video bitstream is input from the device for encoding a video, the input bitstream may be decoded according to a reverse process of the device for encoding a video.

El módulo de decodificación de entropía 210 puede realizar la decodificación de entropía de acuerdo con un proceso inverso de codificación de entropía por el módulo de codificación de entropía del dispositivo para codificar un vídeo. Por ejemplo, según los métodos realizados por el dispositivo para codificar un vídeo, se pueden aplicar varios métodos, como la codificación exponencial de Golomb, la codificación de longitud variable adaptada al contexto (CAVLC) y la codificación aritmética binaria adaptada al contexto (CABAC).The entropy decoding module 210 can perform entropy decoding according to a reverse entropy encoding process by the entropy encoding module of the device for encoding a video. For example, depending on the methods performed by the device to encode a video, various methods can be applied, such as Golomb exponential coding, context-adapted variable-length coding (CAVLC), and context-adapted binary arithmetic coding (CABAC). .

El módulo de decodificación de entropía 210 puede decodificar información sobre la intrapredicción e interpredicción realizada por el dispositivo para codificar un vídeo.The entropy decoding module 210 can decode information about intra-prediction and inter-prediction performed by the device to encode a video.

El módulo de reordenamiento 215 puede realizar un reordenamiento en la entropía del flujo de bits descodificado por el módulo de descodificación de entropía 210 en base al método de reordenamiento utilizado en el dispositivo para codificar un vídeo. El módulo de reorganización puede reconstruir y reorganizar los coeficientes en forma de vectores unidimensionales al coeficiente en forma de bloques bidimensionales. El módulo de reordenamiento 215 puede recibir información relacionada con el escaneo de coeficientes realizado en el dispositivo para codificar un vídeo y puede realizar un reordenamiento a través de un método de escaneo inverso de los coeficientes en función del orden de escaneo realizado en el dispositivo para codificar un vídeo.The reordering module 215 can perform entropy reordering of the bit stream decoded by the entropy decoding module 210 in based on the reordering method used on the device to encode a video. The shuffling module can reconstruct and shuffle the coefficients in the form of one-dimensional vectors to the coefficient in the form of two-dimensional blocks. The reordering module 215 can receive information related to the coefficient scan performed on the device for encoding a video and can perform reordering through a method of inverse scan of the coefficients based on the order of scanning performed on the device for encoding. a video.

El módulo de cuantización inversa 220 puede realizar una cuantificación inversa basada en un parámetro de cuantificación recibido del dispositivo para codificar un vídeo y los coeficientes reorganizados del bloque.The inverse quantization module 220 can perform inverse quantization based on a quantization parameter received from the device for encoding a video and the reshuffled coefficients of the block.

El módulo de transformación inversa 225 puede realizar la transformación inversa, es decir, DCT inversa, DST inversa y KLT inversa, que es el proceso inverso de la transformación, es decir, DCT, DST y KLT, realizada por el módulo de transformación en el resultado de cuantificación por el dispositivo para codificar un vídeo. La transformación inversa se puede realizar en función de una unidad de transferencia determinada por el dispositivo para codificar un vídeo. El módulo de transformación inversa 225 del dispositivo para decodificar un vídeo puede realizar esquemas de transformación selectivamente (por ejemplo, DCT, DST y KLT) dependiendo de múltiples datos, como el método de predicción, el tamaño del bloque actual, la dirección de predicción, etc.The inverse transformation module 225 can perform the inverse transformation, that is, inverse DCT, inverse DST, and inverse KLT, which is the reverse process of the transformation, that is, DCT, DST, and KLT, performed by the transformation module in the quantization result by the device to encode a video. The reverse transformation can be performed based on a transfer unit determined by the device to encode a video. The inverse transformation module 225 of the device for decoding a video can perform transformation schemes selectively (for example, DCT, DST, and KLT) depending on multiple data such as prediction method, current block size, prediction address, etc

Los módulos de predicción 230 y 235 pueden generar un bloque de predicción basado en información sobre la generación de bloque de predicción recibida desde el módulo de descodificación de entropía 210 y la información de imagen o bloque previamente decodificado recibida desde la memoria 245.The prediction modules 230 and 235 may generate a prediction block based on information about the prediction block generation received from the entropy decoding module 210 and the previously decoded image or block information received from the memory 245.

Como se describió anteriormente, al igual que la operación del dispositivo para codificar un vídeo, al realizar la intrapredicción, cuando el tamaño de la unidad de predicción es el mismo que el tamaño de la unidad de transformación, la intrapredicción se puede realizar en la unidad de predicción en función de píxeles posicionados a la izquierda, arriba a la izquierda y arriba de la unidad de predicción. Al realizar la intrapredicción, cuando el tamaño de la unidad de predicción es diferente del tamaño de la unidad de transformación, la intrapredicción se puede realizar utilizando un píxel de referencia basado en la unidad de transformación. As described above, just like the operation of the device for encoding a video, when performing intra-prediction, when the size of the prediction unit is the same as the size of the transformation unit, intra-prediction can be performed in unit prediction based on pixels positioned to the left, top left, and top of the prediction unit. When performing intra-prediction, when the size of the prediction unit is different from the size of the transformation unit, intra-prediction can be performed using a reference pixel based on the transformation unit.

Además, la intrapredicción utilizando partición NxN puede usarse solo para la unidad de codificación más pequeña.Furthermore, intraprediction using NxN partitioning can be used only for the smallest coding unit.

Los módulos de predicción 230 y 235 pueden incluir un módulo de determinación de unidad de predicción, un módulo de interpredicción y un módulo de intrapredicción. El módulo de determinación de la unidad de predicción puede recibir una variedad de información, como la información de la unidad de predicción, la información del modo de predicción de un método de intrapredicción, la información sobre la predicción de movimiento de un método de interpredicción, etc. del módulo de descodificación de entropía 210, puede dividir una corriente codificar la unidad en unidades de predicción, y puede determinar si la interpredicción o intrapredicción se realiza en la unidad de predicción. Al utilizar la información requerida en la interpredicción de la unidad de predicción actual recibida del dispositivo para codificar un vídeo, el módulo 230 de interpredicción puede realizar la interpredicción en la unidad de predicción actual basándose en la información de al menos una de una imagen anterior o una imagen posterior de la imagen actual incluyendo la unidad de predicción actual. Alternativamente, la interpredicción se puede realizar en base a la información de algunas regiones reconstruidas previamente en la imagen actual, incluida la unidad de predicción actual.The prediction modules 230 and 235 may include a prediction unit determination module, an interprediction module, and an intraprediction module. The prediction unit determination module can receive a variety of information, such as prediction unit information, prediction mode information of an intra-forecast method, motion prediction information of an inter-forecast method, etc of the entropy decoding module 210, it can divide a stream encode unit into prediction units, and can determine whether inter- or intra-prediction is performed in the prediction unit. By using the information required in the interprediction of the current prediction unit received from the device to encode a video, the interprediction module 230 can perform the interprediction on the current prediction unit based on the information of at least one of a previous image or a subsequent image of the current image including the current prediction unit. Alternatively, the interprediction can be performed based on the information of some previously reconstructed regions in the current image, including the current prediction unit.

Para realizar la interpredicción, se puede determinar para la unidad de codificación cuál de un modo de salto, un modo de combinación, un modo AMVP y un modo de copia entre bloques se utiliza como método de predicción de movimiento de la unidad de predicción incluida en la unidad de codificación.To perform interprediction, it can be determined for the coding unit which of a hopping mode, a combining mode, an AMVP mode, and an interblock copy mode is used as the motion prediction method of the prediction unit included in the encoding unit.

El módulo de intrapredicción 235 puede generar un bloque de predicción basado en la información de píxeles en la imagen actual. Cuando la unidad de predicción es una unidad de predicción sujeta a intrapredicción, la intrapredicción se puede realizar basándose en la información del modo de intrapredicción de la unidad de predicción recibida del dispositivo para codificar un vídeo. El módulo de intrapredicción 235 puede incluir un filtro de filtrado intra adaptativo (AIS), un módulo de interpolación de píxeles de referencia y un filtro de CC. El filtro AIS realiza el filtrado en el píxel de referencia del bloque actual, y la aplicación del filtro se puede determinar según el modo de predicción de la unidad de predicción actual. El filtrado AIS se puede realizar en el píxel de referencia del bloque actual utilizando el modo de predicción de la unidad de predicción y la información del filtro AIS recibida del dispositivo para codificar un vídeo. Cuando el modo de predicción del bloque actual es un modo donde no se realiza el filtrado AIS, es posible que no se aplique el filtro AIS.The intra-prediction module 235 may generate a prediction block based on the pixel information in the current image. When the prediction unit is a prediction unit subject to intra-prediction, the intra-prediction can be performed based on the information of the intra-prediction mode of the prediction unit received from the device for encoding a video. The intra-prediction module 235 may include an intra-adaptive filtering (AIS) filter, a reference pixel interpolation module, and a CC filter. The AIS filter performs filtering on the reference pixel of the current block, and the application of the filter can be determined according to the prediction mode of the current prediction unit. AIS filtering can be performed on the reference pixel of the current block using the prediction mode of the prediction unit and the AIS filter information received from the device to encode a video. When the prediction mode of the current block is a mode where AIS filtering is not performed, the AIS filter may not be applied.

Cuando el modo de predicción de la unidad de predicción es un modo de predicción donde la intrapredicción se realiza en función del valor de píxel obtenido al interpolar el píxel de referencia, el módulo de interpolación de píxel de referencia puede interpolar el píxel de referencia para generar el píxel de referencia de un píxel entero o menos que un píxel entero. Cuando el modo de predicción de la unidad de predicción actual es un modo de predicción donde se genera un bloque de predicción sin interpolación del píxel de referencia, el píxel de referencia no se puede interpolar. El filtro de CC puede generar un bloque de predicción a través del filtrado cuando el modo de predicción del bloque actual es un modo de CC.When the prediction mode of the prediction unit is a prediction mode where intra-prediction is performed based on the pixel value obtained by interpolating the reference pixel, the reference pixel interpolation module can interpolate the reference pixel to generate the reference pixel of an integer pixel or less than an integer pixel. When the prediction mode of the current prediction unit is a prediction mode where a prediction block is generated without interpolation of the reference pixel, the reference pixel cannot be interpolated. The CC filter can generate a prediction block through filtering when the prediction mode of the current block is a CC mode.

El bloque o la imagen reconstruidos pueden proporcionarse al módulo de filtro 240. El módulo de filtro 240 puede incluir el filtro de desbloqueo, el módulo de corrección de desplazamiento y el ALF.The reconstructed block or image may be provided to the filter module 240. The filter module 240 may include the deblocking filter, the offset correction module, and the ALF.

La información sobre si el filtro de desbloqueo se aplica o no al bloque o imagen correspondiente y la información sobre cuál de los filtros fuertes y débiles se aplica cuando se aplica el filtro de desbloqueo puede recibirse del dispositivo para codificar un vídeo. El filtro de desbloqueo del dispositivo para decodificar un vídeo puede recibir información sobre el filtro de desbloqueo del dispositivo para codificar un vídeo, y puede realizar un filtrado de desbloqueo en el bloque correspondiente.Information about whether or not the unblocking filter is applied to the corresponding block or image and information about which of the strong and weak filters is applied when the unblocking filter is applied can be received from the device for encoding a video. The unblocking filter of the device for decoding a video can receive information about the unblocking filter of the device for encoding a video, and can perform unblocking filtering in the corresponding block.

El módulo de corrección de desplazamiento puede realizar la corrección de desplazamiento en la imagen reconstruida en función del tipo de corrección de desplazamiento y la información del valor de desplazamiento aplicada a una imagen al realizar la codificación.The offset correction module can perform offset correction on the reconstructed image based on the type of offset correction and offset value information applied to an image when encoding.

El ALF se puede aplicar a la unidad de codificación en función de la información sobre si se debe aplicar el ALF, la información del coeficiente de ALF, etc., recibida del dispositivo para codificar un vídeo. La información ALF puede proporcionarse como incluida en un conjunto de parámetros particular.The ALF may be applied to the encoding unit based on information whether to apply ALF, ALF coefficient information, etc., received from the device for encoding a video. The ALF information may be provided as being included in a particular parameter set.

La memoria 245 puede almacenar la imagen o bloque reconstruido para usar como imagen o bloque de referencia, y puede proporcionar la imagen reconstruida a un módulo de salida. Memory 245 may store the reconstructed image or block for use as a reference image or block, and may provide the reconstructed image to an output module.

Como se describió anteriormente, en la realización de la presente invención, por conveniencia de explicación, la unidad de codificación se usa como un término que representa una unidad para la codificación, pero la unidad de codificación puede servir como una unidad que realiza la decodificación, así como la codificación.As described above, in the embodiment of the present invention, for convenience of explanation, the encoding unit is used as a term representing a unit for encoding, but the encoding unit may serve as a unit that performs decoding, as well as coding.

Además, un bloque actual puede representar un bloque objetivo para ser codificado/decodificado. Y, el bloque actual puede representar un bloque de árbol de codificación (o una unidad de árbol de codificación), un bloque de codificación (o una unidad de codificación), un bloque de transformación (o una unidad de transformación), un bloque de predicción (o una unidad de predicción), o similares, dependiendo de un paso de codificación/decodificación.Furthermore, a current block may represent a target block to be encoded/decoded. And, the current block may represent a coding tree block (or a coding tree unit), a coding block (or a coding unit), a transform block (or a transform unit), a prediction (or a prediction unit), or the like, depending on an encoding/decoding step.

Una imagen puede codificarse/decodificarse dividiéndose en bloques de base que tienen una forma cuadrada o una forma no cuadrada. En este momento, se puede hacer referencia al bloque de base como una unidad de árbol de codificación. La información sobre si la unidad del árbol de codificación tiene una forma cuadrada o si tiene forma no cuadrada o la información sobre el tamaño de la unidad del árbol de codificación se puede señalar a través de un conjunto de parámetros de secuencia, un conjunto de parámetros de imagen o un encabezado de división. La unidad del árbol de codificación se puede dividir en un árbol cuádruple o una estructura de árbol binario para que se pueda generar una unidad de codificación.An image can be encoded/decoded by being divided into base blocks having a square shape or a non-square shape. At this time, the base block can be referred to as a coding tree unit. The information about whether the coding tree unit has a square or non-square shape or the information about the size of the coding tree unit can be signaled through a set of sequence parameters, a set of parameters image or a split header. The coding tree unit can be divided into a quadtree or a binary tree structure so that a coding unit can be generated.

La figura 3 es un dibujo que ilustra un ejemplo de partición jerárquica de un bloque de codificación basado en una estructura de árbol de acuerdo con una realización de la presente invención.Fig. 3 is a drawing illustrating an example of hierarchical partitioning of a coding block based on a tree structure according to an embodiment of the present invention.

Una señal de vídeo de entrada se decodifica en unidades de bloque predeterminadas. Dicha unidad predeterminada para decodificar la señal de entrada de vídeo es un bloque de codificación. El bloque de codificación puede ser una unidad que realiza intra/interpredicción, transformación y cuantificación. Además, se determina un modo de predicción (por ejemplo, modo de intrapredicción o modo de interpredicción) en unidades de un bloque de codificación, y los bloques de predicción incluidos en el bloque de codificación pueden compartir el modo de predicción determinado. El bloque de codificación puede ser un bloque cuadrado o no cuadrado que tenga un tamaño arbitrario en un rango de 8x8 a 64x64, o puede ser un bloque cuadrado o no cuadrado que tenga un tamaño de 128x128, 256x256 o más.An input video signal is decoded in predetermined block units. Said predetermined unit for decoding the video input signal is a coding block. The coding block may be a unit that performs intra/interprediction, transformation, and quantization. In addition, a prediction mode (eg, intra-prediction mode or inter-prediction mode) is determined in units of a coding block, and the prediction blocks included in the coding block may share the determined prediction mode. The encoding block may be a square or non-square block having an arbitrary size in the range of 8x8 to 64x64, or it may be a square or non-square block having a size of 128x128, 256x256 or more.

Específicamente, el bloque de codificación se puede dividir jerárquicamente en función de al menos uno de un árbol cuádruple y un árbol binario. Aquí, la partición basada en árbol cuádruple puede significar que un bloque de codificación 2Nx2N se divide en cuatro bloques de codificación NxN, y la partición basada en un árbol binario puede significar que un bloque de codificación se divide en dos bloques de codificación. La partición basada en árboles binarios se puede realizar de manera simétrica o asimétrica. El bloque de codificación dividido en función del árbol binario puede ser un bloque cuadrado o un bloque no cuadrado, como una forma rectangular. La partición basada en árbol binario se puede realizar en un bloque de codificación donde ya no se realiza la partición basada en árbol cuádruple. La partición basada en árbol cuádruple ya no se puede realizar en el bloque de codificación particionado en base al árbol binario.Specifically, the coding block can be hierarchically divided based on at least one of a quad tree and a binary tree. Here, quad-tree based partitioning may mean that one 2Nx2N coding block is divided into four NxN coding blocks, and binary tree-based partitioning may mean that one coding block is divided into two coding blocks. Binary tree-based partitioning can be performed symmetrically or asymmetrically. The coding block divided according to the binary tree may be a square block or a non-square block, such as a rectangular shape. Binary tree based partitioning can be performed in a coding block where quad tree based partitioning is no longer performed. Quad tree based partitioning can no longer be performed on binary tree based partitioned encoding block.

Para implementar la partición adaptativa basada en el árbol cuádruple o en el árbol binario, la información que indica la partición basada en el árbol cuádruple, la información sobre el tamaño/profundidad del bloque de codificación que permite la partición basada en el árbol cuádruple, la información que indica la partición basada en el árbol binario, información sobre el tamaño/profundidad del bloque de codificación en que se permite la partición basada en árbol binario, información sobre el tamaño/profundidad del bloque de codificación en la que no se permite la partición basada en árbol binario, se puede utilizar información sobre si la partición basada en árbol binario se realiza en una dirección vertical o una dirección horizontal, etc.To implement adaptive partitioning based on either the four-tree or binary-tree, the information indicating the four-tree based partitioning, the information about the size/depth of the coding block that enables the four-tree based partitioning, the information indicating partitioning based on binary tree, information about the size/depth of the coding block in which partitioning based on binary tree is allowed, information about the size/depth of the coding block in which partitioning is not allowed binary tree based, information about whether the binary tree based partitioning is performed in a vertical direction or a horizontal direction, etc. can be used.

Como se muestra en la figura 3, el primer bloque de codificación 300 con la profundidad de partición (profundidad de división) de k puede dividirse en múltiples segundos bloques de codificación basados en el árbol cuádruple. Por ejemplo, los segundos bloques de codificación 310 a 340 pueden ser bloques cuadrados que tienen la mitad del ancho y la mitad de la altura del primer bloque de codificación, y la profundidad de partición del segundo bloque de codificación se puede aumentar a k 1.As shown in Fig. 3, the first coding block 300 with the partition depth (division depth) of k may be divided into multiple second coding blocks based on the fourfold tree. For example, the second coding blocks 310 to 340 can be square blocks that are half the width and half the height of the first coding block, and the partition depth of the second coding block can be increased to k 1 .

El segundo bloque de codificación 310 con la profundidad de partición de k 1 puede dividirse en múltiples terceros bloques de codificación con la profundidad de partición de k 2. La partición del segundo bloque de codificación 310 se puede realizar utilizando selectivamente uno del árbol cuádruple y el árbol binario dependiendo de un método de partición. Aquí, el método de partición se puede determinar en función de al menos una de las informaciones que indican la partición basada en árbol cuádruple y la información que indica la partición basada en árboles binarios.The second encoding block 310 with the partition depth of k 1 may be partitioned into multiple third encoding blocks with the partition depth of k 2. The partition of the second encoding block 310 may be perform using selectively one of the quad tree and the binary tree depending on a partition method. Here, the partitioning method can be determined based on at least one of the information indicating the quad-tree based partitioning and the information indicating the binary tree based partitioning.

Cuando el segundo bloque de codificación 310 se divide en función del árbol cuádruple, el segundo bloque de codificación 310 puede dividirse en cuatro terceros bloques de codificación 310a que tienen la mitad del ancho y la mitad de la altura del segundo bloque de codificación, y la profundidad de partición de la tercera codificación el bloque 310a se puede aumentar a k 2. Por el contrario, cuando el segundo bloque de codificación 310 se divide en función del árbol binario, el segundo bloque de codificación 310 puede dividirse en dos terceros bloques de codificación. Aquí, cada uno de los dos terceros bloques de codificación puede ser un bloque no cuadrado que tiene una anchura media y la mitad de la altura del segundo bloque de codificación, y la profundidad de la partición se puede aumentar a k 2. El segundo bloque de codificación se puede determinar como un bloque no cuadrado de una dirección horizontal o vertical que depende de una dirección de partición, y la dirección de partición se puede determinar según la información sobre si la partición basada en árbol binario se realiza en una dirección vertical o una dirección horizontal.When the second encoding block 310 is divided based on the quad tree, the second encoding block 310 can be divided into four third encoding blocks 310a that are half the width and half the height of the second encoding block, and the partition depth of the third coding block 310a can be increased to k 2 . In contrast, when the second coding block 310 is divided based on the binary tree, the second coding block 310 can be divided into two third coding blocks. Here, each of the two third coding blocks can be a non-square block having half the width and half the height of the second coding block, and the partition depth can be increased to k 2 . encoding can be determined as a non-square block of a horizontal or vertical direction depending on a partition direction, and the partition direction can be determined based on information whether the binary tree-based partition is performed in a vertical direction or a horizontal direction.

Mientras tanto, el segundo bloque de codificación 310 puede determinarse como un bloque de codificación de hoja que ya no está particionado en función del árbol cuádruple o del árbol binario. En este caso, el bloque de codificación de hoja se puede utilizar como un bloque de predicción o un bloque de transformación.Meanwhile, the second coding block 310 can be determined as a leaf coding block that is no longer partitioned based on the quad-tree or binary-tree. In this case, the leaf encoding block can be used as a prediction block or a transformation block.

Al igual que la partición del segundo bloque de codificación 310, el tercer bloque de codificación 310a puede determinarse como un bloque de codificación de hoja, o puede dividirse adicionalmente en base al árbol cuádruple o al árbol binario.Like the partitioning of the second coding block 310, the third coding block 310a may be determined as a leaf coding block, or may be further partitioned based on the quad-tree or binary-tree.

Mientras tanto, el tercer bloque de codificación 310b particionado en base al árbol binario puede dividirse adicionalmente en los bloques de codificación 310b-2 de una dirección vertical o los bloques de codificación 310b-3 de una dirección horizontal en base al árbol binario, y la profundidad de partición de los bloques de codificación relevantes se pueden aumentar a k 3. Alternativamente, el tercer bloque de codificación 310b puede determinarse como un bloque de codificación de hoja 310b-1 que ya no está particionado en base al árbol binario. En este caso, el bloque de codificación 310b-1 puede usarse como un bloque de predicción o un bloque de transformación. Sin embargo, el proceso de partición anterior se puede realizar de forma limitada en función de al menos una de las informaciones sobre el tamaño/profundidad del bloque de codificación que permite la partición basada en árbol cuádruple, la información sobre el tamaño/profundidad del bloque de codificación que permite la partición basada en ese árbol binario, y la información sobre el tamaño/profundidad del bloque de codificación que no permite la partición basada en árbol binario.Meanwhile, the third coding block 310b partitioned based on the binary tree can be further divided into coding blocks 310b-2 of a vertical direction or coding blocks 310b-3 of a horizontal direction based on the binary tree, and the partition depth of the relevant coding blocks can be increased to k 3. Alternatively, the third coding block 310b can be determined as a leaf coding block 310b-1 which is no longer partitioned based on the binary tree. In this case, the coding block 310b-1 can be used as a prediction block or a transformation block. However, the above partitioning process can be performed in a limited manner based on at least one of the information about the size/depth of the coding block that allows the quad-tree based partitioning, the information about the size/depth of the block block that allows partitioning based on that binary tree, and information about the size/depth of the encoding block that does not allow partitioning based on binary tree.

Un número de un candidato que representa un tamaño de un bloque de codificación puede estar limitado a un número predeterminado, o un tamaño de un bloque de codificación en una unidad predeterminada puede tener un valor fijo. Como ejemplo, el tamaño del bloque de codificación en una secuencia o en una imagen puede limitarse a tener 256x256, 128x128 o 32x32. La información que indica el tamaño del bloque de codificación en la secuencia o en la imagen se puede señalizar a través de un encabezado de secuencia o un encabezado de imagen.A number of a candidate representing a coding block size may be limited to a predetermined number, or a coding block size in a predetermined unit may have a fixed value. As an example, the size of the encoding block in a stream or in an image can be limited to 256x256, 128x128 or 32x32. Information indicating the size of the coding block in the stream or in the image can be signaled via a stream header or an image header.

Un bloque de codificación se codifica utilizando al menos uno del modo de omisión, intrapredicción, interpredicción o método de omisión. Una vez que se determina un bloque de codificación, se puede determinar un bloque de predicción a través de la partición predictiva del bloque de codificación. La partición predictiva del bloque de codificación se puede realizar mediante un modo de partición (Part_mode) que indica un tipo de partición del bloque de codificación. Un tamaño o una forma del bloque de predicción se puede determinar de acuerdo con el modo de partición del bloque de codificación. Por ejemplo, un tamaño de un bloque de predicción determinado de acuerdo con el modo de partición puede ser igual o menor que un tamaño de un bloque de codificación.A coding block is coded using at least one of skip mode, intra-prediction, inter-prediction or skip method. Once a coding block is determined, a prediction block can be determined through the predictive partitioning of the coding block. The predictive partitioning of the coding block can be performed by a partition mode (Part_mode) indicating a partition type of the coding block. A size or a shape of the prediction block can be determined according to the partition mode of the coding block. For example, a prediction block size determined according to the partition mode may be equal to or less than a coding block size.

La figura 4 es un diagrama que ilustra un modo de partición que puede aplicarse a un bloque de codificación cuando el bloque de codificación está codificado mediante interpredicción.Fig. 4 is a diagram illustrating a partition mode that can be applied to a coding block when the coding block is interprediction coded.

Cuando un bloque de codificación se codifica por interpredicción, se puede aplicar uno de los 8 modos de partición al bloque de codificación, como en el ejemplo mostrado en la figura 4. When a coding block is coded by interprediction, one of 8 partition modes can be applied to the coding block, as in the example shown in Figure 4.

Cuando un bloque de codificación se codifica por intrapredicción, se puede aplicar un modo de partición PART_2Nx2N o un modo de partición PART_NxN al bloque de codificación.When a coding block is intra-prediction coding, a PART_2Nx2N partition mode or a PART_NxN partition mode may be applied to the coding block.

PART_NxN puede aplicarse cuando un bloque de codificación tiene un tamaño mínimo. Aquí, el tamaño mínimo del bloque de codificación se puede predefinir en un codificador y un decodificador. O bien, la información sobre el tamaño mínimo del bloque de codificación puede ser señalizada a través de un flujo de bits. Por ejemplo, el tamaño mínimo del bloque de codificación se puede señalar a través de un encabezado de segmento, de modo que el tamaño mínimo del bloque de codificación se puede definir por segmento.PART_NxN can be applied when a coding block has a minimum size. Here, the minimum size of the coding block can be predefined in an encoder and a decoder. Or, the information about the minimum size of the coding block can be signaled through a bit stream. For example, the minimum size of the encoding block can be signaled via a segment header, so that the minimum size of the encoding block can be defined per segment.

En general, un bloque de predicción puede tener un tamaño de 64^64 a 4x4. Sin embargo, cuando un bloque de codificación está codificado mediante interpredicción, se puede restringir que el bloque de predicción no tenga un tamaño de 4x4 para reducir el ancho de banda de la memoria cuando se realiza la compensación de movimiento.In general, a prediction block can be from 64^64 to 4x4 in size. However, when an encoding block is encoded by interprediction, the prediction block may be constrained to not be 4x4 in size to reduce memory bandwidth when performing motion compensation.

La figura 5 es un dibujo que ilustra tipos de modos de intrapredicción predefinidos para un dispositivo para codificar/decodificar un vídeo de acuerdo con una realización de la presente invención.Fig. 5 is a drawing illustrating kinds of predefined intra-prediction modes for a device for encoding/decoding a video according to an embodiment of the present invention.

El dispositivo para codificar/decodificar un vídeo puede realizar intrapredicción utilizando uno de los modos de intrapredicción predefinidos. Los modos de intrapredicción predefinidos para la intrapredicción pueden incluir modos de predicción no direccionales (por ejemplo, un modo plano, un modo DC) y 33 modos de predicción direccional.The device for encoding/decoding a video can perform intra-prediction using one of the predefined intra-prediction modes. The predefined intra-prediction modes for intra-prediction may include non-directional prediction modes (eg, a flat mode, a DC mode) and 33 directional prediction modes.

Alternativamente, para mejorar la precisión de la intrapredicción, se puede utilizar un número mayor de modos de predicción direccional que los 33 modos de predicción direccional. Es decir, se pueden definir M modos de predicción direccional extendida mediante la subdivisión de los ángulos de los modos de predicción direccional (M > 33), y un modo de predicción direccional que tiene un ángulo predeterminado puede derivarse utilizando al menos uno de los 33 modos de predicción direccional predefinidos.Alternatively, to improve the accuracy of the intra-prediction, a greater number of directional prediction modes can be used than the 33 directional prediction modes. That is, M extended directional prediction modes can be defined by subdivision of the angles of the directional prediction modes (M > 33), and a directional prediction mode having a predetermined angle can be derived using at least one of the 33 predefined directional prediction modes.

Un número mayor de modos de intrapredicción que 35 modos de intrapredicción mostrados en la figura 5 puede ser utilizado. Por ejemplo, se puede usar un número mayor de modos de intrapredicción que los 35 modos de intrapredicción subdividiendo los ángulos de los modos de predicción direccional o derivando un modo de predicción direccional que tiene un ángulo predeterminado utilizando al menos uno de un número predefinido de modos de predicción direccional. En este momento, el uso de un número mayor de modos de intrapredicción que los 35 modos de intrapredicción puede ser referido como un modo de intrapredicción extendida.A greater number of intraprediction modes than 35 intraprediction modes shown in figure 5 can be used. For example, a greater number of intraprediction modes than the 35 intraprediction modes can be used by subdividing the angles of the directional prediction modes or by deriving a directional prediction mode having a predetermined angle using at least one of a predefined number of modes. directional prediction. At this time, the use of a greater number of intra-prediction modes than 35 intra-prediction modes can be referred to as an extended intra-prediction mode.

La figura 6 muestra un ejemplo de los modos de intrapredicción extendida, y los modos de intrapredicción extendida pueden incluir dos modos de predicción no direccionales y 65 modos de predicción direccional extendida. Se pueden usar los mismos números de los modos de intrapredicción extendida para un componente de luminancia y un componente de crominancia, o se puede usar un número diferente de modos de intrapredicción para cada componente. Por ejemplo, se pueden usar 67 modos de intrapredicción extendida para el componente de luminancia, y se pueden usar 35 modos de intrapredicción para el componente de crominancia.Fig. 6 shows an example of the extended intra-prediction modes, and the extended intra-prediction modes may include two non-directional prediction modes and 65 extended directional prediction modes. The same numbers of extended intra-prediction modes can be used for a luminance component and a chrominance component, or a different number of intra-prediction modes can be used for each component. For example, 67 extended intra-prediction modes can be used for the luminance component, and 35 intra-prediction modes can be used for the chrominance component.

Alternativamente, dependiendo del formato de crominancia, se puede usar un número diferente de modos de intrapredicción para realizar la intrapredicción. Por ejemplo, en el caso del formato 4: 2: 0, se pueden usar 67 modos de intrapredicción para que el componente de luminancia realice la intrapredicción y se pueden usar 35 modos de intrapredicción para el componente de crominancia. En el caso del formato 4:4:4, se pueden usar 67 modos de intrapredicción para el componente de luminancia y el componente de crominancia para realizar la intrapredicción.Alternatively, depending on the chrominance format, a different number of intraprediction modes can be used to perform intraprediction. For example, in the case of the 4:2:0 format, 67 intra-prediction modes can be used for the luminance component to perform intra-prediction, and 35 intra-prediction modes can be used for the chrominance component. In the case of the 4:4:4 format, 67 intra-prediction modes can be used for the luminance component and chrominance component to perform intra-prediction.

Alternativamente, dependiendo del tamaño y/o la forma del bloque, se puede usar un número diferente de modos de intrapredicción para realizar la intrapredicción. Es decir, dependiendo del tamaño y/o la forma de la PU o la CU, se pueden usar 35 modos de intrapredicción o 67 modos de intrapredicción para realizar la intrapredicción. Por ejemplo, cuando la CU o la PU tienen un tamaño inferior a 64x64 o está dividida asimétricamente, se pueden usar 35 modos de intrapredicción para realizar la intrapredicción. Cuando el tamaño de la CU o PU es igual o mayor que 64x64, se pueden usar 67 modos de intrapredicción para realizar la intrapredicción. Se pueden permitir 65 modos de intrapredicción direccional para Intra_2Nx2N, y solo se pueden permitir 35 modos de intrapredicción direccional para Intra_NxN.Alternatively, depending on the size and/or shape of the block, a different number of intraprediction modes can be used to perform intraprediction. That is, depending on the size and/or shape of the PU or CU, 35 intra-prediction modes or 67 intra-prediction modes can be used to perform intra-prediction. For example, when the CU or PU is smaller than 64x64 or asymmetrically partitioned, 35 intra-prediction modes can be used to perform intra-prediction. When the size of the CU or PU is equal to or greater than 64x64, 67 intra-prediction modes can be used to perform intra-prediction. 65 directional intraprediction modes can be allowed for Intra_2Nx2N, and only 35 directional intraprediction modes can be allowed for Intra_NxN.

El tamaño de un bloque al que se aplica el modo de intrapredicción extendida puede configurarse de manera diferente para cada secuencia, imagen o segmento. Por ejemplo, se establece que el modo de intrapredicción extendida se aplica a un bloque (por ejemplo, CU o PU) que tiene un tamaño mayor que 64x64 en la primera división. Por otro lado, se establece que el modo de intrapredicción extendida se aplica a un bloque que tiene un tamaño superior a 32x32 en la segunda división. La información que representa el tamaño de un bloque al que se aplica el modo de intrapredicción extendida puede señalizarse en unidades de una secuencia, una imagen o un segmento. Por ejemplo, la información que indica el tamaño del bloque al que se aplica el modo de intrapredicción extendida puede definirse como 'log2_extended_intra_mode_size_minus4' obtenida al tomar un logaritmo del tamaño del bloque y luego restar el número entero 4. Por ejemplo, si un valor de log2_extended_intra_mode_size_minus4 es 0, puede indicar que el modo de intrapredicción extendida puede aplicarse a un bloque que tenga un tamaño igual o mayor que 16x16. Y si un valor de log2_extended_intra_mode_size_minus4 es 1, puede indicar que el modo de intrapredicción extendida puede aplicarse a un bloque que tenga un tamaño igual o mayor que 32x32.The size of a block to which the extended intraprediction mode is applied can be configured differently for each sequence, image, or segment. For example, the extended intra-prediction mode is set to apply to a block (eg, CU or PU) that is larger than 64x64 in size at the first split. On the other hand, it is established that the extended intraprediction mode is applied to a block that has a size greater than 32x32 in the second division. The information representing the size of a block to which the extended intra-prediction mode is applied may be signaled in units of a sequence, a picture, or a slice. For example, the information indicating the size of the block to which the extended intraprediction mode applies can be defined as 'log2_extended_intra_mode_size_minus4' obtained by taking a logarithm of the block size and then subtracting the integer 4. For example, if a value of log2_extended_intra_mode_size_minus4 is 0, it can indicate that the extended intraprediction mode can be applied to a block that is equal to or greater than 16x16 in size. And if a value of log2_extended_intra_mode_size_minus4 is 1, it can indicate that the extended intraprediction mode can be applied to a block that is equal to or greater than 32x32 in size.

Como se describió anteriormente, el número de modos de intrapredicción puede determinarse considerando al menos uno de un componente de color, un formato de crominancia y un tamaño o una forma de un bloque. Además, el número de candidatos para el modo de intrapredicción (por ejemplo, el número de MPM) utilizado para determinar un modo de intrapredicción de un bloque actual para codificar/decodificar también se puede determinar de acuerdo con al menos uno de un componente de color, un formato de color, y el tamaño o la forma de un bloque. Con los dibujos se describirá un método para determinar un modo de intrapredicción de un bloque actual para codificar/decodificar y un método para realizar la intrapredicción utilizando el modo de intrapredicción determinado.As described above, the number of intra-prediction modes can be determined by considering at least one of a color component, a chrominance format, and a size or shape of a block. In addition, the number of intra-prediction mode candidates (for example, the number of MPMs) used to determine an intra-prediction mode of a current block for encoding/decoding may also be determined according to at least one of a color component. , a color format, and the size or shape of a block. With the drawings, a method for determining an intra-prediction mode of a current block to encode/decode and a method for performing intra-prediction using the determined intra-prediction mode will be described.

La figura 7 es un diagrama de flujo que ilustra brevemente un método de intrapredicción según una realización de la presente invención.Fig. 7 is a flow chart briefly illustrating an intra-prediction method according to one embodiment of the present invention.

Con referencia a la figura 7, se puede determinar un modo de intrapredicción del bloque actual en la etapa S800. Referring to Fig. 7, an intra-prediction mode of the current block can be determined in step S800.

Específicamente, el modo de intrapredicción del bloque actual puede derivarse en base a una lista de candidatos y un índice. Aquí, la lista de candidatos contiene múltiples candidatos, y los múltiples candidatos pueden determinarse en función de un modo de intrapredicción del bloque vecino adyacente al bloque actual. El bloque vecino puede incluir al menos uno de los bloques ubicados en la parte superior, la parte inferior, la izquierda, la derecha y la esquina del bloque actual. El índice puede especificar uno de los múltiples candidatos de la lista de candidatos. El candidato especificado por el índice puede establecerse en el modo de intrapredicción del bloque actual.Specifically, the intra-prediction mode of the current block can be derived based on a candidate list and an index. Here, the candidate list contains multiple candidates, and the multiple candidates may be determined based on an intra-prediction mode of the neighbor block adjacent to the current block. The neighbor block can include at least one of the blocks located on the top, bottom, left, right, and corner of the current block. The index can specify one of multiple candidates from the candidate list. The candidate specified by the index may be set to the intra-prediction mode of the current block.

Un modo de intrapredicción usado para la intrapredicción en el bloque vecino se puede establecer como candidato. Además, un modo de intrapredicción que tiene direccionalidad similar a la del modo de intrapredicción del bloque vecino se puede establecer como candidato. Aquí, el modo de intrapredicción que tiene una direccionalidad similar puede determinarse sumando o restando un valor constante predeterminado a o del modo de intrapredicción del bloque vecino. El valor constante predeterminado puede ser un número entero, como uno, dos o más.An intra-prediction mode used for intra-prediction in the neighboring block may be set as a candidate. In addition, an intra-prediction mode having directionality similar to that of the intra-prediction mode of the neighboring block may be set as a candidate. Here, the intra-prediction mode having a similar directionality can be determined by adding or subtracting a predetermined constant value to or from the neighboring block's intra-prediction mode. The default constant value can be an integer, such as one, two, or more.

La lista de candidatos puede incluir además un modo predeterminado. El modo predeterminado puede incluir al menos uno de un modo planar, un modo DC, un modo vertical y un modo horizontal. El modo predeterminado se puede agregar adaptativamente considerando el número máximo de candidatos que se pueden incluir en la lista de candidatos del bloque actual.The candidate list may further include a predetermined mode. The default mode may include at least one of a planar mode, a DC mode, a vertical mode, and a horizontal mode. The default mode can be adaptively added by considering the maximum number of candidates that can be included in the candidate list of the current block.

El número máximo de candidatos que se pueden incluir en la lista de candidatos puede ser tres, cuatro, cinco, seis o más. El número máximo de candidatos que pueden incluirse en la lista de candidatos puede ser un valor preestablecido en el dispositivo para codificar/decodificar un vídeo, o puede determinarse de forma variable en función de una característica del bloque actual. La característica puede significar la ubicación/tamaño/forma del bloque, el número/tipo de modos de intrapredicción que puede usar el bloque, un tipo de color, un formato de color, etc. Alternativamente, la información que indique el número máximo de candidatos que pueden ser incluido en la lista de candidatos puede señalarse por separado, y el número máximo de candidatos que pueden incluirse en la lista de candidatos puede determinarse de manera variable utilizando la información. La información que indica el número máximo de candidatos se puede señalar en al menos uno de un nivel de secuencia, un nivel de imagen, un nivel de división y un nivel de bloque. The maximum number of candidates that can be included in the candidate list can be three, four, five, six or more. The maximum number of candidates that can be included in the candidate list may be a preset value in the device for encoding/decoding a video, or may be variably determined based on a characteristic of the current block. The feature can mean the location/size/shape of the block, the number/type of intraprediction modes the block can use, a color type, a color format, etc. Alternatively, the information indicating the maximum number of candidates that can be included in the candidate list can be indicated separately, and the maximum number of candidates that can be included in the candidate list can be variably determined using the information. The information indicating the maximum number of candidates may be indicated at at least one of a sequence level, an image level, a division level and a block level.

Cuando se utilizan selectivamente los modos de intrapredicción extendida y los modos de intrapredicción predefinidos, los modos de intrapredicción de los bloques vecinos pueden transformarse en índices correspondientes a los modos de intrapredicción extendida, o en índices correspondientes a los 35 modos de intrapredicción, mediante los cuales se pueden derivar candidatos. Para la transformación a un índice, se puede usar una tabla predefinida, o se puede usar una operación de escala basada en un valor predeterminado. Aquí, la tabla predefinida puede definir una relación de asignación entre diferentes grupos de modos de intrapredicción (por ejemplo, modos de intrapredicción extendida y 35 modos de intrapredicción).When the extended intraprediction modes and the predefined intraprediction modes are used selectively, the intraprediction modes of neighboring blocks can be transformed into indices corresponding to the extended intraprediction modes, or to indices corresponding to the 35 intraprediction modes, by which Candidates can be referred. For transformation to an index, a predefined table can be used, or a scale operation based on a default value can be used. Here, the predefined table may define an allocation relationship between different intra-prediction mode groups (eg, extended intra-prediction modes and intra-prediction 35 modes).

Por ejemplo, cuando el bloque vecino izquierdo utiliza los 35 modos de intrapredicción y el modo de intrapredicción del bloque vecino izquierdo es 10 (un modo horizontal), puede transformarse en un índice de 16 correspondiente a un modo horizontal en los modos de intrapredicción extendida.For example, when the left neighbor block uses all 35 intra-prediction modes and the intra-prediction mode of the left neighbor block is 10 (a horizontal mode), it can be transformed to an index of 16 corresponding to a horizontal mode in the extended intra-prediction modes.

Alternativamente, cuando el bloque vecino superior utiliza los modos de intrapredicción extendida y el modo de intrapredicción el bloque vecino superior tiene un índice de 50 (un modo vertical), se puede transformar en un índice de 26 correspondiente a un modo vertical en los 35 modos de intrapredicción.Alternatively, when the upper neighbor block uses the extended intraprediction modes and the intraprediction mode the upper neighbor block has an index of 50 (a vertical mode), it can be transformed to an index of 26 corresponding to a vertical mode in all 35 modes. of intraprediction.

Según el método descrito anteriormente para determinar el modo de intrapredicción, el modo de intrapredicción puede derivarse independientemente para cada componente de la luminancia y el componente de crominancia, o el modo de intrapredicción del componente de crominancia puede derivarse dependiendo del modo de intrapredicción del componente de luminancia.According to the method described above for determining the intra-prediction mode, the intra-prediction mode can be derived independently for each component of the luminance and the chrominance component, or the intra-prediction mode of the chrominance component can be derived depending on the intra-prediction mode of the luminance component. luminance.

Específicamente, el modo de intrapredicción del componente de crominancia se puede determinar en función del modo de intrapredicción del componente de luminancia como se muestra en la siguiente Tabla 1.Specifically, the intra-prediction mode of the chrominance component can be determined based on the intra-prediction mode of the luminance component as shown in the following Table 1.

Tabla 1Table 1

Figure imgf000028_0001
Figure imgf000028_0001

Figure imgf000029_0001
Figure imgf000029_0001

En la Tabla 1, intra_chroma_pred_mode significa información señalizada para especificar el modo de intrapredicción del componente de crominancia, e IntraPredModeY indica el modo de intrapredicción del componente de luminancia.In Table 1, intra_chroma_pred_mode means signaled information for specifying the intra-prediction mode of the chrominance component, and IntraPredModeY indicates the intra-prediction mode of the luminance component.

Con referencia a la figura 7, se puede derivar una muestra de referencia para la intrapredicción del bloque actual en la etapa S710.Referring to Fig. 7, a reference sample for intra-prediction of the current block can be derived in step S710.

Específicamente, una muestra de referencia para la intrapredicción puede derivarse en base a una muestra vecina del bloque actual. La muestra vecina puede ser una muestra reconstruida del bloque vecino, y la muestra reconstruida puede ser una muestra reconstruida antes de que se aplique un filtro en bucle o una muestra reconstruida después de que se aplique el filtro en bucle.Specifically, a reference sample for intra-prediction can be derived based on a neighboring sample of the current block. The neighbor sample may be a reconstructed sample from the neighbor block, and the reconstructed sample may be a reconstructed sample before a loop filter is applied or a reconstructed sample after the loop filter is applied.

Una muestra vecina reconstruida antes del bloque actual se puede usar como muestra de referencia, y una muestra vecina filtrada en base a un filtro intra predeterminado se puede usar como muestra de referencia. El filtrado de muestras vecinas utilizando un filtro intra también se puede denominar filtrado de muestras de referencia. El filtro intra puede incluir al menos uno de los primeros filtros intra aplicados a múltiples muestras adyacentes ubicadas en la misma línea horizontal y el segundo filtro intra aplicado a múltiples muestras vecinas ubicadas en la misma línea vertical. Dependiendo de las posiciones de las muestras vecinas, uno del primer filtro intra y el segundo filtro intra puede aplicarse selectivamente, o pueden aplicarse ambos filtros intra. En este momento, al menos un coeficiente de filtro del primer filtro intra o del segundo filtro intra puede ser (1, 2, 1), pero no está limitado a ello.A neighbor sample reconstructed before the current block can be used as the reference sample, and a neighbor sample filtered based on a predetermined intra filter can be used as the reference sample. Filtering neighboring samples using an intra filter can also be called reference sample filtering. The intra filter may include at least one of the first intra filter applied to multiple adjacent samples located on the same horizontal line and the second intra filter applied to multiple neighboring samples located on the same vertical line. Depending on the positions of the neighboring samples, one of the first intra filter and the second intra filter can be applied selectively, or both intra filters can be applied. At this time, at least one filter coefficient of the first intra filter or the second intra filter may be (1, 2, 1), but is not limited thereto.

El filtrado puede realizarse de forma adaptativa en función de al menos uno de los modos de intrapredicción del bloque actual y el tamaño del bloque de transformación para el bloque actual. Por ejemplo, cuando el modo de intrapredicción del bloque actual es el modo CC, el modo vertical o el modo horizontal, es posible que no se realice el filtrado. Cuando el tamaño del bloque de transformación es NxM, no se puede realizar el filtrado. Aquí, N y M pueden ser los mismos valores o valores diferentes, o pueden ser valores de 4, 8, 16 o más. Por ejemplo, si el tamaño del bloque de transformación es 4x4, no se puede realizar el filtrado. Alternativamente, el filtrado se puede realizar de forma selectiva en función del resultado de una comparación de un umbral predefinido y la diferencia entre el modo de intrapredicción del bloque actual y el modo vertical (o el modo horizontal). Por ejemplo, cuando la diferencia entre el modo de intrapredicción del bloque actual y el modo vertical es mayor que un umbral, se puede realizar el filtrado. El umbral se puede definir para cada tamaño del bloque de transformación como se muestra en la Tabla 2.The filtering may be performed adaptively based on at least one of the intraprediction modes of the current block and the size of the transform block for the current block. For example, when the intraprediction mode of the current block is CC mode, Vertical mode, or Horizontal mode, filtering may not be performed. When the block size of transformation is NxM, filtering cannot be performed. Here, N and M can be the same or different values, or they can be values of 4, 8, 16, or more. For example, if the transform block size is 4x4, filtering cannot be performed. Alternatively, filtering can be performed selectively based on the result of a comparison of a predefined threshold and the difference between the intraprediction mode of the current block and the vertical mode (or horizontal mode). For example, when the difference between the intraprediction mode of the current block and the vertical mode is greater than a threshold, filtering can be performed. The threshold can be defined for each transform block size as shown in Table 2.

Tabla 2Table 2

Figure imgf000030_0001
Figure imgf000030_0001

El filtro intra se puede determinar como uno de los múltiples candidatos de filtro intra predefinidos en el dispositivo para codificar/decodificar un vídeo. Para este fin, se puede señalar un índice que especifique un filtro intra del bloque actual entre los múltiples candidatos de filtro intra. Alternativamente, el filtro intra se puede determinar en función de al menos uno de los tamaños/formas del bloque actual, el tamaño/formas del bloque de transformación, información sobre la intensidad del filtro y las variaciones de las muestras vecinas.The intra filter can be determined as one of multiple intra filter candidates predefined in the device for encoding/decoding a video. For this purpose, an index can be pointed out that specifies an intra filter of the current block among the multiple intra filter candidates. Alternatively, the intra filter can be determined based on at least one of the current block size/shapes, the transform block size/shapes, filter strength information, and neighboring sample variances.

Con referencia a la figura 7, la intrapredicción puede realizarse utilizando el modo de intrapredicción del bloque actual y la muestra de referencia en la etapa S720.Referring to Fig. 7, intra-prediction can be performed using the intra-prediction mode of the current block and the reference sample in step S720.

Es decir, la muestra de predicción del bloque actual puede obtenerse utilizando el modo de intrapredicción determinado en la etapa S700 y la muestra de referencia derivada en la etapa S710. Sin embargo, en el caso de la intrapredicción, se puede usar una muestra delimitadora del bloque vecino y, por lo tanto, la calidad de la imagen de predicción puede disminuir. Por lo tanto, se puede realizar un proceso de corrección en la muestra de predicción generada a través del proceso de predicción descrito anteriormente, y se describirá en detalle con referencia a las figuras 8 a 10. Sin embargo, el proceso de corrección no se limita a aplicarse solo a la muestra de intrapredicción, y puede aplicarse a una muestra de interpredicción o la muestra reconstruida.That is, the prediction sample of the current block can be obtained using the intra-prediction mode determined in step S700 and the reference sample derived in step S710. However, in the case of intra-prediction, a bounding sample of the neighboring block may be used, and therefore the quality of the prediction image may decrease. Therefore, a correction process can be performed on the prediction sample generated through the prediction process described above, and it will be described in detail with reference to Figs. 8 to 10. However, the correction process is not limited to to be applied only to the intraprediction sample, and can be applied to an interprediction sample or the sample reconstructed.

La figura 8 es un dibujo que ilustra un método para corregir una muestra de predicción de un bloque actual basándose en información diferencial de muestras vecinas de acuerdo con una realización de la presente invención.Fig. 8 is a drawing illustrating a method for correcting a prediction sample of a current block based on differential information from neighboring samples according to an embodiment of the present invention.

La muestra de predicción del bloque actual puede corregirse basándose en la información diferencial de múltiples muestras vecinas para el bloque actual. La corrección se puede realizar en todas las muestras de predicción en el bloque actual, o se puede realizar en muestras de predicción en regiones parciales predeterminadas. Las regiones parciales pueden ser una fila/columna o múltiples filas/columnas, y estas pueden ser regiones preestablecidas para la corrección en el dispositivo para codificar/decodificar un vídeo. Por ejemplo, la corrección se puede realizar en una fila/columna ubicada en un límite del bloque actual o se puede realizar en una pluralidad de filas/columnas desde un límite del bloque actual. Alternativamente, las regiones parciales se pueden determinar de forma variable en función de al menos uno de los tamaños/formas del bloque actual y el modo de intrapredicción.The current block prediction sample may be corrected based on the differential information of multiple neighboring samples for the current block. The correction can be performed on all prediction samples in the current block, or it can be performed on prediction samples in predetermined partial regions. The partial regions may be one row/column or multiple rows/columns, and these may be regions preset for correction in the device for encoding/decoding a video. For example, the correction may be performed on a row/column located at a current block boundary or may be performed on a plurality of rows/columns from a current block boundary. Alternatively, the partial regions may be variably determined based on at least one of the current block size/shape and the intra-prediction mode.

Las muestras vecinas pueden pertenecer a los bloques vecinos ubicados en la esquina superior izquierda y superior izquierda del bloque actual. El número de muestras vecinas utilizadas para la corrección puede ser dos, tres, cuatro o más. Las posiciones de las muestras vecinas pueden determinarse de manera variable dependiendo de la posición de la muestra de predicción que es el objetivo de corrección en el bloque actual. Alternativamente, algunas de las muestras vecinas pueden tener posiciones fijas independientemente de la posición de la muestra de predicción que es el objetivo de corrección, y las muestras vecinas restantes pueden tener posiciones variables dependiendo de la posición de la muestra de predicción que es el objetivo de corrección.Neighboring samples can belong to neighboring blocks located in the upper left and upper left corner of the current block. The number of neighboring samples used for the correction can be two, three, four or more. The positions of the neighboring samples can be variably determined depending on the position of the prediction sample that is the correction target in the current block. Alternatively, some of the neighboring samples may have fixed positions regardless of the position of the prediction sample that is the target of correction, and the remaining neighbor samples may have variable positions depending on the position of the prediction sample that is the target of correction. correction.

La información diferencial de las muestras vecinas puede significar una muestra diferencial entre las muestras vecinas, o puede significar un valor obtenido al escalar la muestra diferencial por un valor constante predeterminado (por ejemplo, uno, dos, tres, etc.). Aquí, el valor constante predeterminado se puede determinar considerando la posición de la muestra de predicción que es el objetivo de corrección, la posición de la columna o fila que incluye la muestra de predicción que es el objetivo de corrección, la posición de la muestra de predicción dentro de la columna o fila, etc.Differential information from neighboring samples may mean a differential sample between neighboring samples, or it may mean a value obtained by scaling the differential sample by a predetermined constant value (eg, one, two, three, etc.). Here, the default constant value can be determined by considering the position of the prediction sample that is the correction target, the position of the column or row that includes the prediction sample that is the correction target, the position of the sample of prediction within the column or row, etc.

Por ejemplo, cuando el modo de intrapredicción del bloque actual es el modo vertical, las muestras diferenciales entre la muestra vecina superior izquierda p(-1, -1) y las muestras vecinas p(-1, y) adyacentes al límite izquierdo del bloque actual se puede usar para obtener la muestra de predicción final como se muestra en la Ecuación 1.For example, when the intraprediction mode of the current block is the vertical mode, the differential samples between the upper left neighbor sample p(-1, -1) and the neighboring samples p(-1, y) adjacent to the left boundary of the block current can be used to obtain the final prediction sample as shown in Equation 1.

Ecuación 1equation 1

P(0,y) = P(0,y)+((p(-1,y)-p(-1,-1)) >> 1 para y = 0...N-1 P ( 0,y) = P(0,y)+((p(-1,y)-p(-1,-1)) >> 1 for y = 0...N-1

Por ejemplo, cuando el modo de intrapredicción del bloque actual es el modo horizontal, las muestras diferenciales entre la muestra vecina superior izquierda p(-1, -1) y las muestras vecinas p(x, -1) adyacentes al límite superior del bloque actual se puede usar para obtener la muestra de predicción final como se muestra en la Ecuación 2.For example, when the intraprediction mode of the current block is the horizontal mode, the differential samples between the upper left neighbor sample p(-1, -1) and the neighboring samples p(x, -1) adjacent to the upper block boundary current can be used to obtain the final prediction sample as shown in Equation 2.

Ecuación 2equation 2

P(x,0) = P(x,0)+((p(x,-1)-p(-1,-1)) >> 1 para x = 0...N-1P(x,0) = P(x,0)+((p(x,-1)-p(-1,-1)) >> 1 for x = 0...N-1

Por ejemplo, cuando el modo de intrapredicción del bloque actual es el modo vertical, las muestras diferenciales entre la muestra vecina superior izquierda p(-1, -1) y las muestras vecinas p(-1, y) adyacentes al límite izquierdo del bloque actual se puede utilizar para obtener la muestra de predicción final. Aquí, la muestra diferencial se puede agregar a la muestra de predicción, o la muestra diferencial se puede escalar en un valor constante predeterminado, y luego se agrega a la muestra de predicción. El valor constante predeterminado utilizado en el escalado puede determinarse de manera diferente dependiendo de la columna y/o fila. Por ejemplo, la muestra de predicción se puede corregir como se muestra en la Ecuación 3 y la Ecuación 4.For example, when the intraprediction mode of the current block is the vertical mode, the differential samples between the upper left neighbor sample p(-1, -1) and the neighboring samples p(-1, y) adjacent to the left boundary of the block current can be used to get the final prediction sample. Here, the differential sample can be added to the prediction sample, or the differential sample can be scaled by a default constant value, and then added to the prediction sample. The default constant value used in scaling can be determined differently depending on the column and/or row. For example, the prediction sample can be corrected as shown in Equation 3 and Equation 4.

Ecuación 3Equation 3

P(0,y) = P(0,y)+((p(-1,y)-p(-1,-1)) >> 1 para y = 0...N-1 P(0,y) = P(0,y)+((p(-1,y)-p(-1,-1)) >> 1 for y = 0...N-1

Ecuación 4Equation 4

P(1,y) = P(0,y)+((p(-1,y)-p(-1,-1)) >> 2 para y = 0...N-1 P ( 1,y) = P(0,y)+((p(-1,y)-p(-1,-1)) >> 2 for y = 0...N-1

Por ejemplo, cuando el modo de intrapredicción del bloque actual es el modo horizontal, las muestras diferenciales entre la muestra vecina superior izquierda p(-1, -1) y las muestras vecinas p(x, -1) adyacentes al límite superior del bloque actual se puede usar para obtener la muestra de predicción final, como se describe en el caso del modo vertical. Por ejemplo, la muestra de predicción se puede corregir como se muestra en la Ecuación 5 y la Ecuación 6.For example, when the intraprediction mode of the current block is the horizontal mode, the differential samples between the upper left neighbor sample p(-1, -1) and the neighboring samples p(x, -1) adjacent to the upper block boundary current can be used to get the final prediction sample, as described in the case of vertical mode. For example, the prediction sample can be corrected as shown in Equation 5 and Equation 6.

Ecuación 5equation 5

P(x,0) = P(x,0)+((p(x,-1)-p(-1,-1)) >> 1 para x = 0...N-1P(x,0) = P(x,0)+((p(x,-1)-p(-1,-1)) >> 1 for x = 0...N-1

Ecuación 6Equation 6

P(x,1) = P(x,1)+((p(x,-1)-p(-1,-1)) >> 2 para x = 0...N-1P(x,1) = P(x,1)+((p(x,-1)-p(-1,-1)) >> 2 for x = 0...N-1

Las figuras 9 y 10 son dibujos que ilustran un método para corregir una muestra de predicción basándose en un filtro de corrección predeterminado de acuerdo con una realización de la presente invención.Figures 9 and 10 are drawings illustrating a method for correcting a prediction sample based on a predetermined correction filter according to an embodiment of the present invention.

La muestra de predicción puede corregirse basándose en la muestra vecina de la muestra de predicción que es el objetivo de corrección y un filtro de corrección predeterminado. Aquí, la muestra vecina puede especificarse mediante una línea angular del modo de predicción direccional del bloque actual, o puede ser al menos una muestra colocada en la misma línea angular que la muestra de predicción que es el objetivo de corrección. Además, la muestra vecina puede ser una muestra de predicción en el bloque actual, o puede ser una muestra reconstruida en un bloque vecino reconstruido antes del bloque actual.The prediction sample may be corrected based on the neighbor sample of the prediction sample that is the correction target and a predetermined correction filter. Here, the neighbor sample may be specified by an angular line of the directional prediction mode of the current block, or it may be at least one sample placed on the same angular line as the prediction sample that is the correction target. In addition, the neighbor sample may be a prediction sample in the current block, or it may be a reconstructed sample in a neighbor block reconstructed before the current block.

Al menos uno de los números de derivaciones, la intensidad y un coeficiente de filtro del filtro de corrección se pueden determinar en función de al menos una de las posiciones de la muestra de predicción que es el objetivo de corrección, independientemente de si la muestra de predicción es el objetivo de la corrección se coloca en el límite del bloque actual, el modo de intrapredicción del bloque actual, el ángulo del modo de predicción direccional, el modo de predicción (modo inter o intra) del bloque vecino y el tamaño/forma del bloque actual.At least one of the lead numbers, the intensity, and a filter coefficient of the correction filter may be determined based on at least one of the positions of the prediction sample that is the correction target, regardless of whether the lead sample prediction is the target of the correction is placed at the current block boundary, the block intra-prediction mode current, the angle of the directional prediction mode, the prediction mode (inter or intra mode) of the neighboring block, and the size/shape of the current block.

Con referencia a la figura 9, cuando el modo de predicción direccional tiene un índice de 2 o 34, al menos una muestra de predicción/reconstruida colocada en la parte inferior izquierda de la muestra de predicción que es el objetivo de corrección y el filtro de corrección predeterminado se puede usar para obtener la muestra de predicción final. Aquí, la muestra de predicción/reconstruida en la parte inferior izquierda puede pertenecer a una línea anterior de una línea que incluye la muestra de predicción que es el objetivo de corrección. La muestra de predicción/reconstruida en la parte inferior izquierda puede pertenecer al mismo bloque que la muestra actual, o al bloque vecino adyacente al bloque actual.Referring to Figure 9, when the directional prediction mode has an index of 2 or 34, at least one prediction/reconstructed sample placed at the bottom left of the prediction sample that is the correction target and the reconstructed sample default correction can be used to obtain the final prediction sample. Here, the prediction/reconstructed sample at the bottom left may belong to a line prior to a line that includes the prediction sample that is the correction target. The prediction/reconstructed sample at the bottom left can belong to the same block as the current sample, or to the neighboring block adjacent to the current block.

El filtrado para la muestra de predicción se puede realizar solo en la línea ubicada en el límite del bloque, o se puede realizar en múltiples líneas. Se puede usar el filtro de corrección donde al menos una de la cantidad de derivaciones de filtro y un coeficiente de filtro es diferente para cada una de las líneas. Por ejemplo, se puede usar un filtro (1/2, 1/2) para la primera línea izquierda más cercana al límite del bloque, se puede usar un filtro (12/16, 4/16) para la segunda línea, se puede usar un filtro (14/16, 2/16) para la tercera línea, y se puede usar un filtro (15/16, 1/16) para la cuarta línea.Filtering for the prediction sample can be performed only on the line located at the block boundary, or it can be performed on multiple lines. The correction filter can be used where at least one of the number of filter taps and a filter coefficient is different for each of the lines. For example, you can use a filter (1/2, 1/2) for the first line left closest to the block boundary, you can use a filter (12/16, 4/16) for the second line, you can use a filter (14/16, 2/16) for the third line, and you can use a filter (15/16, 1/16) for the fourth line.

Alternativamente, cuando el modo de predicción direccional tiene un índice de 3 a 6 o de 30 a 33, el filtrado se puede realizar en el límite del bloque como se muestra en la figura 10, y se puede usar un filtro de corrección de 3 derivaciones para corregir la muestra de predicción. El filtrado se puede realizar utilizando la muestra inferior izquierda de la muestra de predicción, que es el objetivo de corrección, la muestra inferior de la muestra de la parte inferior izquierda, y un filtro de corrección de 3 derivaciones que toma como entrada la muestra de predicción que es el objetivo de corrección. La posición de la muestra vecina utilizada por el filtro de corrección se puede determinar de manera diferente según el modo de predicción direccional. El coeficiente de filtro del filtro de corrección se puede determinar de manera diferente dependiendo del modo de predicción direccional.Alternatively, when the directional prediction mode has an index of 3 to 6 or 30 to 33, filtering can be done at the block boundary as shown in Figure 10, and a 3-tap correction filter can be used. to correct the prediction sample. Filtering can be done using the bottom left sample of the prediction sample, which is the correction target, the bottom sample of the bottom left sample, and a 3-lead correction filter that takes the target sample as input. prediction that is the target of correction. The position of the neighboring sample used by the correction filter can be determined differently depending on the directional prediction mode. The filter coefficient of the correction filter can be determined differently depending on the directional prediction mode.

Se pueden aplicar diferentes filtros de corrección dependiendo de si el bloque vecino está codificado en el modo inter o el modo intra. Cuando el bloque vecino está codificado en el modo intra, se puede usar un método de filtrado donde se otorga más ponderación a la muestra de predicción, en comparación con cuando el bloque vecino está codificado en el modo inter. Por ejemplo, en el caso de que el modo de intrapredicción sea 34, cuando el bloque vecino se codifica en el modo inter, se puede usar un filtro (1/2, 1/2), y cuando el bloque vecino se codifica en el modo intra, se puede usar un filtro (4/16, 12/16).Different correction filters can be applied depending on whether the neighboring block is coded in the inter mode or the intra mode. When the neighboring block is coded in the intra mode, a filtering method can be used where gives more weight to the prediction sample, compared to when the neighbor block is coded in inter mode. For example, in the case that the intra-prediction mode is 34, when the neighbor block is coded in the inter mode, a filter (1/2, 1/2) can be used, and when the neighbor block is coded in the intra mode, a filter (4/16, 12/16) can be used.

El número de líneas a filtrar en el bloque actual puede variar dependiendo del tamaño/forma del bloque actual (por ejemplo, el bloque de codificación o el bloque de predicción). Por ejemplo, cuando el tamaño del bloque actual es igual o inferior a 32x32, el filtrado puede realizarse en una sola línea en el límite del bloque; de lo contrario, el filtrado se puede realizar en varias líneas, incluida una línea en el límite del bloque.The number of lines to filter in the current block may vary depending on the size/shape of the current block (eg, the encoding block or the prediction block). For example, when the current block size is equal to or less than 32x32, filtering can be done on a single line at the block boundary; otherwise, filtering can be done on multiple lines, including a line at the block boundary.

Las figuras 9 y 10 se basan en el caso en que los 35 modos de intrapredicción en la figura 4 se utilizan, pero se pueden aplicar de manera igual o similar al caso donde se usan los modos de intrapredicción extendida.Figures 9 and 10 are based on the case where the intra-prediction modes in Figure 4 are used, but the same or similar can be applied to the case where the extended intra-prediction modes are used.

La figura 11 muestra una gama de muestras de referencia para la intrapredicción de acuerdo con una realización a la que se aplica la presente invención.Figure 11 shows a range of reference samples for intra-prediction according to an embodiment to which the present invention is applied.

Con referencia a la figura 11, la intrapredicción puede realizarse utilizando las muestras de referencia P(-1, -1), P(-1, y) (0 <= y <= 2N-1) y P(x, -1) (0 <= x <= 2N-1) ubicado en un límite de un bloque actual. En este momento, el filtrado en muestras de referencia se realiza de forma selectiva en función de al menos uno de un modo de intrapredicción (por ejemplo, índice, direccionalidad, ángulo, etc. del modo de intrapredicción) del bloque actual o el tamaño de un bloque de transformación relacionado con el bloque actual.Referring to Figure 11, intra-prediction can be performed using the reference samples P(-1, -1), P(-1, y) (0 <= y <= 2N-1) and P(x, -1 ) (0 <= x <= 2N-1) located at a boundary of a current block. At this time, filtering on reference samples is performed selectively based on at least one of an intraprediction mode (for example, intraprediction mode index, directionality, angle, etc.) of the current block or the size of the intraprediction mode. a transform block related to the current block.

El filtrado en muestras de referencia se puede realizar utilizando un filtro intra predefinido en un codificador y un decodificador. Por ejemplo, se puede utilizar un filtro intra con un coeficiente de filtro de (1,2,1) o un filtro intra con un coeficiente de filtro de (2,3,6,3,2) para obtener muestras de referencia finales para su uso en la intrapredicción.Filtering on reference samples can be performed using a predefined intra filter on an encoder and decoder. For example, an intra filter with a filter coefficient of (1,2,1) or an intra filter with a filter coefficient of (2,3,6,3,2) can be used to obtain final reference samples for its use in intraprediction.

Alternativamente, al menos uno de una pluralidad de candidatos de filtro intra puede seleccionarse para realizar el filtrado en muestras de referencia. En este caso, la pluralidad de candidatos de filtro intra puede diferir entre sí en al menos uno de una intensidad de filtro, un coeficiente de filtro o un número de derivación (por ejemplo, un número de coeficientes de filtro, una longitud de filtro). Una pluralidad de candidatos de filtro intra puede definirse en al menos una de una secuencia, una imagen, un segmento o un nivel de bloque. Es decir, una secuencia, una imagen, un segmento o un bloque donde se incluye el bloque actual puede usar la misma pluralidad de candidatos de filtro intra.Alternatively, at least one of a plurality of intra filter candidates may be selected to perform filtering on reference samples. In this case, the plurality of intra filter candidates may differ from each other in at least one of a filter strength, a filter coefficient, or a tap number (eg, a number of filter coefficients, a filter length). A plurality of intra filter candidates may be defined at at least one of a sequence, image, slice or block level. That is, a sequence, an image, a segment or a block where the current block is included can use the same plurality of intra filter candidates.

De aquí en adelante, por conveniencia de explicación, se supone que una pluralidad de candidatos de filtro intra incluye un primer filtro intra y un segundo filtro intra. También se asume que el primer filtro intra es un filtro de 3 derivaciones (1,2,1)y el segundo filtro intra es un filtro de 5 derivaciones(2,3,6,3,2).Hereinafter, for convenience of explanation, it is assumed that a plurality of intra-filter candidates includes a first intra-filter and a second intra-filter. It is also assumed that the first intra filter is a 3-lead filter (1,2,1) and the second intra filter is a 5-lead filter (2,3,6,3,2).

Cuando las muestras de referencia se filtran aplicando un primer filtro intra, las muestras de referencia filtradas pueden derivarse como se muestra en la Ecuación 7.When the reference samples are filtered by applying a first intra filter, the filtered reference samples can be derived as shown in Equation 7.

Ecuación 7Equation 7

P ( - 1 1 ) = ( P ( - 1,0 )+ 2 P ( - 1 1 ) P ( 0 , - 1 ) 2 ) » 2 P ( - 1 1 ) = ( P ( - 1,0 )+ 2 P ( - 1 1 ) P ( 0 , - 1 ) 2 ) » 2

P ( - 1 ,y )= (P ( - 1,J, 1 ) 2 P ( - 1 ,y )+ p (- l ,y - l ) 2 ) » 2 P ( - 1 ,y )= ( P ( - 1,J, 1 ) 2 P ( - 1 ,y )+ p ( - l ,y - l ) 2 ) » 2

P(x,~ 1 ) = ( P O 1 1 ) 2 P O , - 1 ) P ( x - 11 ) 2 ) » 2 P ( x,~ 1 ) = ( PO 1 1 ) 2 PO , - 1 ) P ( x - 11 ) 2 ) » 2

Cuando las muestras de referencia se filtran aplicando el segundo filtro intra, las muestras de referencia filtradas pueden derivarse como se muestra en la siguiente ecuación 8.When the reference samples are filtered by applying the second intra filter, the filtered reference samples can be derived as shown in the following equation 8.

Ecuación 8Equation 8

PC- 1 1 )= (2 P ( -2 ,0 )+ 3 P ( - 1,0 ) 6 P ( - 1 1 ) 3 P ( 0 , - 1 ) 2 P ( 0 , - 2 ) 8 ) » 4 PC - 1 1 )= (2 P ( -2 ,0 )+ 3 P ( - 1,0 ) 6 P ( - 1 1 ) 3 P ( 0 , - 1 ) 2 P ( 0 , - 2 ) 8 ) » 4

PC- 1,> 0 = (2 P ( - l ,y 2 ) 3 P ( -1 , y + 1 ) 6 P ( - l , y ) 3 P ( - l , y - 1 )+ 2P ( - 1 , y - 2 ) 8 ) » 4 P ( x - 1 ) = ( 2 P O 2 , - 1 ) 3 P O 1,-1 ) 6 P ( x - 1 ) 3 P ( x - 11 ) 2 P ( x - 2 - 1 ) 8 ) » 4 PC - 1,> 0 = (2 P ( - l ,y 2 ) 3 P ( -1 , y + 1 ) 6 P ( - l , y ) 3 P ( - l , y - 1 )+ 2P ( - 1 , y - 2 ) 8 ) » 4 P ( x - 1 ) = ( 2 PO 2 , - 1 ) 3 PO 1,-1 ) 6 P ( x - 1 ) 3 P ( x - 11 ) 2 P ( x - 2 - 1 ) 8 ) » 4

En las ecuaciones anteriores 7 y 8, x puede ser un número entero entre 0 y 2N-2, e y puede ser un número entero entre 0 y 2N-2.In Equations 7 and 8 above, x can be an integer between 0 and 2N-2, and y can be an integer between 0 and 2N-2.

Alternativamente, en función de la posición de una muestra de referencia, se puede determinar uno de una pluralidad de candidatos de filtro intra, y el filtrado en la muestra de referencia se puede realizar utilizando el determinado. Por ejemplo, un primer filtro intra puede aplicarse a las muestras de referencia incluidas en un primer rango, y un segundo filtro intra puede aplicarse a muestras de referencia incluidas en un segundo rango. Aquí, el primer rango y el segundo rango se pueden distinguir en función de si están adyacentes a un límite de un bloque actual, ya sea que estén ubicados en el lado superior o en el lado izquierdo de un bloque actual, o si están adyacentes a una esquina de un bloque actual. Por ejemplo, como se muestra en la figura 12, filtrando en muestras de referencia (P(-1, -1), P(-1,0), P(-1,1), ... , P(-1, N-1) y P(0, -1), P(1, -1), ...) que son adyacentes a un límite del bloque actual se realiza aplicando un primer filtro intra como se muestra en la Ecuación 7, y el filtrado en las otras muestras de referencia que no son adyacentes a un límite del bloque actual se realiza aplicando un segundo filtro de referencia como se muestra en la Ecuación 8. Es posible seleccionar uno de una pluralidad de candidatos dentro del filtro en función del tipo de transformación utilizado para un bloque actual, y realizar el filtrado en muestras de referencia utilizando el seleccionado. Aquí, el tipo de transformación puede significar (1) un esquema de transformación tal como DCT, DST o KLT, (2) un indicador de modo de transformación tal como una transformación 2D, una transformación 1D o no transformada o (3) el número de transformaciones tales como una primera transformada y una segunda transformada. De aquí en adelante, por conveniencia de la descripción, se supone que el tipo de transformación significa el esquema de transformación tal como DCT, DST y KLT.Alternatively, depending on the position of a reference sample, you can determining one of a plurality of intra filter candidates, and filtering on the reference sample can be performed using the determined one. For example, a first intra filter may be applied to reference samples included in a first range, and a second intra filter may be applied to reference samples included in a second range. Here, the first rank and the second rank can be distinguished based on whether they are adjacent to a boundary of a current block, whether they are located on the top or left side of a current block, or whether they are adjacent to a corner of a current block. For example, as shown in Figure 12, filtering on reference samples (P(-1, -1), P(-1,0), P(-1,1), ... , P(-1 , N-1) and P(0, -1), P(1, -1), ...) that are adjacent to a boundary of the current block is performed by applying a first intra filter as shown in Equation 7, and filtering on the other reference samples that are not adjacent to a current block boundary is performed by applying a second reference filter as shown in Equation 8. It is possible to select one of a plurality of candidates within the filter based on the type of transformation used for a current block, and perform filtering on reference samples using the selected one. Here, the type of transformation can mean (1) a transformation scheme such as DCT, DST, or KLT, (2) a transformation mode indicator such as a 2D transformation, a 1D transformation, or no transformation, or (3) the number of transformations such as a first transform and a second transform. Hereinafter, for convenience of description, the transformation type is assumed to mean the transformation scheme such as DCT, DST and KLT.

Por ejemplo, si un bloque actual se codifica utilizando un DCT, el filtrado se puede realizar utilizando un primer filtro intra, y si un bloque actual se codifica utilizando un DST, el filtrado se puede realizar utilizando un segundo filtro intra. O, si un bloque actual se codifica utilizando DCT o DST, el filtrado se puede realizar utilizando un primer filtro intra, y si el bloque actual se codifica utilizando un KLT, el filtrado puede realizarse utilizando un segundo filtro intra.For example, if a current block is encoded using a DCT, filtering may be performed using a first intra-filter, and if a current block is encoded using a DST, filtering may be performed using a second intra-filter. Or, if a current block is encoded using DCT or DST, filtering may be performed using a first intra-filter, and if the current block is encoded using a KLT, filtering may be performed using a second intra-filter.

El filtrado se puede realizar utilizando un filtro seleccionado en función de un tipo de transformación de un bloque actual y una posición de una muestra de referencia. Por ejemplo, si un bloque actual se codifica utilizando un DCT, filtrando en las muestras de referencia P(-1, -1), P(-1,0), P(-1,1)___P(-1, N-1) y P(0, -1), P(1, -1), ... , P(N-1, -1) se puede realizar utilizando un primer filtro intra, y el filtrado en otras muestras de referencia se puede realizar utilizando un segundo filtro intra. Si un bloque actual se codifica utilizando un DST, filtrando en las muestras de referencia P(-1, -1), P(-1,0), P(-1,1), ... , P(-1, N-1) y P(0, -1), P(1, -1), ... , P(N-1, -1) se puede realizar utilizando un segundo filtro intra, y el filtrado en otras muestras de referencia se puede realizar utilizando un primer filtro intra.Filtering can be performed using a selected filter based on a transformation type of a current block and a position of a reference sample. For example, if a current block is encoded using a DCT, filtering on the reference samples P(-1, -1), P(-1,0), P(-1,1)___P(-1, N- 1) and P(0, -1), P(1, -1), ... , P(N-1, -1) can be performed using a first intra filter, and filtering on other reference samples is can be done using a second intra filter. If a current block is encoded using a DST, filtering on the reference samples P(-1, -1), P(-1,0), P(-1,1), ... , P(-1, N- 1) and P(0, -1), P(1, -1), ... , P(N-1, -1) can be performed using a second intra filter, and filtering on other reference samples can be can be done using a first intra filter.

Se puede seleccionar uno de una pluralidad de candidatos de filtro intra en función de si un tipo de transformación de un bloque vecino que incluye una muestra de referencia es el mismo que un tipo de transformación de un bloque actual, y el filtrado puede realizarse utilizando el candidato intrafiltro seleccionado. Por ejemplo, cuando un bloque actual y un bloque vecino usan el mismo tipo de transformación, el filtrado se realiza utilizando un primer filtro intra, y cuando los tipos de transformación de un bloque actual y de un bloque vecino son diferentes entre sí, el segundo filtro intra puede ser usado para realizar el filtrado.One of a plurality of intra filter candidates can be selected based on whether a transformation type of a neighboring block including a reference sample is the same as a transformation type of a current block, and filtering can be performed using the selected intrafilter candidate. For example, when a current block and a neighbor block use the same transformation type, filtering is performed using a first intra filter, and when the transformation types of a current block and a neighbor block are different from each other, the second intra filter can be used to perform filtering.

Es posible seleccionar cualquiera de una pluralidad de candidatos de filtro intra en función del tipo de transformación de un bloque vecino y realizar el filtrado en una muestra de referencia utilizando el seleccionado. Es decir, se puede seleccionar un filtro específico considerando un tipo de transformación de un bloque donde se incluye una muestra de referencia. Por ejemplo, como se muestra en la figura 13, si un bloque adyacente a la izquierda/abajo a la izquierda de un bloque actual es un bloque codificado usando un DCT, y un bloque adyacente a la parte superior/parte superior derecha de un bloque actual es un bloque codificado usando un DST, filtrando muestras de referencia adyacentes a la izquierda/abajo a la izquierda de un bloque actual se realiza mediante la aplicación de un primer filtro intra y el filtrado en las muestras de referencia adyacentes a la parte superior/parte superior derecha de un bloque actual se realiza mediante la aplicación de un segundo filtro intra.It is possible to select any of a plurality of intra filter candidates based on the transformation type of a neighboring block and perform filtering on a reference sample using the selected one. That is, a specific filter can be selected considering a type of transformation of a block where a reference sample is included. For example, as shown in Figure 13, if a block adjacent to the left/bottom left of a current block is a block encoded using a DCT, and a block adjacent to the top/top right of a block is a block encoded using a DST, filtering adjacent reference samples to the left/bottom left of a current block is done by applying a first intra filter and filtering on the reference samples adjacent to the top/bottom left of a current block. top right of a current block is done by applying a second intra filter.

En unidades de una región predeterminada, se puede definir un filtro utilizable en la región correspondiente. Aquí, la unidad de la región predeterminada puede ser cualquiera de una secuencia, una imagen, un sector, un grupo de bloques (por ejemplo, una fila de unidades de árbol de codificación) o un bloque (por ejemplo, una unidad de árbol de codificación) o, se puede definir otra región que comparte uno o más filtros. Una muestra de referencia se puede filtrar utilizando un filtro asignado a una región en la que se incluye un bloque actual.In units of a default region, a usable filter can be defined in the corresponding region. Here, the unit of the default region can be any of a sequence, an image, a sector, a group of blocks (for example, a row of encoding tree units), or a block (for example, an encoding tree unit). encoding) or, another region can be defined that shares one or more filters. A reference sample can be filtered using a filter assigned to a region in which a current block is included.

Por ejemplo, como se muestra en la figura 14, es posible realizar el filtrado en muestras de referencia utilizando diferentes filtros en unidades CTU. En este caso, la información que indica si se usa el mismo filtro en una secuencia o en una imagen, un tipo de filtro usado para cada CTU, un índice que especifica un filtro usado en la CTU correspondiente entre los candidatos de filtro intra disponibles puede señalizarse mediante una secuencia conjunto de parámetros (SPS) o un conjunto de parámetros de imagen (PPS).For example, as shown in Figure 14, it is possible to perform filtering on reference samples using different filters in CTU units. In this case, information indicating whether the same filter is used in a sequence or in an image, a type of filter used for each CTU, an index specifying a filter used in the corresponding CTU among the available intra filter candidates can be be signaled by a Sequence Parameter Set (SPS) or a Picture Parameter Set (PPS).

El filtro intra descrito anteriormente se puede aplicar en unidades de una unidad de codificación. Por ejemplo, el filtrado puede realizarse aplicando un primer filtro intra o un segundo filtro intra para hacer referencia a muestras alrededor de una unidad de codificación.The intra filter described above can be applied in units of one coding unit. For example, filtering can be performed by applying a first intra-filter or a second intra-filter to refer to samples around a coding unit.

Cuando se determina un modo de intrapredicción de un bloque actual, la intrapredicción se puede realizar utilizando una muestra de referencia adyacente al bloque actual. Por ejemplo, las muestras de predicción de un bloque actual pueden generarse promediando muestras de referencia, o pueden generarse duplicando muestras de referencia en una dirección específica considerando una direccionalidad de un modo de intrapredicción. Como se describió anteriormente en un ejemplo que se refiere a la figura 11, P(-1, -1), P(-1, y) (0 <= y <= 2N-1), P(x, -1) (0 <= x <= 2N-1) que están ubicados en el límite de un bloque actual puede usarse como muestras de referencia.When an intra-prediction mode of a current block is determined, the intra-prediction can be performed using a reference sample adjacent to the current block. For example, the prediction samples of a current block can be generated by averaging reference samples, or they can be generated by duplicating reference samples in a specific direction considering a directionality of an intra-prediction mode. As described above in an example referring to Figure 11, P(-1, -1), P(-1, y) (0 <= y <= 2N-1), P(x, -1) (0 <= x <= 2N-1) that are located on the boundary of a current block can be used as reference samples.

Cuando se determina que una muestra incluida en un bloque vecino adyacente a un bloque actual no está disponible como muestra de referencia, la muestra que no está disponible puede reemplazarse con una muestra de referencia que esté disponible. Por ejemplo, una muestra vecina puede determinarse como no disponible en el caso de que una posición de una muestra incluida en un bloque vecino esté fuera de una imagen, una muestra incluida en un bloque vecino esté presente en una porción diferente de un bloque actual o una muestra incluido en un bloque vecino se incluye en un bloque codificado mediante una intrapredicción. Aquí, si una muestra incluida en un bloque codificado mediante una predicción no está disponible, se puede determinar en función de la información que indica si se debe usar una muestra incluida en un bloque codificado mediante una predicción como una muestra de referencia cuando se realiza una intrapredicción de un bloque actual. En este caso, la información puede ser un indicador de 1 bit (por ejemplo, 'restricta_intra_prediction_flag'), pero no se limita a eso. Por ejemplo, cuando un valor de 'restricta_intra_prediction_flag' es 1, se puede determinar que una muestra incluida en un bloque codificado mediante una predicción no está disponible como una muestra de referencia. De aquí en adelante, una muestra que no se puede utilizar como muestra de referencia se denominará muestra de referencia no disponible.When a sample included in a neighboring block adjacent to a current block is determined to be unavailable as a reference sample, the unavailable sample may be replaced with an available reference sample. For example, a neighboring sample may be determined to be unavailable in the case that a position of a sample included in a neighboring block is outside of an image, a sample included in a neighboring block is present in a different portion of a current block, or a sample included in a neighboring block is included in a coded block using an intra-prediction. Here, if a sample included in a prediction-coded block is not available, it can be determined based on information indicating whether a sample included in a prediction-coded block should be used as a reference sample when performing a prediction. intraprediction of a current block. In this case, the information may be a 1-bit flag (eg 'restricta_intra_prediction_flag'), but is not limited to that. For example, when a value of 'restricta_intra_prediction_flag' is 1, it can be determined that a sample included in a block coded by a prediction is not available as a reference sample. Hereinafter, a sample that cannot be used as a reference sample will be called a non-available reference sample.

En el ejemplo mostrado en la figura 11, cuando se determina que una muestra ubicada en el extremo inferior izquierdo (por ejemplo, P(-1, 2N-1)) no está disponible, la muestra ubicada en el extremo inferior izquierdo puede reemplazarse con una primera muestra de referencia disponible en la que primero se busque escanear las muestras disponibles en un orden predeterminado. Aquí, el orden de escaneo se puede realizar secuencialmente desde una muestra adyacente a la muestra inferior izquierda. Por ejemplo, en el ejemplo mostrado en la figura 11, cuando una muestra P(-1, 2N-1) no está disponible, la exploración puede realizarse en un orden de P(-1, -2N-2) a P(-1, -1), P(-1) a P(2N-1, -1). P(-1, 2N-1) puede reemplazarse con una primera muestra de referencia disponible que se encuentra como resultado del escaneo.In the example shown in Figure 11, when a lower left sample (for example, P(-1, 2N-1)) is determined to be unavailable, the lower left sample can be replaced with a first available reference sample that first seeks to scan the available samples in a predetermined order. Here, the scan order can be performed sequentially from an adjacent sample to the lower left sample. For example, in the example shown in Figure 11, when a sample P(-1, 2N-1) is not available, the scan can be performed in an order from P(-1, -2N-2) to P(- 1, -1), P(-1) to P(2N-1, -1). P(-1, 2N-1) can be replaced with a first available reference sample found as a result of the scan.

Cuando una muestra de referencia izquierda, excepto una muestra de referencia ubicada en el extremo inferior izquierdo no está disponible, la muestra de referencia izquierda puede reemplazarse con una muestra de referencia adyacente a una parte inferior de la muestra de referencia izquierda. Por ejemplo, una muestra de referencia no disponible P(-1, y) entre P(-1, 2N-1) y P(-1, -1) puede reemplazarse con una muestra de referencia P(-1, y 1).When a left reference sample, except a reference sample located in the lower left corner is not available, the left reference sample may be replaced with a reference sample adjacent to a lower part of the left reference sample. For example, an unavailable reference sample P(-1, y) between P(-1, 2N-1) and P(-1, -1) can be replaced with a reference sample P(-1, y 1) .

Cuando una muestra de referencia superior no está disponible, la muestra de referencia superior puede reemplazarse con una muestra de referencia adyacente a la izquierda de la muestra de referencia superior. Por ejemplo, una muestra de referencia no disponible P (x, -1) entre P(0, -1) y P(2N-1, -1) puede reemplazarse con una muestra de referencia P(x-1, -1).When an upper reference sample is not available, the upper reference sample can be replaced with an adjacent reference sample to the left of the upper reference sample. For example, an unavailable reference sample P(x, -1) between P(0, -1) and P(2N-1, -1) can be replaced with a reference sample P(x-1, -1) .

Un conjunto de muestras de referencia para un bloque actual puede denominarse "línea de referencia" (o "línea de intrareferencia" o "línea de muestra de referencia"). Aquí, la línea de referencia puede incluir un conjunto de muestras de referencia compuestas de una fila y una columna. Por ejemplo, en el ejemplo mostrado en la figura 11, una 'línea de referencia' un conjunto de muestras de referencia que incluye P(-1, 2N-1) a P(-1, 1), P(0, -1) a P(2N-2, -1). Se puede realizar una intrapredicción de un bloque actual en base a las muestras de referencia incluidas en una línea de referencia. Se puede realizar una intrapredicción de un bloque actual, utilizando muestras de referencia incluidas en una línea de referencia, en función de un modo de intrapredicción de un bloque actual, por ejemplo, cuando un modo de intrapredicción de un bloque actual es un modo CC, se puede generar una señal de predicción utilizando una predicción ponderada y promedio de las muestras de referencia incluidas en la línea de referencia. Por ejemplo, cuando un modo de intrapredicción de un bloque actual es un modo CC, se pueden obtener muestras de predicción del bloque actual de acuerdo con la Ecuación 9.A set of reference samples for a current block may be called a "reference line" (or "intrareference line" or "reference sample line"). Here, the reference line may include a set of reference samples made up of one row and one column. For example, in the example shown in Figure 11, a 'reference line' is a set of reference samples including P(-1, 2N-1) to P(-1, 1), P(0, -1 ) to P(2N-2, -1). An intraprediction of a current block can be made based on the samples of reference included in a reference line. An intra-prediction of a current block, using reference samples included in a reference line, may be performed based on an intra-prediction mode of a current block, for example, when an intra-prediction mode of a current block is a CC mode, a prediction signal can be generated using a weighted prediction and average of the reference samples included in the reference line. For example, when an intra-prediction mode of a current block is a CC mode, prediction samples of the current block can be obtained according to Equation 9.

Ecuación 9Equation 9

Figure imgf000041_0001
Figure imgf000041_0001

En la Ecuación 9, dcVal puede generarse en base a un valor promedio de muestras, excepto P(-1, -1) entre las muestras de referencia incluidas en una línea de referencia.In Equation 9, dcVal can be generated based on an average value of samples, except P(-1, -1) among the reference samples included in a reference line.

Un modo plano proporciona una eficacia de predicción efectiva en un área suave que no tiene bordes fuertes, y es eficaz para mejorar la discontinuidad del límite del bloque o el deterioro de la calidad de la imagen de un límite del bloque. Cuando un modo de intrapredicción de un bloque actual es un modo plano, se puede obtener una muestra de predicción provisional en dirección horizontal del bloque actual utilizando una muestra de referencia adyacente a una esquina superior derecha del bloque actual y una muestra de referencia que tenga una coordenada y idéntica a la muestra de predicción provisional en dirección horizontal, y se puede obtener una muestra de predicción provisional en dirección vertical del bloque actual utilizando una muestra de referencia adyacente a una esquina inferior izquierda del bloque actual y una muestra de referencia con una coordenada x idéntica a la muestra de predicción provisional en dirección vertical. Por ejemplo, se puede obtener una muestra de predicción provisional en dirección horizontal y una muestra de predicción provisional en dirección vertical de un bloque actual de acuerdo con la Ecuación 10. A flat mode provides effective prediction efficiency in a smooth area that does not have strong edges, and is effective for improving block boundary discontinuity or image quality deterioration of a block boundary. When an intraprediction mode of a current block is a flat mode, an interim prediction sample in the horizontal direction of the current block can be obtained by using a reference sample adjacent to an upper right corner of the current block and a reference sample having a coordinate and identical to the provisional prediction sample in the horizontal direction, and a provisional prediction sample in the vertical direction of the current block can be obtained by using a reference sample adjacent to a lower left corner of the current block and a reference sample with a coordinate x identical to the interim forecast sample in the vertical direction. For example, one provisional prediction sample in the horizontal direction and one provisional prediction sample in the vertical direction can be obtained from a current block according to Equation 10.

cuac nquack n

Ph(x,y) = ( N - l - x ) *P(—l,y) ( x 1 ) * P(N, —1)Ph(x,y) = ( N - l - x ) *P(—l,y) ( x 1 ) * P(N, —1)

PP 1717 (x,y) = (N — 1 — y) * P ( x , - l ) ( y 1 ) * P(-1,N)(x,y) = (N — 1 — y) * P ( x , - l ) ( y 1 ) * P(-1,N)

Se puede generar una muestra de predicción de un bloque actual sumando una muestra de predicción provisional en dirección horizontal y una muestra de predicción provisional en dirección vertical, y luego cambiando el resultado de la suma por un valor determinado de acuerdo con el tamaño de un bloque actual. Por ejemplo, una muestra de predicción de un bloque actual se puede obtener de acuerdo con la Ecuación 11.A prediction sample of a current block can be generated by adding an interim prediction sample in the horizontal direction and an interim prediction sample in the vertical direction, and then changing the sum result to a given value according to the size of a block current. For example, a prediction sample of a current block can be obtained according to Equation 11.

Ecuación 11Equation 11

P(x,y) = (Ph(x,y) Pv(x,y) N ) » (log2{N) 1)P(x,y) = (Ph(x,y) Pv(x,y) N ) » ( log2{N ) 1)

Se puede realizar una intrapredicción de un bloque actual utilizando una pluralidad de líneas de referencia. Suponiendo que un bloque actual tiene un tamaño WxH, la línea de referencia k-ésima puede incluir p(-k, -k), muestras de referencia ubicadas en una fila idénticas a p(-k, -k) (por ejemplo, muestras de referencia de p( k 1, -k) a p(W H 2 (k-1), -k) o muestras de referencia de p(-k 1, -k) a p(2W 2 (k-1), -k)) y muestras de referencia ubicadas en una columna idéntica a p(-k, -k) (por ejemplo, muestras de referencia de p(-k, -k 1) a p(-k, W H 2 (k -1)) o muestras de referencia de p (-k, -k 1) a p(-k, 2H 2 (k-1))).An intra-prediction of a current block can be performed using a plurality of reference lines. Assuming that a current block has size WxH, the kth reference line can include p(-k, -k), reference samples located in a row identical to p(-k, -k) (for example, samples of reference from p( k 1, -k) to p(W H 2 (k-1), -k) or reference samples from p(-k 1, -k) to p(2W 2 (k-1), -k) ) and reference samples located in a column identical to p(-k, -k) (for example, reference samples from p(-k, -k 1) to p(-k, W H 2 (k -1)) or samples from p(-k, -k 1) to p(-k, 2H 2 (k-1))).

La figura 15 ejemplifica una pluralidad de líneas de muestra de referencia. Como en el ejemplo mostrado en la figura 15, cuando una primera línea de referencia adyacente a un límite de un bloque actual se denomina "línea de referencia 0", la línea de referencia k-ésima puede establecerse adyacente a la línea de referencia (k-1)-ésima.Fig. 15 exemplifies a plurality of reference sample lines. As in the example shown in Fig. 15, when a first reference line adjacent to a boundary of a current block is called "reference line 0", the kth reference line may be set adjacent to reference line (k -1)-th.

Alternativamente, a diferencia del ejemplo mostrado en la figura 15, también es posible configurar todas las líneas de referencia para que tengan el mismo número de muestras de referencia.Alternatively, unlike the example shown in Figure 15, it is also possible to set all reference lines to have the same number of reference samples.

Una intrapredicción de un bloque actual puede realizarse al menos por una de una pluralidad de líneas de referencia. Un método para realizar una intrapredicción utilizando una pluralidad de líneas de referencia como se describió anteriormente puede denominarse "método de intrapredicción usando una muestra de referencia extendida" o "método de intrapredicción extendida". Además, se puede hacer referencia a una pluralidad de líneas de referencia como una 'línea de referencia extendida'.An intra-prediction of a current block can be made by at least one of a plurality of reference lines. A method for performing an intraprediction using a plurality of baselines as described above may be referred to as the "intra-forecast method using an extended reference sample" or the "extended intra-forecast method". In addition, a plurality of reference lines may be referred to as an 'extended reference line'.

El hecho de realizar o no la intrapredicción utilizando una línea de referencia extendida puede determinarse basándose en la información señalizada a través de un flujo de bits. Aquí, la información puede ser un indicador de 1 bit, pero no se limita a ello. La información sobre si realizar la intrapredicción utilizando una línea de referencia extendida se puede señalar en unidades de una unidad de árbol de codificación, una unidad de codificación o una unidad de predicción, o se puede señalar en unidades de una secuencia, una imagen o un segmento. Es decir, si realizar la intrapredicción utilizando la línea de referencia extendida puede determinarse en unidades de una secuencia, una imagen, una porción, una CTU, una CU o una PU.Whether or not to perform intra-prediction using an extended reference line can be determined based on the information signaled via a bit stream. Here, the information may be, but is not limited to, a 1-bit flag. The information about whether to intrapredict using an extended reference line can be reported in units of a coding tree unit, a coding unit, or a prediction unit, or it can be reported in units of a sequence, a picture, or a segment. That is, whether to intrapredict using the extended baseline can be determined in units of a sequence, a picture, a slice, a CTU, a CU, or a PU.

Alternativamente, el hecho de realizar o no la intrapredicción utilizando una línea de referencia extendida puede determinarse en función de al menos uno de los modos de tamaño, forma, profundidad o intrapredicción de un bloque actual.Alternatively, whether or not to intrapredict using an extended reference line may be determined based on at least one of the current block size, shape, depth, or intraprediction modes.

Cuando se determina realizar la intrapredicción utilizando una línea de referencia extendida, se puede determinar un número de líneas de referencia. Aquí, varias líneas de referencia pueden tener un valor fijo, y pueden determinarse de forma adaptativa según el tamaño, la forma o el modo de intrapredicción de un bloque actual. Por ejemplo, cuando un modo de intrapredicción de un bloque actual es un modo no direccional, la intrapredicción del bloque actual se realiza utilizando una línea de referencia. Cuando un modo de intrapredicción de un bloque actual es un modo direccional, la intrapredicción del bloque actual se puede realizar utilizando una pluralidad de líneas de referencia.When it is determined to perform intra-prediction using an extended reference line, a number of reference lines can be determined. Here, several reference lines may have a fixed value, and may be adaptively determined based on the size, shape, or intraprediction mode of a current block. For example, when an intra-prediction mode of a current block is a non-directional mode, the intra-prediction of the current block is performed using a reference line. When an intra-prediction mode of a current block is a directional mode, the intra-prediction of the current block can be performed using a plurality of reference lines.

Para un ejemplo adicional, un número de líneas de referencia puede ser determinado por la información que se señala en unidades de una secuencia, una imagen, una porción o una unidad a ser decodificada. Aquí, la unidad a decodificar puede representar una unidad de árbol de codificación, una unidad de codificación, una unidad de transformación, una unidad de predicción, o similar. Por ejemplo, un elemento de sintaxis 'max_intra_line_idx_minus2' que indica un número de líneas de referencia disponibles disponibles en una secuencia o un segmento puede ser señalizado a través de un encabezado de secuencia o un encabezado de segmento. En este caso, el número de líneas de referencia disponibles se puede establecer en max_intra_line_idx_minus2 2.For a further example, a number of reference lines can be determined by the information that is indicated in units of a sequence, an image, a slice or a unit to be decoded. Here, the unit to be decoded may represent a coding tree unit, a coding unit, a transformation unit, a prediction unit, or the like. For example, a syntax element 'max_intra_line_idx_minus2' indicating a number of available reference lines available in a sequence or a segment can be signaled via a sequence header or a segment header. In this case, the number of reference lines available can be set to max_intra_line_idx_minus2 2.

A continuación, se describirá con detalle un método para realizar la intrapredicción utilizando una línea de referencia extendida.Next, a method for performing intra-forecasting using an extended baseline will be described in detail.

La figura 16 es un diagrama de flujo que ilustra un método para realizar la intrapredicción utilizando una línea de referencia extendida según la presente invención.Fig. 16 is a flow chart illustrating a method for performing intra-prediction using an extended baseline in accordance with the present invention.

Primero, un decodificador puede generar una pluralidad de líneas de referencia (S1610). Las muestras de referencia incluidas en cada línea de referencia pueden generarse en base a las muestras reconstruidas incluidas en bloques descodificados antes que un bloque actual.First, a decoder can generate a plurality of reference lines (S1610). The reference samples included in each reference line may be generated based on the reconstructed samples included in blocks decoded before a current block.

Cuando un modo de intrapredicción de un bloque actual es un modo direccional, un decodificador puede generar una línea de referencia considerando una direccionalidad del modo de intrapredicción. Considerando la direccionalidad de un modo de intrapredicción, puede incluirse un mayor número de muestras de referencia en la línea de referencia k-ésima que en la línea de referencia (k-1)-ésima. Es decir, una línea de referencia alejada de un bloque actual puede incluir un número mayor de muestras de referencia que una línea de referencia cerca del bloque actual.When an intra-prediction mode of a current block is a directional mode, a decoder may generate a reference line considering a directionality of the intra-prediction mode. Considering the directionality of an intra-prediction mode, a larger number of reference samples can be included in the k-th reference line than in the (k-1)-th reference line. That is, a reference line far from a current block may include a greater number of reference samples than a reference line near the current block.

Aquí, varias muestras de referencia incluidas además en la línea de referencia késima que en la línea de referencia (k-1)-ésima pueden determinarse de manera variable según un tamaño, una forma o un modo de intrapredicción de un bloque actual.Here, several reference samples included further in the k-th reference line than in the (k-1)-th reference line can be variably determined according to a size, a shape or an intra-prediction mode of a current block.

Por ejemplo, cuando un bloque actual tiene un tamaño de 4x4, la línea de referencia k-ésima puede incluir además cuatro muestras de referencia (específicamente, 2 en dirección horizontal y 2 en dirección vertical) que la línea de referencia (k-1)-ésima. Además, cuando un bloque actual tiene un tamaño de 8x8, la línea de referencia k-ésima puede incluir además ocho muestras de referencia (específicamente, 4 en dirección horizontal y 4 en dirección vertical) que la línea de referencia (k-1)-ésima. For example, when a current block has a size of 4x4, the k-th reference line may include four more reference samples (specifically, 2 in the horizontal direction and 2 in the vertical direction) than the reference line (k-1). -th. In addition, when a current block has a size of 8x8, the k-th reference line may further include eight reference samples (specifically, 4 in the horizontal direction and 4 in the vertical direction) than the reference line (k-1)- th

Con referencia a la figura 15, como el tamaño de un bloque actual es 4x4, se ejemplifica que una primera línea de referencia incluye un total de 9 muestras de referencia y una segunda línea de referencia incluye un total de 13 (= 9 2x2) muestras de referencia.Referring to Fig. 15, since the size of a current block is 4x4, it is exemplified that a first reference line includes a total of 9 reference samples and a second reference line includes a total of 13 (= 9 2x2) samples. reference.

Cuando un bloque actual no es cuadrado, se pueden determinar varias muestras de referencia incluidas en una línea de referencia de acuerdo con las longitudes horizontales y verticales de un bloque actual.When a current block is not square, multiple reference samples included in a reference line can be determined according to the horizontal and vertical lengths of a current block.

Por ejemplo, la figura 17 es un diagrama que ejemplifica una pluralidad de líneas de referencia para un bloque no cuadrado. Describiendo con las figuras 15 y 17, a medida que el ancho de un bloque actual disminuye a 1/2, un número de muestras de referencia superior excepto una muestra de referencia superior izquierda incluida en una línea de referencia 0 se reduce de 8 a 4.For example, Fig. 17 is a diagram exemplifying a plurality of reference lines for a non-square block. Describing with Figures 15 and 17, as the width of a current block decreases to 1/2, a number of upper reference samples except one upper left reference sample included in a reference line 0 is reduced from 8 to 4. .

Es decir, según las figuras 15 y 17, cuando se supone que un bloque actual tiene un tamaño WxH, la línea de referencia k-ésima puede incluir un total de 2{(W H)+ 2(k-1)}+1 muestras de referencia que incluyen W H 2(k-1) muestras de referencia superior (o 2W 2(k-1) muestras de referencia superior) (es decir, muestras de referencia en dirección horizontal), W H 2(k-1) muestras de referencia izquierda (o 2H 2(k-1) muestras de referencia izquierda (es decir, muestras de referencia en dirección vertical) y muestra de referencia superior izquierda.That is, according to Figures 15 and 17, when a current block is assumed to have size WxH, the kth reference line can include a total of 2{(W H)+ 2(k-1)}+1 samples. reference samples including W H 2(k-1) upper reference samples (or 2W 2(k-1) upper reference samples) (i.e., reference samples in the horizontal direction), W H 2(k-1) upper reference samples left reference (or 2H 2(k-1) left reference samples (ie, reference samples in vertical direction) and upper left reference sample.

Si una muestra de referencia que no está disponible se incluye en una línea de referencia, la muestra de referencia no disponible puede reemplazarse con una muestra de referencia disponible cercana. En este momento, la muestra vecina que reemplaza la muestra de referencia no disponible puede incluirse en una misma línea de referencia que la muestra de referencia no disponible, o puede incluirse en la línea de referencia diferente de la muestra de referencia no disponible.If a reference sample that is not available is included in a reference line, the missing reference sample can be replaced with a nearby available reference sample. At this time, the neighboring sample that replaces the missing reference sample may be included in the same baseline as the missing reference sample, or may be included in a different baseline than the missing reference sample.

Por ejemplo, si una posición de una muestra de referencia está fuera de una imagen o en un sector diferente de un bloque actual cuando se realiza la intrapredicción utilizando una línea de referencia extendida o si se incluye una muestra de referencia en un bloque codificado mediante interpredicción cuando la intrapredicción se realiza utilizando una línea de referencia extendida, la muestra de referencia puede determinarse como no disponible. La muestra de referencia incluida en un bloque codificado mediante interpredicción puede determinarse como no disponible cuando se establece que una muestra de referencia incluida en un bloque codificado mediante interpredicción no se usa (por ejemplo, solo cuando el valor de restriccion_intra_predicción_flag es 0). O, si se establece que un bloque codificado mediante intrapredicción debe decodificarse antes que un bloque codificado mediante interpredicción, el bloque codificado mediante interpredicción aún no se puede reconstruir cuando el bloque codificado mediante intrapredicción. En consecuencia, una muestra de referencia incluida en el bloque codificado mediante interpredicción puede determinarse como no disponible.For example, if a reference sample position is outside of an image or in a different sector of a current block when intrapredicting using an extended reference line, or if a reference sample is included in an interprediction-encoded block when the intraprediction is made using an extended reference line, the sample of reference may be determined to be unavailable. The reference sample included in an interprediction coded block may be determined to be unavailable when a reference sample included in an interprediction coded block is set to be unused (eg only when the value of constraint_intra_prediction_flag is 0). Or, if it is established that an intraprediction coded block should be decoded before an interprediction coded block, the interprediction coded block still cannot be reconstructed when the intraprediction coded block is. Consequently, a reference sample included in the interprediction coded block may be determined to be unavailable.

Una muestra de referencia utilizada para reemplazar una muestra de referencia no disponible puede determinarse considerando una posición de la muestra de referencia no disponible, una distancia entre la muestra de referencia no disponible y la muestra de referencia disponible, o similar. Por ejemplo, una muestra no disponible puede reemplazarse con una muestra disponible que tenga una distancia más corta que la muestra de referencia no disponible. Es decir, una muestra de referencia disponible que tiene la distancia más corta y se selecciona comparando una distancia (primer desplazamiento) entre una muestra de referencia disponible incluida en la misma línea de referencia con la muestra de referencia no disponible y la muestra no disponible y una distancia (segundo desplazamiento) entre una muestra de referencia disponible incluida en una línea de referencia diferente de la muestra de referencia no disponible y la muestra no disponible puede sustituirse por la muestra de referencia no disponible.A reference sample used to replace an unavailable reference sample may be determined by considering a position of the unavailable reference sample, a distance between the unavailable reference sample and the available reference sample, or the like. For example, a missing sample can be replaced with an available sample that is a shorter distance than the missing reference sample. That is, an available reference sample having the shortest distance and is selected by comparing a distance (first offset) between an available reference sample included on the same reference line with the unavailable reference sample and the unavailable sample and a distance (second offset) between an available reference sample included in a different reference line than the non-available reference sample and the non-available sample may be replaced by the non-available reference sample.

En el ejemplo mostrado en la figura 18, se representa que una distancia entre la muestra de referencia no disponible incluida en la línea de referencia 0 y la muestra de referencia disponible incluida en la línea de referencia 0 es 4, y una distancia entre la muestra de referencia no disponible incluida en la línea de referencia 0 y el disponible La muestra de referencia incluida en la línea de referencia 2 es 2. Por consiguiente, la muestra no disponible incluida en la línea de referencia 0 puede sustituirse utilizando la muestra de referencia disponible incluida en la línea de referencia 2.In the example shown in Fig. 18, a distance between the unavailable reference sample included in reference line 0 and the available reference sample included in reference line 0 is represented to be 4, and a distance between the reference sample The unavailable reference sample included in baseline 0 and the available The reference sample included in baseline 2 is 2. Therefore, the unavailable sample included in baseline 0 can be substituted using the available reference sample included in baseline 2.

Si un primer desplazamiento y un segundo desplazamiento son iguales, una muestra de referencia no disponible puede reemplazarse utilizando una muestra de referencia disponible incluida en la misma línea de referencia que la muestra de referencia no disponible.If a first offset and a second offset are equal, a missing reference sample may be replaced by using an available reference sample included on the same reference line as the reference sample. reference not available.

Una muestra de referencia no disponible puede reemplazarse utilizando una muestra de referencia disponible incluida en una línea de referencia diferente de la muestra de referencia no disponible solo cuando hay una distancia (es decir, un primer desplazamiento) entre una muestra disponible incluida en la misma línea de referencia que la muestra de referencia no disponible y la muestra de referencia no disponible es igual o mayor que N. Alternativamente, incluso cuando el primer desplazamiento es igual o mayor que N, se puede usar una muestra de referencia disponible incluida en una línea de referencia diferente de una muestra de referencia no disponible para reemplazar la referencia no disponible muestrear solo cuando un segundo desplazamiento es más pequeño que el primer desplazamiento. Aquí, N puede representar un número entero de 1 o más.An unavailable reference sample may be replaced using an available reference sample included on a different reference line from the unavailable reference sample only when there is a distance (i.e., a first offset) between an available sample included on the same line than the reference sample not available and the reference sample not available is equal to or greater than N. Alternatively, even when the first offset is equal to or greater than N, an available reference sample included in a reference line may be used. reference different from a reference unavailable sample to override the reference unavailable sample only when a second offset is smaller than the first offset. Here, N can represent an integer of 1 or more.

Si un primer desplazamiento no es igual o mayor que N, una muestra de referencia no disponible puede reemplazarse utilizando una muestra de referencia disponible incluida en la misma línea de referencia que la muestra de referencia no disponible.If a first offset is not equal to or greater than N, a missing reference sample may be replaced by using an available reference sample included on the same reference line as the missing reference sample.

Las figuras 19 y 20 muestran un ejemplo donde una muestra de referencia no disponible se reemplaza con una muestra de referencia disponible cuando N es 2. Si la distancia entre una muestra de referencia no disponible incluida en la línea de referencia 0 y una muestra de referencia disponible incluida en la línea de referencia 0 es 2, como en el ejemplo mostrado en la figura 19, la muestra de referencia no disponible incluida en la línea de referencia 0 puede reemplazarse utilizando una muestra de referencia disponible incluida en la línea de referencia 1.Figures 19 and 20 show an example where an unavailable reference sample is replaced with an available reference sample when N is 2. If the distance between an unavailable reference sample included in reference line 0 and a reference sample available included in reference line 0 is 2, as in the example shown in Figure 19, the unavailable reference sample included in reference line 0 can be replaced using an available reference sample included in reference line 1.

Por otro lado, si una distancia entre una muestra de referencia no disponible incluida en la línea de referencia 0 y una muestra de referencia disponible incluida en la línea de referencia 0 es 1, como en el ejemplo que se muestra en la figura 20, la muestra de referencia no disponible incluida en la línea de referencia 0 puede reemplazarse utilizando la muestra de referencia disponible incluida en la línea de referencia 0.On the other hand, if a distance between an unavailable reference sample included in reference line 0 and an available reference sample included in reference line 0 is 1, as in the example shown in Fig. 20, the unavailable reference sample included in baseline 0 can be replaced using the available reference sample included in baseline 0.

Una muestra de referencia no disponible puede reemplazarse utilizando una muestra de referencia disponible incluida en la misma línea de referencia que la muestra de referencia no disponible o una muestra de referencia disponible incluida en una línea de referencia adyacente a una línea de referencia en la que se incluye la muestra de referencia no disponible. Aquí, una línea de referencia adyacente a una línea de referencia en la que se incluye la muestra de referencia no disponible puede referirse a una línea de referencia que tiene una diferencia de índice de 1 desde la línea de referencia, incluida la muestra de referencia no disponible. Alternativamente, la muestra de referencia no disponible puede reemplazarse con una muestra de referencia disponible incluida en una línea de referencia que tenga una diferencia de índice de dos o más de la línea de referencia, incluida la muestra de referencia no disponible.An unavailable reference sample may be replaced by using an available reference sample included in the same reference line as the unavailable reference sample or an available reference sample included in a reference line adjacent to a reference line on which includes reference sample not available. Here, a reference line adjacent to a reference line in which the missing reference sample is included may refer to a reference line that has an index difference of 1 from the reference line, including the unavailable reference sample. available. Alternatively, the missing reference sample may be replaced with an available reference sample included in a baseline that has an index difference of two or more from the baseline, including the missing reference sample.

Alternativamente, una muestra de referencia no disponible puede reemplazarse utilizando una muestra de referencia disponible incluida en una línea de referencia que tenga un valor de índice mayor o que tenga un valor de índice más pequeño que una línea de referencia que incluya la muestra de referencia no disponible. Por ejemplo, si se usa una línea de referencia que tiene un valor de índice mayor que una línea de referencia que incluye la muestra de referencia no disponible, se puede usar una muestra de referencia ubicada a la izquierda o en la parte superior de la muestra de referencia no disponible para reemplazar la muestra de referencia no disponible.Alternatively, an unavailable reference sample may be replaced by using an available reference sample included in a reference line that has a larger index value or has a smaller index value than a reference line that includes the unavailable reference sample. available. For example, if a reference line is used that has a higher index value than a reference line that includes the missing reference sample, a reference sample located to the left or top of the sample can be used. reference sample not available to replace the reference sample not available.

La búsqueda de una muestra de referencia disponible para reemplazar una muestra de referencia no disponible puede realizarse en una dirección predefinida. Por ejemplo, para reemplazar la muestra de referencia no disponible, puede usarse solo una muestra de referencia ubicada en la dirección de una parte superior, inferior, izquierda o derecha de la muestra no disponible entre las muestras de referencia incluidas en la misma línea de referencia que la muestra de referencia no disponible. Alternativamente, para reemplazar la muestra no disponible , se puede usar solo una muestra de referencia ubicada en una dirección superior, inferior, izquierda o derecha de la muestra no disponible entre las muestras de referencia incluidas en una línea de referencia diferente de la muestra de referencia no disponible.The search for an available reference sample to replace an unavailable reference sample can be performed in a predefined direction. For example, to replace the missing reference sample, only one reference sample located in the direction of a top, bottom, left, or right of the missing sample can be used among the reference samples included in the same reference line. than the reference sample not available. Alternatively, to replace the missing sample, only a reference sample located in a higher, lower, left, or right direction of the missing sample may be used among reference samples included in a different reference line from the reference sample. not available.

Un decodificador puede decodificar, basándose en un flujo de bits, información de índice que especifica una de una pluralidad de líneas de referencia (S1620). Por ejemplo, cuando hay 4 líneas de referencia disponibles como en el ejemplo que se muestra en la figura 15, la información del índice puede especificar cualquiera de las 4 líneas de referencia. A decoder may decode, based on a bit stream, index information specifying one of a plurality of reference lines (S1620). For example, when there are 4 reference lines available as in the example shown in Figure 15, the index information can specify any of the 4 reference lines.

Una línea de referencia para realizar la intrapredicción para un bloque actual puede determinarse de forma adaptativa basándose en el tamaño de un bloque actual, un tipo de bloque actual, un modo de intrapredicción de un bloque actual, información de índice en un bloque vecino o diferencia entre un modo de intrapredicción de un bloque actual y un modo de intrapredicción predeterminado, y similares.A baseline for performing intraprediction for a current block may be adaptively determined based on the size of a current block, a current block type, an intraprediction mode of a current block, index information in a neighboring block, or difference. between an intra-prediction mode of a current block and a predetermined intra-prediction mode, and the like.

Cuando se determina una cualquiera de una pluralidad de líneas de referencia, un decodificador puede realizar una intrapredicción para un bloque actual utilizando la línea de referencia determinada (S1630).When any one of a plurality of reference lines is determined, a decoder may perform an intra-prediction for a current block using the determined reference line (S1630).

Por ejemplo, cuando un modo de intrapredicción de un bloque actual es el modo DC, se puede generar una muestra de predicción del bloque actual basándose en un valor promedio (dcVal) de muestras de referencia incluidas en la línea de referencia determinada. Haciendo referencia a las figuras 21 y 22, se describirá en detalle un cálculo del valor promedio de las muestras de referencia incluidas en la línea de referencia.For example, when an intra-prediction mode of a current block is DC mode, a prediction sample of the current block can be generated based on an average value (dcVal) of reference samples included in the determined reference line. Referring to Figs. 21 and 22, a calculation of the average value of the reference samples included in the reference line will be described in detail.

Alternativamente, cuando un modo de intrapredicción de un bloque actual es un modo direccional, se puede generar una muestra de predicción del bloque actual basándose en una muestra de referencia especificada por el modo direccional entre las muestras de referencia incluidas en la línea de referencia determinada. En este momento, si un segmento de línea que se extiende desde una muestra de predicción hacia la dirección indicada por los puntos del modo direccional entre muestras de referencia, la muestra de predicción del bloque actual se puede generar en base a una suma ponderada (predicción ponderada) de una primera muestra de referencia y una segunda muestra de referencia que se encuentra a ambos lados del punto indicado por el segmento de línea que se extiende hacia la dirección indicada por el modo direccional.Alternatively, when an intra-prediction mode of a current block is a directional mode, a prediction sample of the current block may be generated based on a reference sample specified by the directional mode among the reference samples included in the determined reference line. At this time, if a line segment extending from a prediction sample to the direction indicated by the directional mode points between reference samples, the prediction sample of the current block can be generated based on a weighted sum (prediction weighted) of a first reference sample and a second reference sample lying on either side of the point indicated by the line segment extending in the direction indicated by the directional mode.

Cuando un modo de intrapredicción de un bloque actual es el modo DC, es necesario calcular un valor promedio (dcVal) de muestras de referencia incluidas en una línea de referencia para realizar la predicción en el bloque actual. En este momento, el valor promedio para las muestras de referencia en la línea de referencia k-ésima puede calcularse utilizando solo una parte de las muestras de referencia incluidas en la línea de referencia k-ésima. En este momento, el número de muestras de referencia utilizadas para derivar el valor promedio puede ser el mismo para cada línea de referencia, o puede ser diferente para cada línea de referencia.When an intra-prediction mode of a current block is DC mode, it is necessary to calculate an average value (dcVal) of reference samples included in a reference line to perform the prediction on the current block. At this time, the average value for the reference samples at the kth reference line can be calculated using only a part of the reference samples included in the kth reference line. At this time, the number of reference samples used to derive the average value may be the same for each reference line, or it may be different for each reference line. reference.

Alternativamente, un valor promedio para muestras de referencia en la línea de referencia k-ésima puede derivarse utilizando todas las muestras de referencia incluidas en la línea de referencia k-ésima. Alternativamente, puede determinarse basándose en el tamaño de un bloque actual, una forma de un bloque actual o una posición de una línea de referencia ya sea para derivar un valor promedio usando una parte de muestras de referencia en la línea de referencia k-ésima o para derivar un valor promedio utilizando todas las muestras de referencia en la línea de referencia k-ésima.Alternatively, an average value for reference samples at the kth reference line can be derived using all reference samples included in the kth reference line. Alternatively, it can be determined based on the size of a current block, a shape of a current block or a position of a reference line to either derive an average value using a part of reference samples at the kth reference line or to derive an average value using all reference samples at the kth reference line.

La figura 21 es un diagrama que ilustra muestras de referencia utilizadas para derivar un valor promedio de una línea de referencia.Figure 21 is a diagram illustrating reference samples used to derive an average value from a reference line.

La figura 21 muestra un ejemplo de derivación de un valor promedio de muestra de referencia de la k-ésima línea de referencia utilizando una parte de las muestras de referencia incluidas en una línea de referencia. Por ejemplo, un ejemplo ilustrado en la figura 21, un valor promedio de muestra de referencia de una primera línea de referencia adyacente a un bloque actual (es decir, la línea de referencia 0 que se muestra en la figura 21) se puede calcular utilizando muestras de referencia superior y muestras de referencia izquierda excluyendo una muestra de referencia adyacente a una esquina superior izquierda del bloque actual. Es decir, cuando un tamaño del bloque actual es NxN, se puede usar un total de muestras de referencia 4N tales como muestras de referencia superior 2N y muestras de referencia izquierda 2N para el cálculo del valor promedio de la primera línea de referencia.Fig. 21 shows an example of deriving a reference sample mean value of the kth reference line using a part of the reference samples included in a reference line. For example, an example illustrated in Figure 21, a reference sample average value of a first reference line adjacent to a current block (i.e. reference line 0 shown in Figure 21) can be calculated using top reference swatches and left reference swatches excluding a reference swatch adjacent to an upper left corner of the current block. That is, when a current block size is NxN, a total of 4N reference samples such as 2N upper reference samples and 2N left reference samples can be used for calculation of the average value of the first reference line.

El número de muestras de referencia utilizadas para calcular un valor promedio de la muestra de referencia de la k-ésima línea de referencia puede ser igual al número de muestras de referencia utilizadas para calcular el valor promedio de una muestra de referencia de la primera línea de referencia. En este momento, una posición de una muestra de referencia utilizada para calcular el valor promedio de la línea de referencia k-ésima puede corresponder a una posición de una muestra de referencia utilizada para calcular el valor promedio de la muestra de referencia de la primera línea de referencia.The number of reference samples used to calculate a reference sample mean value of the kth reference line may be equal to the number of reference samples used to calculate the reference sample mean value of the first line of reference. At this time, a position of a reference sample used to calculate the average value of the kth reference line may correspond to a position of a reference sample used to calculate the average value of the reference sample of the first line. reference.

Una muestra de referencia en la línea de referencia k-ésima correspondiente a una muestra de referencia de una primera línea de referencia puede tener la misma coordenada x o la misma coordenada y como la muestra de referencia de la primera línea de referencia. Por ejemplo, una coordenada de una muestra de referencia superior incluida en la línea de referencia k-ésima correspondiente a una muestra de referencia superior P(i, j) incluida en una primera línea de referencia puede ser P(i, j-k 1) que tiene la misma coordenada x como P(i, j). Por ejemplo, una coordenada de una muestra de referencia izquierda en la línea de referencia késima correspondiente a una muestra de referencia izquierda P(i, j) incluida en una primera línea de referencia puede ser P(i-k 1, j) que tiene la misma y coordinar como P(i, j).A reference sample on the kth reference line corresponding to a reference sample on a first reference line may have the same x-coordinate or the same y-coordinate as the reference sample of the first reference line. For example, a coordinate of an upper reference sample included in the kth reference line corresponding to an upper reference sample P(i, j) included in a first reference line may be P(i, jk 1) which has the same x coordinate as P(i, j). For example, a coordinate of a left reference sample at the kth reference line corresponding to a left reference sample P(i, j) included in a first reference line may be P(ik 1, j) which has the same and coordinate as P(i, j).

En la figura 21, se muestran las muestras de referencia de las líneas de referencia segunda a cuarta correspondientes a la muestra de referencia superior y la muestra de referencia izquierda en una primera línea de referencia. Se puede calcular un valor promedio de muestra de referencia de cada línea de referencia utilizando las muestras de referencia mostradas en la figura 21.In Fig. 21, the reference samples of the second to fourth reference lines corresponding to the upper reference sample and the left reference sample are shown on a first reference line. A reference sample average value of each reference line can be calculated using the reference samples shown in Figure 21.

En la figura 21, se supone que un bloque actual tiene una forma cuadrada, pero incluso si el bloque actual tiene una forma no cuadrada, la realización anterior se puede aplicar tal como está. Por ejemplo, cuando la corriente es un bloque no cuadrado que tiene un tamaño WxH, se puede calcular un valor promedio de muestra de referencia de cada línea de referencia utilizando un total de 2(W H) muestras de referencia, como muestras de referencia superior 2W y muestras de referencia izquierda 2H. En consecuencia, como en el ejemplo mostrado en la figura 22, el número de muestras de referencia utilizadas para calcular un valor promedio de la k-ésima línea de referencia puede tener el mismo valor que el número de muestras de referencia utilizadas para calcular un valor promedio de la primera línea de referencia. Además, la ubicación de la muestra de referencia utilizada para calcular el valor promedio de la k-ésima línea de referencia puede corresponder a la ubicación de la muestra de referencia utilizada para calcular el valor promedio de la muestra de referencia de la primera línea de referencia.In Fig. 21, a current block is assumed to have a square shape, but even if the current block has a non-square shape, the above embodiment can be applied as it is. For example, when the current is a non-square block having size WxH, a reference sample average value of each reference line can be calculated using a total of 2(W H) reference samples, such as upper reference samples 2W and left reference samples 2H. Consequently, as in the example shown in Figure 22, the number of reference samples used to calculate an average value of the kth reference line can have the same value as the number of reference samples used to calculate a value average of the first reference line. In addition, the location of the reference sample used to calculate the mean value of the kth reference line may correspond to the location of the reference sample used to calculate the mean value of the reference sample of the first reference line. .

En las figuras 21 y 22, las muestras de referencia superior se utilizan para duplicar el ancho de un bloque actual y para las muestras de referencia izquierda y el doble de altura del bloque actual para calcular el valor promedio de una muestra de referencia de una línea de referencia. Un valor promedio de muestra de referencia de una línea de referencia puede calcularse utilizando un número menor o mayor de muestras de referencia que las que se muestran en las figuras 21 y la figura 22. In figures 21 and 22, the top reference samples are used to double the width of a current block and for the left reference samples and twice the height of the current block to calculate the average value of a reference sample of a line reference. A reference sample average value of a reference line can be calculated using a smaller or larger number of reference samples than those shown in Figures 21 and Figure 22.

Por ejemplo, el valor promedio de la muestra de referencia de la línea de referencia se puede calcular utilizando el mismo número de muestras de referencia superior que el ancho del bloque actual y el mismo número de muestras de referencia izquierda que la altura del bloque actual.For example, the reference sample average value of the reference line can be calculated using the same number of top reference samples as the current block width and the same number of left reference samples as the current block height.

El valor promedio de una muestra de referencia de una línea de referencia puede calcularse asignando diferentes ponderaciones a las muestras de referencia, dependiendo de la forma de un bloque actual y la posición de una muestra de referencia. Por ejemplo, si el bloque actual tiene una forma cuadrada, el valor promedio de la muestra de referencia puede calcularse asignando la misma ponderación a las muestras de referencia superior y las muestras de referencia izquierda. Por otro lado, cuando el bloque actual tiene una forma no cuadrada, el valor promedio de la muestra de referencia puede calcularse asignando una ponderación mayor a una de las muestras de referencia superior y las muestras de referencia izquierda. Por ejemplo, si la altura del bloque actual es mayor que un ancho, el valor promedio puede calcularse asignando una ponderación mayor a las muestras de referencia superiores que las muestras de referencia de la izquierda. Por otro lado, cuando el ancho del bloque actual es mayor que la altura, el valor promedio puede calcularse asignando una ponderación mayor a las muestras de referencia de la izquierda que las muestras de referencia superiores.The average value of a reference sample from a reference line can be calculated by assigning different weights to the reference samples, depending on the shape of a current block and the position of a reference sample. For example, if the current block has a square shape, the average value of the reference sample can be calculated by assigning the same weight to the top reference samples and the left reference samples. On the other hand, when the current block has a non-square shape, the average value of the reference sample can be calculated by assigning a higher weight to one of the upper reference samples and the left reference samples. For example, if the height of the current block is greater than a width, the average value can be calculated by assigning a higher weight to the top reference samples than the left reference samples. On the other hand, when the width of the current block is greater than the height, the average value can be calculated by assigning a greater weight to the left reference samples than the upper reference samples.

Por ejemplo, cuando el tamaño del bloque actual es N/2 * N, el valor promedio de la k-ésima línea de referencia dcVal se puede calcular mediante la siguiente Ecuación 12.For example, when the current block size is N/2 * N, the average value of the kth reference line dcVal can be calculated using the following Equation 12.

Ecuación 12Equation 12

Figure imgf000052_0001
Figure imgf000052_0001

Por ejemplo, cuando el tamaño del bloque actual es NxN/2, el valor promedio de la línea de referencia k-ésima dcVal se puede calcular mediante la siguiente Ecuación 13.For example, when the current block size is NxN/2, the average value of the kth baseline dcVal can be calculated using the following Equation 13.

Ecuación 13 Equation 13

Figure imgf000053_0001
Figure imgf000053_0001

En las ecuaciones 12 y 13, k puede establecerse en un valor entre 1 y max_intra_line_idx_minus2 2.In equations 12 and 13, k can be set to a value between 1 and max_intra_line_idx_minus2 2 .

En el ejemplo descrito a través de la figura 16, se ejemplifica que la información de índice que especifica una de la pluralidad de líneas de referencia se decodifica después de generar una pluralidad de líneas de referencia. También es posible obtener solo una línea de referencia especificada por la información de índice entre una pluralidad de líneas de referencia después de descodificar la información de índice que especifica una de la pluralidad de líneas de referencia.In the example described through Fig. 16, it is exemplified that index information specifying one of the plurality of reference lines is decoded after generating a plurality of reference lines. It is also possible to obtain only one reference line specified by the index information among a plurality of reference lines after decoding the index information specifying one of the plurality of reference lines.

En la realización descrita a través de la figura 16, se describe que la intrapredicción para un bloque actual se realiza utilizando cualquier línea de referencia especificada por información de índice entre una pluralidad de líneas de referencia. También es posible que la intrapredicción para un bloque actual se pueda realizar utilizando dos o más líneas de referencia entre una pluralidad de líneas de referencia. La utilización o no de dos o más líneas de referencia para realizar la intrapredicción para un bloque actual puede determinarse en función de la información señalizada desde un flujo de bits, el tamaño de un bloque actual, el tipo de bloque actual, un modo de intrapredicción de un bloque actual, ya sea que un modo de intrapredicción de un bloque actual sea uno no direccional o una diferencia entre un modo de intrapredicción de un bloque de corriente y un modo predeterminado de intrapredicción, y similares.In the embodiment described through Fig. 16, it is described that intra-prediction for a current block is performed using any reference line specified by index information among a plurality of reference lines. It is also possible that intra-prediction for a current block can be performed using two or more reference lines among a plurality of reference lines. Whether or not to use two or more reference lines to perform intra-prediction for a current block can be determined based on information signaled from a bit stream, a current block size, current block type, an intra-prediction mode of a current block, whether an intra-prediction mode of a current block is a non-directional one or a difference between an intra-prediction mode of a current block and a predetermined intra-prediction mode, and the like.

Las dos o más líneas de referencia pueden especificarse por una pluralidad de información de índice señalizada desde un flujo de bits. Por ejemplo, cuando se establecen dos líneas de referencia para ser utilizadas, cualquiera de las dos líneas de referencia puede especificarse mediante la primera información de índice, y la otra puede especificarse mediante la segunda información de índice.The two or more reference lines may be specified by a plurality of index information signaled from a bit stream. For example, when two reference lines are established to be used, either of the two reference lines may be specified by the first index information, and the other may be specified by the second index information.

Alternativamente, dos o más líneas de referencia pueden ser espacialmente contiguas. En este caso, la información de índice para especificar cualquiera de las dos o más líneas de referencia puede ser señalizada a través de un flujo de bits. Si cualquiera de las dos o más líneas de referencia es seleccionada por la información del índice, la línea de referencia restante puede seleccionarse automáticamente en función de la adyacencia espacial con la línea de referencia seleccionada. Por ejemplo, cuando se configura para usar dos líneas de referencia, y la información del índice indica 'línea de referencia 0', entonces la intrapredicción de un bloque actual se puede realizar en base a la línea de referencia 0 y la línea de referencia 1 adyacentes a la línea de referencia 0.Alternatively, two or more reference lines may be spatially contiguous. In this case, the index information to specify any of the two or more reference lines may be signaled via a bit stream. If any two or more reference lines are selected by the index information, the remaining reference line can be automatically selected in function of the spatial adjacency with the selected reference line. For example, when configured to use two reference lines, and the index information indicates 'reference line 0', then intraprediction of a current block can be performed based on reference line 0 and reference line 1 adjacent to reference line 0.

Cuando se configura para usar una pluralidad de líneas de referencia, la intrapredicción de un bloque actual puede realizarse en base a un valor promedio, un valor máximo, un valor mínimo o una suma ponderada de muestras de referencia incluidas en la pluralidad de líneas de referencia.When configured to use a plurality of reference lines, intraprediction of a current block can be performed based on an average value, a maximum value, a minimum value, or a weighted sum of reference samples included in the plurality of reference lines. .

Por ejemplo, suponiendo que un modo intrapredicción de un bloque actual es un modo direccional (es decir, un modo angular), se puede generar una muestra predicha del bloque actual basándose en una primera muestra de referencia y una segunda muestra de referencia, cada una de ellas que se incluye en una línea de referencia de diferencia. Aquí, una primera línea de referencia que incluye la primera muestra de referencia y una segunda línea de referencia que incluye la segunda muestra de referencia pueden posicionarse una al lado de la otra, pero no está limitada a ellas. Además, la primera muestra de referencia y la segunda muestra de referencia pueden determinarse mediante un modo de intrapredicción del bloque actual. La primera muestra de referencia y la segunda muestra de referencia pueden colocarse una cerca de la otra, pero no está limitada a ellas. Se puede generar una muestra de predicción de un bloque actual considerando la suma ponderada de la primera muestra de referencia y la segunda muestra de referencia, o se puede generar en base a un valor promedio, un valor mínimo o un valor máximo de la primera muestra de referencia y La segunda muestra de referencia.For example, assuming that an intra-prediction mode of a current block is a directional mode (i.e., an angular mode), a predicted sample of the current block can be generated based on a first reference sample and a second reference sample, each of which is included in a difference reference line. Here, a first reference line including the first reference sample and a second reference line including the second reference sample may be positioned next to each other, but are not limited to them. Furthermore, the first reference sample and the second reference sample can be determined by an intra-prediction mode of the current block. The first reference sample and the second reference sample can be placed close to each other, but are not limited to them. A prediction sample of a current block can be generated by considering the weighted sum of the first reference sample and the second reference sample, or it can be generated based on an average value, a minimum value, or a maximum value of the first sample. reference sample and the second reference sample.

La predicción interna de un bloque actual se puede realizar realizando una primera intrapredicción basada en una parte de una pluralidad de líneas de referencia y realizando una segunda intrapredicción basada en las líneas de referencia restantes. Aquí, un modo de intrapredicción usada en una primera intrapredicción y un modo de intrapredicción usada en una segunda intrapredicción puede ser igual o diferente. Se puede generar una muestra de predicción de un bloque actual basándose en una primera muestra de predicción generada realizando una primera intrapredicción y una segunda muestra de predicción generada realizando una segunda intrapredicción. The internal prediction of a current block can be performed by performing a first intra-prediction based on a part of a plurality of reference lines and performing a second intra-prediction based on the remaining reference lines. Here, an intra-prediction mode used in a first intra-prediction and an intra-prediction mode used in a second intra-prediction may be the same or different. A prediction sample of a current block may be generated based on a first prediction sample generated by performing a first intra-prediction and a second prediction sample generated by performing a second intra-prediction.

Las realizaciones anteriores se han descrito principalmente en el proceso de decodificación, el proceso de codificación se puede realizar en el mismo orden que se describe o en orden inverso.The above embodiments have been mainly described in the decoding process, the encoding process can be performed in the same order as described or in the reverse order.

Aunque las realizaciones descritas anteriormente se han descrito sobre la base de una serie de etapas o diagramas de flujo, no limitan el orden de las series de tiempo de la invención, y pueden realizarse simultáneamente o en diferentes órdenes según sea necesario. Además, cada uno de los componentes (por ejemplo, unidades, módulos, etc.) que constituyen el diagrama de bloques en las realizaciones descritas anteriormente puede implementarse mediante un dispositivo de hardware o software, y una pluralidad de componentes. O se puede combinar e implementar una pluralidad de componentes mediante un solo dispositivo de hardware o software. Las realizaciones descritas anteriormente pueden implementarse en forma de instrucciones de programa que pueden ejecutarse a través de diversos componentes del ordenador y grabarse en un medio de grabación legible por ordenador. El medio de grabación legible por ordenador puede incluir uno o una combinación de comandos de programa, archivos de datos, estructuras de datos y similares. Los ejemplos de medios legibles por ordenador incluyen medios magnéticos como discos duros, disquetes y cintas magnéticas, medios de grabación ópticos como CD-ROM y DVD, medios magnetoópticos como discos flexibles, medios y dispositivos de hardware específicamente configurados para almacenar y ejecute las instrucciones del programa, como ROM, RAM, memoria flash, etc. El dispositivo de hardware puede configurarse para funcionar como uno o más módulos de software para realizar el proceso de acuerdo con la presente invención, y viceversa.Although the embodiments described above have been described on the basis of a series of steps or flowcharts, they do not limit the order of the time series of the invention, and can be performed simultaneously or in different orders as needed. Furthermore, each of the components (eg, units, modules, etc.) constituting the block diagram in the above-described embodiments may be implemented by a hardware or software device, and a plurality of components. Or a plurality of components can be combined and implemented by a single hardware or software device. The above-described embodiments can be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer readable recording medium may include one or a combination of program commands, data files, data structures, and the like. Examples of computer-readable media include magnetic media such as hard drives, diskettes, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floppy disks, media, and hardware devices specifically configured to store and execute computer instructions. program, such as ROM, RAM, flash memory, etc. The hardware device may be configured to function as one or more software modules for performing the process according to the present invention, and vice versa.

Aplicabilidad industrialindustrial applicability

La presente invención puede aplicarse a dispositivos electrónicos que pueden codificar/decodificar un vídeo. The present invention can be applied to electronic devices that can encode/decode a video.

Claims (10)

REIVINDICACIONES 1. Un método para decodificar un video, el método comprende:1. A method for decoding a video, the method comprises: determinar una línea de muestras de referencia para un bloque actual en función de un conjunto de candidatos de línea de muestras de referencia;determining a reference sample line for a current block based on a set of reference sample line candidates; realizar intrapredicción para el bloque actual en función de muestras de referencia incluidas en la línea de muestras de referencia; yperform intraprediction for the current block based on reference samples included in the reference sample line; and reconstruir el bloque actual en función de muestras de predicción resultantes de la intrapredicción,rebuild the current block based on prediction samples resulting from intra-prediction, donde un número de candidatos de línea de muestras de referencia en el conjunto de candidatos de línea de muestras de referencia se determina en función de información señalizada a un nivel de secuencia,where a number of reference sample line candidates in the reference sample line candidate set is determined based on signaled information at a sequence level, donde, dependiendo de la información, el conjunto de candidatos de línea de muestras de referencia comprende sólo una primera línea de muestras de referencia adyacente al bloque actual, o comprende ambas , la primera línea de muestras de referencia y una segunda línea de muestras de referencia no adyacente al bloque actual,where, depending on the information, the reference sample line candidate set comprises only a first reference sample line adjacent to the current block, or comprises both the first reference sample line and a second reference sample line not adjacent to the current block, donde cuando el conjunto de candidatos de línea de muestras de referencia comprende tanto la primera línea de muestras de referencia como la segunda línea de muestras de referencia, la segunda línea de muestras de referencia no adyacente al bloque actual no se usa como la línea de muestras de referencia del bloque actual cuando un modo de intrapredicción predeterminado se aplica al bloque actual, el modo de intrapredicción predeterminado comprende un modo Planar pero no un modo DC, ywhere when the set of reference sample line candidates comprises both the first reference sample line and the second reference sample line, the second reference sample line not adjacent to the current block is not used as the sample line current block reference when a default intraprediction mode is applied to the current block, the default intraprediction mode comprises a Planar mode but not a DC mode, and en el que si un modo de intrapredicción del bloque actual es el modo DC, se obtiene una muestra de predicción del bloque actual basándose en un valor DC obtenido en base a las muestras de referencia incluidas en la línea de muestras de referencia del bloque actual.wherein if an intra-prediction mode of the current block is the DC mode, a prediction sample of the current block is obtained based on a DC value obtained based on the reference samples included in the reference sample line of the current block. 2. El método de la reivindicación 1, en el que la línea de muestras de referencia para el bloque actual se determina en base a información indexada especificando uno de los candidatos de línea de muestras de referencia.The method of claim 1, wherein the reference sample line for the current block is determined based on indexed information by specifying one of the reference sample line candidates. 3. El método de la reivindicación 1, en el que las muestras de referencia comprenden muestras de referencia superiores y muestras de referencia izquierdas, yThe method of claim 1, wherein the reference samples comprise upper reference samples and left reference samples, and en el que si usar tanto las muestras de referencia superiores como las muestras de referencia izquierdas o usar una parte de las muestras de referencia superiores y las muestras de referencia izquierdas para obtener el valor DC, se determina en base a una forma del bloque actual.in which whether to use both the upper reference samples and the lower reference samples reference samples or using a part of the upper reference samples and the left reference samples to obtain the DC value, is determined based on a shape of the current block. 4. El método de la reivindicación 3, en el que un número de las muestras de referencia superior usadas para obtener el valor DC es idéntico a una anchura del bloque actual.The method of claim 3, wherein a number of the upper reference samples used to obtain the DC value is identical to a width of the current block. 5. El método de la reivindicación 3, en el que un número de las muestras de referencia izquierdas usadas para obtener el valor DC es idéntico a una altura del bloque actual.The method of claim 3, wherein a number of the left reference samples used to obtain the DC value is identical to a height of the current block. 6. El método de la reivindicación 1, donde las muestras de referencia comprenden muestras de referencia superiores y muestras de referencia izquierdas,The method of claim 1, wherein the reference samples comprise top reference samples and left reference samples, donde el valor DC se obtiene mediante una suma ponderada de las muestras de referencia superiores y las muestras de referencia izquierdas, ywhere the DC value is obtained by a weighted sum of the upper reference samples and the left reference samples, and donde un primer peso aplicado a las muestras de referencia superiores y un segundo peso aplicado a las muestras de referencia izquierdas se determinan en base a una forma del bloque actual.where a first weight applied to the upper reference samples and a second weight applied to the left reference samples are determined based on a shape of the current block. 7. Un método para codificar un video, el método comprende:7. A method of encoding a video, the method comprising: determinar una línea de muestras de referencia para un bloque actual entre un conjunto de candidatos de línea de muestras de referencia;determining a reference sample line for a current block among a set of reference sample line candidates; realizar intrapredicción para el bloque actual en base a muestras de referencia incluidas en la línea de muestras de referencia; yperform intraprediction for the current block based on reference samples included in the reference sample line; and obtener muestras residuales mediante la resta de muestras de predicción resultantes de la intrapredicción de muestras originales,obtain residual samples by subtracting prediction samples resulting from the intraprediction of original samples, en el que la información utilizada para determinar un número de candidatos de línea de muestras de referencia en el conjunto de candidatos de línea de muestras de referencia se codifica en un nivel de secuencia,wherein the information used to determine a number of reference sample line candidates in the reference sample line candidate set is encoded at a sequence level, donde el conjunto de candidatos de línea de muestras de referencia comprende solo una primera línea de muestras de referencia adyacente al bloque actual, o comprende tanto la primera línea de muestra de referencia como una segunda línea de muestras de referencia no adyacente al bloque actual,where the reference sample line candidate set comprises only a first reference sample line adjacent to the current block, or comprises both the first reference sample line and a second reference sample line not adjacent to the current block, donde cuando el conjunto de candidatos de línea de muestras de referencia comprende tanto la primera línea de muestra de referencia como la segunda línea de muestra de referencia, la segunda línea de muestra de referencia no adyacente al bloque actual no se usa como la línea de muestras de referencia del bloque actual cuando un modo de intrapredicción predeterminado es aplicado al bloque actual, el modo predeterminado de intrapredicción comprende un modo Planar pero no un modo DC, ywhere when the set of reference sample line candidates comprises both the first reference sample line and the second reference sample line, the non-adjacent second reference sample line to the current block is not used as the reference sample line of the current block when a default intraprediction mode is applied to the current block, the default intraprediction mode comprises a Planar mode but not a DC mode, and en el que si un modo de intrapredicción del bloque actual es el modo DC, se obtiene una muestra de predicción del bloque actual basada en un valor DC de las muestras de referencia incluidas en la línea de muestras de referencia del bloque actual.wherein if an intra-prediction mode of the current block is the DC mode, a prediction sample of the current block is obtained based on a DC value of the reference samples included in the reference sample line of the current block. 8. El método de la reivindicación 7, en el que la información de índice que especifica uno de los candidatos de línea de muestras de referencia se codifica en un flujo de bits.The method of claim 7, wherein the index information specifying one of the reference sample line candidates is encoded in a bit stream. 9. El método de la reivindicación 7, en el que las muestras de referencia comprenden muestras de referencia superiores y muestras de referencia izquierdas, yThe method of claim 7, wherein the reference samples comprise top reference samples and left reference samples, and en el que si usar tanto las muestras de referencia superiores como las muestras de referencia izquierdas para obtener el valor DC o usar una parte de las muestras de referencia superiores y las muestras de referencia izquierdas para obtener el valor DCo se determina en base a una forma del bloque actual.wherein whether to use both the upper reference samples and the left reference samples to obtain the DC value or to use a part of the upper reference samples and the left reference samples to obtain the DCo value is determined based on a form of the current block. 10. El método de la reivindicación 7, en el que las muestras de referencia comprenden muestras de referencia superiores y muestras de referencia izquierdas, yThe method of claim 7, wherein the reference samples comprise top reference samples and left reference samples, and donde el valor DC se obtiene mediante una suma ponderada de las muestras de referencia superiores y las muestras de referencia izquierdas, ywhere the DC value is obtained by a weighted sum of the upper reference samples and the left reference samples, and donde un primer peso aplicado a las muestras de referencia superiores y un segundo peso aplicado a las muestras de referencia izquierdas se determinan en base a una forma del bloque actual. where a first weight applied to the upper reference samples and a second weight applied to the left reference samples are determined based on a shape of the current block.
ES202031209A 2016-06-24 2017-06-22 Method and apparatus for processing a video signal Active ES2800551B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160079638 2016-06-24
KR20160079639 2016-06-24

Publications (3)

Publication Number Publication Date
ES2800551A2 ES2800551A2 (en) 2020-12-30
ES2800551R1 ES2800551R1 (en) 2022-04-11
ES2800551B2 true ES2800551B2 (en) 2023-02-09

Family

ID=60783923

Family Applications (3)

Application Number Title Priority Date Filing Date
ES202031209A Active ES2800551B2 (en) 2016-06-24 2017-06-22 Method and apparatus for processing a video signal
ES201890085A Active ES2699723B2 (en) 2016-06-24 2017-06-22 METHOD AND APPARATUS TO TREAT A VIDEO SIGNAL
ES201930739A Active ES2724568B2 (en) 2016-06-24 2017-06-22 Method and apparatus for processing a video signal

Family Applications After (2)

Application Number Title Priority Date Filing Date
ES201890085A Active ES2699723B2 (en) 2016-06-24 2017-06-22 METHOD AND APPARATUS TO TREAT A VIDEO SIGNAL
ES201930739A Active ES2724568B2 (en) 2016-06-24 2017-06-22 Method and apparatus for processing a video signal

Country Status (7)

Country Link
US (2) US11234015B2 (en)
EP (3) EP4246969A3 (en)
KR (1) KR102383104B1 (en)
CN (4) CN113873240A (en)
ES (3) ES2800551B2 (en)
PL (2) PL3890326T3 (en)
WO (1) WO2017222325A1 (en)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109479129B (en) 2016-07-18 2023-07-11 韩国电子通信研究院 Image encoding/decoding method and apparatus, and recording medium storing bit stream
CN115733973A (en) * 2016-12-23 2023-03-03 华为技术有限公司 Encoding method and device for rectangular video coding block and computer readable storage medium
US11089299B2 (en) * 2017-09-08 2021-08-10 Kt Corporation Method and device for processing video signal
WO2019059107A1 (en) * 2017-09-20 2019-03-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Encoding device, decoding device, encoding method and decoding method
KR20190043482A (en) * 2017-10-18 2019-04-26 한국전자통신연구원 Method and apparatus for encoding/decoding image and recording medium for storing bitstream
WO2019078686A1 (en) * 2017-10-20 2019-04-25 한국전자통신연구원 Image encoding/decoding method and device, and recording medium storing bitstream
GB2567861A (en) * 2017-10-27 2019-05-01 Sony Corp Image data encoding and decoding
CN111758253B (en) 2018-02-23 2023-12-01 英迪股份有限公司 Image encoding method, decoding method, and recording medium storing bit stream
US20210006799A1 (en) * 2018-03-27 2021-01-07 Kt Corporation Video signal processing method and device
WO2019194441A1 (en) * 2018-04-02 2019-10-10 엘지전자 주식회사 Method for image coding on basis of adaptively derived mpm list and device therefor
CA3105023C (en) * 2018-06-25 2023-03-14 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Intra-frame prediction method and device
CN112425161A (en) * 2018-07-11 2021-02-26 英迪股份有限公司 Video coding method and device based on intra-frame prediction
KR20200028856A (en) * 2018-09-07 2020-03-17 김기백 A method and an apparatus for encoding/decoding video using intra prediction
US11695926B2 (en) * 2018-09-21 2023-07-04 Electronics And Telecommunications Research Institute Method and apparatus for encoding/decoding image, and recording medium for storing bitstream
KR20230174287A (en) 2018-10-07 2023-12-27 삼성전자주식회사 Method and device for processing video signal using mpm configuration method for multiple reference lines
SG11202103208PA (en) * 2018-10-12 2021-04-29 Guangdong Oppo Mobile Telecommunications Corp Ltd Method for encoding/decoding image signal and device for same
CN117061740A (en) 2018-10-12 2023-11-14 三星电子株式会社 Method and apparatus for processing video signal by using cross-component linear model
US11509891B2 (en) 2018-11-04 2022-11-22 Lg Electronics Inc. Intra prediction method and apparatus in image coding system
BR112021009686A2 (en) * 2018-11-21 2021-08-31 Huawei Technologies Co., Ltd. INTRAPREDICTION METHOD AND DEVICE
KR20210084567A (en) * 2018-11-28 2021-07-07 주식회사 윌러스표준기술연구소 Video signal processing method and apparatus using in-screen predictive filtering
WO2020175918A1 (en) * 2019-02-26 2020-09-03 엘지전자 주식회사 Intra prediction-based image coding method and apparatus using unified mpm list
CA3138231A1 (en) 2019-03-21 2020-09-24 Huawei Technologies Co., Ltd. Method and apparatus for intra-prediction
EP3918790A4 (en) 2019-03-24 2022-04-13 Huawei Technologies Co., Ltd. Method and apparatus of quantizing coefficients for matrix-based intra prediction technique
EP3970365A4 (en) * 2019-06-21 2022-08-10 Huawei Technologies Co., Ltd. Matrix-based intra prediction for still picture and video coding
EP3970377B1 (en) * 2019-06-21 2023-08-30 Huawei Technologies Co., Ltd. Method and apparatus of quantizing coefficients for matrix-based intra prediction technique
CN112118448B (en) * 2019-06-21 2022-09-16 杭州海康威视数字技术股份有限公司 Encoding and decoding method, device and storage medium
WO2020260228A1 (en) * 2019-06-25 2020-12-30 Interdigital Vc Holdings France, Sas Method and apparatus for coding/decoding picture data
BR112022005408A2 (en) * 2019-09-30 2022-11-29 Huawei Tech Co Ltd AFIM MOTION MODEL RESTRICTIONS THAT REDUCE NUMBER OF REFERENCE LINES SEARCHED DURING PROCESSING A BLOCK LINE WITH ENHANCED INTERPOLATION FILTER
WO2021034229A2 (en) * 2019-12-16 2021-02-25 Huawei Technologies Co., Ltd. Method and apparatus of reference sample interpolation filtering for directional intra prediction
CN115211113A (en) * 2019-12-31 2022-10-18 抖音视界有限公司 Intra-frame prediction of multi-parameter models
US20220337875A1 (en) * 2021-04-16 2022-10-20 Tencent America LLC Low memory design for multiple reference line selection scheme
WO2023224289A1 (en) * 2022-05-16 2023-11-23 현대자동차주식회사 Method and apparatus for video coding using virtual reference line

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4213646B2 (en) 2003-12-26 2009-01-21 株式会社エヌ・ティ・ティ・ドコモ Image encoding device, image encoding method, image encoding program, image decoding device, image decoding method, and image decoding program.
WO2008102805A1 (en) 2007-02-23 2008-08-28 Nippon Telegraph And Telephone Corporation Video coding method and decoding method, their device, their program and program-recorded medium
KR101456279B1 (en) * 2008-01-03 2014-11-04 한국전자통신연구원 Apparatus for coding or decoding intra image based on line information of reference iamge block
US9445121B2 (en) * 2008-08-04 2016-09-13 Dolby Laboratories Licensing Corporation Overlapped block disparity estimation and compensation architecture
CN101742320B (en) 2010-01-20 2012-09-12 李博航 Image processing method
KR102223526B1 (en) 2010-04-09 2021-03-04 엘지전자 주식회사 Method and apparatus for processing video data
US8902978B2 (en) 2010-05-30 2014-12-02 Lg Electronics Inc. Enhanced intra prediction mode signaling
WO2012081895A1 (en) 2010-12-13 2012-06-21 한국전자통신연구원 Intra prediction method and apparatus
KR102086145B1 (en) 2010-12-13 2020-03-09 한국전자통신연구원 Method for intra prediction and apparatus thereof
KR101444667B1 (en) 2011-01-15 2014-09-30 에스케이 텔레콤주식회사 Video Coding Method and Apparatus Using Bi-Direction Intra Prediction
KR102403793B1 (en) 2011-03-06 2022-05-30 엘지전자 주식회사 Intra prediction method of chrominance block using luminance sample, and apparatus using same
HUE044405T2 (en) 2011-04-25 2019-10-28 Lg Electronics Inc Intra-prediction method, and encoder and decoder using same
KR20120140181A (en) 2011-06-20 2012-12-28 한국전자통신연구원 Method and apparatus for encoding and decoding using filtering for prediction block boundary
SI3136728T1 (en) 2011-06-28 2018-04-30 Samsung Electronics Co., Ltd. Method for decoding video with intra prediction
CN102857752B (en) 2011-07-01 2016-03-30 华为技术有限公司 A kind of pixel prediction method and apparatus
KR101348544B1 (en) 2011-08-17 2014-01-10 주식회사 케이티 Methods of intra prediction on sdip and apparatuses for using the same
KR20130027400A (en) 2011-09-07 2013-03-15 주식회사 케이티 Method and apparatus for intra prediction in dc mode
US9237356B2 (en) 2011-09-23 2016-01-12 Qualcomm Incorporated Reference picture list construction for video coding
US9154796B2 (en) * 2011-11-04 2015-10-06 Qualcomm Incorporated Intra-mode video coding
JP2013141187A (en) 2012-01-06 2013-07-18 Sony Corp Image processing apparatus and image processing method
WO2016066093A1 (en) 2014-10-31 2016-05-06 Mediatek Inc. Method of improved directional intra prediction for video coding
KR102267922B1 (en) * 2015-09-23 2021-06-22 노키아 테크놀로지스 오와이 How to code 360 degree panoramic video, device and computer program product
US20180324441A1 (en) * 2015-11-24 2018-11-08 Samsung Electronics Co., Ltd. Method for encoding/decoding image and device therefor
CN105842694B (en) 2016-03-23 2018-10-09 中国电子科技集团公司第三十八研究所 A kind of self-focusing method based on FFBP SAR imagings
WO2017188566A1 (en) * 2016-04-25 2017-11-02 엘지전자 주식회사 Inter-prediction method and apparatus in image coding system
KR20180129863A (en) * 2016-04-25 2018-12-05 엘지전자 주식회사 Image decoding method and apparatus in video coding system
EP3453180A4 (en) * 2016-05-04 2020-04-01 Microsoft Technology Licensing, LLC Intra-picture prediction using non-adjacent reference lines of sample values
US10484712B2 (en) * 2016-06-08 2019-11-19 Qualcomm Incorporated Implicit coding of reference line index used in intra prediction

Also Published As

Publication number Publication date
PL3477950T3 (en) 2022-02-07
KR20180001478A (en) 2018-01-04
KR102383104B1 (en) 2022-04-06
EP4246969A2 (en) 2023-09-20
CN113873239A (en) 2021-12-31
EP3890326B1 (en) 2023-09-06
CN113873240A (en) 2021-12-31
CN109716773B (en) 2021-10-29
EP3477950A4 (en) 2020-02-19
US11234015B2 (en) 2022-01-25
ES2699723R1 (en) 2019-04-05
WO2017222325A1 (en) 2017-12-28
ES2699723B2 (en) 2020-10-16
CN113873238A (en) 2021-12-31
EP3890326A1 (en) 2021-10-06
US20190313116A1 (en) 2019-10-10
US20220094972A1 (en) 2022-03-24
EP4246969A3 (en) 2023-12-20
EP3477950B1 (en) 2021-08-04
ES2724568A2 (en) 2019-09-12
EP3890326C0 (en) 2023-09-06
CN109716773A (en) 2019-05-03
ES2800551A2 (en) 2020-12-30
ES2724568R1 (en) 2020-05-06
ES2800551R1 (en) 2022-04-11
EP3477950A1 (en) 2019-05-01
PL3890326T3 (en) 2024-02-12
ES2724568B2 (en) 2021-05-19
ES2699723A2 (en) 2019-02-12

Similar Documents

Publication Publication Date Title
ES2800551B2 (en) Method and apparatus for processing a video signal
ES2703607B2 (en) Method and apparatus for processing video signals
ES2908214T3 (en) Adaptive Filtering of Reference Samples for Intra Prediction Using Distant Pixel Lines
ES2739668B1 (en) METHOD AND APPARATUS FOR PROCESSING VIDEO SIGNALS
ES2737841B1 (en) Method and apparatus for processing video signals
ES2677193B1 (en) Procedure and device to process video signals
ES2710234B1 (en) Procedure and device for processing video signals
ES2786077B2 (en) METHOD AND APPARATUS FOR PROCESSING A VIDEO SIGNAL
ES2737874B2 (en) METHOD AND APPARATUS FOR PROCESSING VIDEO SIGNAL
ES2948265T3 (en) Image signal encoding/decoding method and apparatus for the same
ES2688624A2 (en) Method and apparatus for processing video signal
ES2711474A2 (en) Method and device for processing video signal
ES2703458A2 (en) Video signal processing method and device
ES2711223A2 (en) Method and device for processing video signal
ES2711473A2 (en) Method and apparatus for processing video signal

Legal Events

Date Code Title Description
EC2A Search report published

Ref document number: 2800551

Country of ref document: ES

Kind code of ref document: R1

Effective date: 20220404

FG2A Definitive protection

Ref document number: 2800551

Country of ref document: ES

Kind code of ref document: B2

Effective date: 20230209