BR122023024708A2 - VIDEO DECODING APPARATUS, VIDEO CODING APPARATUS AND APPARATUS FOR TRANSMITTING DATA TO A VIDEO - Google Patents

VIDEO DECODING APPARATUS, VIDEO CODING APPARATUS AND APPARATUS FOR TRANSMITTING DATA TO A VIDEO Download PDF

Info

Publication number
BR122023024708A2
BR122023024708A2 BR122023024708-6A BR122023024708A BR122023024708A2 BR 122023024708 A2 BR122023024708 A2 BR 122023024708A2 BR 122023024708 A BR122023024708 A BR 122023024708A BR 122023024708 A2 BR122023024708 A2 BR 122023024708A2
Authority
BR
Brazil
Prior art keywords
height
slice
tile
information
slices
Prior art date
Application number
BR122023024708-6A
Other languages
Portuguese (pt)
Inventor
Hendry Hendry
Seethal Paluri
Seunghwan Kim
Original Assignee
Lg Electronics Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lg Electronics Inc. filed Critical Lg Electronics Inc.
Publication of BR122023024708A2 publication Critical patent/BR122023024708A2/en

Links

Abstract

Trata-se de um método através do qual um dispositivo de decodificação de vídeo decodifica um vídeo, de acordo com o presente documento, pode compreender as etapas de: analisar, a partir de um fluxo de bits, informações numéricas relacionadas ao número de fatias das quais a altura dentro de um tile de uma figura atual é explicitamente sinalizada; analisar, a partir do fluxo de bits, com base nas informações numéricas, informações de altura relacionadas à altura das fatias das quais a altura é explicitamente sinalizada; derivar o número de fatias no tile com base nas informações numéricas e nas informações de altura; gerar amostras de predição predizendo-se o bloco atual da figura atual com base nas fatias dentro do tile; gerar amostras reconstruídas com base nas amostras de predição; e gerar uma figura reconstruída para a figura atual com base nas amostras reconstruídas.This is a method by which a video decoding device decodes a video, in accordance with this document, may comprise the steps of: analyzing, from a bit stream, numerical information related to the number of slices of the which height within a tile of a current figure is explicitly signaled; analyzing, from the bit stream, based on the numerical information, height information relating to the height of the slices of which the height is explicitly signaled; derive the number of slices in the tile based on numerical information and height information; generate prediction samples by predicting the current block of the current figure based on the slices within the tile; generate reconstructed samples based on the prediction samples; and generate a reconstructed figure for the current figure based on the reconstructed samples.

Description

FUNDAMENTOS DA REVELAÇÃOFUNDAMENTALS OF REVELATION Campo da RevelaçãoField of Revelation

[001] A presente revelação refere-se a um método e a um aparelho para melhorar a sinalização de informações relacionadas a fatias em um sistema que codifica/decodifica uma imagem/vídeo.[001] The present disclosure relates to a method and apparatus for improving the signaling of slice-related information in a system that encodes/decodes an image/video.

Técnica RelacionadaRelated Technique

[002] Recentemente, a demanda por imagem/vídeo de alta resolução e alta qualidade, como 4K, 8K ou mais imagem/vídeo de Ultra Alta Definição (UHD), está aumentando em vários campos. À medida que a resolução ou qualidade da imagem/vídeo se torna mais alta, uma quantidade relativamente maior de informações ou bits é transmitida do que para os dados convencionais de imagem/vídeo. Portanto, se os dados de imagem/vídeo forem transmitidos por meio de um meio como uma linha de banda larga com/sem fio existente ou armazenados em um meio de armazenamento legado, os custos de transmissão e armazenamento aumentam rapidamente.[002] Recently, the demand for high-resolution and high-quality image/video, such as 4K, 8K or more Ultra High Definition (UHD) image/video, is increasing in various fields. As the image/video resolution or quality becomes higher, a relatively greater amount of information or bits is transmitted than for conventional image/video data. Therefore, if image/video data is transmitted over a medium such as an existing wired/wireless broadband line or stored on a legacy storage medium, transmission and storage costs increase rapidly.

[003] Além disso, os interesses e a demanda estão crescendo por conteúdo de realidade virtual (VR) e realidade artificial (AR) e meios imersivos, como holograma; e a transmissão de imagens/vídeos exibindo características de imagem/vídeo diferentes daqueles de uma imagem/vídeo real, como imagens/vídeos de jogos, também estão crescendo.[003] Additionally, interests and demand are growing for virtual reality (VR) and artificial reality (AR) content and immersive media such as hologram; and the transmission of images/videos exhibiting image/video characteristics different from those of a real image/video, such as game images/videos, are also growing.

[004] Portanto, uma técnica de compressão de imagem/vídeo altamente eficiente é necessária para comprimir e transmitir, armazenar ou reproduzir imagens/vídeos de alta resolução e alta qualidade com eficácia, conforme descrito acima.[004] Therefore, a highly efficient image/video compression technique is required to effectively compress and transmit, store, or reproduce high-resolution, high-quality images/videos as described above.

SUMÁRIO DA REVELAÇÃOSUMMARY OF THE REVELATION Objetivos TécnicosTechnical Objectives

[005] Um objetivo técnico da presente revelação consiste em proporcionar um método e um aparelho para aumentar a eficiência de codificação de uma imagem/vídeo.[005] A technical objective of the present disclosure is to provide a method and apparatus for increasing the coding efficiency of an image/video.

[006] Outro objetivo técnico da presente revelação consiste em proporcionar um método e um aparelho para sinalizar eficientemente informações sobre uma fatia em um tile.[006] Another technical objective of the present disclosure is to provide a method and apparatus for efficiently signaling information about a slice in a tile.

[007] Ainda outro objetivo técnico da presente revelação consiste em proporcionar um método e um aparelho para reduzir o overhead de sinalização ao entregar (ou transferir) informações sobre uma fatia em um tile.[007] Yet another technical objective of the present disclosure is to provide a method and apparatus for reducing signaling overhead when delivering (or transferring) information about a slice in a tile.

[008] Ainda outro objetivo técnico da presente revelação consiste em proporcionar um método e um aparelho para entregar (ou transferir) eficientemente informações relacionadas a um número e altura de fatias em um tile.[008] Yet another technical objective of the present disclosure is to provide a method and apparatus for efficiently delivering (or transferring) information related to a number and height of slices on a tile.

[009] Ainda outro objetivo técnico da presente revelação consiste em proporcionar um método e um aparelho para sinalizar eficientemente alturas de fatias correspondentes, quando duas ou mais fatias tiverem a mesma altura em um tile.[009] Yet another technical objective of the present disclosure is to provide a method and apparatus for efficiently signaling corresponding slice heights when two or more slices have the same height on a tile.

Soluções TécnicasTechnical Solutions

[010] De acordo com uma modalidade da presente revelação, proporciona- se no presente documento um método de decodificação de vídeo realizado por um aparelho de decodificação de vídeo. O método pode incluir as etapas de analisar informações numéricas relacionadas a um número de fatias tendo, cada uma, sua altura explicitamente sinalizada em um tile de uma figura atual a partir de um fluxo de bits, analisar informações de altura relacionadas a alturas de fatias tendo, cada uma, sua altura explicitamente sinalizada a partir do fluxo de bits com base nas informações numéricas, derivar um número de fatias no tile com base nas informações numéricas e nas informações de altura, gerar amostras de predição realizando-se predição em um bloco atual da figura atual com base nas fatias no tile, gerar amostras reconstruídas com base nas amostras de predição, e gerar uma figura reconstruída para a figura atual com base nas amostras reconstruídas, em que as informações de altura podem incluir um mesmo número de elementos de sintaxe como um valor das informações numéricas, em que, com base no valor de informações numéricas sendo igual a n, alturas de uma 0-ésima fatia a uma (n-1)- ésima fatia no tile podem ser derivadas com base nos elementos de sintaxe, em que uma altura de uma n-ésima fatia no tile pode ser derivada com base na altura da (n- 1)-ésima fatia, e em que uma altura de uma última fatia no tile pode ser derivada com base em uma altura restante após subtrair as alturas de outras fatias no tile a partir de uma altura do tile.[010] According to an embodiment of the present disclosure, a video decoding method performed by a video decoding apparatus is provided herein. The method may include the steps of analyzing numerical information related to a number of slices each having its height explicitly signaled in a tile of a current figure from a bit stream, analyzing height information related to heights of slices having , each its height explicitly signaled from the bitstream based on numerical information, derive a number of slices in the tile based on numerical information and height information, generate prediction samples by performing prediction on a current block of the current figure based on the slices in the tile, generate reconstructed samples based on the prediction samples, and generate a reconstructed figure for the current figure based on the reconstructed samples, where the height information may include the same number of syntax elements as a value of numeric information, wherein, based on the value of numeric information being equal to n, heights from a 0-th slice to an (n-1)-th slice in the tile can be derived based on the syntax elements, wherein a height of an nth slice in the tile can be derived based on the height of the (n-1)th slice, and wherein a height of a last slice in the tile can be derived based on a height remaining after subtract the heights of other slices in the tile from a tile height.

[011] De acordo com outra modalidade da presente revelação, proporciona- se no presente documento um método de codificação de vídeo realizado por um aparelho de codificação de vídeo. O método pode incluir as etapas de derivar fatias em um tile de uma figura atual, gerar amostras de predição realizando-se uma predição em um bloco atual com base nas fatias derivadas, gerar informações residuais com base nas amostras de predição e uma figura original, gerar informações numéricas relacionadas a um número de fatias tendo, cada uma, sua altura explicitamente sinalizada no tile e informações de altura relacionadas a alturas das fatias tendo, cada uma, sua altura explicitamente com base nas fatias derivadas, e codificar informações de imagem incluindo as informações residuais, as informações numéricas e as informações de altura, em que, com base em um valor das informações numéricas sendo igual a n, as informações de altura podem indicar alturas de uma 0-ésima fatia a uma (n-1)-ésima fatia no tile, em que uma altura de uma n-ésima fatia no tile pode ser derivada com base na altura da (n-1)-ésima fatia, e em que uma altura de uma última fatia no tile pode ser derivada com base em uma altura restante após subtrair as alturas de outras fatias no tile a partir de uma altura do tile.[011] According to another embodiment of the present disclosure, a video coding method performed by a video coding apparatus is provided herein. The method may include the steps of deriving slices in a tile from a current figure, generating prediction samples by making a prediction in a current tile based on the derived slices, generating residual information based on the prediction samples and an original figure, generating numeric information relating to a number of slices each having their height explicitly signaled on the tile and height information relating to heights of the slices each having their height explicitly based on the derived slices, and encoding image information including the residual information, the numerical information, and the height information, wherein, based on a value of the numerical information being equal to n, the height information may indicate heights from a 0-th slice to an (n-1)-th slice in the tile, wherein a height of an nth slice in the tile can be derived based on the height of the (n-1)th slice, and wherein a height of a last slice in the tile can be derived based on a remaining height after subtracting the heights of other slices in the tile from a tile height.

[012] De acordo com ainda outra modalidade da presente revelação, proporciona-se uma mídia de gravação digital legível por computador tendo informações armazenadas que induzem um método de decodificação de vídeo a ser realizado por um aparelho de decodificação de vídeo. O método de decodificação de vídeo pode incluir as etapas de analisar informações numéricas relacionadas a um número de fatias tendo, cada uma, sua altura explicitamente sinalizada em um tile de uma figura atual a partir de informações de imagem, analisar informações de altura relacionadas a alturas de fatias tendo, cada uma, sua altura explicitamente sinalizada a partir das informações de imagem com base nas informações numéricas, derivar um número de fatias no tile com base nas informações numéricas e nas informações de altura, gerar amostras de predição realizando-se uma predição em um bloco atual da figura atual com base nas fatias no tile, gerar amostras reconstruídas com base nas amostras de predição, e gerar uma figura reconstruída para a figura atual com base nas amostras reconstruídas, em que as informações de altura podem incluir um mesmo número de elementos de sintaxe que um valor das informações numéricas, em que, com base no valor de informações numéricas sendo igual a n, as alturas de uma 0-ésima fatia a uma (n-1)-ésima fatia no tile podem ser derivadas com base nos elementos de sintaxe, em que uma altura de uma n-ésima fatia no tile pode ser derivada com base na altura da (n-1)-ésima fatia, e em que uma altura de uma última fatia no tile pode ser derivada com base em uma altura restante após subtrair as alturas de outras fatias no tile a partir de uma altura do tile.[012] According to yet another embodiment of the present disclosure, a computer-readable digital recording medium is provided having stored information that induces a video decoding method to be performed by a video decoding apparatus. The video decoding method may include the steps of analyzing numerical information related to a number of slices each having its height explicitly signaled in a tile of a current figure from image information, analyzing height information related to heights of slices each having its height explicitly signaled from the image information based on the numerical information, derive a number of slices in the tile based on the numerical information and the height information, generate prediction samples by performing a prediction in a current tile of the current figure based on the slices in the tile, generate reconstructed samples based on the prediction samples, and generate a reconstructed figure for the current figure based on the reconstructed samples, where the height information may include the same number of syntax elements that a numeric information value, wherein, based on the numeric information value being equal to n, the heights of a 0-th slice to an (n-1)-th slice in the tile can be derived based in syntax elements, wherein a height of an nth slice in the tile can be derived based on the height of the (n-1)th slice, and wherein a height of a last slice in the tile can be derived based on in a height remaining after subtracting the heights of other slices in the tile from a height of the tile.

EFEITOS DA REVELAÇÃOEFFECTS OF REVELATION

[013] De acordo com uma modalidade da presente revelação, pode-se aprimorar uma eficiência de compactação geral de uma imagem/vídeo.[013] According to an embodiment of the present disclosure, an overall compression efficiency of an image/video can be improved.

[014] De acordo com uma modalidade da presente revelação, informações sobre uma fatia em um tile podem ser eficientemente sinalizadas.[014] According to an embodiment of the present disclosure, information about a slice in a tile can be efficiently signaled.

[015] De acordo com uma modalidade da presente revelação, um overhead de sinalização pode ser reduzido ao entregar (ou transferir) informações sobre uma fatia em um tile.[015] According to an embodiment of the present disclosure, a signaling overhead can be reduced by delivering (or transferring) information about a slice in a tile.

[016] De acordo com uma modalidade da presente revelação, informações relacionadas a um número e altura de fatias em um tile podem ser eficientemente sinalizadas.[016] According to an embodiment of the present disclosure, information related to a number and height of slices in a tile can be efficiently signaled.

[017] De acordo com uma modalidade da presente revelação, quando duas ou mais fatias tiverem a mesma altura em um tile, pode-se omitir a sinalização de informações de altura das fatias tendo a mesma altura.[017] According to an embodiment of the present disclosure, when two or more slices have the same height on a tile, the signaling of height information of the slices having the same height can be omitted.

BREVE DESCRIÇÃO DOS DESENHOSBRIEF DESCRIPTION OF THE DRAWINGS

[018] A Figura 1 ilustra, de modo esquemático, um exemplo de um sistema de codificação de vídeo/imagem ao qual as modalidades do presente documento são aplicáveis.[018] Figure 1 schematically illustrates an example of a video/image coding system to which the modalities of the present document are applicable.

[019] A Figura 2 é um diagrama que ilustra, de modo esquemático, uma configura de um aparelho de codificação de vídeo/imagem ao qual as modalidades do presente documento são aplicáveis.[019] Figure 2 is a diagram that schematically illustrates a configuration of a video/image coding apparatus to which the modalities of the present document are applicable.

[020] A Figura 3 é um diagrama que ilustra, de modo esquemático, uma configura de um aparelho de decodificação de vídeo/imagem ao qual as modalidades do presente documento são aplicáveis.[020] Figure 3 is a diagram that schematically illustrates a configuration of a video/image decoding apparatus to which the modalities of the present document are applicable.

[021] A Figura 4 mostra um exemplo de um procedimento de decodificação de figura.[021] Figure 4 shows an example of a figure decoding procedure.

[022] A Figura 5 mostra um exemplo de um procedimento de codificação de figura.[022] Figure 5 shows an example of a figure encoding procedure.

[023] A Figura 6 mostra um exemplo de um método de codificação de vídeo/imagem baseado em interpredição.[023] Figure 6 shows an example of an interprediction-based video/image coding method.

[024] A Figura 7 mostra uma visão geral de um interpreditor em um aparelho de codificação.[024] Figure 7 shows an overview of an interpredictor in a coding apparatus.

[025] A Figura 8 mostra um exemplo de um método de decodificação de vídeo/imagem baseado em interpredição.[025] Figure 8 shows an example of an interprediction-based video/image decoding method.

[026] A Figura 9 mostra uma visão geral de um interpreditor em um aparelho de decodificação.[026] Figure 9 shows an overview of an interpredictor in a decoding apparatus.

[027] As Figuras 10 e 11 mostram, respectivamente, exemplos gerais de um método de codificação de vídeo/imagem e um componente relacionado de acordo com uma modalidade da presente revelação.[027] Figures 10 and 11 respectively show general examples of a video/image coding method and a related component in accordance with an embodiment of the present disclosure.

[028] As Figuras 12 e 13 mostram, respectivamente, exemplos gerais de um método de decodificação de vídeo/imagem e um componente relacionado de acordo com uma modalidade da presente revelação.[028] Figures 12 and 13 respectively show general examples of a video/image decoding method and a related component in accordance with an embodiment of the present disclosure.

[029] A Figura 14 mostra um exemplo de um sistema de streaming de conteúdos ao qual a modalidade da presente revelação pode ser aplicada.[029] Figure 14 shows an example of a content streaming system to which the embodiment of the present disclosure can be applied.

DESCRIÇÃO DAS MODALIDADES EXEMPLIFICADORASDESCRIPTION OF EXEMPLIFYING MODALITIES

[030] A divulgação do presente documento pode ser modificada em várias formas e modalidades específicas da mesma serão descritas e ilustradas nos desenhos. Os termos usados no presente documento são usados apenas para descrever modalidades específicas, mas não se destinam a limitar o método revelado no presente documento. Uma expressão de um número singular inclui uma expressão de “pelo menos um”, desde que seja claramente lida de forma diferente. Os termos como “incluir” e “ter” destinam-se a indicar que as características, números, etapas, operações, elementos, componentes ou combinações dos mesmos usados no documento existem e deve ser assim entendido que a possibilidade de existência ou adição de um ou mais diferentes recursos, números, etapas, operações, elementos, componentes ou combinações dos mesmos não são excluídos.[030] The disclosure of this document can be modified in various ways and specific embodiments thereof will be described and illustrated in the drawings. Terms used herein are used only to describe specific embodiments, but are not intended to limit the method disclosed herein. An expression of a singular number includes an expression of “at least one” as long as it is clearly read differently. Terms such as “include” and “have” are intended to indicate that the features, numbers, steps, operations, elements, components or combinations thereof used in the document exist and it should be understood that the possibility of the existence or addition of a or more different features, numbers, steps, operations, elements, components or combinations thereof are not excluded.

[031] Além disso, cada configura dos desenhos descritos no presente documento é uma ilustração independente para explicar funções como características que são diferentes umas das outras, e não significa que cada configura seja implementada por hardware ou software diferente mutuamente. Por exemplo, duas ou mais configurações podem ser combinadas para formar uma configura e uma configura também pode ser dividida em várias configurações. Sem se afastar da essência do método revelado do presente documento, modalidades nas quais as configurações são combinadas e/ou separadas estão incluídas no escopo da divulgação do presente documento.[031] Furthermore, each configuration of the drawings described in this document is an independent illustration to explain functions such as characteristics that are different from each other, and does not mean that each configuration is implemented by mutually different hardware or software. For example, two or more configurations can be combined to form a configuration, and a configuration can also be divided into multiple configurations. Without departing from the essence of the disclosed method of the present document, embodiments in which the configurations are combined and/or separate are included in the scope of the disclosure of the present document.

[032] O presente documento se refere à codificação de vídeo/imagem. Por exemplo, um método/modalidade revelado no presente documento pode ser aplicado a um método revelado em um padrão de codificação de vídeo versátil (VVC). Além disso, o método/modalidade revelado no presente documento pode ser aplicado a um método revelado em um padrão de codificação de vídeo essencial (EVC), padrão AOMedia Video 1 (AV1), 2ageração de padrão de codificação de áudio e vídeo (AVS2), ou um padrão de codificação de vídeo/imagem de próxima geração (por exemplo, H.267, H.268, etc.).[032] This document refers to video/image coding. For example, a method/embodiment disclosed herein may be applied to a method disclosed in a versatile video coding (VVC) standard. Furthermore, the method/embodiment disclosed herein can be applied to a method disclosed in an Essential Video Coding (EVC) standard, AOMedia Video 1 (AV1) standard, 2nd generation audio and video coding standard (AVS2) , or a next-generation video/image coding standard (e.g. H.267, H.268, etc.).

[033] No presente documento, um vídeo pode se referir a uma série de imagens com o passar do tempo. Uma figura se refere, em geral, à unidade que representa uma imagem em um quadro de tempo particular, e uma fatia/tile se refere à unidade que constitui uma parte da figura em termos de codificação. Uma fatia/tile pode incluir uma ou mais unidades de árvore de codificação (CTUs). Uma figura pode consistir em uma ou mais fatias/tiles. Uma figura pode consistir em um ou mais grupos de tile. Um grupo de tile pode incluir um ou mais tiles. Um tijolo pode representar uma região retangular de fileiras de CTU em um tile em uma figura). Um tile pode ser particionado em múltiplos tijolos, sendo que cada um desses consiste em uma ou mais fileiras de CTU no tile. Um tile que não é particionado em múltiplos tiles também pode ser referido como um tijolo. Uma varredura de tijolo é uma ordenação sequencial específica de CTUs que particionam uma figura onde os CTUs são ordenados consecutivamente em uma varredura rasterizada de CTU em um tijolo, tijolos em um tile são ordenados consecutivamente em uma varredura rasterizada dos tijolos do tile, e os tiles em uma figura são ordenados consecutivamente em uma varredura rasterizada dos tiles da figura. Um tile é uma região retangular de CTUs em uma coluna de tile particular e uma fileira de tile particular em uma figura. A coluna de tile é uma região retangular de CTUs tendo uma altura igual à altura da figura e uma largura especificada por elementos de sintaxe no conjunto de parâmetros de figura. A fileira de tile é uma região retangular de CTUs tendo uma altura especificada por elementos de sintaxe no conjunto de parâmetros de figura e uma largura igual à largura da figura). Uma varredura de tile é uma ordenação sequencial específica de CTUs particionando uma figura onde os CTUs são ordenados consecutivamente em uma varredura rasterizada de CTU em um tile enquanto tiles em uma figura são ordenados consecutivamente em uma varredura rasterizada dos tiles da figura. Uma fatia inclui um número inteiro de tijolos de uma figura que pode estar exclusivamente contida em uma unidade de NAL única. Uma fatia pode ser consistir em uma série de tiles completos ou apenas uma sequência consecutiva de tijolos completos de um tile. No presente documento, um grupo de tile e fatia pode ser usado de modo intercambiável. Por exemplo, no presente documento, um grupo de tile/cabeçalho de grupo de tile pode ser referido como uma fatia/cabeçalho de fatia.[033] In this document, a video may refer to a series of images over time. A figure refers, in general, to the unit that represents an image in a particular time frame, and a slice/tile refers to the unit that constitutes a part of the figure in terms of coding. A slice/tile can include one or more coding tree units (CTUs). A figure can consist of one or more slices/tiles. A figure can consist of one or more tile groups. A tile group can include one or more tiles. A brick can represent a rectangular region of CTU rows on a tile in a figure). A tile can be partitioned into multiple bricks, each of which consists of one or more rows of CTUs in the tile. A tile that is not partitioned into multiple tiles can also be referred to as a brick. A brick scan is a specific sequential ordering of CTUs that partition a figure where CTUs are ordered consecutively in a raster scan of the CTU in a brick, bricks in a tile are ordered consecutively in a raster scan of the tile's bricks, and the tiles in a figure are ordered consecutively in a raster scan of the figure's tiles. A tile is a rectangular region of CTUs in a particular tile column and a particular tile row in a figure. The tile column is a rectangular region of CTUs having a height equal to the figure height and a width specified by syntax elements in the figure parameter set. The tile row is a rectangular region of CTUs having a height specified by syntax elements in the figure parameter set and a width equal to the figure width). A tile scan is a specific sequential ordering of CTUs partitioning a figure where CTUs are ordered consecutively in a raster scan of the CTU in a tile while tiles in a figure are ordered consecutively in a raster scan of the figure's tiles. A slice includes an integer number of bricks of a figure that can be uniquely contained in a single NAL unit. A slice can consist of a series of complete tiles or just a consecutive sequence of complete bricks of a tile. In this document, a tile and slice group can be used interchangeably. For example, in the present document, a tile group/tile group header may be referred to as a slice/slice header.

[034] Um pixel ou um pel pode significar uma menor unidade que constitui uma figura (ou imagem). Da mesma forma, ‘amostra’ pode ser usada como um termo correspondente a um pixel. Uma amostra pode, em geral, representar um pixel ou um valor de um pixel, e pode representar apenas um pixel/valor de pixel de um componente de luma ou apenas um pixel/valor de pixel de um componente de croma.[034] A pixel or a pel can mean a smaller unit that constitutes a figure (or image). Similarly, ‘sample’ can be used as a term corresponding to a pixel. A swatch may, in general, represent a pixel or a value of a pixel, and may represent only a pixel/pixel value of a luma component or only a pixel/pixel value of a chroma component.

[035] Uma unidade pode representar uma unidade básica de processamento de imagem. A unidade pode incluir pelo menos uma dentre uma região específica da figura e informações relacionadas à região. Uma unidade pode incluir um bloco de luma e dois blocos de croma (por exemplo, cb, cr). A unidade pode ser usada de modo intercambiável com termos como bloco ou área em alguns casos. Em um caso geral, um bloco M*N pode incluir amostras (ou arranjos de amostra) ou um conjunto (ou arranjo) de coeficientes de transformada de M colunas e N fileiras. Alternativamente, a amostra pode significar um valor de pixel no domínio espacial, e quando esse valor de pixel for transformada ao domínio de frequência, pode significar um coeficiente de transformada no domínio de frequência.[035] A unit may represent a basic image processing unit. The unit may include at least one of a specific region of the figure and information related to the region. A unit may include one luma block and two chroma blocks (e.g. cb, cr). The unit can be used interchangeably with terms such as block or area in some cases. In a general case, an M*N block may include samples (or sample arrays) or a set (or array) of M column and N row transform coefficients. Alternatively, the sample may mean a pixel value in the spatial domain, and when that pixel value is transformed to the frequency domain, it may mean a transform coefficient in the frequency domain.

[036] A unidade pode ser usada alternadamente com o termo, como um bloco ou uma área em alguns casos. Geralmente, um bloco MxN pode representar samples compostos por M colunas e N linhas ou um conjunto de coeficientes de transformada. A amostra pode geralmente representar um pixel ou um valor do pixel e também pode representar apenas o valor de pixel/pixel de um componente luma e também representar apenas o valor de pixel/pixel de um componente croma. A amostra pode ser usada como o termo correspondente a um pixel ou um pel configurando uma imagem (ou imagem).[036] Unit can be used interchangeably with the term, as a block or an area in some cases. Generally, an MxN block can represent samples composed of M columns and N rows or a set of transform coefficients. The sample can generally represent a pixel or a pixel value and can also represent just the pixel/pixel value of a luma component and also represent just the pixel/pixel value of a chroma component. Sample can be used as the term corresponding to a pixel or a pel configuring an image (or image).

[037] Várias modalidades relacionadas à codificação de vídeo/imagem são apresentadas no presente documento, e as modalidades podem ser combinadas entre si exceto onde declarado em contrário.[037] Various modalities related to video/image coding are presented in this document, and the modalities may be combined with each other except where stated otherwise.

[038] No presente documento, recursos técnicos individualmente explicados em desenhos podem ser individualmente implementados ou simultaneamente implementados.[038] In this document, technical resources individually explained in drawings can be individually implemented or simultaneously implemented.

[039] Doravante, modalidades do presente documento serão descritas em detalhes com referência aos desenhos anexos. Além disso, numerais de referência semelhantes são usados para indicar elementos semelhantes ao longo dos desenhos, e as mesmas descrições nos elementos semelhantes podem ser omitidas.[039] Hereinafter, embodiments of the present document will be described in detail with reference to the attached drawings. Furthermore, similar reference numerals are used to indicate similar elements throughout the drawings, and the same descriptions on similar elements may be omitted.

[040] A Figura 1 ilustra um exemplo de um sistema de codificação de vídeo/imagem ao qual as modalidades do presente documento podem ser aplicadas.[040] Figure 1 illustrates an example of a video/image coding system to which the modalities of the present document can be applied.

[041] Referindo-se à Figura 1, um sistema de codificação de vídeo/imagem pode incluir um primeiro dispositivo (um dispositivo de origem) e um segundo dispositivo (um dispositivo de recepção). O dispositivo de origem pode transmitir informações ou dados de vídeo/imagem codificados para o dispositivo de recepção por meio de um meio de armazenamento digital ou rede na forma de um arquivo ou streaming.[041] Referring to Figure 1, a video/image coding system may include a first device (a source device) and a second device (a receiving device). The source device may transmit information or encoded video/image data to the receiving device via a digital storage medium or network in the form of a file or stream.

[042] O dispositivo de origem pode incluir uma fonte de vídeo, um aparelho de codificação e um transmissor. O dispositivo receptor pode incluir um receptor, um aparelho de decodificação, e um processador. O aparelho de codificação pode ser denominado aparelho de codificação de vídeo/imagem, e o aparelho de decodificação pode ser denominado aparelho de decodificação de vídeo/imagem. O transmissor pode ser incluído no aparelho de codificação. O receptor pode ser incluído no aparelho de decodificação. O renderizador pode incluir uma tela, e a tela pode ser configurada como um dispositivo separado ou um componente externo.[042] The source device may include a video source, an encoding apparatus and a transmitter. The receiving device may include a receiver, a decoding apparatus, and a processor. The encoding apparatus may be called a video/image encoding apparatus, and the decoding apparatus may be called a video/image decoding apparatus. The transmitter may be included in the coding apparatus. The receiver may be included in the decoding apparatus. The renderer can include a canvas, and the canvas can be configured as a separate device or an external component.

[043] A fonte de vídeo pode adquirir vídeo/imagem por meio de um processo de captura, sintetização ou geração do vídeo/imagem. A fonte de vídeo pode incluir um dispositivo de captura de vídeo/imagem e/ou um dispositivo gerador de vídeo/imagem. O dispositivo de captura de vídeo/imagem pode incluir, por exemplo, uma ou mais câmeras, arquivos de vídeo/imagem incluindo vídeo/imagens capturados anteriormente e semelhantes. O dispositivo de geração de vídeo/imagem pode incluir, por exemplo, computadores, tablets e telefones inteligentes e pode (eletronicamente) gerar vídeo/imagens. Por exemplo, um vídeo/imagem virtual pode ser gerado através de um computador ou similar. Neste caso, o processo de captura de vídeo/imagem pode ser substituído por um processo de geração de dados relacionados.[043] The video source can acquire video/image through a process of capturing, synthesizing or generating the video/image. The video source may include a video/image capture device and/or a video/image generating device. The video/image capture device may include, for example, one or more cameras, video/image files including previously captured video/images, and the like. The video/image generating device may include, for example, computers, tablets and smart phones and may (electronically) generate video/images. For example, a virtual video/image can be generated using a computer or similar. In this case, the video/image capture process can be replaced by a related data generation process.

[044] O aparelho de codificação pode codificar vídeo/imagem de entrada. O aparelho de codificação pode executar uma série de procedimentos, como predição, transformada e quantização para compactação e eficiência de codificação. Os dados codificados (vídeo codificado/informações de imagem) podem ser produzidos na forma de um fluxo de bits.[044] The encoding apparatus can encode input video/image. The coding apparatus can perform a series of procedures such as prediction, transform, and quantization for compression and coding efficiency. The encoded data (encoded video/image information) can be output in the form of a bit stream.

[045] O transmissor pode transmitir a imagem/informações de imagem codificada ou saída de dados na forma de um fluxo de bits para o receptor do dispositivo receptor por meio de um meio de armazenamento digital ou uma rede na forma de um arquivo ou transmissão. O meio de armazenamento digital pode incluir vários meios de armazenamento, como USB, SD, CD, DVD, Blu-ray, HDD, SSD e semelhantes. O transmissor pode incluir um elemento para gerar um arquivo de mídia através de um formato de arquivo predeterminado e pode incluir um elemento para transmissão através de uma rede de difusão/comunicação. O receptor pode receber/extrair o fluxo de bits e transmitir o fluxo de bits recebido para o aparelho de decodificação.[045] The transmitter may transmit the encoded image/image information or data output in the form of a bit stream to the receiver of the receiving device via a digital storage medium or a network in the form of a file or transmission. Digital storage medium can include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, SSD and the like. The transmitter may include an element for generating a media file via a predetermined file format and may include an element for transmission over a broadcast/communication network. The receiver can receive/extract the bit stream and transmit the received bit stream to the decoding apparatus.

[046] O aparelho de decodificação pode decodificar o vídeo/imagem realizando uma série de procedimentos como desquantização, transformada inversa e predição correspondente ao funcionamento do aparelho de codificação.[046] The decoding device can decode the video/image by performing a series of procedures such as dequantization, inverse transform and prediction corresponding to the operation of the coding device.

[047] O renderizador pode renderizar o vídeo/imagem decodificado. O vídeo/imagem renderizado pode ser exibido na tela.[047] The renderer can render the decoded video/image. The rendered video/image can be displayed on the screen.

[048] No presente documento, o termo “/” “e”, deve ser interpretado para indicar “e/ou.” Por exemplo, a expressão “A/B” pode significar “A e/ou B.” Além disso, “A, B” pode significar “A e/ou B”. Além disso, “A/B/C” pode significar “pelo menos um de A, B e/ou C”. Além disso, “A/B/C” pode significar “pelo menos um de A, B e/ou C”.[048] In this document, the term “/” “and” should be interpreted to indicate “and/or.” For example, the expression “A/B” can mean “A and/or B.” Furthermore, “A, B” can mean “A and/or B”. Furthermore, “A/B/C” can mean “at least one of A, B and/or C”. Furthermore, “A/B/C” can mean “at least one of A, B and/or C”.

[049] Além disso, no documento, o termo “ou” deve ser interpretado para indicar “e/ou”. Por exemplo, a expressão “A ou B” pode compreender 1) apenas A, 2) apenas B e/ou 3) A e B. Em outras palavras, o termo “ou” neste documento deve ser interpretado para indicar “adicional ou alternativamente”.[049] Furthermore, in the document, the term “or” must be interpreted to indicate “and/or”. For example, the expression “A or B” may comprise 1) A only, 2) B only, and/or 3) A and B. In other words, the term “or” in this document should be interpreted to indicate “additionally or alternatively ”.

[050] Ademais, os parênteses usados no presente relatório descritivo podem significar “por exemplo”. De modo específico, no caso onde “predição (intrapredição)” é expressada, pode-se indicar que “intrapredição” é proposta como um exemplo de “predição”. Em outras palavras, o termo “predição” no presente relatório descritivo não se limita à “intrapredição”, e pode-se indicar que “intrapredição” é proposta como um exemplo de “predição”. Ademais, mesmo no caso onde a “predição (isto é, intrapredição)” é expressada, pode-se indicar que “intrapredição” é proposta como um exemplo de “predição”.[050] Furthermore, the parentheses used in this specification may mean “for example”. Specifically, in the case where “prediction (intraprediction)” is expressed, it can be indicated that “intraprediction” is proposed as an example of “prediction”. In other words, the term “prediction” in the present specification is not limited to “intraprediction”, and it may be indicated that “intraprediction” is proposed as an example of “prediction”. Furthermore, even in the case where “prediction (i.e., intraprediction)” is expressed, it can be indicated that “intraprediction” is proposed as an example of “prediction”.

[051] A Figura 2 é um diagrama que ilustra esquematicamente a configura de um aparelho de codificação de vídeo/imagem ao qual as modalidades do presente documento podem ser aplicadas. Doravante, o que é referido como aparelho de codificação de vídeo pode incluir um aparelho de codificação de imagem.[051] Figure 2 is a diagram that schematically illustrates the configuration of a video/image coding apparatus to which the modalities of the present document can be applied. Hereinafter, what is referred to as a video coding apparatus may include an image coding apparatus.

[052] Referindo-se à Figura 2, o aparelho de codificação 200 pode incluir e ser configurado com um particionador de imagem 210, um preditor 220, um processador residual 230, um codificador de entropia 240, um adicionador 250, um filtro 260 e uma memória 270. o preditor 220 pode incluir um interpreditor 221 e um intrapreditor 222. O processador residual 230 pode incluir um transformador 232, um quantizador 233, um desquantizador 234 e um transformador inverso 235. O processador residual 230 pode ainda incluir um subtrator 231. O adicionador 250 pode ser chamado de reconstrutor ou gerador de bloco reconstruído. O particionador de imagem 210, o preditor 220, o processador residual 230, o codificador de entropia 240, o adicionador 250 e o filtro 260, que foram descritos acima, podem ser configurados por um ou mais componentes de hardware (por exemplo, conjuntos de chips codificadores ou processadores) de acordo com uma modalidade. Além disso, a memória 270 pode incluir um armazenamento temporário de imagem decodificada (DPB), e também pode ser configurada por um meio de armazenamento digital. O componente de hardware pode ainda incluir a memória 270 como um componente interno/externo.[052] Referring to Figure 2, the coding apparatus 200 may include and be configured with an image partitioner 210, a predictor 220, a residual processor 230, an entropy encoder 240, an adder 250, a filter 260 and a memory 270. the predictor 220 may include an interpredictor 221 and an intrapredictor 222. The residual processor 230 may include a transformer 232, a quantizer 233, a dequantizer 234, and an inverse transformer 235. The residual processor 230 may further include a subtractor 231 The adder 250 may be called a rebuilder or a rebuilt block generator. Image partitioner 210, predictor 220, residual processor 230, entropy encoder 240, adder 250, and filter 260, which have been described above, may be configured by one or more hardware components (e.g., sets of encoder chips or processors) according to one embodiment. Furthermore, memory 270 may include a temporary decoded picture store (DPB), and may also be configured by a digital storage medium. The hardware component may further include memory 270 as an internal/external component.

[053] O particionador de imagem 210 pode dividir uma imagem de entrada (ou, imagem, quadro) de entrada para o aparelho de codificação 200 em uma ou mais unidades de processamento. Como exemplo, a unidade de processamento pode ser chamada de unidade de codificação (CU). Neste caso, a unidade de codificação pode ser dividida recursivamente de acordo com uma estrutura de árvore ternária de árvore binária Quad-tree (QTBTTT) de uma unidade de árvore de codificação (CTU) ou a maior unidade de codificação (LCU). Por exemplo, uma unidade de codificação pode ser dividida em uma pluralidade de unidades de codificação de uma profundidade mais profunda com base em uma estrutura de árvore quádrupla, uma estrutura de árvore binária e/ou uma estrutura de árvore ternária. Neste caso, por exemplo, a estrutura de árvore quádrupla é aplicada primeiro e a estrutura de árvore binária e/ou a estrutura de árvore ternária podem ser aplicadas posteriormente. Alternativamente, a estrutura de árvore binária também pode ser aplicada primeiro. Um procedimento de codificação de acordo com o presente documento pode ser realizado com base em uma unidade de codificação final que não é mais dividida. Neste caso, com base na eficiência de codificação de acordo com características de imagem ou semelhantes, a unidade de codificação máxima pode ser usada diretamente como a unidade de codificação final ou, conforme necessário, a unidade de codificação pode ser dividida recursivamente em unidades de codificação de uma profundidade mais profunda, tal que uma unidade de codificação com um tamanho ideal pode ser usada como a unidade de codificação final. Aqui, o procedimento de codificação pode incluir um procedimento como predição, transformada e reconstrução a ser descrito posteriormente. Como outro exemplo, a unidade de processamento pode incluir ainda uma unidade de previsão (PU) ou uma unidade de transformada (TU). Neste caso, cada unidade de previsão e unidade de transformada podem ser divididas ou particionadas da unidade de codificação final mencionada anteriormente. A unidade de predição pode ser uma unidade de predição de amostra e a unidade de transformada pode ser uma unidade para induzir um coeficiente de transformada e/ou uma unidade para induzir um sinal residual do coeficiente de transformada.[053] The image partitioner 210 may divide an input image (or, image, frame) input to the encoding apparatus 200 into one or more processing units. As an example, the processing unit may be called the coding unit (CU). In this case, the coding unit can be divided recursively according to a Quad-tree binary tree ternary tree (QTBTTT) structure of a coding tree unit (CTU) or the largest coding unit (LCU). For example, a coding unit may be divided into a plurality of coding units of a deeper depth based on a quadruple tree structure, a binary tree structure, and/or a ternary tree structure. In this case, for example, the quadruple tree structure is applied first and the binary tree structure and/or the ternary tree structure can be applied later. Alternatively, the binary tree structure can also be applied first. A coding procedure in accordance with this document may be carried out based on a final coding unit that is not further divided. In this case, based on the coding efficiency according to image characteristics or the like, the maximum coding unit can be directly used as the final coding unit, or as necessary, the coding unit can be recursively divided into coding units of a deeper depth, such that an optimally sized encoding unit can be used as the final encoding unit. Here, the coding procedure may include a procedure such as prediction, transform and reconstruction to be described later. As another example, the processing unit may further include a prediction unit (PU) or a transform unit (TU). In this case, each prediction unit and transform unit can be divided or partitioned from the aforementioned final coding unit. The prediction unit may be a sample prediction unit and the transform unit may be a unit for inducing a transform coefficient and/or a unit for inducing a residual signal of the transform coefficient.

[054] O aparelho de codificação 200 pode subtrair o sinal de predição (bloco predito, arranjo de amostra de predição) emitido a partir do interpreditor 221 ou o intrapreditor 222 a partir do sinal de imagem de entrada (bloco original, arranjo de amostra original) para gerar um sinal residual (bloco residual, arranjo de amostra residual), e o sinal residual gerado é transmitido ao transformador 232. Nesse caso, conforme ilustrado, uma unidade para subtrair o sinal de predição (bloco de predição, arranjo de amostra de predição) a partir de um sinal de imagem de entrada (bloco original, arranjo de amostra original) no codificador 200 pode ser referido como um subtrator 231. O preditor 220 pode realizar predição em um bloco alvo de processamento (doravante, referido como um bloco atual) e gerar um bloco predito incluindo amostras de predição para o bloco atual. O preditor 220 pode determinar se intrapredição ou interpredição é aplicada em unidades de um bloco atual ou CU. O preditor 220 pode gerar vários tipos de informações sobre predição, tais como informações de modo de predição, e transmitir as informações geradas ao codificador de entropia 240, conforme será descrito abaixo na descrição de cada modo de predição. As informações sobre predição podem ser codificadas pelo codificador de entropia 240 e emitir sob a forma de um fluxo de bits.[054] The coding apparatus 200 may subtract the prediction signal (predicted block, prediction sample array) emitted from the interpredictor 221 or the intrapredictor 222 from the input image signal (original block, original sample array ) to generate a residual signal (residual block, residual sample array), and the generated residual signal is transmitted to transformer 232. In this case, as illustrated, a unit for subtracting the prediction signal (prediction block, sample array from prediction) from an input image signal (original block, original sample array) in the encoder 200 may be referred to as a subtractor 231. The predictor 220 may perform prediction on a processing target block (hereinafter referred to as a block current) and generate a predicted block including prediction samples for the current block. The predictor 220 can determine whether intraprediction or interprediction is applied on units of a current block or CU. The predictor 220 may generate various types of prediction information, such as prediction mode information, and transmit the generated information to the entropy encoder 240, as will be described below in the description of each prediction mode. The prediction information may be encoded by the entropy encoder 240 and output in the form of a bit stream.

[055] O intrapreditor 222 pode predizer um bloco atual com referência a amostras dentro de uma imagem atual. As amostras referenciadas podem estar localizadas vizinhas ao bloco atual, ou também podem estar localizadas fora do bloco atual de acordo com o modo de predição. Os modos de predição na intrapredição podem incluir uma pluralidade de modos não direcionais e uma pluralidade de modos direcionais. O modo não direcional pode incluir, por exemplo, um modo DC ou um modo planar. O modo direcional pode incluir, por exemplo, 33 modos de predição direcional ou 65 modos de predição direcional de acordo com o grau fino da direção de predição. No entanto, isso é ilustrativo e os modos de previsão direcional que são mais ou menos do que o número acima podem ser usados de acordo com a configura. O intrapreditor 222 também pode determinar o modo de predição aplicado ao bloco atual usando o modo de predição aplicado ao bloco vizinho.[055] The intrapredictor 222 can predict a current block with reference to samples within a current image. The referenced samples can be located neighboring the current block, or they can also be located outside the current block according to the prediction mode. The prediction modes in intraprediction may include a plurality of non-directional modes and a plurality of directional modes. The non-directional mode may include, for example, a DC mode or a planar mode. The directional mode may include, for example, 33 directional prediction modes or 65 directional prediction modes according to the fine degree of the prediction direction. However, this is illustrative and directional prediction modes that are more or less than the above number can be used according to the configuration. The intrapredictor 222 may also determine the prediction mode applied to the current block using the prediction mode applied to the neighboring block.

[056] O interpreditor 221 pode induzir um bloco do bloco atual predito com base em um bloco de referência (matriz de amostra de referência) especificado por um vetor de movimento em uma imagem de referência. Neste momento, a fim de diminuir a quantidade de informações de movimento transmitidas no modo de interpredição, as informações de movimento podem ser preditas em unidades de um bloco, um sub-bloco ou uma amostra com base na correlação das informações de movimento entre as bloco vizinho e bloco atual. As informações de movimento podem incluir um vetor de movimento e um índice de imagem de referência. As informações de movimento podem incluir ainda informações de direção de interpredição (predição de L0, predição de L1, predição de Bi ou semelhantes). No caso da interpredição, o bloco vizinho pode incluir um bloco vizinho espacial existente na imagem atual e um bloco vizinho temporal existente na imagem de referência. A imagem de referência incluindo o bloco de referência e a imagem de referência incluindo o bloco vizinho temporal também podem ser iguais entre si e também podem ser diferentes um do outro. O bloco vizinho temporal pode ser denominado como um bloco de referência colocado, um CU colocado (colCU) ou semelhante, e a imagem de referência incluindo o bloco vizinho temporal também pode ser chamada de uma imagem colocada (colPic). Por exemplo, o interpreditor 221 pode configurar uma lista de candidatos de informações de movimento com base nos blocos vizinhos e gerar informações indicando qual candidato é usado para derivar o vetor de movimento e/ou o índice de imagem de referência do bloco atual. A interpredição pode ser realizada com base em vários modos de predição e, por exemplo, no caso de um modo de omissão e um modo de mesclagem, o interpreditor 221 pode usar as informações de movimento do bloco vizinho como as informações de movimento do bloco atual. No caso do modo de omissão, o sinal residual não pode ser transmitido ao contrário do modo de fusão. Um modo de predição de vetor de movimento (MVP) pode indicar o vetor de movimento do bloco atual usando o vetor de movimento do bloco vizinho como um preditor de vetor de movimento e sinalizando uma diferença de vetor de movimento.[056] The interpredictor 221 may induce a block from the predicted current block based on a reference block (reference sample matrix) specified by a motion vector in a reference image. At this time, in order to decrease the amount of motion information transmitted in interprediction mode, motion information can be predicted in units of a block, a sub-block or a sample based on the correlation of motion information between the blocks neighbor and current block. The motion information may include a motion vector and a reference image index. The motion information may further include interprediction direction information (L0 prediction, L1 prediction, Bi prediction, or the like). In the case of interprediction, the neighboring block may include a spatial neighboring block existing in the current image and a temporal neighboring block existing in the reference image. The reference image including the reference block and the reference image including the temporal neighboring block may also be the same as each other and may also be different from each other. The temporal neighbor block may be called a collocated reference block, a collocated CU (colCU) or the like, and the reference image including the temporal neighbor block may also be called a collocated image (colPic). For example, interpredictor 221 may configure a candidate list of motion information based on neighboring blocks and generate information indicating which candidate is used to derive the motion vector and/or reference image index of the current block. Interprediction can be performed based on various prediction modes, and for example, in the case of an omit mode and a merge mode, the interpredictor 221 can use the movement information of the neighboring block as the movement information of the current block. . In case of skip mode, the residual signal cannot be transmitted unlike in melting mode. A motion vector prediction (MVP) mode can indicate the motion vector of the current block by using the motion vector of the neighboring block as a motion vector predictor and signaling a motion vector difference.

[057] O preditor 220 pode gerar um sinal de predição baseado em vários métodos de predição que serão descritos abaixo. Por exemplo, o preditor 220 pode aplicar intrapredição ou interpredição para predição de um bloco e pode aplicar simultaneamente intrapredição e interpredição. Isso pode ser denominado como inter e intrapredição combinadas (CIIP). Além disso, o preditor pode se basear em um modo de predição de cópia de bloco intra (IBC) ou se basear em um modo de paleta para predição de um bloco. O modo de predição de IBC ou o modo de paleta podem ser usados para codificação de imagem/vídeo de conteúdos como jogos, por exemplo, codificação de conteúdo em tela (SCC). IBC basicamente realiza predição em uma figura atual, mas pode ser realizado similarmente à interpredição pelo fato de que um bloco de referência é derivado na figura atual. Ou seja, IBC pode usar pelo menos uma das técnicas de interpredição descritas no presente documento. O modo de paleta pode ser visualizado como um exemplo de intracodificação ou intrapredição. Quando o modo de paleta for aplicado, um valor amostral na figura pode ser sinalizado com base nas informações sobre a tabela de paleta e índice de paleta.[057] The predictor 220 can generate a prediction signal based on various prediction methods that will be described below. For example, the predictor 220 may apply intraprediction or interprediction to predict a block and may simultaneously apply intraprediction and interprediction. This can be termed as combined inter- and intra-prediction (CIIP). Furthermore, the predictor may be based on an intra block copy (IBC) prediction mode or based on a palette mode for single-block prediction. IBC prediction mode or palette mode can be used for image/video coding of content such as games, for example, on-screen content coding (SCC). IBC basically performs prediction on a current figure, but it can be performed similarly to interprediction by the fact that a reference block is derived on the current figure. That is, IBC can use at least one of the interprediction techniques described in this document. Palette mode can be viewed as an example of intracoding or intraprediction. When palette mode is applied, a sample value in the figure can be flagged based on information about the palette table and palette index.

[058] O sinal de predição gerado pelo preditor (incluindo o interpreditor 221 e/ou o intrapreditor 222) pode ser usado para gerar um sinal reconstruído ou pode ser usado para gerar um sinal residual.[058] The prediction signal generated by the predictor (including the interpredictor 221 and/or the intrapredictor 222) can be used to generate a reconstructed signal or can be used to generate a residual signal.

[059] O transformador 232 pode gerar coeficientes de transformada aplicando-se uma técnica de transformada ao sinal residual. Por exemplo, a técnica de transformada pode incluir pelo menos uma dentre uma transformada de cosseno discreta (DCT), uma transformada de seno discreta (DST), uma transformada baseada em gráfico (GBT), ou uma transformada condicionalmente não linear (CNT). No presente documento, GBT se refere à transformação obtida a partir de um gráfico ao expressar informações de relação entre pixels no gráfico. CNT se refere à transformação obtida com base em um sinal de predição gerado usando todos os pixels previamente reconstruídos. Da mesma forma, o processo de transformação pode ser aplicado a um bloco de pixels tendo o mesmo tamanho que um quadrado ou pode ser aplicado a um bloco de um tamanho variável que não seja um quadrado.[059] Transformer 232 can generate transform coefficients by applying a transform technique to the residual signal. For example, the transform technique may include at least one of a discrete cosine transform (DCT), a discrete sine transform (DST), a graph-based transform (GBT), or a conditionally nonlinear transform (CNT). In this document, GBT refers to the transformation obtained from a graph by expressing relationship information between pixels in the graph. CNT refers to the transformation obtained based on a prediction signal generated using all previously reconstructed pixels. Likewise, the transformation process can be applied to a block of pixels having the same size as a square or can be applied to a block of a variable size that is not a square.

[060] O quantizador 233 quantiza os coeficientes de transformada e transmite os mesmos ao codificador de entropia 240, e o codificador de entropia 240 codifica o sinal quantizado (informações sobre os coeficientes de transformada quantizada) e emite o sinal codificado como um fluxo de bits. Informações sobre coeficientes de transformada quantizada podem ser referidos como informações residuais. O quantizador 233 pode rearranjar os coeficientes de transformada quantizada no bloco sob a forma de um vetor unidimensional com base em uma ordem de varredura de coeficiente e pode gerar informações sobre os coeficientes de transformada nos coeficientes de transformada quantizada sob a forma de vetor unidimensional.[060] The quantizer 233 quantizes the transform coefficients and transmits them to the entropy encoder 240, and the entropy encoder 240 encodes the quantized signal (information about the quantized transform coefficients) and outputs the encoded signal as a bit stream . Information about quantized transform coefficients can be referred to as residual information. The quantizer 233 can rearrange the quantized transform coefficients in the block in the form of a one-dimensional vector based on a coefficient sweep order and can generate information about the transform coefficients in the quantized transform coefficients in the form of a one-dimensional vector.

[061] O codificador de entropia 240 pode realizar vários métodos de codificação como, por exemplo, Golomb exponencial, codificação de comprimento variável adaptativa em contexto (CAVLC), e codificação aritmética binária adaptativa em contexto (CABAC). O codificador de entropia 240 pode codificar informações necessárias para reconstrução de vídeo/imagem (por exemplo, valores de elementos de sintaxe, etc.) além dos coeficientes de transformada quantizada juntos ou separadamente. Informações codificadas (por exemplo, informações de vídeo/imagem codificadas) podem ser transmitidas ou armazenadas em unidades de uma unidade de camada de abstração de rede (NAL) sob a forma de um fluxo de bits. As informações de vídeo/imagem podem incluir, ainda, informações sobre vários conjuntos de parâmetro, como um conjunto de parâmetros de adaptação (APS), um conjunto de parâmetros de figura (PPS), um conjunto de parâmetros de sequência (SPS), ou um conjunto de parâmetros de vídeo (VPS). Da mesma forma, as informações de vídeo/imagem podem incluir, ainda, informações de restrições gerais. No presente documento, informações e/ou elementos de sintaxe transmitidos/sinalizados a partir do aparelho de codificação ao aparelho de decodificação podem ser incluídas em informações de vídeo/imagem. As informações de vídeo/imagem podem ser codificadas através do procedimento de codificação descrito acima e incluídas no fluxo de bits. O fluxo de bits pode ser transmitido através de uma rede ou pode ser armazenado em uma mídia de armazenamento digital. No presente documento, a rede pode incluir uma rede de radiodifusão e/ou uma rede de comunicação, e a mídia de armazenamento digital pode incluir várias mídias de armazenamento como USB, SD, CD, DVD, Blu-ray, HDD e SSD. Uma unidade de transmissão (não mostrada) e/ou uma unidade de armazenamento (não mostrada) para transmitir ou armazenar um sinal emitido a partir do codificador de entropia 240 pode ser configurada como elementos internos/externos do aparelho de codificação 200, ou a unidade de transmissão pode ser incluída no codificador de entropia 240.[061] The entropy encoder 240 can perform various encoding methods such as, for example, exponential Golomb, context-adaptive variable length coding (CAVLC), and context-adaptive binary arithmetic coding (CABAC). The entropy encoder 240 may encode information necessary for video/image reconstruction (e.g., values of syntax elements, etc.) in addition to the quantized transform coefficients together or separately. Encoded information (e.g., encoded video/image information) may be transmitted or stored in units of a network abstraction layer (NAL) unit in the form of a bit stream. The video/image information may further include information about various parameter sets, such as an adaptation parameter set (APS), a figure parameter set (PPS), a sequence parameter set (SPS), or a set of video parameters (VPS). Likewise, video/image information may also include general restriction information. In this document, information and/or syntax elements transmitted/signaled from the encoding apparatus to the decoding apparatus may be included in video/image information. Video/image information can be encoded using the encoding procedure described above and included in the bit stream. The bit stream can be transmitted over a network or can be stored on digital storage media. Herein, the network may include a broadcasting network and/or a communication network, and the digital storage media may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD and SSD. A transmission unit (not shown) and/or a storage unit (not shown) for transmitting or storing a signal emitted from the entropy encoder 240 may be configured as internal/external elements of the coding apparatus 200, or the unit transmission code may be included in the entropy encoder 240.

[062] Os coeficientes de transformada quantizada emitidos a partir do quantizador 233 podem ser usados para gerar um sinal de predição. Por exemplo, o sinal residual (bloco residual ou amostras residuais) pode ser reconstruído aplicando-se desquantização e transformada inversa aos coeficientes de transformada quantizada através do desquantizador 234 e a unidade de transformada inversa 235. O adicionador 250 pode adicionar o sinal residual reconstruído ao sinal de predição emitido a partir do interpreditor 221 ou do intrapreditor 222 para gerar um sinal reconstruído (figura reconstruída, bloco reconstruído, arranjo de amostra reconstruído). Quando não houver um residual para o bloco alvo de processamento, tal como quando o modo de omissão for aplicado, o bloco predito pode ser usado como um bloco reconstruído. O adicionador 250 pode ser referido como uma unidade de restauração ou um gerador de bloco de restauração. O sinal reconstruído gerado pode ser usado para intrapredição de um próximo bloco alvo de processamento na figura atual, ou pode ser usado para interpredição da próxima figura após ser filtrada conforme descrito abaixo.[062] The quantized transform coefficients output from the quantizer 233 can be used to generate a prediction signal. For example, the residual signal (residual block or residual samples) can be reconstructed by applying dequantization and inverse transform to the quantized transform coefficients via the dequantizer 234 and the inverse transform unit 235. The adder 250 can add the reconstructed residual signal to the prediction signal output from interpredictor 221 or intrapredictor 222 to generate a reconstructed signal (reconstructed figure, reconstructed block, reconstructed sample array). When there is no residual for the processing target block, such as when skip mode is applied, the predicted block can be used as a reconstructed block. The adder 250 may be referred to as a restoration unit or a restoration block generator. The generated reconstructed signal can be used for intra-prediction of a next processing target block in the current figure, or it can be used for inter-prediction of the next figure after being filtered as described below.

[063] Entretanto, um mapeamento de luma com escalonamento de croma (LMCS) pode ser aplicado durante um processo de codificação e/ou reconstrução de figura.[063] However, a chroma scaling luma mapping (LMCS) can be applied during a figure encoding and/or reconstruction process.

[064] O filtro 260 pode aprimorar a qualidade de imagem subjetiva/objetiva pela aplicação de filtragem ao sinal reconstruído. Por exemplo, o filtro 260 pode gerar uma figura reconstruída modificada pela aplicação de vários métodos de filtragem à figura reconstruída e armazenar a figura reconstruída modificada na memória 270, especificamente, em um DPB da memória 270. Os vários métodos de filtragem podem incluir, por exemplo, filtragem de deblocagem, um deslocamento adaptável à amostra, um filtro de loop adaptável, um filtro bilateral, e similares. O filtro 260 pode gerar vários tipos de informações relacionadas à filtragem e transferir as informações geradas ao codificador de entropia 240 como descrito posteriormente na descrição de cada método de filtragem. As informações relacionadas à filtragem podem ser codificadas pelo codificador de entropia 240 e emitidas sob a forma de um fluxo de bits.[064] Filter 260 can improve subjective/objective image quality by applying filtering to the reconstructed signal. For example, filter 260 may generate a modified reconstructed figure by applying various filtering methods to the reconstructed figure and storing the modified reconstructed figure in memory 270, specifically, in a DPB of memory 270. The various filtering methods may include, e.g. example, deblocking filtering, an adaptive sample shift, an adaptive loop filter, a bilateral filter, and the like. The filter 260 may generate various types of filtering-related information and transfer the generated information to the entropy encoder 240 as described later in the description of each filtering method. Filtering-related information may be encoded by entropy encoder 240 and output in the form of a bit stream.

[065] A figura reconstruída modificada transmitida à memória 270 pode ser usada como uma figura de referência no interpreditor 221. Quando a interpredição é aplicada através do aparelho de codificação, a incompatibilidade de predição entre o aparelho de codificação 200 e o aparelho de decodificação pode ser evitada e a eficiência de codificação pode ser aprimorada.[065] The modified reconstructed figure transmitted to memory 270 can be used as a reference figure in the interpredictor 221. When the interprediction is applied through the encoding apparatus, prediction incompatibility between the encoding apparatus 200 and the decoding apparatus may be avoided and coding efficiency can be improved.

[066] O DPB da memória 270 pode armazenar a figura reconstruída modificada para uso como a figura de referência no interpreditor 221. A memória 270 pode armazenar as informações de movimento de um bloco a partir do qual as informações de movimento na figura atual são derivadas (ou codificadas) e/ou as informações de movimento dos blocos na figura que já foram reconstruídas. As informações de movimento armazenadas podem ser transferiras ao interpreditor 221 e utilizadas como as informações de movimento do bloco vizinho espacial ou as informações de movimento do bloco vizinho temporal. A memória 270 pode armazenar as amostras reconstruídas de blocos reconstruídos na figura atual e pode transferir as amostras reconstruídas para o intrapreditor 222.[066] The DPB of memory 270 may store the modified reconstructed figure for use as the reference figure in interpredictor 221. Memory 270 may store the motion information of a block from which the motion information in the current figure is derived. (or encoded) and/or the movement information of the blocks in the figure that have already been reconstructed. The stored motion information can be transferred to the interpredictor 221 and used as the spatial neighboring block motion information or the temporal neighboring block motion information. Memory 270 may store the reconstructed samples of reconstructed blocks in the current figure and may transfer the reconstructed samples to the intrapredictor 222.

[067] A Figura 3 é um diagrama para explicar esquematicamente a configura de um aparelho de decodificação de vídeo/imagem ao qual as modalidades do presente documento podem ser aplicadas.[067] Figure 3 is a diagram to schematically explain the configuration of a video/image decoding apparatus to which the embodiments of the present document can be applied.

[068] Referindo-se à Figura 3, o aparelho de decodificação 300 pode incluir e configurado com um decodificador de entropia 310, um processador residual 320, um preditor 330, um adicionador 340, um filtro 350 e uma memória 360. O preditor 330 pode incluir um interpreditor 331 e um intrapreditor 332. O processador residual 320 pode incluir um desquantizador 322 e um transformador inverso 321. O decodificador de entropia 310, o processador residual 320, o preditor 330, o adicionador 340 e o filtro 350, que foram descritos anteriormente, podem ser configurados por um ou mais componentes de hardware (por exemplo, chipsets de decodificador ou processadores) de acordo com uma modalidade. Ademais, a memória 360 pode incluir uma memória temporária de figura decodificada (DPB) e pode ser configurada por uma mídia armazenamento digital. O componente de hardware pode incluir adicionalmente a memória 360 como um componente interno/externo.[068] Referring to Figure 3, the decoding apparatus 300 may include and configured with an entropy decoder 310, a residual processor 320, a predictor 330, an adder 340, a filter 350, and a memory 360. The predictor 330 may include an interpredictor 331 and an intrapredictor 332. The residual processor 320 may include a dequantizer 322 and an inverse transformer 321. The entropy decoder 310, the residual processor 320, the predictor 330, the adder 340, and the filter 350, which have been described previously, may be configured by one or more hardware components (e.g., decoder chipsets or processors) according to one embodiment. Furthermore, the memory 360 may include a decoded picture buffer (DPB) and may be configured by a digital storage medium. The hardware component may additionally include memory 360 as an internal/external component.

[069] Quando o fluxo de bits que inclui informações de vídeo/imagem for inserido, o aparelho de decodificação 300 pode reconstruir a imagem em resposta a um processo no qual as informações de vídeo/imagem são processadas no aparelho de codificação ilustrado na Figura 2. Por exemplo, o aparelho de decodificação 300 pode derivar as unidades/blocos com base nas informações relacionadas à partição de bloco adquiridas do fluxo de bits. O aparelho de decodificação 300 pode realizar a decodificação usando uma unidade de processamento aplicada ao aparelho de codificação. Portanto, a unidade de processamento para decodificação pode ser, por exemplo, uma unidade de codificação, e a unidade de codificação pode ser particionada de acordo com a estrutura de árvore quaternária, estrutura de árvore binária e/ou a estrutura de árvore ternária da unidade de árvore de codificação ou da unidade de codificação máxima. Uma ou mais unidades de transformada podem ser derivadas da unidade de codificação. Além disso, o sinal de imagem reconstruída decodificado e emitido através do aparelho de decodificação 300 pode ser reproduzido através de um aparelho de reprodução.[069] When the bit stream including video/image information is input, the decoding apparatus 300 may reconstruct the image in response to a process in which the video/image information is processed in the encoding apparatus illustrated in Figure 2 For example, the decoding apparatus 300 may derive the units/blocks based on the block partition-related information acquired from the bit stream. The decoding apparatus 300 may perform decoding using a processing unit applied to the encoding apparatus. Therefore, the processing unit for decoding may be, for example, an encoding unit, and the encoding unit may be partitioned according to the quaternary tree structure, binary tree structure and/or the ternary tree structure of the unit. coding tree or maximum coding unit. One or more transform units may be derived from the coding unit. Furthermore, the reconstructed image signal decoded and output through the decoding apparatus 300 can be reproduced via a playback apparatus.

[070] O aparelho de decodificação 300 pode receber um sinal emitido a partir do aparelho de codificação da Figura 2 sob a forma de um fluxo de bits, e o sinal recebido pode ser decodificado através do decodificador de entropia 310. Por exemplo, o decodificador de entropia 310 pode analisar o fluxo de bits para derivar informações (por exemplo, informações de vídeo/imagem) necessárias para reconstrução de imagem (ou reconstrução de figura). As informações de vídeo/imagem podem incluir adicionalmente informações sobre vários conjuntos de parâmetros como um conjunto de parâmetros de adaptação (APS), um conjunto de parâmetros de figura (PPS), um conjunto de parâmetros de sequência (SPS) ou um conjunto de parâmetros de vídeo (VPS). Além disso, as informações de vídeo/imagem podem incluir adicionalmente informações de restrição. O aparelho de decodificação pode decodificar adicionalmente a figura com base nas informações no conjunto de parâmetros e/ou nas informações de restrição gerais. As informações sinalizadas/recebidas e/ou elementos de sintaxe descritos posteriormente no presente documento podem ser decodificadas para decodificar o procedimento de decodificação e obtidas do fluxo de bits. Por exemplo, o decodificador de entropia 310 decodifica as informações no fluxo de bits com base em um método de codificação tal como uma codificação de Golomb exponencial, codificação de comprimento variável adaptativa em contexto (CAVLC), ou codificação aritmética adaptativa em contexto (CABAC), e elementos de sintaxe de saída necessários para reconstrução de imagem e valores quantizados de coeficientes de transformada para residual. De modo mais específico, o método de decodificação de entropia CABAC pode receber um bin correspondente a cada elemento de sintaxe no fluxo de bits, determinar um modelo de contexto usando informações de elemento de sintaxe de destino de decodificação de um bloco de destino de decodificação ou informações de um símbolo/bin decodificado em um estágio anterior, e realizar uma decodificação aritmética no bin prevendo-se uma probabilidade de ocorrência de um bin de acordo com o modelo de contexto determinado, e gerar um símbolo correspondente ao valor de cada elemento de sintaxe. Nesse caso, o método de decodificação de entropia CABAC pode atualizar o modelo de contexto usando as informações do símbolo/bin decodificado para um modelo de contexto de um próximo símbolo/bin após determinar o modelo de contexto. As informações relacionadas à predição entre as informações decodificadas pelo decodificador de entropia 310 podem ser fornecidas ao preditor (o interpreditor 332 e o intrapreditor 331), e valores residuais em que a decodificação de entropia foi realizada no decodificador de entropia 310, ou seja, os coeficientes de transformada quantizados e informações de parâmetro relacionadas, pode ser inserido no processador residual 320.[070] The decoding apparatus 300 can receive a signal emitted from the encoding apparatus of Figure 2 in the form of a bit stream, and the received signal can be decoded through the entropy decoder 310. For example, the decoder entropy 310 may analyze the bit stream to derive information (e.g., video/image information) necessary for image reconstruction (or figure reconstruction). The video/image information may additionally include information about various parameter sets such as an adaptation parameter set (APS), a figure parameter set (PPS), a sequence parameter set (SPS), or a parameter set video (VPS). Furthermore, the video/image information may additionally include restriction information. The decoding apparatus may further decode the figure based on information in the parameter set and/or general constraint information. The signaled/received information and/or syntax elements described later herein may be decoded to decode the decoding procedure and obtained from the bit stream. For example, the entropy decoder 310 decodes the information in the bit stream based on a coding method such as an exponential Golomb coding, context-adaptive variable length coding (CAVLC), or context-adaptive arithmetic coding (CABAC). , and output syntax elements required for image reconstruction and quantized values of transform-to-residual coefficients. More specifically, the CABAC entropy decoding method may receive a bin corresponding to each syntax element in the bitstream, determine a context model using decoding target syntax element information from a decoding target block, or information from a symbol/bin decoded in a previous stage, and perform an arithmetic decoding on the bin, predicting a probability of occurrence of a bin according to the determined context model, and generating a symbol corresponding to the value of each syntax element . In this case, the CABAC entropy decoding method can update the context model using the information from the decoded symbol/bin to a context model of a next symbol/bin after determining the context model. The prediction-related information between the information decoded by the entropy decoder 310 may be provided to the predictor (the interpredictor 332 and the intrapredictor 331), and residual values at which entropy decoding was performed in the entropy decoder 310, i.e., the quantized transform coefficients and related parameter information may be input into the residual processor 320.

[071] O processador residual 320 pode derivar um sinal residual (bloco residual, amostras residuais ou matriz de amostra residual). Da mesma forma, as informações sobre filtragem entre as informações decodificadas pelo decodificador de entropia 310 podem ser fornecidas ao filtro 350. Entretanto, a unidade de recepção (não mostrada) para receber um sinal emitido do aparelho de codificação pode ser adicionalmente configurado como um elemento interno/externo do aparelho de decodificação 300, ou a unidade de recepção pode ser um componente do decodificador de entropia 310. Entretanto, o aparelho de decodificação de acordo com o presente documento pode ser denominado como um aparelho de decodificação de vídeo/imagem/figura, e o aparelho de decodificação pode ser dividido em um decodificador de informações (decodificador de informações de vídeo/imagem/figura) e um decodificador de amostra (decodificador de amostra de vídeo/imagem/figura). O decodificador de informações pode incluir o decodificador de entropia 310, e o decodificador de amostra pode incluir pelo menos um dentre o desquantizador 321, o transformador inverso 322, o adicionador 340, o filtro 350, a memória 360, um interpreditor 332 e um intrapreditor 331.[071] The residual processor 320 can derive a residual signal (residual block, residual samples, or residual sample matrix). Likewise, information about filtering among the information decoded by entropy decoder 310 may be provided to filter 350. However, the receiving unit (not shown) for receiving a signal emitted from the encoding apparatus may be further configured as an element internal/external decoding apparatus 300, or the receiving unit may be a component of the entropy decoder 310. However, the decoding apparatus according to the present document may be referred to as a video/image/picture decoding apparatus , and the decoding apparatus can be divided into an information decoder (video/image/picture information decoder) and a sample decoder (video/image/picture sample decoder). The information decoder may include the entropy decoder 310, and the sample decoder may include at least one of the dequantizer 321, the inverse transformer 322, the adder 340, the filter 350, the memory 360, an interpredictor 332, and an intrapredictor. 331.

[072] O desquantizador 321 pode desquantizar os coeficientes de transformada quantizados para emitir os coeficientes de transformada. O desquantizador 321 pode rearranjar os coeficientes de transformada quantizados em uma forma de bloco bidimensional. Nesse caso, o rearranjo pode ser realizado com base na ordem de varredura de coeficiente realizada pelo aparelho de codificação. O dequantizador 321 pode realizar uma desquantização para os coeficientes de transformada quantizados utilizando-se um parâmetro de quantização (por exemplo, informações de tamanho de etapa de quantização) e adquirir coeficientes de transformada.[072] The dequantizer 321 can dequantize the quantized transform coefficients to output the transform coefficients. The dequantizer 321 can rearrange the quantized transform coefficients into a two-dimensional block shape. In this case, the rearrangement can be performed based on the coefficient scanning order performed by the coding apparatus. The dequantizer 321 may perform a dequantization for the quantized transform coefficients using a quantization parameter (e.g., quantization step size information) and acquire transform coefficients.

[073] O transformador inverso 322 transforma inversamente os coeficientes de transformada para adquirir o sinal residual (bloco residual, matriz de amostra residual).[073] The inverse transformer 322 inversely transforms the transform coefficients to acquire the residual signal (residual block, residual sample matrix).

[074] No presente documento, pelo menos uma dentre quantização/desquantização e/ou transformada/transformada inversa pode ser omitida. Quando a quantização/desquantização for omitida, o coeficiente de transformada quantizada pode ser referido como um coeficiente de transformada. Quando a transformada/transformada inversa for omitida, o coeficiente de transformada pode ser denominado como um coeficiente ou um coeficiente residual ou ainda pode ser denominado como coeficiente de transformada para uniformidade de expressão.[074] In this document, at least one of quantization/dequantization and/or transformed/inverse transformed may be omitted. When quantization/dequantization is omitted, the quantized transform coefficient may be referred to as a transform coefficient. When the transform/inverse transform is omitted, the transform coefficient may be termed as a coefficient or a residual coefficient or may be termed as a transform coefficient for uniformity of expression.

[075] No presente documento, o coeficiente de transformada quantizada e o coeficiente de transformada podem ser referidos como um coeficiente de transformada e um coeficiente de transformada escalonado, respectivamente. Nesse caso, as informações residuais podem incluir informações sobre coeficientes de transformada, e as informações sobre os coeficientes de transformada podem ser sinalizados através de sintaxe de codificação residual. Os coeficientes de transformada podem ser derivados com base nas informações residuais (ou informações sobre os coeficientes de transformada), e coeficientes de transformada escalonados podem ser derivados através de transformada inversa (escalonamento) sobre os coeficientes de transformada. Amostras residuais podem ser derivadas com base em transformada inversa (transforma) dos coeficientes de transformada escalonados. Isso também pode ser aplicado/expressado em outras partes do presente documento.[075] In this document, the quantized transform coefficient and the transform coefficient may be referred to as a transform coefficient and a scaled transform coefficient, respectively. In this case, the residual information may include information about transform coefficients, and the information about transform coefficients may be signaled through residual encoding syntax. Transform coefficients can be derived based on the residual information (or information about the transform coefficients), and scaled transform coefficients can be derived by inverse transforming (scaling) on the transform coefficients. Residual samples can be derived based on inverse transform (transform) of the scaled transform coefficients. This may also be applied/expressed elsewhere in this document.

[076] O preditor 330 pode realizar a predição do bloco atual e gerar um bloco predito incluindo as amostras de predição do bloco atual. O preditor pode determinar se a intrapredição é aplicada ou a interpredição é aplicada ao bloco atual com base nas informações na predição emitida do decodificador de entropia 310 e determinar um modo de intra/interpredição específico.[076] The predictor 330 can perform the prediction of the current block and generate a predicted block including the prediction samples from the current block. The predictor may determine whether intra-prediction is applied or inter-prediction is applied to the current block based on information in the prediction emitted from the entropy decoder 310 and determine a specific intra-/inter-prediction mode.

[077] O preditor 330 pode gerar um sinal de predição com base em vários métodos de predição descritos mais adiante. Por exemplo, o preditor pode aplicar intrapredição ou interpredição para predição um bloco, e pode aplicar simultaneamente intrapredição e interpredição. Isto pode ser chamado de interpredição e intra combinada (CIIP). Além disso, o preditor pode ser baseado em um modo de predição de cópia de bloco intra (IBC) ou com base em um modo de paleta para a predição de um bloco. O modo de predição de IBC ou o modo de paleta pode ser usado para codificação de imagem/vídeo de conteúdo tais como jogos, por exemplo, codificação de conteúdo de tela (SCC). A IBC pode basicamente realizar a predição na figura atual, porém pode ser realizada de modo similar à interpredição pelo fato de que um bloco de referência é derivado na figura atual. Ou seja, a IBC pode usar pelo menos uma das técnicas de interpredição descritas no presente documento. O modo de paleta pode ser considerado como um exemplo de intracodificação ou intrapredição. Quando o modo de paleta é aplicado, as informações sobre a tabela de paleta e índice de paleta podem ser incluídas nas informações de vídeo/imagem e sinalizadas.[077] The predictor 330 may generate a prediction signal based on various prediction methods described below. For example, the predictor may apply intraprediction or interprediction to predict a block, and may simultaneously apply intraprediction and interprediction. This can be called combined inter- and intra-prediction (CIIP). Furthermore, the predictor can be based on an intra block copy (IBC) prediction mode or based on a palette mode for predicting a block. IBC prediction mode or palette mode can be used for image/video coding of content such as games, for example, screen content coding (SCC). IBC can basically perform prediction on the current figure, but it can be performed in a similar way to interprediction in that a reference block is derived on the current figure. That is, the IBC may use at least one of the interprediction techniques described in this document. Palette mode can be considered as an example of intracoding or intraprediction. When palette mode is applied, information about the palette table and palette index can be included in the video/image information and flagged.

[078] O intrapreditor 331 pode prever o bloco atual referindo-se às amostras na figura atual. As amostras referidas podem estar situadas na vizinhança do bloco atual ou podem estar situadas separadas do bloco atual de acordo com o modo de predição. Na intrapredição, os modos de predição podem incluir uma pluralidade de modos não direcionais e uma pluralidade de modos direcionais. O intrapreditor 331 pode determinar o modo de predição a ser aplicado ao bloco atual usando o modo de predição aplicado ao bloco vizinho.[078] The intrapredictor 331 can predict the current block by referring to the samples in the current figure. The referred samples may be located in the vicinity of the current block or may be located separate from the current block according to the prediction mode. In intraprediction, the prediction modes may include a plurality of non-directional modes and a plurality of directional modes. The intrapredictor 331 may determine the prediction mode to be applied to the current block using the prediction mode applied to the neighboring block.

[079] O interpreditor 332 pode derivar um bloco predito para o bloco atual com base em um bloco de referência (matriz de amostra de referência) especificado por um vetor de movimento em uma figura de referência. Nesse caso, para reduzir a quantidade de informações de movimento sendo transmitidas no modo de interpredição, as informações de movimento podem ser preditas na unidade de blocos, sub-blocos, ou amostras com base na correlação de informações de movimento entre o bloco vizinho e o bloco atual. As informações de movimento podem incluir um vetor de movimento e um índice de figura de referência. As informações de movimento podem incluir adicionalmente as informações de direção de interpredição (predição L0, predição L1, predição Bi, e similares). No caso de interpredição, o bloco vizinho pode incluir um bloco vizinho espacial existente na figura atual e um bloco vizinho temporal presente na figura de referência. Por exemplo, o interpreditor 332 pode construir uma lista de candidatos de informações de movimento com base nos blocos vizinhos e derivar um vetor de movimento do bloco atual e/ou um índice de figura de referência com base nas informações de seleção de candidato recebidas. A interpredição pode ser realizada com base em vários modos de predição, e as informações sobre a predição podem incluir informações indicando um modo de interpredição para o bloco atual.[079] Interpredictor 332 may derive a predicted block for the current block based on a reference block (reference sample matrix) specified by a motion vector in a reference figure. In this case, to reduce the amount of motion information being transmitted in interprediction mode, motion information can be predicted in unit blocks, sub-blocks, or samples based on the correlation of motion information between the neighboring block and the current block. The motion information may include a motion vector and a reference figure index. The motion information may additionally include the interprediction direction information (L0 prediction, L1 prediction, Bi prediction, and the like). In the case of interprediction, the neighboring block may include a spatial neighboring block existing in the current figure and a temporal neighboring block present in the reference figure. For example, the interpredictor 332 may construct a candidate list of motion information based on neighboring blocks and derive a current block motion vector and/or a reference figure index based on the received candidate selection information. Interprediction may be performed based on various prediction modes, and information about the prediction may include information indicating an interprediction mode for the current block.

[080] O adicionador 340 pode gerar um sinal reconstruído (figura reconstruída, bloco reconstruído ou matriz de amostra reconstruída) pela soma do sinal residual obtido ao sinal de predição (bloco predito ou matriz de amostra predita) emitido do preditor (incluindo o interpreditor 332 e/ou o intrapreditor 331). Se não houver resíduo para o bloco alvo de processamento, como um caso onde um modo de omissão é aplicado, o bloco predito pode ser usado como o bloco reconstruído.[080] The adder 340 can generate a reconstructed signal (reconstructed figure, reconstructed block or reconstructed sample matrix) by summing the obtained residual signal to the prediction signal (predicted block or predicted sample matrix) emitted from the predictor (including the interpredictor 332 and/or the intrapredictor 331). If there is no residue for the processing target block, such as a case where an omit mode is applied, the predicted block can be used as the reconstructed block.

[081] O adicionador 340 pode ser denominado como um reconstrutor ou um gerador de bloco reconstruído. O sinal reconstruído gerado pode ser usado para intrapredição de um próximo bloco que será processado na figura atual, e conforme descrito posteriormente, também pode ser emitido através da filtragem, ou também pode ser usado para interpredição de uma próxima figura.[081] Adder 340 can be referred to as a rebuilder or a reconstructed block generator. The reconstructed signal generated can be used for intraprediction of a next block that will be processed in the current figure, and as described later, it can also be output through filtering, or it can also be used for interprediction of a next figure.

[082] No entanto, um mapeamento luma com escalonamento croma (LMCS) também pode ser aplicado no processo de decodificação de figura.[082] However, a luma mapping with chroma scaling (LMCS) can also be applied in the figure decoding process.

[083] O filtro 350 pode aprimorar a qualidade de imagem subjetiva/objetiva pela aplicação de filtragem ao sinal reconstruído. Por exemplo, o filtro 350 pode gerar uma figura reconstruída modificada pela aplicação de vários métodos de filtragem à figura reconstruída e armazenar a figura reconstruída modificada na memória 360, especificamente, em um DPB da memória 360. Os vários métodos de filtragem podem incluir, por exemplo, filtragem de deblocagem, um deslocamento adaptável à amostra, um filtro de loop adaptável, um filtro bilateral, e similares.[083] Filter 350 can improve subjective/objective image quality by applying filtering to the reconstructed signal. For example, filter 350 may generate a modified reconstructed figure by applying various filtering methods to the reconstructed figure and storing the modified reconstructed figure in memory 360, specifically, in a DPB of memory 360. The various filtering methods may include, e.g. example, deblocking filtering, an adaptive sample shift, an adaptive loop filter, a bilateral filter, and the like.

[084] A figura reconstruída (modificada) armazenada no DPB da memória 360 pode ser usada como uma figura de referência no interpreditor 332. A memória 360 pode armazenar as informações de movimento do bloco a partir do qual as informações de movimento na figura atual são derivadas (ou decodificadas) e/ou as informações de movimento dos blocos na figura que já foram reconstruídas. As informações de movimento armazenadas podem ser transferidas ao interpreditor 332 para serem usadas como as informações de movimento do bloco vizinho espacial ou as informações de movimento do bloco vizinho temporal. A memória 360 pode armazenar as amostras reconstruídas de blocos reconstruídos na figura atual e transferir as amostras reconstruídas para o intrapreditor 331.[084] The reconstructed (modified) figure stored in the DPB of memory 360 can be used as a reference figure in interpredictor 332. Memory 360 can store the motion information of the block from which the motion information in the current figure is derived (or decoded) and/or the movement information of the blocks in the figure that have already been reconstructed. The stored motion information may be transferred to the interpredictor 332 to be used as the spatial neighbor block motion information or the temporal neighbor block motion information. The memory 360 may store the reconstructed samples of reconstructed blocks in the current figure and transfer the reconstructed samples to the intrapredictor 331.

[085] No presente documento, as modalidades descritas no filtro 260, o interpreditor 221 e o intrapreditor 222 do aparelho de codificação 200 podem ser aplicadas igualmente ou corresponderem ao filtro 350, ao interpreditor 332 e ao intrapreditor 331.[085] In the present document, the embodiments described in the filter 260, the interpredictor 221 and the intrapredictor 222 of the coding apparatus 200 can be applied equally or correspond to the filter 350, the interpredictor 332 and the intrapredictor 331.

[086] Entretanto, o método de codificação de vídeo/imagem de acordo com o presente documento pode ser realizado com base na estrutura de particionamento a seguir. De modo específico, procedimentos de predição, processamento residual (transformada (inversa) e (des)quantização), codificação de elemento de sintaxe e filtragem descritos anteriormente podem ser realizados com base em CTU e CU (e/ou TU e PU) derivados com base na estrutura de particionamento. Um procedimento de particionamento de bloco pode ser realizado pelo particionador de imagem 210 do aparelho de codificação descrito anteriormente, e informações relacionadas a particionamento podem ser processadas (codificação) pelo codificador de entropia 240, e podem ser transferidas ao aparelho de decodificação sob a forma de um fluxo de bits. O decodificador de entropia 310 do aparelho de decodificação pode derivar a estrutura de particionamento de bloco da figura atual com base nas informações relacionada a particionamento obtidas a partir do fluxo de bits, e com base nisso, pode realizar uma série de procedimentos (por exemplo, predição, processamento residual, reconstrução de bloco/figura, filtragem em laço, e similares) para decodificação de imagem. O tamanho de CU e o tamanho de TU podem ser iguais entre si, ou uma pluralidade de TUs podem estar presentes em uma região de CU. Entretanto, o tamanho de CU pode genericamente representar um tamanho de bloco de codificação (CB) de componente de luma (amostra). O tamanho de TU pode genericamente representar um tamanho de bloco de transformada (TB) de componente de luma (amostra). Um tamanho de CB ou TB de componente de croma (amostra) pode ser derivado com base no tamanho de CB ou TB de componente de luma (amostra) de acordo com uma razão de componente de acordo com um formato de cor (formato de croma, por exemplo, 4:4:4, 4:2:2, 4:2:0, e similares) de uma figura/imagem. O tamanho de TU pode ser derivado com base em maxTbSize. Por exemplo, se o tamanho de CU for maior que maxTbSize, uma pluralidade de TUs (TBs) de maxTbSize pode ser derivada a partir de CU, e a transformada / transformada inversa podem ser realizadas na unidade do TU (TB). Ademais, por exemplo, no caso onde intrapredição é aplicada, o modo/tipo de intrapredição pode ser derivado na unidade de CU (ou CB), e a derivação de uma amostra de referência vizinha e procedimentos de geração de amostra de predição podem ser realizadas na unidade de TU (ou TB). Nesse caso, uma ou uma pluralidade de TUs (ou TBs) podem estar presentes em uma região de CU (ou CB), e, nesse caso, a pluralidade de TUs (ou TBs) pode compartilhar o mesmo modo/tipo de intrapredição.[086] However, the video/image coding method according to the present document can be carried out based on the following partitioning structure. Specifically, prediction procedures, residual processing (transformed (inverse) and (de)quantization), syntax element encoding and filtering described previously can be performed based on CTU and CU (and/or TU and PU) derived with based on the partitioning structure. A block partitioning procedure may be performed by the image partitioner 210 of the encoding apparatus described above, and partitioning-related information may be processed (encoding) by the entropy encoder 240, and may be transferred to the decoding apparatus in the form of a stream of bits. The entropy decoder 310 of the decoding apparatus may derive the block partitioning structure of the current figure based on the partitioning-related information obtained from the bit stream, and based on this, may perform a series of procedures (e.g., prediction, residual processing, block/figure reconstruction, loop filtering, and the like) for image decoding. The CU size and TU size may be equal to each other, or a plurality of TUs may be present in a CU region. However, the CU size can generically represent a luma component (sample) coding block (CB) size. The TU size can generically represent a luma component (sample) transform block (TB) size. A chroma component (sample) CB or TB size can be derived based on the luma component (sample) CB or TB size according to a component ratio according to a color format (chroma format, for example, 4:4:4, 4:2:2, 4:2:0, and similar) of a figure/image. The size of TU can be derived based on maxTbSize. For example, if the size of CU is greater than maxTbSize, a plurality of TUs (TBs) of maxTbSize can be derived from CU, and the transform/inverse transform can be performed in the unit of the TU (TB). Furthermore, for example, in the case where intraprediction is applied, the mode/type of intraprediction can be derived in the CU (or CB) unit, and the derivation of a neighboring reference sample and prediction sample generation procedures can be performed in the TU (or TB) unit. In this case, one or a plurality of TUs (or TBs) may be present in a CU (or CB) region, and in this case, the plurality of TUs (or TBs) may share the same intraprediction mode/type.

[087] Ademais, na codificação de vídeo/imagem de acordo com o presente documento, uma unidade de processamento de imagem pode ter uma estrutura hierárquica. Uma figura pode ser particionada em um ou mais tiles, tijolos, fatias e/ou grupos de tiles. Uma fatia pode incluir um ou mais tijolos. Um tijolo pode incluir uma ou mais fileiras de CTU em um tile. A fatia pode incluir um número inteiro de tijolos de uma figura. Um grupo de tiles pode incluir um ou mais tiles. Um tile pode incluir um ou mais CTUs. O CTU pode ser particionado em um ou mais CUs. Um tile representa uma região retangular de CTUs em uma coluna de tile particular e uma fileira de tile particular em uma figura. Um grupo de tiles pode incluir um número inteiro de tiles de acordo com uma varredura por rasterização de tile na figura. Um cabeçalho de fatia pode portar informações/parâmetros que podem ser aplicados à fatia correspondente (blocos na fatia). No caso onde o aparelho de codificação/decodificação tem um processador de múltiplos núcleos, processos de codificação/decodificação para os tiles, fatias, tijolos e/ou grupos de tile podem ser processados em paralelo. No presente documento, a fatia ou o grupo de tiles podem ser usados de modo intercambiável. Ou seja, um cabeçalho de grupo de tile pode ser denominado como um cabeçalho de fatia. No presente documento, a fatia pode ter um dos tipos de fatia incluindo fatia intra (I), fatia preditiva (P) e fatia bipreditiva (B). Em blocos de predição em fatia I, interpredição pode ou não ser usada, e apenas intrapredição pode ser usada. Naturalmente, mesmo nesse caso, uma sinalização pode ser realizada codificando-se o valor de amostra original sem predição. Em relação aos blocos em fatia P, intrapredição ou interpredição podem ser usadas, e no caso de usar a interpredição, apenas unipredição pode ser usada. Entretanto, em relação aos blocos em fatia B, a intrapredição ou interpredição podem ser usadas, e no caso de usar a interpredição, até Bipredição pode ser maximamente usada.[087] Furthermore, in video/image coding according to this document, an image processing unit may have a hierarchical structure. A figure can be partitioned into one or more tiles, bricks, slices and/or groups of tiles. A slice can include one or more bricks. A brick can include one or more rows of CTU in a tile. The slice can include an integer number of bricks from a figure. A tile group can include one or more tiles. A tile can include one or more CTUs. The CTU can be partitioned into one or more CUs. A tile represents a rectangular region of CTUs in a particular tile column and a particular tile row in a figure. A tile group can include an integer number of tiles according to a tile raster scan in the figure. A slice header can carry information/parameters that can be applied to the corresponding slice (blocks in the slice). In the case where the encoding/decoding apparatus has a multi-core processor, encoding/decoding processes for the tiles, slices, bricks and/or tile groups can be processed in parallel. In this document, the slice or the group of tiles can be used interchangeably. That is, a tile group header can be termed as a slice header. Herein, the slice may have one of the slice types including intra slice (I), predictive slice (P), and bipredictive slice (B). In I-slice prediction blocks, interprediction may or may not be used, and only intraprediction may be used. Of course, even in this case, signaling can be performed by encoding the original sample value without prediction. Regarding blocks in P-slice, intra-prediction or inter-prediction can be used, and in case of using inter-prediction, only uni-prediction can be used. However, regarding blocks in B-slice, intra-prediction or inter-prediction can be used, and in case of using inter-prediction, even Bi-prediction can be maximally used.

[088] O aparelho de codificação pode determinar o tile/grupo de tiles, tijolo, fatia e tamanhos de unidade de codificação máxima e mínima em consideração da eficiência de codificação ou processamento paralelo, ou de acordo com as características (por exemplo, resolução) de uma imagem de vídeo, e informações para as mesmas ou informações capazes de induzi-las podem ser incluídas no fluxo de bits.[088] The coding apparatus may determine the maximum and minimum tile/tile group, brick, slice, and coding unit sizes in consideration of coding efficiency or parallel processing, or in accordance with characteristics (e.g., resolution) of a video image, and information for the same or information capable of inducing them may be included in the bit stream.

[089] O aparelho de decodificação pode obter informações que representam o tile/grupo de tiles, tijolo e fatia da figura atual, e se o CTU no tile foi particionado em uma pluralidade de unidades de codificação. Fazendo-se com que essas informações sejam obtidas (transmitidas) apenas sob uma condição específica, a eficiência pode ser aprimorada.[089] The decoding apparatus can obtain information representing the tile/group of tiles, brick and slice of the current figure, and whether the CTU in the tile has been partitioned into a plurality of coding units. By having this information obtained (transmitted) only under a specific condition, efficiency can be improved.

[090] Entretanto, conforme descrito anteriormente, uma figura pode incluir uma pluralidade de fatias, e uma fatia pode incluir um cabeçalho de fatia e dados de fatia. Nesse caso, um cabeçalho de figura pode, ainda, ser adicionada a uma pluralidade de fatias (um cabeçalho de fatia e um conjunto de dados de fatia) em uma figura. O cabeçalho de fatia (sintaxe de cabeçalho de figura) pode incluir informações/parâmetros comumente aplicáveis à figura. O cabeçalho de fatia (sintaxe de cabeçalho de fatia) pode incluir informações/parâmetros que podem ser comumente aplicados à fatia. Um conjunto de parâmetro de adaptação (APS) ou um conjunto de parâmetros de figura (PPS) podem incluir informações/parâmetros que podem ser comumente aplicados a uma ou mais fatias ou figurações. Um conjunto de parâmetros de sequência (SPS) pode incluir informações/parâmetros que podem ser comumente aplicados a uma ou mais sequências. Um conjunto de parâmetros de vídeo (VPS) pode incluir informações/parâmetros que podem ser comumente aplicados a múltiplas camadas. Um conjunto de parâmetros de decodificação (DPS) pode incluir informações/parâmetros que podem ser comumente aplicados ao vídeo geral. O DPS pode incluir informações/parâmetros relacionados à concatenação de uma sequência de vídeo codificado (CVS).[090] However, as described previously, a figure may include a plurality of slices, and a slice may include a slice header and slice data. In this case, a figure header may further be added to a plurality of slices (a slice header and a slice data set) in a figure. The slice header (figure header syntax) can include information/parameters commonly applicable to the figure. The slice header (slice header syntax) can include information/parameters that can be commonly applied to the slice. An adaptation parameter set (APS) or a figure parameter set (PPS) may include information/parameters that can be commonly applied to one or more slices or figures. A sequence parameter set (SPS) may include information/parameters that can be commonly applied to one or more sequences. A video parameter set (VPS) can include information/parameters that can be commonly applied to multiple layers. A decoding parameter set (DPS) can include information/parameters that can be commonly applied to the overall video. The DPS may include information/parameters related to the concatenation of a coded video sequence (CVS).

[091] Uma sintaxe de alto nível (HLS) na presente revelação inclui pelo menos uma dentre a sintaxe de APS, a sintaxe de PPS, a sintaxe de SPS, a sintaxe de VPS, a sintaxe de DPS e a sintaxe de cabeçalho de fatia.[091] A high-level syntax (HLS) in the present disclosure includes at least one of APS syntax, PPS syntax, SPS syntax, VPS syntax, DPS syntax and slice header syntax .

[092] Adicionalmente, por exemplo, informações sobre particionamento e configura, e assim por diante, de um tile/grupo de tiles/tijolo/fatia podem ser configuradas em um aparelho de codificação com base na sintaxe de alto nível e podem, então, ser entregues (ou transferidas) a um aparelho de decodificação em um formato de fluxo de bits.[092] Additionally, for example, information about partitioning and configuration, and so on, of a tile/group of tiles/brick/slice can be configured in a coding apparatus based on high-level syntax and can then be be delivered (or transferred) to a decoding device in a bitstream format.

[093] Uma figura pode ser particionada a uma ou mais fileiras de tile e uma ou mais colunas de tile. Um tile é uma sequência de CTUs que cobrem uma região retangular de uma figura. Um tile pode ser particionado a um ou mais tijolos, e cada tijolo pode ser configurado por múltiplas fileiras de CTU. Um tile que não é particionado a uma pluralidade de tijolos também pode ser referido como um tijolo. No entanto, um tijolo sendo um subconjunto de um tile não é referido como um tile. Uma fatia pode incluir múltiplos tiles ou múltiplos tijolos de um tile.[093] A figure can be partitioned into one or more tile rows and one or more tile columns. A tile is a sequence of CTUs that cover a rectangular region of a figure. A tile can be partitioned into one or more bricks, and each brick can be configured by multiple CTU rows. A tile that is not partitioned into a plurality of bricks may also be referred to as a brick. However, a brick being a subset of a tile is not referred to as a tile. A slice can include multiple tiles or multiple bricks of a tile.

[094] A Figura 4 mostra um exemplo de um procedimento de decodificação de figura.[094] Figure 4 shows an example of a figure decoding procedure.

[095] Em codificação de imagem/vídeo, uma figura que configura uma imagem/vídeo pode ser codificada/decodificada de acordo com uma ordem de decodificação. Uma ordem de figura que corresponde a uma ordem de saída de uma figura decodificada pode ser configurada diferentemente da ordem de decodificação. E, ao realizar interpredição com base na ordem de figura configurada, predição direta bem como predição reversa podem ser realizadas.[095] In image/video coding, a figure that configures an image/video can be encoded/decoded according to a decoding order. A picture order that corresponds to an output order of a decoded picture can be configured differently than the decoding order. And, when performing interprediction based on the configured figure order, forward prediction as well as reverse prediction can be performed.

[096] A Figura 4 mostra um exemplo geral de um procedimento de decodificação de figura ao qual as modalidades da presente revelação podem ser aplicadas. Na Figura 4, S400 pode ser realizado pelo decodificador de entropia 310 do aparelho de decodificação que foi descrito acima na Figura 3, S410 pode ser realizado pelo preditor 330, S420 pode ser realizado pelo processador residual 320, S430 pode ser realizado pelo adicionador 340, e S440 pode ser realizado pelo filtro 350. S400 pode incluir um procedimento de decodificação de informações que é descrito no presente relatório descritivo, S410 pode incluir um procedimento de inter/intrapredição que é descrito no presente relatório descritivo, S420 pode incluir um procedimento de processamento residual que é descrito no presente relatório descritivo, S430 pode incluir um procedimento de reconstrução de bloco/figura que é descrito no presente relatório descritivo, e S440 pode incluir um procedimento de filtragem em laço que é descrito no presente relatório descritivo.[096] Figure 4 shows a general example of a figure decoding procedure to which embodiments of the present disclosure can be applied. In Figure 4, S400 may be realized by the entropy decoder 310 of the decoding apparatus that was described above in Figure 3, S410 may be realized by the predictor 330, S420 may be realized by the residual processor 320, S430 may be realized by the adder 340, and S440 may be performed by filter 350. S400 may include an information decoding procedure that is described in the present specification, S410 may include an inter/intraprediction procedure that is described in the present specification, S420 may include a processing procedure residual which is described in the present specification, S430 may include a block/figure reconstruction procedure that is described in the present specification, and S440 may include a loop filtering procedure that is described in the present specification.

[097] Referindo-se à Figura 4, conforme descrito anteriormente na Figura 3, o procedimento de decodificação de figura pode geralmente incluir um procedimento para obter informações de imagem/vídeo (S400) a partir de um fluxo de bits (através de decodificação), um procedimento de reconstrução de imagem (S410 a S430) e um procedimento de filtragem em laço (S440) para a figura reconstruída. O procedimento de reconstrução de imagem pode ser realizado com base em amostras de predição e amostras residuais que são obtidas realizando-se o procedimento de inter/intrapredição (S410) e o procedimento de processamento residual (S420, procedimentos de desquantização e transforma inversa em coeficientes de transformada quantizados). Realizando-se um procedimento filtragem em laço na figura reconstruída que é gerada realizando-se o procedimento de reconstrução de figura, uma figura reconstruída modificada pode ser gerada, e a figura reconstruída modificada pode ser emitida como uma figura decodificada, que é, então, armazenada em um buffer ou memória de figura de decodificação 360 do aparelho de decodificação de modo que seja usado como uma figura de referência durante um procedimento de interpredição ao realizar uma decodificação de uma figura em um processo posterior. Em alguns casos, o procedimento de filtragem em laço pode ser omitido. E, nesse caso, a figura reconstruída pode ser emitida como a figura decodificada, que é, então, armazenada em um buffer ou memória de figura de decodificação 360 do aparelho de decodificação de modo que seja usado como uma figura de referência durante um procedimento de interpredição ao realizar uma decodificação de uma figura em um processo posterior. Conforme descrito anteriormente, o procedimento de filtragem em laço (S440) pode incluir um procedimento filtragem de deblocagem, um procedimento de desvio adaptativo de amostra (SAO), um procedimento de filtro em laço adaptativo (ALF) e/ou um procedimento de filtro bilateral, e assim por diante, e parte ou todo o procedimento de filtragem em laço pode ser omitido. Adicionalmente, um ou parte do procedimento filtragem de deblocagem, procedimento de desvio adaptativo de amostra (SAO), procedimento de filtro em laço adaptativo (ALF) e procedimento de filtro bilateral pode ser sequencialmente aplicado, ou todos dentre o procedimento filtragem de deblocagem, procedimento de desvio adaptativo de amostra (SAO), procedimento de filtro em laço adaptativo (ALF) e procedimento de filtro bilateral podem ser sequencialmente aplicados. Por exemplo, após o procedimento de filtragem de deblocagem ser aplicado a uma figura reconstruída, o procedimento SAO pode ser realizado. Alternativamente, por exemplo, após o procedimento de filtragem de deblocagem ser aplicado a uma figura reconstruída, o procedimento ALF pode ser realizado. Isso também pode ser igualmente realizado em um aparelho de codificação.[097] Referring to Figure 4, as previously described in Figure 3, the figure decoding procedure may generally include a procedure for obtaining image/video information (S400) from a bit stream (through decoding) , an image reconstruction procedure (S410 to S430) and a loop filtering procedure (S440) for the reconstructed figure. The image reconstruction procedure can be performed based on prediction samples and residual samples that are obtained by performing the inter/intraprediction procedure (S410) and the residual processing procedure (S420, dequantization procedures and inverse transforms in coefficients quantized transforms). By performing a loop filtering procedure on the reconstructed figure that is generated by performing the figure reconstruction procedure, a modified reconstructed figure can be generated, and the modified reconstructed figure can be output as a decoded figure, which is then stored in a decoding figure buffer or memory 360 of the decoding apparatus so that it is used as a reference figure during an interprediction procedure when performing a decoding of a figure in a later process. In some cases, the loop filtering procedure can be omitted. And in this case, the reconstructed figure may be output as the decoded figure, which is then stored in a decoding figure buffer or memory 360 of the decoding apparatus so that it is used as a reference figure during a decoding procedure. interprediction when performing a decoding of a figure in a later process. As described previously, the loop filtering procedure (S440) may include a deblocking filtering procedure, an adaptive sample shift (SAO) procedure, an adaptive loop filtering (ALF) procedure, and/or a two-sided filter procedure. , and so on, and part or all of the loop filtering procedure can be omitted. Additionally, one or part of the deblocking filtering procedure, sample adaptive offset (SAO) procedure, adaptive loop filter (ALF) procedure, and bilateral filter procedure may be applied sequentially, or all of the deblocking filtering procedure, procedure sample adaptive offset (SAO), adaptive loop filter (ALF) procedure, and bilateral filter procedure can be applied sequentially. For example, after the deblocking filtering procedure is applied to a reconstructed figure, the SAO procedure can be performed. Alternatively, for example, after the deblocking filtering procedure is applied to a reconstructed figure, the ALF procedure can be performed. This can also be carried out on a coding device.

[098] A Figura 5 mostra um exemplo de um procedimento de codificação de figura.[098] Figure 5 shows an example of a figure encoding procedure.

[099] A Figura 5 mostra um exemplo geral de um procedimento de codificação de figura ao qual uma modalidade da presente revelação pode ser aplicada. Na Figura 5, S500 pode ser realizado pelo preditor 220 do aparelho de codificação que foi descrito acima na Figura 2, S510 pode ser realizado pelo processador residual 230 e S520 pode ser realizado pelo codificador de entropia 240. S500 pode incluir um procedimento de inter/intrapredição que é descrito no presente relatório descritivo, S610 pode incluir um procedimento de processamento residual que é descrito no presente relatório descritivo e S520 pode incluir um procedimento de codificação de informações que é descrito no presente relatório descritivo.[099] Figure 5 shows a general example of a figure encoding procedure to which an embodiment of the present disclosure can be applied. In Figure 5, S500 may be realized by the predictor 220 of the coding apparatus that was described above in Figure 2, S510 may be realized by the residual processor 230, and S520 may be realized by the entropy encoder 240. S500 may include an inter/ intraprediction that is described in the present specification, S610 may include a residual processing procedure that is described in the present specification and S520 may include an information coding procedure that is described in the present specification.

[0100] Referindo-se à Figura 5, conforme descrito anteriormente na Figura 2, o procedimento de codificação de figura pode geralmente incluir um procedimento de informações de codificação para reconstrução de figura (por exemplo, informações de predição, informações residuais, informações de particionamento, e assim por diante) e emitir as informações codificadas em um formato de fluxo de bits, bem como um procedimento para gerar uma figura reconstruída para uma figura atual e um procedimento para aplicar uma filtragem em laço à figura reconstruída (opcional). O aparelho de codificação pode derivar amostras residuais (que são modificadas) a partir de coeficientes de transformada quantizados através do desquantizador 234 e transformador inverso 235, e, então, o aparelho de codificação pode gerar uma figura reconstruída com base nas amostras de predição, que são a saída de S500, e as amostras residuais (modificadas). A figura reconstruída que é gerada conforme descrito acima pode ser igual à figura reconstruída descrita anteriormente que é gerada no aparelho de decodificação. Uma figura reconstruída modificada pode ser gerada realizando-se um procedimento de filtragem em laço na figura reconstruída, que é, então, armazenada em um buffer ou memória de figura de decodificação 270 do aparelho de decodificação. E, apenas conforme no aparelho de decodificação, a figura reconstruída modificada pode ser usada como uma figura de referência durante um procedimento de interpredição ao codificar uma figura. Conforme descrito anteriormente, em alguns casos, parte ou todo procedimento de filtragem em laço pode ser omitido. Quando o procedimento de filtragem em laço flor realizado, informações (parâmetro) de informações relacionadas à filtragem (em laço) podem ser codificadas no codificador de entropia 240 e, então, transmitidas em um formato de fluxo de bits, e o aparelho de decodificação pode realizar o procedimento de filtragem em laço utilizando-se o mesmo método que o aparelho de codificação com base nas informações relacionadas à filtragem.[0100] Referring to Figure 5, as previously described in Figure 2, the figure encoding procedure may generally include an encoding information procedure for figure reconstruction (e.g., prediction information, residual information, partitioning information , and so on) and output the encoded information in a bitstream format, as well as a procedure for generating a reconstructed figure for a current figure and a procedure for applying loop filtering to the reconstructed figure (optional). The coding apparatus may derive residual samples (which are modified) from quantized transform coefficients via the dequantizer 234 and inverse transformer 235, and then the coding apparatus may generate a reconstructed figure based on the prediction samples, which are the output of S500, and the residual (modified) samples. The reconstructed figure that is generated as described above may be the same as the reconstructed figure described above that is generated in the decoding apparatus. A modified reconstructed figure can be generated by performing a loop filtering procedure on the reconstructed figure, which is then stored in a decoding figure buffer or memory 270 of the decoding apparatus. And, just as in the decoding apparatus, the modified reconstructed figure can be used as a reference figure during an interprediction procedure when encoding a figure. As described previously, in some cases, part or all of the loop filtering procedure may be omitted. When the flower loop filtering procedure is carried out, information (parameter) related information (loop) can be encoded in the entropy encoder 240 and then transmitted in a bit stream format, and the decoding apparatus can perform the loop filtering procedure using the same method as the coding device based on information related to filtering.

[0101] Realizando-se o procedimento de filtragem em laço descrito anteriormente, ruídos que ocorrem ao codificar imagem/figura em movimento, tal como um artefato de blocagem e um artefato de campainha, pode ser reduzido, e uma qualidade visual subjetiva/objetiva pode ser aprimorada. Adicionalmente, tendo tanto o aparelho de codificação como o aparelho de decodificação realizando o procedimento de filtragem em laço, o aparelho de codificação e o aparelho de decodificação podem derivar o mesmo resultado de predição, aumentar a confiabilidade em codificação de figura, e reduzir o tamanho (ou quantidade) de dados que devem ser transmitidos para codificação de figura.[0101] By carrying out the previously described loop filtering procedure, noise that occurs when encoding moving image/figure, such as blocking artifact and ringing artifact, can be reduced, and subjective/objective visual quality can be reduced. be improved. Additionally, by having both the encoding apparatus and the decoding apparatus perform the loop filtering procedure, the encoding apparatus and the decoding apparatus can derive the same prediction result, increase the reliability in figure encoding, and reduce the size (or amount) of data that must be transmitted for figure encoding.

[0102] Conforme descrito anteriormente, o procedimento de reconstrução de figura pode ser realizado no aparelho de decodificação bem como no aparelho de codificação. Um bloco reconstruído pode ser gerado para cada unidade de bloco com base em intrapredição/interpredição, e uma figura reconstruída incluindo blocos reconstruídos pode ser gerada. Quando uma figura atual/fatia/grupo de tiles for uma figura/fatia/grupo de tiles I, os blocos incluídos na figura atual/fatia/grupo de tiles podem ser reconstruídos com base apenas em intrapredição. Entretanto, quando a figura atual/fatia/grupo de tiles for uma figura/fatia/grupo de tiles P ou B, os blocos incluídos na figura atual/fatia/grupo de tiles podem ser reconstruídos com base em intrapredição ou interpredição. Nesse caso, interpredição pode ser aplicada à parte dos blocos na figura atual/fatia/grupo de tiles, e uma intrapredição pode ser aplicada aos blocos restantes. Componentes de cor de uma figura podem incluir um componente de luma e um componente de croma. E, exceto onde explicitamente limitados (ou restritos) no presente relatório descritivo, os métodos e modalidades que são propostos no presente relatório descritivo podem ser aplicados ao componente de luma e ao componente de croma.[0102] As described previously, the figure reconstruction procedure can be performed on the decoding apparatus as well as on the encoding apparatus. A reconstructed block can be generated for each block unit based on intraprediction/interprediction, and a reconstructed figure including reconstructed blocks can be generated. When a current figure/slice/tile group is a figure/slice/tile group I, the blocks included in the current figure/slice/tile group can be reconstructed based on intraprediction only. However, when the current figure/slice/tile group is a P or B figure/slice/tile group, the blocks included in the current figure/slice/tile group can be reconstructed based on intraprediction or interprediction. In this case, interprediction can be applied to part of the blocks in the current figure/slice/tile group, and an intraprediction can be applied to the remaining blocks. Color components of a figure may include a luma component and a chroma component. And, except where explicitly limited (or restricted) in the present specification, the methods and modalities that are proposed in the present specification can be applied to the luma component and the chroma component.

[0103] Entretanto, um procedimento de codificação de vídeo/imagem que se baseia em interpredição pode geralmente incluir, por exemplo, o seguinte.[0103] However, a video/image coding procedure that relies on interprediction may generally include, for example, the following.

[0104] A Figura 6 mostra um exemplo de um método de codificação de vídeo/imagem baseado em interpredição, e a Figura 7 mostra uma visão geral de um interpreditor em um aparelho de codificação.[0104] Figure 6 shows an example of an interprediction-based video/image coding method, and Figure 7 shows an overview of an interpredictor in a coding apparatus.

[0105] Referindo-se à Figura 6 e à Figura 7, o aparelho de codificação realiza interpredição em um bloco atual (S600). O aparelho de codificação pode derivar um modo de interpredição e informações de movimento do bloco atual, e gerar amostras de predição do bloco atual. No presente documento, os procedimentos para determinar o modo de interpredição, derivar informações de movimento e gerar amostras de predição podem todos ser realizados simultaneamente, ou quaisquer dos procedimentos supramencionados podem ser realizados antes de outros procedimentos. Por exemplo, o interpreditor 221 do aparelho de codificação pode incluir um determinador de modo de predição 221_1, um derivador de informações de movimento 221_2 e um derivador de amostra de predição 221_3. O determinador de modo de predição 221_1 pode determinar um modo de predição para o bloco atual, o derivador de informações de movimento 221_2 pode derivar informações de movimento do bloco atual e o derivador de amostra de predição 221_3 pode derivar amostras de predição do bloco atual. Por exemplo, o interpreditor do aparelho de codificação pode buscar por um bloco que seja similar ao bloco atual em uma região predeterminada (região de busca) de figurações de referência através de estimativa de movimento, e, então, o interpreditor do aparelho de codificação pode derivar um bloco de referência que seja igual ou menor que um padrão de referência predeterminado. Com base nessa diferença, um índice de figura de referência que indica uma figura de referência onde o bloco de referência está situado pode ser derivado, e um vetor de movimento pode ser derivado com base em uma diferença de posição entre o bloco de referência e o bloco atual. O aparelho de codificação pode determinar um modo que é aplicado ao bloco atual dentre vários modos de predição. O aparelho de codificação pode comparar custos de distorção de taxa (RD) para os vários modos de predição, e determinar um modo de predição ideal para o bloco atual.[0105] Referring to Figure 6 and Figure 7, the coding apparatus performs interprediction on a current block (S600). The coding apparatus may derive an interprediction mode and motion information from the current block, and generate prediction samples from the current block. In this document, the procedures for determining the interprediction mode, deriving motion information, and generating prediction samples may all be performed simultaneously, or any of the aforementioned procedures may be performed before other procedures. For example, the interpredictor 221 of the coding apparatus may include a prediction mode determiner 221_1, a motion information derivator 221_2, and a prediction sample derivator 221_3. The prediction mode determiner 221_1 can determine a prediction mode for the current block, the motion information deriver 221_2 can derive motion information from the current block, and the prediction sample deriver 221_3 can derive prediction samples from the current block. For example, the coding device interpredictor can search for a block that is similar to the current block in a predetermined region (search region) of reference pictures through motion estimation, and then the coding device interpredictor can derive a reference block that is equal to or less than a predetermined reference standard. Based on this difference, a reference figure index that indicates a reference figure where the reference block is situated can be derived, and a motion vector can be derived based on a position difference between the reference block and the current block. The coding apparatus may determine a mode that is applied to the current block from among several prediction modes. The coding apparatus can compare rate distortion (RD) costs for the various prediction modes, and determine an optimal prediction mode for the current block.

[0106] Por exemplo, no caso quando um modo de omissão ou modo de fusão for aplicado ao bloco atual, o aparelho de codificação configura uma lista de candidato de fusão, e dentre os blocos de referência que são indicados pelos candidatos de fusão incluídos na lista de candidato de fusão, um bloco de referência tendo uma diferença mínima a partir do bloco atual ou tendo uma diferença a partir do bloco atual que seja igual ou menor que um padrão de referência predeterminado pode ser derivado. Nesse caso, um candidato de fusão que é associado ao bloco de referência derivado pode ser selecionado, e informações de índice de fusão que indicam o candidato de fusão selecionado pode ser gerado e, então, sinalizado ao aparelho de decodificação. As informações de movimento do bloco atual podem ser derivadas utilizando-se informações de movimento do candidato de fusão selecionado.[0106] For example, in the case when a skip mode or merge mode is applied to the current block, the encoding apparatus configures a merge candidate list, and among the reference blocks that are indicated by the merge candidates included in the From the fusion candidate list, a reference block having a minimum difference from the current block or having a difference from the current block that is equal to or less than a predetermined reference standard can be derived. In this case, a fusion candidate that is associated with the derived reference block can be selected, and fusion index information indicating the selected fusion candidate can be generated and then signaled to the decoding apparatus. The motion information of the current block can be derived using motion information of the selected fusion candidate.

[0107] Como outro exemplo, quando um modo de (A)MVP for aplicado ao bloco atual, o aparelho de codificação configura uma lista de candidato de (A)MVP, e um vetor de movimento de um candidato de preditor de vetor de movimento (mvp) selecionado, que é selecionado a partir de candidatos demvp que estão incluídos na lista de candidato de (A)MVP, pode ser usado como o mvp do bloco atual. Nesse caso, por exemplo, o vetor de movimento que indica um bloco de referência que é derivado pela estimativa de movimento descrita anteriormente pode ser usado como o vetor de movimento do bloco atual, e, dentre os candidatos de mvp, um candidato de mvp tendo um vetor de movimento com a menor diferença a partir do vetor de movimento do bloco atual pode ser o candidato de mvp selecionado. Uma diferença de vetor de movimento (MVD), que é uma diferença obtida subtraindo-se o mvp do vetor de movimento do bloco atual, pode ser derivada. Nesse caso, informações relacionadas ao MVD podem ser sinalizadas ao aparelho de decodificação. Adicionalmente, quando o modo de (A)MVP for aplicado, um valor do índice de figura de referência pode ser configurado de informações de índice de figura de referência, e pode ser separadamente sinalizado ao aparelho de decodificação.[0107] As another example, when an (A)MVP mode is applied to the current block, the encoding apparatus configures an (A)MVP candidate list, and a motion vector from a motion vector predictor candidate. Selected (mvp), which is selected from mvp candidates that are included in the (A)MVP candidate list, can be used as the mvp of the current block. In this case, for example, the motion vector indicating a reference block that is derived by the previously described motion estimation can be used as the motion vector of the current block, and, among the mvp candidates, an mvp candidate having a motion vector with the smallest difference from the current block's motion vector can be the selected mvp candidate. A motion vector difference (MVD), which is a difference obtained by subtracting the mvp from the motion vector of the current block, can be derived. In this case, MVD-related information can be signaled to the decoding apparatus. Additionally, when the (A)MVP mode is applied, a reference figure index value can be configured from reference figure index information, and can be separately signaled to the decoding apparatus.

[0108] O aparelho de codificação pode derivar amostras residuais com base nas amostras de predição (S610). O aparelho de codificação pode derivar as amostras residuais comparando-se as amostras de predição com amostras originais do bloco atual.[0108] The coding apparatus may derive residual samples based on the prediction samples (S610). The coding apparatus can derive the residual samples by comparing the prediction samples with original samples from the current block.

[0109] O aparelho de codificação codifica informações de imagem incluindo informações de predição e informações residuais (S620). O aparelho de codificação pode emitir as informações de imagem codificadas em um formato de fluxo de bits. As informações de predição podem ser informações relacionadas ao procedimento de predição que podem incluir informações de modo de predição (por exemplo, sinalizador de omissão, sinalizador de fusão ou índice de modo, e assim por diante) e as informações relacionadas a informações de movimento. As informações relacionadas às informações de movimento podem incluir informações de seleção de candidato (por exemplo, índice de fusão, sinalizador de mvp ou índice de mvp) que são informações para derivar um vetor de movimento. Adicionalmente, as informações relacionadas às informações de movimento podem incluir as informações descritas acima sobre as informações de MVD e/ou índice de figura de referência. Adicionalmente, as informações relacionadas às informações de movimento podem incluir informações que indicam se aplica-se predição L0, predição L1 ou bipredição. As informações residuais são informações relacionadas às amostras residuais. As informações residuais podem incluir informações relacionadas aos coeficientes de transformada quantizados para as amostras residuais.[0109] The coding apparatus encodes image information including prediction information and residual information (S620). The encoding apparatus may output the encoded image information in a bit stream format. The prediction information may be information related to the prediction procedure which may include prediction mode information (e.g., omission flag, fusion flag or mode index, and so on) and the information related to motion information. Information related to motion information may include candidate selection information (e.g., fusion index, mvp flag, or mvp index) which is information for deriving a motion vector. Additionally, information related to motion information may include the information described above regarding MVD information and/or reference figure index. Additionally, information related to motion information may include information indicating whether L0 prediction, L1 prediction or biprediction applies. Residual information is information related to residual samples. The residual information may include information related to the quantized transform coefficients for the residual samples.

[0110] O fluxo de bits emitido pode ser armazenado em uma mídia de armazenamento (digital) e, então, entregue ao aparelho de decodificação, ou o fluxo de bits emitido pode ser entregue ao aparelho de decodificação através de uma rede.[0110] The emitted bit stream may be stored on a (digital) storage medium and then delivered to the decoding apparatus, or the emitted bit stream may be delivered to the decoding apparatus via a network.

[0111] Entretanto, o aparelho de codificação descrito anteriormente pode gerar uma figura reconstruída (incluindo amostras reconstruídas e bloco reconstruído) com base nas amostras de referência e nas amostras residuais. Isso é realizado de modo que o dispositivo de codificação possa derivar um resultado de predição que seja igual ao resultado de predição obtido pelo procedimento de predição realizado no aparelho de decodificação, e, também, porque a eficiência de codificação pode ser acentuada de modo correspondente. Portanto, o aparelho de codificação pode armazenar uma figura reconstruída (ou amostras reconstruídas, bloco reconstruído) em uma memória, e pode usar a figura armazenada como uma figura de referência para interpredição. Conforme descrito anteriormente, um procedimento de filtragem em laço, e assim por diante, pode ser adicionalmente aplicado à figura reconstruída.[0111] However, the coding apparatus described above can generate a reconstructed figure (including reconstructed samples and reconstructed block) based on the reference samples and the residual samples. This is done so that the coding device can derive a prediction result that is equal to the prediction result obtained by the prediction procedure performed on the decoding apparatus, and also because the coding efficiency can be enhanced accordingly. Therefore, the encoding apparatus can store a reconstructed figure (or reconstructed samples, reconstructed block) in a memory, and can use the stored figure as a reference figure for interprediction. As described previously, a loop filtering procedure, and so on, can be additionally applied to the reconstructed figure.

[0112] Um procedimento de decodificação de vídeo/imagem que se baseia em interpredição pode geralmente incluir, por exemplo, o seguinte.[0112] A video/image decoding procedure that relies on interprediction may generally include, for example, the following.

[0113] A Figura 8 mostra um exemplo de método de decodificação de vídeo/imagem baseado em interpredição, e a Figura 9 mostra uma visão geral de um interpreditor em um aparelho de decodificação.[0113] Figure 8 shows an example of an interprediction-based video/image decoding method, and Figure 9 shows an overview of an interpredictor in a decoding apparatus.

[0114] Um aparelho de decodificação pode realizar operações que correspondam às operações realizadas pelo aparelho de codificação. O aparelho de decodificação pode realizar uma predição em um bloco atual com base nas informações de predição recebidas, e pode derivar amostras de predição.[0114] A decoding apparatus can perform operations that correspond to the operations performed by the encoding apparatus. The decoding apparatus may perform a prediction on a current block based on the received prediction information, and may derive prediction samples.

[0115] De modo mais específico, referindo-se à Figura 8 e à Figura 9, o aparelho de decodificação pode determinar um modo de predição para o bloco atual com base em informações de predição recebidas a partir de um fluxo de bits (S800). O aparelho de decodificação pode determinar qual modo de interpredição é aplicado ao bloco atual com base no informações de modo de predição nas informações de predição.[0115] More specifically, referring to Figure 8 and Figure 9, the decoding apparatus may determine a prediction mode for the current block based on prediction information received from a bit stream (S800) . The decoding apparatus may determine which interprediction mode is applied to the current block based on the prediction mode information in the prediction information.

[0116] Por exemplo, pode-se determinar, com base em um sinalizador de fusão, se um modo de fusão é aplicado ou não ao bloco atual ou se um modo de (A)MVP é determinado ou não. Alternativamente, um candidato de modo de interpredição pode ser selecionado a partir de vários candidatos de modo de interpredição com base no índice de fusão. Os candidatos de modo de interpredição podem incluir vários modos de interpredição, tal como um modo de omissão, um modo de fusão e/ou um modo de (A)MVP, e assim por diante.[0116] For example, one can determine, based on a fusion flag, whether or not a fusion mode is applied to the current block or whether or not an (A)MVP mode is determined. Alternatively, an interprediction mode candidate can be selected from multiple interprediction mode candidates based on the fusion index. Interprediction mode candidates may include various interprediction modes, such as an omission mode, a fusion mode, and/or an (A)MVP mode, and so on.

[0117] O aparelho de decodificação deriva informações de movimento do bloco atual com base no modo de interpredição determinado (S810). Por exemplo, quando um modo de omissão ou modo de fusão for aplicado ao bloco atual, o aparelho de decodificação configura uma lista de candidatos de fusão, que será descrita posteriormente em detalhes, e pode selecionar um candidato de fusão a partir dos candidatos de fusão incluídos na lista de candidatos de fusão. A seleção pode ser realizada com base no índice de fusão descrito anteriormente. As informações de movimento do bloco atual podem ser derivadas utilizando-se informações de movimento do candidato de fusão selecionado. As informações de movimento do candidato de fusão selecionado podem ser usadas como as informações de movimento do bloco atual.[0117] The decoding apparatus derives motion information from the current block based on the determined interprediction mode (S810). For example, when a skip mode or merge mode is applied to the current block, the decoding apparatus sets up a list of merge candidates, which will be described in detail later, and can select a merge candidate from the merge candidates. included in the list of merger candidates. Selection can be performed based on the fusion index described previously. The motion information of the current block can be derived using motion information of the selected fusion candidate. The motion information of the selected fusion candidate can be used as the motion information of the current block.

[0118] Como outro exemplo, quando um modo de (A)MVP for aplicado ao bloco atual, o aparelho de decodificação configura uma lista de candidato de (A)MVP, e um vetor de movimento de um candidato de preditor de vetor de movimento (mvp) selecionado, que é selecionado a partir de candidatos de mvp que são incluídos na lista de candidato de (A)MVP, pode ser usado como o mvp do bloco atual. A seleção pode ser realizada com base nas informações de seleção descritas anteriormente (sinalizador de mvp ou índice de mvp). E, nesse caso, um MVD do bloco atual pode ser derivado com base nas informações no MVD, e um vetor de movimento do bloco atual pode ser derivado com base no mvp do bloco atual e no MVD. Adicionalmente, um índice de figura de referência do bloco atual pode ser derivado com base nas informações de índice de figura de referência. Uma figura que é indicada pelo índice de figura de referência em uma lista de figura de referência relacionada ao bloco atual pode ser derivada como uma figura de referência que está sendo referida para a interpredição do bloco atual.[0118] As another example, when an (A)MVP mode is applied to the current block, the decoding apparatus configures an (A)MVP candidate list, and a motion vector from a motion vector predictor candidate Selected (mvp), which is selected from mvp candidates that are included in the (A)MVP candidate list, can be used as the mvp of the current block. Selection can be performed based on the previously described selection information (mvp flag or mvp index). And in this case, an MVD of the current block can be derived based on the information in the MVD, and a motion vector of the current block can be derived based on the mvp of the current block and the MVD. Additionally, a reference figure index of the current block can be derived based on the reference figure index information. A figure that is indicated by the reference figure index in a reference figure list related to the current block can be derived as a reference figure being referred to for the interprediction of the current block.

[0119] Entretanto, as informações de movimento do bloco atual podem ser derivadas sem configurar nenhuma lista de candidato, e, nesse caso, a configura de lista de candidato descrita anteriormente pode ser omitida.[0119] However, the movement information of the current block can be derived without configuring any candidate list, in which case the previously described candidate list configuration can be omitted.

[0120] O aparelho de decodificação pode gerar amostras de predição para o bloco atual com base nas informações de movimento do bloco atual (S820). Nesse caso, o aparelho de decodificação pode derivar a figura de referência com base em um índice de figura de referência do bloco atual, e, então, o aparelho de decodificação pode derivar as amostras de predição do bloco atual utilizando-se amostras de um bloco de referência que é indicado pelo vetor de movimento do bloco atual na figura de referência. Nesse caso, dentre as amostras de predição do bloco atual, um procedimento de filtragem de amostra de predição, que será descrito mais adiante em maiores detalhes, pode ser adicionalmente realizado em todas, ou em parte das, amostras de predição do bloco atual.[0120] The decoding apparatus may generate prediction samples for the current block based on the movement information of the current block (S820). In this case, the decoding apparatus may derive the reference figure based on a reference figure index of the current block, and then the decoding apparatus may derive the prediction samples of the current block using samples from a block reference that is indicated by the motion vector of the current block in the reference figure. In this case, among the prediction samples of the current block, a prediction sample filtering procedure, which will be described later in greater detail, may additionally be performed on all, or part of, the prediction samples of the current block.

[0121] Por exemplo, o interpreditor 332 do aparelho de decodificação pode incluir um determinador de modo de predição 332_1, um derivador de informações de movimento 332_2 e um derivador de amostra de predição 332_3. O determinador de modo de predição 332_1 pode determinar um modo de predição para o bloco atual com base nas informações de modo de predição recebidas, o derivador de informações de movimento 332_2 pode derivar as informações de movimento (vetor de movimento e/ou índice de figura de referência, e assim por diante) do bloco atual com base nas informações nas informações de movimento recebidas, e o derivador de amostra de predição 332_3 pode derivar as amostras de predição do bloco atual.[0121] For example, the interpredictor 332 of the decoding apparatus may include a prediction mode determiner 332_1, a motion information derivator 332_2, and a prediction sample derivator 332_3. The prediction mode determiner 332_1 may determine a prediction mode for the current block based on the received prediction mode information, the motion information deriver 332_2 may derive the motion information (motion vector and/or figure index reference, and so on) of the current block based on the information in the received motion information, and the prediction sample derivative 332_3 can derive the prediction samples of the current block.

[0122] O aparelho de decodificação gera amostras residuais para o bloco atual com base nas informações residuais recebidas (S830). O aparelho de decodificação pode gerar amostras reconstruídas para o bloco atual com base nas amostras de predição e nas amostras residuais e gerar uma figura reconstruída com base nas amostras reconstruídas geradas (S840). Posteriormente, conforme descrito anteriormente, um procedimento de filtragem em laço, e assim por diante, pode ser adicionalmente aplicado à figura reconstruída.[0122] The decoding apparatus generates residual samples for the current block based on the received residual information (S830). The decoding apparatus can generate reconstructed samples for the current block based on the prediction samples and residual samples and generate a reconstructed figure based on the generated reconstructed samples (S840). Subsequently, as described previously, a loop filtering procedure, and so on, can be additionally applied to the reconstructed figure.

[0123] Entretanto, conforme descrito anteriormente, uma sintaxe de alto nível (HLS) pode ser codificada/sinalizada para codificação de vídeo/imagem. Uma figura codificada pode ser configurada por uma ou mais fatias. Um parâmetro que descreve a figura codificada é sinalizado em um cabeçalho de figura, e um parâmetro que descreve uma fatia é sinalizado em um cabeçalho de fatia. O cabeçalho de figura é realizado em seu próprio formato de unidade de NAL. E, o cabeçalho de fatia está presente em um início (ou ponto de partida) de uma unidade de NAL incluindo uma carga útil da fatia (isto é, dados de fatia).[0123] However, as previously described, a high-level syntax (HLS) can be encoded/signaled for video/image coding. A coded figure can be configured by one or more slices. A parameter that describes the encoded figure is flagged in a picture header, and a parameter that describes a slice is flagged in a slice header. The figure header is realized in its own NAL unit format. And, the slice header is present at a start (or starting point) of a NAL unit including a slice payload (i.e., slice data).

[0124] Cada figura é associada a um cabeçalho de figura. Uma figura pode ser configurada por diferentes tipos de fatias (uma fatia intracodificada (isto é, fatia I) e fatias intercodificadas (isto é, fatia P e fatia B)). Portanto, um cabeçalho de figura pode incluir elementos de sintaxe que são necessários em uma intrafatia de uma figura e uma interfatia de uma figura.[0124] Each figure is associated with a figure header. A figure can be configured by different types of slices (an intracoded slice (i.e., I-slice) and intercoded slices (i.e., P-slice and B-slice)). Therefore, a figure header can include syntax elements that are required in an intraslice of a figure and an interslice of a figure.

[0125] Uma figura pode ser particionada (ou dividida em) sub-figurações, tiles e/ou fatias. Uma sinalização de sub-figura pode estar presente em um conjunto de parâmetros em sequência (SPS). E, uma sinalização de tile e fatia quadrada pode estar presente em um conjunto de parâmetros de figura (PPS). Uma sinalização de fatia de varredura por rasterização pode estar presente em um cabeçalho de fatia.[0125] A figure can be partitioned (or divided into) sub-figurations, tiles and/or slices. A sub-figure flag may be present in a sequenced parameter set (SPS). And, a tile and square slice flag can be present in a figure parameter set (PPS). A raster scan slice flag may be present in a slice header.

[0126] Por exemplo, em relação ao particionamento de uma figura, os elementos de sintaxe mostrados abaixo na Tabela 1 podem ser incluídos em uma sintaxe de SPS. [Tabela 1] [0126] For example, in relation to partitioning a figure, the syntax elements shown below in Table 1 can be included in an SPS syntax. [Table 1]

[0127] Os elementos de sintaxe mostrados abaixo na Tabela 2 podem ser incluídos em uma sintaxe de PPS. [Tabela 2] [0127] The syntax elements shown below in Table 2 can be included in a PPS syntax. [Table 2]

[0128] Na Tabela 2, num_slices_in_tile_minus1[i] + 1 indica um número de fatias em um tile atual, quando uma i-ésima fatia incluir um subconjunto de fileiras de CTU em um único tile. Um valor de num_slices_in_tile_minus1[i] deve estar dentro de uma faixa inclusiva de 0 a RowHeight[tileY] - 1. No presente documento, tileY é um índice de uma fileira de tile que inclui uma i-ésima fatia. Quando num_slices_in_tile_minus1[i] não estiver presente em um PPS, o valor de num_slices_in_tile_minus1[i] é derivado como 0.[0128] In Table 2, num_slices_in_tile_minus1[i] + 1 indicates a number of slices in a current tile, when an ith slice includes a subset of CTU rows in a single tile. A value of num_slices_in_tile_minus1[i] must be within an inclusive range of 0 to RowHeight[tileY] - 1. In this document, tileY is an index of a tile row that includes an ith slice. When num_slices_in_tile_minus1[i] is not present in a PPS, the value of num_slices_in_tile_minus1[i] is derived as 0.

[0129] slice_height_in_ctu_minus1[i] + 1 indica uma altura de uma i-ésima fatia retangular em unidades de fileira de CTU, quando uma i-ésima fatia incluir um subconjunto de fileiras de CTU em um único tile. Um valor de slice_height_in_ctu_minus1[i] deve estar dentro de uma faixa inclusiva de 0 a RowHeight[tileY] - 1. No presente documento, tileY é um índice de uma fileira de tile que inclui uma i-ésima fatia.[0129] slice_height_in_ctu_minus1[i] + 1 indicates a height of an ith rectangular slice in CTU row units, when an ith slice includes a subset of CTU rows in a single tile. A value of slice_height_in_ctu_minus1[i] must be within an inclusive range of 0 to RowHeight[tileY] - 1. In this document, tileY is an index of a tile row that includes an ith slice.

[0130] Os elementos de sintaxe mostrados abaixo na Tabela 3 podem ser incluídos em uma sintaxe de cabeçalho de fatia. [Tabela 3] [0130] The syntax elements shown below in Table 3 can be included in a slice header syntax. [Table 3]

[0131] Referindo-se às Tabelas 1 a 3, no projeto atual de tile e fatia, uma fatia retangular pode incluir um ou mais tiles. Alternativamente, uma fatia retangular pode incluir um número inteiro (ou número completo) de fileiras de CTU em um único tile.[0131] Referring to Tables 1 to 3, in the current tile and slice design, a rectangular slice may include one or more tiles. Alternatively, a rectangular slice can include an integer (or complete number) of CTU rows on a single tile.

[0132] Quando uma fatia retangular incluir um número inteiro (ou número completo) de fileiras de CTU em um único tile (isso corresponde a um caso onde o tile é particionado a duas ou mais fatias), na sinalização atual, a altura de cada fatia é explicitamente sinalizada. No entanto, esse tipo de sinalização não é um método de sinalização ideal.[0132] When a rectangular slice includes an integer (or complete number) of CTU rows in a single tile (this corresponds to a case where the tile is partitioned into two or more slices), in current signaling, the height of each slice is explicitly signaled. However, this type of signaling is not an ideal signaling method.

[0133] Um layout de fatias em um tile pode incluir um caso onde as alturas das fatias no tile são uniformes com a exceção da última fatia e um caso onde as alturas das fatias no tile não são uniformes. Quando as alturas das fatias no tile forem uniformes com a exceção da última fatia, visto que as alturas de todas as fatias excluindo a última fatia no tile são iguais, apenas a altura de uma fatia pode ser simplesmente sinalizada sem precisar sinalizar explicitamente a altura de cada fatia. Quando as alturas das fatias no tile não forem uniformes, a altura de cada fatia no tile precisa ser sinalizada.[0133] A layout of slices in a tile may include a case where the heights of the slices in the tile are uniform with the exception of the last slice and a case where the heights of the slices in the tile are not uniform. When the heights of the slices in the tile are uniform with the exception of the last slice, since the heights of all slices excluding the last slice in the tile are equal, only the height of one slice can be simply flagged without having to explicitly flag the height of each slice. When the heights of the slices in the tile are not uniform, the height of each slice in the tile needs to be flagged.

[0134] Os desenhos a seguir são ilustrados a fim de descrever os exemplos detalhados do presente relatório descritivo. Os termos detalhados do aparelho (ou dispositivo) ou os termos detalhados dos sinais/informações especificadas nos desenhos são meramente exemplificadores. E, portanto, as características técnicas do presente relatório descritivo não serão limitadas apenas aos termos detalhados usados nos desenhos a seguir.[0134] The following drawings are illustrated in order to describe the detailed examples of the present specification. The detailed terms of the apparatus (or device) or the detailed terms of the signals/information specified in the drawings are merely exemplary. And therefore, the technical characteristics of the present specification will not be limited only to the detailed terms used in the following drawings.

[0135] O presente relatório descritivo proporciona os métodos a seguir a fim de solucionar os problemas descritos anteriormente. Os itens de cada método podem ser independentemente aplicados ou podem ser aplicados em combinação.[0135] This specification provides the methods to be followed in order to solve the problems described above. Items from each method can be applied independently or can be applied in combination.

[0136] Por exemplo, quando um tile incluir duas ou mais fatias, um número de alturas de fatia sendo explicitamente sinalizados nas fileiras de CTU pode ser sinalizado. Isso pode ser referido como elemento de sintaxe num_exp_slice_in_tile. Nesse caso, elementos de sintaxe (um arranjo de slice_row_height_minus1) para índices começando a partir de 0 a num_exp_slice_in_tile - 1 podem ser sinalizados. Isso pode ser sinalizado como ue(v) ou u(v), e um número de bits que sinalizam esses elementos de sintaxe pode variar de acordo com um número de fileiras de CTU em um tile. No presente documento, ue(v) representa um elemento de sintaxe de Golomb Exponencial de 0-ésima ordem, e u(v) indica que v número de bits são usados, onde o valor de v varia de acordo com o valor de outros elementos de sintaxe.[0136] For example, when a tile includes two or more slices, a number of slice heights being explicitly signaled in the CTU rows may be signaled. This can be referred to as the num_exp_slice_in_tile syntax element. In this case, syntax elements (an array of slice_row_height_minus1) for indices starting from 0 to num_exp_slice_in_tile - 1 can be flagged. This can be signaled as ue(v) or u(v), and a number of bits that signal these syntax elements can vary according to a number of CTU rows in a tile. In this document, ue(v) represents a 0th-order Exponential Golomb syntax element, and u(v) indicates that v number of bits are used, where the value of v varies according to the value of other elements of syntax.

[0137] A altura de cada fatia começando a partir de uma primeira fatia a uma n-ésima fatia no tile é dada como valores de slice_row_height_minus1 + 1 começando a partir de 0 a num_exp_slice_in_tile - 1, respectivamente. No presente documento, n é igual a um número de fatias sendo explicitamente sinalizadas no tile (num_exp_slice_in_tile).[0137] The height of each slice starting from a first slice to an nth slice in the tile is given as values of slice_row_height_minus1 + 1 starting from 0 to num_exp_slice_in_tile - 1, respectively. In this document, n is equal to a number of slices being explicitly signaled in the tile (num_exp_slice_in_tile).

[0138] Embora as fileiras de CTU restantes que são maiores que num_exp_slice_in_tile_minus1 + 1 e (explicitamente) sinalizadas por último no tile ainda estejam presentes, uma nova fatia é definida no tile. Em outras palavras, fatias que não são explicitamente sinalizadas estão presentes no tile. A última fatia pode ter uma altura que seja igual ou menor que num_exp_slice_in_tile_minus1 + 1 que foi sinalizado por último.[0138] Although the remaining CTU rows that are greater than num_exp_slice_in_tile_minus1 + 1 and (explicitly) flagged last in the tile are still present, a new slice is defined in the tile. In other words, slices that are not explicitly flagged are present on the tile. The last slice can have a height that is equal to or less than the num_exp_slice_in_tile_minus1 + 1 that was flagged last.

[0139] Como outro exemplo, quando um tile incluir duas ou mais fatias, um número de fatias sendo incluídas no tile pode ser sinalizado. Nesse caso, um sinalizador que indica se as alturas de cada fatia no tile são, ou não, uniformes pode ser sinalizado. Quando as alturas de cada fatia no tile forem uniformes, apenas uma altura de fatia pode ser sinalizada a partir das fileiras de CTU. A altura de cada fatia no tile pode ser derivada com base na altura de fatia sinalizada. E, quando as alturas de cada fatia no tile não forem uniformes, as alturas de cada fatia excluindo a última fatia no tile podem ser explicitamente sinalizadas.[0139] As another example, when a tile includes two or more slices, a number of slices being included in the tile may be signaled. In this case, a flag that indicates whether or not the heights of each slice in the tile are uniform can be flagged. When the heights of each slice in the tile are uniform, only one slice height can be signaled from the CTU rows. The height of each slice in the tile can be derived based on the flagged slice height. And, when the heights of each slice in the tile are not uniform, the heights of each slice excluding the last slice in the tile can be explicitly flagged.

[0140] No presente relatório descritivo, as informações sobre as fatias e/ou tiles podem incluir informações e/ou elementos de sintaxe revelados nas Tabelas 1 a 3. Informações de imagem/vídeo podem incluir uma sintaxe de alto nível (HLS) revelada nas Tabelas 1 a 3, e a sintaxe de alto nível (HLS) pode incluir informações relacionadas a fatias e/ou informações relacionadas aos tiles. As informações relacionadas às fatias podem incluir informações que indicam uma ou mais fatias em uma figura atual, e as informações relacionadas aos tiles podem incluir informações que indicam um ou mais tiles na figura atual. Um tile que inclui uma ou mais fatias e uma fatia incluindo um ou mais tiles podem estar presentes em uma figura.[0140] In the present specification, information about slices and/or tiles may include information and/or syntax elements disclosed in Tables 1 to 3. Image/video information may include high-level syntax (HLS) disclosed in Tables 1 through 3, and the high-level syntax (HLS) may include slice-related information and/or tile-related information. Slice-related information may include information that indicates one or more slices in a current figure, and tile-related information may include information that indicates one or more tiles in the current figure. A tile including one or more slices and a slice including one or more tiles may be present in a figure.

[0141] Como uma modalidade, a fim de representar uma estrutura particionada de uma figura, sintaxes mostradas abaixo na Tabela 4 e semântica mostrada abaixo na Tabela 5 pode ser usada para um PPS. [Tabela 4] [0141] As an embodiment, in order to represent a partitioned structure of a figure, syntaxes shown below in Table 4 and semantics shown below in Table 5 can be used for a PPS. [Table 4]

[0142] Referindo-se às Tabelas 4 e 5, num_exp_slices_in_tile[i] + 1 representa um número de exp_slice_height_in_ctu_minus1[j] estando presente em um PPS. Quando num_exp_slices_in_tile[i] não estiver presente no PPS, um valor de num_exp_slices_in_tile_minus1[i] é derivado como 0.[0142] Referring to Tables 4 and 5, num_exp_slices_in_tile[i] + 1 represents a number of exp_slice_height_in_ctu_minus1[j] being present in a PPS. When num_exp_slices_in_tile[i] is not present in the PPS, a value of num_exp_slices_in_tile_minus1[i] is derived as 0.

[0143] exp_slice_height_in_ctu_minus1[j] + 1 indica uma altura de uma j- ésima fatia retangular sendo explicitamente sinalizada em unidades de fileira de CTU, quando uma i-ésima fatia incluir um subconjunto de fileiras de CTU em um único tile. Um valor de exp_slice_height_in_ctu_minus1[j] deve estar em uma faixa inclusiva de 0 a RowHeight[tileY] - 1. No presente documento, tileY é um índice de uma fileira de tile incluindo uma fatia.[0143] exp_slice_height_in_ctu_minus1[j] + 1 indicates a height of a j-th rectangular slice being explicitly signaled in CTU row units, when an ith slice includes a subset of CTU rows in a single tile. A value of exp_slice_height_in_ctu_minus1[j] must be in an inclusive range of 0 to RowHeight[tileY] - 1. In this document, tileY is an index of a tile row including a slice.

[0144] Ou seja, num_exp_slices_in_tile[i] pode ser referido como informações (informações numéricas) sobre um número de fatias tendo sua altura explicitamente sinalizada no tile de uma figura atual. E, exp_slice_height_in_ctu_minus1[j] pode ser referido como informações (informações de altura) sobre uma altura de cada fatia tendo sua altura explicitamente sinalizada.[0144] That is, num_exp_slices_in_tile[i] can be referred to as information (numeric information) about a number of slices having their height explicitly signaled in the tile of a current figure. And, exp_slice_height_in_ctu_minus1[j] can be referred to as information (height information) about a height of each slice having its height explicitly signaled.

[0145] As informações numéricas e as informações de altura podem ser um elemento de sintaxe codificado por Golomb Exponencial.[0145] The numeric information and height information may be an Exponential Golomb-encoded syntax element.

[0146] As informações numéricas podem ser analisadas com base nas informações sobre uma largura e altura de uma fatia incluindo o tile. Quando o tile incluir uma i-ésima fatia, as informações de largura da fatia incluindo o tile podem corresponder ao elemento de sintaxe slice_width_in_tiles_minus1[i], e as informações de altura da fatia incluindo o tile podem corresponder ao elemento de sintaxe slice_height_in_tiles_minus1[i]. A i-ésima fatia pode ser uma fatia retangular, e fatias no tile também podem ser particionadas em fatias retangulares.[0146] Numerical information can be analyzed based on information about a width and height of a slice including the tile. When the tile includes an ith slice, the width information of the slice including the tile may correspond to the slice_width_in_tiles_minus1[i] syntax element, and the height information of the slice including the tile may correspond to the slice_height_in_tiles_minus1[i] syntax element. . The ith slice can be a rectangular slice, and slices in the tile can also be partitioned into rectangular slices.

[0147] Por exemplo, o aparelho de codificação pode gerar as informações numéricas e as informações de altura com base nas informações sobre as fatias da figura atual. As informações numéricas e as informações de altura podem ser incluídas nas informações de imagem e sinalizadas ao aparelho de decodificação em um formato de fluxo de bits.[0147] For example, the encoding apparatus may generate numerical information and height information based on information about slices of the current figure. The numerical information and height information may be included in the image information and signaled to the decoding apparatus in a bitstream format.

[0148] Quando as informações numéricas forem analisadas a partir de um PPS, conforme mostrado na Tabela 4, o aparelho de decodificação pode analisar as informações de altura a partir do PPS com base nas informações numéricas. Por exemplo, quando um valor das informações numéricas for igual a n (onde n é um inteiro maior ou igual a 0), o aparelho de decodificação pode analisar as informações de altura em um número n de fatias (começando a partir da 0-ésima fatia à (n-1)- ésima fatia no tile) a partir do PPS. As informações de altura podem indicar cada dentre a altura da 0-ésima fatia à altura da (n-1)-ésima fatia em fileiras de unidade de árvore de codificação (CTU).[0148] When numerical information is analyzed from a PPS, as shown in Table 4, the decoding apparatus can analyze height information from the PPS based on the numerical information. For example, when a value of numerical information is equal to n (where n is an integer greater than or equal to 0), the decoding apparatus can analyze the height information in a number n of slices (starting from the 0th slice to (n-1)- th slice on the tile) from the PPS. The height information may indicate each of the height of the 0th slice to the height of the (n-1)th slice in coding tree unit (CTU) rows.

[0149] Posteriormente, o aparelho de decodificação pode derivar as alturas das fatias restantes no tile com base na altura da (n-1)-ésima fatia. De modo mais específico, o aparelho de decodificação pode derivar as alturas das fatias restantes excluindo a última fatia no tile começando a partir da n-ésima fatia no tile como sendo igual ou maior que a (n-1)-ésima fatia. Para isso, o aparelho de decodificação pode comparar uma altura restante do tile, que é calculada subtraindo-se uma soma das alturas das fatias começando a partir da 0-ésima fatia à (n-1)-ésima fatia a partir de uma altura total do tile, a fim de determinar se a altura restante é igual ou maior que uma altura de fatia uniforme. No presente documento, uma fatia uniforme pode significar fatias tendo uma altura uniforme (a mesma altura) no tile. Ou seja, a altura de uma fatia uniforme pode ser igual à altura da (n-1)-ésima fatia.[0149] Thereafter, the decoding apparatus may derive the heights of the remaining slices in the tile based on the height of the (n-1)-th slice. More specifically, the decoding apparatus may derive the heights of the remaining slices by excluding the last slice in the tile starting from the nth slice in the tile as being equal to or greater than the (n-1)th slice. To do this, the decoding apparatus can compare a remaining height of the tile, which is calculated by subtracting a sum of the heights of the slices starting from the 0-th slice to the (n-1)-th slice from a total height of the tile in order to determine whether the remaining height is equal to or greater than a uniform slice height. In this document, a uniform slice can mean slices having a uniform height (the same height) on the tile. That is, the height of a uniform slice can be equal to the height of the (n-1)-th slice.

[0150] Quando a altura restante do tile for igual ou maior que a altura de uma fatia uniforme, a altura da n-ésima fatia pode ser derivada como a altura da fatia uniforme. E, quando a altura restante do tile for menor que a altura de uma fatia uniforme, a altura da n-ésima fatia pode ser derivada como a altura restante. Adicionalmente, quando a altura restante do tile for igual ou maior que a altura de uma fatia uniforme, uma altura restante atualizada pode ser derivada subtraindo-se a altura da n-ésima fatia a partir da altura restante. E, quando a altura restante atualizada for igual ou maior que a altura de uma fatia uniforme, o aparelho de decodificação pode derivar a altura de uma (n+1)-ésima fatia como a altura de uma fatia uniforme. Quando a altura restante atualizada for menor que a altura de uma fatia uniforme, o aparelho de decodificação pode derivar a altura da altura de uma (n+1)-ésima fatia como a altura restante atualizada. Ou seja, excluindo a última fatia no tile, a altura das fatias começando a partir da n-ésima fatia à última fatia pode ser derivada como uma altura uniforme. A altura da última fatia pode ser igual ou menor que a altura de cada fatia uniforme (fatias começando a partir da (n-1)-ésima fatia a uma fatia imediatamente antes da última fatia).[0150] When the remaining tile height is equal to or greater than the height of a uniform slice, the height of the nth slice can be derived as the height of the uniform slice. And, when the remaining height of the tile is less than the height of a uniform slice, the height of the nth slice can be derived as the remaining height. Additionally, when the remaining tile height is equal to or greater than the height of a uniform slice, an updated remaining height can be derived by subtracting the height of the nth slice from the remaining height. And, when the updated remaining height is equal to or greater than the height of a uniform slice, the decoding apparatus may derive the height of an (n+1)-th slice as the height of a uniform slice. When the updated remaining height is less than the height of a uniform slice, the decoding apparatus may derive the height from the height of an (n+1)-th slice as the updated remaining height. That is, excluding the last slice in the tile, the height of the slices starting from the nth slice to the last slice can be derived as a uniform height. The height of the last slice can be equal to or less than the height of each uniform slice (slices starting from the (n-1)-th slice to a slice immediately before the last slice).

[0151] Como um exemplo, quando 5 fatias forem incluídas em um tile, e quando as informações numéricas indicarem 3, as informações de altura para a primeira fatia à terceira fatia no tile podem ser analisadas a partir do PPS, e a altura da quarta fatia no tile pode ser derivada para ter a mesma altura que a terceira fatia. Nesse caso, a altura da quinta fatia pode ser maior ou menor que a altura da quarta fatia.[0151] As an example, when 5 slices are included in a tile, and when the numerical information indicates 3, the height information for the first slice to the third slice in the tile can be analyzed from the PPS, and the height of the fourth slice in the tile can be derived to have the same height as the third slice. In this case, the height of the fifth slice may be greater or less than the height of the fourth slice.

[0152] O aparelho de decodificação pode derivar um número de fatias no tile realizando-se o procedimento de varredura descrito anteriormente. Quando o valor das informações numéricas for maior que 0, o procedimento de derivar informações sobre a altura de cada fatia no tile e informações sobre um número de fatias no tile pode ser indicado conforme mostrado abaixo na Tabela 5. [Tabela 6] [0152] The decoding apparatus may derive a number of slices in the tile by performing the scanning procedure described previously. When the value of numerical information is greater than 0, the procedure of deriving information about the height of each slice in the tile and information about a number of slices in the tile can be indicated as shown below in Table 5. [Table 6]

[0153] No caso de uma fatia retangular, uma lista NumCtuInSlice[i] para i de uma faixa inclusiva de 0 a num_slices_in_pic_minus1 pode indicar um número de CTUs em uma i-ésima fatia, matriz CtbAddrInSlice[i][j] para i de uma faixa inclusiva de 0 a num_slices_in_pic_minus1 e j de uma faixa inclusiva de 0 a NumCtuInSlice[i] - 1 indica um endereço de varredura por rasterização de figura de um j-ésimo CTB na i-ésima fatia e pode ser derivada conforme mostrado abaixo na Tabela 7. [Tabela 7] }[0153] In the case of a rectangular slice, a list NumCtuInSlice[i] for i of an inclusive range from 0 to num_slices_in_pic_minus1 may indicate a number of CTUs in an ith slice, array CtbAddrInSlice[i][j] for i of an inclusive range from 0 to num_slices_in_pic_minus1 and j from an inclusive range from 0 to NumCtuInSlice[i] - 1 indicates a picture raster scan address of a j-th CTB in the ith slice and can be derived as shown below in Table 7. [Table 7] }

[0154] Como outra modalidade, a fim de representar uma estrutura particionada de uma figura, as sintaxes mostradas abaixo na Tabela 8 e semânticas mostradas abaixo na Tabela 9 podem ser usadas para um PPS. [Tabela 8] [0154] As another embodiment, in order to represent a partitioned structure of a figure, the syntaxes shown below in Table 8 and semantics shown below in Table 9 can be used for a PPS. [Table 8]

[0155] Referindo-se às Tabelas 8 e 9, se um valor de uniform_slice_spacing_flag[i] for igual a 1, isso indica que as fileiras de CTU são uniformemente distribuídas (ou dispersas) ao longo de todo o tile e são sinalizadas utilizando-se elementos de sintaxe uniform_slice_height_in_ctu_minus1[i]. Se o valor de uniform_slice_spacing_flag[i] for igual a 0, isso indica que as fileiras de CTU podem, ou não, ser uniformemente distribuídas (ou dispersas) ao longo de todo o tile e são sinalizadas utilizando-se elementos de sintaxe num_slices_in_tile_minus1[i] e slice_height_in_ctu_minus1[i].[0155] Referring to Tables 8 and 9, if a value of uniform_slice_spacing_flag[i] is equal to 1, this indicates that the CTU rows are uniformly distributed (or dispersed) throughout the entire tile and are flagged using- if syntax elements uniform_slice_height_in_ctu_minus1[i]. If the value of uniform_slice_spacing_flag[i] is equal to 0, this indicates that the CTU rows may or may not be uniformly distributed (or dispersed) across the entire tile and are signaled using syntax elements num_slices_in_tile_minus1[i ] and slice_height_in_ctu_minus1[i].

[0156] Quando o valor de uniform_slice_spacing_flag[i] for igual a 1, slice_rows_height_in_ctu_minus1[i] + 1 indica a altura das fatias excluindo a última fatia do tile em unidades de CTB. Um valor de slice_height_in_ctu_minus1[i] deve estar dentro de uma faixa inclusiva de 0 a RowHeight[tileY] - 1. No presente documento, tileY é um índice de uma fileira de tile incluindo as fatias.[0156] When the value of uniform_slice_spacing_flag[i] is equal to 1, slice_rows_height_in_ctu_minus1[i] + 1 indicates the height of the slices excluding the last slice of the tile in CTB units. A value of slice_height_in_ctu_minus1[i] must be within an inclusive range of 0 to RowHeight[tileY] - 1. In this document, tileY is an index of a tile row including the slices.

[0157] num_slices_in_tile_minus1[i] + 1 indica um número de fatias no tile atual, quando uma i-ésima fatia incluir um subconjunto de fileiras de CTU em um único tile, e quando o valor de uniform_slice_spacing_flag[i] for igual a 0. Um valor de num_slices_in_tile_minus1[i] deve estar dentro de uma faixa inclusiva de 0 A RowHeight[tileY] - 1. No presente documento, tileY é um índice de uma fileira de tile incluindo uma i-ésima fatia. Quando num_slices_in_tile_minus1[i] não estiver presente, o valor de num_slices_in_tile_minus1[i] é derivado como 0.[0157] num_slices_in_tile_minus1[i] + 1 indicates a number of slices in the current tile, when an ith slice includes a subset of CTU rows in a single tile, and when the value of uniform_slice_spacing_flag[i] is equal to 0. A value of num_slices_in_tile_minus1[i] must be within an inclusive range of 0 to RowHeight[tileY] - 1. In this document, tileY is an index of a tile row including an ith slice. When num_slices_in_tile_minus1[i] is not present, the value of num_slices_in_tile_minus1[i] is derived as 0.

[0158] slice_height_in_ctu_minus1[i] + 1 indica uma altura de uma i-ésima fatia retangular em unidades de fileira de CTU, quando uma i-ésima fatia inclui um subconjunto de fileiras de CTU em um único tile. Um valor de slice_height_in_ctu_minus1[i] deve estar dentro de uma faixa inclusiva de 0 a RowHeight[tileY] - 1. No presente documento, tileY é um índice de uma fileira de tile incluindo uma i-ésima fatia.[0158] slice_height_in_ctu_minus1[i] + 1 indicates a height of an ith rectangular slice in CTU row units, when an ith slice includes a subset of CTU rows in a single tile. A value of slice_height_in_ctu_minus1[i] must be within an inclusive range of 0 to RowHeight[tileY] - 1. In this document, tileY is an index of a tile row including an ith slice.

[0159] Por exemplo, o aparelho de codificação pode gerar pelo menos um dentre uniform_slice_spacing_flag, slice_rows_height_in_ctu_minus1, num_slices_in_tile_minus1 e slice_height_in_ctu_minus1 com base nas informações sobre fatias da figura atual.[0159] For example, the encoding apparatus may generate at least one of uniform_slice_spacing_flag, slice_rows_height_in_ctu_minus1, num_slices_in_tile_minus1 and slice_height_in_ctu_minus1 based on information about slices of the current figure.

[0160] Quando uniform_slice_spacing_flag for analisado a partir de um PPS, conforme mostrado na Tabela 8, o aparelho de decodificação pode analisar slice_rows_height_in_ctu_minus1 ou num_slices_in_tile_minus1 a partir do PPS com base em um valor de uniform_slice_spacing_flag. Por exemplo, se o valor de uniform_slice_spacing_flag for igual a 1, o aparelho de decodificação pode analisar slice_rows_height_in_ctu_minus1 a partir do PPS e pode, então, derivar o resultado analisado como a altura das fatias restantes excluindo a última fatia no tile com base no valor de slice_rows_height_in_ctu_minus1. Se o valor de uniform_slice_spacing_flag for igual a 0, o aparelho de decodificação pode analisar num_slices_in_tile_minus1 e slice_height_in_ctu_minus1 a partir do PPS e pode derivar as fatias no tile com base no resultado analisado.[0160] When uniform_slice_spacing_flag is parsed from a PPS, as shown in Table 8, the decoding apparatus may parse slice_rows_height_in_ctu_minus1 or num_slices_in_tile_minus1 from the PPS based on a uniform_slice_spacing_flag value. For example, if the value of uniform_slice_spacing_flag is equal to 1, the decoder can parse slice_rows_height_in_ctu_minus1 from the PPS and can then derive the parsed result as the height of the remaining slices excluding the last slice in the tile based on the value of slice_rows_height_in_ctu_minus1. If the value of uniform_slice_spacing_flag is equal to 0, the decoder can parse num_slices_in_tile_minus1 and slice_height_in_ctu_minus1 from the PPS and can derive the slices in the tile based on the parsed result.

[0161] Por exemplo, as variáveis NumSlicesInTileMinus1[i] e SliceHeightInCtuMinus1[i+k] que são relacionadas às informações numéricas e informações de altura de fatias em um tile podem ser derivadas conforme mostrado abaixo. No presente documento, k pode estar em uma faixa inclusiva de 0 a NumSlicesInTileMinus1[i]. Tabela 10] [0161] For example, the variables NumSlicesInTileMinus1[i] and SliceHeightInCtuMinus1[i+k] that are related to numerical information and height information of slices in a tile can be derived as shown below. In this document, k can be in an inclusive range from 0 to NumSlicesInTileMinus1[i]. Table 10]

[0162] No caso de uma fatia retangular, uma lista NumCtuInSlice[i] para i de uma faixa inclusiva de 0 a num_slices_in_pic_minus1 pode indicar um número de CTUs em uma i-ésima fatia, matriz CtbAddrInSlice[i][j] para i de uma faixa inclusiva de 0 a num_slices_in_pic_minus1 e j de uma faixa inclusiva de 0 a NumCtuInSlice[i] - 1 indica um endereço de varredura por rasterização de figura de um j-ésimo CTB na i-ésima fatia e pode ser derivado conforme mostrado abaixo na Tabela 11. Tabela 11] [0162] In the case of a rectangular slice, a list NumCtuInSlice[i] for i of an inclusive range from 0 to num_slices_in_pic_minus1 may indicate a number of CTUs in an ith slice, array CtbAddrInSlice[i][j] for i of an inclusive range from 0 to num_slices_in_pic_minus1 and j from an inclusive range from 0 to NumCtuInSlice[i] - 1 indicates a picture raster scan address of a j-th CTB in the ith slice and can be derived as shown below in Table 11. Table 11]

[0163] As Figuras 10 e 11 mostram, respectivamente, exemplos gerais de um método de codificação de vídeo/imagem e um componente relacionado de acordo com uma modalidade da presente revelação.[0163] Figures 10 and 11 respectively show general examples of a video/image coding method and a related component in accordance with an embodiment of the present disclosure.

[0164] O método de codificação de vídeo/imagem revelado na Figura 10 pode ser realizado por um aparelho de codificação de (vídeo/imagem) 200 que é revelado na Figura 2 e na Figura 11. De modo mais específico, por exemplo, S1000 da Figura 10 pode ser realizado pelo particionador de imagem 210 do aparelho de codificação 200, e S1010 pode ser realizado pelo preditor 220 do aparelho de codificação 200. S1020 pode ser realizado pelo processador residual 230 do aparelho de codificação 200. E, S1030 e S1040 pode ser realizado pelo codificador de entropia 240 do aparelho de codificação 200. O método de codificação de vídeo/imagem revelado na Figura 10 pode incluir as modalidades que são descritas acima no presente relatório descritivo.[0164] The video/image coding method disclosed in Figure 10 can be performed by a (video/image) coding apparatus 200 which is disclosed in Figure 2 and Figure 11. More specifically, for example, S1000 10 may be realized by image partitioner 210 of coding apparatus 200, and S1010 may be realized by predictor 220 of coding apparatus 200. S1020 may be realized by residual processor 230 of coding apparatus 200. E, S1030 and S1040 may be performed by the entropy encoder 240 of the encoding apparatus 200. The video/image coding method disclosed in Figure 10 may include the embodiments that are described above in the present specification.

[0165] De modo mais específico, referindo-se às Figuras 10 e 11, o particionador de imagem 210 do aparelho de codificação pode derivar fatias em um tile de uma figura atual (S1000). Por exemplo, o particionador de imagem 210 pode particionar uma imagem de entrada (ou figura, quadro) a um ou mais CUs. A imagem de entrada pode incluir uma ou mais figurações. Uma figura pode ser particionada em um ou mais tiles, tijolos, fatias e/ou grupos de tiles. Uma fatia pode incluir um ou mais tijolos, tiles e/ou grupos de tiles. Um tijolo pode incluir uma ou mais fileiras de CTU. Um grupo de tiles pode incluir um ou mais tiles. Um tile pode incluir um ou mais CTUs. O CTU pode ser particionado em um ou mais CUs. Quando uma fatia específica na figura atual for uma fatia retangular, o particionador de imagem 210 pode particionar a fatia retangular em uma pluralidade de tiles, e, dentre a pluralidade de tiles, o particionador de imagem 210 pode particionar pelo menos um tile e, então, derivar uma pluralidade de fatias retangulares.[0165] More specifically, referring to Figures 10 and 11, the image partitioner 210 of the encoding apparatus can derive slices in a tile from a current figure (S1000). For example, image partitioner 210 may partition an input image (or picture, frame) to one or more CUs. The input image may include one or more pictures. A figure can be partitioned into one or more tiles, bricks, slices and/or groups of tiles. A slice can include one or more bricks, tiles and/or groups of tiles. A brick may include one or more CTU rows. A tile group can include one or more tiles. A tile can include one or more CTUs. The CTU can be partitioned into one or more CUs. When a particular slice in the current figure is a rectangular slice, the image partitioner 210 may partition the rectangular slice into a plurality of tiles, and, among the plurality of tiles, the image partitioner 210 may partition at least one tile, and then , derive a plurality of rectangular slices.

[0166] O preditor 220 do aparelho de codificação pode realizar uma predição em um bloco atual com base nas fatias que são derivadas no particionador de imagem 210 e pode, então, gerar amostras de predição (bloco de predição) e informações relacionadas à predição do bloco atual (S1010). O preditor 220 pode determinar se uma intrapredição está sendo aplicada, ou se uma interpredição está sendo aplicada no bloco atual ou unidades CU. O preditor 220 pode entregar diversas informações relacionadas à predição (informações relacionadas à predição) ao codificador de entropia 240. No presente documento, as informações relacionadas à predição podem incluir informações relacionadas a um modo de interpredição e informações relacionadas a um modo de intrapredição. Quando o modo de predição do bloco atual for o modo de interpredição, as amostras de predição podem ser geradas no interpreditor 221 do preditor 220. E, quando o modo de predição do bloco atual for o modo de intrapredição, as amostras de predição podem ser geradas no intrapreditor 222 do preditor 220.[0166] The predictor 220 of the coding apparatus may perform a prediction on a current block based on the slices that are derived in the image partitioner 210 and may then generate prediction samples (prediction block) and information related to the prediction of the current block (S1010). The predictor 220 may determine whether an intraprediction is being applied, or whether an interprediction is being applied to the current block or CU units. The predictor 220 may deliver various prediction-related information (prediction-related information) to the entropy encoder 240. Herein, the prediction-related information may include information related to an interprediction mode and information related to an intraprediction mode. When the prediction mode of the current block is the interprediction mode, the prediction samples can be generated in the interpredictor 221 of the predictor 220. And, when the prediction mode of the current block is the intraprediction mode, the prediction samples can be generated in intrapredictor 222 of predictor 220.

[0167] O processador residual 230 do aparelho de codificação pode gerar amostras residuais e informações residuais com base nas amostras de predição geradas a partir do preditor 220 e uma figura original (bloco original, amostras originais) (S1020). No presente documento, as informações residuais são informações relacionadas às amostras residuais, e as informações residuais podem incluir informações relacionadas a coeficientes de transformada (quantizados) para as amostras residuais.[0167] The residual processor 230 of the coding apparatus may generate residual samples and residual information based on the prediction samples generated from the predictor 220 and an original figure (original block, original samples) (S1020). In this document, residual information is information related to residual samples, and residual information may include information related to transformed (quantized) coefficients for residual samples.

[0168] O adicionador (ou reconstrutor) do aparelho de codificação pode gerar amostras reconstruídas (figura reconstruída, bloco reconstruído, arranjo de amostras reconstruídas) adicionando-se amostras residuais que são geradas no processador residual 230 e as amostras de predição que são geradas no interpreditor 221 ou intrapreditor 222.[0168] The adder (or reconstructor) of the coding apparatus can generate reconstructed samples (reconstructed figure, reconstructed block, reconstructed sample array) by adding residual samples that are generated in the residual processor 230 and the prediction samples that are generated in the interpredictor 221 or intrapredictor 222.

[0169] O codificador de entropia 240 do aparelho de codificação pode gerar informações relacionadas ao particionamento com base em uma estrutura de particionamento, que é derivada no particionador de imagem 210. As informações relacionadas a particionamento podem incluir informações (informações numéricas) sobre um número de fatias tendo, cada uma, sua altura explicitamente sinalizada em um tile e informações (informações de altura) sobre uma altura das fatias tendo, cada uma, sua altura explicitamente sinalizada. Por exemplo, o codificador de entropia 240 pode gerar informações numéricas relacionadas a um número de fatias tendo, cada uma, sua altura explicitamente sinalizada (fornecida) no tile e informações de altura relacionadas a uma altura das fatias tendo, cada uma, sua altura explicitamente sinalizada (fornecida) com base nas fatias que são derivadas no particionador de imagem 210 (S1030). No presente documento, as informações numéricas podem incluir os elementos de sintaxe descritos anteriormente num_exp_slices_in_tile e/ou num_slices_in_tile_minus1. As informações de altura podem incluir os elementos de sintaxe descritos anteriormente exp_slice_height_in_ctu_minus1, slice_rows_height_in_ctu_minus1 e/ou slice_height_in_ctu_minus1.[0169] The entropy encoder 240 of the encoding apparatus may generate partitioning-related information based on a partitioning structure, which is derived in the image partitioner 210. The partitioning-related information may include information (numeric information) about a number of slices each having its height explicitly signaled in a tile and information (height information) about a height of the slices each having its height explicitly signaled. For example, the entropy encoder 240 may generate numerical information related to a number of slices each having their height explicitly signaled (provided) in the tile and height information related to a height of the slices each having their height explicitly signaled (provided) in the tile. flagged (provided) based on the slices that are derived in image partitioner 210 (S1030). In this document, numeric information may include the previously described syntax elements num_exp_slices_in_tile and/or num_slices_in_tile_minus1. Height information may include the previously described syntax elements exp_slice_height_in_ctu_minus1, slice_rows_height_in_ctu_minus1, and/or slice_height_in_ctu_minus1.

[0170] O codificador de entropia 240 pode codificar informações de imagem incluindo informações relacionadas a particionamento, que incluem as informações numéricas e as informações de altura, informações relacionadas à predição, que são geradas no preditor 220 e/ou informações residuais, que são geradas no processador residual 230 (S1040). As informações que são codificadas no codificador de entropia 240 podem ser emitidas em um formato de fluxo de bits. O fluxo de bits pode ser transmitido ao aparelho de decodificação através de uma rede ou mídia de armazenamento.[0170] The entropy encoder 240 may encode image information including partitioning-related information, which includes numerical information and height information, prediction-related information, which is generated in the predictor 220, and/or residual information, which is generated on the residual processor 230 (S1040). The information that is encoded in the entropy encoder 240 may be output in a bitstream format. The bit stream can be transmitted to the decoding apparatus via a network or storage media.

[0171] Por exemplo, o codificador de entropia 240 pode incluir informações de imagem, que incluem o elemento de sintaxe num_exp_slices_in_tile como as informações numéricas e o elemento de sintaxe exp_slice_height_in_ctu_minus1 como as informações de altura com base nas Tabelas 4 e 5 descritas anteriormente. As informações de altura podem indicar a altura das fatias tendo, cada uma, sua altura explicitamente sinalizada no tile nas unidades de fileira de CTU, e, para isso, as informações de altura podem incluir elementos de sintaxe para as fatias tendo, cada uma, sua altura explicitamente sinalizada. O número de elementos de sintaxe sendo incluídos nas informações de imagem pode ser igual ao valor de informações numéricas.[0171] For example, the entropy encoder 240 may include image information, which includes the syntax element num_exp_slices_in_tile as the numeric information and the syntax element exp_slice_height_in_ctu_minus1 as the height information based on Tables 4 and 5 described previously. The height information may indicate the height of slices each having its height explicitly signaled on the tile in the CTU row units, and to this end, the height information may include syntax elements for the slices each having its height explicitly signaled. The number of syntax elements being included in the image information can be equal to the value of numeric information.

[0172] Como outro exemplo, o codificador de entropia 240 pode codificar informações de imagem incluindo elementos de sintaxe uniform_slice_spacing_flag, num_slices_in_tile_minus1, slice_rows_height_in_ctu_minus1 e/ou slice_height_in_ctu_minus1 com base nas Tabelas 8 e 9 descritas anteriormente. Os elementos de sintaxe num_slices_in_tile_minus1, slice_rows_height_in_ctu_minus1 e slice_height_in_ctu_minus1 podem ser incluídos, ou podem não ser incluídos nas informações de imagem com base no valor de uniform_slice_spacing_flag.[0172] As another example, the entropy encoder 240 may encode image information including uniform_slice_spacing_flag, num_slices_in_tile_minus1, slice_rows_height_in_ctu_minus1 and/or slice_height_in_ctu_minus1 syntax elements based on Tables 8 and 9 described previously. The num_slices_in_tile_minus1, slice_rows_height_in_ctu_minus1, and slice_height_in_ctu_minus1 syntax elements may be included, or may not be included in the image information based on the value of uniform_slice_spacing_flag.

[0173] O codificador de entropia 240 pode sinalizar as informações numéricas e as informações de altura através de um conjunto de parâmetros de figura (PPS) nas informações de imagem. Nesse caso, o codificador de entropia 240 pode incluir as informações numéricas e/ou as informações de altura utilizando-se um método de Golomb Exponencial.[0173] The entropy encoder 240 may signal the numerical information and the height information through a set of figure parameters (PPS) in the image information. In this case, the entropy encoder 240 may include the numerical information and/or the height information using an Exponential Golomb method.

[0174] As Figuras 12 e 13 mostram, respectivamente, exemplos gerais de um método de decodificação de vídeo/imagem e um componente relacionado de acordo com uma modalidade da presente revelação.[0174] Figures 12 and 13 respectively show general examples of a video/image decoding method and a related component in accordance with an embodiment of the present disclosure.

[0175] O método de decodificação de vídeo/imagem revelado na Figura 12 pode ser realizado por um aparelho de decodificação de (vídeo/imagem) 300 que é revelado nas Figuras 3 e 13. De modo mais específico, por exemplo, S1200 a S1220 da Figura 12 podem ser realizados pelo decodificador de entropia 310 do aparelho de decodificação. S1230 da Figura 12 pode ser realizado pelo preditor 330 do aparelho de decodificação. E, S1240 e S1250 da Figura 12 podem ser realizados pelo adicionador 340 do aparelho de decodificação. O método de decodificação de vídeo/imagem revelado na Figura 12 pode incluir as modalidades que foram descritas acima no presente relatório descritivo.[0175] The video/image decoding method disclosed in Figure 12 can be performed by a (video/image) decoding apparatus 300 which is disclosed in Figures 3 and 13. More specifically, for example, S1200 to S1220 of Figure 12 can be performed by the entropy decoder 310 of the decoding apparatus. S1230 of Figure 12 can be realized by the predictor 330 of the decoding apparatus. And, S1240 and S1250 of Figure 12 can be realized by the adder 340 of the decoding apparatus. The video/image decoding method disclosed in Figure 12 may include the embodiments that have been described above in the present specification.

[0176] Referindo-se às Figuras 12 e 13, o decodificador de entropia 310 do aparelho de decodificação pode obter informações relacionadas a particionamento, informações residuais, informações relacionadas à predição (informações de diferenciação de inter/intrapredição, informações de modo de intrapredição, informações de modo de interpredição, e assim por diante), informações relacionadas à filtragem em laço, e assim por diante, a partir de um fluxo de bits. No presente documento, as informações relacionadas a particionamento podem incluir informações (informações numéricas) sobre um número de fatias tendo, cada uma, sua altura explicitamente sinalizada, dentre as fatias em um tile de uma figura atual, informações (informações de altura) sobre a altura de fatias tendo, cada uma, sua altura explicitamente sinalizada, e assim por diante.[0176] Referring to Figures 12 and 13, the entropy decoder 310 of the decoding apparatus can obtain partitioning-related information, residual information, prediction-related information (inter/intra-prediction differentiation information, intra-prediction mode information, interprediction mode information, and so on), information related to loop filtering, and so on, from a bit stream. In this document, information related to partitioning may include information (numeric information) about a number of slices each having its height explicitly signaled, among the slices in a tile of a current figure, information (height information) about the height of slices each having its height explicitly signaled, and so on.

[0177] Por exemplo, o decodificador de entropia 310 pode analisar informações (informações numéricas) relacionadas a um número de fatias tendo, cada uma, sua altura explicitamente sinalizada, dentre as fatias em um tile de uma figura atual, a partir de um fluxo de bits (S1200), e pode analisar informações (informações de altura) relacionadas à altura das fatias tendo, cada uma, sua altura explicitamente sinalizada a partir do fluxo de bits com base nas informações numéricas (S1210). De modo mais específico, o decodificador de entropia 310 pode analisar as informações numéricas e as informações de altura a partir de um conjunto de parâmetros de figura (PPS) do fluxo de bits com base na Tabela 4 descrita anteriormente. No presente documento, as informações numéricas podem ser analisadas com base nas informações sobre uma largura e altura de uma fatia incluindo o tile. Nesse ponto, a fatia incluindo o tile e/ou fatias no tile podem ser fatias retangulares. As informações numéricas e as informações de altura podem ser elementos de sintaxe codificadas por Golomb Exponencial. As informações de altura podem incluir elementos de sintaxe para cada fatia tendo sua altura explicitamente sinalizada. O número de elementos de sintaxe pode ser igual ao valor de informações numéricas.[0177] For example, the entropy decoder 310 may analyze information (numeric information) related to a number of slices each having its explicitly signaled height, among the slices in a tile of a current figure, from a stream of bits (S1200), and can analyze information (height information) related to the height of the slices, each having its height explicitly signaled from the bit stream based on numerical information (S1210). More specifically, the entropy decoder 310 can analyze numerical information and height information from a set of picture parameters (PPS) of the bit stream based on Table 4 described previously. In this document, numerical information can be analyzed based on information about a width and height of a slice including the tile. At this point, the slice including the tile and/or slices in the tile may be rectangular slices. Numeric information and height information can be Exponential Golomb encoded syntax elements. Height information may include syntax elements for each slice having its height explicitly signaled. The number of syntax elements can be equal to the value of numeric information.

[0178] Por exemplo, o decodificador de entropia 310 pode analisar elementos de sintaxe slice_width_in_tiles_minus1 e slice_height_in_tiles_minus1 a partir do conjunto de parâmetros de figura (PPS) com base na Tabela 4, e o decodificador de entropia 310 pode analisar um elemento de sintaxe num_exp_slices_in_tile a partir do conjunto de parâmetros de figura (PPS) com base nos valores dos elementos de sintaxe slice_width_in_tiles_minus1 e slice_height_in_tiles_minus1. E, o decodificador de entropia 310 pode analisar um número de exp_slice_height_in_ctu_minus1 que seja equivalente ao valor do elemento de sintaxe num_exp_slices_in_tile a partir do conjunto de parâmetros de figura (PPS).[0178] For example, the entropy decoder 310 may parse slice_width_in_tiles_minus1 and slice_height_in_tiles_minus1 syntax elements from the figure parameter set (PPS) based on Table 4, and the entropy decoder 310 may parse a num_exp_slices_in_tile syntax element to from the figure parameter set (PPS) based on the values of the slice_width_in_tiles_minus1 and slice_height_in_tiles_minus1 syntax elements. And, the entropy decoder 310 may parse a number of exp_slice_height_in_ctu_minus1 that is equivalent to the value of the num_exp_slices_in_tile syntax element from the figure parameter set (PPS).

[0179] Quando o valor das informações numéricas for igual a n, o decodificador de entropia 310 pode derivar alturas de uma 0-ésima fatia a uma (n-1)- ésima fatia no tile com base nas informações de altura. E, o decodificador de entropia 310 pode derivar uma altura de uma n-ésima fatia no tile com base na altura da (n-1)-ésima fatia. Ou seja, a altura da n-ésima fatia pode ser derivada como sendo igual à altura da (n-1)-ésima fatia. No presente documento, a n-ésima fatia pode não ser a última fatia no tile. Em outras palavras, o decodificador de entropia 310 pode derivar as alturas das fatias restantes (fatias que não são explicitamente sinalizadas) excluindo a última fatia no tile para ter a mesma altura que a (n-1)-ésima fatia. Portanto, as alturas das fatias começando a partir da n-ésima fatia à última fatia no tile podem ser uniformes com a exceção pela última fatia no tile. O decodificador de entropia 310 pode derivar a altura da última fatia no tile com base em uma altura restante após subtrair as alturas de outras fatias no tile a partir da altura do tile. Quando as alturas de todas as fatias no tile forem derivadas, o decodificador de entropia 310 pode derivar um número de fatias no tile (S1220). No presente documento, o número de fatias no tile pode corresponder a um número de fatias começando a partir da 0-ésima fatia à última fatia no tile.[0179] When the value of the numerical information is equal to n, the entropy decoder 310 can derive heights from a 0-th slice to an (n-1)-th slice in the tile based on the height information. And, the entropy decoder 310 can derive a height of an nth slice in the tile based on the height of the (n-1)th slice. That is, the height of the nth slice can be derived as being equal to the height of the (n-1)th slice. In this document, the nth slice may not be the last slice in the tile. In other words, the entropy decoder 310 can derive the heights of the remaining slices (slices that are not explicitly flagged) by deleting the last slice in the tile to have the same height as the (n-1)-th slice. Therefore, the heights of the slices starting from the nth slice to the last slice in the tile can be uniform with the exception of the last slice in the tile. The entropy decoder 310 may derive the height of the last slice in the tile based on a height remaining after subtracting the heights of other slices in the tile from the height of the tile. When the heights of all slices in the tile have been derived, the entropy decoder 310 can derive a number of slices in the tile (S1220). In this document, the number of slices in the tile may correspond to a number of slices starting from the 0th slice to the last slice in the tile.

[0180] O aparelho de decodificação 300 pode decodificar a figura atual com base nas fatias da figura atual sendo derivada realizando-se o processo descrito anteriormente. De modo mais específico, o processador residual 320 do aparelho de decodificação pode gerar amostras residuais com base nas informações residuais que são obtidas a partir do decodificador de entropia 310. O preditor 330 do aparelho de decodificação pode realizar interpredição e/ou intrapredição em um bloco atual que é incluído nas fatias na figura com base nas informações relacionadas à predição que são obtidas a partir do decodificador de entropia 310 a fim de gerar amostras de predição (S1230). O adicionador 340 do aparelho de decodificação pode gerar amostras reconstruídas com base nas amostras de predição que são geradas no preditor 330 e as amostras residuais que são geradas no processador residual 320 (S1240). E, o adicionador 340 do aparelho de decodificação pode gerar uma figura reconstruída (bloco reconstruído) com base nas amostras reconstruídas (S1250).[0180] The decoding apparatus 300 may decode the current figure based on the slices of the current figure being derived by carrying out the process described previously. More specifically, the residual processor 320 of the decoding apparatus may generate residual samples based on the residual information that is obtained from the entropy decoder 310. The predictor 330 of the decoding apparatus may perform interprediction and/or intraprediction on a block current that is included in the slices in the figure based on prediction-related information that is obtained from the entropy decoder 310 in order to generate prediction samples (S1230). The adder 340 of the decoding apparatus may generate reconstructed samples based on the prediction samples that are generated in the predictor 330 and the residual samples that are generated in the residual processor 320 (S1240). And, the adder 340 of the decoding apparatus may generate a reconstructed figure (reconstructed block) based on the reconstructed samples (S1250).

[0181] Posteriormente, um procedimento de filtragem em laço, tais como procedimentos de filtragem de deblocagem, SAO e/ou ALF, pode ser aplicado à figura reconstruída conforme necessário, a fim de aprimorar a qualidade de figura subjetiva/objetiva.[0181] Subsequently, a loop filtering procedure, such as deblocking, SAO and/or ALF filtering procedures, can be applied to the reconstructed figure as necessary in order to improve the subjective/objective figure quality.

[0182] Entretanto, como outro exemplo, o decodificador de entropia 310 pode analisar elementos de sintaxe slice_width_in_tiles_minus1 e slice_height_in_tiles_minus1 a partir de um conjunto de parâmetros de figura (PPS) de um fluxo de bits com base na Tabela 8, e o decodificador de entropia 310 pode analisar um elemento de sintaxe uniform_slice_spacing_flag a partir do conjunto de parâmetros de figura (PPS) com base nos valores dos elementos de sintaxe slice_width_in_tiles_minus1 e slice_height_in_tiles_minus1. Nesse caso, o decodificador de entropia 310 pode analisar um elemento de sintaxe slice_rows_height_in_ctu_minus1 ou analisar um elemento de sintaxe num_slices_in_tile_minus1 a partir do conjunto de parâmetros de figura (PPS) com base no valor do elemento de sintaxe uniform_slice_spacing_flag. O elemento de sintaxe slice_rows_height_in_ctu_minus1 pode ser analisado, quando o valor do elemento de sintaxe uniform_slice_spacing_flag for igual a 1, e o elemento de sintaxe num_slices_in_tile_minus1 pode ser analisado, quando o valor do elemento de sintaxe uniform_slice_spacing_flag for igual a 0.[0182] However, as another example, the entropy decoder 310 may parse slice_width_in_tiles_minus1 and slice_height_in_tiles_minus1 syntax elements from a set of figure parameters (PPS) of a bitstream based on Table 8, and the entropy decoder 310 can parse a uniform_slice_spacing_flag syntax element from the figure parameter set (PPS) based on the values of the slice_width_in_tiles_minus1 and slice_height_in_tiles_minus1 syntax elements. In this case, the entropy decoder 310 may parse a slice_rows_height_in_ctu_minus1 syntax element or parse a num_slices_in_tile_minus1 syntax element from the figure parameter set (PPS) based on the value of the uniform_slice_spacing_flag syntax element. The slice_rows_height_in_ctu_minus1 syntax element can be parsed, when the value of the uniform_slice_spacing_flag syntax element is equal to 1, and the num_slices_in_tile_minus1 syntax element can be parsed, when the value of the uniform_slice_spacing_flag syntax element is equal to 0.

[0183] Quando o elemento de sintaxe slice_rows_height_in_ctu_minus1 for analisado, o decodificador de entropia 310 pode derivar as alturas das fatias restantes excluindo a última fatia no tile como o valor de slice_rows_height_in_ctu_minus1.[0183] When the slice_rows_height_in_ctu_minus1 syntax element is parsed, the entropy decoder 310 may derive the heights of the remaining slices by excluding the last slice in the tile as the value of slice_rows_height_in_ctu_minus1.

[0184] Quando o elemento de sintaxe num_slices_in_tile_minus1 for analisado, o decodificador de entropia 310 pode analisar um número do elemento de sintaxe slice_height_in_ctu_minus1 correspondente ao valor do elemento de sintaxe num_slices_in_tile_minus1, e os valores podem ser, cada um, derivados como as alturas de cada fatia no tile, respectivamente.[0184] When the num_slices_in_tile_minus1 syntax element is parsed, the entropy decoder 310 may parse a number of the slice_height_in_ctu_minus1 syntax element corresponding to the value of the num_slices_in_tile_minus1 syntax element, and the values may each be derived as the heights of each slice on the tile, respectively.

[0185] Embora os métodos tenham sido descritos com base em um fluxograma no qual etapas ou blocos são listados em sequência nas modalidades descritas anteriormente, as etapas do presente documento não são limitadas a uma determinada ordem ou simultaneamente a uma etapa diferente daquela descrita anteriormente. Ademais, os indivíduos versados na técnica compreenderão que as etapas dos fluxogramas não são exclusivas, e outras etapas podem ser incluídas ou uma ou mais etapas nos fluxogramas podem ser excluídas sem afetar o escopo do presente documento.[0185] Although the methods have been described based on a flowchart in which steps or blocks are listed in sequence in the previously described embodiments, the steps of the present document are not limited to a certain order or simultaneously to a step different from that previously described. Furthermore, those skilled in the art will understand that the steps in the flowcharts are not exclusive, and other steps may be included or one or more steps in the flowcharts may be excluded without affecting the scope of this document.

[0186] O método supramencionado de acordo com o presente documento pode estar sob a forma de software, e o aparelho de codificação e/ou o aparelho de decodificação de acordo com o presente documento podem ser incluídos no aparelho para realizar um processamento de imagem, por exemplo, de uma TV, um computador, um smartphone, um decodificador de sinais, um dispositivo de exibição, ou similares.[0186] The aforementioned method according to the present document may be in the form of software, and the encoding apparatus and/or the decoding apparatus according to the present document may be included in the apparatus for carrying out image processing, for example, from a TV, a computer, a smartphone, a set-top box, a display device, or the like.

[0187] Quando as modalidades no presente documento forem implementadas em software, o método supramencionado pode ser implementado como um módulo (processo, função, e similares) para realizar a função supramencionada. O módulo pode ser armazenado em uma memória, e executado por um processador. A memória pode estar situada dentro ou fora do processador, e pode ser acoplada ao processador por vários meios bem conhecidos. O processador pode incluir circuitos integrados para aplicação específica (ASICs), ouros chipsets, circuitos lógicos e/ou dispositivos de processamento de dados. A memória pode incluir uma memória somente para leitura (ROM), uma memória de acesso aleatório (RAM), uma memória flash, um cartão de memória, uma mídia de armazenamento e/ou outros dispositivos de armazenamento. Ou seja, as modalidades descritas no presente documento podem ser realizados sendo implementados em um processador, um microprocessador, um controlador ou um chip. Por exemplo, as unidades funcionais ilustradas em cada desenho podem ser realizadas sendo implementadas no computador, no processador, no microprocessador, no controlador, ou no chip. Nesse caso, informações para implementação (por exemplo, informações em instruções) ou algoritmo podem ser armazenados em uma mídia de armazenamento digital.[0187] When the embodiments in the present document are implemented in software, the aforementioned method can be implemented as a module (process, function, and the like) to perform the aforementioned function. The module can be stored in a memory, and executed by a processor. Memory may be located inside or outside the processor, and may be coupled to the processor by several well-known means. The processor may include application-specific integrated circuits (ASICs), other chipsets, logic circuits and/or data processing devices. Memory may include read-only memory (ROM), random access memory (RAM), flash memory, memory card, storage media, and/or other storage devices. That is, the modalities described in this document can be realized by being implemented in a processor, a microprocessor, a controller or a chip. For example, the functional units illustrated in each drawing may be realized by being implemented in the computer, processor, microprocessor, controller, or chip. In this case, information for implementation (e.g. information in instructions) or algorithm may be stored on a digital storage medium.

[0188] Ademais, o aparelho de decodificação e o aparelho de codificação aos quais as modalidades do presente documento são aplicadas podem ser incluídos em um transceptor de radiodifusão multimídia, um terminal de comunicação móvel, um dispositivo de vídeo de cinema em casa, um dispositivo de vídeo de cinema digital, uma câmera de vigilância, um dispositivo de comunicação de vídeo, um dispositivo de comunicação em tempo real tal como comunicação de vídeo, um dispositivo de difusão de dados móvel, uma mídia de armazenamento, uma filmadora, um provedor de serviço de vídeo sob demanda (VoD), um dispositivo de vídeo Over-the-top (OTT), um provedor de serviço de difusão de dados via Internet, um dispositivo de vídeo tridimensional (3D), um dispositivo de realidade virtual (VR), um dispositivo de realidade aumentada (AR), um dispositivo de vídeo por telefonia, um terminal de transporte (por exemplo, um terminal de veículo (incluindo veículo autônomo), terminal de aviões, terminal de navios, ou similares), e um dispositivo de vídeo médico, e similares, e podem ser usados para processar sinais de vídeo ou sinais de dados. Por exemplo, o dispositivo de vídeo OTT pode incluir um console de jogos, um reprodutor Blu-ray, uma TV conectada à Internet, um sistema de home-theater, um smartphone, um PC tipo tablet, uma Gravadora de Vídeo Digital (DVR) e similares.[0188] Furthermore, the decoding apparatus and the encoding apparatus to which the embodiments of the present document are applied may be included in a multimedia broadcast transceiver, a mobile communication terminal, a home cinema video device, a digital cinema video camera, a surveillance camera, a video communication device, a real-time communication device such as video communication, a mobile data broadcast device, a storage medium, a camcorder, a video-on-demand (VoD) service, an Over-the-top (OTT) video device, an Internet data broadcast service provider, a three-dimensional (3D) video device, a virtual reality (VR) device , an augmented reality (AR) device, a video telephony device, a transportation terminal (e.g., a vehicle terminal (including autonomous vehicle), aircraft terminal, ship terminal, or the like), and a device medical video, and the like, and can be used to process video signals or data signals. For example, the OTT video device may include a game console, a Blu-ray player, an Internet-connected TV, a home theater system, a smartphone, a tablet PC, a Digital Video Recorder (DVR) and similar.

[0189] Ademais, o método de processamento ao qual as modalidades do presente documento são aplicadas pode ser produzido sob a forma de um programa executado por um computador, e pode ser armazenado em uma mídia de gravação legível por computador. Os dados de multimídia tendo uma estrutura de dados de acordo com o presente documento também podem ser armazenados na mídia de gravação legível por computador. A mídia de gravação legível por computador inclui todos os tipos de dispositivos de armazenamento e dispositivos de armazenamento distribuído onde dados legíveis por computador são armazenados. A mídia de gravação legível por computador pode incluir, por exemplo, um Disco Blu-ray (BD), um Barramento Serial Universal (USB), uma ROM, uma PROM, uma EPROM, uma EEPROM, uma RAM, um CD-ROM, uma fita magnética, um disquete flexível, e um dispositivo de armazenamento de dados ópticos. Ademais, a mídia de gravação legível por computador inclui uma mídia implementada sob a forma de uma onda portadora (por exemplo, transmissão através da Internet). Ademais, o fluxo de bits gerado pelo método de codificação pode ser armazenado na mídia de gravação legível por computador ou transmitido através de redes de comunicação com/sem fio.[0189] Furthermore, the processing method to which the embodiments of the present document are applied can be produced in the form of a program executed by a computer, and can be stored on a computer-readable recording medium. Multimedia data having a data structure in accordance with this document may also be stored on computer-readable recording media. Computer-readable recording media includes all types of storage devices and distributed storage devices where computer-readable data is stored. Computer-readable recording media may include, for example, a Blu-ray Disc (BD), a Universal Serial Bus (USB), a ROM, a PROM, an EPROM, an EEPROM, a RAM, a CD-ROM, a magnetic tape, a flexible floppy disk, and an optical data storage device. Furthermore, computer-readable recording media includes media implemented in the form of a carrier wave (e.g., transmission over the Internet). Furthermore, the bit stream generated by the encoding method can be stored on computer-readable recording media or transmitted over wired/wireless communication networks.

[0190] Ademais, as modalidades do presente documento podem ser incorporadas como um produto de programa de computador por um código de programa, e o código de programa pode ser executado no computador de acordo com as modalidades do presente documento. O código de programa pode ser armazenado em uma portadora legível por computador.[0190] Furthermore, embodiments of the present document may be embodied as a computer program product by a program code, and the program code may be executed on the computer in accordance with the embodiments of the present document. Program code can be stored on a computer-readable carrier.

[0191] A Figura 14 representa um exemplo de um sistema de streaming de conteúdos ao qual a modalidade do presente documento pode ser aplicada.[0191] Figure 14 represents an example of a content streaming system to which the embodiment of this document can be applied.

[0192] Referindo-se à Figura 14, o sistema de streaming de conteúdos ao qual as modalidades do presente documento são aplicadas pode incluir geralmente um servidor de codificação, um servidor de streaming, um servidor da web, um armazenamento de mídia, um dispositivo de usuário e um dispositivo de entrada de multimídia.[0192] Referring to Figure 14, the content streaming system to which embodiments of the present document are applied may generally include an encoding server, a streaming server, a web server, a media storage, a device user interface and a multimedia input device.

[0193] O servidor de codificação funciona para compactar a dados digitais os conteúdos inseridos a partir dos dispositivos de entrada de multimídia, tais como smartphone, a câmera, a filmadora e similares, gerar um fluxo de bits, e o transmitir ao servidor de streaming. Como outro exemplo, em um caso onde o dispositivo de entrada multimídia, tais como o smartphone, a câmera, a filmadora ou similares gera diretamente um fluxo de bits, o servidor de codificação pode ser omitido.[0193] The encoding server functions to compress content entered from multimedia input devices, such as a smartphone, camera, camcorder and the like, to digital data, generate a bit stream, and transmit it to the streaming server . As another example, in a case where the multimedia input device such as smartphone, camera, camcorder or the like directly generates a bit stream, the encoding server can be omitted.

[0194] O fluxo de bits pode ser gerado por um método de codificação ou um método de geração de fluxo de bits ao qual as modalidades do presente documento são aplicadas. E o servidor de streaming pode armazenar temporariamente o fluxo de bits em um processo para transmitir ou receber o fluxo de bits.[0194] The bitstream may be generated by a coding method or a bitstream generation method to which embodiments of the present document are applied. And the streaming server can temporarily store the bitstream in a process to transmit or receive the bitstream.

[0195] O servidor de streaming transmite dados de multimídia ao equipamento de usuário com base em uma solicitação de usuário através do servidor da web, que funciona como um instrumento que informa um usuário de qual serviço existe. Quando o usuário solicitar um serviço que ele desejar, o servidor da web o transfere a solicitação ao servidor de streaming, e o servidor de streaming transmite dados de multimídia ao usuário. Nesse sentido, o sistema de streaming de conteúdos pode incluir um servidor de controle separado, e, nesse caso, o servidor de controle funciona para controlar comandos/respostas entre respectivos equipamentos no sistema de streaming de conteúdos.[0195] The streaming server transmits multimedia data to the user equipment based on a user request via the web server, which functions as an instrument that informs a user of which service exists. When the user requests a service he wants, the web server transfers the request to the streaming server, and the streaming server transmits multimedia data to the user. In this sense, the content streaming system may include a separate control server, in which case the control server functions to control commands/responses between respective equipment in the content streaming system.

[0196] O servidor de streaming pode receber conteúdos a partir do armazenamento de mídia e/ou do servidor de codificação. Por exemplo, em um caso onde os conteúdos são recebidos a partir do servidor de codificação, os conteúdos podem ser recebidos em tempo real. Nesse caso, o servidor de streaming pode armazenar o fluxo de bits por um período de tempo predeterminado para proporcionar o serviço de streaming suavemente.[0196] The streaming server may receive content from the media storage and/or the encoding server. For example, in a case where contents are received from the encoding server, the contents can be received in real time. In this case, the streaming server can store the bit stream for a predetermined period of time to provide the streaming service smoothly.

[0197] Por exemplo, o equipamento de usuário pode incluir um telefone móvel, um smartphone, um computador laptop, um terminal de radiodifusão digital, um assistente pessoal digital (PDA), um reprodutor de multimídia portátil (PMP), um dispositivo de navegação, um PC slate, um PC tablet, um ultrabook, um dispositivo vestível (por exemplo, um terminal tipo relógio (relógio inteligente), um terminal tipo óculos (óculos inteligentes), uma tela montada na cabeça (HMD)), uma TV digital, um computador desktop, uma sinalética digital ou similares.[0197] For example, user equipment may include a mobile telephone, a smartphone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device , a slate PC, a tablet PC, an ultrabook, a wearable device (e.g., a watch-type terminal (smart watch), a glasses-type terminal (smart glasses), a head-mounted display (HMD)), a digital TV , a desktop computer, digital signage or similar.

[0198] Cada um dos servidores no sistema de streaming de conteúdos pode ser operado como um servidor distribuído, e, nesse caso, dados recebidos por cada servidor podem ser processados de maneira distribuída.[0198] Each of the servers in the content streaming system can be operated as a distributed server, and in this case, data received by each server can be processed in a distributed manner.

Claims (13)

1. Aparelho de decodificação de vídeo CARACTERIZADO pelo fato de que compreende: uma memória; e pelo menos um processador conectado à memória, o pelo menos um processador configurado para: analisar informações numéricas relacionadas a um número de fatias explícitas, cada uma tendo sua altura explicitamente sinalizada dentro de um tile de uma figura atual a partir de um fluxo de bits; analisar informações de altura relacionadas a alturas de fatias explícitas, cada uma tendo sua altura explicitamente sinalizada a partir do fluxo de bits com base nas informações numéricas; derivar um número de fatias dentro do tile com base nas informações numéricas e nas informações de altura; gerar amostras de predição realizando-se predição em um bloco atual da figura atual com base em uma das fatias dentro do tile; gerar amostras reconstruídas com base nas amostras de predição; e gerar uma figura reconstruída para a figura atual com base nas amostras reconstruídas, em que um número de elementos de sintaxe nas informações de altura é igual ao número de fatias explícitas especificadas pelas informações numéricas, em que, com base no número de fatias explícitas sendo igual a n, alturas de uma 0-ésima fatia a uma (n-1)-ésima fatia dentro do tile são derivadas com base nos elementos de sintaxe nas informações de altura, em que uma altura de uma n-ésima fatia dentro do tile é derivada com base na altura da (n-1)-ésima fatia, e em que uma altura de uma última fatia dentro do tile é derivada com base em uma altura restante após subtrair as alturas de outras fatias dentro do tile a partir de uma altura do tile.1. Video decoding device CHARACTERIZED by the fact that it comprises: a memory; and at least one processor connected to the memory, the at least one processor configured to: analyze numeric information relating to a number of explicit slices, each having its height explicitly signaled within a tile of a current figure from a bit stream ; analyze height information related to explicit slice heights, each having its height explicitly signaled from the bitstream based on the numerical information; derive a number of slices within the tile based on numerical information and height information; generate prediction samples by performing prediction on a current block of the current figure based on one of the slices within the tile; generate reconstructed samples based on the prediction samples; and generating a reconstructed figure for the current figure based on the reconstructed samples, wherein a number of syntax elements in the height information is equal to the number of explicit slices specified by the numeric information, wherein based on the number of explicit slices being equal to n, heights of a 0th slice to an (n-1)th slice within the tile are derived based on the syntax elements in the height information, where a height of an nth slice within the tile is derived based on the height of the (n-1)-th slice, and where a height of a last slice within the tile is derived based on a height remaining after subtracting the heights of other slices within the tile from a height of the tile. 2. Aparelho de decodificação de vídeo, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o número de fatias dentro do tile é igual a um número de fatias começando a partir da 0-ésima fatia à última fatia.2. Video decoding apparatus according to claim 1, CHARACTERIZED by the fact that the number of slices within the tile is equal to a number of slices starting from the 0th slice to the last slice. 3. Aparelho de decodificação de vídeo, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a altura da n-ésima fatia é derivada como sendo igual à altura da (n-1)-ésima fatia.3. Video decoding apparatus according to claim 1, CHARACTERIZED by the fact that the height of the n-th slice is derived as being equal to the height of the (n-1)-th slice. 4. Aparelho de decodificação de vídeo, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que as alturas das fatias começando a partir da n- ésima fatia a uma fatia imediatamente anterior à última fatia dentro do tile são uniformes.4. Video decoding apparatus according to claim 1, CHARACTERIZED by the fact that the heights of the slices starting from the nth slice to a slice immediately preceding the last slice within the tile are uniform. 5. Aparelho de decodificação de vídeo, de acordo com a reivindicação 4, CARACTERIZADO pelo fato de que a altura da última fatia é menor ou igual à altura da (n-1)-ésima fatia.5. Video decoding apparatus according to claim 4, CHARACTERIZED by the fact that the height of the last slice is less than or equal to the height of the (n-1)-th slice. 6. Aparelho de decodificação de vídeo, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o pelo menos um processador é configurado para: comparar uma altura restante do tile que é calculada subtraindo-se uma soma das alturas das fatias começando a partir da 0-ésima fatia à (n-1)-ésima fatia a partir de uma altura total do tile, a fim de determinar se a altura restante é igual ou maior que uma altura de uma fatia uniforme, em que a altura de uma fatia uniforme é igual à altura da (n-1)-ésima fatia, em que, com base na altura restante do tile que é calculada subtraindo-se uma soma das alturas das fatias começando a partir da 0-ésima fatia à (n-1)-ésima fatia a partir de uma altura total do tile sendo igual ou maior que a altura da fatia uniforme, a n-ésima fatia tendo a altura de uma fatia uniforme é derivada, e em que, com base na altura restante do tile que é calculada subtraindo-se uma soma das alturas das fatias começando a partir da 0-ésima fatia à (n-1)-ésima fatia a partir de uma altura total do tile sendo menor que a altura da fatia uniforme, a n-ésima fatia tendo a altura restante é derivada.6. Video decoding apparatus according to claim 1, CHARACTERIZED by the fact that the at least one processor is configured to: compare a remaining tile height that is calculated by subtracting a sum of the heights of the slices starting from from the 0th slice to the (n-1)th slice from a total tile height in order to determine whether the remaining height is equal to or greater than a uniform slice height, where the height of a slice uniform is equal to the height of the (n-1)-th slice, where, based on the remaining height of the tile which is calculated by subtracting a sum of the heights of the slices starting from the 0-th slice to the (n-1 )-th slice from a total tile height being equal to or greater than the uniform slice height, the nth slice having the height of a uniform slice is derived, and wherein, based on the remaining tile height that is calculated by subtracting a sum of the slice heights starting from the 0-th slice to the (n-1)-th slice from a total tile height being less than the height of the uniform slice, the n-th slice having the remaining height is derived. 7. Aparelho de decodificação de vídeo, de acordo com a reivindicação 6, CARACTERIZADO pelo fato de que, com base na altura restante sendo igual ou maior que a altura da fatia uniforme, uma altura restante atualizada é derivada, em que a altura restante atualizada é atualizada subtraindo-se a altura da n-ésima fatia a partir da altura restante do tile que é calculada subtraindo-se a soma das alturas das fatias começando a partir da 0-ésima fatia à (n-1)-ésima fatia a partir da altura total do tile, em que, com base na altura restante atualizada sendo igual ou maior que a altura da fatia uniforme, uma (n+1)-ésima fatia tendo a altura da fatia uniforme é derivada, e em que, com base na altura restante atualizada sendo menor que a altura da fatia uniforme, uma (n+1)-ésima fatia tendo a altura restante atualizada é derivada.7. Video decoding apparatus according to claim 6, CHARACTERIZED by the fact that, based on the remaining height being equal to or greater than the height of the uniform slice, an updated remaining height is derived, wherein the updated remaining height is updated by subtracting the height of the n-th slice from the remaining height of the tile which is calculated by subtracting the sum of the heights of the slices starting from the 0-th slice to the (n-1)-th slice from of the total height of the tile, wherein, based on the updated remaining height being equal to or greater than the height of the uniform slice, an (n+1)-th slice having the height of the uniform slice is derived, and wherein, based on the updated remaining height being less than the height of the uniform slice, an (n+1)-th slice having the updated remaining height is derived. 8. Aparelho de decodificação de vídeo, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que as informações numéricas e as informações de altura incluem um elemento de sintaxe codificado por Exp-Golomb.8. Video decoding apparatus according to claim 1, CHARACTERIZED by the fact that the numerical information and the height information include an Exp-Golomb encoded syntax element. 9. Aparelho de decodificação de vídeo, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que as informações numéricas incluem um elemento de sintaxe num_exp_slices_in_tile, e em que as informações de altura incluem um elemento de sintaxe exp_slice_height_in_ctu_minus1.9. Video decoding apparatus according to claim 1, CHARACTERIZED by the fact that the numerical information includes a num_exp_slices_in_tile syntax element, and wherein the height information includes an exp_slice_height_in_ctu_minus1 syntax element. 10. Aparelho de decodificação de vídeo, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que as fatias dentro do tile são fatias retangulares.10. Video decoding apparatus according to claim 1, CHARACTERIZED by the fact that the slices within the tile are rectangular slices. 11. Aparelho de decodificação de vídeo, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que as informações numéricas são analisadas com base nas informações relacionadas a uma largura e altura de uma fatia incluindo o tile.11. Video decoding apparatus according to claim 1, CHARACTERIZED by the fact that numerical information is analyzed based on information related to a width and height of a slice including the tile. 12. Aparelho de codificação de vídeo CARACTERIZADO pelo fato de que compreende: uma memória; e pelo menos um processador conectado à memória, o pelo menos um processador configurado para: derivar fatias dentro de um tile de uma figura atual; gerar amostras de predição realizando-se predição em um bloco atual com base em uma das fatias derivadas; gerar informações residuais com base nas amostras de predição e uma figura original; gerar informações numéricas relacionadas a um número de fatias explícitas, cada uma tendo sua altura explicitamente sinalizada dentro do tile e informações de altura relacionadas a alturas das fatias explícitas, cada uma tendo sua altura explicitamente sinalizada com base nas fatias derivadas; e codificar informações de imagem para gerar um fluxo de bits, em que as informações de imagem incluem as informações residuais, as informações numéricas e as informações de altura, em que um número de elementos de sintaxe nas informações de altura é igual ao número de fatias explícitas especificadas pelas informações numéricas, em que, com base no número de fatias explícitas sendo igual a n, os elementos de sintaxe nas informações de altura indicam alturas de uma 0-ésima fatia a uma (n-1)-ésima fatia dentro do tile, em que uma altura de uma n-ésima fatia dentro do tile é representada com base na altura da (n-1)-ésima fatia, e em que uma altura de uma última fatia dentro do tile é representada com base em uma altura restante após subtrair as alturas de outras fatias dentro do tile a partir de uma altura do tile.12. Video coding device CHARACTERIZED by the fact that it comprises: a memory; and at least one processor connected to the memory, the at least one processor configured to: derive slices within a tile of a current figure; generate prediction samples by performing prediction on a current block based on one of the derived slices; generate residual information based on the prediction samples and an original figure; generating numerical information related to a number of explicit slices, each having its height explicitly signaled within the tile, and height information related to heights of the explicit slices, each having its height explicitly signaled based on the derived slices; and encoding image information to generate a bit stream, wherein the image information includes the residual information, the numeric information and the height information, wherein a number of syntax elements in the height information is equal to the number of slices explicit values specified by numeric information, where, based on the number of explicit slices being equal to n, the syntax elements in the height information indicate heights from a 0-th slice to an (n-1)-th slice within the tile, wherein a height of an nth slice within the tile is represented based on the height of the (n-1)th slice, and wherein a height of a last slice within the tile is represented based on a height remaining after subtract the heights of other slices within the tile from a tile height. 13. Aparelho para transmissão de dados para um vídeo, o aparelho CARACTERIZADO pelo fato de que compreende: pelo menos um processador configurado para obter um fluxo de bits para o vídeo, em que o fluxo de bits é gerado com base na derivação de fatias dentro de um tile de uma figura atual, gerando amostras de predição realizando a predição em um bloco atual com base em uma das fatias derivadas, gerando informações residuais com base nas amostras de predição, gerando informações numéricas relacionadas a um número de fatias explícitas, cada uma tendo sua altura explicitamente sinalizada dentro do tile e informações de altura relacionadas às alturas das fatias explícitas, cada uma tendo sua altura explicitamente sinalizada, e codificação de informações de imagem incluindo a informação residual, a informação numérica e a informação de altura; e um transmissor configurado para transmitir os dados compreendendo o fluxo de bits, em que um número de elementos de sintaxe nas informações de altura é igual ao número das fatias explícitas especificadas pelas informações numéricas, em que, com base no número das fatias explícitas sendo igual a n, os elementos de sintaxe nas informações de altura indicam alturas de uma 0-ésima fatia até uma (n-1)-ésima fatia dentro do tile, em que uma altura de uma n-ésima fatia dentro do tile é representada com base na altura da (n-1)-ésima fatia, e em que uma altura de uma última fatia dentro do tile é representada com base em uma altura restante após subtrair as alturas de outras fatias dentro do tile a partir de uma altura do tile.13. Apparatus for transmitting data to a video, the apparatus CHARACTERIZED by the fact that it comprises: at least one processor configured to obtain a bit stream for the video, wherein the bit stream is generated based on the derivation of slices within of a tile of a current figure, generating prediction samples by performing the prediction on a current tile based on one of the derived slices, generating residual information based on the prediction samples, generating numerical information related to a number of explicit slices, each having its height explicitly signaled within the tile and height information relating to the heights of the explicit slices, each having its height explicitly signaled, and encoding image information including the residual information, the numerical information and the height information; and a transmitter configured to transmit the data comprising the bit stream, wherein a number of syntax elements in the height information is equal to the number of the explicit slices specified by the numerical information, wherein, based on the number of the explicit slices being equal to n, the syntax elements in the height information indicate heights from a 0th slice to an (n-1)th slice within the tile, where a height of an nth slice within the tile is represented based on height of the (n-1)-th slice, and where a height of a last slice within the tile is represented based on a height remaining after subtracting the heights of other slices within the tile from a height of the tile.
BR122023024708-6A 2019-11-28 2020-11-26 VIDEO DECODING APPARATUS, VIDEO CODING APPARATUS AND APPARATUS FOR TRANSMITTING DATA TO A VIDEO BR122023024708A2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US62/941,845 2019-11-28

Publications (1)

Publication Number Publication Date
BR122023024708A2 true BR122023024708A2 (en) 2024-05-21

Family

ID=

Similar Documents

Publication Publication Date Title
BR122021011274B1 (en) IMAGE DECODING METHOD AND DEVICE, IMAGE ENCODING METHOD AND DEVICE AND COMPUTER-READABLE NON-TRANSITORY STORAGE MEDIA
BR122021010905A2 (en) IMAGE DECODING METHOD PERFORMED BY A DECODING APPARATUS, IMAGE ENCODING METHOD PERFORMED BY AN ENCODING APPARATUS, COMPUTER-READABLE NON TRANSIENT STORAGE MEDIA, DECODING APPARATUS FOR IMAGE DECODING AND IMAGE ENCODING APPLIANCE FOR ENCODING
BR122022002075B1 (en) METHOD OF IMAGE DECODING/ENCODING CARRIED OUT BY A DECODING/ENCODING APPARATUS, DECODING/ENCODING APPARATUS FOR IMAGE DECODING/ENCODING, DATA TRANSMISSION METHOD FOR IMAGE AND NON-TRAINER COMPUTER READABLE STORAGE MEDIA
BR112021012505B1 (en) METHOD OF IMAGE DECODING/ENCODING PERFORMED BY A DECODING/ENCODING APPARATUS AND COMPUTER READABLE NON-TRAINER STORAGE MEDIA
US20220417561A1 (en) Image/video coding method and apparatus on basis of picture division structure
CA3163400A1 (en) Image/video coding method and apparatus
BR122023024708A2 (en) VIDEO DECODING APPARATUS, VIDEO CODING APPARATUS AND APPARATUS FOR TRANSMITTING DATA TO A VIDEO
JP7560617B2 (en) Method and apparatus for signaling slice-related information in an image/video encoding/decoding system - Patents.com
BR122023023080A2 (en) IMAGE/VIDEO CODING METHOD AND DEVICE
US20230156228A1 (en) Image/video encoding/decoding method and device
BR122024000637A2 (en) METHOD AND DEVICE FOR IMAGE/VIDEO CODING BASED ON WEIGHTED PREDICTION TABLE
BR122024000621A2 (en) METHOD AND DEVICE FOR IMAGE/VIDEO CODING BASED ON WEIGHTED PREDICTION TABLE
BR122023022919A2 (en) DECODING APPARATUS FOR VIDEO DECODING, ENCODING APPARATUS FOR VIDEO CODING AND APPARATUS FOR DATA TRANSMISSION FOR A VIDEO
BR122023027691A2 (en) IMAGE DECODING METHOD FOR ENCODING DPB PARAMETERS, AND DEVICE THEREOF
BR122022005509B1 (en) METHOD OF IMAGE DECODING/ENCODING PERFORMED BY A DECODING/ENCODING APPARATUS, METHOD OF TRANSMITTING DATA TO AN IMAGE, DECODING/ENCODING APPARATUS FOR IMAGE DECODING/ENCODING, TRANSMISSION APPARATUS FOR TRANSMITTING DATA TO AN IMAGE AND MEDIA COMPUTER READABLE NON-TRANSIENT STORAGE
BR122023027149A2 (en) IMAGE DECODING APPARATUS, IMAGE CODING APPARATUS, APPARATUS FOR STORING DATA FOR AN IMAGE AND APPARATUS FOR TRANSMITTING DATA TO AN IMAGE
BR122024006245A2 (en) IMAGE DECODING/ENCODING METHOD PERFORMED BY A DECODING/ENCODING APPARATUS, NON-TRANSITORY COMPUTER-READABLE STORAGE MEDIUM AND METHOD FOR TRANSMITTING DATA FOR IMAGE INFORMATION
BR122024006241A2 (en) IMAGE DECODING/ENCODING METHOD PERFORMED BY A DECODING/ENCODING APPARATUS, NON-TRANSITORY COMPUTER-READABLE STORAGE MEDIUM AND METHOD FOR TRANSMITTING DATA FOR IMAGE INFORMATION
BR122023022586A2 (en) METHOD AND APPARATUS FOR SIGNALING RECORD PARTITIONING INFORMATION
BR122024006265A2 (en) IMAGE DECODING APPARATUS, IMAGE CODING APPARATUS AND APPARATUS FOR TRANSMITTING DATA FOR IMAGE INFORMATION
BR122023026924A2 (en) IMAGE CODING APPARATUS, IMAGE DECODING APPARATUS AND TRANSMISSION APPARATUS