RU2800596C1 - Slice and tile configuration for image/video encoding - Google Patents

Slice and tile configuration for image/video encoding Download PDF

Info

Publication number
RU2800596C1
RU2800596C1 RU2022117201A RU2022117201A RU2800596C1 RU 2800596 C1 RU2800596 C1 RU 2800596C1 RU 2022117201 A RU2022117201 A RU 2022117201A RU 2022117201 A RU2022117201 A RU 2022117201A RU 2800596 C1 RU2800596 C1 RU 2800596C1
Authority
RU
Russia
Prior art keywords
height
slice
tile
information
slices
Prior art date
Application number
RU2022117201A
Other languages
Russian (ru)
Inventor
Хендри ХЕНДРИ
Сеетхал ПАЛУРИ
Сеунгхван КИМ
Original Assignee
ЭлДжи ЭЛЕКТРОНИКС ИНК.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ЭлДжи ЭЛЕКТРОНИКС ИНК. filed Critical ЭлДжи ЭЛЕКТРОНИКС ИНК.
Application granted granted Critical
Publication of RU2800596C1 publication Critical patent/RU2800596C1/en

Links

Images

Abstract

FIELD: video encoding and decoding.
SUBSTANCE: video encoding and decoding based on frame slice/tile configuration. This result is achieved by parsing information by number relative to the number of slices whose heights are explicitly signaled in the current frame tile from the bitstream; parsing height information in regards to slice heights whose heights are explicitly signaled from the bit stream based on the number information; extracting the number of slices in the tile based on the number information and the height information; and decoding the current frame based on the slices in the tile, wherein the height information includes a number of parsing elements identical to the number information value, and based on the number information value of n, the height from the zero slice to the (n-1)th slices in a tile can be extracted based on parsing elements.
EFFECT: increase of video compression efficiency.
13 cl, 11 dwg, 11 tbl

Description

Уровень техникиState of the art

Область техники, к которой относится изобретениеThe technical field to which the invention belongs

[1] Настоящее раскрытие относится к способу и оборудованию для кодирования изображения/видео на основе конфигурации срезов/плиток кадра.[1] The present disclosure relates to a method and equipment for encoding an image/video based on a slice/tile pattern of a frame.

Описание предшествующего уровня техникиDescription of the prior art

[2] В последнее время, спрос на высококачественное изображение/видео высокого разрешения, к примеру, 4K, 8K либо изображения/видео еще более сверхвысокой четкости (UHD), растет в различных областях техники. По мере того, как разрешение или качество изображений/видео становится более высоким, относительно больший объем информации или число битов передается, чем для традиционных данных изображений/видео. Следовательно, если данные изображений/видео передаются через такую среду, как существующая проводная/беспроводная широкополосная линия, либо сохраняются на унаследованном носителе хранения данных, затраты на передачу и хранение серьезно увеличиваются.[2] Recently, the demand for high-quality high-definition image/video, such as 4K, 8K, or even more ultra-high definition (UHD) images/video, has been growing in various fields of technology. As the resolution or quality of images/video becomes higher, a relatively larger amount of information or number of bits is transmitted than for conventional image/video data. Therefore, if image/video data is transmitted via a medium such as an existing wired/wireless broadband line, or stored in a legacy storage medium, transmission and storage costs are greatly increased.

[3] Кроме того, растет интерес и спрос в отношении контента виртуальной реальности (VR) и искусственной реальности (AR) и иммерсивного мультимедиа, к примеру, голограммы; а также растет широковещательная передача изображений/видео, демонстрирующих характеристики изображений/видео, отличающиеся от характеристик фактического изображения/видео, к примеру, игровых изображений/видео.[3] In addition, there is growing interest and demand for virtual reality (VR) and artificial reality (AR) content and immersive multimedia such as holograms; and the broadcasting of images/videos showing image/video characteristics different from those of the actual image/video, such as game images/videos, is also on the rise.

[4] Следовательно, требуется высокоэффективная технология сжатия изображений/видео для того, чтобы эффективно сжимать и передавать, сохранять или воспроизводить высококачественные изображения/видео высокого разрешения, демонстрирующие различные характеристики, как описано выше.[4] Therefore, a high-performance image/video compression technology is required in order to efficiently compress and transmit, store, or reproduce high-quality, high-resolution images/videos exhibiting various characteristics as described above.

Сущность изобретенияThe essence of the invention

Технические задачиTechnical challenges

[5] Техническая задача настоящего раскрытия заключается в том, чтобы предоставлять способ и оборудование для повышения эффективности кодирования изображения/видео.[5] The technical object of the present disclosure is to provide a method and equipment for improving the efficiency of image/video coding.

[6] Другая техническая задача настоящего раскрытия заключается в том, чтобы предоставлять способ и оборудование для эффективной передачи в служебных сигналах информации относительно среза в плитке.[6] Another technical object of the present disclosure is to provide a method and equipment for efficiently signaling information regarding a cut in a tile in overhead signals.

[7] Еще одна другая техническая задача настоящего раскрытия заключается в том, чтобы предоставлять способ и оборудование для уменьшения объема передаваемой служебной информации при доставке (или передаче) информации относительно среза в плитке.[7] Yet another technical object of the present disclosure is to provide a method and equipment for reducing the overhead when delivering (or transmitting) information regarding a slice in a tile.

[8] Еще одна другая техническая задача настоящего раскрытия заключается в том, чтобы предоставлять способ и оборудование для эффективной доставки (или передачи) информации, связанной с числом и высотой срезов в плитке.[8] Yet another technical object of the present disclosure is to provide a method and equipment for efficiently delivering (or transmitting) information related to the number and height of slices in a tile.

[9] Еще одна другая техническая задача настоящего раскрытия заключается в том, чтобы предоставлять способ и оборудование для эффективной передачи в служебных сигналах информации, связанной с высотами соответствующих срезов, когда два или более срезов имеют идентичную высоту в плитке.[9] Yet another technical object of the present disclosure is to provide a method and equipment for efficiently signaling information related to respective slice heights when two or more slices have the same height in a tile.

Техническое решениеTechnical solution

[10] Согласно варианту осуществления настоящего раскрытия, в данном документе предусмотрен способ декодирования видео, осуществляемый посредством оборудования декодирования видео. Способ может включать в себя этапы синтаксического анализа информации по числу, связанной с числом срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах в плитке текущего кадра, из потока битов, синтаксического анализа информации высоты, связанной с высотами срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах, из потока битов на основе информации по числу, извлечения числа срезов в плитке на основе информации по числу и информации высоты и декодирования текущего кадра на основе срезов в плитке, при этом информация высоты может включать в себя число синтаксических элементов, идентичное значению информации по числу, при этом на основе значения информации по числу, равного n, высоты нулевого среза - (n-1)-ого среза в плитке могут извлекаться на основе синтаксических элементов, при этом высота n-ого среза в плитке может извлекаться на основе высоты (n-1)-ого среза, и при этом высота последнего среза в плитке может извлекаться на основе оставшейся высоты после вычитания высот других срезов в плитке из высоты плитки.[10] According to an embodiment of the present disclosure, provided herein is a video decoding method performed by video decoding equipment. The method may include the steps of parsing the number information associated with the number of slices, each having a height explicitly signaled in the current frame tile, from the bitstream, parsing the height information associated with the slice heights, each of which has an explicitly signaled height from a bitstream based on the number information, extracting the number of slices in a tile based on the number information and height information, and decoding the current frame based on the slices in the tile, where the height information may include a number syntax elements, identical to the value of information by number, while based on the value of information by number equal to n, the height of the zero slice - (n-1)-th slice in the tile can be extracted based on the syntax elements, while the height of the n-th slice in tile may be derived based on the height of the (n-1)th slice, and the height of the last slice in the tile may be derived based on the remaining height after subtracting the heights of the other slices in the tile from the height of the tile.

[11] Согласно другому варианту осуществления настоящего раскрытия, в данном документе предусмотрен способ кодирования видео, осуществляемый посредством оборудования кодирования. Способ может включать в себя этапы извлечения срезов в плитке текущего кадра, формирования прогнозных выборок посредством выполнения по меньшей мере, одного из внутреннего прогнозирования или взаимного прогнозирования на основе извлеченных срезов, формирования остаточной информации на основе прогнозных выборок, формирования информации по числу, связанной с числом срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах в плитке, и информации высоты, связанной с высотами срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах на основе извлеченных срезов, и кодирования информации изображений, включающей в себя остаточную информацию, информацию по числу и информацию высоты, при этом на основе значения информации по числу, равного n, информация высоты может включать в себя n синтаксических элементов, указывающих высоты нулевого среза - (n-1)-ого среза в плитке, соответственно, при этом высота n-ого среза в плитке может извлекаться на основе высоты (n-1)-ого среза, и при этом высота последнего среза в плитке может извлекаться на основе оставшейся высоты после вычитания высот других срезов в плитке из высоты плитки.[11] According to another embodiment of the present disclosure, provided herein is a video encoding method performed by encoding equipment. The method may include extracting slices in a tile of the current frame, generating predictive samples by performing at least one of intra prediction or inter prediction based on the extracted slices, generating residual information based on the predictive samples, generating number information associated with the number slices each having a height explicitly signaled in the tile and height information associated with the heights of the slices each having a height explicitly signaled based on the extracted slices, and encoding image information including the residual information, number information, and height information, and based on the value of the number information equal to n, the height information may include n syntax elements indicating the heights of the zero slice - (n-1)th slice in the tile, respectively, when whereby the height of the nth slice in the tile can be derived based on the height of the (n-1)th slice, and the height of the last slice in the tile can be derived based on the remaining height after subtracting the heights of the other slices in the tile from the height of the tile.

[12] Согласно еще одному другому варианту осуществления настоящего раскрытия, в данном документе предусмотрен компьютерно-читаемый цифровой носитель записи, имеющий сохраненную информацию, которая инструктирует осуществление способа декодирования видео посредством оборудования декодирования видео. Способ декодирования видео может включать в себя этапы синтаксического анализа информации по числу, связанной с числом срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах в плитке текущего кадра, из видеоинформации, синтаксического анализа информации высоты, связанной с высотами срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах, из видеоинформации на основе информации по числу, извлечения числа срезов в плитке на основе информации по числу и информации высоты и декодирования текущего кадра на основе срезов в плитке, при этом информация высоты может включать в себя число синтаксических элементов, идентичное значению информации по числу, при этом на основе значения информации по числу, равного n, высоты нулевого среза - (n-1)-ого среза в плитке могут извлекаться на основе синтаксических элементов, при этом высота n-ого среза в плитке может извлекаться на основе высоты (n-1)-ого среза, и при этом высота последнего среза в плитке может извлекаться на основе оставшейся высоты после вычитания высот других срезов в плитке из высоты плитки.[12] According to yet another embodiment of the present disclosure, provided herein is a computer-readable digital recording medium having stored information that instructs the implementation of a video decoding method by video decoding equipment. The video decoding method may include the steps of parsing the number information associated with the number of slices each having a height explicitly signaled in the current frame tile from the video information, parsing the height information associated with the slice heights, each of which has a height explicitly signaled from the video information based on the number information, extracting the number of slices in the tile based on the number information and the height information, and decoding the current frame based on the slices in the tile, the height information may include the number syntax elements, identical to the value of information by number, while based on the value of information by number equal to n, the height of the zero slice - (n-1)-th slice in the tile can be extracted based on the syntax elements, while the height of the n-th slice in tile may be derived based on the height of the (n-1)th slice, and the height of the last slice in the tile may be derived based on the remaining height after subtracting the heights of the other slices in the tile from the height of the tile.

Преимущества раскрытия Disclosure Benefits

[13] Согласно варианту осуществления настоящего раскрытия, общая эффективность сжатия изображения/видео может повышаться.[13] According to an embodiment of the present disclosure, the overall image/video compression efficiency can be improved.

[14] Согласно варианту осуществления настоящего раскрытия, информация относительно среза в плитке может эффективно передаваться в служебных сигналах.[14] According to an embodiment of the present disclosure, information regarding a slice in a tile can be efficiently signaled.

[15] Согласно варианту осуществления настоящего раскрытия, объем передаваемой служебной информации может уменьшаться при доставке (или передаче) информации относительно среза в плитке.[15] According to an embodiment of the present disclosure, the amount of transmitted overhead information may be reduced when delivering (or transmitting) information regarding a slice in a tile.

[16] Согласно варианту осуществления настоящего раскрытия, информация, связанная с числом и высотой срезов в плитке, может эффективно передаваться в служебных сигналах.[16] According to an embodiment of the present disclosure, information related to the number and height of slices in a tile can be effectively signaled.

[17] Согласно варианту осуществления настоящего раскрытия, когда два или более срезов имеют идентичную высоту в плитке, информация, связанная с высотами соответствующих срезов, может эффективно передаваться в служебных сигналах.[17] According to an embodiment of the present disclosure, when two or more slices have the same height in a tile, information related to the heights of the respective slices can be signaled efficiently.

Краткое описание чертежейBrief description of the drawings

[18] Фиг. 1 схематично иллюстрирует пример системы кодирования видео/изображений, к которой являются применимыми варианты осуществления настоящего документа.[18] FIG. 1 schematically illustrates an example of a video/image coding system to which embodiments of the present document are applicable.

[19] Фиг. 2 является схемой, принципиально иллюстрирующей конфигурацию оборудования кодирования видео/изображений, к которому являются применимыми варианты осуществления настоящего документа.[19] FIG. 2 is a diagram principally illustrating the configuration of video/image coding equipment to which embodiments of the present document are applicable.

[20] Фиг. 3 является схемой, принципиально иллюстрирующей конфигурацию оборудования декодирования видео/изображений, к которому являются применимыми варианты осуществления настоящего документа.[20] FIG. 3 is a diagram principally illustrating the configuration of video/image decoding equipment to which embodiments of the present document are applicable.

[21] Фиг. 4 показывает пример процедуры декодирования кадров.[21] FIG. 4 shows an example of a frame decoding procedure.

[22] Фиг. 5 показывает пример процедуры кодирования кадров.[22] FIG. 5 shows an example of a frame encoding procedure.

[23] Фиг. 6 показывает примерную иерархическую структуру кодированного изображения/видео.[23] FIG. 6 shows an exemplary hierarchical structure of an encoded picture/video.

[24] Фиг. 7 и фиг. 8, соответственно, показывают общие примеры способа кодирования видео/изображений и связанного компонента согласно варианту осуществления настоящего раскрытия.[24] FIG. 7 and FIG. 8 respectively show general examples of a video/image coding method and an associated component according to an embodiment of the present disclosure.

[25] Фиг. 9 и фиг. 10, соответственно, показывают общие примеры способа декодирования видео/изображений и связанного компонента согласно варианту осуществления настоящего раскрытия.[25] FIG. 9 and FIG. 10 respectively show general examples of a video/image decoding method and an associated component according to an embodiment of the present disclosure.

[26] Фиг. 11 показывает пример системы потоковой передачи контента, к которой может применяться вариант осуществления настоящего раскрытия.[26] FIG. 11 shows an example of a content streaming system to which an embodiment of the present disclosure may be applied.

Подробное описание вариантов осуществленияDetailed description of embodiments

[27] Настоящий документ относится к кодированию видео/изображений. Например, способ/вариант осуществления, раскрытый в настоящем документе, может применяться к способу, раскрытому в стандарте универсального кодирования видео (VVC). Помимо этого, способ/вариант осуществления, раскрытый в настоящем документе, может применяться к способу, раскрытому в стандарте фундаментального кодирования видео (EVC), стандарте AOMedia Video 1 (AV1), стандарте второго поколения кодирования аудио/видео (AVS2) или стандарте кодирования видео/изображений следующего поколения (например, H.267, H.268 и т.д.).[27] This document relates to video/image coding. For example, the method/embodiment disclosed herein may be applied to the method disclosed in the Universal Video Coding (VVC) standard. In addition, the method/embodiment disclosed herein may be applied to the method disclosed in the Fundamental Video Coding (EVC) standard, the AOMedia Video 1 (AV1) standard, the second generation audio/video coding (AVS2) standard, or the video coding standard. /next generation images (eg H.267, H.268, etc.).

[28] Различные варианты осуществления, связанные с кодированием видео/изображений, представляются в настоящем документе, и варианты осуществления могут комбинироваться между собой, если не указано иное.[28] Various embodiments related to video/image coding are presented herein, and the embodiments may be combined with each other unless otherwise indicated.

[29] В настоящем документе, видео может означать последовательность изображений во времени. Кадр, в общем, означает единицу, представляющую одно изображение в конкретном временном кинокадре, и срез/плитка означает единицу, составляющую часть кадра с точки зрения кодирования. Срез/плитка может включать в себя одну или более единиц дерева кодирования (CTU). Один кадр может состоять из одного или более срезов/плиток. Один кадр может состоять из одной или более групп плиток. Одна группа плиток может включать в себя одну или более плиток. Кирпич может представлять прямоугольную область CTU-строк в плитке в кадре. Плитка может сегментироваться на несколько кирпичей, каждый из которых состоит из одной или более CTU-строк в плитке. Плитка, которая не сегментируется на несколько кирпичей, также может называться "кирпичом". Кирпичное сканирование представляет собой конкретное последовательное упорядочение CTU, сегментирующих кадр, при котором CTU упорядочиваются последовательно в растровом CTU-сканировании в кирпиче, кирпичи внутри плитки упорядочиваются последовательно в растровом сканировании кирпичей плитки, и плитки в кадре упорядочиваются последовательно в растровом сканировании плиток кадра. Плитка представляет собой прямоугольную область CTU в конкретном столбце плиток и конкретной строке плиток в кадре. Столбец плиток представляет собой прямоугольную область CTU, имеющих высоту, равную высоте кадра, и ширину, указываемую посредством синтаксических элементов в наборе параметров кадра. Строка плиток представляет собой прямоугольную область CTU, имеющих высоту, указываемую посредством синтаксических элементов в наборе параметров кадра, и ширину, равную ширине кадра. Сканирование плиток представляет собой конкретное последовательное упорядочение CTU, сегментирующих кадр, при котором CTU упорядочиваются последовательно при растровом сканировании CTU в плитке, тогда как плитки в кадре упорядочиваются последовательно при растровом сканировании плиток кадра. Срез включает в себя собой целое число кирпичей кадра, которые могут содержаться исключительно в одной NAL-единице. Срез может состоять либо из определенного числа полных плиток, либо только из жесткой последовательности полных кирпичей одной плитки. В настоящем документе, группа плиток и срез могут использоваться взаимозаменяемо. Например, в настоящем документе, группа плиток/заголовок группы плиток может называться "срезом/заголовком среза".[29] As used herein, video can mean a sequence of images over time. A frame generally means a unit representing one image in a particular temporal movie frame, and a slice/tile means a unit that is part of a frame from an encoding point of view. A slice/tile may include one or more coding tree units (CTUs). One frame may consist of one or more slices/tiles. One frame may consist of one or more tile groups. One group of tiles may include one or more tiles. A brick can represent a rectangular area of CTU rows in a tile in a frame. A tile can be segmented into multiple bricks, each of which consists of one or more CTU rows in the tile. A tile that does not segment into multiple bricks may also be referred to as a "brick". Brickscan is a particular sequential ordering of CTUs segmenting a frame, whereby CTUs are ordered sequentially in a CTU raster scan in a brick, bricks within a tile are ordered sequentially in a tile bricks raster scan, and tiles in a frame are ordered sequentially in a frame tile raster scan. A tile is a rectangular area of the CTU in a particular column of tiles and a particular row of tiles in a frame. The tile column is a rectangular area of CTUs having a height equal to the height of the frame and a width specified by syntax elements in the frame parameter set. The row of tiles is a rectangular area of CTUs having a height indicated by syntax elements in the frame parameter set and a width equal to the frame width. Tile scanning is a particular sequential ordering of CTUs segmenting a frame, whereby CTUs are ordered sequentially in a raster scan of the CTUs in a tile, while tiles in a frame are ordered sequentially in a raster scan of the frame's tiles. A slice includes an integer number of frame bricks that can only be contained in one NAL unit. A slice can either consist of a certain number of full tiles, or only a rigid sequence of full bricks of a single tile. In this document, the group of tiles and slice can be used interchangeably. For example, in this document, a tile group/tile group header may be referred to as a "slice/slice header".

[30] Пиксел или пел может означать наименьшую единицу, составляющую один кадр (или изображение). Кроме того, "выборка" может использоваться в качестве термина, соответствующего пикселу. Выборка, в общем, может представлять пиксел или значение пиксела и может представлять только пиксел/пиксельное значение компонента сигналов яркости либо только пиксел/пиксельное значение компонента сигналов цветности.[30] A pixel or pel can mean the smallest unit that makes up one frame (or image). In addition, "sample" can be used as a term corresponding to a pixel. A sample can generally represent a pixel or a pixel value, and can only represent a luminance component pixel/pixel value, or only a chrominance component pixel/pixel value.

[31] Единица может представлять базовую единицу обработки изображений. Единица может включать в себя по меньшей мере одно из конкретной области кадра и информации, связанной с областью. Одна единица может включать в себя один блок сигналов яркости и два блока сигналов цветности (например, Cb, Cr). Единица может использоваться взаимозаменяемо с такими терминами, как блок или зона в некоторых случаях. В общем случае, блок MxN может включать в себя выборки (или массивы выборок) либо набор (или массив) коэффициентов преобразования из M столбцов и N строк. Альтернативно, выборка может означать пиксельное значение в пространственной области и когда такое пиксельное значение преобразуется в частотную область, это может означать коэффициент преобразования в частотной области.[31] The unit may represent a basic image processing unit. The unit may include at least one of a particular area of the frame and information associated with the area. One unit may include one luminance block and two chrominance blocks (eg, Cb, Cr). The unit can be used interchangeably with terms such as block or zone in some cases. In general, an MxN block may include samples (or arrays of samples) or a set (or array) of transform coefficients of M columns and N rows. Alternatively, the sample may mean a pixel value in the spatial domain, and when such a pixel value is converted to the frequency domain, it can mean a transform factor in the frequency domain.

[32] Единица может взаимозаменяемо использоваться с таким термином, как блок или зона, в некоторых случаях. Обычно, блок MxN может представлять выборки, состоящие из M столбцов и N строк или группы коэффициентов преобразования. Выборка, в общем, может представлять пиксел или значение пиксела и также может представлять только пиксел/пиксельное значение компонента сигнала яркости, а также представлять только пиксел/пиксельное значение компонента сигнала цветности. Выборка может использоваться в качестве термина, соответствующего пикселу или пелу, конфигурирующему один кадр (или изображение).[32] A unit can be used interchangeably with a term such as block or zone in some cases. Typically, an MxN block may represent samples consisting of M columns and N rows, or a group of transform coefficients. A sample can generally represent a pixel or a pixel value, and can also represent only a pixel/pixel value of the luminance signal component, as well as represent only a pixel/pixel value of the chrominance signal component. Sample can be used as a term corresponding to a pixel or pel configuring one frame (or image).

[33] Раскрытие настоящего документа может модифицироваться в различных формах, и его конкретные варианты осуществления описываются и иллюстрируются на чертежах. Термины, используемые в настоящем документе, используются для того, чтобы просто описывать конкретные варианты осуществления, но не имеют намерение ограничивать раскрытый способ в настоящем документе. Выражение единственного числа включает в себя выражение "по меньшей мере, один" до тех пор, пока они четко трактуются по-разному. Такие термины, как "включать в себя" и "иметь", предназначены для того, чтобы указывать то, что существуют признаки, числа, этапы, операции, элементы, компоненты либо комбинации вышеозначенного, используемые в документе, и в силу этого следует понимать, что не исключается возможность наличия или добавления одного или более других признаков, чисел, этапов, операций, элементов, компонентов либо комбинаций вышеозначенного.[33] The disclosure of this document may be modified in various forms, and its specific embodiments are described and illustrated in the drawings. The terms used herein are used to simply describe specific embodiments, but are not intended to limit the method disclosed herein. The singular expression includes the expression "at least one" as long as they are clearly interpreted differently. Terms such as "comprise" and "have" are intended to indicate that there are features, numbers, steps, operations, elements, components, or combinations of the foregoing used in the document, and as such should be understood that the possibility of the presence or addition of one or more other features, numbers, steps, operations, elements, components, or combinations of the above is not excluded.

[34] Помимо этого, каждая конфигурация чертежей, описанных в настоящем документе, представляет собой независимую иллюстрацию для пояснения функций в качестве признаков, которые отличаются друг от друга, и не означает то, что каждая конфигурация реализуется посредством взаимно различных аппаратных средств или различного программного обеспечения. Например, две или более конфигураций могут комбинироваться, чтобы формировать одну конфигурацию, и одна конфигурация также может разделяться на несколько конфигураций. Без отступления от сущности раскрытого способа настоящего документа, варианты осуществления, в которых конфигурации комбинируются и/или разделяются, включаются в объем раскрытия настоящего документа.[34] In addition, each configuration of the drawings described herein is an independent illustration for explaining functions as features that differ from each other, and does not mean that each configuration is implemented by mutually different hardware or different software. . For example, two or more patterns may be combined to form one pattern, and one pattern may also be split into multiple patterns. Without departing from the spirit of the disclosed method herein, embodiments in which configurations are combined and/or separated are included within the scope of the disclosure herein.

[35] В настоящем документе, термин "/" и "," должен интерпретироваться как указывающий "и/или". Например, выражение "A/B" может означать "A и/или B". Дополнительно, "A, B" может означать "A и/или B". Дополнительно, "A/B/C" может означать "по меньшей мере, одно из A, B и/или C". Кроме того, "A/B/C" может означать "по меньшей мере, одно из A, B и/или C".[35] In this document, the terms "/" and "," are to be interpreted as indicating "and/or". For example, the expression "A/B" can mean "A and/or B". Additionally, "A, B" may mean "A and/or B". Additionally, "A/B/C" may mean "at least one of A, B and/or C". In addition, "A/B/C" may mean "at least one of A, B and/or C".

[36] Дополнительно, в документе, термин "или" должен интерпретироваться как указывающий "и/или". Например, выражение "A или B" может содержать 1) только A, 2) только B и/или 3) как A, так и B. Другими словами, термин "или" в настоящем документе должен интерпретироваться как указывающий "дополнительно или альтернативно".[36] Additionally, in the document, the term "or" should be interpreted as indicating "and/or". For example, the expression "A or B" may contain 1) only A, 2) only B, and/or 3) both A and B. In other words, the term "or" in this document should be interpreted as indicating "in addition or alternatively" .

[37] Дополнительно, круглые скобки, используемые в настоящем документе, могут означать "например". В частности, в случае если "прогнозирование (внутреннее прогнозирование)" выражается, может указываться то, что "внутреннее прогнозирование" предлагается в качестве примера "прогнозирования". Другими словами, термин "прогнозирование" в настоящем документе не ограничен "внутренним прогнозированием", и "внутреннее прогнозирование" предлагается в качестве примера "прогнозирования". Дополнительно, даже в случае, если "прогнозирование (т.е. внутреннее прогнозирование)" выражается, может указываться то, что "внутреннее прогнозирование" предлагается в качестве примера "прогнозирования".[37] Additionally, parentheses used herein may mean "for example". In particular, in the case where "prediction (internal prediction)" is expressed, it may be indicated that "internal prediction" is proposed as an example of "prediction". In other words, the term "prediction" in the present document is not limited to "internal prediction", and "internal prediction" is offered as an example of "prediction". Additionally, even if "prediction (ie, intra prediction)" is expressed, it may be indicated that "intra prediction" is offered as an example of "prediction".

[38] В настоящем документе, технические признаки, отдельно поясненные на одном чертеже, могут реализовываться отдельно либо реализовываться одновременно.[38] In this document, technical features separately explained in one drawing may be implemented separately or implemented simultaneously.

[39] Далее подробно описываются примерные варианты осуществления настоящего документа со ссылкой на прилагаемые чертежи. Помимо этого, аналогичные ссылки с номерами используются для того, чтобы указывать аналогичные элементы на всех чертежах, и идентичные описания аналогичных элементов могут опускаться.[39] The following describes exemplary embodiments of the present document in detail with reference to the accompanying drawings. In addition, like reference numerals are used to refer to like elements throughout the drawings, and like descriptions of like elements may be omitted.

[40] Фиг. 1 иллюстрирует пример системы кодирования видео/изображений, к которой могут применяться варианты осуществления настоящего документа.[40] FIG. 1 illustrates an example of a video/image coding system to which embodiments of the present document may be applied.

[41] Ссылаясь на фиг. 1, система кодирования видео/изображений может включать в себя первое устройство (исходное устройство) и второе устройство (приемное устройство). Исходное устройство может передавать кодированную информацию или данные видео/изображений в приемное устройство через цифровой носитель хранения данных или сеть в форме файла или потоковой передачи.[41] Referring to FIG. 1, the video/image coding system may include a first device (source device) and a second device (receiver device). The source device may transmit the encoded information or video/image data to the receiving device via a digital storage medium or a network in the form of a file or streaming.

[42] Исходное устройство может включать в себя видеоисточник, оборудование кодирования и передатчик. Приемное устройство может включать в себя приемник, оборудование декодирования и модуль рендеринга. Оборудование кодирования может называться "оборудованием кодирования видео/изображений", и оборудование декодирования может называться "оборудованием декодирования видео/изображений". Передатчик может включаться в оборудование кодирования. Приемник может включаться в оборудование декодирования. Модуль рендеринга может включать в себя дисплей, и дисплей может быть сконфигурирован как отдельное устройство или внешний компонент.[42] The source device may include a video source, encoding equipment, and a transmitter. The receiver may include a receiver, decoding hardware, and a renderer. The encoding equipment may be referred to as "video/image coding equipment", and the decoding equipment may be referred to as "video/image decoding equipment". The transmitter may be included in the encoding equipment. The receiver may be included in decoding equipment. The renderer may include a display, and the display may be configured as a separate device or an external component.

[43] Видеоисточник может получать видео/изображение посредством процесса захвата, синтезирования или формирования видео/изображения. Видеоисточник может включать в себя устройство захвата видео/изображений и/или устройство формирования видео/изображений. Устройство захвата видео/изображений может включать в себя, например, одну или более камер, архивы видео/изображений, включающие в себя ранее захваченные видео/изображения, и т.п. Устройство формирования видео/изображений может включать в себя, например, компьютеры, планшетные компьютеры и смартфоны и может (электронно) формировать видео/изображения. Например, виртуальное видео/изображение может формироваться через компьютер и т.п. В этом случае, процесс захвата видео/изображений может заменяться посредством процесса формирования связанных данных.[43] A video source may acquire a video/image through a process of capturing, synthesizing, or generating a video/image. The video source may include a video/image capture device and/or a video/image generation device. The video/image capture device may include, for example, one or more cameras, video/image archives including previously captured videos/images, and the like. The video/image generation apparatus may include, for example, computers, tablet computers, and smartphones, and may (electronically) generate video/images. For example, the virtual video/image may be generated via a computer or the like. In this case, the video/image capturing process may be replaced by a linked data generation process.

[44] Оборудование кодирования может кодировать входное видео/изображение. Оборудование кодирования может выполнять последовательность процедур, таких как прогнозирование, преобразование и квантование, для эффективности сжатия и кодирования. Кодированные данные (кодированная информация видео/изображений) могут выводиться в форме потока битов.[44] The encoding equipment may encode the input video/image. The encoding equipment may perform a series of procedures such as prediction, transformation, and quantization for compression and encoding efficiency. Encoded data (encoded video/image information) may be output in the form of a bitstream.

[45] Передатчик может передавать информацию или данные кодированных изображений/изображений, выводимую в форме потока битов, в приемник приемного устройства через цифровой носитель хранения данных или сеть в форме файла или потоковой передачи. Цифровой носитель хранения данных может включать в себя различные носители хранения данных, такие как USB, SD, CD, DVD, Blu-Ray, HDD, SSD и т.п. Передатчик может включать в себя элемент для формирования мультимедийного файла через предварительно определенный формат файлов и может включать в себя элемент для передачи через широковещательную передачу/сеть связи. Приемник может принимать/извлекать поток битов и передавать принимаемый поток битов в оборудование декодирования.[45] The transmitter may transmit information or coded image/image data output in the form of a bit stream to the receiver of the receiving device via a digital storage medium or a network in the form of a file or streaming. The digital storage medium may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, SSD, and the like. The transmitter may include an element for generating a media file via a predetermined file format and may include an element for transmission via a broadcast/communication network. The receiver may receive/retrieve the bitstream and transmit the received bitstream to the decoding equipment.

[46] Оборудование декодирования может декодировать видео/изображение посредством выполнения последовательности процедур, таких как деквантование, обратное преобразование и прогнозирование, соответствующих работе оборудования кодирования.[46] The decoding equipment can decode the video/image by performing a sequence of procedures such as dequantization, inverse transform, and prediction corresponding to the operation of the encoding equipment.

[47] Модуль рендеринга может подготавливать посредством рендеринга декодированное видео/изображение. Подготовленное посредством рендеринга видео/изображение может отображаться через дисплей.[47] The rendering module may prepare a decoded video/image by rendering. The rendered video/image can be displayed through the display.

[48] Фиг. 2 является схемой, принципиально иллюстрирующей конфигурацию оборудования кодирования видео/изображений, к которому могут применяться варианты осуществления настоящего документа. В дальнейшем в этом документе, то, что называется "оборудованием кодирования видео", может включать в себя оборудование кодирования изображений.[48] FIG. 2 is a diagram principally illustrating the configuration of video/image coding equipment to which embodiments of the present document may be applied. Hereinafter in this document, what is referred to as "video encoding equipment" may include image encoding equipment.

[49] Ссылаясь на фиг. 2, оборудование 200 кодирования может включать в себя и конфигурироваться с помощью модуля 210 сегментации изображений, модуля 220 прогнозирования, остаточного процессора 230, энтропийного кодера 240, сумматора 250, фильтра 260 и запоминающего устройства 270. Модуль 220 прогнозирования может включать в себя модуль 221 взаимного прогнозирования и модуль 222 внутреннего прогнозирования. Остаточный процессор 230 может включать в себя преобразователь 232, квантователь 233, деквантователь 234 и обратный преобразователь 235. Остаточный процессор 230 дополнительно может включать в себя вычитатель 231. Сумматор 250 может называться "модулем восстановления" или "формирователем восстановленных блоков". Модуль 210 сегментации изображений, модуль 220 прогнозирования, остаточный процессор 230, энтропийный кодер 240, сумматор 250 и фильтр 260, которые описываются выше, могут конфигурироваться посредством одного или более аппаратных компонентов (например, наборов микросхем или процессоров кодера) согласно варианту осуществления. Помимо этого, запоминающее устройство 270 может включать в себя буфер декодированных кадров (DPB) и также может конфигурироваться посредством цифрового носителя хранения данных. Аппаратный компонент дополнительно может включать в себя запоминающее устройство 270 в качестве внутреннего/внешнего компонента.[49] Referring to FIG. 2, the encoding equipment 200 may include and be configured with an image segmentation module 210, a prediction module 220, a residual processor 230, an entropy encoder 240, an adder 250, a filter 260, and a memory 270. The prediction module 220 may include a mutual prediction and module 222 internal prediction. Residual processor 230 may include a transformer 232, a quantizer 233, a dequantizer 234, and an inverse transformer 235. Residual processor 230 may further include a subtractor 231. Adder 250 may be referred to as a "rebuilder" or "recovered block generator". The image segmentation module 210, prediction module 220, residual processor 230, entropy encoder 240, adder 250, and filter 260 as described above may be configured by one or more hardware components (e.g., chipsets or encoder processors) according to an embodiment. In addition, the storage device 270 may include a decoded frame buffer (DPB) and may also be configured by a digital storage medium. The hardware component may further include a storage device 270 as an internal/external component.

[50] Модуль 210 сегментации изображений может разбивать входное изображение (или кадр, кинокадр), вводимое в оборудование 200 кодирования, на одну или более единиц обработки. В качестве примера, единица обработки может называться "единицей кодирования (CU)". В этом случае, единица кодирования может рекурсивно разбиваться согласно структуре в виде дерева квадрантов, двоичного дерева и троичного дерева (QTBTTT) из единицы дерева кодирования (CTU) или наибольшей единицы кодирования (LCU). Например, одна единица кодирования может разбиваться на множество единиц кодирования большей глубины на основе структуры в виде дерева квадрантов, структуры в виде двоичного дерева и/или структуры в виде троичного дерева. В этом случае, например, сначала применяется структура в виде дерева квадрантов, и впоследствии может применяться структура в виде двоичного дерева и/или структура в виде троичного дерева. Альтернативно, также сначала может применяться структура в виде двоичного дерева. Процедура кодирования согласно настоящему документу может выполняться на основе конечной единицы кодирования, которая более не разбивается. В этом случае, на основе эффективности кодирования согласно характеристикам изображений и т.п., максимальная единица кодирования может непосредственно использоваться в качестве конечной единицы кодирования, или при необходимости, единица кодирования может рекурсивно разбиваться на единицы кодирования большей глубины, так что единица кодирования, имеющая оптимальный размер, может использоваться в качестве конечной единицы кодирования. Здесь, процедура кодирования может включать в себя такую процедуру, как прогнозирование, преобразование и восстановление, которая описывается ниже. В качестве другого примера, единица обработки дополнительно может включать в себя единицу прогнозирования (PU) или единицу преобразования (TU). В этом случае, каждая из единицы прогнозирования и единицы преобразования может разбиваться или сегментироваться из вышеуказанной конечной единицы кодирования. Единица прогнозирования может представлять собой единицу выборочного прогнозирования, и единица преобразования может представлять собой единицу для логического вывода коэффициента преобразования и/или единицу для логического вывода остаточного сигнала из коэффициента преобразования.[50] The image segmentation module 210 may split the input image (or frame, movie frame) input to the encoding equipment 200 into one or more processing units. As an example, a processing unit may be referred to as a "coding unit (CU)". In this case, a coding unit may be recursively split according to a quadtree, binary tree, and ternary tree (QTBTTT) structure from a coding tree unit (CTU) or a largest coding unit (LCU). For example, one coding unit may be split into multiple deeper coding units based on a quadtree structure, a binary tree structure, and/or a ternary tree structure. In this case, for example, a quadtree structure is applied first, and a binary tree structure and/or a ternary tree structure may subsequently be applied. Alternatively, a binary tree structure may also be applied first. The encoding procedure according to the present document may be performed on the basis of a final encoding unit that is no longer split. In this case, based on the coding efficiency according to the characteristics of images and the like, the maximum coding unit may be directly used as the final coding unit, or, if necessary, the coding unit may be recursively split into coding units of greater depth, so that a coding unit having optimal size, can be used as the final coding unit. Here, the encoding procedure may include a procedure such as prediction, transformation, and restoration, which is described below. As another example, the processing unit may further include a prediction unit (PU) or a transformation unit (TU). In this case, each of the prediction unit and the transformation unit may be split or segmented from the above final coding unit. The prediction unit may be a selective prediction unit, and the transform unit may be a unit for inferring a transform coefficient and/or a unit for inferring a residual signal from a transform coefficient.

[51] Оборудование 200 кодирования может вычитать прогнозный сигнал (прогнозированный блок, массив прогнозных выборок), выводимый из модуля 221 взаимного прогнозирования или модуля 222 внутреннего прогнозирования, из сигнала входного изображения (исходного блока, массива исходных выборок), чтобы формировать остаточный сигнал (остаточный блок, массив остаточных выборок), и сформированный остаточный сигнал передается в преобразователь 232. В этом случае, как проиллюстрировано, модуль для вычитания прогнозного сигнала (блока прогнозирования, массива прогнозных выборок) из сигнала входного изображения (исходного блока, массива исходных выборок) в кодере 200 может называться "вычитателем 231". Модуль 220 прогнозирования может выполнять прогнозирование для целевого блока обработки (в дальнейшем в этом документе, называемого "текущим блоком"), и формировать прогнозированный блок, включающий в себя прогнозные выборки для текущего блока. Модуль 220 прогнозирования может определять то, применяется внутреннее прогнозирование или взаимное прогнозирование, в единицах текущего блока или CU. Модуль 220 прогнозирования может формировать различные виды информации относительно прогнозирования, такие как информация режима прогнозирования, и передавать сформированную информацию в энтропийный кодер 240, как описано ниже в описании каждого режима прогнозирования. Информация относительно прогнозирования может кодироваться посредством энтропийного кодера 240 и выводиться в форме потока битов.[51] The encoding equipment 200 may subtract the prediction signal (predicted block, predictive sample array) output from the inter prediction unit 221 or intra prediction unit 222 from the input image signal (original block, original sample array) to generate a residual signal (residual block, residual sample array), and the generated residual signal is passed to the converter 232. In this case, as illustrated, a module for subtracting the predictive signal (prediction block, predictive sample array) from the input image signal (source block, source sample array) at the encoder 200 may be referred to as "subtractor 231". The prediction module 220 may perform prediction on a target processing block (hereinafter referred to as the "current block") and generate a prediction block including prediction samples for the current block. Prediction module 220 may determine whether intra prediction or inter prediction is applied, in units of the current block or CU. The prediction unit 220 may generate various kinds of prediction information such as prediction mode information, and pass the generated information to the entropy encoder 240 as described below in the description of each prediction mode. The prediction information may be encoded by the entropy encoder 240 and output in the form of a bitstream.

[52] Модуль 222 внутреннего прогнозирования может прогнозировать текущий блок со ссылкой на выборки в пределах текущего кадра. Выборки, на которые ссылаются, могут быть расположены как граничащие с текущим блоком либо также могут быть расположены на большом расстоянии от текущего блока согласно режиму прогнозирования. Режимы прогнозирования при внутреннем прогнозировании могут включать в себя множество ненаправленных режимов и множество направленных режимов. Ненаправленный режим может включать в себя, например, DC-режим или планарный режим. Направленный режим может включать в себя, например, 33 режима направленного прогнозирования или 65 режимов направленного прогнозирования согласно точной степени направления прогнозирования. Тем не менее, это является иллюстративным, и режимы направленного прогнозирования, которые больше или меньше вышеуказанного числа, могут использоваться согласно настройке. Модуль 222 внутреннего прогнозирования также может определять режим прогнозирования, применяемый к текущему блоку, посредством использования режима прогнозирования, применяемого к соседнему блоку.[52] Intra prediction module 222 may predict the current block with reference to samples within the current frame. The referenced samples may be located as adjacent to the current block, or may also be located at a large distance from the current block according to the prediction mode. Prediction modes in intra prediction may include a plurality of non-directional modes and a plurality of directional modes. The non-directional mode may include, for example, a DC mode or a planar mode. The directional mode may include, for example, 33 directional prediction modes or 65 directional prediction modes according to the fine prediction direction degree. However, this is illustrative, and directional prediction modes that are greater than or less than the above number may be used according to the setting. The intra prediction unit 222 may also determine the prediction mode applied to the current block by using the prediction mode applied to the adjacent block.

[53] Модуль 221 взаимного прогнозирования может логически выводить прогнозированный блок относительно текущего блока на основе опорного блока (массива опорных выборок), указываемого посредством вектора движения для опорного кадра. В это время, чтобы снижать объем информации движения, передаваемой в режиме взаимного прогнозирования, информация движения может прогнозироваться в единицах блоков, субблоков или выборок на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорного кадра. Информация движения дополнительно может включать в себя информацию направления взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование, бипрогнозирование и т.п.). В случае взаимного прогнозирования, соседний блок может включать в себя пространственный соседний блок, существующий в текущем кадре, и временной соседний блок, существующий в опорном кадре. Опорный кадр, включающий в себя опорный блок, и опорный кадр, включающий в себя временной соседний блок, могут быть идентичными друг другу или отличающимися друг от друга. Временной соседний блок может упоминаться под таким названием, как "совместно размещенный опорный блок", "совместно размещенная CU (colCU)" и т.п., и опорный кадр, включающий в себя временной соседний блок, также может называться "совместно размещенным кадром (colPic)". Например, модуль 221 взаимного прогнозирования может конфигурировать список возможных вариантов информации движения на основе соседних блоков и формировать информацию, указывающую то, какой возможный вариант используется для того, чтобы извлекать вектор движения и/или индекс опорного кадра текущего блока. Взаимное прогнозирование может выполняться на основе различных режимов прогнозирования, и, например, в случае режима пропуска и режима объединения, модуль 221 взаимного прогнозирования может использовать информацию движения соседнего блока в качестве информации движения текущего блока. В случае режима пропуска, остаточный сигнал может не передаваться, в отличие от режима объединения. Режим прогнозирования векторов движения (MVP) может указывать вектор движения текущего блока посредством использования вектора движения соседнего блока в качестве предиктора вектора движения и передачи в служебных сигналах разности векторов движения.[53] The inter-prediction unit 221 may infer a predicted block relative to the current block based on a reference block (reference sample array) indicated by a motion vector for the reference frame. At this time, in order to reduce the amount of motion information transmitted in the inter-prediction mode, the motion information may be predicted in units of blocks, sub-blocks, or samples based on the correlation of the motion information between the adjacent block and the current block. The motion information may include a motion vector and a reference frame index. The motion information may further include inter-prediction direction information (L0 prediction, L1 prediction, bi-prediction, and the like). In the case of inter prediction, the neighbor block may include a spatial neighbor block existing in the current frame and a temporal neighbor block existing in the reference frame. The reference frame including the reference block and the reference frame including the temporal neighbor block may be identical to each other or different from each other. The temporal neighbor block may be referred to as a "collocated reference block", "collocated CU (colCU)" or the like, and a reference frame including the temporal neighbor block may also be referred to as a "collocated frame ( colpic)". For example, the inter prediction unit 221 may configure a motion information candidate list based on neighboring blocks and generate information indicating which candidate is used to derive the motion vector and/or the reference frame index of the current block. Inter prediction may be performed based on various prediction modes, and, for example, in the case of the skip mode and the join mode, the inter prediction unit 221 may use the neighboring block motion information as the current block motion information. In the case of the skip mode, the residual signal may not be transmitted, in contrast to the combine mode. The motion vector prediction (MVP) mode may indicate the motion vector of the current block by using the motion vector of an adjacent block as a motion vector predictor and signaling the motion vector difference.

[54] Модуль 220 прогнозирования может формировать прогнозный сигнал на основе различных способов прогнозирования, которые описываются ниже. Например, модуль 220 прогнозирования может применять внутреннее прогнозирование или взаимное прогнозирование для прогнозирования одного блока и может одновременно применять внутреннее прогнозирование и взаимное прогнозирование. Это может называться "комбинированным взаимным и внутренним прогнозированием (CIIP)". Помимо этого, модуль прогнозирования может быть основан на режиме прогнозирования на основе внутриблочного копирования (IBC) либо основан на палитровом режиме для прогнозирования блока. Режим IBC-прогнозирования или палитровый режим может использоваться для кодирования изображений/видео для такого контента, как игры и т.п., например, для кодирования экранного контента (SCC). IBC по существу выполняет прогнозирование в текущем кадре, но может выполняться аналогично взаимному прогнозированию в том, что опорный блок извлекается в текущем кадре. Таким образом, IBC может использовать по меньшей мере одну из технологий взаимного прогнозирования, описанных в настоящем документе. Палитровый режим может рассматриваться как пример внутреннего кодирования или внутреннего прогнозирования. Когда палитровый режим применяется, выборочное значение в кадре может передаваться в служебных сигналах на основе информации относительно таблицы палитр и индекса палитры.[54] The prediction module 220 may generate a prediction signal based on various prediction methods, which are described below. For example, prediction module 220 may apply intra prediction or inter prediction to predict one block, and may apply intra prediction and inter prediction at the same time. This may be referred to as "combined mutual and intra prediction (CIIP)". In addition, the prediction module may be based on an intra-block copy (IBC) prediction mode or based on a palette mode for block prediction. The IBC prediction mode or palette mode can be used for image/video coding for content such as games and the like, such as screen content coding (SCC). IBC essentially performs prediction in the current frame, but may be performed similar to inter prediction in that the reference block is retrieved in the current frame. Thus, the IBC may use at least one of the inter-prediction technologies described herein. Palette mode can be considered as an example of intra coding or intra prediction. When the palette mode is applied, the sample value in the frame may be signaled based on the information regarding the palette table and the palette index.

[55] Прогнозный сигнал, сформированный посредством модуля прогнозирования (включающего в себя модуль 221 взаимного прогнозирования и/или модуль 222 внутреннего прогнозирования), может использоваться для того, чтобы формировать восстановленный сигнал, либо может использоваться для того, чтобы формировать остаточный сигнал.[55] The prediction signal generated by the prediction module (including the inter prediction module 221 and/or the intra prediction module 222) may be used to generate the recovered signal, or may be used to generate the residual signal.

[56] Преобразователь 232 может формировать коэффициенты преобразования посредством применения технологии преобразования к остаточному сигналу. Например, технология преобразования может включать в себя по меньшей мере одно из дискретного косинусного преобразования (DCT), дискретного синусного преобразования (DST), преобразования на основе графа (GBT) или условно нелинейного преобразования (CNT). Здесь, GBT означает преобразование, полученное из графа при выражении информации взаимосвязи между пикселами на графе. CNT означает преобразование, полученное на основе прогнозного сигнала, сформированного с использованием всех ранее восстановленных пикселов. Кроме того, процесс преобразования может применяться к блоку пикселов, имеющих размер, идентичный размеру квадрата, или может применяться к блоку переменного размера, который не представляет собой квадрат.[56] Converter 232 may generate transform coefficients by applying a transform technique to the residual signal. For example, the transform technique may include at least one of Discrete Cosine Transform (DCT), Discrete Sine Transform (DST), Graph Based Transform (GBT), or Conditionally Nonlinear Transform (CNT). Here, GBT means a transformation obtained from a graph when expressing relationship information between pixels on a graph. CNT means the transformation obtained based on the predictive signal generated using all previously reconstructed pixels. In addition, the transformation process may be applied to a block of pixels having the same size as a square, or may be applied to a variable size block that is not a square.

[57] Квантователь 233 квантует коэффициенты преобразования и передает их в энтропийный кодер 240, и энтропийный кодер 240 кодирует квантованный сигнал (информацию относительно квантованных коэффициентов преобразования) и выводит кодированный сигнал в качестве потока битов. Информация относительно квантованных коэффициентов преобразования может называться "остаточной информацией". Квантователь 233 может перекомпоновывать квантованные коэффициенты преобразования в блочной форме в одномерную векторную форму на основе порядка сканирования коэффициентов и может формировать информацию относительно коэффициентов преобразования на основе квантованных коэффициентов преобразования в одномерной векторной форме.[57] The quantizer 233 quantizes the transform coefficients and passes them to the entropy encoder 240, and the entropy encoder 240 encodes the quantized signal (information regarding the quantized transform coefficients) and outputs the encoded signal as a bitstream. The information regarding the quantized transform coefficients may be referred to as "residual information". The quantizer 233 may repackage the quantized transform coefficients in block form into one-dimensional vector form based on the scan order of the coefficients, and may generate information about the transform coefficients based on the quantized transform coefficients in one-dimensional vector form.

[58] Энтропийный кодер 240 может выполнять различные способы кодирования, такие как, например, кодирование экспоненциальным кодом Голомба, контекстно-адаптивное кодирование переменной длины (CAVLC) и контекстно-адаптивное двоичное арифметическое кодирование (CABAC). Энтропийный кодер 240 может кодировать информацию, необходимую для восстановления видео/изображений (например, значения синтаксических элементов и т.д.) отличную от квантованных коэффициентов преобразования, вместе или отдельно. Кодированная информация (например, кодированная информация видео/изображений) может передаваться или сохраняться в единицах слоя абстрагирования от сети (NAL) в форме потока битов. Информация видео/изображений дополнительно может включать в себя информацию относительно различных наборов параметров, таких как набор параметров адаптации (APS), набор параметров кадра (PPS), набор параметров последовательности (SPS) или набор параметров видео (VPS). Кроме того, информация видео/изображений дополнительно может включать в себя общую информацию ограничений. В настоящем документе, информация и/или синтаксические элементы, передаваемые/передаваемые в служебных сигналах из оборудования кодирования в оборудование декодирования, могут включаться в информацию видео/изображений. Информация видео/изображений может кодироваться через процедуру кодирования, описанную выше, и включаться в поток битов. Поток битов может передаваться через сеть или может сохраняться на цифровом носителе хранения данных. Здесь, сеть может включать в себя широковещательную сеть и/или сеть связи, и цифровой носитель хранения данных может включать в себя различные носители хранения данных, такие как USB, SD, CD, DVD, Blu-Ray, HDD и SSD. Передающий модуль (не показан) и/или модуль хранения (не показан) для передачи или сохранения сигнала, выводимого из энтропийного кодера 240, могут быть сконфигурированы как внутренние/внешние элементы оборудования 200 кодирования, либо передающий модуль может включаться в энтропийный кодер 240.[58] Entropy encoder 240 may perform various coding techniques such as exponential Golomb coding, context adaptive variable length coding (CAVLC), and context adaptive binary arithmetic coding (CABAC), for example. Entropy encoder 240 may encode information needed for video/image reconstruction (eg, syntax element values, etc.) other than the quantized transform coefficients together or separately. Encoded information (eg, encoded video/image information) may be transmitted or stored in units of a network abstraction layer (NAL) in the form of a bitstream. The video/image information may further include information regarding various parameter sets such as an adaptation parameter set (APS), a frame parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS). In addition, the video/image information may further include general restriction information. Herein, information and/or syntax elements transmitted/signaled from encoding equipment to decoding equipment may be included in video/image information. The video/image information may be encoded through the coding procedure described above and included in the bitstream. The bit stream may be transmitted over a network or may be stored on a digital storage medium. Here, the network may include a broadcast network and/or a communication network, and the digital storage medium may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, and SSD. A transmitter module (not shown) and/or a storage module (not shown) for transmitting or storing a signal output from entropy encoder 240 may be configured as internal/external elements of encoding equipment 200, or a transmitter module may be included in entropy encoder 240.

[59] Квантованные коэффициенты преобразования, выводимые из квантователя 233, могут использоваться для того, чтобы формировать прогнозный сигнал. Например, остаточный сигнал (остаточный блок или остаточные выборки) может восстанавливаться посредством применения деквантования и обратного преобразования к квантованным коэффициентам преобразования через деквантователь 234 и модуль 235 обратного преобразования. Сумматор 250 может суммировать восстановленный остаточный сигнал с прогнозным сигналом, выводимым из модуля 221 взаимного прогнозирования или модуля 222 внутреннего прогнозирования, чтобы формировать восстановленный сигнал (восстановленный кадр, восстановленный блок, массив восстановленных выборок). Когда отсутствует остаток для целевого блока обработки, к примеру, когда режим пропуска применяется, прогнозированный блок может использоваться в качестве восстановленного блока. Сумматор 250 может называться "модулем восстановления" или "формирователем блоков восстановления". Сформированный восстановленный сигнал может использоваться для внутреннего прогнозирования следующего целевого блока для обработки в текущем кадре или может использоваться для взаимного прогнозирования следующего кадра после фильтрации, как описано ниже.[59] The quantized transform coefficients output from quantizer 233 may be used to generate a predictive signal. For example, the residual signal (residual block or residual samples) may be recovered by applying dequantization and inverse transform to the quantized transform coefficients via dequantizer 234 and inverse transform module 235. An adder 250 may add the recovered residual signal to the prediction signal output from the inter prediction unit 221 or the intra prediction unit 222 to generate a reconstructed signal (recovered frame, reconstructed block, reconstructed sample array). When there is no remainder for the target processing block, for example, when the skip mode is applied, the predicted block may be used as the reconstructed block. The adder 250 may be referred to as a "recovery module" or "recovery block generator". The generated reconstructed signal may be used to intra-predict the next target block for processing in the current frame, or may be used to inter-predict the next frame after filtering, as described below.

[60] Между тем, преобразование сигнала яркости с масштабированием сигнала цветности (LMCS) может применяться в ходе процесса кодирования и/или восстановления кадров.[60] Meanwhile, luminance chrominance scaling (LMCS) transform may be applied during the encoding and/or frame reconstruction process.

[61] Фильтр 260 может повышать субъективное/объективное качество изображений посредством применения фильтрации к восстановленному сигналу. Например, фильтр 260 может формировать модифицированный восстановленный кадр посредством применения различных способов фильтрации к восстановленному кадру и сохранять модифицированный восстановленный кадр в запоминающем устройстве 270, а именно, в DPB запоминающего устройства 270. Различные способы фильтрации могут включать в себя, например, фильтрацию для удаления блочности, дискретизированное адаптивное смещение, адаптивный контурный фильтр, билатеральный фильтр и т.п. Фильтр 260 может формировать различные виды информации, связанной с фильтрацией, и передавать сформированную информацию в энтропийный кодер 240, как описано ниже в описании каждого способа фильтрации. Информация, связанная с фильтрацией, может кодироваться посредством энтропийного кодера 240 и выводиться в форме потока битов.[61] The filter 260 can improve subjective/objective image quality by applying filtering to the reconstructed signal. For example, filter 260 may generate a modified reconstructed frame by applying various filtering methods to the reconstructed frame and store the modified reconstructed frame in memory 270, namely the DPB of storage 270. Various filtering methods may include, for example, filtering to deblock , sampled adaptive bias, adaptive loop filter, bilateral filter, etc. The filter 260 may generate various kinds of filtering-related information and pass the generated information to the entropy encoder 240 as described below in the description of each filtering method. Filtering related information may be encoded by entropy encoder 240 and output in the form of a bitstream.

[62] Модифицированный восстановленный кадр, передаваемый в запоминающее устройство 270, может использоваться в качестве опорного кадра в модуле 221 взаимного прогнозирования. Когда взаимное прогнозирование применяется посредством оборудования кодирования, рассогласование прогнозирования между оборудованием 200 кодирования и оборудованием декодирования может исключаться, и эффективность кодирования может повышаться.[62] The modified reconstructed frame transmitted to the memory 270 may be used as a reference frame in the inter prediction module 221 . When inter prediction is applied by the encoding equipment, prediction mismatch between the encoding equipment 200 and the decoding equipment can be eliminated, and encoding efficiency can be improved.

[63] DPB запоминающего устройства 270 может сохранять модифицированный восстановленный кадр для использования в качестве опорного кадра в модуле 221 взаимного прогнозирования. Запоминающее устройство 270 может сохранять информацию движения блока, из которой информация движения в текущем кадре извлекается (или кодируется), и/или информацию движения уже восстановленных блоков в кадре. Сохраненная информация движения может передаваться в модуль 221 взаимного прогнозирования для использования в качестве информации движения пространственного соседнего блока или информации движения временного соседнего блока. Запоминающее устройство 270 может сохранять восстановленные выборки восстановленных блоков в текущем кадре и может передавать восстановленные выборки в модуль 222 внутреннего прогнозирования.[63] The DPB of the memory 270 may store the modified reconstructed frame for use as a reference frame in the inter prediction module 221 . The memory 270 may store block motion information from which motion information in the current frame is extracted (or encoded) and/or motion information of already reconstructed blocks in the frame. The stored motion information may be transmitted to the inter-prediction unit 221 for use as spatial neighbor block motion information or temporal neighbor block motion information. The memory 270 may store the recovered samples of the recovered blocks in the current frame and may pass the recovered samples to the intra prediction module 222 .

[64] Фиг. 3 является схемой для схематичного пояснения конфигурации оборудования декодирования видео/изображений, к которому могут применяться варианты осуществления настоящего документа.[64] FIG. 3 is a diagram for schematically explaining the configuration of video/image decoding equipment to which embodiments of the present document may be applied.

[65] Ссылаясь на фиг. 3, оборудование 300 декодирования может включать в себя и конфигурироваться с помощью энтропийного декодера 310, остаточного процессора 320, модуля 330 прогнозирования, сумматора 340, фильтра 350 и запоминающего устройства 360. Модуль 330 прогнозирования может включать в себя модуль 331 взаимного прогнозирования и модуль 332 внутреннего прогнозирования. Остаточный процессор 320 может включать в себя деквантователь 321 и обратный преобразователь 322. Энтропийный декодер 310, остаточный процессор 320, модуль 330 прогнозирования, сумматор 340 и фильтр 350, которые описываются выше, могут конфигурироваться посредством одного или более аппаратных компонентов (например, наборов микросхем или процессоров декодера) согласно варианту осуществления. Дополнительно, запоминающее устройство 360 может включать в себя буфер декодированных кадров (DPB) и может конфигурироваться посредством цифрового носителя хранения данных. Аппаратный компонент дополнительно может включать в себя запоминающее устройство 360 в качестве внутреннего/внешнего компонента.[65] Referring to FIG. 3, the decoding equipment 300 may include and be configured with an entropy decoder 310, a residual processor 320, a prediction unit 330, an adder 340, a filter 350, and a memory 360. The prediction unit 330 may include an inter prediction unit 331 and an internal prediction unit 332. forecasting. Residual processor 320 may include a dequantizer 321 and inverse converter 322. Entropy decoder 310, residual processor 320, predictor 330, summer 340, and filter 350, as described above, may be configured by one or more hardware components (e.g., chipsets or decoder processors) according to the embodiment. Additionally, memory 360 may include a decoded frame buffer (DPB) and may be configured by a digital storage medium. The hardware component may further include a storage device 360 as an internal/external component.

[66] Когда поток битов, включающий в себя информацию видео/изображений, вводится, оборудование 300 декодирования может восстанавливать изображение в ответ на процесс, в котором информация видео/изображений обрабатывается в оборудовании кодирования, проиллюстрированном на фиг. 2. Например, оборудование 300 декодирования может извлекать единицы/блоки на основе связанной с разбиением на блоки информации, полученной из потока битов. Оборудование 300 декодирования может выполнять декодирование с использованием единицы обработки, применяемой для оборудования кодирования. Следовательно, единица обработки для декодирования, например, может представлять собой единицу кодирования, и единица кодирования может разбиваться согласно структуре в виде дерева квадрантов, структуре в виде двоичного дерева и/или структуре в виде троичного дерева из единицы дерева кодирования или максимальной единицы кодирования. Одна или более единиц преобразования могут извлекаться из единицы кодирования. Помимо этого, восстановленный сигнал изображения, декодированный и выводимый посредством оборудования 300 декодирования, может воспроизводиться посредством оборудования воспроизведения.[66] When a bitstream including video/image information is input, the decoding equipment 300 may reconstruct an image in response to a process in which the video/image information is processed in the encoding equipment illustrated in FIG. 2. For example, decoding equipment 300 may extract units/blocks based on blocking-related information obtained from the bit stream. The decoding equipment 300 may perform decoding using the processing unit used for the encoding equipment. Therefore, the processing unit for decoding, for example, may be a coding unit, and the coding unit may be partitioned according to a quadtree structure, a binary tree structure, and/or a ternary tree structure from a coding tree unit or a maximum coding unit. One or more transformation units may be derived from a coding unit. In addition, the reconstructed image signal decoded and output by the decoding equipment 300 can be reproduced by the playback equipment.

[67] Оборудование 300 декодирования может принимать сигнал, выводимый из оборудования кодирования по фиг. 2 в форме потока битов, и принимаемый сигнал может декодироваться через энтропийный декодер 310. Например, энтропийный декодер 310 может синтаксически анализировать поток битов, чтобы извлекать информацию (например, информацию видео/изображений), необходимую для восстановления изображений (или восстановления кадров). Информация видео/изображений дополнительно может включать в себя информацию относительно различных наборов параметров, таких как набор параметров адаптации (APS), набор параметров кадра (PPS), набор параметров последовательности (SPS) или набор параметров видео (VPS). Помимо этого, информация видео/изображений дополнительно может включать в себя общую информацию ограничений. Оборудование декодирования дополнительно может декодировать кадр на основе информации относительно набора параметров и/или общей информации ограничений. Передаваемая в служебных сигналах/принимаемая информация и/или синтаксические элементы, описанные далее в настоящем документе, могут декодироваться, могут декодировать процедуру декодирования и получаться из потока битов. Например, энтропийный декодер 310 декодирует информацию в потоке битов на основе способа кодирования, такого как кодирование экспоненциальным кодом Голомба, контекстно-адаптивное кодирование переменной длины (CAVLC) или контекстно-адаптивное арифметическое кодирование (CABAC), и выходных синтаксических элементов, требуемых для восстановления изображений и квантованных значений коэффициентов преобразования для остатка. Более конкретно, способ энтропийного CABAC-декодирования может принимать элемент разрешения, соответствующий каждому синтаксическому элементу в потоке битов, определять контекстную модель посредством использования информации целевого синтаксического элемента декодирования, информации декодирования целевого блока декодирования или информации символа/элемента разрешения, декодированного на предыдущей стадии, и выполнять арифметическое декодирование для элемента разрешения посредством прогнозирования вероятности появления элемента разрешения согласно определенной контекстной модели и формировать символ, соответствующий значению каждого синтаксического элемента. В этом случае, способ энтропийного CABAC-декодирования может обновлять контекстную модель посредством использования информации декодированного символа/элемента разрешения для контекстной модели следующего символа/элемента разрешения после определения контекстной модели. Информация, связанная с прогнозированием, из информации, декодированной посредством энтропийного декодера 310, может предоставляться в модуль прогнозирования (модуль 332 взаимного прогнозирования и модуль 331 внутреннего прогнозирования), и остаточные значения, для которых энтропийное декодирование выполнено в энтропийном декодере 310, т.е. квантованные коэффициенты преобразования и связанная информация параметров, могут вводиться в остаточный процессор 320.[67] The decoding equipment 300 may receive a signal output from the encoding equipment of FIG. 2 in the form of a bitstream, and the received signal may be decoded via entropy decoder 310. For example, entropy decoder 310 may parse the bitstream to extract information (eg, video/image information) needed for image recovery (or frame recovery). The video/image information may further include information regarding various parameter sets such as an adaptation parameter set (APS), a frame parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS). In addition, the video/image information may further include general restriction information. The decoding equipment may further decode the frame based on the parameter set information and/or general constraint information. Signaling/receiving information and/or syntax elements described hereinafter may be decoded, may be decoded by a decoding procedure, and obtained from a bitstream. For example, entropy decoder 310 decodes information in the bitstream based on an encoding method such as exponential Golomb coding, variable length context adaptive coding (CAVLC), or context adaptive arithmetic coding (CABAC) and output syntax elements required for image recovery. and quantized values of the transform coefficients for the remainder. More specifically, the CABAC entropy decoding method can receive a bin corresponding to each syntax element in the bit stream, determine a context model by using the decoding target syntax element information, the decoding information of the decoding target block, or the symbol/bin information decoded in the previous step, and perform arithmetic decoding for the permission element by predicting the occurrence probability of the permission element according to the determined context model, and generating a character corresponding to the value of each syntax element. In this case, the CABAC entropy decoding method can update the context model by using the decoded symbol/bin information for the context model of the next symbol/bin after the context model is determined. Prediction related information from the information decoded by the entropy decoder 310 may be provided to the prediction unit (inter prediction unit 332 and intra prediction unit 331), and the residual values for which entropy decoding is performed in the entropy decoder 310, i. the quantized transform coefficients and associated parameter information may be input to the residual processor 320.

[68] Остаточный процессор 320 может извлекать остаточный сигнал (остаточный блок, остаточные выборки или массив остаточных выборок). Кроме того, информация относительно фильтрации из информации, декодированной посредством энтропийного декодера 310, может предоставляться в фильтр 350. Между тем, приемный модуль (не показан) для приема сигнала, выводимого из оборудования кодирования, может быть дополнительно сконфигурирован в качестве внутреннего/внешнего элемента оборудования 300 декодирования, либо приемный модуль может представлять собой компонент энтропийного декодера 310. Между тем, оборудование декодирования согласно настоящему документу может называться "оборудованием декодирования видео/изображений/кадров", и оборудование декодирования может разделяться на информационный декодер (декодер информации видео/изображений/кадров) и выборочный декодер (декодер выборок видео/изображений/кадров). Информационный декодер может включать в себя энтропийный декодер 310, и выборочный декодер может включать в себя по меньшей мере одно из деквантователя 321, обратного преобразователя 322, сумматора 340, фильтра 350, запоминающего устройства 360, модуля 332 взаимного прогнозирования и модуля 331 внутреннего прогнозирования.[68] Residual processor 320 may extract a residual signal (residual block, residual samples, or array of residual samples). In addition, information regarding filtering from the information decoded by the entropy decoder 310 may be provided to the filter 350. Meanwhile, a receiving unit (not shown) for receiving a signal output from the encoding equipment may be further configured as an internal/external equipment item. 300, or the receiving unit may be a component of the entropy decoder 310. Meanwhile, the decoding equipment according to the present document may be referred to as "video/image/frame decoding equipment", and the decoding equipment may be divided into an information decoder (video/image/frame information decoder ) and a sample decoder (video/image/frame samples decoder). The information decoder may include an entropy decoder 310, and the selective decoder may include at least one of a dequantizer 321, an inverse transform 322, an adder 340, a filter 350, a memory 360, an inter prediction unit 332, and an intra prediction unit 331.

[69] Деквантователь 321 может деквантовать квантованные коэффициенты преобразования, с тем чтобы выводить коэффициенты преобразования. Деквантователь 321 может перекомпоновывать квантованные коэффициенты преобразования в двумерной блочной форме. В этом случае, перекомпоновка может выполняться на основе порядка сканирования коэффициентов, выполняемого посредством оборудования кодирования. Деквантователь 321 может выполнять деквантование для квантованных коэффициентов преобразования с использованием параметра квантования (например, информации размера шага квантования) и получать коэффициенты преобразования.[69] The dequantizer 321 may dequantize the quantized transform coefficients so as to output the transform coefficients. The dequantizer 321 may recompose the quantized transform coefficients in a two-dimensional block form. In this case, the reassembly may be performed based on the coefficient scan order performed by the encoding equipment. The dequantizer 321 may perform dequantization on the quantized transform coefficients using a quantization parameter (eg, quantization step size information) and obtain transform coefficients.

[70] Обратный преобразователь 322 обратно преобразует коэффициенты преобразования, чтобы получать остаточный сигнал (остаточный блок, массив остаточных выборок).[70] The inverse transform 322 inversely transforms the transform coefficients to obtain a residual signal (residual block, array of residual samples).

[71] В настоящем документе по меньшей мере одно из квантования/деквантования и/или преобразования/обратного преобразования может опускаться. Когда квантование/деквантование опускается, квантованный коэффициент преобразования может называться "коэффициентом преобразования". Когда преобразование/обратное преобразование опускается, коэффициенты преобразования могут называться "коэффициентом" или "остаточным коэффициентом" либо по-прежнему могут называться "коэффициентом преобразования" для единообразности выражения.[71] Herein, at least one of quantization/dequantization and/or transformation/inverse transformation may be omitted. When quantization/dequantization is omitted, the quantized transform coefficient may be referred to as a "transform coefficient". When the transform/inverse transform is omitted, the transform coefficients may be referred to as "coefficient" or "residual coefficient" or may still be referred to as "transform coefficient" for uniformity of expression.

[72] В настоящем документе, квантованный коэффициент преобразования и коэффициент преобразования могут называться "коэффициентом преобразования" и "масштабированным коэффициентом преобразования", соответственно. В этом случае, остаточная информация может включать в себя информацию относительно коэффициента(ов) преобразования, и информация относительно коэффициента(ов) преобразования может передаваться в служебных сигналах через синтаксис остаточного кодирования. Коэффициенты преобразования могут извлекаться на основе остаточной информации (или информации относительно коэффициента(ов) преобразования), и масштабированные коэффициенты преобразования могут извлекаться через обратное преобразование (масштабирование) для коэффициентов преобразования. Остаточные выборки могут извлекаться на основе обратного преобразования (преобразования) масштабированных коэффициентов преобразования. Это также может применяться/выражаться в других частях настоящего документа.[72] Herein, the quantized transform coefficient and the transform coefficient may be referred to as "transform coefficient" and "scaled transform coefficient", respectively. In this case, the residual information may include information on the transform coefficient(s), and information on the transform coefficient(s) may be signaled via the residual coding syntax. The transform coefficients may be derived based on the residual information (or information regarding the transform coefficient(s)), and the scaled transform coefficients may be derived via an inverse transform (scaling) of the transform coefficients. Residual samples may be derived based on an inverse transform (transform) of the scaled transform coefficients. This may also apply/express in other parts of this document.

[73] Модуль 330 прогнозирования может выполнять прогнозирование текущего блока и формировать прогнозированный блок, включающий в себя прогнозные выборки текущего блока. Модуль прогнозирования может определять то, применяется внутреннее прогнозирование, или применяется взаимное прогнозирование к текущему блоку, на основе информации относительно прогнозирования, выводимой из энтропийного декодера 310, и определять конкретный режим внутреннего/взаимного прогнозирования.[73] Prediction module 330 may perform prediction on the current block and generate a predicted block including the prediction samples of the current block. The prediction module may determine whether intra prediction is applied or inter prediction is applied to the current block based on the prediction information output from the entropy decoder 310 and determine a specific intra/inter prediction mode.

[74] Модуль 330 прогнозирования может формировать прогнозный сигнал на основе различных способов прогнозирования, которые описываются ниже. Например, модуль прогнозирования может применять внутреннее прогнозирование или взаимное прогнозирование для прогнозирования одного блока и может одновременно применять внутреннее прогнозирование и взаимное прогнозирование. Это может называться "комбинированным взаимным и внутренним прогнозированием (CIIP)". Помимо этого, модуль прогнозирования может быть основан на режиме прогнозирования на основе внутриблочного копирования (IBC) либо основан на палитровом режиме для прогнозирования блока. Режим IBC-прогнозирования или палитровый режим может использоваться для кодирования изображений/видео для такого контента, как игры и т.п., например, для кодирования экранного контента (SCC). IBC по существу может выполнять прогнозирование в текущем кадре, но может выполняться аналогично взаимному прогнозированию в том, что опорный блок извлекается в текущем кадре. Таким образом, IBC может использовать по меньшей мере одну из технологий взаимного прогнозирования, описанных в настоящем документе. Палитровый режим может рассматриваться как пример внутреннего кодирования или внутреннего прогнозирования. Когда палитровый режим применяется, информация относительно таблицы палитр и индекса палитры может включаться в информацию видео/изображений и передаваться в служебных сигналах.[74] The prediction module 330 may generate a prediction signal based on various prediction methods, which are described below. For example, the prediction module may apply intra prediction or inter prediction to predict one block, and may apply intra prediction and inter prediction at the same time. This may be referred to as "combined mutual and intra prediction (CIIP)". In addition, the prediction module may be based on an intra-block copy (IBC) prediction mode or based on a palette mode for block prediction. The IBC prediction mode or palette mode can be used for image/video coding for content such as games and the like, such as screen content coding (SCC). The IBC may essentially perform prediction on the current frame, but may perform similarly to inter prediction in that the reference block is retrieved on the current frame. Thus, the IBC may use at least one of the inter-prediction technologies described herein. Palette mode can be considered as an example of intra coding or intra prediction. When the palette mode is applied, information regarding the palette table and the palette index may be included in the video/image information and signaled.

[75] Модуль 331 внутреннего прогнозирования может прогнозировать текущий блок посредством ссылки на выборки в текущем кадре. Выборки для ссылки могут быть расположены в окружении текущего блока или могут быть расположены с разнесением относительно текущего блока согласно режиму прогнозирования. При внутреннем прогнозировании, режимы прогнозирования могут включать в себя множество ненаправленных режимов и множество направленных режимов. Модуль 331 внутреннего прогнозирования может определять режим прогнозирования, который должен применяться к текущему блоку, посредством использования режима прогнозирования, применяемого к соседнему блоку.[75] The intra prediction module 331 may predict the current block by referring to the samples in the current frame. The reference samples may be located in the surroundings of the current block, or may be spaced apart from the current block according to the prediction mode. In intra prediction, the prediction modes may include a plurality of non-directional modes and a plurality of directional modes. The intra prediction unit 331 may determine the prediction mode to be applied to the current block by using the prediction mode applied to the adjacent block.

[76] Модуль 332 взаимного прогнозирования может извлекать прогнозированный блок для текущего блока на основе опорного блока (массива опорных выборок), указываемого посредством вектора движения для опорного кадра. В этом случае, чтобы уменьшать объем информации движения, передаваемой в режиме взаимного прогнозирования, информация движения может прогнозироваться в единицах блоков, субблоков или выборок на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорного кадра. Информация движения дополнительно может включать в себя информацию относительно направления взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование, бипрогнозирование и т.п.). В случае взаимного прогнозирования, соседний блок может включать в себя пространственный соседний блок, существующий в текущем кадре, и временной соседний блок, существующий в опорном кадре. Например, модуль 332 взаимного прогнозирования может конструировать список возможных вариантов информации движения на основе соседних блоков и извлекать вектор движения текущего блока и/или индекс опорного кадра на основе принимаемой информации выбора возможных вариантов. Взаимное прогнозирование может выполняться на основе различных режимов прогнозирования, и информация относительно прогнозирования может включать в себя информацию, указывающую режим взаимного прогнозирования для текущего блока.[76] The inter prediction unit 332 may derive a predicted block for the current block based on a reference block (reference sample array) indicated by a motion vector for the reference frame. In this case, in order to reduce the amount of motion information transmitted in the inter-prediction mode, the motion information may be predicted in units of blocks, sub-blocks, or samples based on the correlation of the motion information between the adjacent block and the current block. The motion information may include a motion vector and a reference frame index. The motion information may further include information regarding the direction of inter-prediction (L0 prediction, L1 prediction, bi-prediction, and the like). In the case of inter prediction, the neighbor block may include a spatial neighbor block existing in the current frame and a temporal neighbor block existing in the reference frame. For example, inter-prediction module 332 may construct a motion information candidate list based on neighboring blocks, and extract the current block's motion vector and/or reference frame index based on the received candidate selection information. Inter prediction may be performed based on various prediction modes, and the prediction information may include information indicative of the inter prediction mode for the current block.

[77] Сумматор 340 может формировать восстановленный сигнал (восстановленный кадр, восстановленный блок или массив восстановленных выборок) посредством суммирования полученного остаточного сигнала с прогнозным сигналом (прогнозированным блоком или массивом прогнозированных выборок), выводимым из модуля прогнозирования (включающего в себя модуль 332 взаимного прогнозирования и/или модуль 331 внутреннего прогнозирования). Если отсутствует остаток для целевого блока для обработки, к примеру, в случае, когда режим пропуска применяется, прогнозированный блок может использоваться в качестве восстановленного блока.[77] The adder 340 may generate a reconstructed signal (recovered frame, reconstructed block, or array of reconstructed samples) by summing the obtained residual signal with the predictive signal (predicted block or array of predicted samples) output from the prediction module (including the inter prediction module 332 and /or internal prediction module 331). If there is no remainder for the target block to be processed, such as when the skip mode is applied, the predicted block may be used as the reconstructed block.

[78] Сумматор 340 может называться "модулем восстановления" или "формирователем восстановленных блоков". Сформированный восстановленный сигнал может использоваться для внутреннего прогнозирования следующего блока, который должен обрабатываться в текущем кадре, и, как описано ниже, также может выводиться посредством фильтрации либо также может использоваться для взаимного прогнозирования следующего кадра.[78] The adder 340 may be referred to as a "recovery module" or "recovered block generator". The generated recovered signal may be used for intra-prediction of the next block to be processed in the current frame, and as described below, may also be filtered out, or may also be used for inter-prediction of the next frame.

[79] Между тем, преобразование сигнала яркости с масштабированием сигнала цветности (LMCS) также может применяться в процессе декодирования кадров.[79] Meanwhile, luma signal scaling (LMCS) transformation can also be applied in the frame decoding process.

[80] Фильтр 350 может повышать субъективное/объективное качество изображений посредством применения фильтрации к восстановленному сигналу. Например, фильтр 350 может формировать модифицированный восстановленный кадр посредством применения различных способов фильтрации к восстановленному кадру и сохранять модифицированный восстановленный кадр в запоминающем устройстве 360, а именно, в DPB запоминающего устройства 360. Различные способы фильтрации могут включать в себя, например, фильтрацию для удаления блочности, дискретизированное адаптивное смещение, адаптивный контурный фильтр, билатеральный фильтр и т.п.[80] The filter 350 can improve subjective/objective image quality by applying filtering to the reconstructed signal. For example, filter 350 may generate a modified reconstructed frame by applying various filtering methods to the reconstructed frame and store the modified reconstructed frame in memory 360, namely the DPB of memory 360. Various filtering methods may include, for example, filtering to deblock , sampled adaptive bias, adaptive loop filter, bilateral filter, etc.

[81] (Модифицированный) восстановленный кадр, сохраненный в DPB запоминающего устройства 360, может использоваться в качестве опорного кадра в модуле 332 взаимного прогнозирования. Запоминающее устройство 360 может сохранять информацию движения блока, из которой информация движения в текущем кадре извлекается (или декодируется), и/или информацию движения уже восстановленных блоков в кадре. Сохраненная информация движения может передаваться в модуль 332 взаимного прогнозирования, так что она используется в качестве информации движения пространственного соседнего блока или информации движения временного соседнего блока. Запоминающее устройство 360 может сохранять восстановленные выборки восстановленных блоков в текущем кадре и передавать восстановленные выборки в модуль 331 внутреннего прогнозирования.[81] The (modified) reconstructed frame stored in the DPB of the storage device 360 may be used as a reference frame in the inter prediction module 332 . The memory 360 may store block motion information from which motion information in the current frame is retrieved (or decoded) and/or motion information of already reconstructed blocks in the frame. The stored motion information may be transmitted to the inter-prediction unit 332 so that it is used as the spatial neighbor block motion information or the temporal neighbor block motion information. The storage device 360 may store the reconstructed samples of the reconstructed blocks in the current frame and pass the restored samples to the intra prediction module 331 .

[82] В настоящем документе, варианты осуществления, описанные в фильтре 260, модуле 221 взаимного прогнозирования и модуле 222 внутреннего прогнозирования оборудования 200 кодирования, могут применяться одинаково или соответствовать фильтру 350, модулю 332 взаимного прогнозирования и модулю 331 внутреннего прогнозирования.[82] Here, the embodiments described in the filter 260, the inter prediction unit 221, and the intra prediction unit 222 of the encoding equipment 200 may be applied the same or correspond to the filter 350, the inter prediction unit 332, and the intra prediction unit 331.

[83] Между тем, способ кодирования видео/изображений согласно настоящему документу может осуществляться на основе следующей структуры сегментации. В частности, вышеописанные процедуры прогнозирования, остаточной обработки ((обратного) преобразование и (де)-квантования), кодирования синтаксических элементов и фильтрации могут выполняться на основе CTU и CU (и/или TU и PU), извлекаемых на основе структуры сегментации. Процедура сегментации на блоки может выполняться посредством модуля 210 сегментации изображений вышеописанного оборудования кодирования, и связанная с сегментацией информация может обрабатываться (посредством кодирования) посредством энтропийного кодера 240 и может передаваться в оборудование декодирования в форме потока битов. Энтропийный декодер 310 оборудования декодирования может извлекать структуру сегментации на блоки текущего кадра на основе связанной с сегментацией информации, полученной из потока битов, и на основе этого, может выполнять последовательность процедур (например, прогнозирование, остаточную обработку, восстановление блоков/кадров, внутриконтурную фильтрацию и т.п.) для декодирования изображений. CU-размер и TU-размер могут быть равными друг другу, или множество TU может присутствовать в CU-области. Между тем, CU-размер, в общем, может представлять размер блока кодирования (CB) компонентных (выборок) сигналов яркости. TU-размер, в общем, может представлять размер блока преобразования (TB) компонентных (выборок) сигналов яркости. CB- или TB-размер компонентных (выборок) сигналов цветности может извлекаться на основе CB- или TB-размера компонентных (выборок) сигналов яркости в соответствии с соотношением компонентов согласно цветовому формату (формату сигналов цветности, например, 4:4:4, 4:2:2, 4:2:0 и т.п.) кадра/изображения. TU-размер может извлекаться на основе maxTbSize. Например, если CU-размер больше maxTbSize, множество TU (TB) maxTbSize могут извлекаться из CU, и преобразование/обратное преобразование может выполняться в единице TU (TB). Дополнительно, например, в случае если внутреннее прогнозирование применяется, режим/тип внутреннего прогнозирования может извлекаться в единице CU (или CB), и процедуры извлечения соседних опорных выборок и формирования прогнозных выборок могут выполняться в единице TU (или TB). В этом случае, одна или множество TU (или TB) могут присутствовать в одной CU-(или CB-)области, и, в этом случае, множество TU или (TB) могут совместно использовать идентичный режим/тип внутреннего прогнозирования.[83] Meanwhile, the video/image coding method according to the present document can be implemented based on the following segmentation structure. In particular, the above-described prediction, residual processing ((inverse) transform and (de)-quantization), syntax element encoding, and filtering procedures can be performed based on the CTU and CU (and/or TU and PU) derived based on the segmentation structure. The block segmentation procedure may be performed by the image segmentation unit 210 of the above-described encoding equipment, and segmentation-related information may be processed (by encoding) by the entropy encoder 240 and may be transmitted to the decoding equipment in the form of a bitstream. The entropy decoder 310 of the decoding equipment may extract the segmentation structure into blocks of the current frame based on the segmentation-related information obtained from the bitstream, and based on this, may perform a series of procedures (e.g., prediction, residual processing, block/frame recovery, in-loop filtering, and etc.) for image decoding. The CU-size and TU-size may be equal to each other, or a plurality of TUs may be present in a CU-area. Meanwhile, the CU size may generally represent the size of a coding block (CB) of component (samples) luma signals. The TU size may generally represent the size of a transform block (TB) of component (samples) luminance signals. The CB or TB size of the chrominance component (samples) can be derived based on the CB or TB size of the luminance component (samples) according to the ratio of the components according to the color format (chroma format, e.g. 4:4:4, 4 :2:2, 4:2:0, etc.) frame/picture. The TU size may be derived based on maxTbSize. For example, if the CU-size is greater than maxTbSize, the set of TUs (TB) maxTbSize can be extracted from the CU, and transformation/de-transformation can be performed per TU (TB). Additionally, for example, if intra prediction is applied, the intra prediction mode/type may be retrieved in the CU (or CB) and the adjacent reference sample extraction and prediction sampling procedures may be performed in the TU (or TB). In this case, one or multiple TUs (or TBs) may be present in the same CU- (or CB-) area, and in this case, multiple TUs or (TBs) may share the same intra prediction mode/type.

[84] Дополнительно, при кодировании видео/изображений согласно настоящему документу, модуль обработки изображений может иметь иерархическую структуру. Один кадр может сегментироваться на одну или более плиток, кирпичей, срезов и/или групп плиток. Один срез может включать в себя один или более кирпичей. Кирпич может включать в себя одну или более CTU-строк в плитке. Срез может включать в себя целое число кирпичей кадра. Одна группа плиток может включать в себя одну или более плиток. Одна плитка может включать в себя одну или более CTU. CTU может сегментироваться на одну или более CU. Плитка представляет прямоугольную область CTU в конкретном столбце плиток и конкретной строке плиток в кадре. Группа плиток может включать в себя целое число плиток согласно растровому сканированию плиток в кадре. Заголовок среза может переносить информацию, которая может применяться к соответствующему срезу (блокам в срезе). В случае если оборудование кодирования/декодирования имеет многоядерный процессор, процессы кодирования/декодирования для плиток, срезов, кирпичей и/или групп плиток могут обрабатываться параллельно. В настоящем документе, срез или группа плиток могут использоваться заменяемо. Таким образом, заголовок группы плиток может называться "заголовком среза". Здесь, срез может иметь одни из типов срезов, включающих в себя внутренний (I) срез, прогнозирующий (P) срез и бипрогнозирующий (B) срез. При прогнозировании блоков в I-срезе, взаимное прогнозирование может не использоваться, и только внутреннее прогнозирование может использоваться. Конечно, даже в этом случае, передача служебных сигналов может выполняться посредством кодирования исходного выборочного значения без прогнозирования. Относительно блоков в P-срезе, внутреннее прогнозирование или взаимное прогнозирование может использоваться, и в случае использования взаимного прогнозирования, только унипрогнозирование может использоваться. Между тем, относительно блоков в B-срезе, внутреннее прогнозирование или взаимное прогнозирование может использоваться, и в случае использования взаимного прогнозирования, вплоть до бипрогнозирования может максимально использоваться.[84] Additionally, when encoding video/images according to the present document, the image processing module may have a hierarchical structure. One frame may be segmented into one or more tiles, bricks, slices, and/or groups of tiles. One slice may include one or more bricks. A brick may include one or more CTU rows in a tile. A slice can include an integer number of frame bricks. One group of tiles may include one or more tiles. One tile may include one or more CTUs. A CTU may be segmented into one or more CUs. A tile represents a rectangular area of the CTU in a particular column of tiles and a particular row of tiles in a frame. The tile group may include an integer number of tiles according to a raster scan of the tiles in the frame. The slice header may carry information that may apply to the corresponding slice(s) in the slice. In case the encoding/decoding equipment has a multi-core processor, encoding/decoding processes for tiles, slices, bricks and/or groups of tiles can be processed in parallel. Herein, a slice or group of tiles may be used interchangeably. Thus, a tile group header may be referred to as a "slice header". Here, the slice may have one of slice types including an inner (I) slice, a predictive (P) slice, and a bi-predictive (B) slice. When predicting blocks in an I-slice, inter prediction may not be used and only intra prediction may be used. Of course, even in this case, signaling can be performed by encoding the original sample value without prediction. Regarding blocks in the P-slice, intra prediction or inter prediction may be used, and in the case of using inter prediction, only uni prediction may be used. Meanwhile, with respect to blocks in the B-slice, intra prediction or inter prediction may be used, and in the case of using inter prediction, up to bi-prediction may be used to the maximum.

[85] Оборудование кодирования может определять размеры плитки/группы плиток, кирпича, среза и максимальной и минимальной единицы кодирования с учетом эффективности кодирования или параллельной обработки либо согласно характеристикам (например, разрешению) видеоизображения, и информация для них или информация, допускающая их логический вывод, может включаться в поток битов.[85] The encoding equipment may determine the dimensions of a tile/group of tiles, a brick, a slice, and a maximum and minimum coding unit in terms of coding efficiency or parallel processing, or according to the characteristics (e.g., resolution) of the video image, and information for them or information capable of inferring them. , may be included in the bit stream.

[86] Оборудование декодирования может получать информацию, представляющую плитку/группу плиток, кирпич и срез текущего кадра, а также то, сегментирована или нет CTU в плитке на множество единиц кодирования. Посредством задания возможности получения (передачи) этой информации только при конкретном условии, эффективность может повышаться.[86] The decoding equipment may obtain information representing the tile/group of tiles, the brick and slice of the current frame, and whether or not the CTU in the tile is segmented into multiple coding units. By making it possible to receive (transmit) this information only under a specific condition, efficiency can be improved.

[87] Между тем, как описано выше, один кадр может включать в себя множество срезов, и один срез может включать в себя заголовок среза и данные срезов. В этом случае, один заголовок кадра дополнительно может добавляться во множество срезов (заголовок среза и набор данных срезов) в одном кадре. Заголовок кадра (синтаксис заголовков кадра) может включать в себя информацию/параметры, обычно применимую к кадру. Заголовок среза (синтаксис заголовков срезов) может включать в себя информацию/параметры, которая может применяться обобщенно к срезу. Набор параметров адаптации (APS) или набор параметров кадра (PPS) могут включать в себя информацию/параметры, которая может применяться обобщенно к одному или более срезов или кадров. Набор параметров последовательности (SPS) может включать в себя информацию/параметры, которая может применяться обобщенно к одной или более последовательностей. Набор параметров видео (VPS) может включать в себя информацию/параметры, которая может применяться обобщенно к нескольким слоям. Набор параметров декодирования (DPS) может включать в себя информацию/параметры, которая может применяться обобщенно к полному видео. DPS может включать в себя информацию/параметры, связанную с конкатенацией кодированной видеопоследовательности (CVS).[87] Meanwhile, as described above, one frame may include a plurality of slices, and one slice may include a slice header and slice data. In this case, one frame header may additionally be added to a plurality of slices (a slice header and a slice data set) in one frame. The frame header (frame header syntax) may include information/parameters typically applicable to a frame. The slice header (slice header syntax) may include information/parameters that may be applied generically to the slice. An adaptation parameter set (APS) or a frame parameter set (PPS) may include information/parameters that may be applied generically to one or more slices or frames. A sequence parameter set (SPS) may include information/parameters that may be applied generically to one or more sequences. A Video Parameter Set (VPS) may include information/parameters that may be applied generically to multiple layers. A decoding parameter set (DPS) may include information/parameters that may be applied generically to the complete video. The DPS may include information/parameters related to coded video sequence (CVS) concatenation.

[88] Высокоуровневый синтаксис (HLS) в настоящем раскрытии включает в себя по меньшей мере одно из APS-синтаксиса, PPS-синтаксиса, SPS-cинтаксиса, VPS-синтаксиса, DPS-синтаксиса и синтаксиса заголовков срезов.[88] The High Level Syntax (HLS) in the present disclosure includes at least one of APS Syntax, PPS Syntax, SPS Syntax, VPS Syntax, DPS Syntax, and Slice Header Syntax.

[89] Дополнительно, например, информация относительно сегментации и конфигурации и т.д., плитки/группы плиток/кирпича/среза может быть сконфигурирована в оборудовании кодирования на основе высокоуровневого синтаксиса и затем может доставляться (или передаваться) в оборудование декодирования в формате потока битов.[89] Additionally, for example, information regarding segmentation and configuration, etc., tiles/groups of tiles/brick/cut may be configured in the encoding equipment based on a high-level syntax and then delivered (or transmitted) to the decoding equipment in a stream format bits.

[90] Кадр может сегментироваться на одну или более строк плиток и на один или более столбцов плиток. Плитка представляет собой последовательность CTU, покрывающих прямоугольную область кадра. Плитка может сегментироваться на один или более кирпичей, и каждый кирпич может быть сконфигурирован из нескольких CTU-строк. Плитка, которая не сегментируется на множество кирпичей, также может называться "кирпичом". Тем не менее, кирпич, представляющий собой поднабор плитки, не называется "плиткой". Срез может включать в себя несколько плиток или несколько кирпичей плитки.[90] A frame may be segmented into one or more rows of tiles and one or more columns of tiles. A tile is a sequence of CTUs covering a rectangular area of a frame. A tile can be segmented into one or more bricks, and each brick can be configured from multiple CTU rows. A tile that does not segment into multiple bricks may also be referred to as a "brick". However, a brick that is a subset of tiles is not called a "tile". A slice can include multiple tiles or multiple tile bricks.

[91] Фиг. 4 показывает пример процедуры декодирования кадров.[91] FIG. 4 shows an example of a frame decoding procedure.

[92] При кодировании изображений/видео, кадр, который конфигурирует изображение/видео, может кодироваться/декодироваться согласно порядку декодирования. Порядок кадров, который соответствует порядку вывода декодированного кадра, может быть сконфигурирован по-другому по сравнению с порядком декодирования. Так же, при выполнении взаимного прогнозирования на основе сконфигурированного порядка кадров, может выполняться прямое прогнозирование, а также обратное прогнозирование.[92] In image/video encoding, a frame that configures an image/video may be encoded/decoded according to a decoding order. The frame order that corresponds to the output order of the decoded frame may be configured differently compared to the decoding order. Also, when performing inter prediction based on the configured frame order, forward prediction as well as inverse prediction can be performed.

[93] Фиг. 4 показывает общий пример процедуры декодирования кадров, к которой может применяться вариант(ы) осуществления настоящего раскрытия. На фиг. 4, S400 может выполняться посредством энтропийного декодера 310 оборудования декодирования, которое описывается выше на фиг. 3, S410 может выполняться посредством модуля 330 прогнозирования, S420 может выполняться посредством остаточного процессора 320, S430 может выполняться посредством сумматора 340, и S440 может выполняться посредством фильтра 350. S400 может включать в себя процедуру декодирования информации, которая приводится в настоящем описании изобретения, S410 может включать в себя процедуру взаимного/внутреннего прогнозирования, которая приводится в настоящем описании изобретения, S420 может включать в себя процедуру остаточной обработки, которая приводится в настоящем описании изобретения, S430 может включать в себя процедуру восстановления блоков/кадров, которая приводится в настоящем описании изобретения, и S440 может включать в себя процедуру внутриконтурной фильтрации, которая приводится в настоящем описании изобретения.[93] FIG. 4 shows a general example of a frame decoding procedure to which embodiment(s) of the present disclosure may be applied. In FIG. 4, S400 may be performed by the entropy decoder 310 of the decoding equipment as described above in FIG. 3, S410 may be performed by prediction unit 330, S420 may be performed by residual processor 320, S430 may be performed by adder 340, and S440 may be performed by filter 350. S400 may include an information decoding procedure as described in the present specification, S410 may include an inter/intra prediction procedure, which is described in the present specification, S420 may include a residual processing procedure, which is described in the present specification, S430 may include a block/frame recovery procedure, which is described in the present specification , and S440 may include an in-loop filtering procedure, which is described in the present description of the invention.

[94] Ссылаясь на фиг. 4, как описано выше на фиг. 3, процедура декодирования кадров, в общем, может включать в себя процедуру получения информации изображений/видео (S400) из потока битов (посредством декодирования), процедуру восстановления кадров (S410-S430) и процедуру внутриконтурной фильтрации (S440) для восстановленного кадра. Процедура восстановления кадров может выполняться на основе прогнозных выборок и остаточных выборок, которые получаются посредством выполнения процедуры взаимного/внутреннего прогнозирования (S410) и процедуры остаточной обработки (S420, процедур деквантования и обратного преобразования для квантованных коэффициентов преобразования). Посредством выполнения процедуры внутриконтурной фильтрации для восстановленного кадра, который формируется посредством выполнения процедуры восстановления кадров, может формироваться модифицированный восстановленный кадр, и модифицированный восстановленный кадр может выводиться в качестве декодированного кадра, который затем сохраняется в буфере декодированных кадров или в запоминающем устройстве 360 оборудования декодирования таким образом, что он используется в качестве опорного кадра во время процедуры взаимного прогнозирования при выполнении декодирования кадра в более позднем процессе. В некоторых случаях, процедура внутриконтурной фильтрации может пропускаться. Так же, в этом случае, восстановленный кадр может выводиться в качестве декодированного кадра, который затем сохраняется в буфере декодированных кадров или в запоминающем устройстве 360 оборудования декодирования таким образом, что он используется в качестве опорного кадра во время процедуры взаимного прогнозирования при выполнении декодирования кадра в более позднем процессе. Как описано выше, процедура внутриконтурной фильтрации (S440) может включать в себя процедуру фильтрации для удаления блочности, процедуру фильтрации на основе дискретизированного адаптивного смещения (SAO), процедуру адаптивной контурной фильтрации (ALF) и/или процедуру билатеральной фильтрации и т.д., и часть или вся процедура внутриконтурной фильтрации может пропускаться. Дополнительно, одна или часть из процедуры фильтрации для удаления блочности, процедуры фильтрации на основе дискретизированного адаптивного смещения (SAO), процедуры адаптивной контурной фильтрации (ALF) и процедуры билатеральной фильтрации могут последовательно применяться, либо все из процедуры фильтрации для удаления блочности, процедуры фильтрации на основе дискретизированного адаптивного смещения (SAO), процедуры адаптивной контурной фильтрации (ALF) и процедуры билатеральной фильтрации могут последовательно применяться. Например, после того, как процедура фильтрации для удаления блочности применяется к восстановленному кадру, может выполняться SAO-процедура. Альтернативно, например, после того, как процедура фильтрации для удаления блочности применяется к восстановленному кадру, может выполняться ALF-процедура. Это также может выполняться аналогично в оборудовании кодирования.[94] Referring to FIG. 4 as described above in FIG. 3, the frame decoding procedure may generally include a procedure for obtaining image/video information (S400) from a bitstream (by decoding), a frame recovery procedure (S410-S430), and an in-loop filtering procedure (S440) for the reconstructed frame. The frame recovery procedure may be performed based on the predictive samples and the residual samples, which are obtained by performing the inter/intra prediction procedure (S410) and the residual processing procedure (S420, dequantization and inverse transform procedures for quantized transform coefficients). By performing the in-loop filtering procedure on the reconstructed frame, which is generated by performing the frame recovery procedure, a modified reconstructed frame can be generated, and the modified reconstructed frame can be output as a decoded frame, which is then stored in the decoded frame buffer or memory 360 of the decoding equipment, thus that it is used as a reference frame during an inter-prediction procedure when performing frame decoding in a later process. In some cases, the in-loop filtration procedure may be skipped. Also, in this case, the reconstructed frame may be output as a decoded frame, which is then stored in the decoded frame buffer or in the memory 360 of the decoding equipment such that it is used as a reference frame during an inter prediction procedure when performing frame decoding in later process. As described above, the in-loop filtering procedure (S440) may include a deblocking filtering procedure, a sampled adaptive offset (SAO) filtering procedure, an adaptive loop filtering (ALF) procedure, and/or a bilateral filtering procedure, etc., and part or all of the in-loop filtration procedure may be skipped. Additionally, one or part of the deblocking filter procedure, the sampled adaptive offset (SAO) filter procedure, the adaptive loop filter (ALF) procedure, and the bilateral filter procedure may be sequentially applied, or all of the deblock filter procedure, the filter procedure on based on a sampled adaptive offset (SAO), an adaptive loop filtering (ALF) procedure, and a bilateral filtering procedure may be successively applied. For example, after the deblocking filtering procedure is applied to the reconstructed frame, the SAO procedure may be performed. Alternatively, for example, after the deblocking filtering procedure is applied to the reconstructed frame, an ALF procedure may be performed. This can also be done similarly in the coding equipment.

[95] Фиг. 5 показывает пример процедуры кодирования кадров.[95] FIG. 5 shows an example of a frame encoding procedure.

[96] Фиг. 5 показывает общий пример процедуры кодирования кадров, к которой может применяться вариант(ы) осуществления настоящего раскрытия. На фиг. 5, S500 может выполняться посредством модуля 220 прогнозирования оборудования кодирования, которое описывается выше на фиг. 2, S510 может выполняться посредством остаточного процессора 230, и S520 может выполняться посредством энтропийного кодера 240. S500 может включать в себя процедуру взаимного/внутреннего прогнозирования, которая приводится в настоящем описании изобретения, S610 может включать в себя процедуру остаточной обработки, которая приводится в настоящем описании изобретения, и S520 может включать в себя процедуру кодирования информации, которая приводится в настоящем описании изобретения.[96] FIG. 5 shows a general example of a frame encoding procedure to which embodiment(s) of the present disclosure may apply. In FIG. 5, S500 may be performed by the coding equipment prediction unit 220 as described above in FIG. 2, S510 may be performed by a residual processor 230, and S520 may be performed by an entropy encoder 240. S500 may include an inter/intra prediction procedure as described herein, S610 may include a residual processing procedure as described herein. specification, and S520 may include an information encoding procedure that is described in the present specification.

[97] Ссылаясь на фиг. 5, как описано выше на фиг. 2, процедура кодирования кадров, в общем, может включать в себя процедуру кодирования информации для восстановления кадров (например, информации прогнозирования, остаточной информации, информации сегментации и т.д.) и вывода кодированной информации в формате потока битов, а также процедуру формирования восстановленного кадра для текущего кадра и процедуру применения внутриконтурной фильтрации к восстановленному кадру (необязательно). Оборудование кодирования может извлекать остаточные выборки (которые модифицируются) из квантованных коэффициентов преобразования через деквантователь 234 и обратный преобразователь 235, и после этого оборудование кодирования может формировать восстановленный кадр на основе прогнозных выборок, которые представляют собой вывод S500, и (модифицированных) остаточных выборок. Восстановленный кадр, который формируется так, как описано выше, может быть идентичным вышеописанному восстановленному кадру, который формируется в оборудовании декодирования. Модифицированный восстановленный кадр может формироваться посредством выполнения процедуры внутриконтурной фильтрации для восстановленного кадра, который затем сохраняется в буфере декодированных кадров или в запоминающем устройстве 270 оборудования декодирования. Так же, аналогично оборудованию декодирования, модифицированный восстановленный кадр может использоваться в качестве опорного кадра во время процедуры взаимного прогнозирования при кодировании кадра. Как описано выше, в некоторых случаях, часть или вся процедура внутриконтурной фильтрации может пропускаться. Когда процедура внутриконтурной фильтрации выполняется, связанная с (внутриконтурной) фильтрацией информация (параметр) может кодироваться в энтропийном кодере 240 и затем передаваться в формате потока битов, и оборудование декодирования может выполнять процедуру внутриконтурной фильтрации посредством использования идентичного способа со способом в оборудовании кодирования на основе связанной информации фильтрации.[97] Referring to FIG. 5 as described above in FIG. 2, the frame encoding procedure may generally include a procedure for encoding information for frame recovery (e.g., prediction information, residual information, segmentation information, etc.) and outputting the encoded information in a bitstream format, as well as a procedure for generating a reconstructed frame for the current frame and the procedure for applying in-loop filtering to the reconstructed frame (optional). The encoding equipment may extract the residual samples (which are modified) from the quantized transform coefficients via the dequantizer 234 and the inverse transform 235, and thereafter, the encoding equipment may generate a reconstructed frame based on the predictive samples, which are the output of S500, and the (modified) residual samples. The reconstructed frame that is generated as described above may be identical to the above-described reconstructed frame that is generated in the decoding equipment. The modified reconstructed frame may be generated by performing an in-loop filtering procedure on the reconstructed frame, which is then stored in a decoded frame buffer or memory 270 of the decoding equipment. Also, similar to the decoding equipment, the modified reconstructed frame may be used as a reference frame during the inter-prediction procedure in frame encoding. As described above, in some cases, part or all of the in-loop filtering procedure may be skipped. When the in-loop filtering procedure is performed, the (in-loop) filtering-related information (parameter) may be encoded in the entropy encoder 240 and then transmitted in a bitstream format, and the decoding equipment may perform the in-loop filtering procedure by using an identical method with the method in the encoding equipment based on the associated filtering information.

[98] Посредством выполнения вышеописанной процедуры внутриконтурной фильтрации может уменьшаться шум, возникающий при кодировании изображения изображения/движущегося кадра, такой как артефакт блочности и артефакт кольцевания, и может повышаться субъективное/объективное визуальное качество. Дополнительно, за счет того, что как оборудование кодирования, так и оборудование декодирования выполняют процедуру внутриконтурной фильтрации, оборудование кодирования и оборудование декодирования могут извлекать идентичный результат прогнозирования, повышать надежность при кодировании кадров и уменьшать размер (или объем) данных, которые должны передаваться для кодирования кадров.[98] By performing the above-described in-loop filtering procedure, noise occurring in image/moving frame image encoding such as blocking artifact and ringing artifact can be reduced, and subjective/objective visual quality can be improved. Additionally, by having both the encoding equipment and the decoding equipment perform an in-loop filtering procedure, the encoding equipment and the decoding equipment can extract the same prediction result, improve reliability in frame encoding, and reduce the size (or amount) of data that must be transmitted for encoding. frames.

[99] Как описано выше, процедура восстановления кадров может выполняться в оборудовании декодирования, а также в оборудовании кодирования. Восстановленный блок может формироваться для каждой единицы блока на основе внутреннего прогнозирования/взаимного прогнозирования, и может формироваться восстановленный кадр, включающий в себя восстановленные блоки. Когда текущий кадр/срез/группа плиток представляет собой I-кадр/срез/группу плиток, блоки, включенные в текущий кадр/срез/группу плиток, могут восстанавливаться только на основе внутреннего прогнозирования. Между тем, когда текущий кадр/срез/группа плиток представляет собой P- или B-кадр/срез/группу плиток, блоки, включенные в текущий кадр/срез/группа плиток, могут восстанавливаться на основе внутреннего прогнозирования или взаимного прогнозирования. В этом случае, взаимное прогнозирование может применяться к части блоков в текущем кадре/срезе/группе плиток, и внутреннее прогнозирование может применяться к оставшимся блокам. Цветовые компоненты кадра могут включать в себя компонент сигналов яркости и компонент сигналов цветности. Так же, если это явно не ограничивается (или ограничивается) в настоящем описании изобретения, способы и варианты осуществления, которые предлагаются в настоящем описании изобретения, могут применяться к компоненту сигналов яркости и компоненту сигналов цветности.[99] As described above, the frame recovery procedure may be performed in the decoding equipment as well as in the encoding equipment. A reconstructed block may be generated for each block unit based on intra prediction/inter prediction, and a reconstructed frame including the reconstructed blocks may be generated. When the current frame/slice/tile group is an I-frame/slice/tile group, blocks included in the current frame/slice/tile group can only be reconstructed based on intra prediction. Meanwhile, when the current frame/slice/tile group is a P or B frame/slice/tile group, blocks included in the current frame/slice/tile group can be reconstructed based on intra prediction or inter prediction. In this case, inter prediction may be applied to a portion of the blocks in the current frame/slice/tile group, and intra prediction may be applied to the remaining blocks. The color components of a frame may include a luminance signal component and a chrominance signal component. Also, unless expressly limited (or limited) in the present specification, the methods and embodiments provided herein may be applied to the luminance signal component and the chrominance signal component.

[100] Фиг. 6 показывает примерную иерархическую структуру кодированного изображения/видео.[100] FIG. 6 shows an exemplary hierarchical structure of an encoded picture/video.

[101] Ссылаясь на фиг. 6, кодированное изображение/видео может разделяться на слой кодирования видео (VCL), который осуществляет обработку декодирования изображения/видео и обрабатывает непосредственно изображение/видео, подсистему, передающую и сохраняющую кодированную информацию, и слой абстрагирования от сети (NAL), который присутствует между VCL и подсистемой и который обрабатывает функцию сетевой адаптации.[101] Referring to FIG. 6, the encoded image/video may be divided into a video coding layer (VCL) that performs image/video decoding processing and processes the image/video itself, a subsystem that transmits and stores encoded information, and a network abstraction layer (NAL) that exists between VCL and subsystem and which handles the network adaptation function.

[102] VCL может формировать VCL-данные, включающие в себя сжатые данные изображений (данные срезов), либо может формировать набор параметров, включающий в себя такую информацию, как набор параметров кадра (PPS), набор параметров последовательности (SPS), набор параметров видео (VPS) и т.д., или сообщение с дополнительной улучшающей информацией (SEI), которое дополнительно требуется в процессе кодирования изображения.[102] The VCL may generate VCL data including compressed image data (slice data), or may generate a parameter set including information such as a frame parameter set (PPS), a sequence parameter set (SPS), a parameter set video (VPS), etc., or a Supplemental Enhancement Information (SEI) message that is further required in the picture encoding process.

[103] В NAL, NAL-единица может формироваться посредством добавления информации заголовка (заголовка NAL-единицы) в первичную байтовую последовательность данных (RBSP), которая формируется в VCL. В этот момент, RBSP означает данные срезов, набор параметров, SEI-сообщение и т.д., которые формируются в VCL. Заголовок NAL-единицы может включать в себя информацию типа NAL-единиц, которая указывается согласно RBSP-данным, которые включаются в соответствующую NAL-единицу.[103] In NAL, a NAL unit may be generated by adding header information (NAL unit header) to a Primary Data Byte Sequence (RBSP) that is generated in the VCL. At this point, RBSP means slice data, parameter set, SEI message, etc., which are generated in the VCL. The NAL unit header may include NAL unit type information that is indicated according to the RBSP data that is included in the corresponding NAL unit.

[104] Как показано на чертеже, NAL-единица может разделяться на VCL NAL-единицу и не-VCL NAL-единицу согласно RBSP, которая формируется в VCL. VCL NAL-единица может означать NAL-единицу, которая включает в себя информацию относительно изображения (данные срезов), и не-VCL NAL-единица может означать NAL-единицу, которая включает в себя информацию (набор параметров или SEI-сообщение), который необходим для декодирования изображения.[104] As shown in the drawing, the NAL unit may be divided into a VCL NAL unit and a non-VCL NAL unit according to the RBSP that is generated in the VCL. A VCL NAL unit may mean a NAL unit that includes information about an image (slice data), and a non-VCL NAL unit may mean a NAL unit that includes information (parameter set or SEI message) that needed to decode the image.

[105] Вышеописанная VCL NAL-единица и не-VCL NAL-единица могут передаваться через сеть посредством присоединения информации заголовка согласно стандарту данных подсистемы. Например, NAL-единица может преобразовываться в формат данных предварительно определенного стандарта, такого как формат файлов H.266/VVC, транспортный протокол реального времени (RTP), транспортный поток (TS) и т.п., и передаваться через различные сети.[105] The above-described VCL NAL unit and non-VCL NAL unit can be transmitted through the network by attaching header information according to the subsystem data standard. For example, the NAL unit may be converted to a data format of a predetermined standard such as H.266/VVC file format, Real Time Transport Protocol (RTP), Transport Stream (TS) and the like, and transmitted through various networks.

[106] Как описано выше, NAL-единица может указываться с типом NAL-единицы согласно структуре RBSP-данных, которая включается в соответствующую NAL-единицу, и информация относительно типа NAL-единицы может сохраняться в заголовке NAL-единицы и передаваться в служебных сигналах.[106] As described above, a NAL unit may be indicated with a NAL unit type according to an RBSP data structure that is included in the corresponding NAL unit, and information regarding the type of the NAL unit may be stored in the NAL unit header and signaled. .

[107] Например, NAL-единица может классифицироваться на тип VCL NAL-единицы и тип не-VCL NAL-единицы в зависимости от того, включает или нет NAL-единица в себя информацию (данные срезов) относительно изображения. Тип VCL NAL-единицы может классифицироваться согласно природе и типу кадров, включенных в VCL NAL-единицу, и тип не-VCL NAL-единицы может классифицироваться согласно типам наборов параметров.[107] For example, a NAL unit can be classified into a VCL NAL unit type and a non-VCL NAL unit type depending on whether or not the NAL unit includes information (slice data) about an image. The VCL type of the NAL unit may be classified according to the nature and type of frames included in the VCL NAL unit, and the type of the non-VCL NAL unit may be classified according to parameter set types.

[108] Ниже приводится пример типа NAL-единицы, который указывается в соответствии с типом набора параметров, который включается в тип не-VCL NAL-единицы.[108] The following is an example of a NAL unit type that is specified according to a parameter set type that is included in a non-VCL NAL unit type.

[109] - NAL-единица набора параметров адаптации (APS): тип NAL-единицы, включающий в себя APS[109] - Adaptation Parameter Set (APS) NAL unit: A type of NAL unit including APS

[110] - NAL-единица набора параметров декодирования (DPS): тип NAL-единицы, включающий в себя DPS[110] - Decoding Parameter Set (DPS) NAL unit: NAL unit type including DPS

[111] - NAL-единица набора параметров видео (VPS): тип NAL-единицы, включающий в себя VPS[111] - Video Parameter Set (VPS) NAL unit: NAL unit type including VPS

[112] - NAL-единица набора параметров последовательности (SPS): тип NAL-единицы, включающий в себя SPS[112] - Sequence Parameter Set (SPS) NAL unit: A type of NAL unit including SPS

[113] - NAL-единица набора параметров кадра (PPS): тип NAL-единицы, включающий в себя PPS[113] - Frame Parameter Set (PPS) NAL unit: NAL unit type including PPS

[114] - NAL-единица заголовка кадра (PH): тип NAL-единицы, включающий в себя PH[114] - Frame Header NAL Unit (PH): NAL unit type including PH

[115] Вышеуказанные типы NAL-единиц могут иметь синтаксическую информацию для типа NAL-единицы, и синтаксическая информация может сохраняться в заголовке NAL-единицы и передаваться в служебных сигналах. Например, синтаксическая информация может представлять собой nal_unit_type, и типы NAL-единиц могут указываться посредством значения nal_unit_type.[115] The above NAL unit types may have syntax information for the NAL unit type, and the syntax information may be stored in the NAL unit header and signaled. For example, the syntax information may be nal_unit_type, and NAL unit types may be indicated by the value of nal_unit_type.

[116] Между тем, как описано выше, один кадр может включать в себя множество срезов, и один срез может включать в себя заголовок среза и данные срезов. В этом случае, один заголовок кадра дополнительно может добавляться во множество срезов (заголовок среза и набор данных срезов) в одном кадре. Заголовок кадра (синтаксис заголовков кадра) может включать в себя информацию/параметры, обычно применимую к кадру. Заголовок среза (синтаксис заголовков срезов) может включать в себя информацию/параметры, обычно применимые к срезу. APS (APS-синтаксис) или PPS (PPS-синтаксис) может включать в себя информацию/параметры, обычно применимые к одному или более срезов либо кадров. SPS (SPS-cинтаксис) может включать в себя информацию/параметры, обычно применимые к одной или более последовательностей. VPS (VPS-синтаксис) может включать в себя информацию/параметры, обычно применимые к нескольким слоям. DPS (DPS-синтаксис) может включать в себя информацию/параметры, обычно применимые к полному видео. DPS может включать в себя информацию/параметры, связанную с конкатенацией кодированной видеопоследовательности (CVS). В настоящем описании изобретения, высокоуровневый синтаксис (HLS) может включать в себя по меньшей мере одно из APS-синтаксиса, PPS-синтаксиса, SPS-cинтаксиса, VPS-синтаксиса, DPS-синтаксиса, синтаксиса заголовков кадра и синтаксиса заголовков срезов.[116] Meanwhile, as described above, one frame may include a plurality of slices, and one slice may include a slice header and slice data. In this case, one frame header may additionally be added to a plurality of slices (a slice header and a slice data set) in one frame. The frame header (frame header syntax) may include information/parameters typically applicable to a frame. The slice header (slice header syntax) may include information/parameters typically applicable to the slice. APS (APS Syntax) or PPS (PPS Syntax) may include information/parameters generally applicable to one or more slices or frames. SPS (SPS Syntax) may include information/parameters generally applicable to one or more sequences. VPS (VPS Syntax) may include information/parameters typically applicable to multiple layers. DPS (DPS Syntax) may include information/parameters generally applicable to the full video. The DPS may include information/parameters related to coded video sequence (CVS) concatenation. In the present specification, the High Level Syntax (HLS) may include at least one of APS Syntax, PPS Syntax, SPS Syntax, VPS Syntax, DPS Syntax, Frame Header Syntax, and Slice Header Syntax.

[117] В настоящем описании, изображение/информация изображений, кодированная из оборудования кодирования и передаваемая в служебных сигналах в оборудование декодирования в формате потока битов, включает в себя не только информацию, связанную с сегментацией в кадре, информацию внутреннего/взаимного прогнозирования, остаточную информацию, информацию внутриконтурной фильтрации и т.п., но также и информацию, включенную в заголовок среза, информацию, включенную в APS, информацию, включенную в PPS, информацию, включенную в SPS, и/или информацию, включенную в VPS.[117] In the present description, the image/image information encoded from the encoding equipment and signaled to the decoding equipment in a bitstream format includes not only information related to segmentation in a frame, intra/inter prediction information, residual information , in-loop filtering information, and the like, but also information included in a slice header, information included in APS, information included in PPS, information included in SPS, and/or information included in VPS.

[118] Между тем, как описано выше, высокоуровневый синтаксис (HLS) может кодироваться/передаваться в служебных сигналах для кодирования видео/изображений. Кодированный кадр может быть сконфигурирован из одного или более срезов. Параметр, описывающий кодированный кадр, передается в служебных сигналах в заголовке кадра, и параметр, описывающий срез, передается в служебных сигналах в заголовке среза. Заголовок кадра переносится в собственном формате NAL-единиц. Так же, заголовок среза присутствует в начале (или в начальной точке) NAL-единицы, включающей в себя рабочие данные среза (т.е. данные срезов).[118] Meanwhile, as described above, high-level syntax (HLS) may be encoded/transmitted in signaling for video/image coding. An encoded frame may be configured from one or more slices. A parameter describing the encoded frame is signaled in the frame header, and a parameter describing the slice is signaled in the slice header. The frame header is carried in native NAL unit format. Also, a slice header is present at the start (or start point) of a NAL unit including the slice payload data (ie, slice data).

[119] Каждый кадр ассоциирован с заголовком кадра. Кадр может быть сконфигурирован из различных типов срезов (внутренне кодированного среза (т.е. I-среза) и взаимно кодированных срезов (т.е. P-среза и B-среза)). Следовательно, заголовок кадра может включать в себя синтаксические элементы, которые требуются во внутреннем срезе кадра и взаимном срезе кадра.[119] Each frame is associated with a frame header. A frame may be configured from different types of slices (intra-coded slice (ie, I-slice) and inter-coded slices (ie, P-slice and B-slice)). Therefore, the frame header may include syntax elements that are required in an inner frame slice and a mutual frame slice.

[120] Кадр может сегментироваться (или разделяться) на субкадры, плитки и/или срезы. Передача в служебных сигналах субкадров может присутствовать в наборе параметров последовательности (SPS). Так же, передача в служебных сигналах плиток и квадратных срезов может присутствовать в наборе параметров кадра (PPS). Передача в служебных сигналах срезов на основе растрового сканирования может присутствовать в заголовке среза.[120] A frame may be segmented (or split) into subframes, tiles, and/or slices. A transmission in subframe signaling may be present in a sequence parameter set (SPS). Also, tile and square slice signaling may be present in the Frame Parameter Set (PPS). A raster scan-based slicing signaling may be present in the slicing header.

[121] Например, относительно сегментации кадра, синтаксические элементы, показанные ниже в таблице 1, могут включаться в SPS-cинтаксис.[121] For example, regarding frame segmentation, the syntax elements shown in Table 1 below may be included in the SPS syntax.

[122] Табл. 1[122] Tab. 1

[123] Синтаксические элементы, показанные ниже в таблице 2, могут включаться в PPS-синтаксис.[123] The syntax elements shown in Table 2 below may be included in the PPS syntax.

[124] Табл. 2[124] Tab. 2

[125] [125]

[126] В таблице 2, num_slices_in_tile_minus1[i]+1 указывает число срезов в текущей плитке, когда i-ый срез включает в себя поднабор CTU-строк в одной плитке. Значение num_slices_in_tile_minus1[i] должно находиться в пределах диапазона включительно от 0 до RowHeight[tileY]-1. В данном документе, tileY представляет собой индекс строки плиток, включающей в себя i-ый срез. Когда num_slices_in_tile_minus1[i] не присутствует в PPS, значение num_slices_in_tile_minus1[i] извлекается в качестве 0.[126] In Table 2, num_slices_in_tile_minus1[i]+1 indicates the number of slices in the current tile when the i-th slice includes a subset of CTU rows in one tile. The value of num_slices_in_tile_minus1[i] must be within the range, inclusive, from 0 to RowHeight[tileY]-1. In this document, tileY is the index of the row of tiles that includes the i-th slice. When num_slices_in_tile_minus1[i] is not present in the PPS, the value of num_slices_in_tile_minus1[i] is retrieved as 0.

[127] slice_height_in_ctu_minus1[i]+1 указывает высоту i-ого прямоугольного среза в единицах CTU-строк, когда i-ый срез включает в себя поднабор CTU-строк в одной плитке. Значение slice_height_in_ctu_minus1[i] должно находиться в пределах диапазона включительно от 0 до RowHeight[tileY]-1. В данном документе, tileY представляет собой индекс строки плиток, включающей в себя i-ый срез.[127] slice_height_in_ctu_minus1[i]+1 indicates the height of the i-th rectangular slice in units of CTU rows when the i-th slice includes a subset of CTU rows in one tile. The value of slice_height_in_ctu_minus1[i] must be between 0 and RowHeight[tileY]-1, inclusive. In this document, tileY is the index of the row of tiles that includes the i-th slice.

[128] Синтаксические элементы, показанные ниже в таблице 3, могут включаться в синтаксис заголовков срезов.[128] The syntax elements shown in Table 3 below may be included in the slice header syntax.

[129] Табл. 3[129] Tab. 3

[130] Ссылаясь на таблицы 1-3, в текущем проектном решении по плиткам и срезам, прямоугольный срез может включать в себя одну или более плиток. Альтернативно, прямоугольный срез может включать в себя целое число (или общее число) CTU-строк в одной плитке.[130] Referring to Tables 1-3, in the current tile and slice design, a rectangular slice may include one or more tiles. Alternatively, the rectangular slice may include an integer number (or total number) of CTU rows in one tile.

[131] Когда прямоугольный срез включает в себя целое число (или общее число) CTU-строк в одной плитке (это соответствует случаю, в котором плитка сегментируется на два или более срезов), в текущей передаче служебных сигналов, высота каждого среза явно передается в служебных сигналах. Тем не менее, этот тип передачи служебных сигналов не представляет собой оптимальный способ передачи служебных сигналов.[131] When a rectangular slice includes an integer (or total number) of CTU rows in one tile (this corresponds to the case in which a tile is segmented into two or more slices), in current signaling, the height of each slice is explicitly conveyed in service signals. However, this type of signaling is not an optimal signaling method.

[132] Схема срезов в одной плитке может включать в себя случай, в котором высоты срезов в плитке являются равномерными за исключением последнего среза, и случай, в котором высоты срезов в плитке не являются равномерными. Когда высоты срезов в плитке являются равномерными за исключением последнего среза, поскольку высоты всех срезов за исключением последнего среза в плитке являются идентичными, только высота одного среза может просто передаваться в служебных сигналах без необходимости явно передавать в служебных сигналах высоту каждого среза. Когда высоты срезов в плитке не являются равномерными, высота каждого среза в плитке должна передаваться в служебных сигналах.[132] The pattern of cuts in one tile may include a case in which the cut heights in the tile are uniform except for the last cut, and a case in which the cut heights in the tile are not uniform. When the heights of slices in a tile are uniform except for the last slice, since the heights of all slices except for the last slice in a tile are identical, only the height of one slice can be simply signaled without the need to explicitly signal the height of each slice. When slice heights in a tile are not uniform, the height of each slice in a tile must be signaled.

[133] Нижеприведенные чертежи проиллюстрированы для того, чтобы описывать подробный пример(ы) настоящего описания изобретения. Подробные термины оборудования (или устройства) или подробные термины сигнала(ов)/информации, указываемых на чертежах, являются просто примерными. Так же, в силу этого, технические характеристики настоящего описания изобретения не должны быть ограничены только подробными терминами, используемыми на нижеприведенных чертежах.[133] The following drawings are illustrated in order to describe a detailed example(s) of the present description of the invention. The detailed terms of the equipment (or device) or the detailed terms of the signal(s)/information indicated in the drawings are merely exemplary. Also, because of this, the technical characteristics of the present description of the invention should not be limited only by the detailed terms used in the following drawings.

[134] Настоящее описание изобретения предоставляет следующие способы для того, чтобы разрешать вышеописанные проблемы. Пункты каждого способа могут применяться независимо либо могут применяться в комбинации.[134] The present description of the invention provides the following methods in order to solve the above problems. The points of each method may be used independently or may be used in combination.

[135] Например, когда одна плитка включает в себя два или более срезов, число высот срезов, явно передаваемых в служебных сигналах в CTU-строках, может передаваться в служебных сигналах. Это может называться "синтаксическим элементом num_exp_slice_in_tile". В этом случае, синтаксические элементы (массив slice_row_height_minus1) для индексов начиная с от 0 до num_exp_slice_in_tile-1 могут передаваться в служебных сигналах. Это может передаваться в служебных сигналах в качестве ue(v) или u(v), и число битов, передающих в служебных сигналах такие синтаксические элементы, может варьироваться в соответствии с числом CTU-строк в плитке. В данном документе, ue(v) представляет кодированный экспоненциальным кодом Голомба синтаксический элемент 0-ого порядка, и u(v) указывает то, что v битов используются, при этом значение v варьируется в соответствии со значением других синтаксических элементов.[135] For example, when one tile includes two or more slices, the number of slice heights explicitly signaled in the CTU lines may be signaled. This may be referred to as the "num_exp_slice_in_tile syntax element". In this case, syntax elements (array slice_row_height_minus1) for indices ranging from 0 to num_exp_slice_in_tile-1 may be signaled. This may be signaled as ue(v) or u(v), and the number of bits signaling such syntax elements may vary according to the number of CTU lines in the tile. In this document, ue(v) represents the ES-Golomb encoded 0th order syntax element, and u(v) indicates that v bits are used, with the value of v varying according to the value of the other syntax elements.

[136] Высоте каждого среза начиная с первого среза до n-ого среза в плитке присваиваются значения slice_row_height_minus1+1 начиная с 0 до num_exp_slice_in_tile-1, соответственно. В данном документе, n равно числу срезов, явно передаваемых в служебных сигналах в плитке (num_exp_slice_in_tile).[136] The height of each slice from the first slice to the nth slice in a tile is assigned slice_row_height_minus1+1 values from 0 to num_exp_slice_in_tile-1, respectively. In this document, n is equal to the number of slices explicitly signaled in a tile (num_exp_slice_in_tile).

[137] Хотя оставшиеся CTU-строки, которые больше num_exp_slice_in_tile_minus1+1 и (явно) передаются в служебных сигналах в последний раз в плитке, по-прежнему присутствуют, новый срез задается в плитке. Другими словами, срез(ы), который(е) явно не передается(ются) в служебных сигналах, присутствует(ют) в плитке. Последний срез может иметь высоту, которая равна или меньше num_exp_slice_in_tile_minus1+1, который в последний раз передан в служебных сигналах.[137] Although the remaining CTU rows that are greater than num_exp_slice_in_tile_minus1+1 and (explicitly) signaled last in the tile are still present, a new slice is defined in the tile. In other words, slice(s) that(s) are not explicitly signaled are present(s) in the tile. The last slice may have a height that is equal to or less than the num_exp_slice_in_tile_minus1+1 that was last signaled.

[138] В качестве другого примера, когда одна плитка включает в себя два или более срезов, число срезов, включаемых в плитку, может передаваться в служебных сигналах. В этом случае, флаг, указывающий то, являются или нет высоты каждого среза в плитке равномерными, может передаваться в служебных сигналах. Когда высоты каждого среза в плитке являются равномерными, только одна высота среза может передаваться в служебных сигналах из CTU-строк. Высота каждого среза в плитке может извлекаться на основе передаваемой в служебных сигналах высоты среза. Так же, когда высоты каждого среза в плитке не являются равномерными, высоты каждого среза за исключением последнего среза в плитке могут явно передаваться в служебных сигналах.[138] As another example, when one tile includes two or more slices, the number of slices included in the tile may be signaled. In this case, a flag indicating whether or not the heights of each slice in the tile are uniform may be signaled. When the heights of each slice in a tile are uniform, only one slice height can be signaled from the CTU lines. The height of each slice in the tile may be derived based on the signaled slice height. Also, when the heights of each slice in a tile are not uniform, the heights of each slice except for the last slice in the tile may be signaled explicitly.

[139] В настоящем описании изобретения, информация относительно среза(ов) и/или плитки(ок) может включать в себя информационный элемент и/или синтаксический элемент(ы), раскрытые в таблицах 1-3. Информация изображений/видео может включать в себя высокоуровневый синтаксис (HLS), раскрытый в таблицах 1-3, и высокоуровневый синтаксис (HLS) может включать в себя информацию, связанную со срезом(ами), и/или информацию, связанную с плиткой(ками). Информация, связанная со срезом(ами), может включать в себя информацию, указывающую один или более срезов в пределах текущего кадра, и информация, связанная с плиткой(ками), может включать в себя информацию, указывающую одну или более плиток в пределах текущего кадра. Плитка, включающая в себя один или более срезов, и срез, включающий в себя одну или более плиток, могут присутствовать в кадре.[139] In the present specification, information regarding slice(s) and/or tile(s) may include the information element and/or syntax element(s) disclosed in Tables 1-3. The image/video information may include the High Level Syntax (HLS) disclosed in Tables 1-3 and the High Level Syntax (HLS) may include information associated with slice(s) and/or information associated with tile(s). ). The information associated with the slice(s) may include information indicating one or more slices within the current frame, and the information associated with the tile(s) may include information indicating one or more tiles within the current frame. . A tile including one or more slices and a slice including one or more tiles may be present in a frame.

[140] В качестве варианта осуществления, чтобы представлять сегментированную структуру кадра, синтаксисы, показанные ниже в таблице 4, и семантика, показанная ниже в таблице 5, могут использоваться для PPS.[140] As an option, to represent a segmented frame structure, the syntaxes shown in Table 4 below and the semantics shown in Table 5 below may be used for PPS.

[141] Табл. 4[141] Tab. 4

[142] Табл. 5[142] Tab. 5

num_exp_slices_in_tile[i] плюс 1 указывает число exp_slice_height_in_ctu_minus1[j], присутствующих в PPS. Если не присутствуют, значение num_exp_slices_in_tile_minus1[i] логически выводится равным 0
exp_slice_height_in_ctu_minus1[j] плюс 1 указывает j-ую явно передаваемую в служебных сигналах высоту среза в единицах CTU-строк для случая, в котором i-ый срез содержит поднабор CTU-строк из одной плитки. Значение exp_slice_height_in_ctu_minus1[j] должно составлять в диапазоне от 0 до RowHeightp[tileY]-1, включительно, где tileY является индексом строки плиток, содержащим срезы.
num_exp_slices_in_tile[i] plus 1 indicates the number of exp_slice_height_in_ctu_minus1[j] present in the PPS. If not present, the value of num_exp_slices_in_tile_minus1[i] is inferred to be 0
exp_slice_height_in_ctu_minus1[j] plus 1 indicates the j-th explicitly signaled slice height in units of CTU-rows for the case in which the i-th slice contains a subset of CTU-rows from one tile. The value of exp_slice_height_in_ctu_minus1[j] must be in the range 0 to RowHeightp[tileY]-1, inclusive, where tileY is the index of the tile row containing the slices.

[143] Ссылаясь на таблицу 4 и таблицу 5, num_exp_slices_in_tile[i]+1 представляет число exp_slice_height_in_ctu_minus1[j], присутствующих в PPS. Когда num_exp_slices_in_tile[i] не присутствует в PPS, значение num_exp_slices_in_tile_minus1[i] извлекается в качестве 0.[143] Referring to Table 4 and Table 5, num_exp_slices_in_tile[i]+1 represents the number of exp_slice_height_in_ctu_minus1[j] present in the PPS. When num_exp_slices_in_tile[i] is not present in the PPS, the value of num_exp_slices_in_tile_minus1[i] is retrieved as 0.

[144] exp_slice_height_in_ctu_minus1[j]+1 указывает высоту j-ого прямоугольного среза, явно передаваемого в служебных сигналах в единицах CTU-строк, когда i-ый срез включает в себя поднабор CTU-строк в одной плитке. Значение exp_slice_height_in_ctu_minus1[j] должно находиться в пределах диапазона включительно от 0 до RowHeight[tileY]-1. В данном документе, tileY представляет собой индекс строки плиток, включающей в себя срез.[144] exp_slice_height_in_ctu_minus1[j]+1 indicates the height of the j-th rectangular slice explicitly signaled in units of CTU-rows when the i-th slice includes a subset of CTU-rows in one tile. The value of exp_slice_height_in_ctu_minus1[j] must be between 0 and RowHeight[tileY]-1, inclusive. In this document, tileY is the index of the row of tiles that includes the slice.

[145] Таким образом, num_exp_slices_in_tile[i] может называться "информацией (информацией по числу)" относительно числа срезов, имеющих высоту, явно передаваемую в служебных сигналах в плитке текущего кадра. Так же, exp_slice_height_in_ctu_minus1[j] может называться "информацией (информацией высоты)" относительно высоты каждого среза, имеющего высоту, явно передаваемую в служебных сигналах.[145] Thus, num_exp_slices_in_tile[i] may be referred to as "information (number information)" regarding the number of slices having a height explicitly signaled in the tile of the current frame. Also, exp_slice_height_in_ctu_minus1[j] may be referred to as "information (height information)" regarding the height of each slice having a height explicitly signaled.

[146] Информация по числу и информация высоты могут представлять собой кодированный экспоненциальным кодом Голомба синтаксический элемент.[146] The number information and the height information may be an exponential Golomb encoded syntax element.

[147] Информация по числу может синтаксически анализироваться на основе информации относительно ширины и высоты среза, включающего в себя плитку. Когда плитка включает в себя i-ый срез, информация ширины среза, включающего в себя плитку, может соответствовать синтаксическому элементу slice_width_in_tiles_minus1[i], и информация высоты среза, включающего в себя плитку, может соответствовать синтаксическому элементу slice_height_in_tiles_minus1[i]. I-ый срез может представлять собой прямоугольный срез, и срезы в плитке также могут сегментироваться на прямоугольные срезы.[147] The number information may be parsed based on information regarding the width and height of the slice including the tile. When the tile includes the i-th slice, the width information of the slice including the tile may correspond to the slice_width_in_tiles_minus1[i] syntax element, and the height information of the slice including the tile may correspond to the slice_height_in_tiles_minus1[i] syntax element. The ith slice may be a rectangular slice, and slices in a tile may also be segmented into rectangular slices.

[148] Например, оборудование кодирования может формировать информацию по числу и информацию высоты на основе информации относительно срезов текущего кадра. Информация по числу и информация высоты могут включаться в информацию изображений и передаваться в служебных сигналах в оборудование декодирования в формате потока битов.[148] For example, the encoding equipment may generate number information and height information based on information regarding slices of the current frame. The number information and the height information may be included in the image information and signaled to the decoding equipment in a bitstream format.

[149] Когда информация по числу синтаксически анализируется из PPS, как показано в таблице 4, оборудование декодирования может синтаксически анализировать информацию высоты из PPS на основе информации по числу. Например, когда значение информации по числу равно n (при этом n является целым числом, равным или большим 0), оборудование декодирования может синтаксически анализировать информацию высоты на n срезов (начиная с нулевого среза до (n-1)-ого среза в плитке) из PPS. Информация высоты может указывать каждую из высоты нулевого среза - высоты (n-1)-ого среза в строках единиц дерева кодирования (CTU).[149] When the number information is parsed from the PPS as shown in Table 4, the decoding equipment can parse the height information from the PPS based on the number information. For example, when the value of the number information is n (where n is an integer equal to or greater than 0), the decoding equipment can parse the height information into n slices (starting from the zero slice to the (n-1)th slice in the tile) from PPS. The height information may indicate each of the height of the zero slice - the height of the (n-1)th slice in the coding tree unit (CTU) lines.

[150] После этого, оборудование декодирования может извлекать высоты оставшихся срезов в плитке на основе высоты (n-1)-ого среза. Более конкретно, оборудование декодирования может извлекать высоты оставшихся срезов за исключением последнего среза в плитке начиная с n-ого среза в плитке как равные более высокой для (n-1)-ого среза. Для этого, оборудование декодирования может сравнивать оставшуюся высоту плитки, которая вычисляется посредством вычитания суммы высот срезов начиная с нулевого среза до (n-1)-ого среза из общей высоты плитки, с тем чтобы определять то, равна или выше либо нет оставшаяся высота равномерной высоты среза. В данном документе, равномерный срез может означать срезы, имеющие равномерную высоту (идентичную высоту) в плитке. Таким образом, высота равномерного среза может быть идентичной высоте (n-1)-ого среза.[150] Thereafter, the decoding equipment may extract the heights of the remaining slices in the tile based on the height of the (n-1)th slice. More specifically, the decoding hardware may extract the heights of the remaining slices except for the last slice in the tile, starting from the nth slice in the tile as being higher for the (n-1)th slice. For this, the decoding equipment may compare the remaining tile height, which is calculated by subtracting the sum of the slice heights from the zero slice to the (n-1)th slice, from the total tile height, so as to determine whether or not the remaining height of the uniform cutting height. As used herein, uniform cut may mean cuts having a uniform height (identical height) in a tile. Thus, the height of the uniform slice may be identical to the height of the (n-1)th slice.

[151] Когда оставшаяся высота плитки равна или выше высоты равномерного среза, высота n-ого среза может извлекаться в качестве высоты равномерного среза. Так же, когда оставшаяся высота плитки меньше высоты равномерного среза, высота n-ого среза может извлекаться в качестве оставшейся высоты. Дополнительно, когда оставшаяся высота плитки равна или выше высоты равномерного среза, обновленная оставшаяся высота может извлекаться посредством вычитания высоты n-ого среза из оставшейся высоты. Так же, когда обновленная оставшаяся высота равна или выше высоты равномерного среза, оборудование декодирования может извлекать высоту (n+1)-ого среза в качестве высоты равномерного среза. Когда обновленная оставшаяся высота меньше высоты равномерного среза, оборудование декодирования может извлекать высоту высоты (n+1)-ого среза в качестве обновленной оставшейся высоты. Таким образом, за исключением последнего среза в плитке, высота срезов начиная с n-ого среза до последнего среза может извлекаться в качестве равномерной высоты. Высота последнего среза может быть равной или меньшей высоты каждого равномерного среза (срезов начиная с (n-1)-ого среза до среза непосредственно перед последним срезом).[151] When the remaining tile height is equal to or higher than the uniform slice height, the height of the n-th slice may be extracted as the uniform slice height. Also, when the remaining height of the tile is less than the uniform slice height, the height of the nth slice can be extracted as the remaining height. Additionally, when the remaining tile height is equal to or greater than the uniform slice height, the updated remaining height may be derived by subtracting the height of the nth slice from the remaining height. Also, when the updated remaining height is equal to or higher than the uniform slice height, the decoding equipment may extract the height of the (n+1)th slice as the uniform slice height. When the updated remaining height is less than the uniform slice height, the decoding equipment may extract the height of the (n+1)th slice height as the updated remaining height. Thus, with the exception of the last slice in a tile, the height of the slices from the nth slice to the last slice can be extracted as a uniform height. The height of the last slice can be equal to or less than the height of each even slice (slices from the (n-1)th slice to the slice just before the last slice).

[152] В качестве примера, когда 5 срезов включаются в одну плитку, и когда информация по числу указывает 3, информация высоты для первого-третьего срезов в плитке может синтаксически анализироваться из PPS, и высота четвертого среза в плитке может извлекаться как имеющего высоту, идентичную высоте третьего среза. В этом случае, высота пятого среза может быть большей или меньшей высоты четвертого среза.[152] As an example, when 5 slices are included in one tile, and when the number information indicates 3, the height information for the first to third slices in the tile can be parsed from the PPS, and the height of the fourth slice in the tile can be extracted as having a height, identical to the height of the third cut. In this case, the height of the fifth slice may be greater or less than the height of the fourth slice.

[153] Оборудование декодирования может извлекать число срезов в плитке посредством выполнения вышеописанной процедуры сканирования. Когда значение информации по числу больше 0, процедура извлечения информации относительно высоты каждого среза в плитке и информации относительно числа срезов в плитке может указываться так, как показано ниже в таблице 5.[153] The decoding equipment can extract the number of slices in a tile by performing the above-described scanning procedure. When the number information value is greater than 0, the procedure for extracting information regarding the height of each slice in a tile and information regarding the number of slices in a tile may be indicated as shown in Table 5 below.

[154] Табл. 6[154] Tab. 6

Let tileHeight be equal to RowHeigh[tileY] - Пусть tileHeight равен RowHeigh[tileY] [155] В случае прямоугольного среза, список NumCtuInSlice[i] для i в диапазоне включительно от 0 до num_slices_in_pic_minus1 может указывать число CTU в i-ом срезе, матрица CtbAddrInSlice[i][j] для i в диапазоне включительно от 0 до num_slices_in_pic_minus1 и j в диапазоне включительно от 0 до numCtuInSlice[i]-1 указывает адрес растрового сканирования кадра j-ого CTB в i-ом срезе и может извлекаться так, как показано ниже в таблице 7.Let tileHeight be equal to RowHeigh[tileY] - Let tileHeight be equal to RowHeigh[tileY] [155] In the case of a rectangular slice, the NumCtuInSlice[i] list for i in the range 0 to num_slices_in_pic_minus1 inclusive can indicate the number of CTUs in the i-th slice, the matrix CtbAddrInSlice[i][j] for i in the range 0 to num_slices_in_pic_minus1 inclusive and j in the range 0 to numCtuInSlice[i]-1 inclusive specifies the raster scan address of the j-th CTB frame in the i-th slice and can be extracted as shown below in table 7.

[156] Табл. 7[156] Tab. 7

[157] В качестве другого варианта осуществления, чтобы представлять сегментированную структуру кадра, синтаксисы, показанные ниже в таблице 8, и семантика, показанная ниже в таблице 9, могут использоваться для PPS.[157] As another embodiment, to represent a segmented frame structure, the syntaxes shown in Table 8 below and the semantics shown in Table 9 below may be used for PPS.

[158] Табл. 8[158] Tab. 8

[159][159]

Табл. 9Tab. 9 uniform_slice_spacing_flag[i], равный 1, указывает то, CTU-строки распределяются равномерно по плитке, и передается в служебных сигналах с использованием синтаксических элементов uniform_slice_height_in_ctu_minus1[i]; uniform_slice_spacing_flag[i], равный 0, указывает то, CTU-строки могут или не могут распределяться равномерно по плитке, и передается в служебных сигналах с использованием синтаксических элементов num_slices_in_tile_minus1[i] и slice_height_in_ctu_minus1[i].
slice_rows_height_in_ctu_minus1[i] плюс 1 указывает высоту среза за исключением последнего среза плитки в единицах CTB, когда uniform_slice_spacing_flag[i] равен 1. Значение slice_rows_height_in_ctu_minus1[i] должно составлять в диапазоне от 0 до RowHeightp[tileY]-1, включительно, где tileY является индексом строки плиток, содержащим срезы
num_slices_in_tile_minus1[i] плюс 1 указывает число срезов текущей плитки для случая, в котором i-ый срез содержит поднабор CTU-строк из одной плитки, и uniform_slice_spacing_flag[i] равен 1. Значение num_slices_in_tile_minus1[i] должно составлять в диапазоне от 0 до RowHeight[tileY]-1, включительно, где tileY является индексом строки плиток, содержащим срезы. Если не присутствует, значение num_slices_in_tile_minus1[i] логически выводится равным 0.
slice_height_in_ctu_minus1[j] плюс 1 указывает высоту i-го прямоугольного среза в единицах CTU-строк для случая, в котором i-ый срез содержит поднабор CTU-строк из одной плитки. Значение slice_height_in_ctu_minus1[j] должно составлять в диапазоне от 0 до RowHeightp[tileY]-1, включительно, где tileY является индексом строки плиток, содержащим i-ый срез.
uniform_slice_spacing_flag[i] equal to 1 indicates that the CTU lines are evenly spaced over the tile and is signaled using the uniform_slice_height_in_ctu_minus1[i] syntax elements; uniform_slice_spacing_flag[i] equal to 0 indicates whether CTU lines may or may not be evenly spaced across the tile, and is signaled using the num_slices_in_tile_minus1[i] and slice_height_in_ctu_minus1[i] syntax elements.
slice_rows_height_in_ctu_minus1[i] plus 1 specifies the height of the slice excluding the last tile slice in CTB units when uniform_slice_spacing_flag[i] is 1. The value of slice_rows_height_in_ctu_minus1[i] must be between 0 and RowHeightp[tileY]-1, inclusive, where tileY is the index of the row of tiles containing the slices
num_slices_in_tile_minus1[i] plus 1 specifies the number of slices of the current tile for the case where the i-th slice contains a subset of CTU rows from the same tile, and uniform_slice_spacing_flag[i] is 1. The value of num_slices_in_tile_minus1[i] must be between 0 and RowHeight [tileY]-1, inclusive, where tileY is the index of the row of tiles containing the slices. If not present, the value num_slices_in_tile_minus1[i] is inferred to be 0.
slice_height_in_ctu_minus1[j] plus 1 specifies the height of the i-th rectangular slice in units of CTU-rows for the case in which the i-th slice contains a subset of CTU-rows from one tile. The value of slice_height_in_ctu_minus1[j] must be in the range 0 to RowHeightp[tileY]-1, inclusive, where tileY is the index of the row of tiles containing the i-th slice.

[160] Ссылаясь на таблицу 8 и таблицу 9, если значение uniform_slice_spacing_flag[i] равно 1, оно указывает то, что CTU-строки равномерно распределяются (или рассеиваются) по всей плитке и передаются в служебных сигналах посредством использования синтаксических элементов uniform_slice_height_in_ctu_minus1[i]. Если значение uniform_slice_spacing_flag[i] равно 0, оно указывает то, что CTU-строки могут или не могут равномерно распределяться (или рассеиваться) по всей плитке и передаются в служебных сигналах посредством использования синтаксических элементов num_slices_in_tile_minus1[i] и slice_height_in_ctu_minus1[i].[160] Referring to Table 8 and Table 9, if the value of uniform_slice_spacing_flag[i] is 1, it indicates that the CTU lines are evenly distributed (or scattered) over the entire tile and signaled through the use of syntax elements uniform_slice_height_in_ctu_minus1[i] . If the value of uniform_slice_spacing_flag[i] is 0, it indicates that CTU lines may or may not be evenly distributed (or scattered) over the entire tile and are signaled through the use of the num_slices_in_tile_minus1[i] and slice_height_in_ctu_minus1[i] syntax elements.

[161] Когда значение uniform_slice_spacing_flag[i] равно 1, slice_rows_height_in_ctu_minus1[i]+1 указывает высоту срезов за исключением последнего среза плитки в единицах CTB. Значение slice_height_in_ctu_minus1[i] должно находиться в пределах диапазона включительно от 0 до RowHeight[tileY]-1. В данном документе, tileY представляет собой индекс строки плиток, включающей в себя срезы.[161] When the value of uniform_slice_spacing_flag[i] is 1, slice_rows_height_in_ctu_minus1[i]+1 indicates the height of the slices except for the last tile slice in CTB units. The value of slice_height_in_ctu_minus1[i] must be between 0 and RowHeight[tileY]-1, inclusive. In this document, tileY is the index of a row of tiles that includes slices.

[162] num_slices_in_tile_minus1[i]+1 указывает число срезов в текущей плитке, когда i-ый срез включает в себя поднабор CTU-строк в одной плитке, и когда значение uniform_slice_spacing_flag[i] равно 0. Значение num_slices_in_tile_minus1[i] должно находиться в пределах диапазона включительно от 0 до RowHeight[tileY]-1. В данном документе, tileY представляет собой индекс строки плиток, включающей в себя i-ый срез. Когда num_slices_in_tile_minus1[i] не присутствует, значение num_slices_in_tile_minus1[i] извлекается в качестве 0.[162] num_slices_in_tile_minus1[i]+1 indicates the number of slices in the current tile when the i-th slice includes a subset of CTU rows in one tile, and when the value of uniform_slice_spacing_flag[i] is 0. The value of num_slices_in_tile_minus1[i] must be in within the range inclusive from 0 to RowHeight[tileY]-1. In this document, tileY is the index of the row of tiles that includes the i-th slice. When num_slices_in_tile_minus1[i] is not present, the value of num_slices_in_tile_minus1[i] is retrieved as 0.

[163] slice_height_in_ctu_minus1[i]+1 указывает высоту i-ого прямоугольного среза в единицах CTU-строк, когда i-ый срез включает в себя поднабор CTU-строк в одной плитке. Значение slice_height_in_ctu_minus1[i] должно находиться в пределах диапазона включительно от 0 до RowHeight[tileY]-1. В данном документе, tileY представляет собой индекс строки плиток, включающей в себя i-ый срез.[163] slice_height_in_ctu_minus1[i]+1 indicates the height of the i-th rectangular slice in units of CTU rows when the i-th slice includes a subset of CTU rows in one tile. The value of slice_height_in_ctu_minus1[i] must be between 0 and RowHeight[tileY]-1, inclusive. In this document, tileY is the index of the row of tiles that includes the i-th slice.

[164] Например, оборудование кодирования может формировать по меньшей мере один из uniform_slice_spacing_flag, slice_rows_height_in_ctu_minus1, num_slices_in_tile_minus1 и slice_height_in_ctu_minus1 на основе информации относительно срезов текущего кадра.[164] For example, the encoding equipment may generate at least one of uniform_slice_spacing_flag, slice_rows_height_in_ctu_minus1, num_slices_in_tile_minus1, and slice_height_in_ctu_minus1 based on information regarding slices of the current frame.

[165] Когда uniform_slice_spacing_flag синтаксически анализируется из PPS, как показано в таблице 8, оборудование декодирования может синтаксически анализировать slice_rows_height_in_ctu_minus1 или num_slices_in_tile_minus1 из PPS на основе значения uniform_slice_spacing_flag. Например, если значение uniform_slice_spacing_flag равно 1, оборудование декодирования может синтаксически анализировать slice_rows_height_in_ctu_minus1 из PPS и затем может извлекать синтаксически проанализированный результат в качестве высоты оставшихся срезов за исключением последнего среза в плитке на основе значения slice_rows_height_in_ctu_minus1. Если значение uniform_slice_spacing_flag равно 0, оборудование декодирования может синтаксически анализировать num_slices_in_tile_minus1 и slice_height_in_ctu_minus1 из PPS и может извлекать срезы в плитке на основе синтаксически проанализированного результата.[165] When the uniform_slice_spacing_flag is parsed from the PPS as shown in Table 8, the decoding hardware may parse slice_rows_height_in_ctu_minus1 or num_slices_in_tile_minus1 from the PPS based on the uniform_slice_spacing_flag value. For example, if the uniform_slice_spacing_flag value is 1, the decoding hardware may parse slice_rows_height_in_ctu_minus1 from the PPS and may then extract the parsed result as the height of the remaining slices excluding the last slice in the tile based on the slice_rows_height_in_ctu_minus1 value. If the value of uniform_slice_spacing_flag is 0, the decoding hardware may parse num_slices_in_tile_minus1 and slice_height_in_ctu_minus1 from the PPS and may extract slices in a tile based on the parsed result.

[166] Например, переменные NumSlicesInTileMinus1[i] и SliceHeightInCtuMinus1[i+k], которые связаны с информацией по числу и информацией высоты срезов в плитке, могут извлекаться так, как показано ниже. В данном документе, k может находиться в пределах диапазона включительно от 0 до numSlicesInTileMinus1[i].[166] For example, the variables NumSlicesInTileMinus1[i] and SliceHeightInCtuMinus1[i+k], which are associated with information on the number and height information of slices in a tile, can be retrieved as shown below. In this document, k may be within the range 0 to numSlicesInTileMinus1[i], inclusive.

[167] Табл. 10[167] Tab. 10

[168] В случае прямоугольного среза, список NumCtuInSlice[i] для i в диапазоне включительно от 0 до num_slices_in_pic_minus1 может указывать число CTU в i-ом срезе, матрица CtbAddrInSlice[i][j] для i в диапазоне включительно от 0 до num_slices_in_pic_minus1 и j в диапазоне включительно от 0 до numCtuInSlice[i]-1 указывает адрес растрового сканирования кадра j-ого CTB в i-ом срезе и может извлекаться так, как показано ниже в таблице 11.[168] In the case of a rectangular slice, the list NumCtuInSlice[i] for i in the range 0 to num_slices_in_pic_minus1 inclusive may indicate the number of CTUs in the i-th slice, the matrix CtbAddrInSlice[i][j] for i in the range 0 to num_slices_in_pic_minus1 inclusive, and j in the range inclusive from 0 to numCtuInSlice[i]-1 indicates the raster scan address of the j-th CTB frame in the i-th slice and can be extracted as shown in Table 11 below.

[169] Табл. 11[169] Tab. eleven

[170] Фиг. 7 и фиг. 8, соответственно, показывают общие примеры способа кодирования видео/изображений и связанного компонента согласно варианту осуществления настоящего раскрытия.[170] FIG. 7 and FIG. 8 respectively show general examples of a video/image coding method and an associated component according to an embodiment of the present disclosure.

[171] Способ кодирования видео/изображений, раскрытый на фиг. 7, может осуществляться посредством оборудования 200 кодирования (видео/изображений), которое раскрывается на фиг. 2 и фиг. 8. Более конкретно, например, S700 по фиг. 7 может выполняться посредством модуля 210 сегментации изображений оборудования 200 кодирования, и S710 может выполняться посредством модуля 220 прогнозирования оборудования 200 кодирования. S720 может выполняться посредством остаточного процессора 230 оборудования 200 кодирования, и S730 и S740 могут выполняться посредством энтропийного кодера 240 оборудования 200 кодирования. Способ кодирования видео/изображений, раскрытый на фиг. 7, может включать в себя варианты осуществления, которые описываются выше в настоящем описании изобретения.[171] The video/image coding method disclosed in FIG. 7 may be performed by the encoding (video/image) equipment 200 as disclosed in FIG. 2 and FIG. 8. More specifically, for example, the S700 of FIG. 7 may be performed by the image segmentation unit 210 of the encoding equipment 200, and S710 may be performed by the prediction unit 220 of the encoding equipment 200. S720 may be performed by the residual processor 230 of the encoding equipment 200, and S730 and S740 may be performed by the entropy encoder 240 of the encoding equipment 200. The video/image coding method disclosed in FIG. 7 may include the embodiments that are described above in the present specification.

[172] Более конкретно, ссылаясь на фиг. 7 и фиг. 8, модуль 210 сегментации изображений оборудования кодирования может извлекать срезы в плитке текущего кадра (S700). Например, модуль 210 сегментации изображений может сегментировать входное изображение (или кадр, кинокадр) на одну или более CU. Входное изображение может включать в себя один или более кадров. Кадр может сегментироваться на одну или более плиток, кирпичей, срезов и/или групп плиток. Срез может включать в себя один или более кирпичей, плиток и/или групп плиток. Кирпич может включать в себя одну или более CTU-строк. Группа плиток может включать в себя одну или более плиток. Плитка может включать в себя одну или более CTU. CTU может сегментироваться на одну или более CU. Когда конкретный срез в пределах текущего кадра представляет собой прямоугольный срез, модуль 210 сегментации изображений может сегментировать прямоугольный срез на множество плиток, и из множества плиток, модуль 210 сегментации изображений может сегментировать по меньшей мере одну плитку и затем извлекать множество прямоугольных срезов.[172] More specifically, referring to FIG. 7 and FIG. 8, the image segmentation unit 210 of the encoding equipment may extract slices in a tile of the current frame (S700). For example, image segmentation module 210 may segment an input image (or frame, movie frame) into one or more CUs. The input image may include one or more frames. A frame may be segmented into one or more tiles, bricks, slices, and/or groups of tiles. A slice may include one or more bricks, tiles, and/or groups of tiles. A brick may include one or more CTU rows. A tile group may include one or more tiles. A tile may include one or more CTUs. A CTU may be segmented into one or more CUs. When a particular slice within the current frame is a rectangular slice, image segmentation module 210 may segment the rectangular slice into a plurality of tiles, and from the plurality of tiles, image segmentation module 210 may segment at least one tile and then extract a plurality of rectangular slices.

[173] Модуль 220 прогнозирования оборудования кодирования может выполнять по меньшей мере одно из внутреннего прогнозирования или взаимного прогнозирования для текущего блока на основе срезов, которые извлекаются в модуле 210 сегментации изображений, и затем может формировать прогнозные выборки (блок прогнозирования) и связанную с прогнозированием информацию текущего блока (S710). Модуль 220 прогнозирования может определять то, применяется или нет внутреннее прогнозирование, либо то, применяется или нет взаимное прогнозирование в текущем блоке или единицах CU. Модуль 220 прогнозирования может доставлять разнообразную информацию, связанную с прогнозированием (связанную с прогнозированием информацию), в энтропийный кодер 240. В данном документе, связанная с прогнозированием информация может включать в себя информацию, связанную с режимом взаимного прогнозирования, и информацию, связанную с режимом внутреннего прогнозирования. Когда режим прогнозирования текущего блока представляет собой режим взаимного прогнозирования, прогнозные выборки могут формироваться в модуле 221 взаимного прогнозирования модуля 220 прогнозирования. Так же, когда режим прогнозирования текущего блока представляет собой режим внутреннего прогнозирования, прогнозные выборки могут формироваться в модуле 222 внутреннего прогнозирования модуля 220 прогнозирования.[173] The coding equipment prediction unit 220 may perform at least one of intra prediction or inter prediction for the current block based on the slices that are extracted in the image segmentation unit 210, and then may generate prediction samples (prediction unit) and prediction related information current block (S710). Prediction module 220 may determine whether intra prediction is applied or not, or whether inter prediction is applied or not in the current block or CUs. The prediction unit 220 may deliver a variety of prediction-related information (prediction-related information) to the entropy encoder 240. Here, the prediction-related information may include information related to the inter-prediction mode and information related to the intra prediction mode. forecasting. When the prediction mode of the current block is an inter prediction mode, prediction samples may be generated in the inter prediction unit 221 of the prediction unit 220 . Also, when the prediction mode of the current block is an intra prediction mode, prediction samples may be generated in the intra prediction unit 222 of the prediction unit 220 .

[174] Остаточный процессор 230 оборудования кодирования может формировать остаточные выборки и остаточную информацию на основе прогнозных выборок, сформированных из модуля 220 прогнозирования, и исходного кадра (исходного блока, исходных выборок) (S720). В данном документе, остаточная информация представляет собой информацию, связанную с остаточными выборками, и остаточная информация может включать в себя информацию, связанную с (квантованными) коэффициентами преобразования для остаточных выборок.[174] The encoding equipment residual processor 230 may generate residual samples and residual information based on the predictive samples generated from the predictor 220 and the original frame (original block, original samples) (S720). Here, the residual information is information associated with the residual samples, and the residual information may include information associated with the (quantized) transform coefficients for the residual samples.

[175] Сумматор (или модуль восстановления) оборудования кодирования может формировать восстановленные выборки (восстановленный кадр, восстановленный блок, массив восстановленных выборок) посредством суммирования остаточных выборок, которые формируются в остаточном процессоре 230, и прогнозных выборок, которые формируются в модуле 221 взаимного прогнозирования или модуле 222 внутреннего прогнозирования.[175] An adder (or reconstruction module) of the encoding equipment may generate reconstructed samples (recovered frame, reconstructed block, array of reconstructed samples) by summing the residual samples that are generated in the residual processor 230 and the predictive samples that are generated in the inter prediction module 221, or module 222 internal prediction.

[176] Энтропийный кодер 240 оборудования кодирования может формировать информацию, связанную с сегментацией на основе структуры сегментации, которая извлекается в модуле 210 сегментации изображений. Связанная с сегментацией информация может включать в себя информацию (информацию по числу) относительно числа срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах в плитке, и информацию (информацию высоты) относительно высоты срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах. Например, энтропийный кодер 240 может формировать информацию по числу, связанную с числом срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах (предоставленную) в плитке, и информацию высоты, связанную с высотой срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах (предоставленную) на основе срезов, которые извлекаются в модуле 210 сегментации изображений (S730). В данном документе, информация по числу может включать в себя вышеописанный синтаксический элемент(ы) num_exp_slices_in_tile и/или num_slices_in_tile_minus1. Информация высоты может включать в себя вышеописанный синтаксический элемент(ы) exp_slice_height_in_ctu_minus1, slice_rows_height_in_ctu_minus1 и/или slice_height_in_ctu_minus1.[176] The entropy encoder 240 of the encoding equipment may generate segmentation-related information based on the segmentation structure that is retrieved in the image segmentation module 210 . The segmentation related information may include information (number information) about the number of slices each having a height explicitly signaled in the tile and information (height information) about the height of the slices each having a height explicitly signaled in the tile. in service signals. For example, entropy encoder 240 may generate number information associated with the number of slices each having a height explicitly signaled in signaling (provided) in a tile and height information associated with the height of slices each having a height explicitly signaled in overhead signals (provided) based on the slices that are extracted in the image segmentation unit 210 (S730). Herein, the number information may include the num_exp_slices_in_tile and/or num_slices_in_tile_minus1 syntax element(s) described above. The height information may include the exp_slice_height_in_ctu_minus1, slice_rows_height_in_ctu_minus1, and/or slice_height_in_ctu_minus1 syntax element(s) described above.

[177] Энтропийный кодер 240 может кодировать информацию изображений, включающую в себя связанную с сегментацией информацию, которая включает в себя информацию по числу и информацию высоты, связанную с прогнозированием информацию, которая формируется в модуле 220 прогнозирования, и/или остаточную информацию, которая формируется в остаточном процессоре 230 (S740). Информация, которая кодируется в энтропийном кодере 240, может выводиться в формате потока битов. Поток битов может передаваться в оборудование декодирования через сеть или носитель хранения данных.[177] Entropy encoder 240 may encode image information including segmentation-related information that includes number information and height information, prediction-related information that is generated in prediction unit 220, and/or residual information that is generated in the residual processor 230 (S740). The information that is encoded in the entropy encoder 240 may be output in a bitstream format. The bit stream may be transmitted to the decoding equipment via a network or a storage medium.

[178] Например, энтропийный кодер 240 может включать в себя информацию изображений, которая включает в себя синтаксический элемент num_exp_slices_in_tile в качестве информации по числу и синтаксический элемент exp_slice_height_in_ctu_minus1 в качестве информации высоты на основе вышеописанной таблицы 4 и таблицы 5. Информация высоты может указывать высоту срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах в плитке в единицах CTU-строк, и, для этого, информация высоты может включать в себя синтаксические элементы для срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах. Число синтаксических элементов, включаемых в информацию изображений, может быть идентичным значению информации по числу.[178] For example, the entropy encoder 240 may include image information that includes the num_exp_slices_in_tile syntax element as number information and the exp_slice_height_in_ctu_minus1 syntax element as height information based on Table 4 and Table 5 above. The height information may indicate the height of the slices. , each of which has a height explicitly signaled in the tile in units of CTU-lines, and, for this, the height information may include syntax elements for slices, each of which has a height explicitly signaled in the signaling. The number of syntax elements included in the image information may be the same as the information value in number.

[179] В качестве другого примера, энтропийный кодер 240 может кодировать информацию изображений, включающую в себя синтаксические элементы uniform_slice_spacing_flag, num_slices_in_tile_minus1, slice_rows_height_in_ctu_minus1 и/или slice_height_in_ctu_minus1 на основе вышеописанной таблицы 8 и таблицы 9. Синтаксические элементы num_slices_in_tile_minus1, slice_rows_height_in_ctu_minus1 и slice_height_in_ctu_minus1 могут включаться или могут не включаться в информацию изображений на основе значения uniform_slice_spacing_flag.[179] As another example, entropy encoder 240 may encode image information including uniform_slice_spacing_flag, num_slices_in_tile_minus1, slice_rows_height_in_ctu_minus1, and/or slice_height_in_ctu_minus1 syntax elements based on Table 8 and Table 9 above. _tile_minus1, slice_rows_height_in_ctu_minus1 and slice_height_in_ctu_minus1 may or may not be included not included in image information based on uniform_slice_spacing_flag value.

[180] Энтропийный кодер 240 может передавать в служебных сигналах информацию по числу и информацию высоты через набор параметров кадра (PPS) в информации изображений. В этом случае, энтропийный кодер 240 может включать в себя информацию по числу и/или информацию высоты посредством использования способа кодирования экспоненциальным кодом Голомба.[180] The entropy encoder 240 may signal the number information and the height information via a frame parameter set (PPS) in the image information. In this case, entropy encoder 240 may include number information and/or height information by using an exponential Golomb encoding method.

[181] Фиг. 9 и фиг. 10, соответственно, показывают общие примеры способа декодирования видео/изображений и связанного компонента согласно варианту осуществления настоящего раскрытия.[181] FIG. 9 and FIG. 10 respectively show general examples of a video/image decoding method and an associated component according to an embodiment of the present disclosure.

[182] Способ декодирования видео/изображений, раскрытый на фиг. 9, может осуществляться посредством оборудования 300 декодирования (видео/изображений), которое раскрывается на фиг. 3 и фиг. 10. Более конкретно, например, S900-S920 по фиг. 9 могут выполняться посредством энтропийного декодера 310 оборудования декодирования. Так же, S930 по фиг. 9 может выполняться посредством остаточного процессора 320, модуля 330 прогнозирования и сумматора 340 оборудования декодирования. Способ декодирования видео/изображений, раскрытый на фиг. 9, может включать в себя варианты осуществления, которые описываются выше в настоящем описании изобретения.[182] The video/image decoding method disclosed in FIG. 9 may be performed by the (video/image) decoding equipment 300 as disclosed in FIG. 3 and FIG. 10. More specifically, for example, S900-S920 of FIG. 9 can be performed by the entropy decoder 310 of the decoding equipment. Likewise, the S930 of FIG. 9 may be performed by the residual processor 320, the prediction unit 330, and the adder 340 of the decoding equipment. The video/image decoding method disclosed in FIG. 9 may include embodiments as described above in the present specification.

[183] Ссылаясь на фиг. 9 и фиг. 10, энтропийный декодер 310 оборудования декодирования может получать связанную с сегментацией информацию, остаточную информацию, связанную с прогнозированием информацию (информацию дифференцирования взаимного/внутреннего прогнозирования, информацию режима внутреннего прогнозирования, информацию режима взаимного прогнозирования и т.д.), связанную с внутриконтурной фильтрацией информацию и т.д., из потока битов. В данном документе, связанная с сегментацией информация может включать в себя информацию (информацию по числу) относительно числа срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах, из срезов в плитке текущего кадра, информацию (информацию высоты) относительно высоты срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах и т.д.[183] Referring to FIG. 9 and FIG. 10, the entropy decoder 310 of the decoding equipment can acquire segmentation related information, residual information, prediction related information (inter/intra prediction differentiation information, intra prediction mode information, inter prediction mode information, etc.), in-loop filtering related information. etc., from the bit stream. Herein, the segmentation-related information may include information (number information) regarding the number of slices each having a height explicitly signaled from the slices in a tile of the current frame, information (height information) regarding the height of the slices, each of which has a height explicitly signaled, and so on.

[184] Например, энтропийный декодер 310 может синтаксически анализировать информацию (информацию по числу), связанную с числом срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах, из срезов в плитке текущего кадра, из потока битов (S900), и может синтаксически анализировать информацию (информацию высоты), связанную с высотой срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах из потока битов на основе информации по числу (S910). Более конкретно, энтропийный декодер 310 может синтаксически анализировать информацию по числу и информацию высоты из набора параметров кадра (PPS) потока битов на основе вышеописанной таблицы 4. В данном документе, информация по числу может синтаксически анализироваться на основе информации относительно ширины и высоты среза, включающего в себя плитку. В этот момент, срез, включающий в себя плитку и/или срезы в плитке, может представлять собой прямоугольный срез(ы). Информация по числу и информация высоты могут представлять собой кодированные экспоненциальным кодом Голомба синтаксические элементы. Информация высоты может включать в себя синтаксические элементы для каждого среза, имеющего высоту, явно передаваемую в служебных сигналах. Число синтаксических элементов может быть идентичным значению информации по числу.[184] For example, the entropy decoder 310 may parse information (number information) related to the number of slices, each of which has a height explicitly signaled in the signaling, from the slices in the tile of the current frame, from the bitstream (S900), and can parse information (height information) related to the height of the slices each having a height explicitly signaled from the bitstream based on the number information (S910). More specifically, the entropy decoder 310 may parse the number information and height information from the frame parameter set (PPS) of the bitstream based on Table 4 above. Here, the number information may be parsed based on information regarding the width and height of a slice including tile. At this point, the cut including the tile and/or cuts in the tile may be a rectangular cut(s). The number information and the height information may be exponential Golomb encoded syntax elements. The height information may include syntax elements for each slice having a height explicitly signaled. The number of syntax elements may be identical to the value of the number information.

[185] Например, энтропийный декодер 310 может синтаксически анализировать синтаксические элементы slice_width_in_tiles_minus1 и slice_height_in_tiles_minus1 из набора параметров кадра (PPS) на основе таблицы 4, и энтропийный декодер 310 может синтаксически анализировать синтаксический элемент num_exp_slices_in_tile из набора параметров кадра (PPS) на основе значений синтаксических элементов slice_width_in_tiles_minus1 и slice_height_in_tiles_minus1. Так же, энтропийный декодер 310 может синтаксически анализировать число exp_slice_height_in_ctu_minus1, которое является эквивалентным значению синтаксического элемента num_exp_slices_in_tile из набора параметров кадра (PPS).[185] For example, entropy decoder 310 may parse the slice_width_in_tiles_minus1 and slice_height_in_tiles_minus1 syntax elements from a frame parameter set (PPS) based on Table 4, and entropy decoder 310 may parse the num_exp_slices_in_tile syntax element from a frame parameter set (PPS) based on values of syntax elements slice_width_in_tiles_minus1 and slice_height_in_tiles_minus1. Also, the entropy decoder 310 may parse the number exp_slice_height_in_ctu_minus1, which is equivalent to the value of the num_exp_slices_in_tile syntax element from the Frame Parameter Set (PPS).

[186] Когда значение информации по числу равно n, энтропийный декодер 310 может извлекать высоты нулевого среза - (n-1)-ого среза в плитке на основе информации высоты. Так же, энтропийный декодер 310 может извлекать высоту n-ого среза в плитке на основе высоты (n-1)-ого среза. Таким образом, высота n-ого среза может извлекаться как идентичная высоте (n-1)-ого среза. В данном документе, n-ый срез может не представлять собой последний срез в плитке. Другими словами, энтропийный декодер 310 может извлекать высоты оставшихся срезов (срезов, которые явно не передаются в служебных сигналах) за исключением последнего среза в плитке как имеющие высоту, идентичную высоте (n-1)-ого среза. Следовательно, высоты срезов начиная с n-ого среза до последнего среза в плитке могут быть равномерными за исключением последнего среза в плитке. Энтропийный декодер 310 может извлекать высоту последнего среза в плитке на основе оставшейся высоты после вычитания высот других срезов в плитке из высоты плитки. Когда высоты всех срезов в плитке извлекаются, энтропийный декодер 310 может извлекать число срезов в плитке (S920). В данном документе, число срезов в плитке может соответствовать числу срезов начиная с нулевого среза до последнего среза в плитке.[186] When the value of the number information is n, the entropy decoder 310 may extract the heights of the zero slice - (n-1)th slice in the tile based on the height information. Also, entropy decoder 310 may extract the height of the nth slice in the tile based on the height of the (n-1)th slice. Thus, the height of the n-th slice can be extracted as being identical to the height of the (n-1)-th slice. In this document, the nth slice may not be the last slice in the tile. In other words, the entropy decoder 310 may extract the heights of the remaining slices (slices that are not explicitly signaled) except for the last slice in the tile as having the same height as the (n-1)th slice height. Therefore, the slice heights from the nth slice to the last slice in the tile can be uniform except for the last slice in the tile. Entropy decoder 310 may extract the height of the last slice in the tile based on the remaining height after subtracting the heights of other slices in the tile from the height of the tile. When the heights of all the slices in a tile are extracted, the entropy decoder 310 may extract the number of slices in the tile (S920). In this document, the number of slices in a tile may correspond to the number of slices from slice zero to the last slice in the tile.

[187] Оборудование 300 декодирования может декодировать текущий кадр на основе срезов текущего кадра, которые извлекаются посредством выполнения вышеописанных процедур (S930). Более конкретно, остаточный процессор 320 оборудования декодирования может формировать остаточные выборки на основе остаточной информации, которая получается из энтропийного декодера 310. Модуль 330 прогнозирования оборудования декодирования может выполнять взаимное прогнозирование и/или внутреннее прогнозирование на основе связанной с прогнозированием информации, которая получается из энтропийного декодера 310, с тем чтобы формировать прогнозные выборки. Сумматор 340 оборудования декодирования может формировать восстановленные выборки на основе прогнозных выборок, которые формируются в модуле 330 прогнозирования, и остаточных выборках, которые формируются в остаточном процессоре 320. Так же, сумматор 340 оборудования декодирования может формировать восстановленный кадр (восстановленный блок) на основе восстановленных выборок.[187] The decoding equipment 300 may decode the current frame based on slices of the current frame that are extracted by performing the above procedures (S930). More specifically, decoding equipment residual processor 320 may generate residual samples based on residual information that is obtained from entropy decoder 310. Decoding equipment prediction unit 330 may perform inter-prediction and/or intra prediction based on prediction-related information that is obtained from entropy decoder. 310 in order to form predictive samples. The decoding equipment adder 340 may generate reconstructed samples based on the predictive samples that are generated in the prediction module 330 and the residual samples that are generated in the residual processor 320. Also, the decoding equipment adder 340 can generate a reconstructed frame (reconstructed block) based on the reconstructed samples. .

[188] После этого, процедура внутриконтурной фильтрации, такая как процедуры фильтрации для удаления блочности, SAO-процедуры и/или ALF-процедуры, может применяться к восстановленному кадру по мере необходимости, чтобы повышать субъективное/объективное качество кадров.[188] Thereafter, an in-loop filtering procedure, such as deblocking filtering procedures, SAO procedures, and/or ALF procedures, may be applied to the reconstructed frame as needed to improve the subjective/objective quality of the frames.

[189] Между тем, в качестве другого примера, энтропийный декодер 310 может синтаксически анализировать синтаксические элементы slice_width_in_tiles_minus1 и slice_height_in_tiles_minus1 из набора параметров кадра (PPS) потока битов на основе таблицы 8, и энтропийный декодер 310 может синтаксически анализировать синтаксический элемент uniform_slice_spacing_flag из набора параметров кадра (PPS) на основе значений синтаксических элементов slice_width_in_tiles_minus1 и slice_height_in_tiles_minus1. В этом случае, энтропийный декодер 310 может синтаксически анализировать синтаксический элемент slice_rows_height_in_ctu_minus1 или синтаксически анализировать синтаксический элемент num_slices_in_tile_minus1 из набора параметров кадра (PPS) на основе значения синтаксического элемента uniform_slice_spacing_flag. Синтаксический элемент slice_rows_height_in_ctu_minus1 может синтаксически анализироваться, когда значение синтаксического элемента uniform_slice_spacing_flag равно 1, и синтаксический элемент num_slices_in_tile_minus1 может синтаксически анализироваться, когда значение синтаксического элемента uniform_slice_spacing_flag равно 0.[189] Meanwhile, as another example, the entropy decoder 310 may parse the slice_width_in_tiles_minus1 and slice_height_in_tiles_minus1 syntax elements from the frame parameter set (PPS) of the bitstream based on table 8, and the entropy decoder 310 may parse the uniform_slice_spacing_flag parser from the parameter set frame (PPS) based on the values of the slice_width_in_tiles_minus1 and slice_height_in_tiles_minus1 syntax elements. In this case, the entropy decoder 310 may parse the slice_rows_height_in_ctu_minus1 syntax element or parse the num_slices_in_tile_minus1 syntax element from the Frame Parameter Set (PPS) based on the value of the uniform_slice_spacing_flag syntax element. The slice_rows_height_in_ctu_minus1 syntax element can be parsed when the value of the uniform_slice_spacing_flag syntax element is 1, and the num_slices_in_tile_minus1 syntax element can be parsed when the value of the uniform_slice_spacing_flag syntax element is 0.

[190] Когда синтаксический элемент slice_rows_height_in_ctu_minus1 синтаксически анализируется, энтропийный декодер 310 может извлекать высоты оставшихся срезов за исключением последнего среза в плитке в качестве значения slice_rows_height_in_ctu_minus1.[190] When the slice_rows_height_in_ctu_minus1 syntax element is parsed, the entropy decoder 310 may extract the heights of the remaining slices except for the last slice in the tile as the slice_rows_height_in_ctu_minus1 value.

[191] Когда синтаксический элемент num_slices_in_tile_minus1 синтаксически анализируется, энтропийный декодер 310 может синтаксически анализировать число синтаксического элемента slice_height_in_ctu_minus1, соответствующее значению синтаксического элемента num_slices_in_tile_minus1, и значения могут извлекаться в качестве высот каждого среза в плитке, соответственно.[191] When the num_slices_in_tile_minus1 syntax element is parsed, the entropy decoder 310 may parse the slice_height_in_ctu_minus1 syntax element number corresponding to the value of the num_slices_in_tile_minus1 syntax element, and the values may be extracted as the heights of each slice in the tile, respectively.

[192] Хотя способы описываются на основе блок-схемы последовательности операций способа, на которой этапы или блоки перечисляются в последовательности в вышеописанных вариантах осуществления, этапы настоящего документа не ограничены определенным порядком, и определенный этап может выполняться на другом этапе или в другом порядке либо одновременно относительно того, что описано выше. Дополнительно, специалисты в данной области техники должны понимать, что этапы блок-схем последовательности операций способа не являются единственно возможными, и другой этап может включаться, либо один или более этапов на блок-схеме последовательности операций способа могут удаляться без влияния на объем настоящего документа.[192] Although the methods are described based on a flowchart in which steps or blocks are listed in sequence in the above-described embodiments, the steps of this document are not limited to a certain order, and a certain step may be performed in a different step or in a different order or simultaneously. regarding what is described above. Additionally, those skilled in the art will appreciate that the steps in the flowcharts are not the only ones possible, and another step may be included, or one or more steps in the flowchart may be removed without affecting the scope of this document.

[193] Вышеуказанный способ согласно настоящему документу может осуществляться в форме программного обеспечения, и оборудование кодирования и/или оборудование декодирования согласно настоящему документу могут включаться в устройство для выполнения обработки изображений, например, в телевизор, компьютер, смартфон, абонентскую приставку, устройство отображения и т.п.[193] The above method according to the present document may be implemented in the form of software, and the encoding equipment and/or decoding equipment according to the present document may be included in an apparatus for performing image processing, such as a TV, a computer, a smartphone, a set-top box, a display device, and etc.

[194] Когда варианты осуществления настоящего документу реализуются посредством программного обеспечения, вышеуказанный способ может реализовываться посредством модуля (процесса или функции), который выполняет вышеуказанную функцию. Модуль может сохраняться в запоминающем устройстве и выполняться посредством процессора. Запоминающее устройство может устанавливаться внутри или снаружи процессора и может соединяться с процессором через различные известные средства. Процессор может включать в себя специализированную интегральную схему (ASIC), другие наборы микросхем, логическую схему и/или устройство обработки данных. Запоминающее устройство может включать в себя постоянное запоминающее устройство (ROM), оперативное запоминающее устройство (RAM), флэш-память, карту памяти, носитель хранения данных и/или другое устройство хранения данных. Другими словами, варианты осуществления согласно настоящему документу могут реализовываться и выполняться на процессоре, микропроцессоре, контроллере или микросхеме. Например, функциональные модули, проиллюстрированные на соответствующих чертежах, могут реализовываться и выполняться на компьютере, процессоре, микропроцессоре, контроллере или микросхеме. В этом случае, информация относительно реализации (например, информация относительно инструкций) или алгоритмы могут сохраняться на цифровом носителе хранения данных.[194] When the embodiments of this document are implemented by software, the above method may be implemented by a module (process or function) that performs the above function. The module may be stored in a storage device and executed by a processor. The storage device may be installed inside or outside the processor and may be connected to the processor through various known means. The processor may include an application specific integrated circuit (ASIC), other chipsets, logic, and/or a data processing device. The storage device may include Read Only Memory (ROM), Random Access Memory (RAM), flash memory, a memory card, a storage medium, and/or other storage device. In other words, the embodiments of this document may be implemented and executed on a processor, microprocessor, controller, or chip. For example, the functional modules illustrated in the respective drawings may be implemented and executed on a computer, processor, microprocessor, controller, or chip. In this case, implementation information (eg, information regarding instructions) or algorithms may be stored on a digital storage medium.

[195] Помимо этого, оборудование декодирования и оборудование кодирования, к которым применяется вариант(ы) осуществления настоящего документа, могут включаться в широковещательное мультимедийное приемо-передающее устройство, терминал мобильной связи, видеоустройство системы домашнего кинотеатра, видеоустройство системы цифрового кинотеатра, камеру наблюдения, устройство проведения видеочатов и устройство связи в реальном времени, к примеру, видеосвязи, мобильное устройство потоковой передачи, носитель хранения данных, записывающую видеокамеру, поставщик услуг на основе технологии "видео по запросу (VoD)", видеоустройство поверх сетей (OTT), поставщик услуг потоковой передачи по Интернету, трехмерное видеоустройство, устройство в стиле виртуальной реальности (VR), устройство в стиле дополненной реальности (AR), телефонное видеоустройство, терминал в транспортном средстве (например, терминал в транспортном средстве (в том числе в автономном транспортном средстве), терминал в воздушном судне или терминал в морском судне) и медицинское видеоустройство; и могут использоваться для того, чтобы обрабатывать сигнал изображения или данные. Например, OTT-видеоустройство может включать в себя игровую консоль, Blu-Ray-проигрыватель, телевизор с доступом в Интернет, систему домашнего кинотеатра, смартфон, планшетный PC и цифровое записывающее видеоустройство (DVR).[195] In addition, the decoding equipment and encoding equipment to which the embodiment(s) of the present document applies may be included in a broadcast multimedia transceiver, a mobile communication terminal, a home theater system video device, a digital cinema system video device, a surveillance camera, video chatting device and real-time communication device, such as video communication, mobile streaming device, storage media, video recording camera, video-on-demand (VoD) service provider, video device over networks (OTT), service provider Internet streaming device, 3D video device, virtual reality (VR) style device, augmented reality (AR) style device, telephone video device, in-vehicle terminal (e.g., in-vehicle terminal (including autonomous vehicle), aircraft terminal or ship terminal) and medical video device; and may be used to process the image signal or data. For example, an OTT video device may include a game console, a Blu-ray player, an Internet TV, a home theater system, a smartphone, a tablet PC, and a digital video recorder (DVR).

[196] Помимо этого, способ обработки, к которому применяется вариант(ы) осуществления настоящего документа, может формироваться в форме программы, выполняемой посредством компьютера, и может сохраняться на компьютерно-читаемом носителе записи. Мультимедийные данные, имеющие структуру данных согласно варианту(ам) осуществления настоящего документа, также могут сохраняться на компьютерно-читаемом носителе записи. Компьютерно-читаемый носитель записи включает в себя все виды устройств хранения данных и устройств распределенного хранения данных, на которых сохраняются компьютерно-читаемые данные. Компьютерно-читаемый носитель записи может включать в себя, например, Blu-Ray-диск (BD), универсальную последовательную шину (USB), ROM, PROM, EPROM, EEPROM, RAM, CD-ROM, магнитную ленту, гибкий диск и оптическое устройство хранения данных. Компьютерно-читаемый носитель записи также включает в себя среды, осуществленные в форме несущей волны (например, передачи по Интернету). Помимо этого, поток битов, сформированный посредством способа кодирования, может сохраняться на компьютерно-читаемом носителе записи или передаваться через сеть проводной или беспроводной связи.[196] In addition, the processing method to which the embodiment(s) of the present document is applied may be formed in the form of a program executable by a computer and may be stored in a computer-readable recording medium. The multimedia data having the data structure according to the embodiment(s) of the present document may also be stored in a computer-readable recording medium. The computer-readable recording medium includes all kinds of storage devices and distributed storage devices that store computer-readable data. The computer-readable recording medium may include, for example, a Blu-ray Disc (BD), Universal Serial Bus (USB), ROM, PROM, EPROM, EEPROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical device. data storage. The computer-readable recording medium also includes media implemented in the form of a carrier wave (eg, transmission over the Internet). In addition, the bit stream generated by the encoding method may be stored in a computer-readable recording medium or transmitted via a wired or wireless communication network.

[197] Помимо этого, вариант(ы) осуществления настоящего документа может осуществляться в качестве компьютерного программного продукта на основе программного кода, и программный код может выполняться на компьютере согласно варианту(ам) осуществления настоящего документа. Программный код может сохраняться на компьютерно-читаемом носителе.[197] In addition, the embodiment(s) of the present document may be implemented as a computer program product based on the program code, and the program code may be executed on the computer according to the embodiment(s) of the present document. The program code may be stored on a computer-readable medium.

[198] Фиг. 11 представляет пример системы потоковой передачи контента, к которой может применяться вариант осуществления настоящего документа.[198] FIG. 11 represents an example of a content streaming system to which an embodiment of the present document may be applied.

[199] Ссылаясь на фиг. 11, система потоковой передачи контента, к которой применяются варианты осуществления настоящего документа, в общем, может включать в себя сервер кодирования, потоковый сервер, веб-сервер, хранилище мультимедиа, пользовательское устройство и устройство ввода мультимедиа.[199] Referring to FIG. 11, the content streaming system to which the embodiments of the present document apply may generally include an encoding server, a streaming server, a web server, a media storage, a user device, and a media input device.

[200] Сервер кодирования функционирует для того, чтобы сжимать в цифровые данные контент, вводимый из устройств ввода мультимедиа, таких как смартфон, камера, записывающая видеокамера и т.п., чтобы формировать поток битов и передавать его на потоковый сервер. В качестве другого примера, в случае, в котором устройство ввода мультимедиа, такое как смартфон, камера, записывающая видеокамера и т.п., непосредственно формирует поток битов, сервер кодирования может опускаться.[200] The encoding server functions to compress content input from media input devices such as a smartphone, camera, camcorder, and the like into digital data to generate a bitstream and transmit it to the streaming server. As another example, in a case where a media input device such as a smartphone, a camera, a camcorder or the like directly generates a bit stream, the encoding server may be omitted.

[201] Поток битов может формироваться посредством способа кодирования или способа формирования потоков битов, к которому применяются варианты осуществления настоящего документа. Кроме того, потоковый сервер может временно сохранять поток битов в процессе передачи или приема потока битов.[201] The bit stream may be generated by an encoding method or a bit stream generation method to which the embodiments of the present document apply. In addition, the streaming server may temporarily store the bitstream in the process of transmitting or receiving the bitstream.

[202] Потоковый сервер передает мультимедийные данные в абонентское устройство на основе запроса пользователя через веб-сервер, который функционирует в качестве инструментария, который информирует пользователя в отношении того, какая услуга предусмотрена. Когда пользователь запрашивает услугу, которую пользователь хочет, веб-сервер передает запрос на потоковый сервер, и потоковый сервер передает мультимедийные данные пользователю. В этом отношении, система потоковой передачи контента может включать в себя отдельный сервер управления, и в этом случае, сервер управления функционирует для того, чтобы управлять командами/ответами между соответствующим оборудованием в системе потоковой передачи контента.[202] The streaming server transmits media data to the user equipment based on a user's request via a web server that functions as a tool that informs the user as to which service is provided. When the user requests a service that the user wants, the web server passes the request to the streaming server, and the streaming server transmits the media data to the user. In this regard, the content streaming system may include a separate control server, in which case, the control server functions to manage commands/responses between respective equipments in the content streaming system.

[203] Потоковый сервер может принимать контент из хранилища мультимедиа и/или сервера кодирования. Например, в случае если контент принимается из сервера кодирования, контент может приниматься в реальном времени. В этом случае, потоковый сервер может сохранять поток битов в течение предварительно определенного периода времени, чтобы плавно предоставлять услугу потоковой передачи.[203] The streaming server may receive content from a media store and/or an encoding server. For example, in case the content is received from the encoding server, the content may be received in real time. In this case, the streaming server may keep the bitstream for a predetermined period of time to smoothly provide the streaming service.

[204] Например, абонентское устройство может включать в себя мобильный телефон, смартфон, переносной компьютер, цифровой широковещательный терминал, персональное цифровое устройство (PDA), портативный мультимедийный проигрыватель (PMP), навигационное устройство, грифельный планшетный PC, планшетный PC, ультрабук, носимое устройство (например, терминал в виде часов (интеллектуальные часы), терминал в виде очков (интеллектуальные очки), наголовный дисплей (HMD)), цифровой телевизор, настольный компьютер, систему цифровых информационных табло и т.п.[204] For example, the subscriber equipment may include a mobile phone, a smartphone, a laptop computer, a digital broadcast terminal, a personal digital assistant (PDA), a portable media player (PMP), a navigation device, a stylus tablet PC, a tablet PC, an ultrabook, a wearable device (e.g., watch terminal (smart watch), glasses terminal (smart glasses), head-mounted display (HMD)), digital TV, desktop computer, digital signage system, etc.

[205] Каждый из серверов в системе потоковой передачи контента может работать в качестве распределенного сервера, и в этом случае, данные, принимаемые посредством каждого сервера, могут обрабатываться распределенным способом.[205] Each of the servers in the content streaming system may operate as a distributed server, in which case, data received by each server may be processed in a distributed manner.

Claims (43)

1. Способ декодирования видео, осуществляемый посредством оборудования декодирования видео, при этом способ содержит этапы, на которых:1. A video decoding method implemented by video decoding equipment, the method comprising the steps of: - синтаксически анализируют информацию по числу, связанную с числом срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах в плитке текущего кадра, из потока битов;- parsing information by number associated with the number of slices, each of which has a height explicitly signaled in the tile of the current frame, from the bit stream; - синтаксически анализируют информацию высоты, связанную с высотами срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах, из потока битов на основе информации по числу;- syntactically parsing the height information associated with the heights of the slices, each of which has a height explicitly transmitted in the service signals, from the bitstream based on the information by number; - извлекают число срезов в плитке на основе информации по числу и информации высоты; иextracting the number of slices in the tile based on the number information and the height information; And - декодируют текущий кадр на основе срезов в плитке,- decode the current frame based on the slices in the tile, при этом, на основе числа срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах, равную n, высоты от нулевого среза до (n-1)-го среза в плитке извлекаются на основе информации высоты,wherein, based on the number of slices each having an explicit signaling height of n, the heights from the zero slice to the (n-1)th slice in the tile are extracted based on the height information, при этом высоты от высоты n-го среза до высоты непосредственно предыдущего среза по отношению к последнему срезу в плитке извлекаются на основе высоты (n-1)-го среза,where the heights from the height of the nth slice to the height of the immediately previous slice relative to the last slice in the tile are extracted based on the height of the (n-1)th slice, при этом высота последнего среза в плитке извлекается на основе оставшейся высоты после вычитания высот других срезов в плитке из высоты плитки, иwherein the height of the last slice in the tile is derived based on the remaining height after subtracting the heights of the other slices in the tile from the height of the tile, and при этом информация по числу и информация высоты включаются в набор параметров кадра.wherein the number information and the height information are included in the frame parameter set. 2. Способ декодирования видео по п. 1, в котором число срезов в плитке равно числу срезов начиная с нулевого среза до последнего среза.2. The video decoding method according to claim 1, wherein the number of slices in a tile is equal to the number of slices from slice zero to the last slice. 3. Способ декодирования видео по п. 1, в котором высота n-го среза извлекается как идентичная высоте (n-1)-го среза.3. The video decoding method according to claim 1, wherein the height of the n-th slice is extracted as being identical to the height of the (n-1)-th slice. 4. Способ декодирования видео по п. 1, в котором высоты срезов начиная с n-го среза до непосредственно предыдущего среза в плитке являются равномерными.4. The video decoding method according to claim 1, wherein the slice heights from the n-th slice to the immediately previous slice in the tile are uniform. 5. Способ декодирования видео по п. 4, в котором высота последнего среза меньше или равна высоте (n-1)-го среза.5. The video decoding method according to claim 4, wherein the height of the last slice is less than or equal to the height of the (n-1)th slice. 6. Способ декодирования видео по п. 1, дополнительно содержащий этап, на котором:6. The video decoding method according to claim 1, further comprising the step of: - сравнивают оставшуюся высоту плитки, которая вычисляется посредством вычитания суммы высот срезов начиная с нулевого среза до (n-1)-го среза из общей высоты плитки, с тем чтобы определять то, равна ли или выше оставшаяся высота высоты равномерного среза,- comparing the remaining height of the tile, which is calculated by subtracting the sum of the heights of the slices from the zero slice to the (n-1)th slice from the total height of the tile, to determine whether the remaining height is equal to or greater than the uniform slice height, при этом высота равномерного среза является идентичной высоте (n-1)-го среза,while the height of the uniform cut is identical to the height of the (n-1)-th cut, при этом, на основе оставшейся высоты плитки, которая вычисляется посредством вычитания суммы высот срезов начиная с нулевого среза до (n-1)-го среза из общей высоты плитки, равной или большей высоты равномерного среза, извлекается n-й срез, имеющий высоту равномерного среза, иwherein, based on the remaining height of the tile, which is calculated by subtracting the sum of the heights of the slices from the zero slice to the (n-1)th slice from the total tile height equal to or greater than the height of the uniform slice, the nth slice having the height of the uniform slice is extracted. cut, and при этом, на основе оставшейся высоты плитки, которая вычисляется посредством вычитания суммы высот срезов начиная с нулевого среза до (n-1)-го среза из общей высоты плитки, меньшей высоты равномерного среза, извлекается n-й срез, имеющий оставшуюся высоту.wherein, based on the remaining height of the tile, which is calculated by subtracting the sum of the heights of the slices from the zero slice to the (n-1)th slice from the total tile height less than the uniform slice height, the nth slice having the remaining height is extracted. 7. Способ декодирования видео по п. 6, в котором на основе оставшейся высоты, равной или большей высоты равномерного среза, извлекается обновленная оставшаяся высота, при этом обновленная оставшаяся высота обновляется посредством вычитания высоты n-го среза из оставшейся высоты плитки, которая вычисляется посредством вычитания суммы высот срезов начиная с нулевого среза до (n-1)-го среза из общей высоты плитки,7. The video decoding method of claim 6, wherein, based on a remaining height equal to or greater than a uniform slice height, an updated remaining height is extracted, wherein the updated remaining height is updated by subtracting the n-th slice height from the remaining tile height, which is calculated by subtracting the sum of the heights of the slices from the zero slice to the (n-1)th slice from the total height of the tile, при этом, на основе обновленной оставшейся высоты, равной или большей высоты равномерного среза, извлекается (n+1)-й срез, имеющий высоту равномерного среза, иwherein, based on the updated remaining height equal to or greater than the uniform slice height, the (n+1)th slice having the uniform slice height is retrieved, and при этом, на основе обновленной оставшейся высоты, меньшей высоты равномерного среза, извлекается (n+1)-й срез, имеющий обновленную оставшуюся высоту.wherein, based on the updated remaining height less than the uniform slice height, the (n+1)th slice having the updated remaining height is retrieved. 8. Способ декодирования видео по п. 1, в котором информация по числу и информация высоты включает в себя кодированный экспоненциальным кодом Голомба синтаксический элемент.8. The video decoding method according to claim 1, wherein the number information and the height information include an exponential Golomb encoded syntax element. 9. Способ декодирования видео по п. 1, в котором информация по числу включает в себя синтаксический элемент num_exp_slices_in_tile, и9. The video decoding method of claim 1, wherein the number information includes a num_exp_slices_in_tile syntax element, and при этом информация высоты включает в себя синтаксический элемент exp_slice_height_in_ctu_minus1.wherein the height information includes the exp_slice_height_in_ctu_minus1 syntax element. 10. Способ декодирования видео по п. 1, в котором срезы в плитке представляют собой прямоугольные срезы.10. The video decoding method of claim 1, wherein the slices in the tile are rectangular slices. 11. Способ декодирования видео по п. 1, в котором информация по числу синтаксически анализируется на основе информации, связанной с шириной и высотой среза, включающего в себя плитку.11. The video decoding method of claim 1, wherein the number information is parsed based on information related to the width and height of the slice including the tile. 12. Способ кодирования видео, осуществляемый посредством оборудования кодирования видео, при этом способ содержит этапы, на которых:12. A video encoding method implemented by video encoding equipment, the method comprising the steps of: - извлекают срезы в плитке текущего кадра;- extract slices in the tile of the current frame; - формируют прогнозные выборки, выполняющие по меньшей мере одно из внутреннего прогнозирования или взаимного прогнозирования на основе по меньшей мере одного из извлеченных срезов;forming predictive samples performing at least one of intra-prediction or inter-prediction based on at least one of the extracted slices; - формируют остаточную информацию на основе прогнозных выборок;- form residual information based on predictive samples; - формируют информацию по числу, связанную с числом срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах в плитке, и информацию высоты, связанную с высотами срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах на основе извлеченных срезов; иgenerating number information associated with the number of slices each having a height explicitly signaled in the tile and height information associated with the heights of slices each having a height explicitly signaled based on the extracted slices; And - кодируют информацию изображений, включающую в себя остаточную информацию, информацию по числу и информацию высоты,encoding image information including residual information, number information, and height information, при этом, на основе числа срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах, равную n, информация высоты указывает высоты от нулевого среза до (n-1)-го среза в плитке,wherein, based on the number of slices each having an explicit signaling height of n, the height information indicates the heights from the zero slice to the (n-1)th slice in the tile, при этом высоты от высоты n-го среза до высоты непосредственно предыдущего среза по отношению к последнему срезу в плитке представляются на основе высоты (n-1)-го среза,whereby the heights from the height of the nth slice to the height of the immediately preceding slice relative to the last slice in the tile are represented based on the height of the (n-1)th slice, при этом высота последнего среза в плитке представляется на основе оставшейся высоты после вычитания высот других срезов в плитке из высоты плитки, иwherein the height of the last slice in the tile is represented based on the remaining height after subtracting the heights of the other slices in the tile from the height of the tile, and при этом информация по числу и информация высоты включаются в набор параметров кадра.wherein the number information and the height information are included in the frame parameter set. 13. Способ передачи данных для видео, при этом способ содержит этапы, на которых:13. A method for transmitting data for video, the method comprising the steps of: - получают поток битов для видео, при этом поток битов формируется на основе извлечения срезов в плитке текущего кадра, формирования прогнозных выборок, выполняющих по меньшей мере одно из внутреннего прогнозирования или взаимного прогнозирования на основе по меньшей мере одного из извлеченных срезов, формирования остаточной информации на основе прогнозных выборок, формирования информации по числу, связанной с числом срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах в плитке, и информации высоты, связанной с высотами срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах на основе извлеченных срезов, и кодирования информации изображений, включающей в себя остаточную информацию, информацию по числу и информацию высоты; и- receive a bit stream for video, wherein the bit stream is formed based on the extraction of slices in the tile of the current frame, the formation of predictive samples that perform at least one of intra prediction or inter prediction based on at least one of the extracted slices, the formation of residual information on based on predictive samples, generation of number information associated with the number of slices each having a height explicitly signaled in the tile signaling, and height information associated with the heights of the slices each having a height explicitly signaled in the tile based the extracted slices, and encoding image information including residual information, number information, and height information; And - передают данные, содержащие поток битов,- transmit data containing a stream of bits, при этом, на основе числа срезов, каждый из которых имеет высоту, явно передаваемую в служебных сигналах, равную n, информация высоты указывает высоты от нулевого среза до (n-1)-го среза в плитке,wherein, based on the number of slices each having an explicit signaling height of n, the height information indicates the heights from the zero slice to the (n-1)th slice in the tile, при этом высоты от высоты n-го среза до высоты непосредственно предыдущего среза по отношению к последнему срезу в плитке представляются на основе высоты (n-1)-го среза,whereby the heights from the height of the nth slice to the height of the immediately preceding slice relative to the last slice in the tile are represented based on the height of the (n-1)th slice, при этом высота последнего среза в плитке представляется на основе оставшейся высоты после вычитания высот других срезов в плитке из высоты плитки, иwherein the height of the last slice in the tile is represented based on the remaining height after subtracting the heights of the other slices in the tile from the height of the tile, and при этом информация по числу и информация высоты включаются в набор параметров кадра.wherein the number information and the height information are included in the frame parameter set.
RU2022117201A 2019-11-28 2020-11-26 Slice and tile configuration for image/video encoding RU2800596C1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US62/941,846 2019-11-28

Publications (1)

Publication Number Publication Date
RU2800596C1 true RU2800596C1 (en) 2023-07-25

Family

ID=

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150304667A1 (en) * 2013-01-04 2015-10-22 GE Video Compression, LLC. Efficient scalable coding concept
RU2628133C2 (en) * 2013-01-07 2017-08-15 Телефонактиеболагет Л М Эрикссон (Пабл) Coding and decoding of slides in video-stream images
CN109417642A (en) * 2016-07-01 2019-03-01 Sk电信有限公司 Image bit stream generation method and equipment for high resolution image stream
US20190082178A1 (en) * 2016-03-30 2019-03-14 Electronics And Telecommunications Research Institute Method and apparatus for encoding and decoding video using picture division information

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150304667A1 (en) * 2013-01-04 2015-10-22 GE Video Compression, LLC. Efficient scalable coding concept
RU2628133C2 (en) * 2013-01-07 2017-08-15 Телефонактиеболагет Л М Эрикссон (Пабл) Coding and decoding of slides in video-stream images
US20190082178A1 (en) * 2016-03-30 2019-03-14 Electronics And Telecommunications Research Institute Method and apparatus for encoding and decoding video using picture division information
CN109417642A (en) * 2016-07-01 2019-03-01 Sk电信有限公司 Image bit stream generation method and equipment for high resolution image stream

Similar Documents

Publication Publication Date Title
US20230362383A1 (en) Filtering-based image coding device and method
JP7526268B2 (en) Image or video coding based on NAL unit related information - Patents.com
US20230344986A1 (en) Filtering-based image coding device and method
US20240267566A1 (en) Image/video coding method and apparatus on basis of picture division structure
JP7528335B2 (en) Method and apparatus for signaling picture partition information - Patents.com
US20230164321A1 (en) In-loop filtering-based image coding device and method
US20230096855A1 (en) In-loop filtering-based image coding device and method
US20230013167A1 (en) Image/video coding method and apparatus
RU2800596C1 (en) Slice and tile configuration for image/video encoding
RU2800595C1 (en) Image/video coding method and equipment
US11956450B2 (en) Slice and tile configuration for image/video coding
US11509905B2 (en) Method and device for signaling information related to slice in image/video encoding/decoding system
US12088846B2 (en) Signaling-based image or video coding of information related to recovery point for GDR
US11805264B2 (en) NAL unit type-based image or video coding
US20230156228A1 (en) Image/video encoding/decoding method and device
US20220321887A1 (en) Image or video coding on basis of transform skip - and palette coding-related data
US20230046583A1 (en) Virtual boundary-based image coding device and method
US20220417506A1 (en) Deblocking filtering method and apparatus in video/image coding system