RU2785998C1 - Equipment and method for image encoding - Google Patents

Equipment and method for image encoding Download PDF

Info

Publication number
RU2785998C1
RU2785998C1 RU2022108032A RU2022108032A RU2785998C1 RU 2785998 C1 RU2785998 C1 RU 2785998C1 RU 2022108032 A RU2022108032 A RU 2022108032A RU 2022108032 A RU2022108032 A RU 2022108032A RU 2785998 C1 RU2785998 C1 RU 2785998C1
Authority
RU
Russia
Prior art keywords
component
information
alf
cross
samples
Prior art date
Application number
RU2022108032A
Other languages
Russian (ru)
Inventor
Дзангвон ЧОЙ
Дзунгхак НАМ
Original Assignee
ЭлДжи ЭЛЕКТРОНИКС ИНК.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ЭлДжи ЭЛЕКТРОНИКС ИНК. filed Critical ЭлДжи ЭЛЕКТРОНИКС ИНК.
Application granted granted Critical
Publication of RU2785998C1 publication Critical patent/RU2785998C1/en

Links

Images

Abstract

FIELD: images encoding and decoding.
SUBSTANCE: invention relates to equipment and methods for encoding/decoding an image. The effect is achieved by generating reconstructed samples based on predictive samples and residual samples, wherein the reconstructed samples include reconstructed luminance samples and reconstructed chrominance samples, then extracting adaptive loop filter (ALF) coefficients for the reconstructed chrominance sample ALF process, generating filtered reconstructed chrominance samples based on the reconstructed chrominance samples and ALF filter coefficients, extracting cross-component filter coefficients for cross-component filtering. At the same time, the image information includes a sequence parameter set (SPS) and slice header information, which includes an ALF activation flag, based on the value of which the cross-component adaptive contour filtering (CCALF) procedure for the filtered reconstructed chrominance samples is activated.
EFFECT: improving the efficiency of image/video encoding.
14 cl, 16 dwg, 30 tbl

Description

Уровень техникиState of the art

Область техники, к которой относится изобретениеThe technical field to which the invention belongs

[1] Настоящее раскрытие относится к оборудованию и к способу для кодирования изображения.[1] The present disclosure relates to equipment and a method for encoding an image.

Описание предшествующего уровня техникиDescription of the Prior Art

[2] В последнее время, спрос на высококачественное изображение/видео высокого разрешения, к примеру, изображение/видео сверхвысокой четкости (UHD) формата 4K или 8K либо выше, растет в различных областях техники. Поскольку данные изображений/видео имеют высокое разрешение и высокое качество, объем информации или битов, который должен передаваться, увеличивается относительно существующих данных изображений/видео, и в силу этого передача данных изображений с использованием носителя, такого как существующая проводная/беспроводная широкополосная линия или существующий носитель хранения данных, либо сохранение данных изображений/видео с использованием существующего носителя хранения данных увеличивает затраты на передачу и затраты на хранение.[2] Recently, the demand for high-quality high-definition image/video, such as 4K or 8K ultra-high definition (UHD) image/video or higher, is growing in various fields of technology. Since the image/video data has high resolution and high quality, the amount of information or bits to be transmitted increases with respect to the existing image/video data, and therefore the transmission of image data using a medium such as an existing wired/wireless broadband line or an existing storage media, or storing image/video data using an existing storage media increases transmission costs and storage costs.

[3] Помимо этого, интерес и спрос на иммерсивное мультимедиа, такое как контент виртуальной реальности (VR) и искусственной реальности (AR) или голограммы, в последнее время растет, и широковещательная передача для изображения/видео, имеющего характеристики, отличающиеся от изображений реальности, таких как игровые изображения, увеличивается.[3] In addition, the interest and demand for immersive media such as virtual reality (VR) and artificial reality (AR) content or holograms is growing recently, and broadcasting for an image/video having characteristics different from reality images , such as game images, is enlarged.

[4] Соответственно, требуется технология высокоэффективного сжатия изображений/видео, чтобы эффективно сжимать, передавать, сохранять и воспроизводить информацию высококачественного изображения/видео высокого разрешения, имеющего различные характеристики, как описано выше.[4] Accordingly, a high-performance image/video compression technology is required to efficiently compress, transmit, store, and reproduce high-quality, high-resolution image/video information having various characteristics as described above.

[5] В процедуре кодирования для сжатия изображений/видео, может выполняться процедура внутриконтурной фильтрации. В последнее время, проводится обсуждение касательно повышения точности фильтрации.[5] In the encoding procedure for image/video compression, an in-loop filtering procedure may be performed. Recently, there has been a discussion about improving the filtering accuracy.

Сущность изобретенияThe essence of the invention

[6] Настоящее раскрытие предоставляет способ и оборудование для повышения эффективности кодирования изображений/видео.[6] The present disclosure provides a method and equipment for improving image/video coding efficiency.

[7] Настоящее раскрытие также предоставляет способ и оборудование для эффективного применения фильтрации.[7] The present disclosure also provides a method and equipment for effectively applying filtration.

[8] Настоящее раскрытие также предоставляет способ и оборудование для эффективного ALF-применения.[8] The present disclosure also provides a method and equipment for efficient ALF application.

[9] Согласно варианту осуществления настоящего раскрытия, процедура фильтрации может выполняться для восстановленных выборок сигналов цветности на основе восстановленных выборок сигналов яркости.[9] According to an embodiment of the present disclosure, a filtering procedure may be performed on the recovered chrominance samples based on the recovered luminance samples.

[10] Согласно варианту осуществления настоящего раскрытия, фильтрованные восстановленные выборки сигналов цветности могут модифицироваться на основе восстановленных выборок сигналов яркости.[10] According to an embodiment of the present disclosure, the filtered reconstructed chrominance samples may be modified based on the reconstructed luminance samples.

[11] Согласно варианту осуществления настоящего раскрытия, информация относительно того, доступна или нет CCALF, может передаваться в служебных сигналах в SPS.[11] According to an embodiment of the present disclosure, information regarding whether or not CCALF is available may be signaled in the SPS.

[12] Согласно варианту осуществления настоящего раскрытия, информация относительно значений коэффициентов кросскомпонентного фильтра может извлекаться из ALF-данных (нормальных ALF-данных или CCALF-данных).[12] According to an embodiment of the present disclosure, information regarding the values of the coefficients of the cross-component filter can be extracted from ALF data (normal ALF data or CCALF data).

[13] Согласно варианту осуществления настоящего раскрытия, идентификационная информация APS, включающая в себя ALF-данные для извлечения коэффициентов кросскомпонентного фильтра в срезе, может передаваться в служебных сигналах.[13] According to an embodiment of the present disclosure, APS identification information including ALF data for extracting slice cross-component filter coefficients may be signaled.

[14] Согласно варианту осуществления настоящего раскрытия, информация относительно индекса набора фильтров для CCALF может передаваться в служебных сигналах в единицах CTU (блоков).[14] According to an embodiment of the present disclosure, information regarding the filter bank index for CCALF may be signaled in units of CTUs (blocks).

[15] Согласно варианту осуществления настоящего раскрытия, предоставляется способ декодирования видео/изображений, осуществляемый посредством оборудования декодирования.[15] According to an embodiment of the present disclosure, a video/image decoding method by means of decoding equipment is provided.

[16] Согласно варианту осуществления настоящего раскрытия, предоставляется оборудование декодирования для выполнения декодирования видео/изображений.[16] According to an embodiment of the present disclosure, decoding equipment is provided to perform video/image decoding.

[17] Согласно варианту осуществления настоящего раскрытия, предоставляется способ кодирования видео/изображений, осуществляемый посредством оборудования кодирования.[17] According to an embodiment of the present disclosure, a video/image encoding method is provided by encoding equipment.

[18] Согласно варианту осуществления настоящего раскрытия, предоставляется оборудование кодирования для выполнения кодирования видео/изображений.[18] According to an embodiment of the present disclosure, an encoding equipment for performing video/image encoding is provided.

[19] Согласно одному варианту осуществления настоящего раскрытия, предоставляется компьютерно-читаемый цифровой носитель хранения данных, на котором сохраняется кодированная информация видео/изображений, сформированная согласно способу кодирования видео/изображений, раскрытому по меньшей мере в одном из вариантов осуществления настоящего раскрытия.[19] According to one embodiment of the present disclosure, a computer-readable digital storage medium is provided on which encoded video/image information generated according to the video/image coding method disclosed in at least one embodiment of the present disclosure is stored.

[20] Согласно варианту осуществления настоящего раскрытия, предоставляется компьютерно-читаемый цифровой носитель хранения данных, на котором сохраняется кодированная информация или кодированная информация видео/изображений, инструктирующая оборудованию декодирования осуществлять способ декодирования видео/изображений, раскрытый по меньшей мере в одном из вариантов осуществления настоящего раскрытия.[20] According to an embodiment of the present disclosure, a computer-readable digital storage medium is provided on which encoded information or encoded video/image information is stored instructing a decoding equipment to perform a video/image decoding method disclosed in at least one embodiment of the present disclosure.

Положительные эффектыPositive Effects

[21] Согласно варианту осуществления настоящего раскрытия, может повышаться полная эффективность сжатия изображений/видео.[21] According to an embodiment of the present disclosure, the overall image/video compression efficiency can be improved.

[22] Согласно варианту осуществления настоящего раскрытия, субъективное/объективное визуальное качество может повышаться посредством эффективной фильтрации.[22] According to an embodiment of the present disclosure, subjective/objective visual quality can be improved by efficient filtering.

[23] Согласно варианту осуществления настоящего раскрытия, ALF-процедура может эффективно выполняться, и может повышаться производительность фильтрации.[23] According to an embodiment of the present disclosure, the ALF procedure can be efficiently performed and filtering performance can be improved.

[24] Согласно варианту осуществления настоящего раскрытия, восстановленные выборки сигналов цветности, фильтрованные на основе восстановленных выборок сигналов яркости, могут модифицироваться, чтобы повышать качество кадров и точность кодирования компонента сигналов цветности декодированного кадра.[24] According to an embodiment of the present disclosure, the reconstructed chrominance samples filtered based on the reconstructed luminance samples may be modified to improve the frame quality and coding fidelity of the chrominance component of a decoded frame.

[25] Согласно варианту осуществления настоящего раскрытия, CCALF-процедура может эффективно выполняться.[25] According to an embodiment of the present disclosure, the CCALF procedure can be efficiently performed.

[26] Согласно варианту осуществления настоящего раскрытия, связанная с ALF информация может эффективно передаваться в служебных сигналах.[26] According to an embodiment of the present disclosure, ALF related information can be efficiently signaled.

[27] Согласно варианту осуществления настоящего раскрытия, связанная с CCALF информация может эффективно передаваться в служебных сигналах.[27] According to an embodiment of the present disclosure, CCALF related information can be efficiently signaled.

[28] Согласно варианту осуществления настоящего раскрытия, ALF и/или CCALF могут адаптивно применяться в единицах кадров, срезов и/или блоков кодирования.[28] According to an embodiment of the present disclosure, ALF and/or CCALF may be adaptively applied in units of frames, slices, and/or coding units.

[29] Согласно варианту осуществления настоящего раскрытия, когда CCALF используется в способе и оборудовании кодирования и декодирования для неподвижного изображения или видео, коэффициенты фильтра для CCALF и способ передачи включения-выключения в единице блоков или CTU могут улучшаться, в силу этого повышая эффективность кодирования.[29] According to an embodiment of the present disclosure, when CCALF is used in the encoding and decoding method and equipment for a still picture or video, the filter coefficients for CCALF and the on-off transmission method per unit of blocks or CTU can be improved, thereby improving encoding efficiency.

Краткое описание чертежейBrief description of the drawings

[30] Фиг. 1 схематично показывает пример системы кодирования видео/изображений, которая может применяться к вариантам осуществления настоящего раскрытия.[30] FIG. 1 schematically shows an example of a video/image coding system that may be applied to embodiments of the present disclosure.

[31] Фиг. 2 является схемой, принципиально иллюстрирующей конфигурацию оборудования кодирования видео/изображений, которое может применяться к вариантам осуществления настоящего раскрытия.[31] FIG. 2 is a diagram principally illustrating a configuration of video/image coding equipment that may be applied to embodiments of the present disclosure.

[32] Фиг. 3 является схемой, принципиально иллюстрирующей конфигурацию оборудования декодирования видео/изображений, которое может применяться к вариантам осуществления настоящего раскрытия.[32] FIG. 3 is a diagram principally illustrating a configuration of video/image decoding equipment that may be applied to embodiments of the present disclosure.

[33] Фиг. 4 примерно показывает иерархическую структуру для кодированного изображения/видео.[33] FIG. 4 roughly shows the hierarchical structure for an encoded picture/video.

[34] Фиг. 5 является блок-схемой последовательности операций, иллюстрирующей способ восстановления блоков на основе внутреннего прогнозирования в оборудовании декодирования.[34] FIG. 5 is a flowchart illustrating a block recovery method based on intra prediction in decoding equipment.

[35] Фиг. 6 является блок-схемой последовательности операций, иллюстрирующей способ восстановления блоков на основе взаимного прогнозирования в оборудовании кодирования.[35] FIG. 6 is a flowchart illustrating a block recovery method based on inter prediction in coding equipment.

[36] Фиг. 7 является блок-схемой последовательности операций, иллюстрирующей способ восстановления блоков на основе взаимного прогнозирования в оборудовании декодирования.[36] FIG. 7 is a flowchart illustrating a block recovery method based on inter prediction in decoding equipment.

[37] Фиг. 8 показывает пример формы ALF-фильтра.[37] FIG. 8 shows an example of an ALF filter shape.

[38] Фиг. 9 является схемой, иллюстрирующей виртуальную границу, применяемую к процедуре фильтрации согласно варианту осуществления настоящего раскрытия.[38] FIG. 9 is a diagram illustrating a virtual boundary applied to a filtering procedure according to an embodiment of the present disclosure.

[39] Фиг. 10 показывает пример ALF-процедуры с использованием виртуальной границы согласно варианту осуществления настоящего раскрытия.[39] FIG. 10 shows an example of an ALF procedure using a virtual boundary according to an embodiment of the present disclosure.

[40] Фиг. 11 является схемой, иллюстрирующей процедуру кросскомпонентной адаптивной контурной фильтрации (CC-ALF) согласно варианту осуществления настоящего раскрытия.[40] FIG. 11 is a diagram illustrating a cross-component adaptive loop filtering (CC-ALF) procedure according to an embodiment of the present disclosure.

[41] Фиг. 12 и 13 схематично показывают пример способа кодирования видео/изображений и связанных компонентов согласно варианту(ам) осуществления настоящего раскрытия.[41] FIG. 12 and 13 schematically show an example of a video/image coding method and related components according to the embodiment(s) of the present disclosure.

[42] Фиг. 14 и 15 схематично показывают пример способа декодирования изображений/видео и связанных компонентов согласно варианту(ам) осуществления настоящего раскрытия.[42] FIG. 14 and 15 schematically show an example of a method for decoding images/videos and related components according to the embodiment(s) of the present disclosure.

[43] Фиг. 16 иллюстрирует пример системы потоковой передачи контента, к которой могут применяться варианты осуществления, раскрытые в настоящем раскрытии.[43] FIG. 16 illustrates an example of a content streaming system to which the embodiments disclosed in the present disclosure may be applied.

Подробное описание вариантов осуществленияDetailed description of embodiments

[44] Настоящее раскрытие может модифицироваться в различных формах, и его конкретные варианты осуществления описываются и показаны на чертежах. Тем не менее, эти варианты осуществления не предназначены для ограничения настоящего раскрытия. Термины, используемые в нижеприведенном описании, используются для того, чтобы просто описывать конкретные варианты осуществления, но не имеют намерение ограничивать настоящее раскрытие. Выражение единственного числа включает в себя выражение множественного числа до этих пор, до тех пор, пока они четко трактуются по-разному. Такие термины, как "включать в себя" и "иметь", предназначены для того, чтобы указывать то, что существуют признаки, числа, этапы, операции, элементы, компоненты либо комбинации вышеозначенного, используемые в нижеприведенном описании, и в силу этого следует понимать, что не исключается возможность наличия или добавления одного или более других признаков, чисел, этапов, операций, элементов, компонентов либо комбинаций вышеозначенного.[44] The present disclosure may be modified in various forms, and specific embodiments thereof are described and shown in the drawings. However, these embodiments are not intended to limit the present disclosure. The terms used in the description below are used to simply describe specific embodiments, but are not intended to limit the present disclosure. The expression of the singular includes the expression of the plural as long as they are clearly treated differently. Terms such as "include" and "have" are intended to indicate that there are features, numbers, steps, operations, elements, components, or combinations of the foregoing used in the description below, and as such should be understood , which does not exclude the possibility of the presence or addition of one or more other features, numbers, steps, operations, elements, components, or combinations of the above.

[45] Между тем, каждая конфигурация на чертежах, описанная в настоящем раскрытии, показывается независимо для удобства описания относительно различных характеристических функций и не означает то, что каждая конфигурация реализуется как отдельные аппаратные средства или отдельное программное обеспечение. Например, два или более компонентов для каждого компонента могут комбинироваться, чтобы формировать один компонент, либо один компонент может разделяться на множество компонентов. Варианты осуществления, в которых каждый компонент интегрируется и/или отделяется, также включаются в объем документа настоящего раскрытия.[45] Meanwhile, each configuration in the drawings described in the present disclosure is shown independently for convenience of description with respect to various characteristic functions, and does not mean that each configuration is implemented as separate hardware or separate software. For example, two or more components for each component may be combined to form one component, or one component may be split into multiple components. Embodiments in which each component is integrated and/or separated are also included within the scope of this disclosure.

[46] Настоящее раскрытие относится к кодированию видео/изображений. Например, способы/варианты осуществления, раскрытые в настоящем раскрытии, могут применяться к способам, раскрытым в стандарте универсального кодирования видео (VVC). Помимо этого, способы/варианты осуществления, раскрытые в настоящем раскрытии, могут применяться к способу, раскрытому в стандарте фундаментального кодирования видео (EVC), стандарте AOMedia Video 1 (AV1), стандарте кодирования аудио/видео второго поколения (AVS2) или стандарте кодирования видео/изображений следующего поколения (например, H.267 или H.268 и т.д.).[46] The present disclosure relates to video/image coding. For example, the methods/embodiments disclosed in the present disclosure may apply to the methods disclosed in the Universal Video Coding (VVC) standard. In addition, the methods/embodiments disclosed in the present disclosure may be applied to the method disclosed in the Fundamental Video Coding (EVC) standard, the AOMedia Video 1 (AV1) standard, the second generation audio/video coding standard (AVS2), or the video coding standard. / next generation images (eg H.267 or H.268, etc.).

[47] Настоящее раскрытие представляет различные варианты осуществления кодирования видео/изображений, и если не указано иное, эти варианты осуществления могут выполняться в комбинации между собой.[47] The present disclosure presents various embodiments of video/image coding, and unless otherwise indicated, these embodiments may be performed in combination with each other.

[48] В настоящем раскрытии, видео может означать последовательность изображений во времени. Кадр, в общем, означает единицу, представляющую одно изображение в конкретной временной области, и срез/плитка (плитка) представляет собой единицу, составляющую часть кадра при кодировании. Срез/плитка может включать в себя одну или более единиц дерева кодирования (CTU). Кадр может состоять из одного или более срезов/блоков. Плитка представляет собой прямоугольную область CTU в конкретном столбце плиток и конкретной строке плиток в кадре. Столбец плиток представляет собой прямоугольную область CTU, имеющих высоту, равную высоте кадра, и ширину, указываемую посредством синтаксических элементов в наборе параметров кадра. Строка плиток представляет собой прямоугольную область CTU, имеющих высоту, указываемую посредством синтаксических элементов в наборе параметров кадра, и ширину, равную ширине кадра. Сканирование плиток представляет собой конкретное последовательное упорядочение CTU, сегментирующих кадр, при котором CTU упорядочиваются последовательно при растровом сканировании CTU в плитке, тогда как плитки в кадре упорядочиваются последовательно при растровом сканировании плиток кадра. Срез включает в себя целое число полных плиток или целое число последовательных законченных CTU-строк в плитке кадра, который может быть содержаться исключительно в одной NAL-единице.[48] In the present disclosure, video can mean a sequence of images over time. A frame generally means a unit representing one image in a particular time domain, and a slice/tile (tile) is a unit constituting a frame when encoded. A slice/tile may include one or more coding tree units (CTUs). A frame may consist of one or more slices/blocks. A tile is a rectangular area of a CTU in a particular column of tiles and a particular row of tiles in a frame. The tile column is a rectangular area of CTUs having a height equal to the height of the frame and a width specified by syntax elements in the frame parameter set. The row of tiles is a rectangular area of CTUs having a height indicated by syntax elements in the frame parameter set and a width equal to the frame width. Tile scanning is a particular sequential ordering of CTUs segmenting a frame, whereby CTUs are ordered sequentially in a raster scan of the CTUs in a tile, while tiles in a frame are ordered sequentially in a raster scan of the frame's tiles. A slice includes an integer number of complete tiles or an integer number of consecutive completed CTU rows in a frame tile that can be contained solely in one NAL unit.

[49] Между тем, один кадр может разделяться на два или более субкадров. Субкадр может представлять собой прямоугольную область одного или более срезов в кадре.[49] Meanwhile, one frame may be divided into two or more subframes. A subframe may be a rectangular region of one or more slices in a frame.

[50] Пиксел или пел может означать наименьшую единицу, составляющую один кадр (или изображение). Кроме того, "выборка" может использоваться в качестве термина, соответствующего пикселу. Выборка, в общем, может представлять пиксел или значение пиксела и может представлять только пиксел/пиксельное значение компонента сигналов яркости либо только пиксел/пиксельное значение компонента сигналов цветности.[50] A pixel or pel can mean the smallest unit that makes up one frame (or image). In addition, "sample" can be used as a term corresponding to a pixel. A sample can generally represent a pixel or a pixel value, and can only represent a luminance component pixel/pixel value, or only a chrominance component pixel/pixel value.

[51] Единица может представлять базовую единицу обработки изображений. Единица может включать в себя по меньшей мере одно из конкретной области кадра и информации, связанной с областью. Одна единица может включать в себя один блок сигналов яркости и два блока сигналов цветности (например, Cb, Cr). Единица может использоваться взаимозаменяемо с такими терминами, как блок или зона в некоторых случаях. В общем случае, блок MxN может включать в себя выборки (или массивы выборок) либо набор (или массив) коэффициентов преобразования из M столбцов и N строк. Альтернативно, выборка может означать пиксельное значение в пространственной области и когда такое пиксельное значение преобразуется в частотную область, это может означать коэффициент преобразования в частотной области.[51] The unit may represent a basic image processing unit. The unit may include at least one of a particular area of the frame and information associated with the area. One unit may include one luminance block and two chrominance blocks (eg, Cb, Cr). The unit can be used interchangeably with terms such as block or zone in some cases. In general, an MxN block may include samples (or arrays of samples) or a set (or array) of transform coefficients of M columns and N rows. Alternatively, the sample may mean a pixel value in the spatial domain, and when such a pixel value is converted to the frequency domain, it can mean a transform factor in the frequency domain.

[52] В настоящем раскрытии, "A или B (A или B)" может означать "только A", "только B" или "как A, так и B". Другими словами, "A или B (или B)" в настоящем раскрытии может интерпретироваться в качестве "A и/или B (A и/или B)". Например, в настоящем раскрытии, "A, B или C (A, B или C)" означает "только A", "только B", "только C" либо "любая комбинация A, B и C".[52] In the present disclosure, "A or B (A or B)" can mean "only A", "only B", or "both A and B". In other words, "A or B (or B)" in the present disclosure may be interpreted as "A and/or B (A and/or B)". For example, in the present disclosure, "A, B, or C (A, B, or C)" means "A only", "B only", "C only", or "any combination of A, B and C".

[53] Наклонная черта (/) или запятая, используемая в настоящем раскрытии, может означать "и/или". Например, "A/B" может означать "A и/или B". Соответственно, "A/B" может означать "только A", "только B" либо "как A, так и B". Например, "A, B, C" может означать "A, B или C".[53] The slash (/) or comma used in the present disclosure may mean "and/or". For example, "A/B" could mean "A and/or B". Accordingly, "A/B" can mean "only A", "only B", or "both A and B". For example, "A, B, C" could mean "A, B, or C".

[54] В настоящем раскрытии, "по меньшей мере одно из A и B" может означать "только A", "только B" или "как A, так и B". Кроме того, в раскрытии, выражение "по меньшей мере одно из A или B" или "по меньшей мере одно из A и/или B" может интерпретироваться в равной степени как "по меньшей мере одно из A и B".[54] In the present disclosure, "at least one of A and B" can mean "only A", "only B", or "both A and B". In addition, in the disclosure, the expression "at least one of A or B" or "at least one of A and/or B" can be interpreted equally as "at least one of A and B".

[55] Кроме того, в настоящем раскрытии, "по меньшей мере одно из A, B и C" означает "только A", "только B", "только C" либо "любая комбинация A, B и C". Кроме того, "по меньшей мере одно из A, B или C" или "по меньшей мере одно из A, B и/или C" может означать "по меньшей мере одно из A, B и C".[55] In addition, in the present disclosure, "at least one of A, B and C" means "only A", "only B", "only C", or "any combination of A, B and C". In addition, "at least one of A, B or C" or "at least one of A, B and/or C" can mean "at least one of A, B and C".

[56] Кроме того, круглые скобки, используемые в настоящем раскрытии, могут означать "например". В частности, когда указывается "прогнозирование (внутреннее прогнозирование)", оно может упоминаться как то, что "внутреннее прогнозирование" предлагается в качестве примера "прогнозирования". Другими словами, "прогнозирование" в настоящем раскрытии не ограничено "внутренним прогнозированием", и "внутреннее прогнозирование" может предлагаться в качестве примера "прогнозирования". Кроме того, даже когда указывается "прогнозирование (т.е. внутреннее прогнозирование)", оно может упоминаться как то, что "внутреннее прогнозирование", предлагается в качестве примера "прогнозирования".[56] In addition, parentheses used in this disclosure may mean "for example". In particular, when "prediction (internal prediction)" is indicated, it may be referred to as "internal prediction" being suggested as an example of "prediction". In other words, "prediction" in the present disclosure is not limited to "internal prediction", and "internal prediction" may be offered as an example of "prediction". In addition, even when "prediction (ie, internal prediction)" is indicated, it may be referred to as "internal prediction" being offered as an example of "prediction".

[57] Технические признаки, которые отдельно описываются на одном чертеже в настоящем раскрытии, могут реализовываться отдельно или одновременно.[57] Technical features that are separately described in one drawing in this disclosure may be implemented separately or simultaneously.

[58] В дальнейшем в этом документе описываются варианты осуществления настоящего раскрытия со ссылкой на прилагаемые чертежи. В дальнейшем в этом документе, идентичные ссылки с номерами могут использоваться для идентичных компонентов на чертежах, и повторные описания идентичных компонентов могут опускаться.[58] Hereinafter, embodiments of the present disclosure are described with reference to the accompanying drawings. Hereinafter in this document, identical numeral references may be used for identical components in the drawings, and repeated descriptions of identical components may be omitted.

[59] Фиг. 1 иллюстрирует пример системы кодирования видео/изображений, к которой может применяться настоящее раскрытие.[59] FIG. 1 illustrates an example of a video/image coding system to which the present disclosure may apply.

[60] Ссылаясь на фиг. 1, система кодирования видео/изображений может включать в себя исходное устройство и приемное устройство. Исходное устройство может передавать кодированную информацию или данные видео/изображений в приемное устройство через цифровой носитель хранения данных или сеть в форме файла или потоковой передачи.[60] Referring to FIG. 1, a video/image coding system may include a source device and a destination device. The source device may transmit the encoded information or video/image data to the receiving device via a digital storage medium or a network in the form of a file or streaming.

[61] Исходное устройство может включать в себя видеоисточник, оборудование кодирования и передатчик. Приемное устройство может включать в себя приемник, оборудование декодирования и модуль рендеринга. Оборудование кодирования может называться "оборудованием кодирования видео/изображений", и оборудование декодирования может называться "оборудованием декодирования видео/изображений". Передатчик может включаться в оборудование кодирования. Приемник может включаться в оборудование декодирования. Модуль рендеринга может включать в себя дисплей, и дисплей может быть сконфигурирован как отдельное устройство или внешний компонент.[61] The source device may include a video source, encoding equipment, and a transmitter. The receiver may include a receiver, decoding hardware, and a renderer. The encoding equipment may be referred to as "video/image coding equipment", and the decoding equipment may be referred to as "video/image decoding equipment". The transmitter may be included in the encoding equipment. The receiver may be included in decoding equipment. The renderer may include a display, and the display may be configured as a separate device or an external component.

[62] Видеоисточник может получать видео/изображение посредством процесса захвата, синтезирования или формирования видео/изображения. Видеоисточник может включать в себя устройство захвата видео/изображений и/или устройство формирования видео/изображений. Устройство захвата видео/изображений может включать в себя, например, одну или более камер, архивы видео/изображений, включающие в себя ранее захваченные видео/изображения, и т.п. Устройство формирования видео/изображений может включать в себя, например, компьютеры, планшетные компьютеры и смартфоны и может (электронным образом) формировать видео/изображения. Например, виртуальное видео/изображение может формироваться через компьютер и т.п. В этом случае, процесс захвата видео/изображений может заменяться посредством процесса формирования связанных данных.[62] A video source may acquire a video/image through a process of capturing, synthesizing, or generating a video/image. The video source may include a video/image capture device and/or a video/image generation device. The video/image capture device may include, for example, one or more cameras, video/image archives including previously captured videos/images, and the like. The video/image generating apparatus may include, for example, computers, tablet computers, and smartphones, and may (electronically) generate video/images. For example, the virtual video/image may be generated via a computer or the like. In this case, the video/image capturing process may be replaced by a linked data generation process.

[63] Оборудование кодирования может кодировать входное видео/изображение. Оборудование кодирования может выполнять последовательность процедур, таких как прогнозирование, преобразование и квантование, для эффективности сжатия и кодирования. Кодированные данные (кодированная информация видео/изображений) могут выводиться в форме потока битов.[63] The encoding equipment may encode the input video/image. The encoding equipment may perform a series of procedures such as prediction, transformation, and quantization for compression and encoding efficiency. Encoded data (encoded video/picture information) may be output in the form of a bit stream.

[64] Передатчик может передавать информацию или данные кодированных изображений/изображений, выводимую в форме потока битов, в приемник приемного устройства через цифровой носитель хранения данных или сеть в форме файла или потоковой передачи. Цифровой носитель хранения данных может включать в себя различные носители хранения данных, такие как USB, SD, CD, DVD, Blu-Ray, HDD, SSD и т.п. Передатчик может включать в себя элемент для формирования мультимедийного файла через предварительно определенный формат файлов и может включать в себя элемент для передачи через широковещательную передачу/сеть связи. Приемник может принимать/извлекать поток битов и передавать принимаемый поток битов в оборудование декодирования.[64] The transmitter may transmit information or coded image/image data output in the form of a bit stream to the receiver of the receiving device via a digital storage medium or a network in the form of a file or streaming. The digital storage medium may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, SSD, and the like. The transmitter may include an element for generating a media file via a predetermined file format and may include an element for transmission via a broadcast/communication network. The receiver may receive/retrieve the bitstream and transmit the received bitstream to the decoding equipment.

[65] Оборудование декодирования может декодировать видео/изображение посредством выполнения последовательности процедур, таких как деквантование, обратное преобразование и прогнозирование, соответствующих работе оборудования кодирования.[65] The decoding equipment can decode the video/image by performing a sequence of procedures such as dequantization, inverse transformation, and prediction corresponding to the operation of the encoding equipment.

[66] Модуль рендеринга может подготавливать посредством рендеринга декодированное видео/изображение. Подготовленное посредством рендеринга видео/изображение может отображаться через дисплей.[66] The rendering module may prepare a decoded video/image by rendering. The rendered video/image can be displayed through the display.

[67] Фиг. 2 является схемой, схематично иллюстрирующей конфигурацию оборудования кодирования видео/изображений, к которому может применяться настоящее раскрытие. В дальнейшем в этом документе, то, что называется "оборудованием кодирования видео", может включать в себя оборудование кодирования изображений.[67] FIG. 2 is a diagram schematically illustrating the configuration of video/image coding equipment to which the present disclosure may apply. Hereinafter in this document, what is referred to as "video encoding equipment" may include image encoding equipment.

[68] Ссылаясь на фиг. 2, оборудование 200 кодирования включает в себя модуль 210 сегментации изображений, модуль 220 прогнозирования, остаточный процессор 230 и энтропийный кодер 240, сумматор 250, фильтр 260 и запоминающее устройство 270. Модуль 220 прогнозирования может включать в себя модуль 221 взаимного прогнозирования и модуль 222 внутреннего прогнозирования. Остаточный процессор 230 может включать в себя преобразователь 232, квантователь 233, деквантователь 234 и обратный преобразователь 235. Остаточный процессор 230 дополнительно может включать в себя вычитатель 231. Сумматор 250 может называться "модулем восстановления" или "формирователем восстановленных блоков". Модуль 210 сегментации изображений, модуль 220 прогнозирования, остаточный процессор 230, энтропийный кодер 240, сумматор 250 и фильтр 260 могут быть сконфигурированы по меньшей мере посредством одного аппаратного компонента (например, набора микросхем или процессора кодера) согласно варианту осуществления. Помимо этого, запоминающее устройство 270 может включать в себя буфер декодированных кадров (DPB) или может быть сконфигурировано посредством цифрового носителя хранения данных. Аппаратный компонент дополнительно может включать в себя запоминающее устройство 270 в качестве внутреннего/внешнего компонента.[68] Referring to FIG. 2, the encoding equipment 200 includes an image segmentation unit 210, a prediction unit 220, a residual processor 230 and an entropy encoder 240, an adder 250, a filter 260, and a memory 270. The prediction unit 220 may include an inter prediction unit 221 and an intra prediction unit 222. forecasting. Residual processor 230 may include a transformer 232, a quantizer 233, a dequantizer 234, and an inverse transformer 235. Residual processor 230 may further include a subtractor 231. Adder 250 may be referred to as a "rebuilder" or "recovered block generator". Image segmentation module 210, prediction module 220, residual processor 230, entropy encoder 240, adder 250, and filter 260 may be configured by at least one hardware component (eg, chipset or encoder processor) according to an embodiment. In addition, the memory 270 may include a decoded frame buffer (DPB) or may be configured by a digital storage medium. The hardware component may further include a storage device 270 as an internal/external component.

[69] Модуль 210 сегментации изображений может сегментировать входное изображение (либо кадр или кинокадр), вводимое в оборудование 200 кодирования, на один или более блоков обработки. Например, блок обработки может называться "единицей кодирования (CU)". В этом случае, единица кодирования может рекурсивно сегментироваться согласно структуре в виде дерева квадрантов, двоичного дерева и троичного дерева (QTBTTT) из единицы дерева кодирования (CTU) или наибольшей единицы кодирования (LCU). Например, одна единица кодирования может сегментироваться на множество единиц кодирования большей глубины на основе структуры в виде дерева квадрантов, структуры в виде двоичного дерева и/или троичной структуры. В этом случае, например, сначала может применяться структура в виде дерева квадрантов, и впоследствии может применяться структура в виде двоичного дерева и троичная структура. Альтернативно, сначала может применяться структура в виде двоичного дерева. Процедура кодирования согласно настоящему раскрытию может выполняться на основе конечной единицы кодирования, которая более не сегментируется. В этом случае, наибольшая единица кодирования может использоваться в качестве конечной единицы кодирования на основе эффективности кодирования согласно характеристикам изображений, или при необходимости, единица кодирования может рекурсивно сегментироваться на единицы кодирования большей глубины, и единица кодирования, имеющая оптимальный размер, может использоваться в качестве конечной единицы кодирования. Здесь, процедура кодирования может включать в себя процедуру прогнозирования, преобразования и восстановления, которая описывается ниже. В качестве другого примера, блок обработки дополнительно может включать в себя единицу прогнозирования (PU) или единицу преобразования (TU). В этом случае, единица прогнозирования и единица преобразования могут разбиваться или сегментироваться из вышеуказанной конечной единицы кодирования. Единица прогнозирования может представлять собой единицу выборочного прогнозирования, и единица преобразования может представлять собой единицу для извлечения коэффициента преобразования и/или единицу для извлечения остаточного сигнала из коэффициента преобразования.[69] The image segmentation module 210 may segment an input image (either a frame or a movie frame) input to the encoding equipment 200 into one or more processing units. For example, a processing unit may be referred to as a "coding unit (CU)". In this case, a coding unit may be recursively segmented according to a quadtree, binary tree, and ternary tree (QTBTTT) structure from a coding tree unit (CTU) or a largest coding unit (LCU). For example, one coding unit may be segmented into multiple deeper coding units based on a quadtree structure, a binary tree structure, and/or a ternary structure. In this case, for example, a quadtree structure may be applied first, and a binary tree structure and a ternary structure may subsequently be applied. Alternatively, a binary tree structure may be applied first. The encoding procedure according to the present disclosure may be performed based on a final encoding unit that is no longer segmented. In this case, the largest coding unit may be used as the final coding unit based on the coding efficiency according to the characteristics of the images, or if necessary, the coding unit may be recursively segmented into coding units of greater depth, and the coding unit having the optimal size may be used as the final coding units. Here, the encoding procedure may include a prediction, transformation, and restoration procedure, which is described below. As another example, the processing unit may further include a prediction unit (PU) or a transformation unit (TU). In this case, the prediction unit and the transformation unit may be split or segmented from the above final coding unit. The prediction unit may be a selective prediction unit, and the transform unit may be a unit for extracting a transform coefficient and/or a unit for extracting a residual signal from a transform coefficient.

[70] Единица может использоваться взаимозаменяемо с такими терминами, как блок или зона в некоторых случаях. В общем случае, блок MxN может представлять набор выборок или коэффициентов преобразования, состоящих из M столбцов и N строк. Выборка, в общем, может представлять пиксел или значение пиксела, может представлять только пиксел/пиксельное значение компонента сигналов яркости либо представлять только пиксел/пиксельное значение компонента сигналов цветности. Выборка может использоваться в качестве термина, соответствующего одному кадру (или изображению) для пиксела или пела.[70] The unit can be used interchangeably with terms such as block or zone in some cases. In general, an MxN block may represent a set of samples or transform coefficients consisting of M columns and N rows. The sample, in general, may represent a pixel or pixel value, may represent only a pixel/pixel value of the luma component, or represent only a pixel/pixel value of the chroma component. Sampling can be used as a term corresponding to one frame (or image) for a pixel or pel.

[71] Вычитатель 231 вычитает прогнозный сигнал (прогнозированный блок, прогнозные выборки или массив прогнозных выборок), выводимый из модуля 220 прогнозирования, из сигнала входного изображения (исходного блока, исходных выборок или массива исходных выборок), чтобы получать остаток. Сигнал (остаточный блок, остаточные выборки или массив остаточных выборок) может формироваться, и сформированный остаточный сигнал передается в преобразователь 232. Модуль 220 прогнозирования может выполнять прогнозирование относительно целевого блока обработки (в дальнейшем в этом документе, называемого "текущим блоком") и формировать прогнозированный блок, включающий в себя прогнозные выборки для текущего блока. Модуль 220 прогнозирования может определять то, применяется внутреннее прогнозирование или взаимное прогнозирование, на основе текущего блока или CU. Как описано ниже в описании каждого режима прогнозирования, модуль прогнозирования может формировать различную информацию, связанную с прогнозированием, к примеру, информацию режима прогнозирования, и передавать сформированную информацию в энтропийный кодер 240. Информация относительно прогнозирования может кодироваться в энтропийном кодере 240 и выводиться в форме потока битов.[71] The subtractor 231 subtracts the prediction signal (predicted block, predictive samples, or array of predictive samples) output from prediction unit 220 from the input image signal (original block, original samples, or array of original samples) to obtain a remainder. A signal (residual block, residual samples, or an array of residual samples) may be generated, and the generated residual signal is provided to transformer 232. Prediction module 220 may perform prediction with respect to a target processing block (hereinafter referred to as the "current block") and generate a predicted a block that includes the predictive samples for the current block. Prediction module 220 may determine whether intra prediction or inter prediction is applied based on the current block or CU. As described below in the description of each prediction mode, the prediction module may generate various prediction-related information, such as prediction mode information, and pass the generated information to the entropy encoder 240. The prediction information may be encoded in the entropy encoder 240 and output in the form of a stream. bits.

[72] Модуль 222 внутреннего прогнозирования может прогнозировать текущий блок посредством ссылки на выборки в текущем кадре. Выборки для ссылки могут быть расположены в окружении текущего блока или могут быть расположены с разнесением согласно режиму прогнозирования. При внутреннем прогнозировании, режимы прогнозирования могут включать в себя множество ненаправленных режимов и множество направленных режимов. Ненаправленный режим может включать в себя, например, DC-режим и планарный режим. Направленный режим может включать в себя, например, 33 режима направленного прогнозирования или 65 режимов направленного прогнозирования согласно степени детальности направления прогнозирования. Тем не менее, это представляет собой просто пример, большее или меньшее число режимов направленного прогнозирования может использоваться в зависимости от настройки. Модуль 222 внутреннего прогнозирования может определять режим прогнозирования, применяемый к текущему блоку, посредством использования режима прогнозирования, применяемого к соседнему блоку.[72] The intra prediction module 222 may predict the current block by referring to the samples in the current frame. The samples for the link may be located in the surroundings of the current block, or may be spaced apart according to the prediction mode. In intra prediction, the prediction modes may include a plurality of non-directional modes and a plurality of directional modes. The non-directional mode may include, for example, a DC mode and a planar mode. The directional mode may include, for example, 33 directional prediction modes or 65 directional prediction modes according to the granularity of the prediction direction. However, this is just an example, more or less directional prediction modes may be used depending on the setting. The intra prediction unit 222 may determine the prediction mode applied to the current block by using the prediction mode applied to the neighboring block.

[73] Модуль 221 взаимного прогнозирования может извлекать прогнозированный блок для текущего блока на основе опорного блока (массива опорных выборок), указываемого посредством вектора движения для опорного кадра. Здесь, чтобы уменьшать объем информации движения, передаваемой в режиме взаимного прогнозирования, информация движения может прогнозироваться в единицах блоков, субблоков или выборок на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорного кадра. Информация движения дополнительно может включать в себя информацию направления взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование, бипрогнозирование и т.д.). В случае взаимного прогнозирования, соседний блок может включать в себя пространственный соседний блок, присутствующий в текущем кадре, и временной соседний блок, присутствующий в опорном кадре. Опорный кадр, включающий в себя опорный блок, и опорный кадр, включающий в себя временной соседний блок, могут быть идентичными или отличающимися. Временной соседний блок может называться "совместно размещенным опорным блоком", "совместно размещенной CU (colCU)" и т.п., и опорный кадр, включающий в себя временной соседний блок, может называться "совместно размещенным кадром (colPic)". Например, модуль 221 взаимного прогнозирования может конфигурировать список возможных вариантов информации движения на основе соседних блоков и формировать информацию, указывающую то, какой возможный вариант используется для того, чтобы извлекать вектор движения и/или индекс опорного кадра текущего блока. Взаимное прогнозирование может выполняться на основе различных режимов прогнозирования. Например, в случае режима пропуска и режима объединения, модуль 221 взаимного прогнозирования может использовать информацию движения соседнего блока в качестве информации движения текущего блока. В режиме пропуска, в отличие от режима объединения, остаточный сигнал может не передаваться. В случае режима прогнозирования векторов движения (MVP), вектор движения соседнего блока может использоваться в качестве предиктора вектора движения, и вектор движения текущего блока может указываться посредством передачи в служебных сигналах разности векторов движения.[73] The inter prediction unit 221 may derive a predicted block for the current block based on a reference block (reference sample array) indicated by a motion vector for the reference frame. Here, in order to reduce the amount of motion information transmitted in the inter-prediction mode, motion information may be predicted in units of blocks, sub-blocks, or samples based on the correlation of motion information between an adjacent block and a current block. The motion information may include a motion vector and a reference frame index. The motion information may further include inter-prediction direction information (L0 prediction, L1 prediction, bi-prediction, etc.). In the case of inter prediction, an adjacent block may include a spatial adjacent block present in the current frame and a temporal adjacent block present in the reference frame. The reference frame including the reference block and the reference frame including the temporal neighbor block may be the same or different. The temporal neighbor block may be referred to as a "collocated reference block", "collocated CU (colCU)" or the like, and a reference frame including the temporal neighbor block may be referred to as a "collocated frame (colPic)". For example, the inter prediction unit 221 may configure a motion information candidate list based on neighboring blocks, and generate information indicating which candidate is used to derive the motion vector and/or the reference frame index of the current block. Inter prediction may be performed based on various prediction modes. For example, in the case of the skip mode and the join mode, the inter prediction unit 221 may use the neighboring block motion information as the current block motion information. In the skip mode, unlike the merge mode, the residual signal may not be transmitted. In the case of a motion vector prediction (MVP) mode, the motion vector of an adjacent block may be used as a motion vector predictor, and the motion vector of the current block may be indicated by signaling a motion vector difference.

[74] Модуль 220 прогнозирования может формировать прогнозный сигнал на основе различных способов прогнозирования, описанных ниже. Например, модуль прогнозирования может не только применять внутреннее прогнозирование или взаимное прогнозирование для того, чтобы прогнозировать один блок, но также и одновременно применять как внутренние прогнозирование, так и взаимное прогнозирование. Это может называться "комбинированным взаимным и внутренним прогнозированием (CIIP)". Помимо этого, модуль прогнозирования может выполнять внутриблочное копирование (IBC) для прогнозирования блока. Режим IBC-прогнозирования может использоваться для кодирования изображений/видео контента игры и т.п., например, для кодирования экранного контента (SCC). IBC по существу выполняет прогнозирование в текущем кадре, но может выполняться аналогично взаимному прогнозированию, в котором опорный блок извлекается в текущем кадре. Таким образом, IBC может использовать по меньшей мере одну из технологий взаимного прогнозирования, описанных в настоящем раскрытии.[74] The prediction module 220 may generate a prediction signal based on various prediction methods described below. For example, the prediction module may not only apply intra prediction or inter prediction to predict one block, but also apply both intra prediction and inter prediction at the same time. This may be referred to as "combined mutual and intra prediction (CIIP)". In addition, the prediction module may perform intra-block copy (IBC) to predict a block. The IBC prediction mode may be used for image/video coding of game content and the like, such as screen content coding (SCC). The IBC essentially performs prediction in the current frame, but may be performed similar to inter prediction in which the reference block is retrieved in the current frame. Thus, the IBC may use at least one of the inter-prediction technologies described in this disclosure.

[75] Прогнозный сигнал, сформированный посредством модуля 221 взаимного прогнозирования и/или модуля 222 внутреннего прогнозирования, может использоваться для того, чтобы формировать восстановленный сигнал или формировать остаточный сигнал. Преобразователь 232 может формировать коэффициенты преобразования посредством применения технологии преобразования к остаточному сигналу. Например, технология преобразования может включать в себя дискретное косинусное преобразование (DCT), дискретное синусное преобразование (DST), преобразование Карунена-Лоэва (KLT), преобразование на основе графа (GBT) или условно нелинейное преобразование (CNT). Здесь, GBT означает преобразование, полученное из графа, когда информация взаимосвязи между пикселами представляется посредством графа. CNT означает преобразование, сформированное на основе прогнозного сигнала, сформированного с использованием всех ранее восстановленных пикселов. Помимо этого, процесс преобразования может применяться к квадратным пиксельным блокам, имеющим идентичный размер, или может применяться к блокам, имеющим переменный размер, а не квадратный.[75] The prediction signal generated by the inter prediction unit 221 and/or the intra prediction unit 222 may be used to generate a recovered signal or generate a residual signal. Converter 232 may generate transform coefficients by applying a transform technique to the residual signal. For example, the transform technology may include discrete cosine transform (DCT), discrete sine transform (DST), Karhunen-Loeve transform (KLT), graph-based transform (GBT), or conditionally non-linear transform (CNT). Here, GBT means a transformation obtained from a graph when relationship information between pixels is represented by a graph. CNT means a transform generated based on a predictive signal generated using all previously reconstructed pixels. In addition, the transformation process may be applied to square pixel blocks having the same size, or may be applied to blocks having a variable size rather than square.

[76] Квантователь 233 может квантовать коэффициенты преобразования и передавать их в энтропийный кодер 240, и энтропийный кодер 240 может кодировать квантованный сигнал (информацию относительно квантованных коэффициентов преобразования) и выводить поток битов. Информация относительно квантованных коэффициентов преобразования может называться "остаточной информацией". Квантователь 233 может перекомпоновывать блочные квантованные коэффициенты преобразования в одномерную векторную форму на основе порядка сканирования коэффициентов и формировать информацию относительно квантованных коэффициентов преобразования на основе квантованных коэффициентов преобразования в одномерной векторной форме. Информация относительно коэффициентов преобразования может формироваться. Энтропийный кодер 240 может осуществлять различные способы кодирования, такие как, например, кодирование экспоненциальным кодом Голомба, контекстно-адаптивное кодирование переменной длины (CAVLC), контекстно-адаптивное двоичное арифметическое кодирование (CABAC) и т.п. Энтропийный кодер 240 может кодировать информацию, необходимую для восстановления видео/изображений, отличную от квантованных коэффициентов преобразования (например, значений синтаксических элементов и т.д.), вместе или отдельно. Кодированная информация (например, кодированная информация видео/изображений) может передаваться или сохраняться в единицах NAL (слоя абстрагирования от сети) в форме потока битов. Информация видео/изображений дополнительно может включать в себя информацию относительно различных наборов параметров, таких как набор параметров адаптации (APS), набор параметров кадра (PPS), набор параметров последовательности (SPS) или набор параметров видео (VPS). Помимо этого, информация видео/изображений дополнительно может включать в себя общую информацию ограничений. В настоящем раскрытии, передача служебных сигналов/передаваемая информация и/или синтаксические элементы, описанные далее в настоящем раскрытии, могут кодироваться через вышеуказанный процесс кодирования и включаться в поток битов. Поток битов может передаваться по сети или может сохраняться на цифровом носителе хранения данных. Сеть может включать в себя широковещательную сеть и/или сеть связи, и цифровой носитель хранения данных может включать в себя различные носители хранения данных, такие как, USB, SD, CD, DVD, Blu-Ray, HDD, SSD и т.п. Передатчик (не показан), передающий сигнал, выводимый из энтропийного кодера 240, и/или модуль хранения (не показан), сохраняющий сигнал, могут включаться в качестве внутреннего/внешнего элемента оборудования 200 кодирования, и альтернативно, передатчик может включаться в энтропийный кодер 240.[76] The quantizer 233 may quantize the transform coefficients and pass them to the entropy encoder 240, and the entropy encoder 240 may encode the quantized signal (information regarding the quantized transform coefficients) and output a bit stream. The information regarding the quantized transform coefficients may be referred to as "residual information". The quantizer 233 may repackage the block quantized transform coefficients into one-dimensional vector form based on the scan order of the coefficients, and generate information about the quantized transform coefficients based on the quantized transform coefficients in one-dimensional vector form. Information regarding transform coefficients may be generated. Entropy encoder 240 may implement various coding methods such as exponential Golomb coding, context adaptive variable length coding (CAVLC), context adaptive binary arithmetic coding (CABAC), and the like, for example. Entropy encoder 240 may encode information needed for video/image reconstruction other than quantized transform coefficients (eg, syntax element values, etc.) together or separately. Encoded information (eg, encoded video/image information) may be transmitted or stored in NAL (Network Abstraction Layer) units in the form of a bitstream. The video/image information may further include information regarding various parameter sets such as an adaptation parameter set (APS), a frame parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS). In addition, the video/image information may further include general restriction information. In the present disclosure, the signaling/information to be transmitted and/or the syntax elements described later in the present disclosure may be encoded through the above encoding process and included in a bitstream. The bit stream may be transmitted over a network or may be stored on a digital storage medium. The network may include a broadcast network and/or a communications network, and the digital storage medium may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, SSD, and the like. A transmitter (not shown), transmitting a signal output from the entropy encoder 240, and/or a storage module (not shown) storing the signal may be included as an internal/external member of the encoding equipment 200, and alternatively, a transmitter may be included in the entropy encoder 240 .

[77] Квантованные коэффициенты преобразования, выводимые из квантователя 233, могут использоваться для того, чтобы формировать прогнозный сигнал. Например, остаточный сигнал (остаточный блок или остаточные выборки) может восстанавливаться посредством применения деквантования и обратного преобразования к квантованным коэффициентам преобразования через деквантователь 234 и обратный преобразователь 235. Сумматор 250 суммирует восстановленный остаточный сигнал с прогнозным сигналом, выводимым из модуля 220 прогнозирования, чтобы формировать восстановленный сигнал (восстановленный кадр, восстановленные выборки или массив восстановленных выборок). Если отсутствует остаток для блока, который должен обрабатываться, к примеру, в случае, в котором режим пропуска применяется, прогнозированный блок может использоваться в качестве восстановленного блока. Сформированный восстановленный сигнал может использоваться для внутреннего прогнозирования следующего блока, который должен обрабатываться в текущем кадре, и может использоваться для взаимного прогнозирования следующего кадра посредством фильтрации, как описано ниже.[77] The quantized transform coefficients output from quantizer 233 may be used to generate a predictive signal. For example, the residual signal (residual block or residual samples) may be recovered by applying dequantization and inverse transform to the quantized transform coefficients via dequantizer 234 and inverse transform 235. Summer 250 adds the recovered residual signal to the predictive signal output from predictor 220 to generate a reconstructed signal (recovered frame, recovered samples, or array of recovered samples). If there is no remainder for a block to be processed, such as in a case in which the skip mode is applied, the predicted block may be used as the reconstructed block. The generated recovered signal may be used to intra-predict the next block to be processed in the current frame, and may be used to inter-predict the next frame through filtering as described below.

[78] Между тем, преобразование сигнала яркости с масштабированием сигнала цветности (LMCS) может применяться во время кодирования и/или восстановления кадров.[78] Meanwhile, luminance chrominance scaling (LMCS) transform may be applied during encoding and/or frame reconstruction.

[79] Фильтр 260 может повышать субъективное/объективное качество изображений посредством применения фильтрации к восстановленному сигналу. Например, фильтр 260 может формировать модифицированный восстановленный кадр посредством применения различных способов фильтрации к восстановленному кадру и сохранять модифицированный восстановленный кадр в запоминающем устройстве 270, а именно, в DPB запоминающего устройства 270. Различные способы фильтрации могут включать в себя, например, фильтрацию для удаления блочности, фильтрацию на основе дискретизированного адаптивного смещения (SAO), адаптивный контурный фильтр, билатеральный фильтр и т.п. Фильтр 260 может формировать различную информацию, связанную с фильтрацией, и передавать сформированную информацию в энтропийный кодер 240, как описано ниже в описании каждого способа фильтрации. Информация, связанная с фильтрацией, может кодироваться посредством энтропийного кодера 240 и выводиться в форме потока битов.[79] The filter 260 can improve subjective/objective image quality by applying filtering to the reconstructed signal. For example, filter 260 may generate a modified reconstructed frame by applying various filtering methods to the reconstructed frame and store the modified reconstructed frame in memory 270, namely the DPB of memory 270. Various filtering methods may include, for example, filtering to deblock , sampling based adaptive offset (SAO) filtering, adaptive loop filter, bilateral filter, and the like. The filter 260 may generate various filtering-related information and pass the generated information to the entropy encoder 240 as described below in the description of each filtering method. Filtering related information may be encoded by entropy encoder 240 and output in the form of a bitstream.

[80] Модифицированный восстановленный кадр, передаваемый в запоминающее устройство 270, может использоваться в качестве опорного кадра в модуле 221 взаимного прогнозирования. Когда взаимное прогнозирование применяется посредством оборудования кодирования, рассогласование прогнозирования между оборудованием 200 кодирования и оборудованием 300 декодирования может исключаться, и эффективность кодирования может повышаться.[80] The modified reconstructed frame transmitted to the memory 270 may be used as a reference frame in the inter prediction module 221 . When inter prediction is applied by the encoding equipment, prediction mismatch between the encoding equipment 200 and the decoding equipment 300 can be eliminated, and encoding efficiency can be improved.

[81] DPB запоминающего устройства 270 может сохранять модифицированный восстановленный кадр для использования в качестве опорного кадра в модуле 221 взаимного прогнозирования. Запоминающее устройство 270 может сохранять информацию движения блока, из которой информация движения в текущем кадре извлекается (или кодируется), и/или информацию движения блоков в кадре, которые уже восстановлены. Сохраненная информация движения может передаваться в модуль 221 взаимного прогнозирования и использоваться в качестве информации движения пространственного соседнего блока или информации движения временного соседнего блока. Запоминающее устройство 270 может сохранять восстановленные выборки восстановленных блоков в текущем кадре и может передавать восстановленные выборки в модуль 222 внутреннего прогнозирования.[81] The DPB of the memory 270 may store the modified reconstructed frame for use as a reference frame in the inter prediction module 221 . The memory 270 may store block motion information from which motion information in the current frame is extracted (or encoded) and/or motion information of blocks in the frame that have already been recovered. The stored motion information may be transmitted to the inter-prediction unit 221 and used as spatial neighbor block motion information or temporal neighbor block motion information. The memory 270 may store the recovered samples of the recovered blocks in the current frame and may pass the recovered samples to the intra prediction module 222 .

[82] Фиг. 3 является схемой, схематично иллюстрирующей конфигурацию оборудования декодирования видео/изображений, к которому может применяться настоящее раскрытие.[82] FIG. 3 is a diagram schematically illustrating the configuration of video/image decoding equipment to which the present disclosure may apply.

[83] Ссылаясь на фиг. 3, оборудование 300 декодирования может включать в себя энтропийный декодер 310, остаточный процессор 320, модуль 330 прогнозирования, сумматор 340, фильтр 350, запоминающее устройство 360. Модуль 330 прогнозирования может включать в себя модуль 331 взаимного прогнозирования и модуль 332 внутреннего прогнозирования. Остаточный процессор 320 может включать в себя деквантователь 321 и обратный преобразователь 321. Энтропийный декодер 310, остаточный процессор 320, модуль 330 прогнозирования, сумматор 340 и фильтр 350 могут быть сконфигурированы посредством аппаратного компонента (например, набора микросхем или процессора декодера) согласно варианту осуществления. Помимо этого, запоминающее устройство 360 может включать в себя буфер декодированных кадров (DPB) или может быть сконфигурировано посредством цифрового носителя хранения данных. Аппаратный компонент дополнительно может включать в себя запоминающее устройство 360 в качестве внутреннего/внешнего компонента.[83] Referring to FIG. 3, the decoding equipment 300 may include an entropy decoder 310, a residual processor 320, a prediction module 330, an adder 340, a filter 350, a memory 360. The prediction module 330 may include an inter prediction module 331 and an intra prediction module 332. Residual processor 320 may include a dequantizer 321 and inverse converter 321. Entropy decoder 310, residual processor 320, predictor 330, adder 340, and filter 350 may be configured by a hardware component (eg, a chipset or decoder processor) according to an embodiment. In addition, the storage device 360 may include a decoded frame buffer (DPB) or may be configured with a digital storage medium. The hardware component may further include a storage device 360 as an internal/external component.

[84] Когда поток битов, включающий в себя информацию видео/изображений, вводится, оборудование 300 декодирования может восстанавливать изображение, соответствующее процессу, в котором информация видео/изображений обрабатывается в оборудовании кодирования по фиг. 2. Например, оборудование 300 декодирования может извлекать единицы/блоки на основе связанной с сегментацией на блоки информации, полученной из потока битов. Оборудование 300 декодирования может выполнять декодирование с использованием блока обработки, применяемого в оборудовании кодирования. Таким образом, блок обработки декодирования, например, может представлять собой единицу кодирования, и единица кодирования может сегментироваться согласно структуре в виде дерева квадрантов, структуре в виде двоичного дерева и/или структуре в виде троичного дерева из единицы дерева кодирования или наибольшей единицы кодирования. Одна или более единиц преобразования могут извлекаться из единицы кодирования. Восстановленный сигнал изображения, декодированный и выводимый посредством оборудования 300 декодирования, может воспроизводиться посредством оборудования воспроизведения.[84] When a bitstream including video/image information is input, the decoding equipment 300 can reconstruct an image corresponding to the process in which the video/image information is processed in the encoding equipment of FIG. 2. For example, decoding equipment 300 may extract units/blocks based on block segmentation-related information obtained from the bit stream. The decoding equipment 300 may perform decoding using a processing unit used in the encoding equipment. Thus, the decoding processing unit, for example, may be a coding unit, and the coding unit may be segmented according to a quadtree structure, a binary tree structure, and/or a ternary tree structure from the coding tree unit or the largest coding unit. One or more transformation units may be derived from a coding unit. The reconstructed image signal decoded and output by the decoding equipment 300 can be reproduced by the playback equipment.

[85] Оборудование 300 декодирования может принимать сигнал, выводимый из оборудования кодирования по фиг. 2 в форме потока битов, и принимаемый сигнал может декодироваться через энтропийный декодер 310. Например, энтропийный декодер 310 может синтаксически анализировать поток битов, чтобы извлекать информацию (например, информацию видео/изображений), необходимую для восстановления изображений (или восстановления кадров). Информация видео/изображений дополнительно может включать в себя информацию относительно различных наборов параметров, таких как набор параметров адаптации (APS), набор параметров кадра (PPS), набор параметров последовательности (SPS) или набор параметров видео (VPS). Помимо этого, информация видео/изображений дополнительно может включать в себя общую информацию ограничений. Оборудование декодирования дополнительно может декодировать кадр на основе информации относительно набора параметров и/или общей информации ограничений. Передаваемая в служебных сигналах/принимаемая информация и/или синтаксические элементы, описанные далее в настоящем раскрытии, могут декодироваться, могут декодировать процедуру декодирования и получаться из потока битов. Например, энтропийный декодер 310 декодирует информацию в потоке битов на основе способа кодирования, такого как кодирование экспоненциальным кодом Голомба, CAVLC или CABAC, и выходных синтаксических элементов, требуемых для восстановления изображений, и квантованных значений коэффициентов преобразования для остатка. Более конкретно, способ энтропийного CABAC-декодирования может принимать элемент разрешения, соответствующий каждому синтаксическому элементу в потоке битов, определять контекстную модель с использованием информации целевого синтаксического элемента декодирования, информации декодирования целевого блока декодирования или информации символа/элемента разрешения, декодированного на предыдущей стадии, и выполнять арифметическое декодирование для элемента разрешения посредством прогнозирования вероятности появления элемента разрешения согласно определенной контекстной модели и формировать символ, соответствующий значению каждого синтаксического элемента. В этом случае, способ энтропийного CABAC-декодирования может обновлять контекстную модель посредством использования информации декодированного символа/элемента разрешения для контекстной модели следующего символа/элемента разрешения после определения контекстной модели. Информация, связанная с прогнозированием, из информации, декодированной посредством энтропийного декодера 310, может предоставляться в модуль 330 прогнозирования, и информация относительно остатка, для которого энтропийное декодирование выполнено в энтропийном декодере 310, т.е. квантованные коэффициенты преобразования и связанная информация параметров, может вводиться в деквантователь 321. Помимо этого, информация относительно фильтрации из информации, декодированной посредством энтропийного декодера 310, может предоставляться в фильтр 350. Между тем, приемник (не показан) для приема сигнала, выводимого из оборудования кодирования, может быть дополнительно сконфигурирован в качестве внутреннего/внешнего элемента оборудования 300 декодирования, или приемник может представлять собой компонент энтропийного декодера 310. Между тем, оборудование декодирования согласно настоящему раскрытию может называться "оборудованием декодирования видео/изображений/кадров", и оборудование декодирования может классифицироваться на информационный декодер (декодер информации видео/изображений/кадров) и выборочный декодер (декодер выборок видео/изображений/кадров). Информационный декодер может включать в себя энтропийный декодер 310, и выборочный декодер может включать в себя по меньшей мере одно из деквантователя 321, обратного преобразователя 322, модуля 330 прогнозирования, сумматора 340, фильтра 350 и запоминающего устройства 360.[85] The decoding equipment 300 may receive a signal output from the encoding equipment of FIG. 2 in the form of a bitstream, and the received signal may be decoded via entropy decoder 310. For example, entropy decoder 310 may parse the bitstream to extract information (eg, video/image information) needed for image recovery (or frame recovery). The video/image information may further include information regarding various parameter sets such as an adaptation parameter set (APS), a frame parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS). In addition, the video/image information may further include general restriction information. The decoding equipment may further decode the frame based on the parameter set information and/or general constraint information. Signaling/receiving information and/or syntax elements described later in this disclosure may be decoded, may be decoded by a decoding procedure, and obtained from a bitstream. For example, entropy decoder 310 decodes information in the bitstream based on an encoding method such as Exponential Golomb, CAVLC, or CABAC coding and output syntax elements required for image reconstruction and quantized transform coefficient values for the remainder. More specifically, the CABAC entropy decoding method can receive a bin corresponding to each syntax element in the bit stream, determine a context model using the decoding target syntax element information, the decoding information of the decoding target block, or the symbol/bin information decoded in the previous step, and perform arithmetic decoding on the permission element by predicting the occurrence probability of the permission element according to the determined context model, and generating a character corresponding to the value of each syntax element. In this case, the CABAC entropy decoding method can update the context model by using the decoded symbol/bin information for the context model of the next symbol/bin after the context model is determined. Prediction-related information from the information decoded by the entropy decoder 310 may be provided to the prediction unit 330, and information regarding the residue for which entropy decoding is performed in the entropy decoder 310, i. quantized transform coefficients and related parameter information may be input to the dequantizer 321. In addition, information regarding filtering from the information decoded by the entropy decoder 310 may be provided to the filter 350. Meanwhile, a receiver (not shown) for receiving a signal output from the equipment encoding equipment may be further configured as an internal/external member of the decoding equipment 300, or the receiver may be a component of the entropy decoder 310. Meanwhile, the decoding equipment according to the present disclosure may be referred to as "video/image/frame decoding equipment", and the decoding equipment may be classified into an information decoder (video/image/frame information decoder) and a sample decoder (video/image/frame sample decoder). The information decoder may include an entropy decoder 310, and the selective decoder may include at least one of a dequantizer 321, an inverse transform 322, a predictor 330, an adder 340, a filter 350, and a memory 360.

[86] Деквантователь 321 может деквантовать квантованные коэффициенты преобразования и выводить коэффициенты преобразования. Деквантователь 321 может перекомпоновывать квантованные коэффициенты преобразования в форме двумерной блочной формы. В этом случае, перекомпоновка может выполняться на основе порядка сканирования коэффициентов, выполняемого в оборудовании кодирования. Деквантователь 321 может выполнять деквантование для квантованных коэффициентов преобразования посредством использования параметра квантования (например, информации размера шага квантования) и получать коэффициенты преобразования.[86] The dequantizer 321 may dequantize the quantized transform coefficients and output the transform coefficients. The dequantizer 321 may recompose the quantized transform coefficients into a two-dimensional block form. In this case, the reassembly may be performed based on the coefficient scan order performed in the encoding equipment. The dequantizer 321 may perform dequantization on the quantized transform coefficients by using a quantization parameter (eg, quantization step size information) and obtain the transform coefficients.

[87] Обратный преобразователь 322 обратно преобразует коэффициенты преобразования, чтобы получать остаточный сигнал (остаточный блок, массив остаточных выборок).[87] The inverse transform 322 inversely transforms the transform coefficients to obtain a residual signal (residual block, array of residual samples).

[88] Модуль 230 прогнозирования может выполнять прогнозирование для текущего блока и может формировать прогнозированный блок, включающий в себя прогнозные выборки для текущего блока. Модуль прогнозирования может определять то, применяется внутреннее прогнозирование или взаимное прогнозирование к текущему блоку, на основе информации относительно прогнозирования, выводимой из энтропийного декодера 310, и может определять конкретный режим внутреннего/взаимного прогнозирования.[88] Prediction module 230 may perform prediction for the current block and may generate a predicted block including prediction samples for the current block. The prediction module may determine whether intra prediction or inter prediction is applied to the current block based on the prediction information output from the entropy decoder 310, and may determine a specific intra/inter prediction mode.

[89] Модуль прогнозирования может формировать прогнозный сигнал на основе различных способов прогнозирования, описанных ниже. Например, модуль прогнозирования может не только применять внутреннее прогнозирование или взаимное прогнозирование для того, чтобы прогнозировать один блок, но также и одновременно применять внутреннее прогнозирование и взаимное прогнозирование. Это может называться "комбинированным взаимным и внутренним прогнозированием (CIIP)". Помимо этого, модуль прогнозирования может выполнять внутриблочное копирование (IBC). Внутриблочное копирование может использоваться для кодирования изображений/видео контента игры и т.п., например, для кодирования экранного контента (SCC). IBC по существу выполняет прогнозирование в текущем кадре, но может выполняться аналогично взаимному прогнозированию, в котором опорный блок извлекается в текущем кадре. Таким образом, IBC может использовать по меньшей мере одну из технологий взаимного прогнозирования, описанных в настоящем раскрытии.[89] The prediction module may generate a prediction signal based on various prediction methods described below. For example, the prediction module may not only apply intra prediction or inter prediction in order to predict one block, but also apply intra prediction and inter prediction at the same time. This may be referred to as "combined mutual and intra prediction (CIIP)". In addition, the prediction module can perform intra-block copy (IBC). In-block copying can be used for image/video encoding of game content and the like, such as on-screen content coding (SCC). The IBC essentially performs prediction in the current frame, but may be performed similar to inter prediction in which the reference block is retrieved in the current frame. Thus, the IBC may use at least one of the inter-prediction technologies described in this disclosure.

[90] Модуль 331 внутреннего прогнозирования может прогнозировать текущий блок посредством ссылки на выборки в текущем кадре. Выборки для ссылки могут быть расположены в окружении текущего блока или могут быть расположены с разнесением согласно режиму прогнозирования. При внутреннем прогнозировании, режимы прогнозирования могут включать в себя множество ненаправленных режимов и множество направленных режимов. Модуль 331 внутреннего прогнозирования может определять режим прогнозирования, применяемый к текущему блоку, посредством использования режима прогнозирования, применяемого к соседнему блоку.[90] The intra prediction module 331 may predict the current block by referring to the samples in the current frame. The samples for the link may be located in the surroundings of the current block, or may be spaced apart according to the prediction mode. In intra prediction, the prediction modes may include a plurality of non-directional modes and a plurality of directional modes. The intra prediction unit 331 may determine the prediction mode applied to the current block by using the prediction mode applied to the neighboring block.

[91] Модуль 332 взаимного прогнозирования может извлекать прогнозированный блок для текущего блока на основе опорного блока (массива опорных выборок), указываемого посредством вектора движения для опорного кадра. В этом случае, чтобы уменьшать объем информации движения, передаваемой в режиме взаимного прогнозирования, информация движения может прогнозироваться в единицах блоков, субблоков или выборок на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорного кадра. Информация движения дополнительно может включать в себя информацию направления взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование, бипрогнозирование и т.д.). В случае взаимного прогнозирования, соседний блок может включать в себя пространственный соседний блок, присутствующий в текущем кадре, и временной соседний блок, присутствующий в опорном кадре. Например, модуль 332 взаимного прогнозирования может конфигурировать список возможных вариантов информации движения на основе соседних блоков и извлекать вектор движения текущего блока и/или индекс опорного кадра на основе принимаемой информации выбора возможных вариантов. Взаимное прогнозирование может выполняться на основе различных режимов прогнозирования, и информация относительно прогнозирования может включать в себя информацию, указывающую режим взаимного прогнозирования для текущего блока.[91] The inter prediction unit 332 may derive a predicted block for the current block based on a reference block (reference sample array) indicated by a motion vector for the reference frame. In this case, in order to reduce the amount of motion information transmitted in the inter-prediction mode, the motion information may be predicted in units of blocks, sub-blocks, or samples based on the correlation of the motion information between the adjacent block and the current block. The motion information may include a motion vector and a reference frame index. The motion information may further include inter-prediction direction information (L0 prediction, L1 prediction, bi-prediction, etc.). In the case of inter prediction, an adjacent block may include a spatial adjacent block present in the current frame and a temporal adjacent block present in the reference frame. For example, inter-prediction unit 332 may configure a motion information candidate list based on adjacent blocks, and derive the current block's motion vector and/or reference frame index based on the received candidate selection information. Inter prediction may be performed based on various prediction modes, and the prediction information may include information indicative of the inter prediction mode for the current block.

[92] Сумматор 340 может формировать восстановленный сигнал (восстановленный кадр, восстановленный блок, массив восстановленных выборок) посредством суммирования полученного остаточного сигнала с прогнозным сигналом (прогнозированным блоком, массивом прогнозированных выборок), выводимым из модуля 330 прогнозирования. Если отсутствует остаток для блока, который должен обрабатываться, к примеру, когда режим пропуска применяется, прогнозированный блок может использоваться в качестве восстановленного блока.[92] The adder 340 may generate a reconstructed signal (recovered frame, reconstructed block, reconstructed sample array) by summing the obtained residual signal with the predictive signal (predicted block, predicted sample array) output from prediction module 330. If there is no remainder for the block to be processed, for example, when the skip mode is applied, the predicted block may be used as the reconstructed block.

[93] Сумматор 340 может называться "модулем восстановления" или "формирователем восстановленных блоков". Сформированный восстановленный сигнал может использоваться для внутреннего прогнозирования следующего блока, который должен обрабатываться в текущем кадре, может выводиться посредством фильтрации, как описано ниже, или может использоваться для взаимного прогнозирования следующего кадра.[93] The adder 340 may be referred to as a "recovery module" or "recovered block generator". The generated recovered signal may be used for intra prediction of the next block to be processed in the current frame, may be output by filtering as described below, or may be used for inter prediction of the next frame.

[94] Между тем, преобразование сигнала яркости с масштабированием сигнала цветности (LMCS) может применяться в процессе декодирования кадров.[94] Meanwhile, luminance chrominance scaling (LMCS) transform may be applied in the frame decoding process.

[95] Фильтр 350 может повышать субъективное/объективное качество изображений посредством применения фильтрации к восстановленному сигналу. Например, фильтр 350 может формировать модифицированный восстановленный кадр посредством применения различных способов фильтрации к восстановленному кадру и сохранять модифицированный восстановленный кадр в запоминающем устройстве 360, а именно, в DPB запоминающего устройства 360. Различные способы фильтрации могут включать в себя, например, фильтрацию для удаления блочности, фильтрацию на основе дискретизированного адаптивного смещения, адаптивный контурный фильтр, билатеральный фильтр и т.п.[95] The filter 350 can improve subjective/objective image quality by applying filtering to the reconstructed signal. For example, filter 350 may generate a modified reconstructed frame by applying various filtering methods to the reconstructed frame and store the modified reconstructed frame in memory 360, namely the DPB of memory 360. Various filtering methods may include, for example, filtering to deblock , filtering based on a sampled adaptive bias, an adaptive loop filter, a bilateral filter, and the like.

[96] (Модифицированный) восстановленный кадр, сохраненный в DPB запоминающего устройства 360, может использоваться в качестве опорного кадра в модуле 332 взаимного прогнозирования. Запоминающее устройство 360 может сохранять информацию движения блока, из которой информация движения в текущем кадре извлекается (или декодируется), и/или информацию движения блоков в кадре, которые уже восстановлены. Сохраненная информация движения может передаваться в модуль 260 взаимного прогнозирования, так что она используется в качестве информации движения пространственного соседнего блока или информации движения временного соседнего блока. Запоминающее устройство 360 может сохранять восстановленные выборки восстановленных блоков в текущем кадре и передавать восстановленные выборки в модуль 331 внутреннего прогнозирования.[96] The (modified) reconstructed frame stored in the DPB of the storage device 360 may be used as a reference frame in the inter prediction module 332 . The memory 360 may store block motion information from which motion information in the current frame is extracted (or decoded) and/or motion information of blocks in the frame that have already been recovered. The stored motion information may be transmitted to the inter-prediction unit 260 so that it is used as spatial neighbor block motion information or temporal neighbor block motion information. The memory device 360 may store the reconstructed samples of the reconstructed blocks in the current frame and pass the reconstructed samples to the intra prediction module 331 .

[97] В этом подробном описании, варианты осуществления, описанные в модуле 330 прогнозирования, деквантователе 321, обратном преобразователе 322 и фильтре 350 оборудования 300 декодирования, представляют собой модуль 220 прогнозирования, деквантователь 234, обратный преобразователь 235 и фильтр 260 и могут применяться идентичным или соответствующим способом.[97] In this detailed description, the embodiments described in the prediction module 330, the dequantizer 321, the inverse converter 322, and the filter 350 of the decoding equipment 300 are the prediction module 220, the dequantizer 234, the inverse converter 235, and the filter 260, and can be applied identically or in the appropriate way.

[98] Как описано выше, при кодировании видео, прогнозирование выполняется для того, чтобы повышать эффективность сжатия. Через это, можно формировать прогнозированный блок, включающий в себя прогнозные выборки для текущего блока, который представляет собой блок, который должен кодироваться. Здесь, прогнозированный блок включает в себя прогнозные выборки в пространственной области (или пиксельной области). Прогнозированный блок извлекается одинаково из оборудования кодирования и оборудования декодирования, и оборудование кодирования декодирует информацию (остаточную информацию) относительно остатка между исходным блоком и прогнозированным блоком, а не исходное выборочное значение самого исходного блока. Посредством передачи служебных сигналов в устройство, может повышаться эффективность кодирования изображений. Оборудование декодирования может извлекать остаточный блок, включающий в себя остаточные выборки на основе остаточной информации, и формировать восстановленный блок, включающий в себя восстановленные выборки, посредством суммирования остаточного блока с прогнозированным блоком и формировать восстановленный кадр, включающий в себя восстановленные блоки.[98] As described above, when encoding video, prediction is performed in order to improve compression efficiency. Through this, it is possible to generate a prediction block including the prediction samples for the current block, which is the block to be encoded. Here, the prediction block includes prediction samples in the spatial domain (or pixel domain). The predicted block is extracted equally from the encoding equipment and the decoding equipment, and the encoding equipment decodes information (residual information) about the residual between the original block and the predicted block, rather than the original sample value of the original block itself. By signaling to the device, image coding efficiency can be improved. The decoding equipment can extract a residual block including the residual samples based on the residual information, and generate a reconstructed block including the reconstructed samples by summing the residual block with the predicted block, and generate a reconstructed frame including the reconstructed blocks.

[99] Остаточная информация может формироваться через процессы преобразования и квантования. Например, оборудование кодирования может извлекать остаточный блок между исходным блоком и прогнозированным блоком и выполнять процесс преобразования для остаточных выборок (массива остаточных выборок), включенных в остаточный блок, чтобы извлекать коэффициенты преобразования, и после этого, посредством выполнения процесса квантования для коэффициентов преобразования, извлекать квантованные коэффициенты преобразования, чтобы передавать в служебных сигналах остаточную связанную информацию в оборудование декодирования (через поток битов). Здесь, остаточная информация может включать в себя информацию местоположения, технологию преобразования, ядро преобразования и параметр квантования, информацию значений квантованных коэффициентов преобразования и т.д. Оборудование декодирования может выполнять процесс деквантования/обратного преобразования на основе остаточной информации и извлекать остаточные выборки (или остаточные блоки). Оборудование декодирования может формировать восстановленный кадр на основе прогнозированного блока и остаточного блока. Оборудование кодирования также может деквантовать/обратно преобразовывать квантованные коэффициенты преобразования для ссылки для взаимного прогнозирования более позднего кадра, чтобы извлекать остаточный блок и формировать восстановленный кадр на его основе.[99] Residual information may be generated through transformation and quantization processes. For example, the encoding equipment may extract the residual block between the original block and the predicted block, and perform a transform process on the residual samples (array of residual samples) included in the residual block to extract transform coefficients, and thereafter, by performing a quantization process on the transform coefficients, extract quantized transform coefficients to signal the residual associated information to the decoding equipment (via the bitstream). Here, the residual information may include location information, transform technology, transform kernel and quantization parameter, quantized transform coefficient value information, and so on. The decoding equipment may perform a dequantization/inverse transform process based on the residual information and extract residual samples (or residual blocks). The decoding equipment may generate a reconstructed frame based on the predicted block and the residual block. The encoding equipment may also dequantize/inversely transform the quantized transform coefficients for a later frame inter-prediction reference to extract the residual block and generate a reconstructed frame based on it.

[100] В настоящем раскрытии по меньшей мере одно из квантования/деквантования и/или преобразования/обратного преобразования может опускаться. Когда квантование/деквантование опускается, квантованный коэффициент преобразования может называться "коэффициентом преобразования". Когда преобразование/обратное преобразование опускается, коэффициенты преобразования могут называться "коэффициентами" или "остаточными коэффициентами" либо по-прежнему могут называться "коэффициентами преобразования" для единообразности выражения.[100] In the present disclosure, at least one of quantization/dequantization and/or transformation/inverse transformation may be omitted. When quantization/dequantization is omitted, the quantized transform coefficient may be referred to as a "transform coefficient". When the transform/inverse transform is omitted, the transform coefficients may be referred to as "coefficients" or "residual coefficients", or may still be referred to as "transform coefficients" for uniformity of expression.

[101] В настоящем раскрытии, квантованный коэффициент преобразования и коэффициент преобразования могут называться "коэффициентом преобразования" и "масштабированным коэффициентом преобразования", соответственно. В этом случае, остаточная информация может включать в себя информацию относительно коэффициента(ов) преобразования, и информация относительно коэффициента(ов) преобразования может передаваться в служебных сигналах через синтаксис остаточного кодирования. Коэффициенты преобразования могут извлекаться на основе остаточной информации (или информации относительно коэффициента(ов) преобразования), и масштабированные коэффициенты преобразования могут извлекаться через обратное преобразование (масштабирование) для коэффициентов преобразования. Остаточные выборки могут извлекаться на основе обратного преобразования (преобразования) масштабированных коэффициентов преобразования. Это также может применяться/выражаться в других частях настоящего раскрытия.[101] In the present disclosure, the quantized transform coefficient and the transform coefficient may be referred to as "transform coefficient" and "scaled transform coefficient", respectively. In this case, the residual information may include information on the transform coefficient(s), and information on the transform coefficient(s) may be signaled via the residual coding syntax. The transform coefficients may be derived based on the residual information (or information regarding the transform coefficient(s)), and the scaled transform coefficients may be derived via an inverse transform (scaling) of the transform coefficients. Residual samples may be derived based on an inverse transform (transform) of the scaled transform coefficients. This may also be applied/expressed in other parts of this disclosure.

[102] Модуль прогнозирования оборудования кодирования/оборудования декодирования может извлекать прогнозную выборку посредством выполнения взаимного прогнозирования в единицах блоков. Взаимное прогнозирование может представлять собой прогнозирование, извлекаемое таким способом, который зависит от элементов данных (например, выборочных значений или информации движения и т.д.) кадра(ов), отличного от текущего кадра. Когда взаимное прогнозирование применяется к текущему блоку, прогнозированный блок (массив прогнозных выборок) для текущего блока может извлекаться на основе опорного блока (массива опорных выборок), указываемого посредством вектора движения в опорном кадре, указываемом посредством индекса опорного кадра. Здесь, чтобы уменьшать объем информации движения, передаваемой в режиме взаимного прогнозирования, информация движения текущего блока может прогнозироваться в единицах блоков, субблоков или выборок на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорного кадра. Информация движения дополнительно может включать в себя информацию типа взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование, бипрогнозирование и т.д.). В случае взаимного прогнозирования, соседний блок может включать в себя пространственный соседний блок, присутствующий в текущем кадре, и временной соседний блок, присутствующий в опорном кадре. Опорный кадр, включающий в себя опорный блок, и опорный кадр, включающий в себя временной соседний блок, могут быть идентичными или отличающимися. Временной соседний блок может называться "совместно размещенным опорным блоком", "совместно размещенной CU (colCU)" и т.п., и опорный кадр, включающий в себя временной соседний блок, может называться "совместно размещенным кадром (colPic)". Например, список возможных вариантов информации движения может быть сконфигурирован на основе соседних блоков текущего блока, и информация флага или индекса, указывающая то, какой возможный вариант выбирается (используется), может передаваться в служебных сигналах, чтобы извлекать вектор движения и/или индекс опорного кадра текущего блока. Взаимное прогнозирование может выполняться на основе различных режимов прогнозирования. Например, в случае режима пропуска и режима объединения, информация движения текущего блока может быть идентичной информации движения соседнего блока. В режиме пропуска, в отличие от режима объединения, остаточный сигнал может не передаваться. В случае режима прогнозирования векторов движения (MVP), вектор движения выбранного соседнего блока может использоваться в качестве предиктора вектора движения, и вектор движения текущего блока может передаваться в служебных сигналах. В этом случае, вектор движения текущего блока может извлекаться с использованием суммы предиктора вектора движения и разности векторов движения.[102] The prediction unit of the encoding equipment/decoding equipment can extract a predictive sample by performing inter prediction in units of blocks. Inter-prediction may be a prediction derived in a manner that depends on data elements (eg, sample values or motion information, etc.) of a frame(s) other than the current frame. When inter prediction is applied to a current block, a predicted block (predictive sample array) for the current block may be derived based on a reference block (reference sample array) indicated by a motion vector in a reference frame indicated by a reference frame index. Here, in order to reduce the amount of motion information transmitted in the inter-prediction mode, the motion information of the current block may be predicted in units of blocks, sub-blocks, or samples based on the correlation of the motion information between the neighboring block and the current block. The motion information may include a motion vector and a reference frame index. The motion information may further include inter-prediction type information (L0 prediction, L1 prediction, bi-prediction, etc.). In the case of inter prediction, an adjacent block may include a spatial adjacent block present in the current frame and a temporal adjacent block present in the reference frame. The reference frame including the reference block and the reference frame including the temporal neighbor block may be the same or different. The temporal neighbor block may be referred to as a "collocated reference block", "collocated CU (colCU)" or the like, and a reference frame including the temporal neighbor block may be referred to as a "collocated frame (colPic)". For example, a list of motion information candidates may be configured based on adjacent blocks of the current block, and flag or index information indicating which candidate is selected (used) may be signaled to derive a motion vector and/or a reference frame index. current block. Inter prediction may be performed based on various prediction modes. For example, in the case of the skip mode and the join mode, the motion information of the current block may be identical to the motion information of the neighboring block. In the skip mode, unlike the combine mode, the residual signal may not be transmitted. In the case of a motion vector prediction (MVP) mode, the motion vector of a selected neighboring block may be used as a motion vector predictor, and the motion vector of the current block may be signaled. In this case, the motion vector of the current block may be extracted using the sum of the motion vector predictor and the motion vector difference.

[103] Информация движения может включать в себя L0-информацию движения и/или L1-информацию движения согласно типу взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование, бипрогнозирование и т.д.). Вектор движения в L0-направлении может называться "L0-вектором движения" или "MVL0", и вектор движения в L1-направлении может называться "L1-вектором движения" или "MVL1". Прогнозирование на основе L0-вектора движения может называться "L0-прогнозированием", прогнозирование на основе L1-вектора движения может называться "L1-прогнозированием", и прогнозирование на основе как L0-вектора движения, так и L1-вектора движения может называться "бипрогнозированием". Здесь, L0-вектор движения может указывать вектор движения, ассоциированный со списком L0 опорных кадров (L0), и L1-вектор движения может указывать вектор движения, ассоциированный со списком L1 опорных кадров (L1). Список L0 опорных кадров может включать в себя кадры, которые находятся раньше в порядке вывода, чем текущий кадр, в качестве опорных кадров, и список L1 опорных кадров может включать в себя кадры, которые находятся позже в порядке вывода, чем текущий кадр. Предыдущие кадры могут называться "прямыми (опорными) кадрами", и последующие кадры могут называться "обратными (опорными) кадрами". Список L0 опорных кадров дополнительно может включать в себя кадры, которые находятся позже в порядке вывода, чем текущий кадр, в качестве опорных кадров. В этом случае, предыдущие кадры могут индексироваться сначала в списке L0 опорных кадров, и последующие кадры могут индексироваться позже. Список L1 опорных кадров дополнительно может включать в себя предыдущие кадры в порядке вывода относительно текущего кадра в качестве опорных кадров. В этом случае, последующие кадры могут индексироваться сначала в списке 1 опорных кадров, и предыдущие кадры могут индексироваться позже. Порядок вывода может соответствовать порядку номеров в последовательности кадров (POC).[103] The motion information may include L0 motion information and/or L1 motion information according to the type of mutual prediction (L0 prediction, L1 prediction, bi-prediction, etc.). The motion vector in the L0 direction may be referred to as the "L0 motion vector" or "MVL0", and the motion vector in the L1 direction may be referred to as the "L1 motion vector" or "MVL1". Prediction based on the L0 motion vector may be referred to as "L0 prediction", prediction based on the L1 motion vector may be referred to as "L1 prediction", and prediction based on both the L0 motion vector and the L1 motion vector may be referred to as "biprediction". ". Here, the L0 motion vector may indicate a motion vector associated with the L0 list of reference frames (L0), and the L1 motion vector may indicate a motion vector associated with the L1 list of reference frames (L1). The reference frame list L0 may include frames that are earlier in the output order than the current frame as reference frames, and the reference frame list L1 may include frames that are later in the output order than the current frame. Previous frames may be referred to as "forward (reference) frames", and subsequent frames may be referred to as "reverse (reference) frames". The reference frame list L0 may further include frames that are later in the output order than the current frame as reference frames. In this case, previous frames may be indexed first in the reference frame list L0, and subsequent frames may be indexed later. The reference frame list L1 may further include previous frames in output order relative to the current frame as reference frames. In this case, subsequent frames may be indexed first in the reference frame list 1, and previous frames may be indexed later. The output order may correspond to the order of the numbers in the order of frames (POC).

[104] Фиг. 4 примерно показывает иерархическую структуру для кодированного изображения/видео.[104] FIG. 4 roughly shows the hierarchical structure for an encoded picture/video.

[105] Ссылаясь на фиг. 4, кодированное изображение/видео разделяется на слой кодирования видео (VCL), который обрабатывает процесс декодирования изображения/видео и себя, подсистему, которая передает и сохраняет кодированную информацию, и NAL (слой абстрагирования от сети), отвечающий за функцию и присутствующий между VCL и подсистемой.[105] Referring to FIG. 4, the encoded image/video is divided into a video coding layer (VCL) that handles the process of decoding the image/video and itself, a subsystem that transmits and stores the encoded information, and a NAL (network abstraction layer) responsible for the function and present between the VCL. and subsystem.

[106] В VCL, формируются VCL-данные, включающие в себя сжатые данные изображений (данные срезов), либо может формироваться набор параметров, включающий в себя набор параметров кадра (PSP), набор параметров последовательности (SPS) и набор параметров видео (VPS), или сообщение с дополнительной улучшающей информацией (SEI), дополнительно требуемое для процесса декодирования изображений.[106] In the VCL, VCL data including compressed image data (slice data) is generated, or a parameter set including a frame parameter set (PSP), a sequence parameter set (SPS), and a video parameter set (VPS) may be generated. ), or a Supplemental Enhancement Information (SEI) message additionally required for the picture decoding process.

[107] В NAL, NAL-единица может формироваться посредством добавления информации заголовка (заголовка NAL-единицы) в первичную байтовую последовательность данных (RBSP), сформированную в VCL. В этом случае, RBSP означает данные срезов, набор параметров, SEI-сообщение и т.д., сформированные в VCL. Заголовок NAL-единицы может включать в себя информацию типа NAL-единиц, указываемую согласно RBSP-данным, включенным в соответствующую NAL-единицу.[107] In the NAL, a NAL unit may be generated by adding header information (NAL unit header) to a Primary Data Byte Sequence (RBSP) generated in the VCL. In this case, RBSP means slice data, parameter set, SEI message, etc. generated in the VCL. The NAL unit header may include NAL unit type information indicated according to the RBSP data included in the corresponding NAL unit.

[108] Как показано на чертеже, NAL-единица может классифицироваться на VCL NAL-единицу и не-VCL NAL-единицу согласно RBSP, сформированной в VCL. VCL NAL-единица может означать NAL-единицу, которая включает в себя информацию относительно изображения (данных срезов) в изображении, и не-VCL NAL-единица может означать NAL-единицу, которая включает в себя информацию (набор параметров или SEI-сообщение) требуемый для декодирования изображения.[108] As shown in the drawing, a NAL unit can be classified into a VCL NAL unit and a non-VCL NAL unit according to the RBSP generated in the VCL. A VCL NAL unit may mean a NAL unit that includes information about an image (slice data) in an image, and a non-VCL NAL unit may mean a NAL unit that includes information (parameter set or SEI message) required for image decoding.

[109] Вышеуказанные VCL NAL-единица и не-VCL NAL-единица могут передаваться через сеть посредством присоединения информации заголовка согласно стандарту данных подсистемы. Например, NAL-единица может преобразовываться в формат данных предварительно определенного стандарта, такого как формат файлов H.266/VVC, транспортный протокол реального времени (RTP), транспортный поток (TS) и т.д., и передаваться через различные сети.[109] The above VCL NAL unit and non-VCL NAL unit can be transmitted through the network by attaching header information according to the subsystem data standard. For example, the NAL unit can be converted to a data format of a predetermined standard such as H.266/VVC file format, Real Time Transport Protocol (RTP), Transport Stream (TS), etc., and transmitted through various networks.

[110] Как описано выше, NAL-единица может указываться с типом NAL-единицы согласно структуре RBSP-данных, включенной в соответствующую NAL-единицу, и информация относительно типа NAL-единицы может сохраняться и передаваться в служебных сигналах в заголовке NAL-единицы.[110] As described above, the NAL unit may be indicated with the type of the NAL unit according to the RBSP data structure included in the corresponding NAL unit, and information regarding the type of the NAL unit may be stored and signaled in the header of the NAL unit.

[111] Например, NAL-единица может классифицироваться на тип VCL NAL-единицы и тип не-VCL NAL-единицы согласно тому, включает или нет NAL-единица в себя информацию (данные срезов) относительно изображения. Тип VCL NAL-единицы может классифицироваться согласно природе и типу кадров, включенных в VCL NAL-единицу, и тип не-VCL NAL-единицы может классифицироваться согласно типам наборов параметров.[111] For example, a NAL unit may be classified into a VCL type of a NAL unit and a non-VCL NAL unit type according to whether or not the NAL unit includes information (slice data) about an image. The VCL type of the NAL unit may be classified according to the nature and type of frames included in the VCL NAL unit, and the non-VCL type of the NAL unit may be classified according to parameter set types.

[112] Ниже приводится пример типа NAL-единицы, указываемого согласно типу набора параметров, включенного в тип не-VCL NAL-единицы.[112] The following is an example of a NAL unit type specified according to a parameter set type included in a non-VCL NAL unit type.

[113] - NAL-единица APS (набора параметров адаптации): Тип для NAL-единицы, включающей в себя APS[113] - APS (Adaptation Parameter Set) NAL Unit: A type for a NAL unit including an APS

[114] - NAL-единица DPS (набора параметров декодирования): Тип для NAL-единицы, включающей в себя DPS[114] - DPS (Decoding Parameter Set) NAL Unit: A type for a NAL unit including a DPS

[115] - NAL-единица VPS (набора параметров видео): Тип для NAL-единицы, включающей в себя VPS[115] - VPS (Video Parameter Set) NAL Unit: A type for a NAL unit including a VPS

[116] - NAL-единица SPS (набора параметров последовательности): Тип для NAL-единицы, включающей в себя SPS[116] - SPS (Sequence Parameter Set) NAL Unit: A type for a NAL unit including an SPS

[117] - NAL-единица PPS (набора параметров кадра): Тип для NAL-единицы, включающей в себя PPS[117] - PPS (Frame Parameter Set) NAL Unit: A type for a NAL unit including a PPS

[118] - NAL-единица PH (заголовка кадра): Тип для NAL-единицы, включающей в себя PH[118] - PH (Frame Header) NAL Unit: A type for a NAL unit including a PH

[119] Вышеуказанные типы NAL-единиц могут иметь синтаксическую информацию для типа NAL-единицы, и синтаксическая информация может сохраняться и передаваться в служебных сигналах в заголовке NAL-единицы. Например, синтаксическая информация может быть nal_unit_type, и типы NAL-единиц могут указываться посредством значения nal_unit_type.[119] The above NAL unit types may have syntax information for the NAL unit type, and the syntax information may be stored and signaled in the NAL unit header. For example, the syntax information may be nal_unit_type and the types of NAL units may be indicated by the value of nal_unit_type.

[120] Между тем, как описано выше, один кадр может включать в себя множество срезов, и один срез может включать в себя заголовок среза и данные срезов. В этом случае, один заголовок кадра дополнительно может добавляться во множество срезов (заголовок среза и набор данных срезов) в одном кадре. Заголовок кадра (синтаксис заголовков кадра) может включать в себя информацию/параметры, обычно применимую к кадру. В настоящем раскрытии, срез может смешиваться или заменяться группой плиток. Кроме того, в настоящем раскрытии, заголовок среза может смешиваться или заменяться заголовком группы плиток.[120] Meanwhile, as described above, one frame may include a plurality of slices, and one slice may include a slice header and slice data. In this case, one frame header may additionally be added to a plurality of slices (a slice header and a slice data set) in one frame. The frame header (frame header syntax) may include information/parameters generally applicable to the frame. In the present disclosure, a slice may be mixed or replaced by a group of tiles. In addition, in the present disclosure, the slice header may be mixed with or replaced with a tile group header.

[121] Заголовок среза (синтаксис заголовка среза, информация заголовка среза) может включать в себя информацию/параметры, которая может применяться обобщенно к срезу. APS (APS-синтаксис) или PPS (PPS-синтаксис) может включать в себя информацию/параметры, которая может применяться обобщенно к одному или более срезов или кадров. SPS (SPS-cинтаксис) может включать в себя информацию/параметры, которая может применяться обобщенно к одной или более последовательностей. VPS (VPS-синтаксис) может включать в себя информацию/параметры, которая может применяться обобщенно к нескольким слоям. DPS (DPS-синтаксис) может включать в себя информацию/параметры, которая может применяться обобщенно к полному видео. DPS может включать в себя информацию/параметры, связанную с конкатенацией кодированной видеопоследовательности (CVS). Высокоуровневый синтаксис (HLS) в настоящем раскрытии может включать в себя по меньшей мере одно из APS-синтаксиса, PPS-синтаксиса, SPS-cинтаксиса, VPS-синтаксиса, DPS-синтаксиса и синтаксиса заголовков срезов.[121] The slice header (slice header syntax, slice header information) may include information/parameters that may be applied generically to the slice. APS (APS Syntax) or PPS (PPS Syntax) may include information/parameters that may be applied generically to one or more slices or frames. SPS (SPS syntax) may include information/parameters that may be applied generically to one or more sequences. VPS (VPS Syntax) may include information/parameters that may be applied generically to multiple layers. DPS (DPS Syntax) may include information/parameters that may be applied generically to the full video. The DPS may include information/parameters related to coded video sequence (CVS) concatenation. The High Level Syntax (HLS) in the present disclosure may include at least one of APS Syntax, PPS Syntax, SPS Syntax, VPS Syntax, DPS Syntax, and Slice Header Syntax.

[122] В настоящем раскрытии, изображение/информация изображений, кодированная из оборудования кодирования и передаваемая в служебных сигналах в оборудование декодирования в форме потока битов, включает в себя не только связанную с сегментацией информацию в кадре, информацию внутреннего/взаимного прогнозирования, остаточную информацию, информацию внутриконтурной фильтрации и т.п., но также и информацию, включенную в заголовок среза, информацию, включенную в APS, информацию, включенную в PPS, информацию, включенную в SPS, и/или информацию, включенную в VPS.[122] In the present disclosure, the image/image information encoded from the encoding equipment and signaled to the decoding equipment in the form of a bit stream includes not only segmentation-related information in a frame, intra/inter prediction information, residual information, in-loop filtering information and the like, but also information included in the slice header, information included in the APS, information included in the PPS, information included in the SPS, and/or information included in the VPS.

[123] Между тем, чтобы компенсировать разность между исходным изображением и восстановленным изображением вследствие ошибки, возникающей в процессе кодирования со сжатием, таком как, квантование, процесс внутриконтурной фильтрации может выполняться для восстановленных выборок или восстановленных кадров, как описано выше. Как описано выше, внутриконтурная фильтрация может выполняться посредством фильтра оборудования кодирования и фильтра оборудования декодирования, и может применяться фильтр удаления блочности, SAO и/или адаптивный контурный фильтр (ALF). Например, ALF-процесс может выполняться после того, как процесс фильтрации для удаления блочности и/или SAO-процесс завершаются. Тем не менее, даже в этом случае, процесс фильтрации для удаления блочности и/или SAO-процесс могут опускаться.[123] Meanwhile, in order to compensate for the difference between the original image and the reconstructed image due to an error occurring in a compression encoding process such as quantization, an in-loop filtering process may be performed on the reconstructed samples or reconstructed frames as described above. As described above, in-loop filtering may be performed by an encoding equipment filter and a decoding equipment filter, and a deblocking filter, SAO, and/or an adaptive loop filter (ALF) may be applied. For example, the ALF process may be executed after the deblocking filtering process and/or the SAO process is completed. However, even in this case, the deblocking filtering process and/or the SAO process may be omitted.

[124] В дальнейшем в этом документе приводится подробное описание восстановления и фильтрации кадров. При кодировании изображений/видео, восстановленный блок может формироваться на основе внутреннего прогнозирования/взаимного прогнозирования для каждого блока, и может формироваться восстановленный кадр, включающий в себя восстановленные блоки. Когда текущий кадр/срез представляет собой I-кадр/срез, блоки, включенные в текущий кадр/срез, могут восстанавливаться только на основе внутреннего прогнозирования. Между тем, когда текущий кадр/срез представляет собой P- или B-кадр/срез, блоки, включенные в текущий кадр/срез, могут восстанавливаться на основе внутреннего прогнозирования или взаимного прогнозирования. В этом случае, внутреннее прогнозирование может применяться к некоторым блокам в текущем кадре/срезе, и взаимное прогнозирование может применяться к оставшимся блокам.[124] Later in this document, a detailed description of frame recovery and filtering is provided. In image/video coding, a reconstructed block may be generated based on intra-prediction/inter-prediction for each block, and a reconstructed frame including the reconstructed blocks may be generated. When the current frame/slice is an I-frame/slice, blocks included in the current frame/slice can only be reconstructed based on intra prediction. Meanwhile, when the current frame/slice is a P or B frame/slice, blocks included in the current frame/slice may be reconstructed based on intra prediction or inter prediction. In this case, intra prediction may be applied to some blocks in the current frame/slice, and inter prediction may be applied to the remaining blocks.

[125] Внутреннее прогнозирование может означать прогнозирование, которое формирует прогнозные выборки для текущего блока на основе опорных выборок в кадре, которому принадлежит текущий блок (далее называется "текущим кадром"). Когда внутреннее прогнозирование применяется к текущему блоку, соседние опорные выборки, которые должны использоваться для внутреннего прогнозирования текущего блока, могут извлекаться. Соседние опорные выборки текущего блока могут включать в себя выборки, смежные с левой границей относительно текущего блока, имеющего размер nWxnH, и в сумме 2xnH выборок, граничащих с левой нижней частью, выборки, смежные с верхней границей относительно текущего блока, и в сумме 2xnW выборок, граничащих с правой верхней частью, и одну выборку, граничащую с левой верхней частью относительно текущего блока. Альтернативно, соседние опорные выборки текущего блока могут включать в себя множество верхних соседних выборок и множество левых соседних выборок. Помимо этого, соседние опорные выборки текущего блока могут включать в сумме nH выборок, смежных с правой границей относительно текущего блока, имеющего размер nWxnH, в сумме nW выборок, смежных с нижней границей относительно текущего блока, и одну выборку, смежную с правой нижней частью относительно текущего блока.[125] Intra prediction may mean prediction that generates predictive samples for a current block based on reference samples in a frame to which the current block belongs (hereinafter referred to as "current frame"). When intra prediction is applied to the current block, adjacent reference samples to be used for intra prediction of the current block may be extracted. Adjacent reference samples of the current block may include samples adjacent to the left border relative to the current block having size nWxnH and a total of 2xnH samples bordering the bottom left, samples adjacent to the upper border relative to the current block and a total of 2xnW samples , bordering the top right, and one selection bordering the top left, relative to the current box. Alternatively, the adjacent reference samples of the current block may include a plurality of upper neighbor samples and a plurality of left neighbor samples. In addition, the adjacent reference samples of the current block may include a sum of nH samples adjacent to the right boundary with respect to the current block having size nWxnH, a sum of nW samples adjacent to the lower boundary with respect to the current block, and one sample adjacent to the lower right with respect to current block.

[126] Тем не менее, некоторые соседние опорные выборки текущего блока могут еще не декодироваться или не быть доступными. В этом случае, декодер может конфигурировать соседние опорные выборки, которые следует использовать для прогнозирования, посредством подстановки вместо выборок, которые не доступны, доступных выборок. Альтернативно, соседние опорные выборки, которые должны использоваться для прогнозирования, могут быть сконфигурированы через интерполяцию доступных выборок.[126] However, some adjacent reference samples of the current block may not yet be decoded or may not be available. In this case, the decoder may configure adjacent reference samples to be used for prediction by substituting available samples for samples that are not available. Alternatively, adjacent reference samples to be used for prediction may be configured through interpolation of the available samples.

[127] Когда соседние опорные выборки извлекаются, прогнозная выборка может извлекаться на основе среднего или интерполяции соседних опорных выборок текущего блока и (ii) прогнозирования из соседних опорных выборок текущего блока. Прогнозная выборка может извлекаться на основе опорной выборки, присутствующей в конкретном направлении (прогнозирования) относительно выборки. Случай (i) может называться "ненаправленным режимом" или "неугловым режимом", и случай (ii) может называться "направленным режимом" или "угловым режимом". Кроме того, на основе прогнозной выборки текущего блока из соседних опорных выборок, вторая соседняя выборка, расположенная в противоположном направлении относительно направления прогнозирования режима внутреннего прогнозирования текущего блока, и первая соседняя выборка интерполируются. Прогнозная выборка может формироваться. Вышеописанный случай может называться "внутренним прогнозированием с линейной интерполяцией (LIP)". Помимо этого, выборки прогнозирования сигналов цветности могут формироваться на основе выборок сигнала яркости с использованием линейной модели. Этот случай может называться "LM-режимом". Помимо этого, временная прогнозная выборка текущего блока может извлекаться на основе фильтрованных соседних опорных выборок и по меньшей мере одной опорной выборки, извлекаемой согласно режиму внутреннего прогнозирования из существующих соседних опорных выборок, т.е. нефильтрованные соседние опорные выборки и временная прогнозная выборка могут суммироваться со взвешиванием, чтобы извлекать прогнозную выборку текущего блока. Вышеописанный случай может называться "позиционно-зависимым внутренним прогнозированием (PDPC)". Помимо этого, линия опорных выборок, имеющая наибольшую точность прогнозирования из соседних множественных опорных примерных линий текущего блока, может выбираться, чтобы извлекать прогнозную выборку посредством использования опорной выборки, расположенной в направлении прогнозирования на соответствующей линии, и затем линия опорных выборок, используемая в данном документе, может указываться (передаваться в служебных сигналах) в оборудование декодирования, за счет этого выполняя внутреннее прогнозирующее кодирование. Вышеописанный случай может называться "внутренним прогнозированием на основе множественной опорной линии (MRL)" или "внутренним прогнозированием на основе MRL". Помимо этого, внутреннее прогнозирование может выполняться на основе идентичного режима внутреннего прогнозирования посредством разделения текущего блока на вертикальные или горизонтальные субсегменты, и соседние опорные выборки могут извлекаться и использоваться в единице субсегментов. Таким образом, в этом случае, режим внутреннего прогнозирования для текущего блока в равной степени применяется к субсегментам, и производительность внутреннего прогнозирования может повышаться в некоторых случаях посредством извлечения и использования соседних опорных выборок в единице субсегментов. Такой способ прогнозирования может называться "внутренним прогнозированием на основе внутренних субсегментов (ISP) или на основе ISP". Вышеописанные способы внутреннего прогнозирования могут называться "типом внутреннего прогнозирования" отдельно от режима внутреннего прогнозирования. Тип внутреннего прогнозирования может называться с помощью различных терминов, таких как "технология внутреннего прогнозирования" или "дополнительный режим внутреннего прогнозирования". Например, тип внутреннего прогнозирования (или дополнительный режим внутреннего прогнозирования) может включать в себя по меньшей мере одно из вышеописанных LIP, PDPC, MRL и ISP. Общий способ внутреннего прогнозирования, за исключением конкретного типа внутреннего прогнозирования, такого как LIP, PDPC, MRL или ISP, может называться "типом нормального внутреннего прогнозирования". Тип нормального внутреннего прогнозирования, в общем, может применяться, когда конкретный тип внутреннего прогнозирования не применяется, и прогнозирование может выполняться на основе режима внутреннего прогнозирования, описанного выше. Между тем, постфильтрация может выполняться для прогнозированной выборки, извлекаемой по мере необходимости.[127] When adjacent reference samples are extracted, a predictive sample may be derived based on an average or interpolation of adjacent reference samples of the current block and (ii) prediction from adjacent reference samples of the current block. The predictive sample may be derived based on a reference sample present in a particular direction (prediction) relative to the sample. Case (i) may be referred to as "non-directional mode" or "non-angular mode", and case (ii) may be referred to as "directional mode" or "angular mode". In addition, based on the prediction sample of the current block from the neighboring reference samples, the second neighboring sample located in the opposite direction from the prediction direction of the intra prediction mode of the current block and the first neighboring sample are interpolated. A predictive sample can be formed. The above case may be referred to as "linear interpolation intra prediction (LIP)". In addition, the chrominance signal prediction samples may be generated based on the luminance signal samples using a linear model. This case may be referred to as "LM mode". In addition, the temporal prediction sample of the current block may be derived based on the filtered neighboring reference samples and at least one reference sample derived according to the intra prediction mode from the existing neighboring reference samples, i. e. the unfiltered adjacent reference samples and the temporal prediction sample may be added with weighting to derive the current block prediction sample. The above case may be referred to as "position dependent intra prediction (PDPC)". In addition, a reference sample line having the highest prediction accuracy of the adjacent multiple reference sample lines of the current block may be selected to derive a prediction sample by using a reference sample located in the prediction direction on the corresponding line, and then the reference sample line used herein , may be indicated (signaled) to the decoding equipment, thereby performing intra predictive coding. The above case may be referred to as "multiple reference line (MRL) intra prediction" or "MRL intra prediction". In addition, intra prediction may be performed based on the same intra prediction mode by dividing the current block into vertical or horizontal sub-segments, and adjacent reference samples may be extracted and used in a unit of sub-segments. Thus, in this case, the intra prediction mode for the current block is equally applied to the sub-segments, and the performance of the intra prediction can be improved in some cases by extracting and using neighboring reference samples in a unit of sub-segments. Such a prediction method may be referred to as "intra-sub-segment prediction (ISP) or ISP-based". The above-described intra prediction methods may be referred to as "intra prediction type" apart from the intra prediction mode. The type of intra prediction may be referred to by various terms such as "intra prediction technology" or "additional intra prediction mode". For example, the intra prediction type (or additional intra prediction mode) may include at least one of LIP, PDPC, MRL, and ISP described above. The general intra prediction method except for a specific type of intra prediction such as LIP, PDPC, MRL, or ISP may be referred to as "normal intra prediction type". The normal intra prediction type may generally be applied when a particular type of intra prediction is not applied, and prediction may be performed based on the intra prediction mode described above. Meanwhile, post-filtering can be performed on the predicted sample, drawn as needed.

[128] В частности, процедура внутреннего прогнозирования может включать в себя этап определения режима/типа внутреннего прогнозирования, этап извлечения соседних опорных выборок и этап извлечения прогнозных выборок на основе режима/типа внутреннего прогнозирования. Помимо этого, этап постфильтрации может выполняться для прогнозированной выборки, извлекаемой по мере необходимости.[128] Specifically, the intra prediction procedure may include an intra prediction mode/type determination step, an adjacent reference sample extraction step, and a prediction sample extraction step based on the intra prediction mode/type. In addition, the post-filtering step may be performed on the predicted sample, drawn as needed.

[129] В дальнейшем в этом документе описывается внутреннее прогнозирование в оборудовании кодирования. Оборудование кодирования может извлекать режим внутреннего прогнозирования для текущего блока, извлекать соседние опорные выборки текущего блока и формировать прогнозные выборки в текущем блоке на основе режима внутреннего прогнозирования и соседних опорных выборок. Здесь, процедуры определения режима внутреннего прогнозирования, извлечения периферийных опорных выборок и формирования прогнозных выборок могут выполняться одновременно, или одна процедура может выполняться перед другой процедурой. Например, модуль 222 внутреннего прогнозирования устройства кодирования может включать в себя модуль определения режима/типа прогнозирования, модуль извлечения опорных выборок и модуль извлечения прогнозных выборок, и модуль определения режима/типа прогнозирования может определять режим/тип внутреннего прогнозирования для текущего блока, модуль извлечения опорных выборок может извлекать соседние опорные выборки текущего блока, и модуль извлечения прогнозных выборок может извлекать выборки движения текущего блока. Между тем, хотя не показано, когда вышеописанная процедура фильтрации прогнозных выборок выполняется, модуль 222 внутреннего прогнозирования дополнительно может включать в себя фильтр прогнозных выборок (не показан). Оборудование кодирования может определять режим, применяемый к текущему блоку, из множества режимов внутреннего прогнозирования. Оборудование кодирования может сравнивать RD-затраты для режимов внутреннего прогнозирования и определять оптимальный режим внутреннего прогнозирования для текущего блока.[129] Hereinafter, this document describes intra prediction in the coding equipment. The encoding equipment may extract the intra prediction mode for the current block, extract adjacent reference samples of the current block, and generate prediction samples in the current block based on the intra prediction mode and adjacent reference samples. Here, the procedures for determining the intra prediction mode, extracting the peripheral reference samples, and generating the prediction samples may be performed simultaneously, or one procedure may be performed before the other procedure. For example, the encoder intra prediction module 222 may include a prediction mode/type determination module, a reference sample extraction module, and a prediction sample extraction module, and the prediction mode/type determination module may determine the intra prediction mode/type for the current block, the reference sample extraction module samples may extract adjacent reference samples of the current block, and a predictive sample extractor may extract motion samples of the current block. Meanwhile, although not shown when the above-described prediction sample filtering procedure is performed, the intra prediction module 222 may further include a prediction sample filter (not shown). The encoding equipment may determine the mode applied to the current block from the plurality of intra prediction modes. The encoding equipment can compare the RD costs for the intra prediction modes and determine the optimal intra prediction mode for the current block.

[130] Между тем, оборудование кодирования может выполнять процедуру фильтрации прогнозных выборок. Фильтрация прогнозных выборок может называться "постфильтрацией". Некоторые или все прогнозные выборки могут фильтроваться посредством процедуры фильтрации прогнозных выборок. В некоторых случаях, процедура фильтрации прогнозных выборок может опускаться.[130] Meanwhile, the encoding equipment may perform a filtering procedure on the predictive samples. Filtering predictive samples may be referred to as "post-filtering". Some or all of the prediction samples may be filtered by a prediction sample filtering procedure. In some cases, the filtering procedure for predictive samples may be omitted.

[131] Оборудование кодирования извлекает остаточные выборки для текущего блока на основе прогнозных выборок (S510). Оборудование кодирования может сравнивать прогнозные выборки в исходных выборках текущего блока на основе фазы и извлекать остаточные выборки.[131] The encoding equipment extracts residual samples for the current block based on the predictive samples (S510). The encoding equipment may compare the predictive samples in the original samples of the current block on a phase basis and extract the residual samples.

[132] Оборудование кодирования может преобразовывать/квантовать остаточные выборки, чтобы извлекать квантованные коэффициенты преобразования (S520), и после этого деквантует/обратно преобразует квантованные коэффициенты преобразования снова, чтобы извлекать (модифицированные) остаточные выборки (S530). Причина выполнения деквантования/обратного преобразования снова после преобразования/квантования состоит в том, чтобы извлекать остаточные выборки, идентичные остаточным выборкам, извлекаемым из оборудования декодирования, как описано выше.[132] The encoding equipment may transform/quantize the residual samples to extract quantized transform coefficients (S520), and thereafter dequantize/inversely transform the quantized transform coefficients again to extract (modified) residual samples (S530). The reason for performing the dequantization/inverse transformation again after the transformation/quantization is to extract residual samples identical to the residual samples extracted from the decoding equipment as described above.

[133] Оборудование кодирования может формировать восстановленный блок, включающий в себя восстановленные выборки для текущего блока, на основе прогнозных выборок и (модифицированных) остаточных выборок (S540). Восстановленный кадр для текущего кадра может формироваться на основе восстановленного блока.[133] The encoding equipment may generate a reconstructed block including reconstructed samples for the current block based on the predictive samples and the (modified) residual samples (S540). The reconstructed frame for the current frame may be generated based on the reconstructed block.

[134] Оборудование кодирования может кодировать информацию изображений, включающую в себя информацию прогнозирования относительно внутреннего прогнозирования (например, информацию режима прогнозирования, указывающую режим прогнозирования) и остаточную информацию относительно внутренних и остаточных выборок, и выводить кодированную информацию изображений в форме потока битов, как описано выше. Остаточная информация может включать в себя синтаксис остаточного кодирования. Оборудование кодирования может преобразовывать/квантовать остаточные выборки с тем, чтобы извлекать квантованные коэффициенты преобразования. Остаточная информация может включать в себя информацию относительно квантованных коэффициентов преобразования.[134] The encoding equipment may encode image information including prediction information about intra prediction (for example, prediction mode information indicating a prediction mode) and residual information about intra and residual samples, and output the encoded image information in the form of a bitstream, as described. above. The residual information may include a residual encoding syntax. The encoding equipment may transform/quantize the residual samples so as to extract the quantized transform coefficients. The residual information may include information regarding the quantized transform coefficients.

[135] Фиг. 5 является блок-схемой последовательности операций, иллюстрирующей способ восстановления блоков на основе внутреннего прогнозирования в оборудовании декодирования. Способ по фиг. 5 может включать в себя этапы S500, S510, S520, S530 и S540. Оборудование декодирования может выполнять операцию, соответствующую операции, выполняемой в оборудовании кодирования.[135] FIG. 5 is a flowchart illustrating a block recovery method based on intra prediction in decoding equipment. The method according to FIG. 5 may include steps S500, S510, S520, S530, and S540. The decoding equipment may perform an operation corresponding to the operation performed in the encoding equipment.

[136] S500-S520 могут выполняться посредством модуля 331 внутреннего прогнозирования оборудования декодирования, и информация прогнозирования по S500 и остаточная информация по S530 могут получаться из потока битов посредством энтропийного декодера 310 оборудования декодирования. Остаточный процессор 320 оборудования декодирования может извлекать остаточные выборки для текущего блока на основе остаточной информации. В частности, деквантователь 321 остаточного процессора 320 извлекает коэффициенты преобразования посредством выполнения деквантования на основе квантованных коэффициентов преобразования, извлекаемых на основе остаточной информации, и обратный преобразователь 322 остаточного процессора может извлекать остаточные выборки для текущего блока посредством выполнения обратного преобразования для коэффициентов преобразования. S540 может выполняться посредством сумматора 340 или модуля восстановления оборудования декодирования.[136] S500-S520 may be executed by the intra prediction unit 331 of the decoding equipment, and prediction information of S500 and residual information of S530 may be obtained from the bitstream by the entropy decoder 310 of the decoding equipment. The decoding hardware residual processor 320 may derive residual samples for the current block based on the residual information. Specifically, the dequantizer 321 of the residual processor 320 extracts the transform coefficients by performing dequantization based on the quantized transform coefficients derived based on the residual information, and the inverse transform 322 of the residual processor can extract the residual samples for the current block by performing an inverse transform on the transform coefficients. S540 may be performed by adder 340 or decode hardware recovery module.

[137] В частности, оборудование декодирования может извлекать режим внутреннего прогнозирования для текущего блока на основе принимаемой информации режима прогнозирования (S500). Оборудование декодирования может извлекать периферийные опорные выборки текущего блока (S510). Оборудование декодирования формирует прогнозные выборки в текущем блоке на основе режима внутреннего прогнозирования и соседних опорных выборок (S520). В этом случае, оборудование декодирования изображений может выполнять процедуру фильтрации прогнозных выборок. Фильтрация прогнозных выборок может называться "постфильтрацией". Некоторые или все прогнозные выборки могут фильтроваться посредством процедуры фильтрации прогнозных выборок. В некоторых случаях, процедура фильтрации прогнозных выборок может опускаться.[137] Specifically, the decoding equipment may derive the intra prediction mode for the current block based on the received prediction mode information (S500). The decoding equipment may extract the peripheral reference samples of the current block (S510). The decoding equipment generates prediction samples in the current block based on the intra prediction mode and neighboring reference samples (S520). In this case, the image decoding equipment may perform a prediction sample filtering procedure. Filtering predictive samples may be referred to as "post-filtering". Some or all of the prediction samples may be filtered by a prediction sample filtering procedure. In some cases, the filtering procedure for predictive samples may be omitted.

[138] Оборудование декодирования формирует остаточные выборки для текущего блока на основе принимаемой остаточной информации (S530). Оборудование декодирования может формировать восстановленные выборки для текущего блока на основе прогнозных выборок и остаточных выборок и извлекать восстановленный блок, включающий в себя восстановленные выборки (S540). Восстановленный кадр для текущего кадра может формироваться на основе восстановленного блока.[138] The decoding equipment generates residual samples for the current block based on the received residual information (S530). The decoding equipment may generate reconstructed samples for the current block based on the predictive samples and the residual samples, and extract a reconstructed block including the reconstructed samples (S540). The reconstructed frame for the current frame may be generated based on the reconstructed block.

[139] Здесь, модуль 331 внутреннего прогнозирования оборудования декодирования может включать в себя модуль определения режима/типа прогнозирования, модуль извлечения опорных выборок и модуль извлечения прогнозных выборок, и модуль определения режима/типа прогнозирования может определять режим внутреннего прогнозирования для текущего блока на основе информации режима прогнозирования, полученной посредством энтропийного декодера 310 оборудования декодирования, модуль извлечения опорных выборок может извлекать периферийные опорные выборки текущего блока, и модуль извлечения прогнозных выборок может извлекать прогнозные выборки текущего блока. Между тем, хотя не показано, когда процедура фильтрации прогнозных выборок, описанная выше, выполняется, модуль 331 внутреннего прогнозирования дополнительно может включать в себя фильтр прогнозных выборок (не показан).[139] Here, the decoding equipment intra prediction unit 331 may include a prediction mode/type determination unit, a reference sample extraction unit, and a prediction sample extraction unit, and the prediction mode/type determination unit may determine the intra prediction mode for the current block based on the information of the prediction mode obtained by the entropy decoder 310 of the decoding equipment, the reference sample extractor may extract the peripheral reference samples of the current block, and the prediction sample extractor may extract the prediction samples of the current block. Meanwhile, although not shown, when the prediction sample filtering procedure described above is performed, the intra prediction unit 331 may further include a prediction sample filter (not shown).

[140] Информация прогнозирования может включать в себя информацию режима внутреннего прогнозирования и/или информацию типа внутреннего прогнозирования. Информация режима внутреннего прогнозирования может включать в себя, например, информацию флага (например, intra_luma_mpm_flag), указывающую то, применяется либо нет наиболее вероятный режим (MPM) к текущему блоку, либо оставшийся режим применяется, и когда MPM применяется к текущему блоку, информация режима прогнозирования дополнительно может включать в себя информацию индекса (например, intra_luma_mpm_idx), указывающую один из возможных вариантов режимов внутреннего прогнозирования (возможных MPM-вариантов). Возможные варианты режимов внутреннего прогнозирования (возможные MPM-варианты) могут включать в себя список возможных MPM-вариантов или MPM-список. Помимо этого, когда MPM не применяется к текущему блоку, информация режима внутреннего прогнозирования дополнительно может включать в себя информацию оставшихся режимов (например, intra_luma_mpm_remainder), указывающую один из оставшихся режимов внутреннего прогнозирования, за исключением возможных вариантов режимов внутреннего прогнозирования (возможных MPM-вариантов). Оборудование декодирования может определять режим внутреннего прогнозирования текущего блока на основе информации режима внутреннего прогнозирования. Отдельный MPM-список может быть сконфигурирован для вышеуказанного MIP.[140] The prediction information may include intra prediction mode information and/or intra prediction type information. The intra prediction mode information may include, for example, flag information (eg, intra_luma_mpm_flag) indicating whether or not the most likely mode (MPM) is applied to the current block, or the remaining mode is applied, and when the MPM is applied to the current block, the mode information The prediction may further include index information (eg, intra_luma_mpm_idx) indicating one of the possible intra prediction modes (MPM candidates). Intra prediction mode candidates (MPM candidates) may include an MPM candidate list or an MPM list. In addition, when MPM is not applied to the current block, the intra prediction mode information may further include remaining mode information (e.g., intra_luma_mpm_remainder) indicating one of the remaining intra prediction modes except for intra prediction mode options (MPM options) . The decoding equipment may determine the intra prediction mode of the current block based on the intra prediction mode information. A separate MPM list can be configured for the above MIP.

[141] Помимо этого, информация типа внутреннего прогнозирования может реализовываться в различных формах. Например, информация типа внутреннего прогнозирования может включать в себя информацию индекса типа внутреннего прогнозирования, указывающую один из типов внутреннего прогнозирования. В качестве другого примера, информация типа внутреннего прогнозирования может включать в себя по меньшей мере одно из информации опорной выборочной линии (например, intra_luma_ref_idx), указывающей то, применяется или нет MRL к текущему блоку, и если применяется, то, какая опорная выборочная линия используется, информации ISP-флага (например, intra_subpartitions_mode_flag), указывающей то, применяется или нет ISP к текущему блоку, информации ISP-типа (например, intra_subpartitions_split_flag), указывающей тип разбиения субсегментов, когда ISP применяется, информации флага, указывающей то, применяется или нет PDCP, либо информации флага, указывающей то, применяется или нет LIP. Помимо этого, информация типа внутреннего прогнозирования может включать в себя MIP-флаг, указывающий то, применяется или нет MIP к текущему блоку.[141] In addition, the intra-prediction type information may be implemented in various forms. For example, the intra prediction type information may include intra prediction type index information indicating one of the intra prediction types. As another example, the intra prediction type information may include at least one of reference sample line information (e.g., intra_luma_ref_idx) indicating whether or not an MRL is applied to the current block, and if so, which reference sample line is being used. , ISP flag information (eg, intra_subpartitions_mode_flag) indicating whether or not ISP is applied to the current block, ISP type information (eg, intra_subpartitions_split_flag) indicating the sub-partition splitting type when ISP is applied, flag information indicating whether or not PDCP, or flag information indicating whether or not LIP is applied. In addition, the intra prediction type information may include a MIP flag indicating whether or not MIP is applied to the current block.

[142] Информация режима внутреннего прогнозирования и/или информация типа внутреннего прогнозирования могут кодироваться/декодироваться через способ кодирования, описанный в настоящем раскрытии. Например, информация режима внутреннего прогнозирования и/или информация типа внутреннего прогнозирования могут кодироваться/декодироваться посредством энтропийного кодирования (например, CABAC, CAVLC) на основе усеченного двоичного кода (Райса).[142] The intra prediction mode information and/or the intra prediction type information may be encoded/decoded via the coding method described in the present disclosure. For example, the intra prediction mode information and/or the intra prediction type information may be coded/decoded by entropy coding (eg, CABAC, CAVLC) based on a truncated binary code (Rice).

[143] Модуль прогнозирования оборудования кодирования/оборудования декодирования может извлекать прогнозные выборки посредством выполнения взаимного прогнозирования на поблочной основе. Взаимное прогнозирование может представлять собой прогнозирование, извлекаемое таким способом, который зависит от элементов данных (например, выборочных значений или информаций движения) кадра(ов), отличного от текущего кадра. Когда взаимное прогнозирование применяется к текущему блоку, прогнозированный блок (массив прогнозных выборок) для текущего блока может извлекаться на основе опорного блока (массива опорных выборок), указываемого посредством вектора движения в опорном кадре, указываемом посредством индекса опорного кадра. В этом случае, чтобы уменьшать объем информации движения, передаваемой в режиме взаимного прогнозирования, информация движения текущего блока может прогнозироваться в единицах блоков, субблоков или выборок на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорного кадра. Информация движения дополнительно может включать в себя информацию типа взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование, бипрогнозирование и т.д.). Когда взаимное прогнозирование применяется, соседний блок может включать в себя пространственный соседний блок, который присутствует в текущем кадре, и временной соседний блок, который присутствует в опорном кадре. Опорный кадр, включающий в себя опорный блок, и опорный кадр, включающий в себя временной соседний блок, могут быть идентичными друг другу или отличающимися друг от друга. Временной соседний блок может упоминаться под таким названием, как "совместно размещенный опорный блок", "совместно размещенная CU (colCU)", и т.д., и опорный кадр, включающий в себя временной соседний блок, может называться "совместно размещенным кадром (colPic)". Например, список возможных вариантов информации движения может быть сконфигурирован на основе соседних блоков текущего блока, и информация флага или индекса, указывающая то, какой возможный вариант выбирается (используется) для того, чтобы извлекать вектор движения и/или индекс опорного кадра текущего блока, может передаваться в служебных сигналах. Взаимное прогнозирование может выполняться на основе различных режимов прогнозирования и, например, в случае режима пропуска и режима объединения, информация движения текущего блока может быть идентичной информации движения соседнего блока. В случае режима пропуска, остаточный сигнал может не передаваться, в отличие от режима объединения. В случае режима прогнозирования векторов движения (MVP), вектор движения выбранного соседнего блока используется в качестве предиктора вектора движения, и разность векторов движения может передаваться в служебных сигналах. В этом случае, вектор движения текущего блока может извлекаться с использованием суммы предиктора вектора движения и разности векторов движения.[143] The prediction module of the encoding equipment/decoding equipment can extract predictive samples by performing inter-prediction on a block-by-block basis. Inter-prediction may be a prediction derived in a manner that depends on data elements (eg, sample values or motion information) of a frame(s) other than the current frame. When inter prediction is applied to a current block, a predicted block (predictive sample array) for the current block may be derived based on a reference block (reference sample array) indicated by a motion vector in a reference frame indicated by a reference frame index. In this case, in order to reduce the amount of motion information transmitted in the inter-prediction mode, the motion information of the current block may be predicted in units of blocks, sub-blocks, or samples based on the correlation of the motion information between the adjacent block and the current block. The motion information may include a motion vector and a reference frame index. The motion information may further include inter-prediction type information (L0 prediction, L1 prediction, bi-prediction, etc.). When inter prediction is applied, the neighbor block may include a spatial neighbor block that is present in the current frame and a temporal neighbor block that is present in the reference frame. The reference frame including the reference block and the reference frame including the temporal neighbor block may be identical to each other or different from each other. The temporal neighbor block may be referred to as "collocated reference block", "collocated CU (colCU)", etc., and a reference frame including the temporal neighbor block may be referred to as "collocated frame ( colpic)". For example, a list of motion information candidates may be configured based on neighboring blocks of the current block, and flag or index information indicating which candidate is selected (used) in order to derive the motion vector and/or index of the reference frame of the current block may transmitted in service signals. Inter-prediction may be performed based on different prediction modes and, for example, in the case of the skip mode and the join mode, the motion information of the current block may be identical to the motion information of the adjacent block. In the case of the skip mode, the residual signal may not be transmitted, in contrast to the combine mode. In the case of the motion vector prediction (MVP) mode, the motion vector of the selected neighboring block is used as a motion vector predictor, and the motion vector difference may be signaled. In this case, the motion vector of the current block may be extracted using the sum of the motion vector predictor and the motion vector difference.

[144] Фиг. 6 является блок-схемой последовательности операций, иллюстрирующей способ восстановления блоков на основе взаимного прогнозирования в оборудовании кодирования. Способ по фиг. 7 может включать в себя этапы S600, S610, S620, S630 и S640.[144] FIG. 6 is a flowchart illustrating a block recovery method based on inter prediction in coding equipment. The method according to FIG. 7 may include steps S600, S610, S620, S630, and S640.

[145] S600 может выполняться посредством модуля 221 взаимного прогнозирования оборудования кодирования, и S610-S630 могут выполняться посредством остаточного процессора 230 оборудования кодирования. В частности, S610 может выполняться посредством вычитателя 231 оборудования кодирования, S620 может выполняться посредством преобразователя 232 и квантователя 233 оборудования кодирования, и S630 может выполняться посредством деквантователя 234 и обратного преобразователя 235 оборудования кодирования. На S600, информация прогнозирования может извлекаться посредством модуля 221 взаимного прогнозирования и кодироваться посредством энтропийного кодера 240. Остаточная информация может извлекаться через S610 и S620 и кодироваться посредством энтропийного кодера 240. Остаточная информация представляет собой информацию относительно остаточных выборок. Остаточная информация может включать в себя информацию относительно квантованных коэффициентов преобразования для остаточных выборок. Как описано выше, остаточные выборки могут извлекаться в качестве коэффициентов преобразования через преобразователь 232 оборудования кодирования, и коэффициенты преобразования могут извлекаться в качестве квантованных коэффициентов преобразования через квантователь 233. Информация относительно квантованных коэффициентов преобразования может кодироваться посредством энтропийного кодера 240 через процедуру остаточного кодирования.[145] S600 may be performed by the coding equipment inter-prediction unit 221, and S610-S630 may be performed by the coding equipment residual processor 230. Specifically, S610 may be performed by the encoding equipment subtractor 231, S620 may be performed by the encoding equipment converter 232 and quantizer 233, and S630 may be performed by the encoding equipment dequantizer 234 and inverse converter 235. At S600, prediction information may be extracted by inter-prediction unit 221 and encoded by entropy encoder 240. Residual information may be extracted through S610 and S620 and encoded by entropy encoder 240. Residual information is information regarding residual samples. The residual information may include information regarding quantized transform coefficients for the residual samples. As described above, the residual samples may be extracted as transform coefficients via the coding equipment transform 232, and the transform coefficients may be extracted as quantized transform coefficients via the quantizer 233. Information regarding the quantized transform coefficients may be encoded by the entropy encoder 240 via a residual encoding procedure.

[146] Оборудование кодирования выполняет взаимное прогнозирование для текущего блока (S600). Оборудование кодирования может извлекать режим взаимного прогнозирования и информацию движения текущего блока и формировать прогнозные выборки текущего блока. Здесь, процедуры для определения режима взаимного прогнозирования, извлечения информации движения и формирования прогнозных выборок могут выполняться одновременно, или одна процедура может выполняться перед другой процедурой. Например, модуль 221 взаимного прогнозирования оборудования кодирования может включать в себя модуль определения режима прогнозирования, модуль извлечения информации движения и модуль извлечения прогнозных выборок, и модуль определения режима прогнозирования может определять режим прогнозирования для текущего блока, модуль извлечения информации движения может извлекать информацию движения текущего блока, и модуль извлечения прогнозных выборок может извлекать выборки движения текущего блока. Например, модуль 221 взаимного прогнозирования оборудования кодирования может выполнять поиск блока, аналогичного текущему блоку, в предварительно определенной зоне (зоне поиска) опорных кадров через оценку движения, и может извлекать опорный блок, в котором разность относительно текущего блока является минимальной либо составляет предварительно определенное опорное значение или меньше. На основе этого, индекс опорного кадра, указывающий опорный кадр, в котором расположен опорный блок, может извлекаться, и вектор движения может извлекаться на основе разности позиций между опорным блоком и текущим блоком. Оборудование кодирования может определять режим, применяемый к текущему блоку, из числа различных режимов прогнозирования. Оборудование кодирования может сравнивать функции затрат на искажение в зависимости от скорости передачи (RD) для различных режимов прогнозирования и определять оптимальный режим прогнозирования для текущего блока.[146] The encoding equipment performs inter prediction for the current block (S600). The encoding equipment may extract the inter-prediction mode and motion information of the current block, and generate prediction samples of the current block. Here, the procedures for determining the inter-prediction mode, extracting motion information, and generating prediction samples may be performed simultaneously, or one procedure may be performed before another procedure. For example, the coding equipment inter-prediction unit 221 may include a prediction mode determination unit, a motion information extraction unit, and a prediction sample extraction unit, and the prediction mode determination unit may determine the prediction mode for the current block, the motion information extraction unit may extract the motion information of the current block. , and the prediction sample extractor may extract motion samples of the current block. For example, the coding equipment inter-prediction unit 221 may search for a block similar to the current block in a predetermined area (search area) of reference frames through motion estimation, and may extract a reference block in which the difference with respect to the current block is the minimum or is a predetermined reference value or less. Based on this, a reference frame index indicating a reference frame in which the reference block is located may be extracted, and a motion vector may be extracted based on a position difference between the reference block and the current block. The encoding equipment may determine the mode applied to the current block from among various prediction modes. The encoding equipment can compare the rate-dependent distortion cost (RD) functions for different prediction modes and determine the optimal prediction mode for the current block.

[147] Например, когда режим пропуска или режим объединения применяется к текущему блоку, оборудование кодирования может конструировать список возможных вариантов объединения, который описывается ниже, и извлекать опорный блок, в котором разность относительно текущего блока является минимальной либо составляет предварительно определенное опорное значение или меньше, из опорных блоков, указываемых посредством возможных вариантов объединения, включенных в список возможных вариантов объединения. В этом случае, возможный вариант объединения, ассоциированный с извлеченным опорным блоком, может выбираться, и информация индекса объединения, указывающая выбранный возможный вариант объединения, может формироваться и передаваться в служебных сигналах в оборудование декодирования. Информация движения текущего блока может извлекаться с использованием информации движения выбранного возможного варианта объединения.[147] For example, when the skip mode or merge mode is applied to the current block, the encoding equipment may construct a merge candidate list, which is described below, and extract a reference block in which the difference with respect to the current block is minimal or is a predetermined reference value or less , from the reference blocks indicated by the join candidates included in the join candidate list. In this case, the combining candidate associated with the extracted reference block may be selected, and combining index information indicating the selected combining candidate may be generated and signaled to the decoding equipment. The motion information of the current block may be extracted using the motion information of the selected join candidate.

[148] В качестве другого примера, когда (A)MVP-режим применяется к текущему блоку, оборудование кодирования конструирует список возможных (A)MVP-вариантов, который описывается ниже, и использует вектор движения выбранного возможного MVP-варианта, из возможных вариантов предикторов векторов движения (MVP), включенных в список возможных (A)MVP-вариантов, в качестве MVP текущего блока. В этом случае, например, вектор движения, указывающий опорный блок, извлекаемый посредством оценки движения, описанной выше, может использоваться в качестве вектора движения текущего блока, и возможный MVP-вариант, имеющий вектор движения, имеющий наименьшую разность относительно вектора движения текущего блока, из возможных MVP-вариантов, может представлять собой выбранный возможный MVP-вариант. Разность векторов движения (MVD), которая представляет собой разность, полученную посредством вычитания MVP из вектора движения текущего блока, может извлекаться. В этом случае, информация относительно MVD может передаваться в служебных сигналах в оборудование декодирования. Помимо этого, когда (A)MVP-режим применяется, значение индекса опорного кадра может быть сконфигурировано как информация индекса опорного кадра и отдельно передаваться в служебных сигналах в оборудование декодирования.[148] As another example, when the (A)MVP mode is applied to the current block, the encoding equipment constructs an (A)MVP candidate list, which is described below, and uses the motion vector of the selected MVP candidate from the predictor candidates motion vectors (MVP) included in the list of possible (A)MVP options as the MVP of the current block. In this case, for example, a motion vector indicating a reference block derived by the motion estimation described above can be used as the motion vector of the current block, and an MVP candidate having a motion vector having the smallest difference relative to the motion vector of the current block, of possible MVPs may be the selected MVP candidate. A motion vector difference (MVD), which is a difference obtained by subtracting the MVP from the motion vector of the current block, can be extracted. In this case, information regarding the MVD may be signaled to the decoding equipment. In addition, when the (A)MVP mode is applied, the index value of the reference frame may be configured as reference frame index information and separately signaled to the decoding equipment.

[149] Оборудование кодирования может извлекать остаточные выборки на основе прогнозных выборок (S610). Оборудование кодирования может извлекать остаточные выборки посредством сравнения исходных выборок текущего блока с прогнозными выборками.[149] The encoding equipment may derive residual samples based on the predictive samples (S610). The encoding equipment can extract residual samples by comparing the original samples of the current block with the predictive samples.

[150] Оборудование кодирования преобразует/квантует остаточные выборки, чтобы извлекать квантованные коэффициенты преобразования (S620), и затем деквантует/обратно преобразует квантованные коэффициенты преобразования снова, чтобы извлекать (модифицированные) остаточные выборки (S630). Причина выполнения деквантования/обратного преобразования снова после преобразования/квантования состоит в том, чтобы извлекать остаточные выборки, идентичные остаточным выборкам, извлекаемым из оборудования декодирования, как описано выше.[150] The encoding equipment transforms/quantizes the residual samples to extract quantized transform coefficients (S620), and then dequantizes/inversely transforms the quantized transform coefficients again to extract (modified) residual samples (S630). The reason for performing the dequantization/inverse transformation again after the transformation/quantization is to extract residual samples identical to the residual samples extracted from the decoding equipment as described above.

[151] Оборудование кодирования может формировать восстановленный блок, включающий в себя восстановленные выборки для текущего блока, на основе прогнозных выборок и (модифицированных) остаточных выборок (S640). Восстановленный кадр для текущего кадра может формироваться на основе восстановленного блока.[151] The encoding equipment may generate a reconstructed block including reconstructed samples for the current block based on the predictive samples and the (modified) residual samples (S640). The reconstructed frame for the current frame may be generated based on the reconstructed block.

[152] Хотя не показано, как описано выше, оборудование 100 кодирования может кодировать видеоинформацию, включающую в себя информацию прогнозирования и остаточную информацию. Оборудование 100 кодирования может выводить кодированную информацию изображений в форме потока битов. Информация прогнозирования может представлять собой информацию, связанную с процедурой прогнозирования, и может включать в себя информацию режима прогнозирования (например, флаг пропуска, флаг объединения или индекс режима) и информацию движения. Информация движения может включать в себя информацию выбора возможных вариантов (например, индекс объединения, MVP-флаг или MVP-индекс), которая представляет собой информацию для извлечения вектора движения. Помимо этого, информация относительно информации движения может включать в себя вышеуказанную MVD-информацию и/или информацию индекса опорного кадра. Помимо этого, информация относительно информации движения может включать в себя информацию, указывающую то, применяется либо нет L0-прогнозирование, L1-прогнозирование или бипрогнозирование. Остаточная информация представляет собой информацию относительно остаточных выборок. Остаточная информация может включать в себя информацию относительно квантованных коэффициентов преобразования для остаточных выборок.[152] Although not shown as described above, the encoding equipment 100 can encode video information including prediction information and residual information. The encoding equipment 100 may output encoded image information in the form of a bit stream. The prediction information may be information related to the prediction procedure and may include prediction mode information (eg, skip flag, merge flag, or mode index) and motion information. The motion information may include candidate selection information (eg, merge index, MVP flag, or MVP index), which is information for extracting a motion vector. In addition, information regarding motion information may include the above MVD information and/or reference frame index information. In addition, the information on the motion information may include information indicating whether or not L0 prediction, L1 prediction, or bi-prediction is applied. The residual information is information about the residual samples. The residual information may include information regarding quantized transform coefficients for the residual samples.

[153] Выходной поток битов может сохраняться на (цифровом) носителе хранения данных и передаваться в оборудование декодирования либо может передаваться в оборудование декодирования через сеть.[153] The output bitstream may be stored on a (digital) storage medium and transmitted to the decoding equipment, or may be transmitted to the decoding equipment via a network.

[154] Фиг. 7 является блок-схемой последовательности операций, иллюстрирующей способ восстановления блоков на основе взаимного прогнозирования в оборудовании декодирования. Способ по фиг. 7 может включать в себя этапы S700, S710, S720, S730 и S740. Оборудование декодирования может выполнять операцию, соответствующую операции, выполняемой посредством оборудования кодирования.[154] FIG. 7 is a flowchart illustrating a block recovery method based on inter prediction in decoding equipment. The method according to FIG. 7 may include steps S700, S710, S720, S730, and S740. The decoding equipment may perform an operation corresponding to the operation performed by the encoding equipment.

[155] S700-S720 могут выполняться посредством модуля 332 взаимного прогнозирования оборудования декодирования, и информация прогнозирования по S700 и остаточная информация по S730 могут получаться из потока битов посредством энтропийного декодера 310 оборудования декодирования. Остаточный процессор 320 оборудования декодирования может извлекать остаточные выборки для текущего блока на основе остаточной информации. В частности, деквантователь 321 остаточного процессора 320 может извлекать коэффициенты преобразования посредством выполнения деквантования на основе квантованных коэффициентов преобразования, извлекаемых на основе остаточной информации, и обратный преобразователь 322 остаточного процессора может извлекать остаточные выборки для текущего блока посредством выполнения обратного преобразования для коэффициентов преобразования. S740 может выполняться посредством сумматора 340 или модуля восстановления оборудования декодирования.[155] S700-S720 may be performed by the decoding equipment mutual prediction unit 332, and prediction information on S700 and residual information on S730 may be obtained from the bitstream by the entropy decoder 310 of the decoding equipment. The decoding hardware residual processor 320 may derive residual samples for the current block based on the residual information. In particular, the dequantizer 321 of the residual processor 320 may extract the transform coefficients by performing dequantization based on the quantized transform coefficients derived based on the residual information, and the dequantizer 322 of the residual processor may extract the residual samples for the current block by performing an inverse transform on the transform coefficients. S740 may be performed by adder 340 or decode hardware recovery module.

[156] В частности, оборудование декодирования может определять режим прогнозирования для текущего блока на основе принимаемой информации прогнозирования (S700). Оборудование декодирования может определять то, какой режим взаимного прогнозирования применяется к текущему блоку, на основе информации режима прогнозирования в информации прогнозирования.[156] In particular, the decoding equipment may determine the prediction mode for the current block based on the received prediction information (S700). The decoding equipment can determine which inter prediction mode is applied to the current block based on the prediction mode information in the prediction information.

[157] Например, может определяться то, применяется или нет режим объединения к текущему блоку, или то, определяется или нет (A)MVP-режим, на основе флага объединения. Альтернативно, один из различных возможных вариантов режимов взаимного прогнозирования может выбираться на основе индекса режима. Возможные варианты режима взаимного прогнозирования могут включать в себя режим пропуска, режим объединения и/или (A)MVP-режим либо могут включать в себя различные режимы взаимного прогнозирования, которые описываются ниже.[157] For example, it may be determined whether or not the merge mode is applied to the current block, or whether or not the (A)MVP mode is determined based on the merge flag. Alternatively, one of the various possible inter-prediction modes may be selected based on the mode index. Possible options for the inter prediction mode may include skip mode, merge mode, and/or (A)MVP mode, or may include various inter prediction modes, which are described below.

[158] Оборудование декодирования извлекает информацию движения текущего блока на основе определенного режима взаимного прогнозирования (S710). Например, когда режим пропуска или режим объединения применяется к текущему блоку, оборудование декодирования может конфигурировать список возможных вариантов объединения, который описывается ниже, и выбирать один возможный вариант объединения из числа возможных вариантов объединения, включенных в список возможных вариантов объединения. Выбор может выполняться на основе вышеуказанной информации выбора (индекса объединения). Информация движения текущего блока может извлекаться с использованием информации движения выбранного возможного варианта объединения. Информация движения выбранного возможного варианта объединения может использоваться как информация движения текущего блока.[158] The decoding equipment extracts motion information of the current block based on the determined inter-prediction mode (S710). For example, when the skip mode or merge mode is applied to the current block, the decoding equipment may configure a merge candidate list, which is described below, and select one merge candidate from among the merge candidates included in the merge candidate list. The selection may be performed based on the above selection information (combination index). The motion information of the current block may be extracted using the motion information of the selected join candidate. The motion information of the selected join candidate may be used as the motion information of the current block.

[159] В качестве другого примера, когда (A)MVP-режим применяется к текущему блоку, оборудование декодирования может конструировать список возможных (A)MVP-вариантов, который описывается ниже, и использовать вектор движения выбранного возможного MVP-варианта из числа возможных вариантов предикторов векторов движения (MVP), включенных в список возможных (A)MVP-вариантов, в качестве MVP текущего блока. Выбор может выполняться на основе вышеописанной информации выбора (MVP-флага или MVP-индекса), описанной выше. В этом случае, MVD текущего блока может извлекаться на основе информации относительно MVD, и вектор движения текущего блока может извлекаться на основе MVP текущего блока и MVD. Кроме того, индекс опорного кадра текущего блока может извлекаться на основе информации индекса опорного кадра. Кадр, указываемый посредством индекса опорного кадра в списке опорных кадров для текущего блока, может извлекаться в качестве опорного кадра, на который ссылаются для взаимного прогнозирования текущего блока.[159] As another example, when the (A)MVP mode is applied to the current block, the decoding equipment may construct the (A)MVP candidate list, which is described below, and use the motion vector of the selected MVP candidate from among the candidates motion vector predictors (MVP) included in the list of possible (A)MVP options as the MVP of the current block. The selection may be performed based on the selection information (MVP flag or MVP index) described above. In this case, the MVD of the current block may be derived based on the information regarding the MVD, and the motion vector of the current block may be derived based on the MVP of the current block and the MVD. In addition, the index of the key frame of the current block may be derived based on the information of the index of the key frame. The frame indicated by the reference frame index in the reference frame list for the current block may be retrieved as the reference frame referenced for inter-prediction of the current block.

[160] Между тем, как описано ниже, информация движения текущего блока может извлекаться без конфигурирования списка возможных вариантов. В этом случае, информация движения текущего блока может извлекаться согласно процедуре, раскрытой в режиме прогнозирования, который описывается ниже. В этом случае, конфигурирование списка возможных вариантов, как описано выше, может опускаться.[160] Meanwhile, as described below, the motion information of the current block can be retrieved without configuring the candidate list. In this case, the motion information of the current block may be extracted according to the procedure disclosed in the prediction mode, which is described below. In this case, the option list configuration as described above may be omitted.

[161] Оборудование декодирования может формировать прогнозные выборки для текущего блока на основе информации движения текущего блока (S720). В этом случае, опорный кадр может извлекаться на основе индекса опорного кадра текущего блока, и прогнозные выборки текущего блока могут извлекаться с использованием выборок опорного блока, указываемого посредством вектора движения текущего блока в опорном кадре. В этом случае, как описано ниже, процедура фильтрации прогнозных выборок для всех или некоторых прогнозных выборок текущего блока дополнительно может выполняться в зависимости от случая.[161] The decoding equipment may generate prediction samples for the current block based on motion information of the current block (S720). In this case, the reference frame may be derived based on the reference frame index of the current block, and the prediction samples of the current block may be derived using the reference block samples indicated by the motion vector of the current block in the reference frame. In this case, as described below, the filtering procedure of the prediction samples for all or some of the prediction samples of the current block may further be performed depending on the case.

[162] Например, модуль 332 взаимного прогнозирования оборудования декодирования может включать в себя модуль определения режима прогнозирования, модуль извлечения информации движения и модуль извлечения прогнозных выборок, и модуль определения режима прогнозирования может определять режим прогнозирования для текущего блока на основе принимаемой информации режима прогнозирования, модуль извлечения информации движения может извлекать информацию движения (вектор движения и/или индекс опорного кадра и т.д.) текущего блока на основе принимаемой информации относительно информации движения, и модуль извлечения прогнозных выборок может извлекать прогнозные выборки текущего блока.[162] For example, the decoding equipment inter-prediction unit 332 may include a prediction mode determination unit, a motion information extraction unit, and a prediction sample extraction unit, and the prediction mode determination unit may determine the prediction mode for the current block based on the received prediction mode information, the unit the motion information extractor may extract the motion information (motion vector and/or reference frame index, etc.) of the current block based on the received information regarding the motion information, and the prediction sample extractor may extract the prediction samples of the current block.

[163] Оборудование декодирования формирует остаточные выборки для текущего блока на основе принимаемой остаточной информации (S730). Оборудование декодирования может формировать восстановленные выборки для текущего блока на основе прогнозных выборок и остаточных выборок и может извлекать восстановленный блок, включающий в себя восстановленные выборки (S740). Восстановленный кадр для текущего кадра может формироваться на основе восстановленного блока.[163] The decoding equipment generates residual samples for the current block based on the received residual information (S730). The decoding equipment may generate reconstructed samples for the current block based on the predictive samples and the residual samples, and may extract a reconstructed block including the reconstructed samples (S740). The reconstructed frame for the current frame may be generated based on the reconstructed block.

[164] Различные режимы взаимного прогнозирования могут использоваться для прогнозирования текущего блока в кадре. Например, могут использоваться различные режимы, такие как режим объединения, режим пропуска, режим прогнозирования векторов движения (MVP), аффинный режим, режим объединения на основе субблоков и режим объединения с MVD (MMVD) и т.п. Режим детализации векторов движения на стороне декодера (DMVR), режим адаптивного разрешения векторов движения (AMVR), бипрогнозирование с помощью весовых коэффициентов уровня CU (BCW), двунаправленный оптический поток (BDOF) и т.п. также могут использоваться в качестве дополнительных режимов дополнительно или вместо этого. Аффинный режим может называться "режимом аффинного прогнозирования движения". MVP-режим может называться "режимом усовершенствованного прогнозирования векторов движения (AMVP)". В настоящем раскрытии, некоторые режимы и/или возможные варианты информации движения, извлекаемые посредством некоторых режимов, могут включаться в качестве одного из возможных вариантов информации движения других режимов. Например, возможный HMVP-вариант может добавляться в качестве возможного варианта объединения в режиме объединения/пропуска или может добавляться в качестве возможного MVP-варианта в MVP-режиме.[164] Various inter-prediction modes may be used to predict the current block in a frame. For example, various modes such as merge mode, skip mode, motion vector prediction (MVP) mode, affine mode, sub-block based merge mode, and MVD merge mode (MMVD), and the like, may be used. Decoder side motion vector detail mode (DMVR), adaptive motion vector resolution (AMVR) mode, CU layer weighting biprediction (BCW), bidirectional optical flow (BDOF), and the like. can also be used as additional modes in addition or instead. The affine mode may be referred to as "affine motion prediction mode". The MVP mode may be referred to as "Advanced Motion Vector Prediction (AMVP) mode". In the present disclosure, some modes and/or motion information candidates retrieved by some modes may be included as one of the motion information candidates of other modes. For example, an HMVP candidate may be added as a merge candidate in merge/skip mode, or may be added as an MVP candidate in MVP mode.

[165] Информация режима прогнозирования, указывающая режим взаимного прогнозирования текущего блока, может передаваться в служебных сигналах из оборудования кодирования в оборудование декодирования. Информация режима прогнозирования может включаться в поток битов и приниматься посредством оборудования декодирования. Информация режима прогнозирования может включать в себя информацию индекса, указывающую один из множества возможных вариантов режимов. Альтернативно, режим взаимного прогнозирования может указываться через иерархическую передачу в служебных сигналах информации флага. В этом случае, информация режима прогнозирования может включать в себя один или более флагов. Например, флаг пропуска может передаваться в служебных сигналах, чтобы указывать то, применяется или нет режим пропуска, и если режим пропуска не применяется, флаг объединения может передаваться в служебных сигналах, чтобы указывать то, применяется или нет режим объединения, и если режим объединения не применяется, указывается необходимость применять MVP-режим, или флаг для дополнительной классификации дополнительно может передаваться в служебных сигналах. Аффинный режим может передаваться в служебных сигналах в независимом режиме или может передаваться в служебных сигналах в режиме, зависимом от режима объединения или MVP-режима. Например, аффинный режим может включать в себя аффинный режим объединения и аффинный MVP-режим.[165] Prediction mode information indicating the inter-prediction mode of the current block may be signaled from the encoding equipment to the decoding equipment. The prediction mode information may be included in the bitstream and received by the decoding equipment. The prediction mode information may include index information indicating one of the plurality of possible modes. Alternatively, the inter-prediction mode may be indicated via hierarchical signaling of flag information. In this case, the prediction mode information may include one or more flags. For example, a skip flag may be signaled to indicate whether or not the skip mode is applied, and if the skip mode is not applied, a merge flag may be signaled to indicate whether or not the merge mode is applied, and if the merge mode is not applied. applied, the need to apply the MVP mode is indicated, or a flag for additional classification may optionally be signaled. The affine mode may be signaled in an independent mode, or may be signaled in a mode dependent on the combining mode or the MVP mode. For example, an affine mode may include an affine join mode and an affine MVP mode.

[166] Между тем, информация, указывающая то, используется либо нет прогнозирование на основе списка 0 (L0), прогнозирование на основе списка 1 (L1) или бипрогнозирование, описанные выше, в текущем блоке (текущей единице кодирования), может передаваться в служебных сигналах в текущем блоке. Информация может называться "информацией направления прогнозирования движения", "информацией направления взаимного прогнозирования" или "информацией индикатора взаимного прогнозирования" и может конфигурироваться/кодироваться/передаваться в служебных сигналах, например, в форме синтаксического элемента inter_pred_idc. Таким образом, синтаксический элемент inter_pred_idc может указывать то, используется либо нет вышеуказанное прогнозирование на основе списка 0 (L0), прогнозирование на основе списка 1 (L1) или бипрогнозирование для текущего блока (текущей единицы кодирования). В настоящем раскрытии, для удобства описания, тип взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование или бипрогнозирование), указываемый посредством синтаксического элемента inter_pred_idc, может указываться как направление прогнозирования движения. L0-прогнозирование может представляться как pred_L0, L1-прогнозирование как pred_L1, и парное прогнозирование как pred_BI. Например, следующие типы прогнозирования могут определяться согласно значению синтаксического элемента inter_pred_idc.[166] Meanwhile, information indicating whether or not the list 0 (L0) prediction, list 1 (L1) prediction, or bi-prediction described above is used in the current block (current coding unit) may be transmitted overhead. signals in the current block. The information may be referred to as "motion prediction direction information", "inter prediction direction information", or "inter prediction indicator information", and may be configured/encoded/transmitted in signaling, for example, in the form of an inter_pred_idc syntax element. Thus, the inter_pred_idc syntax element may indicate whether or not the above list 0 (L0) prediction, list 1 (L1) prediction, or bi-prediction for the current block (current coding unit) is used. In the present disclosure, for convenience of description, an inter-prediction type (L0 prediction, L1 prediction, or bi-prediction) indicated by the inter_pred_idc syntax element may be indicated as a motion prediction direction. L0 prediction may be represented as pred_L0, L1 prediction as pred_L1, and pair prediction as pred_BI. For example, the following prediction types may be determined according to the value of the inter_pred_idc syntax element.

[167] Табл. 1[167] Tab. one

Figure 00000001
Figure 00000001

[168] Как описано выше, один кадр может включать в себя один или более срезов. Срез может иметь одни из типов срезов, включающих в себя внутренний (I) срез, прогнозирующий (P) срез и бипрогнозирующий (B) срез. Тип среза может указываться на основе информации типа среза. Для блоков в I-срезе, взаимное прогнозирование может не использоваться для прогнозирования, и только внутреннее прогнозирование может использоваться. Конечно, даже в этом случае, исходное выборочное значение может кодироваться и передаваться в служебных сигналах без прогнозирования. Внутреннее прогнозирование или взаимное прогнозирование может использоваться для блоков в P-срезе, и только унипрогнозирование может использоваться, когда используется взаимное прогнозирование. Между тем, внутреннее прогнозирование или взаимное прогнозирование может использоваться для блоков в B-срезе, и вплоть до бипрогнозирования может использоваться, когда используется взаимное прогнозирование.[168] As described above, one frame may include one or more slices. The slice may have one of the types of slices, including an inner (I) slice, a predictive (P) slice, and a bi-predictive (B) slice. The slice type may be indicated based on the slice type information. For blocks in an I-slice, inter prediction may not be used for prediction, and only intra prediction may be used. Of course, even in this case, the original sample value may be encoded and signaled without prediction. Intra-prediction or inter-prediction can be used for blocks in a P-slice, and only uni-prediction can be used when inter-prediction is used. Meanwhile, intra-prediction or inter-prediction may be used for blocks in a B-slice, and up to bi-prediction may be used when inter prediction is used.

[169] L0 и L1 могут включать в себя опорные кадры, которые ранее кодируются/декодируются до текущего кадра. Например, L0 может включать в себя опорные кадры перед и/или после текущего кадра в POC-порядке, и L1 может включать в себя опорные кадры после и/или перед текущим кадром в POC-порядке. В этом случае, L0 может назначаться меньший индекс опорного кадра относительно предыдущих опорных кадров в POC-порядке, чем относительно текущих опорных кадров, и L1 может назначаться меньший индекс опорного кадра относительно предыдущих опорных кадров в POC-порядке, чем относительно текущего кадра. В случае B-среза, бипрогнозирование может применяться, и в этом случае, однонаправленное бипрогнозирование может применяться, либо двунаправленное бипрогнозирование может применяться. Двунаправленное бипрогнозирование может называться "истинным бипрогнозированием".[169] L0 and L1 may include reference frames that are previously encoded/decoded prior to the current frame. For example, L0 may include reference frames before and/or after the current frame in POC order, and L1 may include reference frames after and/or before the current frame in POC order. In this case, L0 may be assigned a smaller key frame index with respect to previous key frames in the POC order than with respect to the current key frames, and L1 may be assigned a smaller key frame index with respect to previous key frames in the POC order than with respect to the current frame. In the case of a B-slice, biprediction may be applied, in which case, unidirectional biprediction may be applied, or bidirectional biprediction may be applied. Bidirectional biprediction may be referred to as "true biprediction".

[170] Как описано выше, остаточный блок (остаточные выборки) может извлекаться на основе прогнозированного блока (прогнозных выборок), извлекаемого через прогнозирование в каскаде кодирования, и остаточные выборки преобразуются/квантуются посредством остаточной информации, могут формироваться. Остаточная информация может включать в себя информацию относительно квантованных коэффициентов преобразования. Остаточная информация может включаться в информацию видео/изображений, и информация видео/изображений может кодироваться и передаваться в оборудование декодирования в форме потока битов. Оборудование декодирования может получать остаточную информацию из потока битов и может извлекать остаточные выборки на основе остаточной информации. В частности, оборудование декодирования может извлекать квантованные коэффициенты преобразования на основе остаточной информации и может извлекать остаточные блоки (остаточные выборки) через процедуру деквантования/обратного преобразования.[170] As described above, the residual block (residual samples) may be derived based on the predicted block (predictive samples) derived through prediction in the coding stage, and the residual samples transformed/quantized by the residual information may be generated. The residual information may include information regarding the quantized transform coefficients. The residual information may be included in the video/image information, and the video/image information may be encoded and transmitted to the decoding equipment in the form of a bitstream. The decoding equipment may obtain residual information from the bitstream and may extract residual samples based on the residual information. In particular, the decoding equipment can extract quantized transform coefficients based on the residual information, and can extract residual blocks (residual samples) through a dequantization/inverse transform procedure.

[171] Между тем по меньшей мере одна процедура (обратного) преобразования и/или (де)-квантования может опускаться.[171] Meanwhile, at least one (inverse) transformation and/or (de)-quantization procedure may be omitted.

[172] В дальнейшем в этом документе описывается процедура внутриконтурной фильтрации, выполняемая для восстановленного кадра. Модифицированная восстановленная выборка, блок, кадр (или модифицированная фильтрованная выборка, блок, кадр) могут формироваться через процедуру внутриконтурной фильтрации, и модифицированный (модифицированный и фильтрованный) восстановленный кадр может выводиться в качестве декодированного кадра в оборудовании декодирования и также может сохраняться в буфере декодированных кадров или запоминающем устройстве оборудования кодирования/оборудования декодирования и использоваться в качестве опорного кадра в процедуре взаимного прогнозирования во время кодирования/декодирования кадра впоследствии. Процедура внутриконтурной фильтрации может включать в себя процедуру фильтрации для удаления блочности, процедуру фильтрации на основе дискретизированного адаптивного смещения (SAO) и/или процедуру адаптивной контурной фильтрации (ALF), как описано выше. В этом случае, одна или некоторые из процедуры фильтрации для удаления блочности, процедуры фильтрации на основе дискретизированного адаптивного смещения (SAO), процедуры адаптивной контурной фильтрации (ALF) и процедуры билатеральной фильтрации могут последовательно применяться, либо все могут последовательно применяться. Например, SAO-процедура может выполняться после того, как процедура фильтрации для удаления блочности применяется к восстановленному кадру. Альтернативно, например, ALF-процедура может выполняться после того, как процедура фильтрации для удаления блочности применяется к восстановленному кадру. Это также может выполняться в оборудовании кодирования.[172] Hereinafter, this document describes the in-loop filtering procedure performed on the reconstructed frame. The modified reconstructed sample, block, frame (or modified filtered sample, block, frame) may be generated through an in-loop filtering procedure, and the modified (modified and filtered) reconstructed frame may be output as a decoded frame in the decoding equipment, and may also be stored in a decoded frame buffer. or storage device of the encoding equipment/decoding equipment and used as a reference frame in the inter prediction procedure during encoding/decoding of the frame thereafter. The in-loop filtering procedure may include a deblocking filtering procedure, a sampled adaptive offset (SAO) filtering procedure, and/or an adaptive loop filtering (ALF) procedure as described above. In this case, one or more of the deblocking filter procedure, the sampled adaptive offset (SAO) filter procedure, the adaptive loop filter (ALF) procedure, and the bilateral filter procedure may be sequentially applied, or all may be sequentially applied. For example, the SAO procedure may be executed after the deblocking filter procedure is applied to the reconstructed frame. Alternatively, for example, the ALF procedure may be performed after the deblocking filter procedure is applied to the reconstructed frame. This can also be done in the coding equipment.

[173] Фильтрация для удаления блочности представляет собой технологию фильтрации, которая удаляет искажение на границах между блоками в восстановленном кадре. Процедура фильтрации для удаления блочности, например, может извлекать целевую границу из восстановленного кадра, определять граничную интенсивность (bS) для целевой границы и выполнять фильтрацию для удаления блочности для целевой границы на основе bS; bS может определяться на основе режима прогнозирования, разности векторов движения, того, является или нет опорный кадр идентичным, того, существует или нет ненулевой значимый коэффициент и т.д., для двух блоков, смежных с целевой границей.[173] Deblocking filtering is a filtering technique that removes distortion at boundaries between blocks in a reconstructed frame. The deblocking filtering procedure, for example, may extract the target boundary from the reconstructed frame, determine the boundary intensity (bS) for the target boundary, and perform deblocking filtering for the target boundary based on bS; bS may be determined based on the prediction mode, motion vector difference, whether or not the reference frame is identical, whether or not a non-zero significant coefficient exists, etc., for two blocks adjacent to the target boundary.

[174] SAO представляет собой способ для компенсации разности смещения между восстановленным кадром и исходным кадром на основе выборок. Например, SAO может применяться на основе типа, к примеру, как полосовое смещение, краевое смещение и т.п. Согласно SAO, выборки могут классифицироваться на различные категории согласно каждому SAO-типу, и значение смещения может суммироваться с каждой выборкой на основе категории. Информация фильтрации для SAO может включать в себя информацию относительно того, применяется или нет SAO, информацию SAO-типа и информацию значений SAO-смещения. SAO может применяться к восстановленному кадру после того, как фильтрация для удаления блочности применяется.[174] SAO is a method for compensating for an offset difference between a reconstructed frame and an original frame based on samples. For example, SAO may be applied based on the type, such as band offset, edge offset, and the like. According to SAO, samples can be classified into different categories according to each SAO type, and a bias value can be added to each sample based on the category. The filtering information for SAO may include information regarding whether or not SAO is applied, SAO type information, and SAO offset value information. SAO may be applied to the reconstructed frame after deblocking filtering is applied.

[175] Адаптивный контурный фильтр (ALF) представляет собой технологию для фильтрации восстановленного кадра на основе выборок на основе коэффициентов фильтра согласно форме фильтра. Оборудование кодирования может определять то, следует или нет применять ALF, ALF-форму и/или коэффициент ALF-фильтрации и т.д. посредством сравнения восстановленного кадра и исходного кадра и может передавать в служебных сигналах в оборудование декодирования. Таким образом, информация фильтрации для ALF может включать в себя информацию относительно того, применяется или нет ALF, информацию формы ALF-фильтра, информацию коэффициентов ALF-фильтрации и т.п. ALF может применяться к восстановленному кадру после того, как применяется фильтрация для удаления блочности.[175] An adaptive loop filter (ALF) is a technique for filtering a reconstructed frame based on samples based on filter coefficients according to a filter shape. The encoding equipment may determine whether or not to apply the ALF, the ALF shape and/or the ALF filter factor, and so on. by comparing the reconstructed frame and the original frame, and may be signaled to the decoding equipment. Thus, the filtering information for the ALF may include information regarding whether or not ALF is applied, ALF filter shape information, ALF filter coefficient information, and the like. ALF may be applied to the reconstructed frame after deblocking filtering is applied.

[176] Фиг. 8 показывает пример формы ALF-фильтра.[176] FIG. 8 shows an example of an ALF filter shape.

[177] На фиг. 8, (a) показывает форму ромбовидного фильтра 7×7, (b) показывает форму ромбовидного фильтра 5×5. На фиг. 8, Cn в форме фильтра представляет коэффициент фильтра. Когда n в Cn является идентичным, это указывает то, что идентичные коэффициенты фильтра могут назначаться. В настоящем раскрытии, позиция и/или единица, которой назначаются коэффициенты фильтра согласно форме фильтра ALF, может называться "отводом фильтра". В этом случае, один коэффициент фильтра может назначаться каждому отводу фильтра, и компоновка отводов фильтра может соответствовать форме фильтра. Отвод фильтра, расположенный в центре формы фильтра, может называться "центральным отводом фильтра". Идентичные коэффициенты фильтра могут назначаться двум отводам фильтра, имеющим идентичное значение n, существующим в позициях, соответствующих друг другу относительно центрального отвода фильтра. Например, в случае ромбовидной формы фильтра 7×7, 25 отводов фильтра включаются, и поскольку коэффициенты C0-C11 фильтра назначаются в центрально симметричной форме, коэффициенты фильтра могут назначаться 25 отводам фильтра с использованием только 13 коэффициентов фильтра. Кроме того, например, в случае ромбовидной формы фильтра 5×5, 13 отводов фильтра включаются, и поскольку коэффициенты C0-C5 фильтра назначаются в централизованно симметричной форме, коэффициенты фильтра назначаются 13 отводам фильтра с использованием только 7 коэффициентов фильтра. Например, чтобы уменьшать объем данных информации относительно передаваемых в служебных сигналах коэффициентов фильтра, 12 из 13 коэффициентов фильтра для ромбовидной формы фильтра 7×7 могут передаваться в служебных сигналах (явно), и 1 коэффициент фильтра может (неявно) извлекаться. Кроме того, например, 6 из 7 коэффициентов фильтра для ромбовидной формы фильтра 5×5 могут передаваться в служебных сигналах (явно), и 1 коэффициент фильтра может извлекаться (неявно).[177] FIG. 8, (a) shows the shape of a 7×7 diamond filter, (b) shows the shape of a 5×5 diamond filter. In FIG. 8, Cn in the filter form represents the filter coefficient. When n in Cn is identical, this indicates that identical filter coefficients may be assigned. In the present disclosure, the position and/or unit to which filter coefficients are assigned according to the form of the ALF filter may be referred to as a "filter tap". In this case, one filter coefficient may be assigned to each filter tap, and the arrangement of the filter taps may correspond to the shape of the filter. The filter tap located in the center of the filter shape may be referred to as the "centre filter tap". Identical filter coefficients may be assigned to two filter taps having the same value of n, existing at positions corresponding to each other relative to the center filter tap. For example, in the case of a 7×7 diamond-shaped filter, 25 filter taps are included, and since the filter coefficients C0-C11 are assigned in a centrally symmetrical form, the filter coefficients can be assigned to 25 filter taps using only 13 filter coefficients. Further, for example, in the case of a 5×5 diamond filter, 13 filter taps are included, and since filter coefficients C0-C5 are assigned in a centrally symmetrical form, filter coefficients are assigned to 13 filter taps using only 7 filter coefficients. For example, in order to reduce the data amount of information regarding signaling filter coefficients, 12 of the 13 filter coefficients for a 7×7 diamond filter may be signaled (explicitly) and 1 filter coefficient may (implicitly) be extracted. In addition, for example, 6 out of 7 filter coefficients for a 5×5 diamond filter may be signaled (explicitly) and 1 filter coefficient may be extracted (implicitly).

[178] Согласно варианту осуществления настоящего раскрытия, ALF-параметр, используемый для ALF-процедуры, может передаваться в служебных сигналах через набор параметров адаптации (APS). ALF-параметр может извлекаться из информации фильтра или ALF-данных для ALF.[178] According to an embodiment of the present disclosure, an ALF parameter used for an ALF procedure may be signaled via an adaptation parameter set (APS). The ALF parameter may be derived from filter information or ALF data for ALF.

[179] ALF представляет собой тип технологии внутриконтурной фильтрации, которая может применяться при кодировании видео/изображений, как описано выше. ALF может выполняться с использованием адаптивного фильтра Винера. Это может служить для того, чтобы минимизировать среднеквадратическую ошибку (MSE) между исходными выборками и декодированными выборками (или восстановленными выборками). Высокоуровневое проектирование для инструментального ALF-средства может включать синтаксические элементы, доступные в SPS и/или в заголовке среза (либо в заголовке группы плиток).[179] ALF is a type of in-loop filtering technology that can be applied in video/image coding as described above. ALF can be performed using an adaptive Wiener filter. This may serve to minimize the mean square error (MSE) between the original samples and the decoded samples (or reconstructed samples). The high-level design for an ALF tool may include syntax elements available in the SPS and/or in the slice header (or tile group header).

[180] В примере, перед фильтрацией для каждого блока сигналов яркости 4×4, геометрические преобразования, такие как вращение или диагональное и вертикальное переворачивание, могут применяться к коэффициентам f(k, l) фильтра в зависимости от значений градиентов, вычисленных для блока, и соответствующих значений c(k, l) отсечения в фильтре. Это является эквивалентным применению этих преобразований к выборкам в зоне носителя фильтра. Создание других блоков, к которым применяется ALF, может быть аналогичным размещению этих блоков согласно их направленности.[180] In an example, before filtering for each block of 4x4 luminance signals, geometric transformations such as rotation or diagonal and vertical flipping may be applied to the filter coefficients f(k, l) depending on the gradient values computed for the block, and corresponding cut-off values c(k, l) in the filter. This is equivalent to applying these transformations to the samples in the filter media zone. The creation of other blocks to which ALF is applied may be similar to the placement of these blocks according to their orientation.

[181] Например, три преобразования, диагональное, вертикальное переворачивание и вращение, могут выполняться на основе следующих уравнений.[181] For example, three transformations, diagonal, vertical flip and rotation, can be performed based on the following equations.

[182] уравнение 1[182] Equation 1

Диагональное: f_D(k, l)=f(l, k), c_D(k, l)=c(l, k)Diagonal: f_D(k, l)=f(l, k), c_D(k, l)=c(l, k)

[183] уравнение 2[183] Equation 2

Вертикальное переворачивание: f_V(k, l)=f(k, K-l-1), c_V(k, l)=c(k, K-l-1)Vertical flip: f_V(k, l)=f(k, K-l-1), c_V(k, l)=c(k, K-l-1)

[184] уравнение 3[184] Equation 3

Вращение: f_R(k, l)=f(K-l-1, k), c_R(k, l)=c(K-l-1, k)Rotation: f_R(k, l)=f(K-l-1, k), c_R(k, l)=c(K-l-1, k)

[185] В уравнениях 1-3, K может представлять собой размер фильтра. 0≤k и 1≤K-1 могут представлять собой координаты коэффициентов. Например, (0, 0) может представлять собой левую верхнюю угловую координату, и/или (K-1, K-1) может представлять собой правую нижнюю угловую координату. Взаимосвязь между преобразованиями и четырьмя градиентами в четырех направлениях может обобщаться в следующей таблице.[185] In Equations 1-3, K may be a filter size. 0≤k and 1≤K-1 may represent coefficient coordinates. For example, (0, 0) may represent a left upper corner coordinate, and/or (K-1, K-1) may represent a lower right corner coordinate. The relationship between transformations and four gradients in four directions can be summarized in the following table.

[186] Табл. 2[186] Tab. 2

Значения градиентовGradient values Преобразованиеtransformation gd2<gd1 и gh<gv g d2 <g d1 and g h <g v Отсутствие преобразованияLack of conversion gd2<gd1 и gv<gh g d2< g d1 and g v< g h ДиагональноеDiagonal gd1<gd2 и gh<gv g d1< g d2 and g h< g v Вертикальное переворачиваниеVertical flip gd1<gd2 и gv<gh g d1< g d2 and g v< g h ВращениеRotation

[187] Параметры ALF-фильтра могут передаваться в служебных сигналах в APS и заголовке среза. В одном APS, вплоть до 25 коэффициентов фильтра сигналов яркости и индексов значений отсечения могут передаваться в служебных сигналах. В одном APS, вплоть до 8 коэффициентов фильтра сигналов цветности и индексов значений отсечения могут передаваться в служебных сигналах. Чтобы уменьшать дополнительное число битов, коэффициенты фильтра различных классификаций для компонента сигналов яркости могут объединяться. В заголовке среза, могут передаваться в служебных сигналах индексы APS (указываемые по ссылке посредством текущего среза), используемых для текущего среза.[187] The ALF filter parameters may be signaled in the APS and the slice header. In one APS, up to 25 luma filter coefficients and cutoff indexes can be signaled. In one APS, up to 8 chrominance filter coefficients and cutoff indexes can be signaled. To reduce the extra number of bits, the filter coefficients of different classifications for the luma component may be combined. In the slice header, the APS indices (referenced by the current slice) used for the current slice may be signaled.

[188] Индексы значений отсечения, декодированные из APS, могут позволять определять значения отсечения с использованием таблицы сигналов яркости значений отсечения и таблицы сигналов цветности значений отсечения. Эти значения отсечения могут зависеть от внутренней битовой глубины. Более конкретно, таблица сигналов яркости значений отсечения и таблица сигналов цветности значений отсечения могут извлекаться на основе следующих уравнений.[188] The clip value indices decoded from the APS may allow clip values to be determined using the clip value luma table and the clip value chrominance table. These clipping values may depend on the internal bit depth. More specifically, the luminance signal table of the clipping values and the chrominance signal table of the clipping values can be derived based on the following equations.

[189] уравнение 4[189] Equation 4

AlfClipL={round(2^(B(N-n+1)/N)) для n∈[1...N]}AlfClipL={round(2^(B(N-n+1)/N)) for n∈[1...N]}

[190] уравнение 5[190] Equation 5

AlfClipC={round(2^((B-8)+8((N-n))/(N-1))) для n∈[1...N]}AlfClipC={round(2^((B-8)+8((N-n))/(N-1))) for n∈[1...N]}

[191] В вышеприведенных у[191] In the above

равнениях, B может быть внутренней битовой глубиной, и N может быть числом разрешенных значений отсечения (предварительно определенным числом). Например, N может быть равным 4.equations, B may be the internal bit depth, and N may be the number of allowed clipping values (a predetermined number). For example, N might be 4.

[192] В заголовке среза, вплоть до 7 APS-индексов могут передаваться в служебных сигналах, чтобы указывать наборы фильтров сигналов яркости, используемые для текущего среза. Процедура фильтрации дополнительно может управляться на CTB-уровне. Например, флаг, указывающий то, применяется или нет ALF к CTB сигналов яркости, может передаваться в служебных сигналах. CTB сигналов яркости может выбирать один из 16 наборов фиксированных фильтров и наборов фильтров из APS. Индекс набора фильтров может передаваться в служебных сигналах для CTB сигналов яркости, чтобы указывать то, какой набор фильтров применяется. 16 наборов фиксированных фильтров могут предварительно задаваться и жестко кодироваться в кодере и декодере.[192] In the slice header, up to 7 APS indices may be signaled to indicate the luminance filter sets used for the current slice. The filtering procedure can additionally be controlled at the CTB level. For example, a flag indicating whether or not ALF is applied to the CTB of luma signals may be signaled. The luminance CTB can select from 16 fixed filter sets and APS filter sets. The filter bank index may be signaled for the luminance CTB to indicate which filter bank is applied. The 16 fixed filter sets can be predefined and hardcoded in the encoder and decoder.

[193] Для компонента сигналов цветности, APS-индекс может передаваться в служебных сигналах в заголовке среза, чтобы указывать наборы фильтров сигналов цветности, используемые для текущего среза. На CTB-уровне, когда имеется два или более наборов фильтров сигналов цветности в APS, индекс фильтра может передаваться в служебных сигналах для каждого CTB сигналов цветности.[193] For the chroma component, an APS index may be signaled in a slice header to indicate the chrominance filter sets used for the current slice. At the CTB level, when there are two or more chrominance filter sets in an APS, a filter index may be signaled for each chrominance CTB.

[194] Коэффициенты фильтра могут квантоваться с 128 в качестве нормы. Чтобы ограничивать сложность умножения, соответствие потока битов может применяться таким образом, что значения коэффициентов нецентральной позиции могут варьироваться в диапазоне от 0 до 28, и/или значения коэффициентов оставшихся позиций могут составлять в диапазоне от -27 до 27-1. Коэффициент центральной позиции может не передаваться в служебных сигналах в потоке битов и может предварительно определяться (рассматриваться) равным 128.[194] The filter coefficients may be quantized with 128 as the norm. To limit the complexity of the multiplication, bitstream matching may be applied such that the non-center position coefficient values may range from 0 to 28, and/or the coefficient values of the remaining positions may range from -27 to 27-1. The center position coefficient may not be signaled in the bitstream, and may be predetermined (considered) to be 128.

[195] Когда ALF доступна для текущего блока, каждая выборка R(i, j) может фильтроваться, и фильтрованный результат R'(i, j) может выражаться посредством следующего уравнения.[195] When ALF is available for the current block, each sample R(i, j) may be filtered, and the filtered result R'(i, j) may be expressed by the following equation.

[196] уравнение 6[196] Equation 6

Figure 00000002
Figure 00000002

[197] В вышеприведенном уравнении, f(k, l) может представлять собой декодированные коэффициенты фильтра, K (x, y) может представлять собой функцию отсечения, и c(k, l) может представлять собой декодированные параметры отсечения. Например, переменные k и/или l могут варьироваться от -L/2 до L/2. Здесь, L может представлять длину фильтра. Функция отсечения K(x, y)=min (y, max(-y, x)) может соответствовать функции Clip3(-y, y, x).[197] In the above equation, f(k, l) may be the decoded filter coefficients, K(x, y) may be a clipping function, and c(k, l) may be the decoded clipping parameters. For example, the variables k and/or l may range from -L/2 to L/2. Here, L may represent the length of the filter. The clipping function K(x, y)=min (y, max(-y, x)) can correspond to the Clip3(-y, y, x) function.

[198] В примере, чтобы уменьшать требование по линейному буферу ALF, классификация модифицированных блоков и фильтрация могут применяться для выборок, смежных с горизонтальными CTU-границами. С этой целью, виртуальные границы могут задаваться.[198] In an example, to reduce the linear ALF buffer requirement, modified block classification and filtering may be applied to samples adjacent to horizontal CTU boundaries. To this end, virtual boundaries may be defined.

[199] Фиг. 9 является схемой, иллюстрирующей виртуальную границу, применяемую к процедуре фильтрации согласно варианту осуществления настоящего документа. Фиг. 10 иллюстрирует пример ALF-процедуры с использованием виртуальной границы согласно варианту осуществления настоящего раскрытия. В дальнейшем описывается фиг. 10 в сочетании с фиг. 9.[199] FIG. 9 is a diagram illustrating a virtual boundary applied to a filtering procedure according to an embodiment of the present document. Fig. 10 illustrates an example of an ALF procedure using a virtual boundary according to an embodiment of the present disclosure. In the following, FIG. 10 in combination with FIG. nine.

[200] Ссылаясь на фиг. 9, виртуальная граница может представлять собой линию, заданную посредством сдвига горизонтальной CTU-границы на N выборок. В примере, N может быть равным 4 для компонента сигнала яркости, и/или N может быть равным 2 для компонента сигналов цветности.[200] Referring to FIG. 9, the virtual boundary may be a line defined by shifting the horizontal CTU boundary by N samples. In an example, N may be equal to 4 for the luminance signal component, and/or N may be equal to 2 for the chrominance signal component.

[201] На фиг. 9, классификация модифицированных блоков может применяться к компоненту сигналов яркости. Для одномерного лапласова градиентного вычисления блока 4×4 на виртуальной границе, могут использоваться только выборки выше виртуальной границы. Аналогично, для вычисления одномерного лапласова градиента блока 4×4 ниже виртуальной границы, могут использоваться только выборки ниже виртуальной границы. Квантование значения A активности может масштабироваться, соответственно, с учетом сокращенного числа выборок, используемых в одномерном лапласовом градиентном вычислении.[201] FIG. 9, the modified block classification may be applied to the luma component. For a one-dimensional Laplacian gradient computation of a 4×4 block at a virtual boundary, only samples above the virtual boundary can be used. Likewise, to calculate the 1D Laplace gradient of a 4×4 block below the virtual boundary, only samples below the virtual boundary can be used. The quantization of the activity value A can be scaled accordingly to account for the reduced number of samples used in the one-dimensional Laplace gradient calculation.

[202] Для процедуры фильтрации, операция симметричного дополнения на виртуальных границах может использоваться для компонентов сигналов яркости и сигналов цветности. Ссылаясь на фиг. 9, когда фильтрованная выборка расположена ниже виртуальной границы, соседние выборки, расположенные выше виртуальной границы, могут дополняться. Между тем, соответствующие выборки на другой стороне также могут симметрично дополняться.[202] For the filtering procedure, a symmetrical addition operation on virtual boundaries can be used for the luminance and chrominance signal components. Referring to FIG. 9, when the filtered sample is located below the virtual boundary, adjacent samples located above the virtual boundary may be padded. Meanwhile, corresponding samples on the other side can also be symmetrically padded.

[203] Процедура, описанная согласно фиг. 10, также может использоваться для границ срезов, кирпичей и/или плиток, когда фильтр не доступен на границах. Для классификации ALF-блоков, могут использоваться только выборки, содержащиеся в идентичном срезе, кирпиче и/или плитке, и значение активности может масштабироваться, соответственно. Для ALF-фильтрации, симметричное дополнение может применяться для каждого из горизонтальных и/или вертикальных направлений относительно горизонтальных и/или вертикальных границ.[203] The procedure described in accordance with FIG. 10 can also be used for slice, brick and/or tile borders when no filter is available on the borders. To classify ALF blocks, only the samples contained in the identical slice, brick, and/or tile can be used, and the activity value can be scaled accordingly. For ALF filtering, symmetrical padding may be applied for each of the horizontal and/or vertical directions relative to the horizontal and/or vertical boundaries.

[204] Фиг. 11 является схемой, иллюстрирующей процедуру кросскомпонентной адаптивной контурной фильтрации (CC-ALF) согласно варианту осуществления настоящего документа. CC-ALF-процедура может называться "процедурой кросскомпонентной фильтрации".[204] FIG. 11 is a diagram illustrating a cross-component adaptive loop filtering (CC-ALF) procedure according to an embodiment of the present document. The CC-ALF procedure may be referred to as the "cross-component filtering procedure".

[205] В аспекте, ALF-процедура может включать в себя общую ALF-процедуру и CC-ALF-процедуру. Таким образом, CC-ALF-процедура может означать некоторые процедуры из ALF-процедуры. В другом аспекте, процедура фильтрации может включать в себя процедуру удаления блочности, SAO-процедуру, ALF-процедуру и/или CC-ALF-процедуру.[205] In an aspect, the ALF procedure may include a general ALF procedure and a CC-ALF procedure. Thus, CC-ALF-procedure can mean some of the procedures from the ALF-procedure. In another aspect, the filtering procedure may include a deblocking procedure, an SAO procedure, an ALF procedure, and/or a CC-ALF procedure.

[206] CC-ALF может детализировать каждый компонент сигналов цветности с использованием выборочных значений сигналов яркости. CC-ALF управляется посредством информации (изображений) потока битов, которая включает в себя (a) информацию относительно коэффициентов фильтра для каждого компонента сигналов цветности и (b) информацию относительно маски, которая управляет применением фильтрации к блокам выборок. Коэффициенты фильтра могут передаваться в служебных сигналах в APS, и размер блока и маска может передаваться в служебных сигналах на уровне среза.[206] CC-ALF may detail each component of the chrominance signals using sampled values of the luminance signals. The CC-ALF is controlled by bitstream information (images) that includes (a) information regarding filter coefficients for each chroma component and (b) information regarding a mask that controls the application of filtering to blocks of samples. The filter coefficients may be signaled at the APS, and the block size and mask may be signaled at the slice layer.

[207] Ссылаясь на фиг. 11, CC-ALF может работать посредством применения линейного ромбовидного фильтра ((b) по фиг. 11) к каналу сигналов яркости для каждого компонента сигналов цветности. Коэффициенты фильтра передаются в APS, масштабируются на коэффициент 210 и округляются в большую сторону для представления с фиксированной запятой. Применение фильтра может управляться при переменном размере блока и передаваться в служебных сигналах посредством флага контекстного кодирования, принимаемого для блоков каждой выборки. Размер блока наряду с флагом CC-ALF-активации может приниматься на уровне среза для каждого компонента сигналов цветности. Размер блока (для выборок сигналов цветности) может составлять 16×16, 32×32, 64×64 или 128×128.[207] Referring to FIG. 11, CC-ALF can be operated by applying a linear diamond filter ((b) of FIG. 11) to the luma channel for each chroma component. The filter coefficients are passed to APS, scaled by a factor of 210, and rounded up for fixed point representation. The application of the filter may be controlled at a variable block size and signaled by a context encoding flag received for the blocks of each sample. The block size along with the CC-ALF activation flag may be received at the slice level for each chroma component. The block size (for chrominance samples) may be 16x16, 32x32, 64x64, or 128x128.

[208] В нижеприведенных вариантах осуществления, предлагается способ повторной фильтрации или модификации восстановленных выборок сигналов цветности, фильтрованных посредством ALF на основе восстановленных выборок сигналов яркости.[208] In the following embodiments, a method is provided for re-filtering or modifying recovered chrominance samples filtered by ALF based on the recovered luma samples.

[209] Вариант осуществления настоящего раскрытия относится к передаче включения-выключения фильтрации и передаче коэффициентов фильтрации в CC-ALF. Как описано выше, информация (синтаксический элемент) в синтаксической таблице, раскрытой в настоящем раскрытии, может включаться в информацию изображений/видео, может конфигурироваться/кодироваться в устройстве кодирования и передаваться в устройство декодирования в форме потока битов. Оборудование декодирования может синтаксически анализировать/декодировать информацию (синтаксический элемент) в соответствующей синтаксической таблице. Оборудование декодирования может выполнять процедуру декодирования кадров/изображений/видео (в частности, например, CC-ALF-процедуру) на основе декодированной информации. Это применимо далее в этом документе к другим вариантам осуществления.[209] An embodiment of the present disclosure relates to filtering on-off transmission and filtering coefficient transmission in CC-ALF. As described above, the information (syntax element) in the syntax table disclosed in the present disclosure may be included in image/video information, may be configured/encoded in an encoder, and transmitted to a decoder in the form of a bit stream. The decoding equipment can parse/decode the information (syntax element) in the corresponding syntax table. The decoding equipment may perform a frame/picture/video decoding procedure (specifically, for example, a CC-ALF procedure) based on the decoded information. This applies later in this document to other embodiments.

[210] Следующая таблица показывает некоторый синтаксис информации заголовка среза согласно варианту осуществления настоящего раскрытия.[210] The following table shows some syntax of slice header information according to an embodiment of the present disclosure.

[211] Табл. 3[211] Tab. 3

Figure 00000003
Figure 00000003

[212] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[212] The following table shows exemplary semantics for the syntax elements included in the above table.

[213] Табл. 4[213] Tab. 4

slice_cross_component_alf_cb_enabled_flag, равный 0, указывает то, что кросскомпонентный Cb-фильтр не применяется к цветовому Cb-компоненту; slice_cross_component_alf_cb_enabled_flag, равный 1, указывает то, что кросскомпонентный Cb-фильтр применяется к цветовому Cb-компоненту. slice_cross_component_alf_cb_enabled_flag equal to 0 indicates that the Cb cross-component filter is not applied to the Cb color component; slice_cross_component_alf_cb_enabled_flag equal to 1 indicates that the Cb cross-component filter is applied to the Cb color component.

slice_cross_component_alf_cr_enabled_flag, равный 0, указывает то, что кросскомпонентный Cr-фильтр не применяется к цветовому Cr-компоненту; slice_cross_component_alf_cb_enabled_flag, равный 1, указывает то, что кросскомпонентный Cr-фильтр применяется к цветовому Cr-компоненту. slice_cross_component_alf_cr_enabled_flag equal to 0 indicates that the Cr cross-component filter is not applied to the chrominance Cr component; slice_cross_component_alf_cb_enabled_flag equal to 1 indicates that a cross-component Cr filter is applied to the chrominance Cr component.

slice_cross_component_alf_cb_reuse_temporal_layer_filter, равный 1, указывает то, что коэффициенты кросскомпонентного Cb-фильтра, причем j=0...13, включительно, задаются равными AlfCCTemporalCoeffcb[TemporalId][j]. slice_cross_component_alf_cb_reuse_temporal_layer_filter equal to 1 indicates that the coefficients of the cross-component Cb filter, j=0...13 inclusive, are set equal to AlfCCTemporalCoeffcb[TemporalId][j].

slice_cross_component_alf_cb_reuse_temporal_layer_filter, равный 0, и slice_cross_component_alf_cb_enabled_flag, равный 1, указывают то, что синтаксический элемент slice_cross_component_alf_cb_aps_id присутствует в заголовке среза.slice_cross_component_alf_cb_reuse_temporal_layer_filter equal to 0 and slice_cross_component_alf_cb_enabled_flag equal to 1 indicate that the slice_cross_component_alf_cb_aps_id syntax element is present in the slice header.

Когда slice_cross_component_alf_cb_enabled_flag равен 1, и slice_cross_component_alf_cb_reuse_temporal_layer_filter равен 0, элементы AlfCCTemporalCoeffcb[TemporalId][j], причем j=0...13, извлекаются следующим образом:When slice_cross_component_alf_cb_enabled_flag is 1 and slice_cross_component_alf_cb_reuse_temporal_layer_filter is 0, the elements of AlfCCTemporalCoeffcb[TemporalId][j] with j=0...13 are extracted as follows:

AlfCCTemporalCoeffcb[TemporalId][j]=AlfCCCoeffcb[slice_cross_component_alf_cb_aps_id][j]AlfCCTemporalCoeffcb[TemporalId][j]=AlfCCCoeffcb[slice_cross_component_alf_cb_aps_id][j]

slice_cross_component_alf_cr_reuse_temporal_layer_filter, равный 1, указывает то, что коэффициенты кросскомпонентного Cr-фильтра, причем j=0...13, включительно, задаются равными AlfCCTemporalCoeffcr[TemporalId][j]. slice_cross_component_alf_cr_reuse_temporal_layer_filter equal to 1 indicates that the coefficients of the cross-component Cr filter, j=0...13 inclusive, are set to AlfCCTemporalCoeffcr[TemporalId][j].

slice_cross_component_alf_cr_reuse_temporal_layer_filter, равный 0, и slice_cross_component_alf_cr_enabled_flag, равный 1, указывают то, что синтаксический элемент slice_cross_component_alf_cr_aps_id присутствует в заголовке среза.slice_cross_component_alf_cr_reuse_temporal_layer_filter equal to 0 and slice_cross_component_alf_cr_enabled_flag equal to 1 indicate that the slice_cross_component_alf_cr_aps_id syntax element is present in the slice header.

Когда slice_cross_component_alf_cr_enabled_flag равен 1, и slice_cross_component_alf_cr_reuse_temporal_layer_filter равен 0, элементы AlfCCTemporalCoeffcr[TemporalId][j], причем j=0...13, извлекаются следующим образом:When slice_cross_component_alf_cr_enabled_flag is 1 and slice_cross_component_alf_cr_reuse_temporal_layer_filter is 0, the elements of AlfCCTemporalCoeffcr[TemporalId][j] with j=0...13 are extracted as follows:

AlfCCTemporalCoeffcr[TemporalId][j]=AlfCCCoeffcr[slice_cross_component_alf_cr_aps_id][j]AlfCCTemporalCoeffcr[TemporalId][j]=AlfCCCoeffcr[slice_cross_component_alf_cr_aps_id][j]

slice_cross_component_alf_cb_aps_id указывает adaptation_parameter_set_id, на который ссылается цветовой Cb-компонент среза для кросскомпонентного Cb-фильтра. Когда slice_cross_component_alf_cb_aps_id не присутствует, он логически выводится равным slice_alf_aps_id_luma[0]. TemporalId ALF APS NAL-единицы, имеющей adaptation_parameter_set_id, равный slice_cross_component_alf_cb_aps_id, должен быть меньше или равным TemporalId кодированной NAL-единицы среза. slice_cross_component_alf_cb_aps_id indicates the adaptation_parameter_set_id referenced by the Cb color component of the slice for the cross-component Cb filter. When slice_cross_component_alf_cb_aps_id is not present, it is logically inferred to be slice_alf_aps_id_luma[0]. The TemporalId ALF APS of a NAL unit having an adaptation_parameter_set_id equal to slice_cross_component_alf_cb_aps_id shall be less than or equal to the TemporalId of the encoded slice NAL unit.

slice_cross_component_alf_cr_aps_id указывает adaptation_parameter_set_id, на который ссылается цветовой Cr-компонент среза для кросскомпонентного Cr-фильтра. Когда slice_cross_component_alf_cr_aps_id не присутствует, он логически выводится равным slice_alf_aps_id_luma[0]. TemporalId ALF APS NAL-единицы, имеющей adaptation_parameter_set_id, равный slice_cross_component_alf_cr_aps_id, должен быть меньше или равным TemporalId кодированной NAL-единицы среза. slice_cross_component_alf_cr_aps_id indicates the adaptation_parameter_set_id referenced by the Cr color component of the slice for the cross-component Cr filter. When slice_cross_component_alf_cr_aps_id is not present, it is logically inferred to be slice_alf_aps_id_luma[0]. The TemporalId ALF APS of a NAL unit having an adaptation_parameter_set_id equal to slice_cross_component_alf_cr_aps_id shall be less than or equal to the TemporalId of the encoded slice NAL unit.

slice_cross_component_alf_cb_log2_control_size_minus4 указывает значение размеров квадратных блоков в числе выборок следующим образом: slice_cross_component_alf_cb_log2_control_size_minus4 indicates the value of the square block sizes in the number of samples as follows:

AlfCCSamplesCbW=AlfCCSamplesCbH=2(slice_cross_component_alf_cb_log2_control_size_minus4 | 4)AlfCCSamplesCbW=AlfCCSamplesCbH=2(slice_cross_component_alf_cb_log2_control_size_minus4 | 4)

slice_cross_component_alf_cb_log2_control_size_minus4 должен составлять в диапазоне 0-3, включительно.slice_cross_component_alf_cb_log2_control_size_minus4 must be in the range 0-3, inclusive.

slice_cross_component_alf_cr_log2_control_size_minus4 указывает значение размеров квадратных блоков в числе выборок следующим образом: slice_cross_component_alf_cr_log2_control_size_minus4 indicates the value of the square block sizes in the number of samples as follows:

AlfCCSamplesCrW=AlfCCSamplesCrH=2(slice_cross_component_alf_cr_log2_control_size_minus4 | 4)AlfCCSamplesCrW=AlfCCSamplesCrH=2(slice_cross_component_alf_cr_log2_control_size_minus4 | 4)

slice_cross_component_alf_cr_log2_control_size_minus4 должен составлять в диапазоне 0-3, включительно.slice_cross_component_alf_cr_log2_control_size_minus4 must be in the range 0-3, inclusive.

[214] Ссылаясь на вышеприведенные две таблицы, когда sps_cross_component_alf_enabled_flag равен 1 в заголовке среза, синтаксический анализ slice_cross_component_alf_cb_enabled_flag может выполняться, чтобы определять то, применяется или нет Cb CC-ALF в срезе. Когда slice_cross_component_alf_cb_enabled_flag равен 1, CC-ALF применяется к соответствующему Cb-срезу, и когда slice_cross_component_alf_cb_reuse_temporal_layer_filter равен 1, фильтр идентичного существующего временного слоя может многократно использоваться. Когда slice_cross_component_alf_cb_enabled_flag равен 0, CC-ALF может применяться с использованием фильтра в соответствующем идентификаторе набора параметров адаптации (APS) через синтаксический анализ slice_cross_component_alf_cb_aps_id. Slice_cross_component_alf_cb_log2_control_size_minus4 может означать то, что CC-ALF применяет единицу блока в Cb-срезе.[214] Referring to the above two tables, when sps_cross_component_alf_enabled_flag is equal to 1 in the slice header, slice_cross_component_alf_cb_enabled_flag parsing may be performed to determine whether or not Cb CC-ALF is applied in the slice. When slice_cross_component_alf_cb_enabled_flag is 1, CC-ALF is applied to the corresponding Cb slice, and when slice_cross_component_alf_cb_reuse_temporal_layer_filter is 1, an identical existing temporal layer filter can be reused. When slice_cross_component_alf_cb_enabled_flag is equal to 0, CC-ALF may be applied using a filter on the corresponding adaptation parameter set (APS) identifier via parsing slice_cross_component_alf_cb_aps_id. Slice_cross_component_alf_cb_log2_control_size_minus4 may mean that CC-ALF applies the block unit in the Cb slice.

[215] Например, когда значение slice_cross_component_alf_cb_log2_control_size_minus4 равно 0, то, применяется или нет CC-ALF, определяется в единицах 16×16. Когда значение slice_cross_component_alf_cb_log2_control_size_minus4 равно 1, то, применяется или нет CC-ALF, определяется в единицах 32×32. Когда значение slice_cross_component_alf_cb_log2_control_size_minus4 равно 2, то, применяется или нет CC-ALF, определяется в единицах 64×64. Когда значение slice_cross_component_alf_cb_log2_control_size_minus4 равно 3, то, применяется или нет CC-ALF, определяется в единицах 128×128. Помимо этого, синтаксис структуры, идентичной структуре, описанной выше, используется для Cr CC-ALF.[215] For example, when the value of slice_cross_component_alf_cb_log2_control_size_minus4 is 0, then whether or not CC-ALF is applied is determined in units of 16x16. When the value of slice_cross_component_alf_cb_log2_control_size_minus4 is 1, then whether or not CC-ALF is applied is determined in units of 32×32. When the value of slice_cross_component_alf_cb_log2_control_size_minus4 is 2, then whether or not CC-ALF is applied is determined in units of 64x64. When the value of slice_cross_component_alf_cb_log2_control_size_minus4 is 3, then whether or not CC-ALF is applied is determined in units of 128×128. In addition, a structure syntax identical to that described above is used for Cr CC-ALF.

[216] Следующая таблица показывает примерный синтаксис для ALF-данных.[216] The following table shows an exemplary syntax for ALF data.

[217] Табл. 5[217] Tab. five

Figure 00000004
Figure 00000004

[218] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[218] The following table shows exemplary semantics for the syntax elements included in the above table.

[219] Табл. 6[219] Tab. 6

alf_luma_filter_signal_flag, равный 1, указывает то, что набор фильтров сигналов яркости передается в служебных сигналах; alf_luma_filter_signal_flag, равный 0, указывает то, что набор фильтров сигналов яркости не передается в служебных сигналах. Когда alf_luma_filter_signal_flag не присутствует, он логически выводится равным 0. alf_luma_filter_signal_flag equal to 1 indicates that the luma signal filter bank is signaled; alf_luma_filter_signal_flag equal to 0 indicates that the luma signal filter bank is not signaled. When alf_luma_filter_signal_flag is not present, it is logically inferred to be 0.

alf_chroma_filter_signal_flag, равный 1, указывает то, что фильтр сигналов цветности передается в служебных сигналах; alf_chroma_filter_signal_flag, равный 0, указывает то, что фильтр сигналов цветности не передается в служебных сигналах. Когда alf_chroma_filter_signal_flag не присутствует, он логически выводится равным 0. alf_chroma_filter_signal_flag equal to 1 indicates that the chroma signal filter is signaled; alf_chroma_filter_signal_flag equal to 0 indicates that the chroma signal filter is not signaled. When alf_chroma_filter_signal_flag is not present, it is logically inferred to be 0.

alf_cross_component_cb_filter_signal_flag, равный 1, указывает то, что набор кросскомпонентных Cb-фильтров передается в служебных сигналах; alf_cross_component_cb_filter_signal_flag, равный 0, указывает то, что набор кросскомпонентных Cb-фильтров не передается в служебных сигналах. Когда alf_cross_component_cb_filter_signal_flag не присутствует, он логически выводится равным 0. alf_cross_component_cb_filter_signal_flag equal to 1 indicates that the Cb cross-component filter set is signaled; alf_cross_component_cb_filter_signal_flag equal to 0 indicates that the Cb cross-component filter set is not signaled. When alf_cross_component_cb_filter_signal_flag is not present, it is logically inferred to be 0.

alf_cross_component_cr_filter_signal_flag, равный 1, указывает то, что набор кросскомпонентных Cr-фильтров передается в служебных сигналах; alf_cross_component_cb_filter_signal_flag, равный 0, указывает то, что набор кросскомпонентных Cr-фильтров не передается в служебных сигналах. Когда alf_cross_component_cr_filter_signal_flag не присутствует, он логически выводится равным 0, alf_cross_component_cr_filter_signal_flag equal to 1 indicates that the Cr cross-component filter set is signaled; alf_cross_component_cb_filter_signal_flag equal to 0 indicates that the Cr cross-component filter bank is not signaled. When alf_cross_component_cr_filter_signal_flag is not present, it is logically inferred to be 0,

alf_cross_component_cb_min_eg_order_minusl плюс 1 указывает минимальный порядок экспоненциального кода Голомба для передачи в служебных сигналах коэффициентов кросскомпонентного Cb-фильтра. Значение alf_cross_component_cb_min_eg_order_minus1 должно составлять в диапазоне 0-9, включительно. alf_cross_component_cb_min_eg_order_minusl plus 1 specifies the minimum exponential Golomb code order to signal cross-component Cb filter coefficients. The value alf_cross_component_cb_min_eg_order_minus1 must be in the range 0-9, inclusive.

alf_cross_component_cr_min_eg_order_minus1 плюс 1 указывает минимальный порядок экспоненциального кода Голомба для передачи в служебных сигналах коэффициентов кросскомпонентного Cr-фильтра. Значение alf_cross_component_cb_min_eg_order_minus1 должно составлять в диапазоне 0-9, включительно.alf_cross_component_cr_min_eg_order_minus1 plus 1 specifies the minimum exponential Golomb code order to signal cross-component Cr filter coefficients. The value alf_cross_component_cb_min_eg_order_minus1 must be in the range 0-9, inclusive.

alf_cross_component_cb_eg_order_increase_flag[i], равный 1, указывает то, что минимальный порядок экспоненциального кода Голомба для передачи в служебных сигналах коэффициентов кросскомпонентного Cb-фильтра постепенно увеличивается на 1; alf_cross_component_cb_eg_order_increase_flag[i], равный 0, указывает то, что минимальный порядок экспоненциального кода Голомба для передачи в служебных сигналах коэффициентов кросскомпонентного Cb-фильтра не увеличивается постепенно на 1. alf_cross_component_cb_eg_order_increase_flag [i], equal to 1, indicates that the minimum exponential Golomb order for signaling the coefficients of the cross-component Cb filter is progressively increased by 1; alf_cross_component_cb_eg_order_increase_flag[i] equal to 0 indicates that the minimum exponential Golomb order for signaling the coefficients of the cross-component Cb filter does not incrementally increase by 1.

Порядок expGoOrderCb[i] экспоненциального кода Голомба, используемого для того, чтобы декодировать значения alf_cross_component_cb_coeff_abs[j], извлекается следующим образом:The order expGoOrderCb[i] of the Exponential Golomb code used to decode the values alf_cross_component_cb_coeff_abs[j] is extracted as follows:

expGoOrdcrCb[i]=(i==0?alf_cross_component_cb_min_eg_order_minus1+1:expGoOrderCb [i-1])+alf_cross_component_cb_eg_order_increase_flag[i]expGoOrdcrCb[i]=(i==0?alf_cross_component_cb_min_eg_order_minus1+1:expGoOrderCb [i-1])+alf_cross_component_cb_eg_order_increase_flag[i]

alf_cross_component_cr_eg_order_increase_flag[i], равный 1, указывает то, что минимальный порядок экспоненциального кода Голомба для передачи в служебных сигналах коэффициентов кросскомпонентного Cr-фильтра постепенно увеличивается на 1; alf_cross_component_cr_eg_order_increase_flag[i], равный 0, указывает то, что минимальный порядок экспоненциального кода Голомба для передачи в служебных сигналах коэффициентов кросскомпонентного Cr-фильтра не увеличивается постепенно на 1. alf_cross_component_cr_eg_order_increase_flag [i], equal to 1, indicates that the minimum exponential Golomb order for signaling the coefficients of the cross-component Cr filter is progressively increased by 1; alf_cross_component_cr_eg_order_increase_flag[i] equal to 0 indicates that the minimum exponential Golomb code order for signaling the coefficients of the cross-component Cr filter does not incrementally increase by 1.

Порядок expGoOrderCr[i] экспоненциального кода Голомба, используемого для того, чтобы декодировать значения alf_cross_component_cb_coeff_abs[j], извлекается следующим образом:The order expGoOrderCr[i] of the Exponential Golomb code used to decode the values alf_cross_component_cb_coeff_abs[j] is extracted as follows:

expGoOrderCr[i]=(i==0?alf_cross_component_cr_min_eg_order_minus1+1:expGoOrderCr [i-1])+alf_cross_component_cr_eg_order_increase_flag[i]expGoOrderCr[i]=(i==0?alf_cross_component_cr_min_eg_order_minus1+1:expGoOrderCr [i-1])+alf_cross_component_cr_eg_order_increase_flag[i]

alf_cross_component_cb_coeff_abs[j] указывает абсолютное значение j-ого коэффициента передаваемого в служебных сигналах кросскомпонентного Cb-фильтра. Когда alf_cross_component_cb_coeff_abs[j] не присутствует, он логически выводится равным 0. alf_cross_component_cb_coeff_abs [j] indicates the absolute value of the j-th signaling coefficient of the Cb cross-component filter. When alf_cross_component_cb_coeff_abs[j] is not present, it is logically inferred to be 0.

Порядок k экспоненциального преобразования в двоичную форму Голомба uek(v) извлекается следующим образом:The order k of the exponential Golomb binarization uek(v) is extracted as follows:

golombOrderIdxCb[]={0,2,2,2,1,2,2,2,2,2,2,1,2,1} [это может представлять собой классификацию коэффициента на 3 категории, каждая категория использует идентичный экспоненциальный код Голомба порядка k]golombOrderIdxCb[]={0,2,2,2,1,2,2,2,2,2,2,1,2,1} [this can represent a classification of the coefficient into 3 categories, each category uses an identical exponential code Golomb order k]

k=expGoOrderCb [golombOrderIdxCb[j]]k=expGoOrderCb[golombOrderIdxCb[j]]

[220] [220]

alf_cross_component_cr_coeff_abs[j] указывает абсолютное значение j-ого коэффициента передаваемого в служебных сигналах кросскомпонентного Cr-фильтра. Когда alf_cross_component_cr_coeff_abs[j] не присутствует, он логически выводится равным 0. alf_cross_component_cr_coeff_abs [j] indicates the absolute value of the j-th signaling coefficient of the Cr cross-component filter. When alf_cross_component_cr_coeff_abs[j] is not present, it is logically inferred to be 0.

Порядок k экспоненциального преобразования в двоичную форму Голомба uck(v) извлекается следующим образом:The order k of the exponential Golomb binarization uck(v) is extracted as follows:

golombOrderIdxCr[]={0,1,2,1,0,1,2,2,2,2,2,1,2,1} [это может представлять собой классификацию коэффициента на 3 категории, каждая категория использует идентичный экспоненциальный код Голомба порядка k]golombOrderIdxCr[]={0,1,2,1,0,1,2,2,2,2,2,1,2,1} [this can represent a classification of the coefficient into 3 categories, each category uses an identical exponential code Golomb order k]

k=expGoOrderCr [golombOrderIdxCr[j]]k=expGoOrderCr [golombOrderIdxCr[j]]

alf_cross_component_cb_coeff_sign[j] указывает знак j-ого коэффициента кросскомпонентного Cb-фильтра следующим образом: alf_cross_component_cb_coeff_sign [j] indicates the sign of the j-th coefficient of the Cb cross-component filter as follows:

- Если alf_cross_component_cb_coeff_sign[j] равен 0, соответствующий коэффициент кросскомпонентного Cb-фильтра имеет положительное значение.- If alf_cross_component_cb_coeff_sign[j] is 0, the corresponding Cb cross-component filter coefficient is positive.

- Иначе (alf_cross_component_cb_coeff_sign[j] равен 1), соответствующий коэффициент кросскомпонентного Cb-фильтра имеет отрицательное значение.- Otherwise (alf_cross_component_cb_coeff_sign[j] is equal to 1), the corresponding coefficient of the Cb cross-component filter has a negative value.

Когда alf_cross_component_cb_coeff_sign[j] не присутствует, он логически выводится равным 0.When alf_cross_component_cb_coeff_sign[j] is not present, it is logically inferred to be 0.

Коэффициенты AlfCCCoeffcb[adaptation_parameter_set_id] кросскомпонентного Cb-фильтра с элементами AlfCCCoeffcb[adaptation_parameter_set_id][j], причем j=0...13, извлекаются следующим образом:The coefficients AlfCCCoeffcb[adaptation_parameter_set_id] of the cross-component Cb filter with elements AlfCCCoeffcb[adaptation_parameter_set_id][j], with j=0...13, are extracted as follows:

AlfCCCoeffcb[adaptation_parameter_set_id][j]=alf_cross_component_cb_coeff_abs[j]*(l-2*alf_cross_component_cb_coeff_sign[j])AlfCCCoeffcb[adaptation_parameter_set_id][j]=alf_cross_component_cb_coeff_abs[j]*(l-2*alf_cross_component_cb_coeff_sign[j])

Требование соответствия потока битов заключается в том, что значения AlfCCCoeffcb[adaptation_parameter_set_id][j], причем j=0...13, должны составлять в диапазоне от -210-1 до 210-1, включительно.The bitstream matching requirement is that the values of AlfCCCoeffcb[adaptation_parameter_set_id][j], with j=0...13, must be in the range from -2 10 -1 to 2 10 -1, inclusive.

alf_cross_component_cr_coeff_sign[j] указывает знак j-ого коэффициента кросскомпонентного Cr-фильтра следующим образом: alf_cross_component_cr_coeff_sign [j] specifies the sign of the j-th coefficient of the Cr cross-component filter as follows:

- Если alf_cross_component_cr_coeff_sign[j] равен 0, соответствующий коэффициент кросскомпонентного Cr-фильтра имеет положительное значение.- If alf_cross_component_cr_coeff_sign[j] is 0, the corresponding cross-component Cr filter coefficient is positive.

- Иначе (alf_cross_component_cr_coeff_sign[j] равен 1), соответствующий коэффициент кросскомпонентного Cr-фильтра имеет отрицательное значение.- Otherwise (alf_cross_component_cr_coeff_sign[j] is equal to 1), the corresponding coefficient of the cross-component Cr filter has a negative value.

Когда alf_cross_component_cr_coeff_sign[j] не присутствует, он логически выводится равным 0.When alf_cross_component_cr_coeff_sign[j] is not present, it is logically inferred to be 0.

Коэффициенты AlfCCCoeffcr[adaptation_parameter_set_id] кросскомпонентного Cr-фильтра с элементами AlfCCCoeffcr[adaptation_parameter_set_id][j], причем j=0...13, извлекаются следующим образом:The coefficients AlfCCCoeffcr[adaptation_parameter_set_id] of the cross-component Cr filter with elements AlfCCCoeffcr[adaptation_parameter_set_id][j], with j=0...13, are extracted as follows:

AlfCCCoeffcr[adaptation_parameter_set_id][j]=alf_cross_component_cr_coeff_abs[j]*(l-2*alf_cross_component_cr_coeff_sign[j])AlfCCCoeffcr[adaptation_parameter_set_id][j]=alf_cross_component_cr_coeff_abs[j]*(l-2*alf_cross_component_cr_coeff_sign[j])

Требование соответствия потока битов заключается в том, что значения AlfCCCoeffcr[adaptation_parameter_set_id][j], причем j=0...13, должны составлять в диапазоне от -210-1 до 210-1, включительно.The bitstream matching requirement is that the values of AlfCCCoeffcr[adaptation_parameter_set_id][j], with j=0...13, must be in the range from -2 10 -1 to 2 10 -1, inclusive.

TemporalId является временным идентификатором текущей NAL-единицы.TemporalId is the temporary identifier of the current NAL unit.

[221] Ссылаясь на вышеприведенные две таблицы, синтаксические CC-ALF-элементы не придерживаются существующей (общей) синтаксической ALF-структуры, а передаются независимо и выполнены с возможностью независимо применяться. Таким образом, CC-ALF может применяться, даже когда инструментальное ALF-средство в SPS выключено. Новое аппаратное проектное решение по конвейеру требуется, поскольку CC-ALF должна иметь возможность работать независимо от существующей ALF-структуры. Это приводит к увеличению затрат на аппаратную реализацию и к увеличению аппаратной задержки.[221] Referring to the above two tables, the CC-ALF syntax elements do not adhere to the existing (common) ALF syntax structure, but are transmitted independently and configured to be applied independently. Thus, CC-ALF can be applied even when the ALF tool in the SPS is turned off. A new hardware pipeline design is required as the CC-ALF must be able to operate independently of the existing ALF structure. This results in increased hardware implementation costs and increased hardware latency.

[222] Помимо этого, в ALF, то, применяются или нет изображения на основе сигналов яркости и сигналов цветности, определяется в единицах CTU, и результат определения передается в декодер посредством передачи служебных сигналов. Тем не менее, то, переменная или нет CC-ALF применяется, определяется в единицах 16×16-128×128, и это применение может вызывать коллизию между существующей ALF-структурой и CC-ALF. Это вызывает проблемы в аппаратной реализации и в то же время вызывает увеличение линейных буферов для различных переменных CC-ALF-вариантов применения.[222] In addition, in ALF, whether or not images based on luminance signals and chrominance signals are applied is determined in units of CTU, and the result of the determination is transmitted to the decoder by signaling. However, whether or not the CC-ALF variable is applied is determined in units of 16×16-128×128, and this application may cause a collision between the existing ALF structure and the CC-ALF. This causes problems in the hardware implementation and at the same time causes an increase in line buffers for various CC-ALF application variables.

[223] В настоящем раскрытии, вышеуказанные проблемы в аппаратной реализации CC-ALF разрешаются посредством интегрального применения синтаксической CC-ALF-структуры к синтаксической ALF-структуре.[223] In the present disclosure, the above problems in the CC-ALF hardware implementation are resolved by integrally applying the CC-ALF syntactic structure to the ALF syntactic structure.

[224] Согласно варианту осуществления настоящего раскрытия, чтобы определять то, используется (применяется)или нет CC-ALF, набор параметров последовательности (SPS) может включать в себя флаг CC-ALF-активации (sps_ccalf_enable_flag). Флаг CC-ALF-активации может передаваться независимо от флага ALF-активации (sps_alf_enabled_flag) для определения того, используется (применяется) или нет ALF.[224] According to an embodiment of the present disclosure, to determine whether or not CC-ALF is used, a sequence parameter set (SPS) may include a CC-ALF enable flag (sps_ccalf_enable_flag). The CC-ALF activation flag may be transmitted independently of the ALF activation flag (sps_alf_enabled_flag) to determine whether ALF is used (applied) or not.

[225] Следующая таблица показывает часть примерного синтаксиса SPS согласно настоящему варианту осуществления.[225] The following table shows a portion of an exemplary SPS syntax according to the present embodiment.

[226] Табл. 7[226] Tab. 7

Figure 00000005
Figure 00000005

[227] Ссылаясь на вышеприведенную таблицу, CC-ALF может применяться только тогда, когда ALF всегда работает. Таким образом, только когда флаг ALF-активации (sps_alf_enabled_flag) равен 1, флаг CC-ALF-активации (sps_ccalf_enabled_flag) может синтаксически анализироваться. CC-ALF и ALF могут комбинироваться согласно вышеприведенной таблице. Флаг CC-ALF-активации может указывать (и может быть связан) то/с тем, доступна или нет CC-ALF.[227] Referring to the above table, CC-ALF can only be applied when ALF is always running. Thus, only when the ALF enable flag (sps_alf_enabled_flag) is 1, the CC-ALF enable flag (sps_ccalf_enabled_flag) can be parsed. CC-ALF and ALF can be combined according to the table above. The CC-ALF-activation flag may indicate (and may be associated with) whether or not CC-ALF is available.

[228] Следующая таблица показывает часть примерного синтаксиса для заголовков срезов.[228] The following table shows part of an exemplary syntax for slice headers.

[229] Табл. 8[229] Tab. eight

Figure 00000006
Figure 00000006

[230] Ссылаясь на вышеприведенную таблицу, синтаксический анализ sps_ccalf_enabled_flag может выполняться только тогда, когда sps_alf_enabled_flag равен 1. Синтаксические элементы, включенные в таблицу, могут описываться на основе таблицы 4. В примере, информация изображений, кодированная посредством оборудования кодирования или полученная (принимаемая) посредством оборудования декодирования, может включать в себя информацию заголовка среза (slice_header). На основе определения того, что значение флага CC-ALF-активации (sps_ccalf_flag) равно 1, информация заголовка среза включает в себя первый флаг (slice_cross_component_alf_cb_enabeld_flag), связанный с тем, доступна или нет CC-ALF для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и второй флаг (slice_cross_component_alf_cr_enabeld_flag), связанный с тем, доступна или нет CC-ALF для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности.[230] Referring to the above table, the parsing of sps_ccalf_enabled_flag can only be performed when sps_alf_enabled_flag is equal to 1. Syntax elements included in the table can be described based on Table 4. In the example, image information encoded by encoding equipment or obtained (received) by the decoding equipment, may include slice header information (slice_header). Based on determining that the value of the CC-ALF activation flag (sps_ccalf_flag) is 1, the slice header information includes a first flag (slice_cross_component_alf_cb_enabeld_flag) related to whether or not CC-ALF is available for the Cb color component of the filtered recovered signal samples. chroma, and a second flag (slice_cross_component_alf_cr_enabeld_flag) related to whether or not CC-ALF is available for the chrominance Cr component of the filtered reconstructed chrominance samples.

[231] В примере, на основе определения того, что значение первого флага (slice_cross_component_alf_cb_enabeld_flag) равно 1, информация заголовка среза может включать в себя идентификационную информацию (slice_cross_component_alf_cb_aps_id) первого APS для извлечения коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе определения того, что значение второго флага (slice_cross_component_alf_cr_enabeld_flag) равно 1, информация заголовка среза может включать в себя идентификационную информацию (slice_cross_component_alf_cr_aps_id) второго APS для извлечения коэффициентов кросскомпонентного фильтра для цветового Cr-компонента.[231] In an example, based on determining that the value of the first flag (slice_cross_component_alf_cb_enabeld_flag) is 1, the slice header information may include identification information (slice_cross_component_alf_cb_aps_id) of the first APS to extract cross-component filter coefficients for the Cb color component. Based on determining that the value of the second flag (slice_cross_component_alf_cr_enabeld_flag) is 1, the slice header information may include the identification information (slice_cross_component_alf_cr_aps_id) of the second APS to extract the cross-component filter coefficients for the Cr color component.

[232] Следующая таблица показывает часть SPS-cинтаксиса согласно другому примеру настоящего варианта осуществления.[232] The following table shows a portion of the SPS syntax according to another example of the present embodiment.

[233] Табл. 9[233] Tab. nine

Figure 00000007
Figure 00000007

[234] Следующая таблица примерно показывает часть синтаксиса заголовков срезов.[234] The following table roughly shows part of the slice header syntax.

[235] Табл. 10[235] Tab. 10

Figure 00000008
Figure 00000008

[236] Ссылаясь на таблицу 9, когда ChromaArrayType не равен 0, и флаг ALF-активации (sps_alf_enabled_flag) равен 1, SPS может включать в себя флаг CC-ALF-активации (sps_ccalf_enabled_flag). Например, если ChromaArrayType не равен 0, формат сигналов цветности может не быть монохромным, и флаг CC-ALF-активации может передаваться через SPS на основе случая, в котором формат сигналов цветности не является монохромным.[236] Referring to Table 9, when ChromaArrayType is not equal to 0 and the ALF activation flag (sps_alf_enabled_flag) is 1, the SPS may include a CC-ALF activation flag (sps_ccalf_enabled_flag). For example, if ChromaArrayType is not equal to 0, the chrominance format may not be monochrome, and the CC-ALF activation flag may be transmitted through the SPS based on the case in which the chrominance format is not monochrome.

[237] Ссылаясь на таблицу 9, на основе случая, в котором ChromaArrayType не равен 0, информация относительно CC-ALF (slice_cross_component_alf_cb_enabled_flag, slice_cross_component_alf_cb_aps_id, slice_cross_component_alf_cr_enabled_flag, slice_cross_component_alf_cr) может включаться в информацию заголовка среза.[237] Referring to Table 9, based on the case in which ChromaArrayType is not equal to 0, information regarding CC-ALF (slice_cross_component_alf_cb_enabled_flag, slice_cross_component_alf_cb_aps_id, slice_cross_component_alf_cr_enabled_flag, slice_cross_component_alf_cr) may be included in slice header information.

[238] В примере, информация изображений, кодированная посредством оборудования кодирования или полученная посредством оборудования декодирования, может включать в себя SPS. SPS может включать в себя первый флаг ALF-активации (sps_alf_enabled_flag), связанный с тем, доступна или нет ALF. Например, на основе определения того, что значение первого флага ALF-активации равно 1, SPS может включать в себя флаг CC-ALF-активации, связанный с тем, доступна или нет кросскомпонентная фильтрация. В другом примере, если sps_ccalf_enabled_flag не используется, и sps_alf_enabled_flag равен 1, CC-ALF может всегда применяться (sps_ccalf_enabled_flag==1).[238] In an example, image information encoded by encoding equipment or obtained by decoding equipment may include SPS. The SPS may include a first ALF enable flag (sps_alf_enabled_flag) related to whether ALF is available or not. For example, based on determining that the value of the first ALF activation flag is 1, the SPS may include a CC-ALF activation flag related to whether cross-component filtering is available or not. In another example, if sps_ccalf_enabled_flag is not used and sps_alf_enabled_flag is 1, CC-ALF may always be applied (sps_ccalf_enabled_flag==1).

[239] Следующая таблица показывает часть синтаксиса заголовков срезов согласно другому примеру этого варианта осуществления.[239] The following table shows a portion of the slice header syntax according to another example of this embodiment.

[240] Табл. 11[240] Tab. eleven

Figure 00000009
Figure 00000009

[241] Ссылаясь на вышеприведенную таблицу, синтаксический анализ флага CC-ALF-активации (sps_ccalf_enabled_flag) может выполняться только тогда, когда флаг ALF-активации (sps_alf_enabled_flag) равен 1.[241] Referring to the above table, parsing of the CC-ALF activation flag (sps_ccalf_enabled_flag) can only be performed when the ALF activation flag (sps_alf_enabled_flag) is equal to 1.

[242] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[242] The following table shows exemplary semantics for the syntax elements included in the above table.

[243] Табл. 12[243] Tab. 12

slice_ccalf_enabled_flag, равный 1, указывает то, что кросскомпонентный адаптивный контурный фильтр активируется и может применяться к цветовому Cb- или Cr-компоненту в срезе; slice_ccalf_enabled_flag, равный 0, указывает то, что кросскомпонентный адаптивный контурный фильтр деактивируется для всех цветовых компонентов в срезе. slice_ccalf_enabled_flag equal to 1 indicates that the cross-component adaptive loop filter is enabled and can be applied to the Cb or Cr color component in the slice; slice_ccalf_enabled_flag equal to 0 indicates that the cross-component adaptive contour filter is disabled for all color components in the slice.

slice_ccalf_chroma_idc, равный 0, указывает то, что кросскомпонентный адаптивный контурный фильтр не применяется к цветовым Cb- и Cr-компонентам, slice_ccalf_chroma_idc, равный 1, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к цветовому Cb-компоненту; slice_ccalf_chroma_idc, равный 2, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к цветовому Cr-компоненту, slice_ccalf_chroma_idc, равный 3, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к цветовым Cb- и Cr-компонентам. Когда slice_ccalf_chroma_idc не присутствует, он логически выводится равным 0. slice_ccalf_chroma_idc equal to 0 indicates that the cross-component adaptive contour filter is not applied to the Cb and Cr chrominance components, slice_calf_chroma_idc equal to 1 indicates that the cross-component adaptive contour filter is applied to the Cb chrominance component; slice_ccalf_chroma_idc equal to 2 indicates that the cross-component adaptive contour filter is applied to the chrominance Cr component, slice_ccalf_chroma_idc equal to 3 indicates that the cross-component adaptive contour filter is applied to the chrominance Cb and Cr components. When slice_calf_chroma_idc is not present, it is logically inferred to be 0.

slice_ccalf_aps_id_chroma указывает adaptation_parameter_set_id CCALF APS, на который ссылается компонент сигналов цветности среза. TemporalId NAL-единицы APS, имеющей aps_params_type, равный CC_ALF_APS, и adaptation_parameter_set_id, равный slice_ccalf_aps_id_chroma, должен быть меньше или равным TemporalId кодированной NAL-единицы среза. slice_ccalf_aps_id_chroma indicates the adaptation_parameter_set_id of the CCALF APS referenced by the slice chroma component. The TemporalId of an APS NAL unit having aps_params_type equal to CC_ALF_APS and an adaptation_parameter_set_id equal to slice_calf_aps_id_chroma shall be less than or equal to the TemporalId of the encoded slice NAL unit.

Для внутренних срезов и срезов в IRAP-кадре, slice_ccalf_aps_id_chroma не должен ссылаться на CCALF APS, ассоциированный с другими кадрами, а не с кадром, содержащим внутренние срезы, или с IRAP-кадром.For internal slices and slices in an IRAP frame, slice_ccalf_aps_id_chroma shall not refer to a CCALF APS associated with other frames other than the frame containing the internal slices or the IRAP frame.

[244] slice_ccalf_chroma_idc вышеприведенной таблицы может описываться посредством семантики нижеприведенной таблицы.[244] The slice_ccalf_chroma_idc of the above table may be described by the semantics of the table below.

[245] Табл. 13[245] Tab. 13

slice_ccalf_chroma_idc, равный 0, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к цветовому Cb-компоненту; slice_ccalf_chroma_idc, равный 1, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к цветовому Cr-компоненту; slice_ccalf_chroma_idc, равный 2, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к цветовым Cb- и Cr-компонентам. Когда slice_ccalf_chroma_idc не присутствует, он логически выводится равным 0. slice_calf_chroma_idc equal to 0 indicates that the cross-component adaptive contour filter is applied to the Cb chroma component; slice_calf_chroma_idc equal to 1 indicates that the cross-component adaptive contour filter is applied to the Cr chroma component; slice_calf_chroma_idc equal to 2 indicates that the cross-component adaptive contour filter is applied to the Cb and Cr chrominance components. When slice_calf_chroma_idc is not present, it is logically inferred to be 0.

[246] Следующая таблица показывает часть синтаксиса заголовков срезов согласно другому примеру этого варианта осуществления.[246] The following table shows a portion of the slice header syntax according to another example of this embodiment.

[247] Табл. 14[247] Tab. fourteen

Figure 00000010
Figure 00000010

[248] Синтаксические элементы, включенные в таблицу, могут описываться согласно таблице 12 или таблице 13. Помимо этого, когда формат сигналов цветности не является монохромным, связанная с CCALF информация может включаться в заголовок среза.[248] The syntax elements included in the table may be described according to Table 12 or Table 13. In addition, when the chrominance signal format is not monochrome, CCALF-related information may be included in a slice header.

[249] Следующая таблица показывает часть синтаксиса заголовков срезов согласно другому примеру этого варианта осуществления.[249] The following table shows a portion of the slice header syntax according to another example of this embodiment.

[250] Табл. 15[250] Tab. fifteen

Figure 00000011
Figure 00000011

[251] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[251] The following table shows exemplary semantics for the syntax elements included in the above table.

[252] Табл. 16[252] Tab. 16

slice_ccalf_chroma_idc, равный 0, указывает то, что кросскомпонентный адаптивный контурный фильтр не применяется к цветовым Cb- и Cr-компонентам; slice_ccalf_chroma_idc, равный 1, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к цветовому Cb-компоненту; slice_ccalf_chroma_idc, равный 2, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к цветовому Cr-компоненту; slice_ccalf_chroma_idc, равный 3, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к цветовым Cb- и Cr-компонентам. Когда slicc_ccalf_chroma_idc не присутствует, он логически выводится равным 0. slice_calf_chroma_idc equal to 0 indicates that the cross-component adaptive contour filter is not applied to the Cb and Cr chrominance components; slice_calf_chroma_idc equal to 1 indicates that the cross-component adaptive contour filter is applied to the Cb chroma component; slice_calf_chroma_idc equal to 2 indicates that the cross-component adaptive contour filter is applied to the Cr chroma component; slice_calf_chroma_idc equal to 3 indicates that the cross-component adaptive contour filter is applied to the Cb and Cr chrominance components. When slicc_ccalf_chroma_idc is not present, it is logically inferred to be 0.

slice_ccalf_aps_id_chroma указывает adaptation_parameter_sct_id CCALF APS, на который ссылается компонент сигналов цветности среза. TemporalId NAL-единицы APS, имеющей aps_params_type, равный CC_ALF_APS, и adaptation_parameter_set_id, равный slice_ccalf_aps_id_chroma, должен быть меньше или равным TemporalId кодированной NAL-единицы среза. slice_ccalf_aps_id_chroma indicates the adaptation_parameter_sct_id of the CCALF APS referenced by the slice chroma component. The TemporalId of an APS NAL unit having aps_params_type equal to CC_ALF_APS and an adaptation_parameter_set_id equal to slice_calf_aps_id_chroma shall be less than or equal to the TemporalId of the encoded slice NAL unit.

Для внутренних срезов и срезов в IRAP-кадре, slice_ccalf_aps_id_chroma не должен ссылаться на CCALF APS, ассоциированный с другими кадрами, а не с кадром, содержащим внутренние срезы, или с IRAP-кадром.For internal slices and slices in an IRAP frame, slice_ccalf_aps_id_chroma shall not refer to a CCALF APS associated with other frames other than the frame containing the internal slices or the IRAP frame.

[253] Следующая таблица показывает часть синтаксиса заголовков срезов согласно другому примеру этого варианта осуществления. Синтаксические элементы, включенные в следующую таблицу, могут описываться согласно таблице 12 или таблице 13.[253] The following table shows a portion of the slice header syntax according to another example of this embodiment. The syntax elements included in the following table may be described according to table 12 or table 13.

[254] Табл. 17[254] Tab. 17

Figure 00000012
Figure 00000012

[255] Ссылаясь на вышеприведенную таблицу, то, применяются или нет ALF и CCALF на основе единиц срезов, может определяться сразу через slice_alf_enabled_flag. После синтаксического анализа slice_alf_chroma_idc, когда первый флаг ALF-активации (sps_alf_enabled_flag) равен 1, может синтаксически анализироваться slice_ccalf_chroma_idc.[255] Referring to the above table, whether or not ALF and CCALF based on slice units are applied can be determined immediately via slice_alf_enabled_flag. After parsing slice_alf_chroma_idc, when the first ALF activation flag (sps_alf_enabled_flag) is 1, slice_ccalf_chroma_idc may be parsed.

[256] Ссылаясь на вышеприведенную таблицу, то, равен или нет sps_ccalf_enabeld_flag 1 в информации заголовка среза, может определяться только тогда, когда slice_alf_enabled_flag равен 1. Информация заголовка среза может включать в себя второй флаг ALF-активации (slice_alf_enabled_flag), связанный с тем, доступна или нет ALF. На основе определения того, что значение второго флага ALF-активации (slice_alf_enabled_flag) равно 1, CCALF может быть доступной для среза.[256] Referring to the above table, whether or not sps_ccalf_enabeld_flag is equal to 1 in the slice header information may be determined only when slice_alf_enabled_flag is equal to 1. The slice header information may include a second ALF activation flag (slice_alf_enabled_flag) related to whether ALF is available or not. Based on the determination that the value of the second ALF activation flag (slice_alf_enabled_flag) is 1, CCALF may be enabled for the slice.

[257] Следующая таблица примерно показывает часть APS-синтаксиса. Синтаксический элемент adaptation_parameter_set_id может указывать информацию идентификатора (идентификационную информацию) APS.[257] The following table roughly shows part of the APS syntax. The adaptation_parameter_set_id syntax element may indicate identifier information (identification information) of the APS.

[258] Табл. 18[258] Tab. eighteen

Figure 00000013
Figure 00000013

[259] Следующая таблица показывает примерный синтаксис для ALF-данных.[259] The following table shows an exemplary syntax for ALF data.

[260] Табл. 19[260] Tab. nineteen

Figure 00000014
Figure 00000014

[261] Ссылаясь на вышеприведенные две таблицы, APS может включать в себя ALF-данные (alf_data). APS, включающий в себя ALF-данные, может называться "ALF APS" ("APS ALF-типа"). Таким образом, тип APS, включающий в себя ALF-данные, может представлять собой ALF-тип. Тип APS может определяться в качестве информации относительно APS-типа или синтаксического элемента (aps_params_type). ALF-данные могут включать в себя флаг передачи в служебных сигналах Cb-фильтров (alf_cross_component_cb_filter_signal_flag или alf_cc_cb_filter_signal_flag), связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-компонента. ALF-данные могут включать в себя флаг передачи в служебных сигналах Cr-фильтров (alf_cross_component_cr_filter_signal_flag или alf_cc_cr_filter_signal_flag), связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cr-компонента.[261] Referring to the above two tables, APS may include ALF data (alf_data). An APS including ALF data may be referred to as "ALF APS" ("ALF-type APS"). Thus, an APS type including ALF data may be an ALF type. The APS type may be defined as information regarding an APS type or a syntax element (aps_params_type). The ALF data may include a Cb filter signaling flag (alf_cross_component_cb_filter_signal_flag or alf_cc_cb_filter_signal_flag) related to whether or not cross-component filters for the Cb color component are signaled. The ALF data may include a Cr signaling signaling flag (alf_cross_component_cr_filter_signal_flag or alf_cc_cr_filter_signal_flag) related to whether or not cross-component filters for the Cr color component are signaled.

[262] В примере, на основе флага передачи в служебных сигналах Cr-фильтров, ALF-данные могут включать в себя информацию (alf_cross_component_cr_coeff_abs) относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информацию относительно знаков (alf_cross_component_cr_coeff_sign) относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента. На основе информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cr-компонента.[262] In an example, based on the transmit flag in the signaling of the Cr filters, the ALF data may include information (alf_cross_component_cr_coeff_abs) about the absolute values of the cross-component filter coefficients for the Cr color component and information about the signs (alf_cross_component_cr_coeff_sign) about the signs of the cross-component coefficients filter for the color Cr component. Based on information regarding the absolute values of the cross-component filter coefficients for the chrominance Cr component and information regarding the signs of the cross-component filter coefficients for the chrominance Cr component, the cross-component filter coefficients for the chrominance Cr component can be extracted.

[263] В примере, ALF-данные могут включать в себя информацию (alf_cross_component_cb_coeff_abs) относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информацию (alf_cross_component_cb_coeff_sign) относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cb-компонента.[263] In an example, the ALF data may include information (alf_cross_component_cb_coeff_abs) regarding the absolute values of the cross-component filter coefficients for the Cb color component and information (alf_cross_component_cb_coeff_sign) regarding the signs of the cross-component filter coefficients for the Cb color component. Based on information regarding the absolute values of the cross-component filter coefficients for the Cb color component and information regarding the signs of the cross-component filter coefficients for the Cb color component, the cross-component filter coefficients for the Cb color component can be extracted.

[264] Следующая таблица показывает синтаксис, связанный с ALF-данными согласно другому примеру.[264] The following table shows the syntax associated with ALF data according to another example.

[265] Табл. 20[265] Tab. twenty

Figure 00000015
Figure 00000015

[266] Ссылаясь на вышеприведенную таблицу, после передачи сначала alf_cross_component_filter_signal_flag, когда alf_cross_component_filter_signal_flag равен 1, флаг передачи в служебных сигналах Cb/Cr-фильтров может передаваться. Таким образом, alf_cross_component_filter_signal_flag интегрирует Cb/Cr, чтобы определять то, следует или нет передавать коэффициенты CCALF-фильтра.[266] Referring to the above table, after transmitting alf_cross_component_filter_signal_flag first, when alf_cross_component_filter_signal_flag is equal to 1, a transmission flag in Cb/Cr filter signaling may be transmitted. Thus, alf_cross_component_filter_signal_flag integrates Cb/Cr to determine whether or not the CCALF filter coefficients should be transmitted.

[267] Следующая таблица показывает синтаксис, связанный с ALF-данными согласно другому примеру.[267] The following table shows the syntax associated with ALF data according to another example.

[268] Табл. 21[268] Tab. 21

Figure 00000016
Figure 00000016

[269] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[269] The following table shows exemplary semantics for the syntax elements included in the above table.

[270] Табл. 22[270] Tab. 22

alf_cross_component_cb_filter_signal_flag, равный 1, указывает то, что набор кросскомпонентных Cb-фильтров передается в служебных сигналах; alf_cross_component_cb_filter_signal_flag, равный 0, указывает то, что набор кросскомпонентных Cb-фильтров не передается в служебных сигналах. Когда alf_cross_component_cb_filter_signal_flag не присутствует, он логически выводится равным 0. alf_cross_component_cb_filter_signal_flag equal to 1 indicates that the Cb cross-component filter set is signaled; alf_cross_component_cb_filter_signal_flag equal to 0 indicates that the Cb cross-component filter set is not signaled. When alf_cross_component_cb_filter_signal_flag is not present, it is logically inferred to be 0.

alf_cross_component_cr_filter_signal_flag, равный 1, указывает то, что набор кросскомпонентных Cr-фильтров передается в служебных сигналах; alf_cross_component_cr_filler_signal_nag, равный 0, указывает то, что набор кросскомпонентных Cr-фильтров не передается в служебных сигналах. Когда alf_cross_component_cr_filter_signal_flag не присутствует, он логически выводится равным 0. alf_cross_component_cr_filter_signal_flag equal to 1 indicates that the Cr cross-component filter set is signaled; alf_cross_component_cr_filler_signal_nag equal to 0 indicates that the Cr cross-component filter bank is not signaled. When alf_cross_component_cr_filter_signal_flag is not present, it is logically inferred to be 0.

alf_cross_component_cb_coeff_abs[j] указывает абсолютное значение j-ого коэффициента передаваемого в служебных сигналах кросскомпонентного Cb-фильтра. Когда alf_cross_component_cb_coeff_abs[j] не присутствует, он логически выводится равным 0. alf_cross_component_cb_coeff_abs [j] indicates the absolute value of the j-th signaling coefficient of the Cb cross-component filter. When alf_cross_component_cb_coeff_abs[j] is not present, it is logically inferred to be 0.

Порядок k экспоненциального преобразования uek(v) в двоичную форму Голомба задается равным 3.The order k of the exponential transformation of uek(v) to binary Golomb form is set to 3.

alf_cross_component_cb_coeff_sign[j] указывает знак j-ого коэффициента кросскомпонентного Cb-фильтра следующим образом: alf_cross_component_cb_coeff_sign [j] indicates the sign of the j-th coefficient of the Cb cross-component filter as follows:

- Если alf_cross_component_cb_cocff_sign[j] равен 0, соответствующий коэффициент кросскомпонентного Cb-фильтра имеет положительное значение.- If alf_cross_component_cb_cocff_sign[j] is 0, the corresponding Cb cross-component filter coefficient is positive.

- Иначе (alf_cross_component_cb_coeff_sign[j] равен 1), соответствующий коэффициент кросскомпонентного Cb-фильтра имеет отрицательное значение.- Otherwise (alf_cross_component_cb_coeff_sign[j] is equal to 1), the corresponding coefficient of the Cb cross-component filter has a negative value.

Когда alf_cross_component_cb_coeff_sign[j] не присутствует, он логически выводится равным 0.When alf_cross_component_cb_coeff_sign[j] is not present, it is logically inferred to be 0.

Коэффициенты AlfCCCoeffCb[adaptation_parameter_set_id] кросскомпонентного Cb-фильтра с элементами AlfCCCoeffCb[adaptation_parameter_set_id][j], причем j=0...13, извлекаются следующим образом:The coefficients AlfCCCoeffCb[adaptation_parameter_set_id] of the cross-component Cb filter with elements AlfCCCoeffCb[adaptation_parameter_set_id][j], with j=0...13, are extracted as follows:

AlfCCCoeffCb[adaplation_parameter_set_id][j]=alf_cross_component_cb_coeff_abs[j]*(l-2*alf_cross_component_cb_coeff_sign[j])AlfCCCoeffCb[adaptation_parameter_set_id][j]=alf_cross_component_cb_coeff_abs[j]*(l-2*alf_cross_component_cb_coeff_sign[j])

Требование соответствия потока битов заключается в том, что значения AlfCCCoeffCb[adaptation_parameter_set_id][j], причем j=0...13, должны составлять в диапазоне от -210-1 до 210-1, включительно.The bitstream matching requirement is that the values of AlfCCCoeffCb[adaptation_parameter_set_id][j], with j=0...13, must be in the range from -2 10 -1 to 2 10 -1, inclusive.

alf_cross_component_cr_coeff_abs[j] указывает абсолютное значение j-ого коэффициента передаваемого в служебных сигналах кросскомпонентного Cr-фильтра. Когда alf_cross_component_cr_coeff_abs[j] не присутствует, он логически выводится равным 0. alf_cross_component_cr_coeff_abs [j] indicates the absolute value of the j-th signaling coefficient of the Cr cross-component filter. When alf_cross_component_cr_coeff_abs[j] is not present, it is logically inferred to be 0.

Порядок k экспоненциального преобразования uek(v) в двоичную форму Голомба задается равным 3.The order k of the exponential transformation of uek(v) to binary Golomb form is set to 3.

[271] [271]

alf_cross_component_cr_coeff_sign[j] указывает знак j-ого коэффициента кросскомпонентного Cr-фильтра следующим образом: alf_cross_component_cr_coeff_sign [j] specifies the sign of the j-th coefficient of the Cr cross-component filter as follows:

- Если alf_cross_component_cr_coeff_sign[j] равен 0, соответствующий коэффициент кросскомпонентного Cr-фильтра имеет положительное значение.- If alf_cross_component_cr_coeff_sign[j] is 0, the corresponding cross-component Cr filter coefficient is positive.

- Иначе (alf_cross_component_cr_coeff_sign[j] равен 1), соответствующий коэффициент кросскомпонентного Cr-фильтра имеет отрицательное значение.- Otherwise (alf_cross_component_cr_coeff_sign[j] is equal to 1), the corresponding coefficient of the cross-component Cr filter has a negative value.

Когда alf_cross_component_cr_coeff_sign[j] не присутствует, он логически выводится равным 0.When alf_cross_component_cr_coeff_sign[j] is not present, it is logically inferred to be 0.

Коэффициенты AlfCCCoeffCr[adaplalion_parameter_set_id] кросскомпонентного Cr-фильтра с элементами AlfCCCoeffcr[adaptation_parameter_set_id][j], причем j=0...13, извлекаются следующим образом:The coefficients AlfCCCoeffCr[adaplalion_parameter_set_id] of the cross-component Cr filter with elements AlfCCCoeffcr[adaptation_parameter_set_id][j], with j=0...13, are extracted as follows:

AlfCCCoeffcr[adaptation_parameter_set_id][j]=alf_cross_component_cr_coeff_abs[j]*(l-2*alf_cross_component_cr_coeff_sign[j])AlfCCCoeffcr[adaptation_parameter_set_id][j]=alf_cross_component_cr_coeff_abs[j]*(l-2*alf_cross_component_cr_coeff_sign[j])

Требование соответствия потока битов заключается в том, что значения AlfCCCoeffCr[adaptation_parameter_set_id][j], причем j=0...13, должны составлять в диапазоне от -210-1 до 210-1, включительно.The bitstream matching requirement is that the values of AlfCCCoeffCr[adaptation_parameter_set_id][j], with j=0...13, must be in the range from -2 10 -1 to 2 10 -1, inclusive.

[272] Следующая таблица показывает синтаксис, связанный с ALF-данными согласно другому примеру.[272] The following table shows the syntax associated with ALF data according to another example.

[273] Табл. 23[273] Tab. 23

Figure 00000017
Figure 00000017

[274] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[274] The following table shows exemplary semantics for the syntax elements included in the above table.

[275] Табл. 24[275] Tab. 24

alf_cross_component_cb_filter_signal_flag, равный i, указывает то, что набор кросскомпонентных Cb-фильтров передается в служебных сигналах; alf_cross_componenl_cb_filter_signal_flag, равный 0, указывает то, что кросскомпонентный набор Cb-фильтров не передается в служебных сигналах. Когда alf_cross_component_cb_filter_signal_flag не присутствует, он логически выводится равным 0. alf_cross_component_cb_filter_signal_flag equal to i indicates that the Cb cross-component filter set is signaled; alf_cross_componenl_cb_filter_signal_flag equal to 0 indicates that the Cb cross-component filter bank is not signaled. When alf_cross_component_cb_filter_signal_flag is not present, it is logically inferred to be 0.

alf_cross_cotnponent_cr_filter_signal_flag, равный 1, указывает то, что набор кросскомпонентных Cr-фильтров передается в служебных сигналах, alf_cross_component_cr_filter_signal_flag, равный 0, указывает то, что набор кросскомпонентных Cr-фильтров не передается в служебных сигналах. Когда alf_cross_component_cr_filter_signal_flag не присутствует, он логически выводится равным 0. alf_cross_cotnponent_cr_filter_signal_flag equal to 1 indicates that the cross component Cr filter bank is signaled, alf_cross_component_cr_filter_signal_flag equal to 0 indicates that the cross component Cr filter bank is not signaled. When alf_cross_component_cr_filter_signal_flag is not present, it is logically inferred to be 0.

alf_cb_num_alt_filters_minus1 плюс 1 указывает число альтернативных кросскомпонентных адаптивных контурных фильтров для Cb-компонентов. alf_cb_num_alt_filters_minus1 plus 1 indicates the number of alternative cross-component adaptive loop filters for the Cb components.

alf_cross_component_cb_coeff_abs[j] указывает абсолютное значение j-ого коэффициента передаваемого в служебных сигналах кросскомпонентного Cb-фильтра. Когда alf_cross_component_cb_coeff_abs[j] не присутствует, он логически выводится равным 0. alf_cross_component_cb_coeff_abs [j] indicates the absolute value of the j-th signaling coefficient of the Cb cross-component filter. When alf_cross_component_cb_coeff_abs[j] is not present, it is logically inferred to be 0.

Порядок k экспоненциального преобразования uek(v) в двоичную форму Голомба задается равным 3.The order k of the exponential transformation of uek(v) to binary Golomb form is set to 3.

alf_cross_component_cb_coeff_sign[j] указывает знак j-ого коэффициента кросскомпонентного Cb-фильтра следующим образом: alf_cross_component_cb_coeff_sign [j] indicates the sign of the j-th coefficient of the Cb cross-component filter as follows:

- Если alf_cross_component_cb_cocff_sign[j] равен 0, соответствующий коэффициент кросскомпонентного Cb-фильтра имеет положительное значение.- If alf_cross_component_cb_cocff_sign[j] is 0, the corresponding Cb cross-component filter coefficient is positive.

- Иначе (alf_cross_component_cb_coeff_sign[j] равен 1), соответствующий коэффициент кросскомпонентного Cb-фильтра имеет отрицательное значение.- Otherwise (alf_cross_component_cb_coeff_sign[j] is equal to 1), the corresponding coefficient of the Cb cross-component filter has a negative value.

Когда alf_cross_component_cb_coeff_sign[j] не присутствует, он логически выводится равным 0.When alf_cross_component_cb_coeff_sign[j] is not present, it is logically inferred to be 0.

Коэффициенты AlfCCCoeffCb[adaptation_parameter_set_id] кросскомпонентного Cb-фильтра с элементами AlfCCCoeffCb[adaptation_parameter_set_id][j], причем j=0...13, извлекаются следующим образом:The coefficients AlfCCCoeffCb[adaptation_parameter_set_id] of the cross-component Cb filter with elements AlfCCCoeffCb[adaptation_parameter_set_id][j], with j=0...13, are extracted as follows:

AlfCCCoeffCb[adaptation_parameter_set_id][j]=alf_cross_component_cb_coeff_abs[j]*(l-2*alf_cross_component_cb_coeff_sign[j])AlfCCCoeffCb[adaptation_parameter_set_id][j]=alf_cross_component_cb_coeff_abs[j]*(l-2*alf_cross_component_cb_coeff_sign[j])

Требование соответствия потока битов заключается в том, что значения AlfCCCoeffCb[adaptation_parameter_sel_id][j], причем j=0...13, должны составлять в диапазоне от -210-1 до 210-1, включительно.The bitstream matching requirement is that the values of AlfCCCoeffCb[adaptation_parameter_sel_id][j], with j=0...13, must be in the range from -2 10 -1 to 2 10 -1, inclusive.

alf_cr_num_alt_filters_minus1 плюс 1 указывает число альтернативных кросскомпонентных адаптивных контурных фильтров для Cr-компонентов. alf_cr_num_alt_filters_minus1 plus 1 indicates the number of alternative cross-component adaptive loop filters for the Cr components.

alf_cross_component_cr_coeff_abs[j] указывает абсолютное значение j-ого коэффициента передаваемого в служебных сигналах кросскомпонентного Cr-фильтра. Когда alf_cross_component_cr_coeff_abs[j] не присутствует, он логически выводится равным 0. alf_cross_component_cr_coeff_abs [j] indicates the absolute value of the j-th signaling coefficient of the Cr cross-component filter. When alf_cross_component_cr_coeff_abs[j] is not present, it is logically inferred to be 0.

Порядок k экспоненциального преобразования uek(v) в двоичную форму Голомба задается равным 3.The order k of the exponential transformation of uek(v) to binary Golomb form is set to 3.

[276] [276]

alf_cross_component_cr_coeff_sign[j] указывает знак j-ого коэффициента кросскомпонентного Cr-фильтра следующим образом: alf_cross_component_cr_coeff_sign [j] specifies the sign of the j-th coefficient of the Cr cross-component filter as follows:

- Если alf_cross_component_cr_coeff_sign[j] равен 0, соответствующий коэффициент кросскомпонентного Cr-фильтра имеет положительное значение.- If alf_cross_component_cr_coeff_sign[j] is 0, the corresponding cross-component Cr filter coefficient is positive.

- Иначе (alf_cross_component_cr_coeff_sign[j] равен 1), соответствующий коэффициент кросскомпонентного Cr-фильтра имеет отрицательное значение.- Otherwise (alf_cross_component_cr_coeff_sign[j] is equal to 1), the corresponding coefficient of the cross-component Cr filter has a negative value.

Когда alf_cross_component_cr_coeff_sign[j] не присутствует, он логически выводится равным 0.When alf_cross_component_cr_coeff_sign[j] is not present, it is logically inferred to be 0.

Коэффициенты AlfCCCocffCr[adaptation_parameter_set_id] кросскомпонентного Cr-фильтра с элементами AlfCCCoeffCr[adaptation_parameter_set_id][j], причем j=0...13, извлекаются следующим образом:The coefficients AlfCCCocffCr[adaptation_parameter_set_id] of the cross-component Cr filter with elements AlfCCCoeffCr[adaptation_parameter_set_id][j], with j=0...13, are extracted as follows:

AffCCCoeffCr[adaptation_parameter_set_id][j]=alf_cross_component_cr_coeff_abs[j]*(l-2*alf_cross_component_cr_coeff_sign[j])AffCCCoeffCr[adaptation_parameter_set_id][j]=alf_cross_component_cr_coeff_abs[j]*(l-2*alf_cross_component_cr_coeff_sign[j])

Требование соответствия потока битов заключается в том, что значения AlfCCCoeffCr[adaptation_parameter_set_id][j], причем j=0...13, должны составлять в диапазоне от -210-1 до 210-1, включительно.The bitstream matching requirement is that the values of AlfCCCoeffCr[adaptation_parameter_set_id][j], with j=0...13, must be in the range from -2 10 -1 to 2 10 -1, inclusive.

[277] В вышеприведенных двух таблицах, порядок экспоненциального код Голомба преобразования в двоичную форму для синтаксического анализа синтаксиса alf_cross_component_cb_coeff_abs[j] и alf_cross_component_cr_coeff_abs[j] может задаваться посредством одного из 0-9 значений.[277] In the above two tables, the exponential Golomb binarization order for parsing the syntax alf_cross_component_cb_coeff_abs[j] and alf_cross_component_cr_coeff_abs[j] may be specified by one of 0-9 values.

[278] Ссылаясь на вышеприведенные две таблицы, ALF-данные могут включать в себя флаг передачи в служебных сигналах Cb-фильтров (alf_cross_component_cb_filter_signal_flag или alf_cc_cb_filter_signal_flag), связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-компонента. На основе флага передачи в служебных сигналах Cb-фильтров (alf_cross_component_cb_filter_signal_flag), ALF-данные могут включать в себя информацию (ccalf_cb_num_alt_filters_minus1), связанную с числом кросскомпонентных фильтров для цветового Cb-компонента. На основе информации, связанной с числом кросскомпонентных фильтров для цветового Cb-компонента, ALF-данные могут включать в себя информацию (alf_cross_component_cb_coeff_abs) относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информацию (alf_cross_component_cr_coeff_sign) относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cb-компонента.[278] Referring to the above two tables, the ALF data may include a Cb filter signaling signaling flag (alf_cross_component_cb_filter_signal_flag or alf_cc_cb_filter_signal_flag) related to whether or not cross-component filters for the Cb color component are signaled. Based on the Cb signaling signaling transmit flag (alf_cross_component_cb_filter_signal_flag), the ALF data may include information (ccalf_cb_num_alt_filters_minus1) related to the number of cross component filters for the Cb color component. Based on information related to the number of cross-component filters for the Cb color component, the ALF data may include information (alf_cross_component_cb_coeff_abs) about the absolute values of the cross-component filter coefficients for the Cb color component and information (alf_cross_component_cr_coeff_sign) about the signs of the cross-component filter coefficients for the Cb color -component. Based on information regarding the absolute values of the cross-component filter coefficients for the Cb color component and information regarding the signs of the cross-component filter coefficients for the Cb color component, the cross-component filter coefficients for the Cb color component can be extracted.

[279] В примере, ALF-данные могут включать в себя флаг передачи в служебных сигналах Cr-фильтров (alf_cross_component_cr_filter_signal_flag или alf_cc_cr_filter_signal_flag), связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cr-компонента. На основе флага передачи в служебных сигналах Cr-фильтров (alf_cross_component_cr_filter_signal_flag), ALF-данные могут включать в себя информацию (ccalf_cr_num_alt_filters_minus1), связанную с числом кросскомпонентных фильтров для цветового Cr-компонента. На основе информации, связанной с числом кросскомпонентных фильтров для цветового Cr-компонента, ALF-данные могут включать в себя информацию (alf_cross_component_cr_coeff_abs) относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информацию (alf_cross_component_cr_coeff_sign) относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента. На основе информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cr-компонента.[279] In an example, the ALF data may include a Cr signaling signaling flag (alf_cross_component_cr_filter_signal_flag or alf_cc_cr_filter_signal_flag) related to whether or not cross-component filters for the Cr color component are signaled. Based on the Cr signaling signaling transmit flag (alf_cross_component_cr_filter_signal_flag), the ALF data may include information (ccalf_cr_num_alt_filters_minus1) related to the number of cross component filters for the Cr color component. Based on information related to the number of cross-component filters for the chrominance Cr component, the ALF data may include information (alf_cross_component_cr_coeff_abs) regarding the absolute values of the cross-component filter coefficients for the chrominance Cr component and information (alf_cross_component_cr_coeff_sign) regarding the signs of the cross-component filter coefficients for the chroma Cr -component. Based on information regarding the absolute values of the cross-component filter coefficients for the chrominance Cr component and information regarding the signs of the cross-component filter coefficients for the chrominance Cr component, the cross-component filter coefficients for the chrominance Cr component can be extracted.

[280] Следующая таблица показывает синтаксис относительно единицы дерева кодирования согласно варианту осуществления настоящего раскрытия.[280] The following table shows the syntax regarding the coding tree unit according to an embodiment of the present disclosure.

[281] Табл. 25[281] Tab. 25

Figure 00000018
Figure 00000018

[282] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[282] The following table shows exemplary semantics for the syntax elements included in the above table.

[283] Табл. 26[283] Tab. 26

ccalf_ctb_flag[chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY], равный 1, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к блоку дерева кодирования компонента сигналов цветности, указываемого посредством chromaIdx, равного 0 для Cb и равного 1 для Cr, для единицы дерева кодирования в местоположении (xCtb, yCtb) сигнала яркости; ccalf_ctb_flag[chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>, CtbLog2SizeY], равный 0, указывает то, что адаптивный контурный фильтр не применяется к блоку дерева кодирования компонента сигналов цветности, указываемого посредством chromaIdx единицы дерева кодирования в местоположении (xCtb, yCtb) сигнала яркости. calf_ctb_flag [chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] equal to 1 indicates that a cross-component adaptive loop filter is applied to the chroma component coding tree block indicated by chromaIdx equal to 0 for Cb and equal to 1 for Cr , for the unit of the coding tree at the location (xCtb, yCtb) of the luminance signal; calf_ctb_flag[chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>, CtbLog2SizeY] equal to 0 indicates that the adaptive loop filter is not applied to the chroma component coding tree block indicated by the chromaIdx coding tree unit at location (xCtb, yCtb ) of the luminance signal.

Когда ccalf_ctb_flag[cIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] не присутствует, он логически выводится равным 0.When calf_ctb_flag[cIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] is not present, it is logically inferred to be 0.

[284] Следующая таблица показывает синтаксис единиц дерева кодирования согласно другому примеру этого варианта осуществления.[284] The following table shows the syntax of coding tree units according to another example of this embodiment.

[285] Табл. 27[285] Tab. 27

Figure 00000019
Figure 00000019

[286] Обращаясь к вышеприведенной таблице, CCALF может применяться в единицах CTU. В примере, информация изображений может включать в себя информацию (coding_tree_unit()) относительно единицы дерева кодирования. Информация относительно единицы дерева кодирования может включать в себя информацию (ccalf_ctb_flag[0) относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-компонента, и/или информацию (ccalf_ctb_flag[1]) относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cr-компонента. Помимо этого, информация относительно единицы дерева кодирования может включать в себя информацию (ccalf_ctb_filter_alt_idx[0) относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cb-компонента, и/или информацию (ccalf_ctb_filter_alt_idx[1]) относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cr-компонента. Синтаксис может адаптивно передаваться согласно синтаксису slice_ccalf_enabled_flag и slice_ccalf_chroma_idc.[286] Referring to the above table, CCALF may be applied in CTU units. In an example, the image information may include information (coding_tree_unit()) regarding a coding tree unit. The information regarding the coding tree unit may include information (ccalf_ctb_flag[0) regarding whether or not a cross-component filter is applied to the current Cb color component block, and/or information (ccalf_ctb_flag[1]) regarding whether or not a cross-component filter is applied to to the current block of the color Cr-component. In addition, information regarding a coding tree unit may include information (ccalf_ctb_filter_alt_idx[0) regarding a filterbank index for a cross-component filter applied to the current Cb chroma component block and/or information (ccalf_ctb_filter_alt_idx[1]) regarding a filterbank index for cross-component filter applied to the current Cr-color block. The syntax may be adaptively transmitted according to the syntax of slice_ccalf_enabled_flag and slice_ccalf_chroma_idc.

[287] Следующая таблица показывает синтаксис единиц дерева кодирования согласно другому примеру этого варианта осуществления.[287] The following table shows the syntax of coding tree units according to another example of this embodiment.

[288] Табл. 28[288] Tab. 28

Figure 00000020
Figure 00000020

[289] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[289] The following table shows exemplary semantics for the syntax elements included in the above table.

[290] Табл. 29[290] Tab. 29

ccalf_ctb_flag[chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY], равный 1, указывает то, что кросскомпонентный адаптивный контурный фильтр применяется к блоку дерева кодирования компонента сигналов цветности, указываемого посредством chromaIdx, равного 0 для Cb и равного 1 для Cr, для единицы дерева кодирования в местоположении (xCtb, yCtb) сигнала яркости; ccalf_ctb_flag[cIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY], равный 0, указывает то, что адаптивный контурный фильтр не применяется к блоку дерева кодирования компонента сигналов цветности, указываемого посредством chromaIdx единицы дерева кодирования в местоположении (xCtb, yCtb) сигнала яркости. calf_ctb_flag [chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] equal to 1 indicates that a cross-component adaptive loop filter is applied to the chroma component coding tree block indicated by chromaIdx equal to 0 for Cb and equal to 1 for Cr , for the unit of the coding tree at the location (xCtb, yCtb) of the luminance signal; calf_ctb_flag[cIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] equal to 0 indicates that the adaptive loop filter is not applied to the chroma component coding tree block indicated by the chromaIdx coding tree unit at location (xCtb, yCtb) brightness signal.

Когда ccalf_ctb_flag[cIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] не присутствует, он логически выводится равным 0.When calf_ctb_flag[cIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] is not present, it is logically inferred to be 0.

ccalf_ctb_filter_alt_idx[chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] указывает индекс альтернативного кросскомпонентного адаптивного контурного фильтра, применяемого к блоку дерева кодирования компонента сигналов цветности, при этом chromaIdx равен 0 для Cb, и chromaIdx равен 1 для Cr, для единицы дерева кодирования в местоположении (xCtb, yCtb) сигнала яркости. Когда ccalf_ctb_filter_alt_idx[chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] не присутствует, он логически выводится равным нулю. calf_ctb_filter_alt_idx [chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] specifies the index of the alternative cross-component adaptive loop filter applied to the chroma component coding tree block, where chromaIdx is 0 for Cb and chromaIdx is 1 for Cr, for unity coding tree at location (xCtb, yCtb) of the luminance signal. When calf_ctb_filter_alt_idx[chromaIdx][xCtb>>CtbLog2SizeY][yCtb>>CtbLog2SizeY] is not present, it is logically inferred to be zero.

[291] Следующая таблица показывает синтаксис единиц дерева кодирования согласно другому примеру этого варианта осуществления. Синтаксические элементы, включенные в нижеприведенную таблицу, могут описываться согласно таблице 29.[291] The following table shows the syntax of coding tree units according to another example of this embodiment. The syntax elements included in the table below may be described according to table 29.

[292] Табл. 30[292] Tab. thirty

Figure 00000021
Figure 00000021

[293] В примере, информация изображений может включать в себя информацию относительно единицы дерева кодирования (coding_tree_unit()). Информация относительно единицы дерева кодирования может включать в себя информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-компонента (ccalf_ctb_flag[0), и/или информацию (ccalf_ctb_flag[1]) относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cr-компонента. Помимо этого, информация относительно единицы дерева кодирования может включать в себя информацию (ccalf_ctb_filter_alt_idx[0) относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cb-компонента, и/или информацию (ccalf_ctb_filter_alt_idx[1]) относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cr-компонента.[293] In an example, the image information may include information regarding a coding tree unit (coding_tree_unit()). Information regarding a coding tree unit may include information regarding whether or not a cross-component filter is applied to the current Cb color component block (ccalf_ctb_flag[0)] and/or information (ccalf_ctb_flag[1]) regarding whether or not a cross-component filter is applied to to the current block of the color Cr-component. In addition, information regarding a coding tree unit may include information (ccalf_ctb_filter_alt_idx[0) regarding a filterbank index for a cross-component filter applied to the current Cb chroma component block and/or information (ccalf_ctb_filter_alt_idx[1]) regarding a filterbank index for cross-component filter applied to the current Cr-color block.

[294] Фиг. 12 и 13 схематично показывают пример способа кодирования видео/изображений и связанных компонентов согласно варианту(ам) осуществления настоящего раскрытия. Способ, раскрытый на фиг. 12, может осуществляться посредством оборудования кодирования, раскрытого на фиг. 2 или фиг. 13. В частности, например, S1200 и S1210 по фиг. 12 могут выполняться посредством модуля 220 прогнозирования оборудования кодирования, и S1220-S1240 по фиг. 12 могут выполняться посредством остаточного процессора 230 оборудования кодирования. S1250 может выполняться посредством сумматора 250 оборудования кодирования, S1260 может выполняться посредством фильтра 260 оборудования кодирования, и S1270 может выполняться посредством энтропийного кодера 240 оборудования кодирования. Способ, раскрытый на фиг. 12, может включать в себя варианты осуществления, описанные выше в настоящем раскрытии.[294] FIG. 12 and 13 schematically show an example of a video/image coding method and related components according to the embodiment(s) of the present disclosure. The method disclosed in FIG. 12 may be performed by the encoding equipment disclosed in FIG. 2 or fig. 13. In particular, for example, S1200 and S1210 of FIG. 12 can be performed by the coding equipment predictor 220, and S1220-S1240 of FIG. 12 may be performed by the residual processor 230 of the encoding hardware. S1250 may be performed by the coding equipment adder 250, S1260 may be performed by the coding equipment filter 260, and S1270 may be performed by the coding equipment entropy encoder 240. The method disclosed in FIG. 12 may include the embodiments described above in this disclosure.

[295] Ссылаясь на фиг. 12, оборудование кодирования может извлекать прогнозные выборки (S1200). Прогнозные выборки могут включать в себя прогнозные выборки сигналов яркости и прогнозные выборки сигналов цветности. Оборудование кодирования может извлекать прогнозные выборки текущего блока на основе режима прогнозирования. В этом случае, могут применяться различные способы прогнозирования, раскрытые в настоящем раскрытии, такие как взаимное прогнозирование или внутреннее прогнозирование.[295] Referring to FIG. 12, the encoding equipment may extract predictive samples (S1200). Predictive samples may include luminance predictive samples and chrominance predictive samples. The encoding equipment may extract the prediction samples of the current block based on the prediction mode. In this case, various prediction methods disclosed in the present disclosure, such as inter prediction or intra prediction, may be applied.

[296] Оборудование кодирования может формировать связанную с прогнозированием информацию (S1210). Оборудование кодирования может формировать связанную с прогнозированием информацию на основе прогнозных выборок и/или режима, применяемого к ним. Связанная с прогнозированием информация может включать в себя информацию относительно различных режимов прогнозирования (например, режим объединения, MVP-режим и т.д.), MVD-информацию и т.п.[296] The encoding equipment may generate prediction related information (S1210). The encoding equipment may generate prediction-related information based on the prediction samples and/or the mode applied to them. The prediction-related information may include information regarding various prediction modes (eg, pooling mode, MVP mode, etc.), MVD information, and the like.

[297] Оборудование кодирования может формировать остаточные выборки (S1220). Остаточные выборки могут включать в себя остаточные выборки сигналов яркости и остаточные выборки сигналов цветности. Оборудование кодирования может извлекать остаточные выборки для текущего блока, и остаточные выборки для текущего блока могут извлекаться на основе исходных выборок текущего блока и прогнозных выборок.[297] The encoding equipment may generate residual samples (S1220). The residual samples may include luma residual samples and chrominance residual samples. The encoding equipment may derive residual samples for the current block, and residual samples for the current block may be derived based on the original samples of the current block and the predictive samples.

[298] Оборудование кодирования может извлекать (квантованные) коэффициенты преобразования (S1230). Оборудование кодирования может извлекать коэффициенты преобразования на основе процедуры преобразования для остаточных выборок. Коэффициенты преобразования могут включать в себя коэффициенты преобразования сигнала яркости и коэффициенты преобразования сигнала цветности. Например, коэффициенты преобразования сигнала яркости могут извлекаться на основе остаточных выборок сигналов яркости, и коэффициенты преобразования сигнала цветности могут извлекаться на основе остаточных выборок сигналов цветности. Например, процедура преобразования может включать в себя по меньшей мере одно из DCT, DST, GBT или CNT. Оборудование кодирования может извлекать квантованные коэффициенты преобразования. Оборудование кодирования может извлекать квантованные коэффициенты преобразования на основе процедуры квантования для коэффициентов преобразования. Квантованные коэффициенты преобразования могут иметь одномерную векторную форму на основе порядка сканирования коэффициентов.[298] The encoding equipment may extract (quantized) transform coefficients (S1230). The encoding equipment may derive transform coefficients based on the transform procedure for the residual samples. The transform coefficients may include luminance signal transform coefficients and chrominance signal transform coefficients. For example, luminance transform coefficients may be derived based on the residual luminance samples, and chrominance transform coefficients may be derived based on the residual chrominance samples. For example, the conversion procedure may include at least one of DCT, DST, GBT, or CNT. The encoding equipment may extract the quantized transform coefficients. The encoding equipment may derive quantized transform coefficients based on a quantization procedure for the transform coefficients. The quantized transform coefficients may be in one-dimensional vector form based on the scan order of the coefficients.

[299] Оборудование кодирования может формировать остаточную информацию (S1240). Оборудование кодирования может формировать остаточную информацию, указывающую квантованные коэффициенты преобразования. Остаточная информация может формироваться через различные способы кодирования, такие как экспоненциальный код Голомба, CAVLC, CABAC и т.п.[299] The encoding equipment may generate residual information (S1240). The encoding equipment may generate residual information indicative of the quantized transform coefficients. The residual information may be generated through various coding methods such as exponential Golomb code, CAVLC, CABAC, and the like.

[300] Оборудование кодирования может формировать восстановленные выборки (S1250). Восстановленные выборки могут включать в себя восстановленные выборки сигналов яркости (компоненты сигналов яркости восстановленных выборок) и/или восстановленные выборки сигналов цветности (компоненты сигналов цветности восстановленных выборок). Оборудование кодирования может формировать восстановленные выборки на основе остаточной информации. Восстановленные выборки могут формироваться посредством суммирования остаточных выборок на основе остаточной информации с прогнозной выборкой.[300] The encoding equipment may generate reconstructed samples (S1250). The reconstructed samples may include reconstructed luma samples (luma components of the reconstructed samples) and/or reconstructed chrominance samples (chrominance components of the reconstructed samples). The encoding equipment may generate reconstructed samples based on the residual information. The reconstructed samples may be generated by summing the residual samples based on the residual information with the predictive sample.

[301] Оборудование кодирования может формировать связанную с ALF информацию и/или связанную с CCALF информацию (S1260). Оборудование кодирования может формировать связанную с ALF информацию и/или связанную с CCALF информацию для восстановленных выборок. Оборудование кодирования извлекает связанный с ALF параметр, который может применяться для фильтрации восстановленных выборок, и формирует связанную с ALF информацию. Например, связанная с ALF информация может включать в себя связанную с ALF информацию, описанную выше в настоящем раскрытии. Оборудование кодирования может формировать связанную с CCALF информацию для восстановленных выборок сигналов цветности из восстановленных выборок.[301] The encoding equipment may generate ALF related information and/or CCALF related information (S1260). The encoding equipment may generate ALF related information and/or CCALF related information for the recovered samples. The encoding hardware extracts the ALF-related parameter that can be used to filter the reconstructed samples and generates the ALF-related information. For example, ALF related information may include ALF related information described above in this disclosure. The encoding equipment may generate CCALF related information for the reconstructed chrominance samples from the reconstructed samples.

[302] Оборудование кодирования может кодировать информацию видео/изображений (S1270). Информация изображений может включать в себя остаточную информацию и/или связанную с ALF информацию. Кодированная информация видео/изображений может выводиться в форме потока битов. Поток битов может передаваться в оборудование декодирования через сеть или носитель хранения данных.[302] The encoding equipment may encode video/image information (S1270). The image information may include residual information and/or ALF related information. The encoded video/image information may be output in the form of a bitstream. The bit stream may be transmitted to the decoding equipment via a network or a storage medium.

[303] В примере, связанная с CCALF информация может включать в себя флаг CCALF-активации, флаг, связанный с тем, доступна или нет CCALF для цветового Cb-(или Cr-)компонента, флаг передачи в служебных сигналах Cb-(или Cr-)фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-(или Cr-)компонента, информацию, связанную с числом кросскомпонентных фильтров для цветового Cb-(или Cr-)компонента, информацию относительно значений коэффициентов кросскомпонентного фильтра для цветового Cb-(или Cr-)компонента, информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-(или Cr-)компонента, информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-(или Cr-)компонента и/или информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-(или Cr-)компонента в информации (синтаксисе единиц дерева кодирования) относительно единицы дерева кодирования.[303] In an example, the CCALF-related information may include a CCALF activation flag, a flag related to whether or not CCALF is available for the Cb- (or Cr-) color component, a transmission flag in the Cb- (or Cr -) filters related to whether or not cross-component filters for the Cb (or Cr-) color component are signaled, information related to the number of cross-component filters for the Cb- (or Cr-) color component, information regarding the values of the coefficients of the cross-component filter for the Cb (or Cr) color component, information regarding the absolute values of the cross-component filter coefficients for the Cb (or Cr-) color component, information regarding the signs of the cross-component filter coefficients for the Cb (or Cr-) color component, and/or information regarding whether or not a cross-component filter is applied to the current block of the Cb- (or Cr-) color component in the information (coding tree unit syntax) regarding the tree unit wa coding.

[304] Информация изображений/видео может включать в себя различные типы информации согласно варианту осуществления настоящего документа. Например, информация изображений/видео может включать в себя информацию, раскрытую по меньшей мере в одной из таблиц 1-30, описанных выше.[304] The image/video information may include various types of information according to an embodiment of the present document. For example, the image/video information may include information disclosed in at least one of Tables 1-30 described above.

[305] В варианте осуществления, информация изображений может включать в себя набор параметров последовательности (SPS). SPS может включать в себя флаг CCALF-активации, связанный с тем, доступна или нет кросскомпонентная фильтрация. На основе флага CCALF-доступности, может извлекаться идентификационная информация (информация идентификатора) наборов параметров адаптации (APS), включающая в себя ALF-данные, используемые для извлечения коэффициентов кросскомпонентного фильтра для CCALF.[305] In an embodiment, the image information may include a sequence parameter set (SPS). The SPS may include a CCALF activation flag related to whether cross-component filtering is available or not. Based on the CCALF-availability flag, identification information (identifier information) of adaptation parameter sets (APS) including ALF data used to extract cross-component filter coefficients for CCALF can be extracted.

[306] В варианте осуществления, SPS может включать в себя флаг ALF-активации (sps_alf_enabled_flag), связанный с тем, доступна или нет ALF. На основе определения того, что значение флага ALF-активации (sps_alf_enabled_flag) равно 1, SPS может включать в себя флаг CCALF-активации, связанный с тем, доступна или нет кросскомпонентная фильтрация.[306] In an embodiment, the SPS may include an ALF activation flag (sps_alf_enabled_flag) related to whether ALF is available or not. Based on the determination that the value of the ALF activation flag (sps_alf_enabled_flag) is 1, the SPS may include a CCALF activation flag related to whether cross-component filtering is available or not.

[307] В варианте осуществления, информация изображений может включать в себя информацию заголовка среза и набор параметров адаптации (APS). Информация заголовка может включать в себя информацию, связанную с идентификатором APS, включающую в себя ALF-данные. Например, коэффициенты кросскомпонентного фильтра могут извлекаться на основе ALF-данных.[307] In an embodiment, the image information may include slice header information and an adaptation parameter set (APS). The header information may include information associated with the APS identifier, including ALF data. For example, cross-component filter coefficients may be derived from ALF data.

[308] В варианте осуществления, информация заголовка среза может включать в себя флаг ALF-активации (slice_alf_enabled_flag), связанный с тем, доступна или нет ALF. Sps_alf_enabled_flag и slice_alf_enabled_flag могут называться "первым флагом ALF-активации" и "вторым флагом ALF-активации", соответственно. На основе определения того, что значение второго флага ALF-активации (slice_alf_enabled_flag) равно 1, может определяться то, равно или нет значение флага CCALF-активации 1. В примере, на основе определения того, что значение второго флага доступности ALF равно 1, CCALF может быть доступна для среза.[308] In an embodiment, the slice header information may include an ALF activation flag (slice_alf_enabled_flag) related to whether ALF is available or not. Sps_alf_enabled_flag and slice_alf_enabled_flag may be referred to as "first ALF activation flag" and "second ALF activation flag", respectively. Based on determining that the value of the second ALF enable flag (slice_alf_enabled_flag) is 1, it may be determined whether or not the value of the CCALF enable flag is 1. In the example, based on determining that the value of the second ALF enable flag is 1, CCALF may be available for cutting.

[309] В варианте осуществления, информация заголовка (информация заголовка среза) может включать в себя первый флаг, связанный с тем, доступна или нет CCALF для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и второй флаг, связанный с тем, доступна или нет CCLF для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности. В другом примере, на основе определения того, что значение флага ALF-активации (slice_alf_enabled_flag) равно 1, информация заголовка (информация заголовка среза) может включать в себя первый флаг, связанный с тем, доступна или нет CCALF для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и второй флаг, связанный с тем, доступна или нет CCLF для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности.[309] In an embodiment, the header information (slice header information) may include a first flag related to whether or not CCALF is available for the Cb color component of the filtered recovered chrominance samples, and a second flag related to whether or not no CCLF for the chrominance Cr component of the filtered reconstructed chrominance samples. In another example, based on determining that the value of the ALF enable flag (slice_alf_enabled_flag) is 1, the header information (slice header information) may include a first flag related to whether or not CCALF is available for the Cb color component of the filtered reconstructed chrominance samples, and a second flag related to whether or not CCLF is available for the chrominance Cr component of the filtered reconstructed chrominance samples.

[310] В варианте осуществления, на основе определения того, что значение первого флага равно 1, информация заголовка среза может включать в себя идентификационную информацию (информацию, связанную с идентификатором второго APS) первого APS для извлечения коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе определения того, что значение второго флага равно 1, информация заголовка среза может включать в себя идентификационную информацию (информацию, связанную с идентификатором второго APS) второго APS для извлечения коэффициентов кросскомпонентного фильтра для цветового Cr-компонента.[310] In an embodiment, based on determining that the value of the first flag is 1, the slice header information may include identification information (information associated with the second APS ID) of the first APS to extract cross-component filter coefficients for the Cb color component. Based on the determination that the value of the second flag is 1, the slice header information may include identification information (information associated with the second APS ID) of the second APS to extract cross-component filter coefficients for the chrominance Cr component.

[311] В варианте осуществления, первые ALF-данные, включенные в первый APS, могут включать в себя флаг передачи в служебных сигналах Cb-фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-компонента. На основе флага передачи в служебных сигналах Cb-фильтров, первые ALF-данные могут включать в себя информацию, связанную с числом кросскомпонентных фильтров для цветового Cb-компонента. На основе информации, связанной с числом кросскомпонентных фильтров для цветового Cb-компонента, первые ALF-данные могут включать в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе информации относительно информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cb-компонента.[311] In an embodiment, the first ALF data included in the first APS may include a Cb filter signaling signaling flag related to whether cross-component filters for the Cb color component are signaled. Based on the transmit flag in the Cb filter signaling, the first ALF data may include information related to the number of cross-component filters for the Cb color component. Based on information related to the number of cross-component filters for the Cb color component, the first ALF data may include information on the absolute values of the cross-component filter coefficients for the Cb color component and information on the signs of the cross-component filter coefficients for the Cb color component. Based on information regarding information regarding absolute values of the Cb color component cross-filter coefficients and information regarding the signs of the Cb color component cross-component filter coefficients, the cross-component filter coefficients for the Cb color component can be extracted.

[312] В варианте осуществления, информация, связанная с числом кросскомпонентных фильтров для цветового Cb-компонента, может кодироваться экспоненциальным кодом Голомба нулевого порядка (нулевым EG).[312] In an embodiment, information related to the number of cross-component filters for the Cb color component may be encoded with a zero-order exponential Golomb code (zero EG).

[313] В варианте осуществления, вторые ALF-данные, включенные во второй APS, могут включать в себя флаг передачи в служебных сигналах Cr-фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cr-компонента. На основе флага передачи в служебных сигналах Cr-фильтров, вторые ALF-данные могут включать в себя информацию, связанную с числом кросскомпонентных фильтров для цветового Cr-компонента. На основе информации, связанной с числом кросскомпонентных фильтров для цветового Cr-компонента, вторые ALF-данные могут включать в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента. На основе абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cr-компонента.[313] In an embodiment, the second ALF data included in the second APS may include a Cr signaling signaling flag related to whether or not cross-component filters for the Cr color component are signaled. Based on the transmit flag in the Cr signaling, the second ALF data may include information related to the number of cross filters for the Cr color component. Based on information related to the number of cross-component filters for the chrominance Cr component, the second ALF data may include information regarding the absolute values of the cross-component filter coefficients for the chrominance Cr component and information regarding the signs of the cross-component filter coefficients for the chrominance Cr component. Based on the absolute values of the cross-component filter coefficients for the Cr color component and information regarding the signs of the cross-component filter coefficients for the Cr color component, the cross-component filter coefficients for the Cr color component can be extracted.

[314] В варианте осуществления, информация, связанная с числом кросскомпонентных фильтров для цветового Cr-компонента, может кодироваться экспоненциальным кодом Голомба нулевого порядка (нулевым EG).[314] In an embodiment, information related to the number of cross-component filters for the chrominance Cr component may be encoded with a zero-order exponential Golomb code (zero EG).

[315] В варианте осуществления, информация изображений может включать в себя информацию относительно единицы дерева кодирования. Информация относительно единицы дерева кодирования может включать в себя информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-компонента, и/или информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cr-компонента.[315] In an embodiment, the image information may include information regarding a coding tree unit. Information regarding a coding tree unit may include information regarding whether or not a cross-component filter is applied to the current Cb chroma component block and/or information regarding whether or not a cross-component filter is applied to the current Cr chroma component.

[316] В варианте осуществления, информация относительно единицы дерева кодирования может включать в себя информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cb-компонента, и/или информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cr-компонента.[316] In an embodiment, information regarding a coding tree unit may include information regarding a filterbank index for a cross-component filter applied to the current block of the Cb color component and/or information regarding a filterbank index for a cross-component filter applied to the current block. color Cr-component.

[317] Фиг. 14 и 15 схематично показывают пример способа декодирования видео/изображений и связанных компонентов согласно варианту(ам) осуществления настоящего раскрытия.[317] FIG. 14 and 15 schematically show an example of a method for decoding video/images and related components according to the embodiment(s) of the present disclosure.

[318] Способ, раскрытый на фиг. 14, может осуществляться посредством оборудования декодирования, проиллюстрированного на фиг. 3 или 15. В частности, например, S1400 по фиг. 14 может выполняться посредством энтропийного декодера 310 оборудования декодирования, S1410 и S1420 могут выполняться посредством остаточного процессора 320 оборудования декодирования, S1430 может выполняться посредством модуля 330 прогнозирования оборудования декодирования, S1440 может выполняться посредством сумматора 340 оборудования декодирования, и S1450-S1480 могут выполняться посредством фильтра 350 оборудования декодирования. Способ, раскрытый на фиг. 14, может включать в себя варианты осуществления, описанные выше, в настоящем раскрытии.[318] The method disclosed in FIG. 14 may be performed by the decoding equipment illustrated in FIG. 3 or 15. In particular, for example, the S1400 of FIG. 14 may be performed by the entropy decoder 310 of the decoding equipment, S1410 and S1420 may be performed by the residual processor 320 of the decoding equipment, S1430 may be performed by the decoding equipment prediction unit 330, S1440 may be performed by the adder 340 of the decoding equipment, and S1450-S1480 may be performed by the filter 350 decoding equipment. The method disclosed in FIG. 14 may include the embodiments described above in this disclosure.

[319] Ссылаясь на фиг. 14, оборудование декодирования может принимать/получать информацию видео/изображений (S1400). Информация видео/изображений может включать в себя связанную с прогнозированием информацию и/или остаточную информацию. Оборудование декодирования может принимать/получать информацию изображений/видео через поток битов. В примере, информация видео/изображений дополнительно может включать в себя CCAL-связанную информацию. Например, в примере, связанная с CCALF информация может включать в себя флаг CCALF-активации, флаг, связанный с тем, доступна или нет CCALF для цветового Cb-(или Cr-)компонента, флаг передачи в служебных сигналах Cb-(или Cr-)фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-(или Cr-)компонента, информацию, связанную с числом кросскомпонентных фильтров для цветового Cb-(или Cr-)компонента, информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-(или Cr-)компонента, информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-(или Cr-)компонента и/или информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-(или Cr-)компонента в информации (синтаксисе единиц дерева кодирования) относительно единицы дерева кодирования.[319] Referring to FIG. 14, the decoding equipment can receive/acquire video/image information (S1400). The video/image information may include prediction related information and/or residual information. The decoding equipment can receive/receive image/video information via a bitstream. In an example, the video/image information may further include CCAL related information. For example, in an example, the CCALF related information may include a CCALF activation flag, a flag related to whether or not CCALF is available for the Cb- (or Cr-) color component, a transmit flag in the Cb- (or Cr-) signaling. ) filters related to whether or not cross-component filters for the Cb- (or Cr-) color component are signaled, information related to the number of cross-component filters for the Cb- (or Cr-) color component, information regarding the absolute values of the coefficients of the cross-component filter for the Cb- (or Cr-) color component, information regarding the signs of the cross-component filter coefficients for the Cb- (or Cr-) color component, and/or information regarding whether or not the cross-component filter is applied to the current Cb- (or Cr-) color block. )component in the information (syntax of coding tree units) relative to the coding tree unit.

[320] Информация изображений/видео может включать в себя различные типы информации согласно варианту осуществления настоящего документа. Например, информация изображений/видео может включать в себя информацию, раскрытую по меньшей мере в одной из таблиц 1-30, описанных выше.[320] The image/video information may include various types of information according to an embodiment of the present document. For example, the image/video information may include information disclosed in at least one of Tables 1-30 described above.

[321] Оборудование декодирования может извлекать коэффициенты преобразования (S1410). В частности, оборудование декодирования может извлекать квантованные коэффициенты преобразования на основе остаточной информации. Коэффициенты преобразования могут включать в себя коэффициенты преобразования сигнала яркости и коэффициенты преобразования сигнала цветности. Квантованные коэффициенты преобразования могут иметь одномерную векторную форму на основе порядка сканирования коэффициентов. Оборудование декодирования может извлекать коэффициенты преобразования на основе процедуры деквантования для квантованных коэффициентов преобразования.[321] The decoding equipment may extract transform coefficients (S1410). In particular, the decoding equipment may derive quantized transform coefficients based on the residual information. The transform coefficients may include luminance signal transform coefficients and chrominance signal transform coefficients. The quantized transform coefficients may be in one-dimensional vector form based on the scan order of the coefficients. The decoding equipment may derive transform coefficients based on a dequantization procedure for the quantized transform coefficients.

[322] Оборудование декодирования может извлекать остаточные выборки (S1420). Оборудование декодирования может извлекать остаточные выборки на основе коэффициентов преобразования. Остаточные выборки могут включать в себя остаточные выборки сигналов яркости и остаточные выборки сигналов цветности. Например, остаточные выборки сигналов яркости могут извлекаться на основе коэффициентов преобразования сигнала яркости, и остаточные выборки сигналов цветности могут извлекаться на основе коэффициентов преобразования сигнала цветности. Помимо этого, остаточные выборки для текущего блока могут извлекаться на основе исходных выборок и прогнозных выборок текущего блока.[322] The decoding equipment may extract residual samples (S1420). The decoding hardware may extract residual samples based on the transform coefficients. The residual samples may include luma residual samples and chrominance residual samples. For example, luminance residual samples may be derived based on luminance transform coefficients, and chrominance residual samples may be derived based on chrominance transform coefficients. In addition, the residual samples for the current block may be derived based on the original samples and the prediction samples of the current block.

[323] Оборудование декодирования может выполнять прогнозирование на основе информации изображений/видео и извлекать прогнозные выборки текущего блока (S1430). Оборудование декодирования может извлекать прогнозные выборки текущего блока на основе связанной с прогнозированием информации. Связанная с прогнозированием информация может включать в себя информацию режима прогнозирования. Оборудование декодирования может определять то, применяется или нет взаимное прогнозирование или внутреннее прогнозирование к текущему блоку, на основе информации режима прогнозирования и может выполнять прогнозирование на основе этого. Прогнозные выборки могут включать в себя прогнозные выборки сигналов яркости и/или прогнозные выборки сигналов цветности.[323] The decoding equipment may perform prediction based on the image/video information and extract prediction samples of the current block (S1430). The decoding equipment may derive the prediction samples of the current block based on the prediction related information. The prediction related information may include prediction mode information. The decoding equipment may determine whether or not inter prediction or intra prediction is applied to the current block based on the prediction mode information, and may perform prediction based on this. Predictive samples may include luminance predictive samples and/or chrominance predictive samples.

[324] Оборудование декодирования может формировать/извлекать восстановленные выборки (S1440). Восстановленные выборки могут включать в себя восстановленные выборки сигналов яркости и/или восстановленные выборки сигналов цветности. Оборудование декодирования может формировать восстановленные выборки сигналов яркости (или сигналов цветности) на основе остаточных выборок. Компоненты сигналов яркости восстановленных выборок могут соответствовать восстановленным выборкам сигналов яркости, и компоненты сигналов цветности восстановленных выборок могут соответствовать восстановленным выборкам сигналов цветности.[324] The decoding equipment may generate/retrieve recovered samples (S1440). The reconstructed samples may include reconstructed luma samples and/or reconstructed chrominance samples. The decoding hardware may generate reconstructed luma (or chrominance) samples based on the residual samples. The luminance components of the reconstructed samples may correspond to the reconstructed luminance samples, and the chrominance components of the reconstructed samples may correspond to the reconstructed chrominance samples.

[325] Оборудование декодирования может извлекать коэффициенты ALF-фильтра для ALF-процедуры восстановленных выборок сигналов цветности (S1450). Помимо этого, оборудование декодирования может извлекать коэффициенты ALF-фильтра для ALF-процедуры восстановленных выборок сигналов яркости. Коэффициенты ALF-фильтра могут извлекаться на основе ALF-параметров, включенных в ALF-данные в APS.[325] The decoding equipment may extract the ALF filter coefficients for the recovered chrominance samples ALF procedure (S1450). In addition, the decoding hardware can extract the ALF filter coefficients for the ALF procedure of the reconstructed luminance samples. The ALF filter coefficients may be derived based on the ALF parameters included in the ALF data in the APS.

[326] Оборудование декодирования может формировать фильтрованные восстановленные выборки сигналов цветности (S1460). Оборудование декодирования может формировать фильтрованные восстановленные выборки на основе восстановленных выборок сигналов цветности и коэффициентов ALF-фильтра.[326] The decoding equipment may generate filtered reconstructed chrominance samples (S1460). The decoding hardware may generate filtered reconstructed samples based on the reconstructed chrominance samples and ALF filter coefficients.

[327] Оборудование декодирования может извлекать коэффициенты кросскомпонентного фильтра для кросскомпонентной фильтрации (S1470). Коэффициенты кросскомпонентного фильтра могут извлекаться на основе связанной с CCALF информации в ALF-данных, включенных в вышеуказанный APS, и идентификационная информация соответствующего APS может включаться в заголовок среза (может передаваться в служебных сигналах через него).[327] The decoding equipment may extract cross-component filter coefficients for cross-component filtering (S1470). The cross-component filter coefficients may be derived based on the CCALF-related information in the ALF data included in the above APS, and the identification information of the corresponding APS may be included in (may be signaled through) the slice header.

[328] Оборудование декодирования может формировать модифицированные фильтрованные восстановленные выборки сигналов цветности (S1480). Оборудование декодирования может формировать модифицированные и фильтрованные восстановленные выборки сигналов цветности на основе восстановленных выборок сигналов яркости, фильтрованных восстановленных выборок сигналов цветности и коэффициентов кросскомпонентного фильтра. В примере, оборудование декодирования может извлекать разность между двумя выборками из восстановленных выборок сигналов яркости и умножать разность на один коэффициент фильтра из коэффициентов кросскомпонентного фильтра. На основе результата умножения и фильтрованных восстановленных выборок сигналов цветности, оборудование декодирования может формировать модифицированные фильтрованные восстановленные выборки сигналов цветности. Например, оборудование декодирования может формировать модифицированные фильтрованные восстановленные выборки сигналов цветности на основе суммы произведения и одной из фильтрованных восстановленных выборок сигналов цветности.[328] The decoding equipment may generate modified filtered chrominance reconstructed samples (S1480). The decoding equipment may generate modified and filtered chrominance reconstructed samples based on the luminance reconstructed samples, filtered chrominance reconstructed samples, and cross-component filter coefficients. In an example, the decoding hardware may extract the difference between the two samples from the reconstructed luminance samples and multiply the difference by one filter coefficient from the cross-component filter coefficients. Based on the result of the multiplication and the filtered chrominance reconstructed samples, the decoding equipment may generate modified filtered chrominance reconstructed samples. For example, the decoding hardware may generate modified filtered chrominance reconstructed samples based on the sum of the product and one of the filtered chrominance reconstructed samples.

[329] В варианте осуществления, информация изображений может включать в себя набор параметров последовательности (SPS). SPS может включать в себя флаг CCALF-активации, связанный с тем, доступна или нет кросскомпонентная фильтрация. На основе флага CCALF-доступности, может извлекаться идентификационная информация (информация идентификатора) наборов параметров адаптации (APS), включающая в себя ALF-данные, используемые для извлечения коэффициентов кросскомпонентного фильтра для CCALF.[329] In an embodiment, the image information may include a sequence parameter set (SPS). The SPS may include a CCALF activation flag related to whether cross-component filtering is available or not. Based on the CCALF-availability flag, identification information (identifier information) of adaptation parameter sets (APS) including ALF data used to extract cross-component filter coefficients for CCALF can be extracted.

[330] В варианте осуществления, SPS может включать в себя флаг ALF-активации (sps_alf_enabled_flag), связанный с тем, доступна или нет ALF. На основе определения того, что значение флага ALF-активации (sps_alf_enabled_flag) равно 1, SPS может включать в себя флаг CCALF-активации, связанный с тем, доступна или нет кросскомпонентная фильтрация.[330] In an embodiment, the SPS may include an ALF activation flag (sps_alf_enabled_flag) related to whether ALF is available or not. Based on the determination that the value of the ALF activation flag (sps_alf_enabled_flag) is 1, the SPS may include a CCALF activation flag related to whether cross-component filtering is available or not.

[331] В варианте осуществления, информация изображений может включать в себя информацию заголовка среза и набор параметров адаптации (APS). Информация заголовка может включать в себя информацию, связанную с идентификатором APS, включающую в себя ALF-данные. Например, коэффициенты кросскомпонентного фильтра могут извлекаться на основе ALF-данных.[331] In an embodiment, the image information may include slice header information and an adaptation parameter set (APS). The header information may include information associated with the APS identifier, including ALF data. For example, cross-component filter coefficients may be derived from ALF data.

[332] В варианте осуществления, информация заголовка среза может включать в себя флаг ALF-активации (slice_alf_enabled_flag), связанный с тем, доступна или нет ALF. Sps_alf_enabled_flag и slice_alf_enabled_flag могут называться "первым флагом ALF-активации" и "вторым флагом ALF-активации", соответственно. На основе определения того, что значение второго флага ALF-активации (slice_alf_enabled_flag) равно 1, может определяться то, равно или нет значение флага CCALF-активации 1. В примере, на основе определения того, что значение второго флага доступности ALF равно 1, CCALF может быть доступна для среза.[332] In an embodiment, the slice header information may include an ALF activation flag (slice_alf_enabled_flag) related to whether ALF is available or not. Sps_alf_enabled_flag and slice_alf_enabled_flag may be referred to as "first ALF activation flag" and "second ALF activation flag", respectively. Based on determining that the value of the second ALF enable flag (slice_alf_enabled_flag) is 1, it may be determined whether or not the value of the CCALF enable flag is 1. In the example, based on determining that the value of the second ALF enable flag is 1, CCALF may be available for cutting.

[333] В варианте осуществления, информация заголовка (информация заголовка среза) может включать в себя первый флаг, связанный с тем, доступна или нет CCALF для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и второй флаг, связанный с тем, доступна или нет CCLF для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности. В другом примере, на основе определения того, что значение флага ALF-активации (slice_alf_enabled_flag) равно 1, информация заголовка (информация заголовка среза) может включать в себя первый флаг, связанный с тем, доступна или нет CCALF для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и второй флаг, связанный с тем, доступна или нет CCLF для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности.[333] In an embodiment, the header information (slice header information) may include a first flag related to whether or not CCALF is available for the Cb color component of the filtered recovered chrominance samples, and a second flag related to whether or not no CCLF for the chrominance Cr component of the filtered reconstructed chrominance samples. In another example, based on determining that the value of the ALF enable flag (slice_alf_enabled_flag) is 1, the header information (slice header information) may include a first flag related to whether or not CCALF is available for the Cb color component of the filtered reconstructed chrominance samples, and a second flag related to whether or not CCLF is available for the chrominance Cr component of the filtered reconstructed chrominance samples.

[334] В варианте осуществления, на основе определения того, что значение первого флага равно 1, информация заголовка среза может включать в себя идентификационную информацию (информацию, связанную с идентификатором второго APS) первого APS для извлечения коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе определения того, что значение второго флага равно 1, информация заголовка среза может включать в себя идентификационную информацию (информацию, связанную с идентификатором второго APS) второго APS для извлечения коэффициентов кросскомпонентного фильтра для цветового Cr-компонента.[334] In an embodiment, based on determining that the value of the first flag is 1, the slice header information may include identification information (information associated with the second APS ID) of the first APS to extract cross-component filter coefficients for the Cb color component. Based on the determination that the value of the second flag is 1, the slice header information may include identification information (information associated with the second APS ID) of the second APS to extract cross-component filter coefficients for the chrominance Cr component.

[335] В варианте осуществления, первые ALF-данные, включенные в первый APS, могут включать в себя флаг передачи в служебных сигналах Cb-фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-компонента. На основе флага передачи в служебных сигналах Cb-фильтров, первые ALF-данные могут включать в себя информацию, связанную с числом кросскомпонентных фильтров для цветового Cb-компонента. На основе информации, связанной с числом кросскомпонентных фильтров для цветового Cb-компонента, первые ALF-данные могут включать в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе информации относительно информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cb-компонента.[335] In an embodiment, the first ALF data included in the first APS may include a Cb filter signaling signaling flag related to whether or not cross-component filters for the Cb color component are signaled. Based on the transmit flag in the Cb filter signaling, the first ALF data may include information related to the number of cross-component filters for the Cb color component. Based on information related to the number of cross-component filters for the Cb color component, the first ALF data may include information on the absolute values of the cross-component filter coefficients for the Cb color component and information on the signs of the cross-component filter coefficients for the Cb color component. Based on information regarding information regarding absolute values of the Cb color component cross-filter coefficients and information regarding the signs of the Cb color component cross-component filter coefficients, the cross-component filter coefficients for the Cb color component can be extracted.

[336] В варианте осуществления, информация, связанная с числом кросскомпонентных фильтров для цветового Cb-компонента, может кодироваться экспоненциальным кодом Голомба нулевого порядка (нулевым EG).[336] In an embodiment, information related to the number of cross-component filters for the Cb color component may be encoded with a zero-order exponential Golomb code (zero EG).

[337] В варианте осуществления, вторые ALF-данные, включенные во второй APS, могут включать в себя флаг передачи в служебных сигналах Cr-фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cr-компонента. На основе флага передачи в служебных сигналах Cr-фильтров, вторые ALF-данные могут включать в себя информацию, связанную с числом кросскомпонентных фильтров для цветового Cr-компонента. На основе информации, связанной с числом кросскомпонентных фильтров для цветового Cr-компонента, вторые ALF-данные могут включать в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента. На основе абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cr-компонента.[337] In an embodiment, the second ALF data included in the second APS may include a Cr signaling signaling flag related to whether cross-component filters for the Cr color component are signaled. Based on the transmit flag in the Cr signaling, the second ALF data may include information related to the number of cross filters for the Cr color component. Based on information related to the number of cross-component filters for the chrominance Cr component, the second ALF data may include information regarding the absolute values of the cross-component filter coefficients for the chrominance Cr component and information regarding the signs of the cross-component filter coefficients for the chrominance Cr component. Based on the absolute values of the cross-component filter coefficients for the Cr color component and information regarding the signs of the cross-component filter coefficients for the Cr color component, the cross-component filter coefficients for the Cr color component can be extracted.

[338] В варианте осуществления, информация, связанная с числом кросскомпонентных фильтров для цветового Cr-компонента, может кодироваться экспоненциальным кодом Голомба нулевого порядка (нулевым EG).[338] In an embodiment, information related to the number of cross-component filters for the chrominance Cr component may be encoded with a zero-order exponential Golomb code (zero EG).

[339] В варианте осуществления, информация изображений может включать в себя информацию относительно единицы дерева кодирования. Информация относительно единицы дерева кодирования может включать в себя информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-компонента, и/или информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cr-компонента.[339] In an embodiment, the image information may include information regarding a coding tree unit. Information regarding a coding tree unit may include information regarding whether or not a cross-component filter is applied to the current Cb chroma component block and/or information regarding whether or not a cross-component filter is applied to the current Cr chroma component.

[340] В варианте осуществления, информация относительно единицы дерева кодирования может включать в себя информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cb-компонента, и/или информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cr-компонента.[340] In an embodiment, information regarding a coding tree unit may include information regarding a filterbank index for a cross-component filter applied to the current block of the Cb color component and/or information regarding a filterbank index for a cross-component filter applied to the current block. color Cr-component.

[341] Когда имеется остаточная выборка для текущего блока, оборудование декодирования может принимать информацию относительно остатка для текущего блока. Информация относительно остатка может включать в себя коэффициенты преобразования для остаточных выборок. Оборудование декодирования может извлекать остаточные выборки (или массив остаточных выборок) для текущего блока на основе остаточной информации. В частности, оборудование декодирования может извлекать квантованные коэффициенты преобразования на основе остаточной информации. Квантованные коэффициенты преобразования могут иметь одномерную векторную форму на основе порядка сканирования коэффициентов. Оборудование декодирования может извлекать коэффициенты преобразования на основе процедуры деквантования для квантованных коэффициентов преобразования. Оборудование декодирования может извлекать остаточные выборки на основе коэффициентов преобразования.[341] When there is a residual sample for the current block, the decoding equipment may receive information regarding the residual for the current block. The residual information may include transform coefficients for the residual samples. The decoding hardware may derive residual samples (or an array of residual samples) for the current block based on the residual information. In particular, the decoding equipment may derive quantized transform coefficients based on the residual information. The quantized transform coefficients may be in one-dimensional vector form based on the scan order of the coefficients. The decoding equipment may derive transform coefficients based on a dequantization procedure for the quantized transform coefficients. The decoding hardware may extract residual samples based on the transform coefficients.

[342] Оборудование декодирования может формировать восстановленные выборки на основе (взаимных) прогнозных выборок и остаточных выборок и может извлекать восстановленный блок или восстановленный кадр на основе восстановленных выборок. Подробнее, оборудование декодирования может формировать восстановленные выборки на основе суммы (внутренних) прогнозных выборок и остаточных выборок. После этого, как описано выше, оборудование декодирования может применять процедуру внутриконтурной фильтрации, к примеру, процедуру фильтрации для удаления блочности и/или SAO, к восстановленному кадру, чтобы повышать субъективное/объективное качество кадров, при необходимости.[342] The decoding equipment may generate reconstructed samples based on the (mutual) predictive samples and residual samples, and may extract a reconstructed block or a reconstructed frame based on the reconstructed samples. More specifically, the decoding hardware may generate reconstructed samples based on the sum of (inner) predictive samples and residual samples. Thereafter, as described above, the decoding equipment may apply an in-loop filtering procedure, eg, a deblocking and/or SAO filtering procedure, to the reconstructed frame to improve the subjective/objective quality of the frames, if necessary.

[343] Например, оборудование декодирования может получать информацию изображений, включающую в себя все или часть вышеуказанной информации (или синтаксических элементов), посредством декодирования потока битов или кодированной информации. Помимо этого, информация потока битов или кодированная информация может сохраняться на компьютерно-читаемом носителе хранения данных и может инструктировать осуществление вышеуказанного способа декодирования.[343] For example, the decoding equipment can obtain image information including all or part of the above information (or syntax elements) by decoding the bit stream or encoded information. In addition, the bitstream information or encoded information may be stored in a computer-readable storage medium and may cause the above decoding method to be performed.

[344] В вышеуказанном варианте осуществления, способы описываются на основе блок-схемы последовательности операций способа, имеющей последовательность этапов или блоков. Настоящее раскрытие не ограничено порядком вышеуказанных этапов или блоков. Некоторые этапы или блоки могут возникать одновременно или в порядке, отличном от других этапов или блоков, как описано выше. Дополнительно, специалисты в данной области техники должны понимать, что этапы, показанные на вышеприведенной блок-схеме последовательности операций способа, не являются исчерпывающими, и другие этапы могут включаться, либо один или более этапов на блок-схеме последовательности операций способа могут удаляться без влияния на объем настоящего раскрытия.[344] In the above embodiment, the methods are described based on a flowchart having a sequence of steps or blocks. The present disclosure is not limited to the order of the above steps or blocks. Some steps or blocks may occur simultaneously or in a different order than other steps or blocks, as described above. Additionally, those skilled in the art should understand that the steps shown in the above flowchart are not exhaustive, and other steps may be included, or one or more steps in the flowchart may be removed without affecting scope of this disclosure.

[345] Способ согласно вышеуказанным вариантам осуществления настоящего раскрытия может реализовываться в программной форме, и оборудование кодирования и/или оборудование декодирования согласно настоящему раскрытию, например, может включаться в оборудование, которое выполняет обработку изображений, для телевизора, компьютера, смартфона, абонентской приставки, устройства отображения и т.д.[345] The method according to the above embodiments of the present disclosure may be implemented in software form, and the encoding equipment and/or decoding equipment according to the present disclosure, for example, may be included in equipment that performs image processing for a TV, computer, smartphone, set-top box, display devices, etc.

[346] Когда варианты осуществления в настоящем раскрытии реализуются в программном обеспечении, вышеуказанный способ может реализовываться как модуль (процесс, функция и т.д.), который выполняет вышеуказанную функцию. Модуль может сохраняться в запоминающем устройстве и выполняться посредством процессора. Запоминающее устройство может быть внутренним или внешним для процессора и может соединяться с процессором посредством различных известных средств. Процессор может включать в себя специализированную интегральную схему (ASIC), другие наборы микросхем, логические схемы и/или устройства обработки данных. Запоминающее устройство может включать в себя постоянное запоминающее устройство (ROM), оперативное запоминающее устройство (RAM), флэш-память, карты памяти, носители хранения данных и/или другие устройства хранения данных. Таким образом, варианты осуществления, описанные в настоящем раскрытии, могут выполняться посредством реализации на процессоре, микропроцессоре, контроллере или микросхеме. Например, функциональные модули, показанные на каждом чертеже, могут реализовываться и выполняться на компьютере, процессоре, микропроцессоре, контроллере или микросхеме. В этом случае, информация относительно инструкций или алгоритма для реализации может сохраняться в цифровом носителе хранения данных.[346] When the embodiments in the present disclosure are implemented in software, the above method may be implemented as a module (process, function, etc.) that performs the above function. The module may be stored in a storage device and executed by a processor. The storage device may be internal or external to the processor and may be connected to the processor through various known means. The processor may include an application specific integrated circuit (ASIC), other chipsets, logic circuits, and/or data processing devices. The storage device may include Read Only Memory (ROM), Random Access Memory (RAM), flash memory, memory cards, storage media, and/or other data storage devices. Thus, the embodiments described in this disclosure may be performed by implementation on a processor, microprocessor, controller, or chip. For example, the functional modules shown in each figure may be implemented and executed on a computer, processor, microprocessor, controller, or chip. In this case, information regarding the instructions or algorithm to be implemented may be stored in the digital storage medium.

[347] Помимо этого, оборудование декодирования и оборудование кодирования, к которому применяется настоящее раскрытие, могут включаться в мультимедийное широковещательное приемо-передающее оборудование, терминал мобильной связи, видеооборудование системы домашнего кинотеатра, видеооборудование системы цифрового кинотеатра, камеру наблюдения, оборудование проведения видеочатов, оборудование связи в реальном времени, к примеру, видеосвязи, мобильное оборудование потоковой передачи, носитель хранения данных, записывающую видеокамеру, оборудование предоставления VoD-услуг, видеооборудование поверх сетей (OTT), оборудование предоставления услуг потоковой передачи по Интернету, трехмерное видеооборудование, видеооборудование телеконференц-связи, транспортировочное абонентское устройство (т.е. абонентское устройство в транспортном средстве, абонентское устройство в самолете, абонентское устройство в морском судне и т.д.) и медицинское видеооборудование, и могут использоваться для того, чтобы обрабатывать видеосигналы и сигналы данных. Например, видеоборудование поверх сетей (OTT) может включать в себя игровую приставку, Blu-Ray-проигрыватель, телевизор с доступом в Интернет, систему домашнего кинотеатра, смартфон, планшетный PC, цифровое записывающее видеоустройство (DVR) и т.п.[347] In addition, the decoding equipment and encoding equipment to which this disclosure applies can be included in multimedia broadcast transceiver equipment, mobile communication terminal, home theater system video equipment, digital cinema system video equipment, surveillance camera, video chat equipment, real-time communications, such as video communications, mobile streaming equipment, storage media, video recording equipment, VoD service equipment, video equipment over networks (OTT), Internet streaming service equipment, 3D video equipment, video teleconferencing equipment , transport UE (i.e., UE in a vehicle, UE in an aircraft, UE in a ship, etc.) and medical video equipment, and can be used to process video and data signals. For example, video over network (OTT) equipment may include a game console, Blu-ray player, Internet access TV, home theater system, smartphone, tablet PC, digital video recorder (DVR), and the like.

[348] Дополнительно, способ обработки, к которому применяется настоящее раскрытие, может создаваться в форме программы, которая должна выполняться посредством компьютера, и может сохраняться на компьютерно-читаемом носителе записи. Мультимедийные данные, имеющие структуру данных согласно настоящему раскрытию, также могут сохраняться на компьютерно-читаемых носителях записи. Компьютерно-читаемые носители записи включают в себя все типы устройств хранения данных, на которых сохраняются данные, считываемые посредством компьютерной системы. Компьютерно-читаемые носители записи, например, могут включать в себя BD, универсальную последовательную шину (USB), ROM, PROM, EPROM, EEPROM, RAM, CD-ROM, магнитную ленту, гибкий диск и оптическое устройство хранения данных. Кроме того, компьютерно-читаемые носители записи включают в себя среды, реализованные в форме несущих волн (т.е. как передача через Интернет). Помимо этого, поток битов, сформированный посредством способа кодирования, может сохраняться на компьютерно-читаемом носителе записи или может передаваться по сетям проводной/беспроводной связи.[348] Additionally, the processing method to which the present disclosure applies may be created in the form of a program to be executed by a computer and may be stored in a computer-readable recording medium. Multimedia data having a data structure according to the present disclosure may also be stored on computer-readable recording media. Computer-readable recording media includes all types of data storage devices that store data readable by a computer system. Computer-readable recording media, for example, may include BD, Universal Serial Bus (USB), ROM, PROM, EPROM, EEPROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical storage. In addition, computer-readable recording media includes media implemented in the form of carrier waves (ie, as transmission over the Internet). In addition, the bit stream generated by the encoding method may be stored in a computer-readable recording medium, or may be transmitted over wired/wireless communication networks.

[349] Помимо этого, варианты осуществления настоящего раскрытия могут реализовываться с компьютерным программным продуктом согласно программным кодам, и программные коды могут выполняться в компьютере посредством вариантов осуществления настоящего раскрытия. Программные коды могут сохраняться на носителе, который может считываться посредством компьютера.[349] In addition, embodiments of the present disclosure may be implemented with a computer program product according to program codes, and the program codes may be executed on a computer through embodiments of the present disclosure. The program codes may be stored on a medium that can be read by a computer.

[350] Фиг. 17 показывает пример системы потоковой передачи контента, к которой могут применяться варианты осуществления, раскрытые в настоящем раскрытии.[350] FIG. 17 shows an example of a content streaming system to which the embodiments disclosed in the present disclosure may be applied.

[351] Ссылаясь на фиг. 17, система потоковой передачи контента, к которой применяется вариант(ы) осуществления настоящего раскрытия, может включать в себя, главным образом, сервер кодирования, потоковый сервер, веб-сервер, хранилище мультимедиа, пользовательское устройство и устройство ввода мультимедиа.[351] Referring to FIG. 17, the content streaming system to which the embodiment(s) of the present disclosure applies may mainly include an encoding server, a streaming server, a web server, a media storage, a user device, and a media input device.

[352] Сервер кодирования сжимает контент, вводимый из устройств ввода мультимедиа, таких как смартфон, камера, записывающая видеокамера и т.д., в цифровые данные, чтобы формировать поток битов и передавать поток битов в потоковый сервер. В качестве другого примера, когда устройства ввода мультимедиа, к примеру, смартфоны, камеры, записывающие видеокамеры и т.д. Чтобы непосредственно формировать поток битов, сервер кодирования может опускаться.[352] The encoding server compresses content input from media input devices such as a smartphone, a camera, a camcorder, etc. into digital data to form a bit stream and transmit the bit stream to the stream server. As another example, when media input devices such as smartphones, cameras, camcorders, etc. In order to generate the bitstream directly, the encoding server may be omitted.

[353] Поток битов может формироваться посредством способа кодирования или способа формирования потока битов, к которому применяется вариант(ы) осуществления настоящего раскрытия, и потоковый сервер может временно сохранять поток битов в процессе передачи или приема потока битов.[353] The bit stream may be generated by the encoding method or the bit stream generation method to which the embodiment(s) of the present disclosure applies, and the stream server may temporarily store the bit stream in the process of transmitting or receiving the bit stream.

[354] Потоковый сервер передает мультимедийные данные в пользовательское устройство на основе запроса пользователя через веб-сервер, и веб-сервер служит в качестве среды для информирования пользователя в отношении услуги. Когда пользователь запрашивает требуемую услугу из веб-сервера, веб-сервер доставляет ее на потоковый сервер, и потоковый сервер передает мультимедийные данные пользователю. В этом случае, система потоковой передачи контента может включать в себя отдельный сервер управления. В этом случае, сервер управления служит для того, чтобы управлять командой/ответом между устройствами в системе потоковой передачи контента.[354] The streaming server transmits media data to the user device based on the user's request through the web server, and the web server serves as a medium for informing the user about the service. When a user requests a desired service from a web server, the web server delivers it to the streaming server, and the streaming server transmits media data to the user. In this case, the content streaming system may include a separate control server. In this case, the control server serves to manage the command/response between devices in the content streaming system.

[355] Потоковый сервер может принимать контент из хранилища мультимедиа и/или сервера кодирования. Например, когда контент принимается из сервера кодирования, контент может приниматься в реальном времени. В этом случае, чтобы предоставлять плавную услугу потоковой передачи, потоковый сервер может сохранять поток битов в течение предварительно определенного времени.[355] The streaming server may receive content from a media store and/or an encoding server. For example, when content is received from an encoding server, the content may be received in real time. In this case, in order to provide a smooth streaming service, the streaming server may keep the bitstream for a predetermined time.

[356] Примеры пользовательского устройства могут включать в себя мобильный телефон, смартфон, переносной компьютер, цифровой широковещательный терминал, персональное цифровое устройство (PDA), портативный мультимедийный проигрыватель (PMP), навигационное устройство, грифельный планшетный PC, планшетные PC, ультрабуки, носимые устройства (например, интеллектуальные часы, интеллектуальные очки, наголовные дисплеи), цифровые телевизоры, настольные компьютеры, систему цифровых информационных табло и т.п. Каждый сервер в системе потоковой передачи контента может работать в качестве распределенного сервера, причем в этом случае данные, принимаемые из каждого сервера, могут распределяться.[356] Examples of a user device may include a mobile phone, smartphone, laptop computer, digital broadcast terminal, personal digital assistant (PDA), portable media player (PMP), navigation device, stylus tablet PC, tablet PCs, ultrabooks, wearable devices (e.g., smart watches, smart glasses, head-mounted displays), digital TVs, desktop computers, digital signage system, etc. Each server in the content streaming system may operate as a distributed server, in which case the data received from each server may be distributed.

[357] Каждый сервер в системе потоковой передачи контента может работать в качестве распределенного сервера, причем в этом случае данные, принимаемые из каждого сервера, могут распределяться.[357] Each server in the content streaming system may operate as a distributed server, in which case the data received from each server may be distributed.

[358] Формула изобретения, описанная в данном документе, может комбинироваться различными способами. Например, технические признаки формулы изобретения на способ настоящего раскрытия могут комбинироваться и реализовываться в качестве оборудования, и технические признаки формулы изобретения на оборудование настоящего раскрытия могут комбинироваться и реализовываться в качестве способа. Помимо этого, технические признаки пункта формулы изобретения на способ настоящего раскрытия и технические признаки пункта формулы изобретения на оборудование могут комбинироваться для реализации в качестве оборудования, и технические признаки пункта формулы изобретения на способ настоящего раскрытия и технические признаки пункта формулы изобретения на оборудование могут комбинироваться и реализовываться в качестве способа.[358] The claims described herein may be combined in various ways. For example, the technical features of the claims for the method of the present disclosure may be combined and implemented as an equipment, and the technical features of the claims for the equipment of the present disclosure may be combined and implemented as a method. In addition, the technical features of the method claim of the present disclosure and the technical features of the equipment claim can be combined to be implemented as equipment, and the technical features of the method claim of the present disclosure and the technical features of the equipment claim can be combined and implemented. as a way.

Claims (105)

1. Способ для декодирования изображений, осуществляемый посредством оборудования декодирования, при этом способ содержит этапы, на которых:1. A method for decoding images carried out by means of decoding equipment, the method comprising the steps of: - получают информацию изображений, включающую в себя связанную с прогнозированием информацию и остаточную информацию, через поток битов;obtaining image information including prediction-related information and residual information via a bitstream; - извлекают коэффициенты преобразования на основе остаточной информации;extracting the transform coefficients based on the residual information; - формируют остаточные выборки на основе коэффициентов преобразования;- form the residual samples based on the coefficients of the transformation; - формируют прогнозные выборки на основе связанной с прогнозированием информации; и- forming forecast samples on the basis of information related to forecasting; and - формируют восстановленные выборки на основе прогнозных выборок и остаточных выборок, причем восстановленные выборки включают в себя восстановленные выборки сигналов яркости и восстановленные выборки сигналов цветности;generating recovered samples based on the predictive samples and the residual samples, the recovered samples including recovered luminance samples and recovered chrominance samples; - извлекают коэффициенты адаптивного контурного фильтра (ALF) для ALF-процесса восстановленных выборок сигналов цветности;extracting adaptive loop filter (ALF) coefficients for the ALF process of the reconstructed chrominance samples; - формируют фильтрованные восстановленные выборки сигналов цветности на основе восстановленных выборок сигналов цветности и коэффициентов ALF-фильтра;- generating filtered reconstructed chrominance samples based on the reconstructed chrominance samples and ALF filter coefficients; - извлекают коэффициенты кросскомпонентного фильтра для кросскомпонентной фильтрации; и- extract the coefficients of the cross-component filter for cross-component filtering; and - формируют модифицированные фильтрованные восстановленные выборки сигналов цветности на основе восстановленных выборок сигналов яркости, фильтрованных восстановленных выборок сигналов цветности и коэффициентов кросскомпонентного фильтра,- generating modified filtered reconstructed chrominance samples based on reconstructed luminance samples, filtered reconstructed chrominance samples and cross-component filter coefficients, - при этом- wherein - информация изображений включает в себя набор (SPS) параметров последовательности и информацию заголовка среза,the image information includes sequence parameter set (SPS) and slice header information, - SPS включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF-процесс,- SPS includes an ALF activation flag related to whether the ALF process is activated or not, - на основе значения флага ALF-активации, равного 1, SPS включает в себя флаг активации кросскомпонентного адаптивного контурного фильтра (CCALF), связанный с тем, доступна или нет кросскомпонентная фильтрация,- based on the ALF activation flag value of 1, the SPS includes a cross-component adaptive loop filter (CCALF) activation flag related to whether or not cross-component filtering is available, - на основе определения того, что значение флага ALF-активации в SPS равно 1, информация заголовка среза включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF,- based on determining that the value of the ALF activation flag in the SPS is 1, the slice header information includes an ALF activation flag related to whether ALF is activated or not, - на основе определения того, что значение флага ALF-активации, включенного в информацию заголовка среза, равно 1 и значение флага CCALF-активации, включенного в SPS, равно 1, информация заголовка среза включает в себя информацию относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, и- based on determining that the value of the ALF activation flag included in the slice header information is 1 and the value of the CCALF activation flag included in the SPS is 1, the slice header information includes information as to whether or not CCALF is activated for filtered reconstructed chrominance samples, and - на основе значения информации относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, равного 1, информация заголовка среза включает в себя идентификационную информацию (ID) набора параметров адаптации (APS), ассоциированного с CCALF для фильтрованных восстановленных выборок сигналов цветности,- based on the value of information regarding whether or not CCALF for filtered chrominance reconstructed samples is enabled or not equal to 1, the slice header information includes identification information (ID) of an adaptation parameter set (APS) associated with CCALF for filtered chrominance reconstructed samples, - ALF-данные, включенные в APS, включают в себя информацию, связанную с числом кросскомпонентных фильтров для цветового Cb-компонента, и информацию, связанную с числом кросскомпонентных фильтров для Cr-компонента,- ALF data included in the APS includes information related to the number of cross-component filters for the Cb color component and information related to the number of cross-component filters for the Cr component, - на основе информации, связанной с числом кросскомпонентных фильтров для цветового Cb-компонента, ALF-данные включают в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента, и- based on information related to the number of cross-component filters for the Cb color component, the ALF data includes information on the absolute values of the cross-component filter coefficients for the Cb color component and information on the signs of the cross-component filter coefficients for the Cb color component, and - на основе информации, связанной с числом кросскомпонентных фильтров для цветового Cr-компонента, ALF-данные включают в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента.- based on information related to the number of cross-component filters for the chrominance Cr component, ALF data includes information regarding the absolute values of the cross-component filter coefficients for the chrominance Cr component and information regarding the signs of the cross-component filter coefficients for the chrominance Cr component. 2. Способ по п. 1, в котором на основе определения того, что значение флага CCALF-активации равно 1, информация заголовка среза включает в себя первый флаг, связанный с тем, активируется или нет CCALF для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и второй флаг, связанный с тем, активируется или нет CCALF для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности.2. The method of claim 1, wherein, based on determining that the value of the CCALF activation flag is 1, the slice header information includes a first flag related to whether or not CCALF is activated for the Cb color component of the filtered recovered signal samples. chrominance, and a second flag related to whether or not CCALF is enabled for the chrominance Cr component of the filtered recovered chrominance samples. 3. Способ по п. 2, в котором:3. The method according to claim 2, in which: - на основе значения первого флага, равного 1, информация заголовка среза включает в себя идентификационную информацию первого APS, включающую в себя первые ALF-данные, используемые для извлечения коэффициентов кросскомпонентного фильтра для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и- based on the value of the first flag equal to 1, the slice header information includes the first APS identification information including the first ALF data used to extract the cross-component filter coefficients for the Cb color component of the filtered recovered chrominance samples, and - на основе значения первого флага, равного 1, информация заголовка среза включает в себя идентификационную информацию второго APS, включающую в себя вторые ALF-данные, используемые для извлечения коэффициентов кросскомпонентного фильтра для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности.- based on the value of the first flag equal to 1, the slice header information includes the identification information of the second APS, including the second ALF data used to extract the coefficients of the cross-component filter for the color Cr component of the filtered reconstructed chrominance samples. 4. Способ по п. 1, в котором:4. The method according to claim 1, in which: - коэффициенты кросскомпонентного фильтра для цветового Cb-компонента извлекаются на основе информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента, и- the cross-component filter coefficients for the Cb color component are derived based on information regarding the absolute values of the cross-component filter coefficients for the Cb color component and information regarding the signs of the cross-component filter coefficients for the Cb color component, and - коэффициенты кросскомпонентного фильтра для цветового Cr-компонента извлекаются на основе информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента.The cross-component filter coefficients for the chrominance Cr component are derived based on information regarding the absolute values of the cross-component filter coefficients for the chrominance Cr component and information regarding the signs of the cross-component filter coefficients for the chrominance Cr component. 5. Способ по п. 1, в котором:5. The method according to claim 1, in which: - информация изображений включает в себя информацию относительно единицы дерева кодирования, и- the image information includes information regarding the unit of the coding tree, and - информация относительно единицы дерева кодирования включает в себя:- information regarding the coding tree unit includes: - информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-компонента; и- information as to whether or not a cross-component filter is applied to the current block of the Cb color component; and - информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cr-компонента.- information as to whether or not a cross-component filter is applied to the current Cr-color block. 6. Способ по п. 1, в котором:6. The method according to claim 1, in which: - информация изображений включает в себя информацию относительно единицы дерева кодирования, и- the image information includes information regarding the unit of the coding tree, and - информация относительно единицы дерева кодирования включает в себя:- information regarding the coding tree unit includes: - информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cb-компонента; и- information regarding the index of the filter bank for the cross-component filter applied to the current block of the Cb color component; and - информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cr-компонента.- information regarding the filter bank index for the cross-component filter applied to the current Cr-color block. 7. Способ кодирования изображений, осуществляемый посредством оборудования кодирования, при этом способ содержит этапы, на которых:7. An image encoding method carried out by means of encoding equipment, the method comprising the steps of: - извлекают прогнозные выборки для текущего блока;- extract predictive samples for the current block; - формируют связанную с прогнозированием информацию на основе прогнозных выборок;generating prediction-related information based on the prediction samples; - формируют остаточные выборки для текущего блока;- form residual samples for the current block; - извлекают коэффициенты преобразования на основе процесса преобразования для остаточных выборок;- extract the transformation coefficients based on the transformation process for the residual samples; - формируют остаточную информацию на основе коэффициентов преобразования;- form the residual information based on the conversion coefficients; - формируют восстановленные выборки на основе остаточных выборок и прогнозных выборок, причем восстановленные выборки включают в себя восстановленные выборки сигналов яркости и восстановленные выборки сигналов цветности;generating reconstructed samples based on residual samples and predictive samples, the reconstructed samples including reconstructed luma samples and reconstructed chrominance samples; - формируют информацию, связанную с адаптивным контурным фильтром (ALF), и информацию, связанную с кросскомпонентным ALF (CCALF), для восстановленных выборок; иgenerating adaptive loop filter (ALF) related information and cross-component ALF (CCALF) related information for the reconstructed samples; and - кодируют информацию изображений, включающую в себя остаточную информацию, связанную с прогнозированием информацию, связанную с ALF информацию и связанную с CCALF информацию,encoding image information including residual information, prediction-related information, ALF-related information, and CCALF-related information, - при этом- wherein - информация изображений включает в себя набор (SPS) параметров последовательности и информацию заголовка среза,- the image information includes sequence parameter set (SPS) and slice header information, - SPS включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF-процесс,- SPS includes an ALF activation flag related to whether the ALF process is activated or not, - на основе значения флага ALF-активации, равного 1, SPS включает в себя флаг CCALF-активации, связанный с тем, доступна или нет CCALF,- based on the ALF activation flag value of 1, the SPS includes a CCALF activation flag related to whether CCALF is available or not, - на основе определения того, что значение флага ALF-активации в SPS равно 1, информация заголовка среза включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF,- based on determining that the value of the ALF activation flag in the SPS is 1, the slice header information includes an ALF activation flag related to whether ALF is activated or not, - на основе определения того, что значение флага ALF-активации, включенного в информацию заголовка среза, равно 1 и значение флага CCALF-активации, включенного в SPS, равно 1, информация заголовка среза включает в себя информацию относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, и- based on determining that the value of the ALF activation flag included in the slice header information is 1 and the value of the CCALF activation flag included in the SPS is 1, the slice header information includes information as to whether or not CCALF is activated for filtered reconstructed chrominance samples, and - на основе значения информации относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, равного 1, информация заголовка среза включает в себя идентификационную информацию (ID) набора параметров адаптации (APS), ассоциированного с CCALF для фильтрованных восстановленных выборок сигналов цветности,- based on the value of information regarding whether or not CCALF for filtered chrominance reconstructed samples is enabled or not equal to 1, the slice header information includes identification information (ID) of an adaptation parameter set (APS) associated with CCALF for filtered chrominance reconstructed samples, - ALF-данные, включенные в APS, включают в себя информацию, связанную с числом кросскомпонентных фильтров для цветового Cb-компонента, и информацию, связанную с числом кросскомпонентных фильтров для Cr-компонента,- ALF data included in the APS includes information related to the number of cross-component filters for the Cb color component and information related to the number of cross-component filters for the Cr component, - на основе информации, связанной с числом кросскомпонентных фильтров для цветового Cb-компонента, ALF-данные включают в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента, и- based on information related to the number of cross-component filters for the Cb color component, the ALF data includes information on the absolute values of the cross-component filter coefficients for the Cb color component and information on the signs of the cross-component filter coefficients for the Cb color component, and - на основе информации, связанной с числом кросскомпонентных фильтров для цветового Cr-компонента, ALF-данные включают в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента.- based on information related to the number of cross-component filters for the chrominance Cr component, ALF data includes information regarding the absolute values of the cross-component filter coefficients for the chrominance Cr component and information regarding the signs of the cross-component filter coefficients for the chrominance Cr component. 8. Способ по п. 7, в котором на основе определения того, что значение флага CCALF-активации равно 1, информация заголовка среза включает в себя первый флаг, связанный с тем, активируется или нет CCALF для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и второй флаг, связанный с тем, активируется или нет CCALF для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности.8. The method of claim 7, wherein, based on determining that the value of the CCALF activation flag is 1, the slice header information includes a first flag related to whether or not CCALF is activated for the Cb color component of the filtered recovered signal samples. chroma, and a second flag related to whether or not CCALF is enabled for the chrominance Cr component of the filtered recovered chrominance samples. 9. Способ по п. 8, в котором:9. The method according to claim 8, in which: - на основе значения первого флага, равного 1, информация заголовка среза включает в себя идентификационную информацию первого APS, включающую в себя первые ALF-данные, используемые для извлечения коэффициентов кросскомпонентного фильтра для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и- based on the value of the first flag equal to 1, the slice header information includes the first APS identification information including the first ALF data used to extract the cross-component filter coefficients for the Cb color component of the filtered recovered chrominance samples, and - на основе значения второго флага, равного 1, информация заголовка среза включает в себя идентификационную информацию второго APS, включающую в себя вторые ALF-данные, используемые для извлечения коэффициентов кросскомпонентного фильтра для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности.- based on the value of the second flag equal to 1, the slice header information includes identification information of the second APS, including the second ALF data used to extract the coefficients of the cross-component filter for the color Cr component of the filtered reconstructed chrominance samples. 10. Способ по п. 9, в котором:10. The method according to claim 9, in which: - коэффициенты кросскомпонентного фильтра для цветового Cb-компонента извлекаются на основе информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента, и- the cross-component filter coefficients for the Cb color component are derived based on information regarding the absolute values of the cross-component filter coefficients for the Cb color component and information regarding the signs of the cross-component filter coefficients for the Cb color component, and - коэффициенты кросскомпонентного фильтра для цветового Cr-компонента извлекаются на основе информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента- the cross-component filter coefficients for the color Cr component are derived based on information regarding the absolute values of the coefficients of the cross-component filter for the color Cr component and information regarding the signs of the coefficients of the cross-component filter for the color Cr component 11. Способ по п. 7, в котором:11. The method according to claim 7, in which: - информация изображений включает в себя информацию относительно единицы дерева кодирования, и- the image information includes information regarding the unit of the coding tree, and - информация относительно единицы дерева кодирования включает в себя:- information regarding the coding tree unit includes: - информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-компонента; и- information as to whether or not a cross-component filter is applied to the current block of the Cb color component; and - информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cr-компонента.- information as to whether or not a cross-component filter is applied to the current Cr-color block. 12. Способ по п. 7, в котором:12. The method according to claim 7, in which: - информация изображений включает в себя информацию относительно единицы дерева кодирования, и- the image information includes information regarding the unit of the coding tree, and - информация относительно единицы дерева кодирования включает в себя:- information regarding the coding tree unit includes: - информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cb-компонента; и- information regarding the index of the filter bank for the cross-component filter applied to the current block of the Cb color component; and - информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cr-компонента.- information regarding the filter bank index for the cross-component filter applied to the current Cr-color block. 13. Энергонезависимый компьютерно-читаемый носитель хранения данных, сохраняющий поток битов, сформированный посредством способа кодирования изображений, при этом способ кодирования изображений содержит:13. A non-volatile computer-readable storage medium that stores a bit stream generated by an image encoding method, wherein the image encoding method comprises: - извлечение прогнозных выборок для текущего блока;- extraction of predictive samples for the current block; - формирование связанной с прогнозированием информации на основе прогнозных выборок;- formation of information related to forecasting based on forecast samples; - формирование остаточных выборок для текущего блока;- formation of residual samples for the current block; - извлечение коэффициентов преобразования на основе процесса преобразования для остаточных выборок;- extracting the transformation coefficients based on the transformation process for the residual samples; - формирование остаточной информации на основе коэффициентов преобразования;- formation of residual information based on the conversion coefficients; - формирование восстановленных выборок на основе остаточных выборок и прогнозных выборок, причем восстановленные выборки включают в себя восстановленные выборки сигналов яркости и восстановленные выборки сигналов цветности;- generating reconstructed samples based on residual samples and predictive samples, the reconstructed samples including reconstructed luma samples and reconstructed chrominance samples; - формирование информации, связанной с адаптивным контурным фильтром (ALF), и информации, связанной с кросскомпонентным ALF (CCALF), для восстановленных выборок; и- generation of adaptive loop filter (ALF) related information and cross-component ALF (CCALF) related information for the reconstructed samples; and - кодирование информации изображений, чтобы формировать поток битов, при этом информация изображений включает в себя остаточную информацию, связанную с прогнозированием информацию, связанную с ALF информацию и связанную с CCALF информацию,encoding image information to form a bit stream, wherein the image information includes residual information, prediction-related information, ALF-related information, and CCALF-related information, - при этом- wherein - информация изображений включает в себя набор параметров последовательности (SPS) и информацию заголовка среза,- the image information includes a sequence parameter set (SPS) and slice header information, - SPS включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF-процесс,- SPS includes an ALF activation flag related to whether the ALF process is activated or not, - на основе значения флага ALF-активации, равного 1, SPS включает в себя флаг CCALF-активации, связанный с тем, доступна или нет CCALF,- based on the ALF activation flag value of 1, the SPS includes a CCALF activation flag related to whether CCALF is available or not, - на основе определения того, что значение флага ALF-активации в SPS равно 1, информация заголовка среза включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF,- based on determining that the value of the ALF activation flag in the SPS is 1, the slice header information includes an ALF activation flag related to whether ALF is activated or not, - на основе определения того, что значение флага ALF-активации, включенного в информацию заголовка среза, равно 1, и значение флага CCALF-активации, включенного в SPS, равно 1, информация заголовка среза включает в себя информацию относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, и- based on determining that the value of the ALF activation flag included in the slice header information is 1 and the value of the CCALF activation flag included in the SPS is 1, the slice header information includes information as to whether or not CCALF is activated for the filtered reconstructed chrominance samples, and - на основе значения информации относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, равного 1, информация заголовка среза включает в себя идентификационную информацию (ID) набора параметров адаптации (APS), ассоциированного с CCALF для фильтрованных восстановленных выборок сигналов цветности,- based on the value of information regarding whether or not CCALF for filtered chrominance reconstructed samples is enabled or not equal to 1, the slice header information includes identification information (ID) of an adaptation parameter set (APS) associated with CCALF for filtered chrominance reconstructed samples, - ALF-данные, включенные в APS, включают в себя информацию, связанную с числом кросскомпонентных фильтров для цветового Cb-компонента, и информацию, связанную с числом кросскомпонентных фильтров для Cr-компонента,- ALF data included in the APS includes information related to the number of cross-component filters for the Cb color component and information related to the number of cross-component filters for the Cr component, - на основе информации, связанной с числом кросскомпонентных фильтров для цветового Cb-компонента, ALF-данные включают в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента, и- based on information related to the number of cross-component filters for the Cb color component, the ALF data includes information on the absolute values of the cross-component filter coefficients for the Cb color component and information on the signs of the cross-component filter coefficients for the Cb color component, and - на основе информации, связанной с числом кросскомпонентных фильтров для цветового Cr-компонента, ALF-данные включают в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента.- based on information related to the number of cross-component filters for the chrominance Cr component, ALF data includes information regarding the absolute values of the cross-component filter coefficients for the chrominance Cr component and information regarding the signs of the cross-component filter coefficients for the chrominance Cr component. 14. Способ передачи данных для изображения, при этом способ содержит этапы, на которых:14. A method for transmitting data for an image, the method comprising the steps of: - получают поток битов для изображения, при этом поток битов формируется на основе извлечения прогнозных выборок для текущего блока, формирования связанной с прогнозированием информации на основе прогнозных выборок, формирования остаточных выборок для текущего блока, извлечения коэффициентов преобразования на основе процесса преобразования для остаточных выборок, формирования остаточной информации на основе коэффициентов преобразования, формирования восстановленных выборок на основе остаточных выборок и прогнозных выборок, причем восстановленные выборки включают в себя восстановленные выборки сигналов яркости и восстановленные выборки сигналов цветности, формирования информации, связанной с адаптивным контурным фильтром (ALF), и информации, связанной с кросскомпонентным ALF (CCALF) для восстановленных выборок, и кодирования информации изображений, включающей в себя остаточную информацию, связанную с прогнозированием информацию, связанную с ALF информацию и связанную с CCALF информацию; и- get a bit stream for the image, wherein the bit stream is generated based on extracting the prediction samples for the current block, generating prediction related information based on the predictive samples, generating residual samples for the current block, extracting transform coefficients based on the transform process for the residual samples, generating residual information based on transform coefficients, generation of reconstructed samples based on residual samples and predictive samples, wherein the reconstructed samples include reconstructed luminance samples and reconstructed chrominance samples, generation of adaptive loop filter (ALF) related information, and information related to with cross-component ALF (CCALF) for recovered samples, and encoding image information including residual information, prediction-related information, ALF-related information, and CCALF-related information; and - передают данные, содержащие поток битов,- transmit data containing a stream of bits, - при этом- wherein - информация изображений включает в себя набор параметров последовательности (SPS) и информацию заголовка среза,- the image information includes a sequence parameter set (SPS) and slice header information, - SPS включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF-процесс,- SPS includes an ALF activation flag related to whether the ALF process is activated or not, - на основе значения флага ALF-активации, равного 1, SPS включает в себя флаг CCALF-активации, связанный с тем, доступна или нет CCALF,- based on the ALF activation flag value of 1, the SPS includes a CCALF activation flag related to whether CCALF is available or not, - на основе определения того, что значение флага ALF-активации в SPS равно 1, информация заголовка среза включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF,- based on determining that the value of the ALF activation flag in the SPS is 1, the slice header information includes an ALF activation flag related to whether ALF is activated or not, - на основе определения того, что значение флага ALF-активации, включенного в информацию заголовка среза, равно 1 и значение флага CCALF-активации, включенного в SPS, равно 1, информация заголовка среза включает в себя информацию относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, и- based on determining that the value of the ALF activation flag included in the slice header information is 1 and the value of the CCALF activation flag included in the SPS is 1, the slice header information includes information as to whether or not CCALF is activated for filtered reconstructed chrominance samples, and - на основе значения информации относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, равного 1, информация заголовка среза включает в себя идентификационную информацию (ID) набора параметров адаптации (APS), ассоциированного с CCALF для фильтрованных восстановленных выборок сигналов цветности,- based on the value of information regarding whether or not CCALF for filtered chrominance reconstructed samples is enabled or not equal to 1, the slice header information includes identification information (ID) of an adaptation parameter set (APS) associated with CCALF for filtered chrominance reconstructed samples, - ALF-данные, включенные в APS, включают в себя информацию, связанную с числом кросскомпонентных фильтров для цветового Cb-компонента, и информацию, связанную с числом кросскомпонентных фильтров для Cr-компонента,- ALF data included in the APS includes information related to the number of cross-component filters for the Cb color component and information related to the number of cross-component filters for the Cr component, - на основе информации, связанной с числом кросскомпонентных фильтров для цветового Cb-компонента, ALF-данные включают в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента, и- based on information related to the number of cross-component filters for the Cb color component, the ALF data includes information on the absolute values of the cross-component filter coefficients for the Cb color component and information on the signs of the cross-component filter coefficients for the Cb color component, and - на основе информации, связанной с числом кросскомпонентных фильтров для цветового Cr-компонента, ALF-данные включают в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента.- based on information related to the number of cross-component filters for the chrominance Cr component, ALF data includes information regarding the absolute values of the cross-component filter coefficients for the chrominance Cr component and information regarding the signs of the cross-component filter coefficients for the chrominance Cr component.
RU2022108032A 2019-08-29 2020-08-31 Equipment and method for image encoding RU2785998C1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US62/893,757 2019-08-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
RU2022132119A Division RU2807256C2 (en) 2019-08-29 2020-08-31 Method and equipment for image encoding

Publications (1)

Publication Number Publication Date
RU2785998C1 true RU2785998C1 (en) 2022-12-15

Family

ID=

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012142966A1 (en) * 2011-04-21 2012-10-26 Mediatek Inc. Method and apparatus for improved in-loop filtering
KR20180039052A (en) * 2015-07-08 2018-04-17 브이아이디 스케일, 인크. Enhanced chroma coding using cross-plane filtering
US10045026B2 (en) * 2011-03-03 2018-08-07 Intellectual Discovery Co., Ltd. Method for determining color difference component quantization parameter and device using the method
US10057574B2 (en) * 2015-02-11 2018-08-21 Qualcomm Incorporated Coding tree unit (CTU) level adaptive loop filter (ALF)
RU2683165C1 (en) * 2014-01-17 2019-03-26 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
KR20190083948A (en) * 2018-01-05 2019-07-15 에스케이텔레콤 주식회사 Method and Apparatus for Video Encoding or Decoding

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10045026B2 (en) * 2011-03-03 2018-08-07 Intellectual Discovery Co., Ltd. Method for determining color difference component quantization parameter and device using the method
WO2012142966A1 (en) * 2011-04-21 2012-10-26 Mediatek Inc. Method and apparatus for improved in-loop filtering
RU2683165C1 (en) * 2014-01-17 2019-03-26 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
US10057574B2 (en) * 2015-02-11 2018-08-21 Qualcomm Incorporated Coding tree unit (CTU) level adaptive loop filter (ALF)
KR20180039052A (en) * 2015-07-08 2018-04-17 브이아이디 스케일, 인크. Enhanced chroma coding using cross-plane filtering
KR20190083948A (en) * 2018-01-05 2019-07-15 에스케이텔레콤 주식회사 Method and Apparatus for Video Encoding or Decoding

Similar Documents

Publication Publication Date Title
US11496734B2 (en) Cross component filtering-based image coding apparatus and method
EP3700216B1 (en) Affine motion prediction-based image coding using affine mvp candidate list
AU2020335843B2 (en) Apparatus and method for coding image
EP4024858A1 (en) Cross-component adaptive loop filtering-based image coding apparatus and method
KR20220041897A (en) In-loop filtering-based video coding apparatus and method
AU2020337710B2 (en) Apparatus and method for image coding based on filtering
JP7375196B2 (en) Image coding device and method based on filtering
JP7383816B2 (en) Image coding device and method for controlling loop filtering
US20220201338A1 (en) Adaptive loop filtering-based image coding apparatus and method
KR20220100018A (en) Filtering-based video coding apparatus and method
KR20220100700A (en) Subpicture-based video coding apparatus and method
RU2785998C1 (en) Equipment and method for image encoding
KR20220097997A (en) Video coding apparatus and method for controlling loop filtering
KR20220097996A (en) Signaling-based video coding apparatus and method of information for filtering
RU2807256C2 (en) Method and equipment for image encoding
RU2787884C1 (en) Equipment and method for image coding based on filtering
RU2806728C2 (en) Equipment and method for image coding based on filtering
RU2789454C2 (en) Video or image encoding based on in-block coding
RU2774673C1 (en) Video or image encoding based on in-block coding
RU2783334C1 (en) Video or image encoding based on the conversion of a brightness signal with scaling of a chromaticity signal
RU2800595C1 (en) Image/video coding method and equipment
KR20220100048A (en) Virtual boundary-based image coding apparatus and method
KR20220100047A (en) Filtering-based video coding apparatus and method
KR20220100701A (en) Video coding apparatus and method
KR20220100702A (en) Picture segmentation-based video coding apparatus and method