RU2787884C1 - Equipment and method for image coding based on filtering - Google Patents

Equipment and method for image coding based on filtering Download PDF

Info

Publication number
RU2787884C1
RU2787884C1 RU2022108053A RU2022108053A RU2787884C1 RU 2787884 C1 RU2787884 C1 RU 2787884C1 RU 2022108053 A RU2022108053 A RU 2022108053A RU 2022108053 A RU2022108053 A RU 2022108053A RU 2787884 C1 RU2787884 C1 RU 2787884C1
Authority
RU
Russia
Prior art keywords
information
component
alf
samples
cross
Prior art date
Application number
RU2022108053A
Other languages
Russian (ru)
Inventor
Дзангвон ЧОЙ
Дзунгхак НАМ
Original Assignee
ЭлДжи ЭЛЕКТРОНИКС ИНК.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ЭлДжи ЭЛЕКТРОНИКС ИНК. filed Critical ЭлДжи ЭЛЕКТРОНИКС ИНК.
Application granted granted Critical
Publication of RU2787884C1 publication Critical patent/RU2787884C1/en

Links

Images

Abstract

FIELD: images encoding.
SUBSTANCE: invention relates to means for encoding images. Image information including residual information is obtained via a bitstream. Reconstructed luminance signal samples and restored chrominance signal samples are generated based on the residual information. The adaptive loop filtering (ALF) coefficients are extracted for the ALF process of the reconstructed chrominance samples. Filtered reconstructed chrominance signal samples are formed based on the reconstructed chrominance signal samples and ALF filter coefficients. Cross-component filter coefficients are then extracted for cross-component filtering. Modified filtered reconstructed samples of chrominance signals are formed based on the restored samples of luminance signals, filtered restored samples of chrominance signals and coefficients of the cross-component filter. The image information includes a sequence parameter set (SPS) and slice header information. The SPS includes an ALF activation flag related to whether the ALF process is activated or not.
EFFECT: improving encoding efficiency.
17 cl, 17 dwg, 30 tbl

Description

Уровень техникиState of the art

Область техники, к которой относится изобретениеThe technical field to which the invention belongs

[1] Настоящее раскрытие сущности относится к оборудованию и способу для кодирования изображений на основе фильтрации.[1] The present disclosure relates to equipment and a method for encoding images based on filtering.

Описание предшествующего уровня техникиDescription of the prior art

[2] В последнее время, спрос на высококачественное изображение/видео высокого разрешения, к примеру, изображение/видео сверхвысокой четкости (UHD) формата 4K или 8K либо выше, растет в различных областях техники. Поскольку данные изображений/видео имеют высокое разрешение и высокое качество, объем информации или битов, который должен передаваться, увеличивается относительно существующих данных изображений/видео, и в силу этого, передача данных изображений с использованием носителя, такого как существующая проводная/беспроводная широкополосная линия или существующий носитель хранения данных, либо сохранение данных изображений/видео с использованием существующего носителя хранения данных увеличивает затраты на передачу и затраты на хранение.[2] Recently, the demand for high-quality high-definition image/video, such as 4K or 8K ultra-high definition (UHD) image/video or higher, is growing in various fields of technology. Since the image/video data has high resolution and high quality, the amount of information or bits to be transmitted increases with respect to the existing image/video data, and therefore, the transmission of image data using a medium such as an existing wired/wireless broadband line or an existing storage medium or storing image/video data using an existing storage medium increases transmission costs and storage costs.

[3] Помимо этого, интерес и спрос на иммерсивное мультимедиа, такое как контент виртуальной реальности (VR) и искусственной реальности (AR) или голограммы, в последнее время растет, и широковещательная передача для изображения/видео, имеющего характеристики, отличающиеся от изображений реальности, таких как игровые изображения, увеличивается.[3] In addition, the interest and demand for immersive media such as virtual reality (VR) and artificial reality (AR) content or holograms is growing recently, and broadcasting for an image/video having characteristics different from reality images , such as game images, is enlarged.

[4] Соответственно, требуется технология высокоэффективного сжатия изображений/видео, чтобы эффективно сжимать, передавать, сохранять и воспроизводить информацию высококачественного изображения/видео высокого разрешения, имеющего различные характеристики, как описано выше.[4] Accordingly, a high-performance image/video compression technology is required to efficiently compress, transmit, store, and reproduce high-quality, high-resolution image/video information having various characteristics as described above.

Сущность изобретенияThe essence of the invention

[5] Настоящее раскрытие сущности предоставляет способ и оборудование для повышения эффективности кодирования изображений/видео.[5] The present disclosure provides a method and equipment for improving image/video coding efficiency.

[6] Настоящее раскрытие сущности также предоставляет способ и оборудование для эффективного применения фильтрации.[6] The present disclosure also provides a method and equipment for effectively applying filtering.

[7] Настоящее раскрытие сущности также предоставляет способ и оборудование для эффективного ALF-применения.[7] The present disclosure also provides a method and equipment for efficient ALF application.

[8] Согласно варианту осуществления настоящего раскрытия сущности, процесс фильтрации может выполняться для восстановленных выборок сигналов цветности на основе восстановленных выборок сигналов яркости.[8] According to an embodiment of the present disclosure, a filtering process may be performed on the recovered chrominance samples based on the recovered luminance samples.

[9] Согласно варианту осуществления настоящего раскрытия сущности, фильтрованные восстановленные выборки сигналов цветности могут модифицироваться на основе восстановленных выборок сигналов яркости.[9] According to an embodiment of the present disclosure, the filtered reconstructed chrominance samples may be modified based on the reconstructed luma samples.

[10] Согласно варианту осуществления настоящего раскрытия сущности, информация относительно того, доступна или нет CCALF, может передаваться в служебных сигналах в SPS.[10] According to an embodiment of the present disclosure, information regarding whether CCALF is available or not may be signaled in the SPS.

[11] Согласно варианту осуществления настоящего раскрытия сущности, информация относительно значений коэффициентов кросскомпонентного фильтра может извлекаться из ALF-данных (нормальных ALF-данных или CCALF-данных).[11] According to an embodiment of the present disclosure, information regarding cross-component filter coefficient values may be extracted from ALF data (normal ALF data or CCALF data).

[12] Согласно варианту осуществления настоящего раскрытия сущности, идентификационная информация APS, включающая в себя ALF-данные для извлечения коэффициентов кросскомпонентного фильтра в срезе, может передаваться в служебных сигналах.[12] According to an embodiment of the present disclosure, APS identification information including ALF data for extracting slice cross-component filter coefficients may be signaled.

[13] Согласно варианту осуществления настоящего раскрытия сущности, информация относительно индекса набора фильтров для CCALF может передаваться в служебных сигналах в единицах CTU (блоков).[13] According to an embodiment of the present disclosure, information regarding the filter bank index for CCALF may be signaled in units of CTUs (blocks).

[14] Согласно варианту осуществления настоящего документа, предоставляется способ декодирования видео/изображений, осуществляемый посредством оборудования декодирования.[14] According to an embodiment of the present document, a video/image decoding method by means of decoding equipment is provided.

[15] Согласно варианту осуществления настоящего документа, предоставляется оборудование декодирования для выполнения декодирования видео/изображений.[15] According to an embodiment of the present document, decoding equipment is provided to perform video/image decoding.

[16] Согласно варианту осуществления настоящего документа, предоставляется способ кодирования видео/изображений, осуществляемый посредством оборудования кодирования.[16] According to an embodiment of the present document, a video/image encoding method is provided by encoding equipment.

[17] Согласно варианту осуществления настоящего документа, предоставляется оборудование кодирования для выполнения кодирования видео/изображений.[17] According to an embodiment of the present document, encoding equipment is provided to perform video/image encoding.

[18] Согласно одному варианту осуществления настоящего документа, предоставляется компьютерно-читаемый цифровой носитель хранения данных, на котором сохраняется кодированная информация видео/изображений, сформированная согласно способу кодирования видео/изображений, раскрытому, по меньшей мере, в одном из вариантов осуществления настоящего документа.[18] According to one embodiment of the present document, a computer-readable digital storage medium is provided on which encoded video/image information generated according to the video/image coding method disclosed in at least one embodiment of the present document is stored.

[19] Согласно варианту осуществления настоящего документа, предоставляется компьютерно-читаемый цифровой носитель хранения данных, на котором сохраняется кодированная информация или кодированная информация видео/изображений, инструктирующая оборудованию декодирования осуществлять способ декодирования видео/изображений, раскрытый, по меньшей мере, в одном из вариантов осуществления настоящего документа.[19] According to an embodiment of the present document, a computer-readable digital storage medium is provided that stores encoded information or encoded video/image information instructing decoding equipment to perform the video/image decoding method disclosed in at least one embodiment. implementation of this document.

Преимущества изобретенияBenefits of the Invention

[20] Согласно варианту осуществления настоящего документа, может повышаться полная эффективность сжатия изображений/видео.[20] According to an embodiment of the present document, the overall image/video compression efficiency can be improved.

[21] Согласно варианту осуществления настоящего документа, субъективное/объективное визуальное качество может повышаться посредством эффективной фильтрации.[21] According to an embodiment of the present document, subjective/objective visual quality can be improved by efficient filtering.

[22] Согласно варианту осуществления настоящего раскрытия сущности, ALF-процесс может эффективно выполняться, и может повышаться производительность фильтрации.[22] According to an embodiment of the present disclosure, the ALF process can be efficiently performed and filtering performance can be improved.

[23] Согласно варианту осуществления настоящего раскрытия сущности, восстановленные выборки сигналов цветности, фильтрованные на основе восстановленных выборок сигналов яркости, могут модифицироваться, чтобы повышать качество кадров и точность кодирования компонента сигналов цветности декодированного кадра.[23] According to an embodiment of the present disclosure, the reconstructed chrominance samples filtered based on the reconstructed luminance samples may be modified to improve the frame quality and coding fidelity of the chrominance component of a decoded frame.

[24] Согласно варианту осуществления настоящего раскрытия сущности, CCALF-процесс может эффективно выполняться.[24] According to an embodiment of the present disclosure, the CCALF process can be efficiently performed.

[25] Согласно варианту осуществления настоящего раскрытия сущности, связанная с ALF информация может эффективно передаваться в служебных сигналах.[25] According to an embodiment of the present disclosure, ALF related information can be efficiently signaled.

[26] Согласно варианту осуществления настоящего раскрытия сущности, связанная с CCALF информация может эффективно передаваться в служебных сигналах.[26] According to an embodiment of the present disclosure, CCALF related information can be efficiently signaled.

[27] Согласно варианту осуществления настоящего раскрытия сущности, ALF и/или CCALF могут адаптивно применяться в единицах кадров, срезов и/или блоков кодирования.[27] According to an embodiment of the present disclosure, ALF and/or CCALF may be adaptively applied in units of frames, slices, and/or coding units.

[28] Согласно варианту осуществления настоящего документа, когда CCALF используется в способе и оборудовании кодирования и декодирования для неподвижного изображения или видео, коэффициенты фильтра для CCALF и способ передачи включения-выключения в единице блоков или CTU могут улучшаться, в силу этого повышая эффективность кодирования.[28] According to an embodiment of the present document, when CCALF is used in a method and equipment for encoding and decoding for a still picture or video, the filter coefficients for CCALF and the on-off transmission method in a unit of blocks or CTU can be improved, thereby improving coding efficiency.

Краткое описание чертежейBrief description of the drawings

[29] Фиг. 1 схематично показывает пример системы кодирования видео/изображений, которая может применяться к вариантам осуществления настоящего раскрытия сущности.[29] FIG. 1 schematically shows an example of a video/image coding system that may be applied to embodiments of the present disclosure.

[30] Фиг. 2 является схемой, принципиально иллюстрирующей конфигурацию оборудования кодирования видео/изображений, которое может применяться к вариантам осуществления настоящего документа.[30] FIG. 2 is a diagram principally illustrating the configuration of video/image coding equipment that may be applied to embodiments of the present document.

[31] Фиг. 3 является схемой, принципиально иллюстрирующей конфигурацию оборудования декодирования видео/изображений, которое может применяться к вариантам осуществления настоящего документа.[31] FIG. 3 is a diagram principally illustrating the configuration of video/image decoding equipment that may be applied to the embodiments of the present document.

[32] Фиг. 4 примерно показывает иерархическую структуру для кодированного изображения/видео.[32] FIG. 4 roughly shows the hierarchical structure for an encoded picture/video.

[33] Фиг. 5 является блок-схемой последовательности операций, иллюстрирующей способ для восстановления блока на основе внутреннего прогнозирования в оборудовании кодирования.[33] FIG. 5 is a flowchart illustrating a method for block recovery based on intra prediction in the encoding equipment.

[34] Фиг. 6 является блок-схемой последовательности операций, иллюстрирующей способ восстановления блоков на основе внутреннего прогнозирования в оборудовании декодирования.[34] FIG. 6 is a flowchart illustrating a block recovery method based on intra prediction in decoding equipment.

[35] Фиг. 7 является блок-схемой последовательности операций, иллюстрирующей способ восстановления блоков на основе взаимного прогнозирования в оборудовании кодирования.[35] FIG. 7 is a flowchart illustrating a block recovery method based on inter prediction in coding equipment.

[36] Фиг. 8 является блок-схемой последовательности операций, иллюстрирующей способ восстановления блоков на основе взаимного прогнозирования в оборудовании декодирования.[36] FIG. 8 is a flowchart illustrating a block recovery method based on inter prediction in decoding equipment.

[37] Фиг. 9 показывает пример формы ALF-фильтра.[37] FIG. 9 shows an example of an ALF filter shape.

[38] Фиг. 10 является схемой, иллюстрирующей виртуальную границу, применяемую к процессу фильтрации согласно варианту осуществления настоящего документа.[38] FIG. 10 is a diagram illustrating a virtual boundary applied to a filtering process according to an embodiment of the present document.

[39] Фиг. 11 иллюстрирует пример ALF-процесса с использованием виртуальной границы согласно варианту осуществления настоящего раскрытия сущности.[39] FIG. 11 illustrates an example of an ALF process using a virtual boundary according to an embodiment of the present disclosure.

[40] Фиг. 12 является схемой, иллюстрирующей процесс кросскомпонентной адаптивной контурной фильтрации (CCALF) согласно варианту осуществления настоящего раскрытия сущности.[40] FIG. 12 is a diagram illustrating a cross-component adaptive loop filtering (CCALF) process according to an embodiment of the present disclosure.

[41] Фиг. 13 и 14 схематично показывают пример способа кодирования видео/изображений и связанных компонентов согласно варианту(ам) осуществления настоящего раскрытия сущности.[41] FIG. 13 and 14 schematically show an example of a video/image coding method and related components according to the embodiment(s) of the present disclosure.

[42] Фиг. 15 и 16 схематично показывают пример способа декодирования изображений/видео и связанных компонентов согласно варианту(ам) осуществления настоящего раскрытия сущности.[42] FIG. 15 and 16 schematically show an example of a method for decoding images/videos and related components according to embodiment(s) of the present disclosure.

[43] Фиг. 17 показывает пример системы потоковой передачи контента, к которой могут применяться варианты осуществления, раскрытые в настоящем раскрытии сущности.[43] FIG. 17 shows an example of a content streaming system to which the embodiments disclosed in the present disclosure may apply.

Подробное описание вариантов осуществленияDetailed description of embodiments

[44] Настоящий документ может модифицироваться в различных формах, и его конкретные варианты осуществления описываются и показываются на чертежах. Тем не менее, варианты осуществления не имеют намерение для ограничения настоящего документа. Термины, используемые в нижеприведенном описании, используются для того, чтобы просто описывать конкретные варианты осуществления, но не имеют намерение ограничивать настоящий документ. Выражение единственного числа включает в себя выражение множественного числа до этих пор, до тех пор, пока они четко трактуются по-разному. Такие термины, как "включать в себя" и "иметь", предназначены для того, чтобы указывать то, что существуют признаки, числа, этапы, операции, элементы, компоненты либо комбинации вышеозначенного, используемые в нижеприведенном описании, и в силу этого следует понимать, что не исключается возможность наличия или добавления одного или более других признаков, чисел, этапов, операций, элементов, компонентов либо комбинаций вышеозначенного.[44] This document may be modified in various forms, and its specific embodiments are described and shown in the drawings. However, the embodiments are not intended to limit the present document. The terms used in the description below are used to simply describe specific embodiments, but are not intended to limit the present document. The expression of the singular includes the expression of the plural as long as they are clearly treated differently. Terms such as "include" and "have" are intended to indicate that there are features, numbers, steps, operations, elements, components, or combinations of the foregoing used in the description below, and as such should be understood , which does not exclude the possibility of the presence or addition of one or more other features, numbers, steps, operations, elements, components, or combinations of the above.

[45] Между тем, каждая конфигурация на чертежах, описанная в настоящем документе, показывается независимо для удобства описания относительно различных характеристических функций и не означает, что каждая конфигурация реализуется как отдельные аппаратные средства или отдельное программное обеспечение. Например, два или более компонентов для каждого компонента могут комбинироваться, чтобы формировать один компонент, либо один компонент может разделяться на множество компонентов. Варианты осуществления, в которых каждый компонент интегрируется и/или отделяется, также включаются в объем документа настоящего документа.[45] Meanwhile, each configuration in the drawings described herein is shown independently for convenience of description with respect to various characteristic functions, and does not mean that each configuration is implemented as separate hardware or separate software. For example, two or more components for each component may be combined to form one component, or one component may be split into multiple components. Embodiments in which each component is integrated and/or separated are also included within the scope of this document.

[46] В дальнейшем в этом документе подробно описываются примеры настоящего варианта осуществления со ссылкой на прилагаемые чертежи. Помимо этого, аналогичные ссылки с номерами используются для того, чтобы указывать аналогичные элементы на всех чертежах, и идентичные описания аналогичных элементов опускаются.[46] Hereinafter, examples of the present embodiment are described in detail with reference to the accompanying drawings. In addition, like reference numerals are used to refer to like elements throughout the drawings, and like descriptions of like elements are omitted.

[47] Настоящий документ связан с кодированием видео/изображений. Например, способ/вариант осуществления, раскрытый в настоящем раскрытии сущности, представляет собой стандарт универсального кодирования видео (VVC) (ITU-T-рекомендация H.266), стандарт кодирования видео/изображений следующего поколения после VVC либо другие связанные с кодированием видео стандарты (например, он может относиться к стандарту высокоэффективного кодирования видео (HEVC) (ITU-T-рекомендация H.265), к стандарту фундаментального кодирования видео (EVC), к AVS2-стандарту и т.д.).[47] This document is related to video/image coding. For example, the method/embodiment disclosed in this disclosure is the Universal Video Coding (VVC) standard (ITU-T Recommendation H.266), the next generation video/image coding standard after VVC, or other video coding-related standards ( for example, it may refer to the High Efficiency Video Coding (HEVC) standard (ITU-T Recommendation H.265), the Fundamental Video Coding (EVC) standard, the AVS2 standard, etc.).

[48] Настоящее раскрытие сущности представляет различные варианты осуществления, связанные с кодированием видео/изображений, и если не указано иное, варианты осуществления могут комбинироваться между собой.[48] The present disclosure presents various embodiments related to video/image coding, and unless otherwise indicated, the embodiments may be combined with each other.

[49] В настоящем раскрытии сущности, видео может означать набор последовательности изображений согласно прохождению времени. Кадр, в общем, означает единицу, представляющую одно изображение в конкретный период времени, и срез/плитка представляет собой единицу, составляющую часть кадра при кодировании. Срез/плитка может включать в себя одну или более единиц дерева кодирования (CTU). Один кадр может состоять из одного или более срезов/плиток. Один кадр может включать в себя одну или несколько групп плиток. Одна группа плиток может включать в себя одну или более плиток.[49] In the present disclosure, video may mean a set of sequences of images according to the passage of time. A frame generally means a unit representing one image in a particular time period, and a slice/tile is a unit constituting a frame when encoded. A slice/tile may include one or more coding tree units (CTUs). One frame may consist of one or more slices/tiles. One frame can include one or more groups of tiles. One group of tiles may include one or more tiles.

[50] Пиксел или пел может означать наименьшую единицу, составляющую один кадр (или изображение). Кроме того, "выборка" может использоваться в качестве термина, соответствующего пикселу. Выборка, в общем, может представлять пиксел или значение пиксела и может представлять только пиксел/пиксельное значение компонента сигналов яркости либо только пиксел/пиксельное значение компонента сигналов цветности. Альтернативно, выборка может означать пиксельное значение в пространственной области, и когда такое пиксельное значение преобразуется в частотную область, это может означать коэффициент преобразования в частотной области.[50] A pixel or pel can mean the smallest unit that makes up one frame (or image). In addition, "sample" can be used as a term corresponding to a pixel. A sample can generally represent a pixel or a pixel value, and can only represent a luminance component pixel/pixel value, or only a chrominance component pixel/pixel value. Alternatively, the sample may mean a pixel value in the spatial domain, and when such a pixel value is converted to the frequency domain, it can mean a transform factor in the frequency domain.

[51] Единица может представлять базовую единицу обработки изображений. Единица может включать в себя, по меньшей мере, одно из конкретной области кадра и информации, связанной с областью. Одна единица может включать в себя один блок сигналов яркости и два блока сигналов цветности (например, Cb, Cr). Единица может использоваться взаимозаменяемо с такими терминами, как блок или зона в некоторых случаях. В общем случае, блок MxN может включать в себя выборки (или массивы выборок) либо набор (или массив) коэффициентов преобразования из M столбцов и N строк. Альтернативно, выборка может означать пиксельное значение в пространственной области и когда такое пиксельное значение преобразуется в частотную область, это может означать коэффициент преобразования в частотной области.[51] The unit may represent a basic image processing unit. The unit may include at least one of a specific area of the frame and information associated with the area. One unit may include one luminance block and two chrominance blocks (eg, Cb, Cr). The unit can be used interchangeably with terms such as block or zone in some cases. In general, an MxN block may include samples (or arrays of samples) or a set (or array) of transform coefficients of M columns and N rows. Alternatively, the sample may mean a pixel value in the spatial domain, and when such a pixel value is converted to the frequency domain, it can mean a transform factor in the frequency domain.

[52] В настоящем раскрытии сущности, термин "/" и "," должен интерпретироваться как указывающий "и/или". Например, выражение "A/B" может означать "A и/или B". Дополнительно, "A, B" может означать "A и/или B". Дополнительно, "A/B/C" может означать "по меньшей мере, одно из A, B и/или C". Кроме того, "A/B/C" может означать "по меньшей мере, одно из A, B и/или C".[52] In the present disclosure, the terms "/" and "," are to be interpreted as indicating "and/or". For example, the expression "A/B" can mean "A and/or B". Additionally, "A, B" may mean "A and/or B". Additionally, "A/B/C" may mean "at least one of A, B and/or C". In addition, "A/B/C" may mean "at least one of A, B and/or C".

[53] Дополнительно, в документе, термин "или" должен интерпретироваться как указывающий "и/или". Например, выражение "A или B" может содержать 1) только A, 2) только B и/или 3) как A, так и B. Другими словами, термин "или" в настоящем раскрытии сущности должен интерпретироваться как указывающий "дополнительно или альтернативно".[53] Additionally, in the document, the term "or" should be interpreted as indicating "and/or". For example, the expression "A or B" may contain 1) only A, 2) only B, and/or 3) both A and B. In other words, the term "or" in this disclosure is to be interpreted as indicating "in addition or alternatively ".

[54] При использовании в данном документе, "по меньшей мере, одно из A и B" может означать "только A", "только B" или "как A, так и B". Помимо этого, в этом описании изобретения, выражение "по меньшей мере, одно из A или B" или "по меньшей мере, одно из A и/или B" означает "по меньшей мере, одно". Оно может интерпретироваться идентично с "по меньшей мере, одно из A и B".[54] As used herein, "at least one of A and B" can mean "A only", "B only", or "both A and B". In addition, in this specification, the expression "at least one of A or B" or "at least one of A and/or B" means "at least one". It can be interpreted identically to "at least one of A and B".

[55] Кроме того, при использовании в данном документе, "по меньшей мере, одно из A, B и C" означает "только A", "только B", "только C" или "A, B и C", "любую комбинацию A, B и C". Кроме того, "по меньшей мере, одно из A, B или C" или "по меньшей мере, одно из A, B и/или C" может означать "по меньшей мере, одно из A, B и C".[55] In addition, as used herein, "at least one of A, B, and C" means "A only", "B only", "C only" or "A, B and C", " any combination of A, B and C". In addition, "at least one of A, B or C" or "at least one of A, B and/or C" can mean "at least one of A, B and C".

[56] Помимо этого, круглые скобки, используемые в данном документе, могут означать "например". В частности, когда "прогнозирование (внутреннее прогнозирование)" указывается, "внутреннее прогнозирование" может предлагаться в качестве примера "прогнозирования". Другими словами, "прогнозирование" в настоящем описании изобретения не ограничено "внутренним прогнозированием", и "внутреннее прогнозирование" может предлагаться в качестве примера "прогнозирования". Кроме того, даже когда "прогнозирование (т.е. внутреннее прогнозирование)" указывается, "внутреннее прогнозирование" может предлагаться в качестве примера "прогнозирования".[56] In addition, parentheses used herein may mean "for example". In particular, when "prediction (internal prediction)" is indicated, "internal prediction" may be suggested as an example of "prediction". In other words, "prediction" in the present specification is not limited to "intra prediction", and "intra prediction" can be suggested as an example of "prediction". In addition, even when "prediction (ie, intra prediction)" is indicated, "intra prediction" may be suggested as an example of "prediction".

[57] В этом описании изобретения, технические признаки, которые отдельно описываются в рамках одного чертежа, могут реализовываться отдельно или одновременно.[57] In this specification, technical features that are separately described within the same drawing may be implemented separately or simultaneously.

[58] Фиг. 1 иллюстрирует пример системы кодирования видео/изображений, к которой может применяться настоящий документ.[58] FIG. 1 illustrates an example of a video/image coding system to which the present document may apply.

[59] Ссылаясь на фиг. 1, система кодирования видео/изображений может включать в себя исходное устройство и приемное устройство. Исходное устройство может передавать кодированную информацию или данные видео/изображений в приемное устройство через цифровой носитель хранения данных или сеть в форме файла или потоковой передачи.[59] Referring to FIG. 1, a video/image coding system may include a source device and a destination device. The source device may transmit the encoded information or video/image data to the receiving device via a digital storage medium or a network in the form of a file or streaming.

[60] Исходное устройство может включать в себя видеоисточник, оборудование кодирования и передатчик. Приемное устройство может включать в себя приемник, оборудование декодирования и модуль рендеринга. Оборудование кодирования может называться "оборудованием кодирования видео/изображений", и оборудование декодирования может называться "оборудованием декодирования видео/изображений". Передатчик может включаться в оборудование кодирования. Приемник может включаться в оборудование декодирования. Модуль рендеринга может включать в себя дисплей, и дисплей может быть сконфигурирован как отдельное устройство или внешний компонент.[60] The source device may include a video source, encoding equipment, and a transmitter. The receiver may include a receiver, decoding hardware, and a renderer. The encoding equipment may be referred to as "video/image coding equipment", and the decoding equipment may be referred to as "video/image decoding equipment". The transmitter may be included in the encoding equipment. The receiver may be included in the decoding equipment. The renderer may include a display, and the display may be configured as a separate device or an external component.

[61] Видеоисточник может получать видео/изображение посредством процесса захвата, синтезирования или формирования видео/изображения. Видеоисточник может включать в себя устройство захвата видео/изображений и/или устройство формирования видео/изображений. Устройство захвата видео/изображений может включать в себя, например, одну или более камер, архивы видео/изображений, включающие в себя ранее захваченные видео/изображения, и т.п. Устройство формирования видео/изображений может включать в себя, например, компьютеры, планшетные компьютеры и смартфоны и может (электронно) формировать видео/изображения. Например, виртуальное видео/изображение может формироваться через компьютер и т.п. В этом случае, процесс захвата видео/изображений может заменяться посредством процесса формирования связанных данных.[61] A video source may acquire a video/image through a process of capturing, synthesizing, or generating a video/image. The video source may include a video/image capture device and/or a video/image generation device. The video/image capture device may include, for example, one or more cameras, video/image archives including previously captured videos/images, and the like. The video/image generation apparatus may include, for example, computers, tablet computers, and smartphones, and may (electronically) generate video/images. For example, the virtual video/image may be generated via a computer or the like. In this case, the video/image capturing process may be replaced by a linked data generation process.

[62] Оборудование кодирования может кодировать входное видео/изображение. Оборудование кодирования может выполнять последовательность процедур, таких как прогнозирование, преобразование и квантование, для эффективности сжатия и кодирования. Кодированные данные (кодированная информация видео/изображений) могут выводиться в форме потока битов.[62] The encoding equipment may encode the input video/image. The encoding equipment may perform a series of procedures such as prediction, transformation, and quantization for compression and encoding efficiency. Encoded data (encoded video/picture information) may be output in the form of a bit stream.

[63] Передатчик может передавать информацию или данные кодированных изображений/изображений, выводимую в форме потока битов, в приемник приемного устройства через цифровой носитель хранения данных или сеть в форме файла или потоковой передачи. Цифровой носитель хранения данных может включать в себя различные носители хранения данных, такие как USB, SD, CD, DVD, Blu-Ray, HDD, SSD и т.п. Передатчик может включать в себя элемент для формирования мультимедийного файла через предварительно определенный формат файлов и может включать в себя элемент для передачи через широковещательную передачу/сеть связи. Приемник может принимать/извлекать поток битов и передавать принимаемый поток битов в оборудование декодирования.[63] The transmitter may transmit information or coded image/image data output in the form of a bit stream to the receiver of the receiving device via a digital storage medium or a network in the form of a file or streaming. The digital storage medium may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, SSD, and the like. The transmitter may include an element for generating a media file via a predetermined file format and may include an element for transmission via a broadcast/communication network. The receiver may receive/retrieve the bitstream and transmit the received bitstream to the decoding equipment.

[64] Оборудование декодирования может декодировать видео/изображение посредством выполнения последовательности процедур, таких как деквантование, обратное преобразование и прогнозирование, соответствующих работе оборудования кодирования.[64] The decoding equipment can decode the video/image by performing a sequence of procedures such as dequantization, inverse transformation, and prediction corresponding to the operation of the encoding equipment.

[65] Модуль рендеринга может подготавливать посредством рендеринга декодированное видео/изображение. Подготовленное посредством рендеринга видео/изображение может отображаться через дисплей.[65] The rendering module may prepare a decoded video/image by rendering. The rendered video/image can be displayed through the display.

[66] Фиг. 2 является схемой, принципиально иллюстрирующей конфигурацию оборудования кодирования видео/изображений, к которому может применяться настоящий документ. В дальнейшем в этом документе, то, что называется "оборудованием кодирования видео", может включать в себя оборудование кодирования изображений.[66] FIG. 2 is a diagram principally illustrating the configuration of video/image coding equipment to which this document may apply. Hereinafter in this document, what is referred to as "video encoding equipment" may include image encoding equipment.

[67] Ссылаясь на фиг. 2, оборудование 200 кодирования включает в себя модуль 210 сегментации изображений, модуль 220 прогнозирования, остаточный процессор 230 и энтропийный кодер 240, сумматор 250, фильтр 260 и запоминающее устройство 270. Модуль 220 прогнозирования может включать в себя модуль 221 взаимного прогнозирования и модуль 222 внутреннего прогнозирования. Остаточный процессор 230 может включать в себя преобразователь 232, квантователь 233, деквантователь 234 и обратный преобразователь 235. Остаточный процессор 230 дополнительно может включать в себя вычитатель 231. Сумматор 250 может называться "модулем восстановления" или "формирователем восстановленных блоков". Модуль 210 сегментации изображений, модуль 220 прогнозирования, остаточный процессор 230, энтропийный кодер 240, сумматор 250 и фильтр 260 могут быть сконфигурированы, по меньшей мере, посредством одного аппаратного компонента (например, набора микросхем или процессора кодера) согласно варианту осуществления. Помимо этого, запоминающее устройство 270 может включать в себя буфер декодированных кадров (DPB) или может быть сконфигурировано посредством цифрового носителя хранения данных. Аппаратный компонент дополнительно может включать в себя запоминающее устройство 270 в качестве внутреннего/внешнего компонента.[67] Referring to FIG. 2, the encoding equipment 200 includes an image segmentation unit 210, a prediction unit 220, a residual processor 230 and an entropy encoder 240, an adder 250, a filter 260, and a memory 270. The prediction unit 220 may include an inter prediction unit 221 and an intra prediction unit 222. forecasting. Residual processor 230 may include a transformer 232, a quantizer 233, a dequantizer 234, and an inverse transformer 235. Residual processor 230 may further include a subtractor 231. Adder 250 may be referred to as a "rebuilder" or "recovered block generator". Image segmentation module 210, prediction module 220, residual processor 230, entropy encoder 240, adder 250, and filter 260 may be configured by at least one hardware component (e.g., chipset or encoder processor) according to an embodiment. In addition, the memory 270 may include a decoded frame buffer (DPB) or may be configured by a digital storage medium. The hardware component may further include a storage device 270 as an internal/external component.

[68] Модуль 210 сегментации изображений может сегментировать входное изображение (либо кадр или кинокадр), вводимое в оборудование 200 кодирования, на один или более блоков обработки. Например, блок обработки может называться "единицей кодирования (CU)". В этом случае, единица кодирования может рекурсивно сегментироваться согласно структуре в виде дерева квадрантов, двоичного дерева и троичного дерева (QTBTTT) из единицы дерева кодирования (CTU) или наибольшей единицы кодирования (LCU). Например, одна единица кодирования может сегментироваться на множество единиц кодирования большей глубины на основе структуры в виде дерева квадрантов, структуры в виде двоичного дерева и/или троичной структуры. В этом случае, например, сначала может применяться структура в виде дерева квадрантов, и впоследствии может применяться структура в виде двоичного дерева и троичная структура. Альтернативно, сначала может применяться структура в виде двоичного дерева. Процедура кодирования согласно настоящему документу может выполняться на основе конечной единицы кодирования, которая более не сегментируется. В этом случае, наибольшая единица кодирования может использоваться в качестве конечной единицы кодирования на основе эффективности кодирования согласно характеристикам изображений, или при необходимости, единица кодирования может рекурсивно сегментироваться на единицы кодирования большей глубины, и единица кодирования, имеющая оптимальный размер, может использоваться в качестве конечной единицы кодирования. Здесь, процедура кодирования может включать в себя процедуру прогнозирования, преобразования и восстановления, которая описывается ниже. В качестве другого примера, блок обработки дополнительно может включать в себя единицу прогнозирования (PU) или единицу преобразования (TU). В этом случае, единица прогнозирования и единица преобразования могут разбиваться или сегментироваться из вышеуказанной конечной единицы кодирования. Единица прогнозирования может представлять собой единицу выборочного прогнозирования, и единица преобразования может представлять собой единицу для извлечения коэффициента преобразования и/или единицу для извлечения остаточного сигнала из коэффициента преобразования.[68] The image segmentation module 210 may segment an input image (either a frame or a movie frame) input to the encoding equipment 200 into one or more processing units. For example, a processing unit may be referred to as a "coding unit (CU)". In this case, a coding unit may be recursively segmented according to a quadtree, binary tree, and ternary tree (QTBTTT) structure from a coding tree unit (CTU) or a largest coding unit (LCU). For example, one coding unit may be segmented into multiple deeper coding units based on a quadtree structure, a binary tree structure, and/or a ternary structure. In this case, for example, a quadtree structure may be applied first, and a binary tree structure and a ternary structure may subsequently be applied. Alternatively, a binary tree structure may be applied first. The encoding procedure according to the present document may be performed based on a final encoding unit that is no longer segmented. In this case, the largest coding unit may be used as the final coding unit based on the coding efficiency according to the characteristics of the images, or if necessary, the coding unit may be recursively segmented into coding units of greater depth, and the coding unit having the optimal size may be used as the final coding units. Here, the encoding procedure may include a prediction, transformation, and restoration procedure, which is described below. As another example, the processing unit may further include a prediction unit (PU) or a transformation unit (TU). In this case, the prediction unit and the transformation unit may be split or segmented from the above final coding unit. The prediction unit may be a selective prediction unit, and the transform unit may be a unit for extracting a transform coefficient and/or a unit for extracting a residual signal from a transform coefficient.

[69] Единица может использоваться взаимозаменяемо с такими терминами, как блок или зона в некоторых случаях. В общем случае, блок MxN может представлять набор выборок или коэффициентов преобразования, состоящих из M столбцов и N строк. Выборка, в общем, может представлять пиксел или значение пиксела, может представлять только пиксел/пиксельное значение компонента сигналов яркости либо представлять только пиксел/пиксельное значение компонента сигналов цветности. Выборка может использоваться в качестве термина, соответствующего одному кадру (или изображению) для пиксела или пела.[69] The unit can be used interchangeably with terms such as block or zone in some cases. In general, an MxN block may represent a set of samples or transform coefficients consisting of M columns and N rows. The sample, in general, may represent a pixel or pixel value, may represent only a pixel/pixel value of the luma component, or represent only a pixel/pixel value of the chroma component. Sampling can be used as a term corresponding to one frame (or image) for a pixel or pel.

[70] Вычитатель 231 вычитает прогнозный сигнал (прогнозированный блок, прогнозные выборки или массив прогнозных выборок), выводимый из модуля 220 прогнозирования, из сигнала входного изображения (исходного блока, исходных выборок или массива исходных выборок), чтобы получать остаток. Сигнал (остаточный блок, остаточные выборки или массив остаточных выборок) может формироваться, и сформированный остаточный сигнал передается в преобразователь 232. Модуль 220 прогнозирования может выполнять прогнозирование относительно целевого блока обработки (в дальнейшем в этом документе, называемого "текущим блоком") и формировать прогнозированный блок, включающий в себя прогнозные выборки для текущего блока. Модуль 220 прогнозирования может определять то, применяется внутреннее прогнозирование или взаимное прогнозирование, на основе текущего блока или CU. Как описано ниже в описании каждого режима прогнозирования, модуль прогнозирования может формировать различную информацию, связанную с прогнозированием, к примеру, информацию режима прогнозирования, и передавать сформированную информацию в энтропийный кодер 240. Информация относительно прогнозирования может кодироваться в энтропийном кодере 240 и выводиться в форме потока битов.[70] The subtractor 231 subtracts the prediction signal (predicted block, predictive samples, or array of predictive samples) output from prediction unit 220 from the input image signal (original block, original samples, or array of original samples) to obtain a remainder. A signal (residual block, residual samples, or an array of residual samples) may be generated, and the generated residual signal is provided to transformer 232. Prediction module 220 may perform prediction with respect to a target processing block (hereinafter referred to as the "current block") and generate a predicted a block that includes the predictive samples for the current block. Prediction module 220 may determine whether intra prediction or inter prediction is applied based on the current block or CU. As described below in the description of each prediction mode, the prediction module may generate various prediction-related information, such as prediction mode information, and pass the generated information to the entropy encoder 240. The prediction information may be encoded in the entropy encoder 240 and output in the form of a stream. bits.

[71] Модуль 222 внутреннего прогнозирования может прогнозировать текущий блок посредством ссылки на выборки в текущем кадре. Выборки для ссылки могут быть расположены в окружении текущего блока или могут быть расположены с разнесением согласно режиму прогнозирования. При внутреннем прогнозировании, режимы прогнозирования могут включать в себя множество ненаправленных режимов и множество направленных режимов. Ненаправленный режим может включать в себя, например, DC-режим и планарный режим. Направленный режим может включать в себя, например, 33 режима направленного прогнозирования или 65 режимов направленного прогнозирования согласно степени детальности направления прогнозирования. Тем не менее, это представляет собой просто пример, большее или меньшее число режимов направленного прогнозирования может использоваться в зависимости от настройки. Модуль 222 внутреннего прогнозирования может определять режим прогнозирования, применяемый к текущему блоку, посредством использования режима прогнозирования, применяемого к соседнему блоку.[71] The intra prediction module 222 may predict the current block by referring to the samples in the current frame. The samples for the link may be located in the surroundings of the current block, or may be spaced apart according to the prediction mode. In intra prediction, the prediction modes may include a plurality of non-directional modes and a plurality of directional modes. The non-directional mode may include, for example, a DC mode and a planar mode. The directional mode may include, for example, 33 directional prediction modes or 65 directional prediction modes according to the granularity of the prediction direction. However, this is just an example, more or less directional prediction modes may be used depending on the setting. The intra prediction unit 222 may determine the prediction mode applied to the current block by using the prediction mode applied to the neighboring block.

[72] Модуль 221 взаимного прогнозирования может извлекать прогнозированный блок для текущего блока на основе опорного блока (массива опорных выборок), указываемого посредством вектора движения для опорного кадра. Здесь, чтобы уменьшать объем информации движения, передаваемой в режиме взаимного прогнозирования, информация движения может прогнозироваться в единицах блоков, субблоков или выборок на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорного кадра. Информация движения дополнительно может включать в себя информацию направления взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование, бипрогнозирование и т.д.). В случае взаимного прогнозирования, соседний блок может включать в себя пространственный соседний блок, присутствующий в текущем кадре, и временной соседний блок, присутствующий в опорном кадре. Опорный кадр, включающий в себя опорный блок, и опорный кадр, включающий в себя временной соседний блок, могут быть идентичными или отличающимися. Временной соседний блок может называться "совместно размещенным опорным блоком", "совместно размещенной CU (colCU)" и т.п., и опорный кадр, включающий в себя временной соседний блок, может называться "совместно размещенным кадром (colPic)". Например, модуль 221 взаимного прогнозирования может конфигурировать список возможных вариантов информации движения на основе соседних блоков и формировать информацию, указывающую то, какой возможный вариант используется для того, чтобы извлекать вектор движения и/или индекс опорного кадра текущего блока. Взаимное прогнозирование может выполняться на основе различных режимов прогнозирования. Например, в случае режима пропуска и режима объединения, модуль 221 взаимного прогнозирования может использовать информацию движения соседнего блока в качестве информации движения текущего блока. В режиме пропуска, в отличие от режима объединения, остаточный сигнал может не передаваться. В случае режима прогнозирования векторов движения (MVP), вектор движения соседнего блока может использоваться в качестве предиктора вектора движения, и вектор движения текущего блока может указываться посредством передачи в служебных сигналах разности векторов движения.[72] The inter-prediction unit 221 may derive a predicted block for the current block based on a reference block (reference sample array) indicated by a motion vector for the reference frame. Here, in order to reduce the amount of motion information transmitted in the inter-prediction mode, motion information may be predicted in units of blocks, sub-blocks, or samples based on the correlation of motion information between an adjacent block and a current block. The motion information may include a motion vector and a reference frame index. The motion information may further include inter-prediction direction information (L0 prediction, L1 prediction, bi-prediction, etc.). In the case of inter prediction, an adjacent block may include a spatial adjacent block present in the current frame and a temporal adjacent block present in the reference frame. The reference frame including the reference block and the reference frame including the temporal neighbor block may be the same or different. The temporal neighbor block may be referred to as a "collocated reference block", "collocated CU (colCU)" or the like, and a reference frame including the temporal neighbor block may be referred to as a "collocated frame (colPic)". For example, the inter prediction unit 221 may configure a motion information candidate list based on neighboring blocks, and generate information indicating which candidate is used to derive the motion vector and/or the reference frame index of the current block. Inter prediction may be performed based on various prediction modes. For example, in the case of the skip mode and the join mode, the inter prediction unit 221 may use the neighboring block motion information as the current block motion information. In the skip mode, unlike the merge mode, the residual signal may not be transmitted. In the case of a motion vector prediction (MVP) mode, the motion vector of an adjacent block may be used as a motion vector predictor, and the motion vector of the current block may be indicated by signaling a motion vector difference.

[73] Модуль 220 прогнозирования может формировать прогнозный сигнал на основе различных способов прогнозирования, описанных ниже. Например, модуль прогнозирования может не только применять внутреннее прогнозирование или взаимное прогнозирование для того, чтобы прогнозировать один блок, но также и одновременно применять как внутренние прогнозирование, так и взаимное прогнозирование. Это может называться "комбинированным взаимным и внутренним прогнозированием (CIIP)". Помимо этого, модуль прогнозирования может выполнять внутриблочное копирование (IBC) для прогнозирования блока. Режим IBC-прогнозирования может использоваться для кодирования изображений/видео контента игры и т.п., например, для кодирования экранного контента (SCC). IBC по существу выполняет прогнозирование в текущем кадре, но может выполняться аналогично взаимному прогнозированию, в котором опорный блок извлекается в текущем кадре. Таким образом, IBC может использовать, по меньшей мере, одну из технологий взаимного прогнозирования, описанных в настоящем документе.[73] The prediction module 220 may generate a prediction signal based on various prediction methods described below. For example, the prediction module may not only apply intra prediction or inter prediction to predict one block, but also apply both intra prediction and inter prediction at the same time. This may be referred to as "combined mutual and intra prediction (CIIP)". In addition, the prediction module may perform intra-block copy (IBC) to predict the block. The IBC prediction mode may be used for image/video coding of game content and the like, such as screen content coding (SCC). IBC essentially performs prediction in the current frame, but may be performed similar to inter-prediction in which the reference block is retrieved in the current frame. Thus, the IBC may use at least one of the inter-prediction technologies described herein.

[74] Прогнозный сигнал, сформированный посредством модуля 221 взаимного прогнозирования и/или модуля 222 внутреннего прогнозирования, может использоваться для того, чтобы формировать восстановленный сигнал или формировать остаточный сигнал. Преобразователь 232 может формировать коэффициенты преобразования посредством применения технологии преобразования к остаточному сигналу. Например, технология преобразования может включать в себя дискретное косинусное преобразование (DCT), дискретное синусное преобразование (DST), преобразование Карунена-Лоэва (KLT), преобразование на основе графа (GBT) или условно нелинейное преобразование (CNT). Здесь, GBT означает преобразование, полученное из графа, когда информация взаимосвязи между пикселами представляется посредством графа. CNT означает преобразование, сформированное на основе прогнозного сигнала, сформированного с использованием всех ранее восстановленных пикселов. Помимо этого, процесс преобразования может применяться к квадратным пиксельным блокам, имеющим идентичный размер, или может применяться к блокам, имеющим переменный размер, а не квадратный.[74] The prediction signal generated by the inter prediction unit 221 and/or the intra prediction unit 222 may be used to generate a recovered signal or generate a residual signal. Converter 232 may generate transform coefficients by applying a transform technique to the residual signal. For example, the transform technology may include discrete cosine transform (DCT), discrete sine transform (DST), Karhunen-Loeve transform (KLT), graph-based transform (GBT), or conditionally non-linear transform (CNT). Here, GBT means a transformation obtained from a graph when relationship information between pixels is represented by a graph. CNT means a transform generated based on a predictive signal generated using all previously reconstructed pixels. In addition, the transformation process may be applied to square pixel blocks having the same size, or may be applied to blocks having a variable size rather than square.

[75] Квантователь 233 может квантовать коэффициенты преобразования и передавать их в энтропийный кодер 240, и энтропийный кодер 240 может кодировать квантованный сигнал (информацию относительно квантованных коэффициентов преобразования) и выводить поток битов. Информация относительно квантованных коэффициентов преобразования может называться "остаточной информацией". Квантователь 233 может перекомпоновывать блочные квантованные коэффициенты преобразования в одномерную векторную форму на основе порядка сканирования коэффициентов и формировать информацию относительно квантованных коэффициентов преобразования на основе квантованных коэффициентов преобразования в одномерной векторной форме. Информация относительно коэффициентов преобразования может формироваться. Энтропийный кодер 240 может осуществлять различные способы кодирования, такие как, например, кодирование экспоненциальным кодом Голомба, контекстно-адаптивное кодирование переменной длины (CAVLC), контекстно-адаптивное двоичное арифметическое кодирование (CABAC) и т.п. Энтропийный кодер 240 может кодировать информацию, необходимую для восстановления видео/изображений, отличную от квантованных коэффициентов преобразования (например, значений синтаксических элементов и т.д.), вместе или отдельно. Кодированная информация (например, кодированная информация видео/изображений) может передаваться или сохраняться в единицах NAL (слоя абстрагирования от сети) в форме потока битов. Информация видео/изображений дополнительно может включать в себя информацию относительно различных наборов параметров, таких как набор параметров адаптации (APS), набор параметров кадра (PPS), набор параметров последовательности (SPS) или набор параметров видео (VPS). Помимо этого, информация видео/изображений дополнительно может включать в себя общую информацию ограничений. В настоящем документе, передача служебных сигналов/передаваемая информация и/или синтаксические элементы, описанные далее в настоящем раскрытии сущности, могут кодироваться через вышеуказанный процесс кодирования и включаться в поток битов. Поток битов может передаваться по сети или может сохраняться на цифровом носителе хранения данных. Сеть может включать в себя широковещательную сеть и/или сеть связи, и цифровой носитель хранения данных может включать в себя различные носители хранения данных, такие как, USB, SD, CD, DVD, Blu-Ray, HDD, SSD и т.п. Передатчик (не показан), передающий сигнал, выводимый из энтропийного кодера 240, и/или модуль хранения (не показан), сохраняющий сигнал, могут включаться в качестве внутреннего/внешнего элемента оборудования 200 кодирования, и альтернативно, передатчик может включаться в энтропийный кодер 240.[75] The quantizer 233 may quantize the transform coefficients and pass them to the entropy encoder 240, and the entropy encoder 240 may encode the quantized signal (information regarding the quantized transform coefficients) and output a bitstream. The information regarding the quantized transform coefficients may be referred to as "residual information". The quantizer 233 may repackage the block quantized transform coefficients into one-dimensional vector form based on the scan order of the coefficients, and generate information about the quantized transform coefficients based on the quantized transform coefficients in one-dimensional vector form. Information regarding transform coefficients may be generated. Entropy encoder 240 may implement various coding methods such as exponential Golomb coding, context adaptive variable length coding (CAVLC), context adaptive binary arithmetic coding (CABAC), and the like, for example. Entropy encoder 240 may encode information needed for video/image reconstruction other than quantized transform coefficients (eg, syntax element values, etc.) together or separately. Encoded information (eg, encoded video/image information) may be transmitted or stored in NAL (Network Abstraction Layer) units in the form of a bitstream. The video/image information may further include information regarding various parameter sets such as an adaptation parameter set (APS), a frame parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS). In addition, the video/image information may further include general restriction information. Herein, signaling/information to be transmitted and/or syntax elements described later in this disclosure may be encoded through the above encoding process and included in a bitstream. The bit stream may be transmitted over a network or may be stored on a digital storage medium. The network may include a broadcast network and/or a communications network, and the digital storage medium may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, SSD, and the like. A transmitter (not shown), transmitting a signal output from the entropy encoder 240, and/or a storage module (not shown) storing the signal may be included as an internal/external member of the encoding equipment 200, and alternatively, a transmitter may be included in the entropy encoder 240 .

[76] Квантованные коэффициенты преобразования, выводимые из квантователя 233, могут использоваться для того, чтобы формировать прогнозный сигнал. Например, остаточный сигнал (остаточный блок или остаточные выборки) может восстанавливаться посредством применения деквантования и обратного преобразования к квантованным коэффициентам преобразования через деквантователь 234 и обратный преобразователь 235. Сумматор 250 суммирует восстановленный остаточный сигнал с прогнозным сигналом, выводимым из модуля 220 прогнозирования, чтобы формировать восстановленный сигнал (восстановленный кадр, восстановленные выборки или массив восстановленных выборок). Если отсутствует остаток для блока, который должен обрабатываться, к примеру, в случае, в котором режим пропуска применяется, прогнозированный блок может использоваться в качестве восстановленного блока. Сформированный восстановленный сигнал может использоваться для внутреннего прогнозирования следующего блока, который должен обрабатываться в текущем кадре, и может использоваться для взаимного прогнозирования следующего кадра посредством фильтрации, как описано ниже.[76] The quantized transform coefficients output from quantizer 233 may be used to generate a predictive signal. For example, the residual signal (residual block or residual samples) may be recovered by applying dequantization and inverse transform to the quantized transform coefficients via dequantizer 234 and inverse transform 235. Summer 250 adds the recovered residual signal to the predictive signal output from predictor 220 to generate a reconstructed signal (recovered frame, recovered samples, or array of recovered samples). If there is no remainder for a block to be processed, such as in a case in which the skip mode is applied, the predicted block may be used as the reconstructed block. The generated recovered signal may be used to intra-predict the next block to be processed in the current frame, and may be used to inter-predict the next frame through filtering as described below.

[77] Между тем, преобразование сигнала яркости с масштабированием сигнала цветности (LMCS) может применяться во время кодирования и/или восстановления кадров.[77] Meanwhile, luma signal scaling (LMCS) transformation may be applied during encoding and/or frame reconstruction.

[78] Фильтр 260 может повышать субъективное/объективное качество изображений посредством применения фильтрации к восстановленному сигналу. Например, фильтр 260 может формировать модифицированный восстановленный кадр посредством применения различных способов фильтрации к восстановленному кадру и сохранять модифицированный восстановленный кадр в запоминающем устройстве 270, а именно, в DPB запоминающего устройства 270. Различные способы фильтрации могут включать в себя, например, фильтрацию для удаления блочности, фильтрацию на основе дискретизированного адаптивного смещения (SAO), адаптивный контурный фильтр, билатеральный фильтр и т.п. Фильтр 260 может формировать различную информацию, связанную с фильтрацией, и передавать сформированную информацию в энтропийный кодер 240, как описано ниже в описании каждого способа фильтрации. Информация, связанная с фильтрацией, может кодироваться посредством энтропийного кодера 240 и выводиться в форме потока битов.[78] The filter 260 can improve subjective/objective image quality by applying filtering to the reconstructed signal. For example, filter 260 may generate a modified reconstructed frame by applying various filtering methods to the reconstructed frame and store the modified reconstructed frame in memory 270, namely the DPB of memory 270. Various filtering methods may include, for example, filtering to deblock , sampling based adaptive offset (SAO) filtering, adaptive loop filter, bilateral filter, and the like. The filter 260 may generate various filtering-related information and pass the generated information to the entropy encoder 240 as described below in the description of each filtering method. Filtering related information may be encoded by entropy encoder 240 and output in the form of a bitstream.

[79] Модифицированный восстановленный кадр, передаваемый в запоминающее устройство 270, может использоваться в качестве опорного кадра в модуле 221 взаимного прогнозирования. Когда взаимное прогнозирование применяется посредством оборудования кодирования, рассогласование прогнозирования между оборудованием 200 кодирования и оборудованием 300 декодирования может исключаться, и эффективность кодирования может повышаться.[79] The modified reconstructed frame transmitted to the memory 270 may be used as a reference frame in the inter prediction module 221 . When inter prediction is applied by the encoding equipment, prediction mismatch between the encoding equipment 200 and the decoding equipment 300 can be eliminated, and encoding efficiency can be improved.

[80] DPB запоминающего устройства 270 может сохранять модифицированный восстановленный кадр для использования в качестве опорного кадра в модуле 221 взаимного прогнозирования. Запоминающее устройство 270 может сохранять информацию движения блока, из которой информация движения в текущем кадре извлекается (или кодируется), и/или информацию движения блоков в кадре, которые уже восстановлены. Сохраненная информация движения может передаваться в модуль 221 взаимного прогнозирования и использоваться в качестве информации движения пространственного соседнего блока или информации движения временного соседнего блока. Запоминающее устройство 270 может сохранять восстановленные выборки восстановленных блоков в текущем кадре и может передавать восстановленные выборки в модуль 222 внутреннего прогнозирования.[80] The DPB of the memory 270 may store the modified reconstructed frame for use as a reference frame in the inter prediction module 221 . The memory 270 may store block motion information from which motion information in the current frame is extracted (or encoded) and/or motion information of blocks in the frame that have already been recovered. The stored motion information may be transmitted to the inter-prediction unit 221 and used as spatial neighbor block motion information or temporal neighbor block motion information. The memory 270 may store the recovered samples of the recovered blocks in the current frame and may pass the recovered samples to the intra prediction module 222 .

[81] Фиг. 3 является принципиальной схемой, иллюстрирующей конфигурацию оборудования декодирования видео/изображений, к которому может применяться настоящий документ.[81] FIG. 3 is a circuit diagram illustrating the configuration of video/image decoding equipment to which this document may be applied.

[82] Ссылаясь на фиг. 3, оборудование 300 декодирования может включать в себя энтропийный декодер 310, остаточный процессор 320, модуль 330 прогнозирования, сумматор 340, фильтр 350, запоминающее устройство 360. Модуль 330 прогнозирования может включать в себя модуль 331 взаимного прогнозирования и модуль 332 внутреннего прогнозирования. Остаточный процессор 320 может включать в себя деквантователь 321 и обратный преобразователь 321. Энтропийный декодер 310, остаточный процессор 320, модуль 330 прогнозирования, сумматор 340 и фильтр 350 могут быть сконфигурированы посредством аппаратного компонента (например, набора микросхем или процессора декодера) согласно варианту осуществления. Помимо этого, запоминающее устройство 360 может включать в себя буфер декодированных кадров (DPB) или может быть сконфигурировано посредством цифрового носителя хранения данных. Аппаратный компонент дополнительно может включать в себя запоминающее устройство 360 в качестве внутреннего/внешнего компонента.[82] Referring to FIG. 3, the decoding equipment 300 may include an entropy decoder 310, a residual processor 320, a prediction unit 330, an adder 340, a filter 350, a memory 360. The prediction unit 330 may include an inter prediction unit 331 and an intra prediction unit 332. Residual processor 320 may include a dequantizer 321 and an inverse converter 321. Entropy decoder 310, residual processor 320, predictor 330, adder 340, and filter 350 may be configured by a hardware component (eg, a chipset or decoder processor) according to an embodiment. In addition, the storage device 360 may include a decoded frame buffer (DPB) or may be configured with a digital storage medium. The hardware component may further include a storage device 360 as an internal/external component.

[83] Когда поток битов, включающий в себя информацию видео/изображений, вводится, оборудование 300 декодирования может восстанавливать изображение, соответствующее процессу, в котором информация видео/изображений обрабатывается в оборудовании кодирования по фиг. 2. Например, оборудование 300 декодирования может извлекать единицы/блоки на основе связанной с сегментацией на блоки информации, полученной из потока битов. Оборудование 300 декодирования может выполнять декодирование с использованием блока обработки, применяемого в оборудовании кодирования. Таким образом, блок обработки декодирования, например, может представлять собой единицу кодирования, и единица кодирования может сегментироваться согласно структуре в виде дерева квадрантов, структуре в виде двоичного дерева и/или структуре в виде троичного дерева из единицы дерева кодирования или наибольшей единицы кодирования. Одна или более единиц преобразования могут извлекаться из единицы кодирования. Восстановленный сигнал изображения, декодированный и выводимый посредством оборудования 300 декодирования, может воспроизводиться посредством оборудования воспроизведения.[83] When a bitstream including video/image information is input, the decoding equipment 300 can reconstruct an image corresponding to the process in which the video/image information is processed in the encoding equipment of FIG. 2. For example, decoding equipment 300 may extract units/blocks based on block segmentation-related information obtained from the bit stream. The decoding equipment 300 may perform decoding using a processing unit used in the encoding equipment. Thus, the decoding processing unit may, for example, be a coding unit, and the coding unit may be segmented according to a quadtree structure, a binary tree structure, and/or a ternary tree structure from the coding tree unit or the largest coding unit. One or more transformation units may be derived from a coding unit. The reconstructed image signal decoded and output by the decoding equipment 300 can be reproduced by the playback equipment.

[84] Оборудование 300 декодирования может принимать сигнал, выводимый из оборудования кодирования по фиг. 2 в форме потока битов, и принимаемый сигнал может декодироваться через энтропийный декодер 310. Например, энтропийный декодер 310 может синтаксически анализировать поток битов, чтобы извлекать информацию (например, информацию видео/изображений), необходимую для восстановления изображений (или восстановления кадров). Информация видео/изображений дополнительно может включать в себя информацию относительно различных наборов параметров, таких как набор параметров адаптации (APS), набор параметров кадра (PPS), набор параметров последовательности (SPS) или набор параметров видео (VPS). Помимо этого, информация видео/изображений дополнительно может включать в себя общую информацию ограничений. Оборудование декодирования дополнительно может декодировать кадр на основе информации относительно набора параметров и/или общей информации ограничений. Передаваемая в служебных сигналах/принимаемая информация и/или синтаксические элементы, описанные далее в настоящем документе, могут декодироваться, могут декодировать процедуру декодирования и получаться из потока битов. Например, энтропийный декодер 310 декодирует информацию в потоке битов на основе способа кодирования, такого как кодирование экспоненциальным кодом Голомба, CAVLC или CABAC, и выходных синтаксических элементов, требуемых для восстановления изображений, и квантованных значений коэффициентов преобразования для остатка. Более конкретно, способ энтропийного CABAC-декодирования может принимать элемент разрешения, соответствующий каждому синтаксическому элементу в потоке битов, определять контекстную модель с использованием информации целевого синтаксического элемента декодирования, информации декодирования целевого блока декодирования или информации символа/элемента разрешения, декодированного на предыдущей стадии, и выполнять арифметическое декодирование для элемента разрешения посредством прогнозирования вероятности появления элемента разрешения согласно определенной контекстной модели и формировать символ, соответствующий значению каждого синтаксического элемента. В этом случае, способ энтропийного CABAC-декодирования может обновлять контекстную модель посредством использования информации декодированного символа/элемента разрешения для контекстной модели следующего символа/элемента разрешения после определения контекстной модели. Информация, связанная с прогнозированием, из информации, декодированной посредством энтропийного декодера 310, может предоставляться в модуль 330 прогнозирования, и информация относительно остатка, для которого энтропийное декодирование выполнено в энтропийном декодере 310, т.е. квантованные коэффициенты преобразования и связанная информация параметров, может вводиться в деквантователь 321. Помимо этого, информация относительно фильтрации из информации, декодированной посредством энтропийного декодера 310, может предоставляться в фильтр 350. Между тем, приемник (не показан) для приема сигнала, выводимого из оборудования кодирования, может быть дополнительно сконфигурирован в качестве внутреннего/внешнего элемента оборудования 300 декодирования, или приемник может представлять собой компонент энтропийного декодера 310. Между тем, оборудование декодирования согласно настоящему документу может называться "оборудованием декодирования видео/изображений/кадров", и оборудование декодирования может классифицироваться на информационный декодер (декодер информации видео/изображений/кадров) и выборочный декодер (декодер выборок видео/изображений/кадров). Информационный декодер может включать в себя энтропийный декодер 310, и выборочный декодер может включать в себя, по меньшей мере, одно из деквантователя 321, обратного преобразователя 322, модуля 330 прогнозирования, сумматора 340, фильтра 350 и запоминающего устройства 360.[84] The decoding equipment 300 may receive a signal output from the encoding equipment of FIG. 2 in the form of a bitstream, and the received signal may be decoded via entropy decoder 310. For example, entropy decoder 310 may parse the bitstream to extract information (eg, video/image information) needed for image recovery (or frame recovery). The video/image information may further include information regarding various parameter sets such as an adaptation parameter set (APS), a frame parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS). In addition, the video/image information may further include general restriction information. The decoding equipment may further decode the frame based on the parameter set information and/or general constraint information. Signaling/receiving information and/or syntax elements described hereinafter may be decoded, may be decoded by a decoding procedure, and obtained from a bitstream. For example, entropy decoder 310 decodes information in the bitstream based on an encoding method such as Exponential Golomb, CAVLC, or CABAC coding and output syntax elements required for image reconstruction and quantized transform coefficient values for the remainder. More specifically, the CABAC entropy decoding method can receive a bin corresponding to each syntax element in the bit stream, determine a context model using the decoding target syntax element information, the decoding information of the decoding target block, or the symbol/bin information decoded in the previous step, and perform arithmetic decoding on the permission element by predicting the occurrence probability of the permission element according to the determined context model, and generating a character corresponding to the value of each syntax element. In this case, the CABAC entropy decoding method can update the context model by using the decoded symbol/bin information for the context model of the next symbol/bin after the context model is determined. Prediction-related information from the information decoded by the entropy decoder 310 may be provided to the prediction unit 330, and information regarding the residue for which entropy decoding is performed in the entropy decoder 310, i. quantized transform coefficients and associated parameter information may be input to the dequantizer 321. In addition, information regarding filtering from the information decoded by the entropy decoder 310 may be provided to the filter 350. Meanwhile, a receiver (not shown) for receiving a signal output from the equipment encoding equipment may be further configured as an internal/external member of the decoding equipment 300, or the receiver may be a component of the entropy decoder 310. Meanwhile, the decoding equipment according to the present document may be referred to as "video/image/frame decoding equipment", and the decoding equipment may be classified into an information decoder (video/image/frame information decoder) and a sample decoder (video/image/frame sample decoder). The information decoder may include an entropy decoder 310, and the selective decoder may include at least one of a dequantizer 321, an inverse transform 322, a predictor 330, an adder 340, a filter 350, and a memory 360.

[85] Деквантователь 321 может деквантовать квантованные коэффициенты преобразования и выводить коэффициенты преобразования. Деквантователь 321 может перекомпоновывать квантованные коэффициенты преобразования в форме двумерной блочной формы. В этом случае, перекомпоновка может выполняться на основе порядка сканирования коэффициентов, выполняемого в оборудовании кодирования. Деквантователь 321 может выполнять деквантование для квантованных коэффициентов преобразования посредством использования параметра квантования (например, информации размера шага квантования) и получать коэффициенты преобразования.[85] The dequantizer 321 may dequantize the quantized transform coefficients and output the transform coefficients. The dequantizer 321 may recompose the quantized transform coefficients into a two-dimensional block form. In this case, the reassembly may be performed based on the coefficient scan order performed in the encoding equipment. The dequantizer 321 may perform dequantization on the quantized transform coefficients by using a quantization parameter (eg, quantization step size information) and obtain the transform coefficients.

[86] Обратный преобразователь 322 обратно преобразует коэффициенты преобразования, чтобы получать остаточный сигнал (остаточный блок, массив остаточных выборок).[86] The inverse transform 322 inversely transforms the transform coefficients to obtain a residual signal (residual block, array of residual samples).

[87] Модуль 230 прогнозирования может выполнять прогнозирование для текущего блока и может формировать прогнозированный блок, включающий в себя прогнозные выборки для текущего блока. Модуль прогнозирования может определять то, применяется внутреннее прогнозирование или взаимное прогнозирование к текущему блоку, на основе информации относительно прогнозирования, выводимой из энтропийного декодера 310, и может определять конкретный режим внутреннего/взаимного прогнозирования.[87] Prediction module 230 may perform prediction for the current block and may generate a predicted block including prediction samples for the current block. The prediction module may determine whether intra prediction or inter prediction is applied to the current block based on the prediction information output from the entropy decoder 310, and may determine a specific intra/inter prediction mode.

[88] Модуль прогнозирования может формировать прогнозный сигнал на основе различных способов прогнозирования, описанных ниже. Например, модуль прогнозирования может не только применять внутреннее прогнозирование или взаимное прогнозирование для того, чтобы прогнозировать один блок, но также и одновременно применять внутреннее прогнозирование и взаимное прогнозирование. Это может называться "комбинированным взаимным и внутренним прогнозированием (CIIP)". Помимо этого, модуль прогнозирования может выполнять внутриблочное копирование (IBC). Внутриблочное копирование может использоваться для кодирования изображений/видео контента игры и т.п., например, для кодирования экранного контента (SCC). IBC по существу выполняет прогнозирование в текущем кадре, но может выполняться аналогично взаимному прогнозированию, в котором опорный блок извлекается в текущем кадре. Таким образом, IBC может использовать, по меньшей мере, одну из технологий взаимного прогнозирования, описанных в настоящем документе.[88] The prediction module may generate a prediction signal based on various prediction methods described below. For example, the prediction module may not only apply intra prediction or inter prediction in order to predict one block, but also apply intra prediction and inter prediction at the same time. This may be referred to as "combined mutual and intra prediction (CIIP)". In addition, the prediction module can perform intra-block copy (IBC). In-block copying can be used for image/video encoding of game content and the like, such as on-screen content coding (SCC). The IBC essentially performs prediction in the current frame, but may be performed similar to inter prediction in which the reference block is retrieved in the current frame. Thus, the IBC may use at least one of the inter-prediction technologies described herein.

[89] Модуль 331 внутреннего прогнозирования может прогнозировать текущий блок посредством ссылки на выборки в текущем кадре. Выборки для ссылки могут быть расположены в окружении текущего блока или могут быть расположены с разнесением согласно режиму прогнозирования. При внутреннем прогнозировании, режимы прогнозирования могут включать в себя множество ненаправленных режимов и множество направленных режимов. Модуль 331 внутреннего прогнозирования может определять режим прогнозирования, применяемый к текущему блоку, посредством использования режима прогнозирования, применяемого к соседнему блоку.[89] The intra prediction module 331 may predict the current block by referring to the samples in the current frame. The samples for the link may be located in the surroundings of the current block, or may be spaced apart according to the prediction mode. In intra prediction, the prediction modes may include a plurality of non-directional modes and a plurality of directional modes. The intra prediction unit 331 may determine the prediction mode applied to the current block by using the prediction mode applied to the neighboring block.

[90] Модуль 332 взаимного прогнозирования может извлекать прогнозированный блок для текущего блока на основе опорного блока (массива опорных выборок), указываемого посредством вектора движения для опорного кадра. В этом случае, чтобы уменьшать объем информации движения, передаваемой в режиме взаимного прогнозирования, информация движения может прогнозироваться в единицах блоков, субблоков или выборок на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорного кадра. Информация движения дополнительно может включать в себя информацию направления взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование, бипрогнозирование и т.д.). В случае взаимного прогнозирования, соседний блок может включать в себя пространственный соседний блок, присутствующий в текущем кадре, и временной соседний блок, присутствующий в опорном кадре. Например, модуль 332 взаимного прогнозирования может конфигурировать список возможных вариантов информации движения на основе соседних блоков и извлекать вектор движения текущего блока и/или индекс опорного кадра на основе принимаемой информации выбора возможных вариантов. Взаимное прогнозирование может выполняться на основе различных режимов прогнозирования, и информация относительно прогнозирования может включать в себя информацию, указывающую режим взаимного прогнозирования для текущего блока.[90] The inter prediction unit 332 may derive a predicted block for the current block based on a reference block (reference sample array) indicated by a motion vector for the reference frame. In this case, in order to reduce the amount of motion information transmitted in the inter-prediction mode, the motion information may be predicted in units of blocks, sub-blocks, or samples based on the correlation of the motion information between the adjacent block and the current block. The motion information may include a motion vector and a reference frame index. The motion information may further include inter-prediction direction information (L0 prediction, L1 prediction, bi-prediction, etc.). In the case of inter prediction, an adjacent block may include a spatial adjacent block present in the current frame and a temporal adjacent block present in the reference frame. For example, inter-prediction unit 332 may configure a motion information candidate list based on adjacent blocks, and derive the current block's motion vector and/or reference frame index based on the received candidate selection information. Inter prediction may be performed based on various prediction modes, and the prediction information may include information indicative of the inter prediction mode for the current block.

[91] Сумматор 340 может формировать восстановленный сигнал (восстановленный кадр, восстановленный блок, массив восстановленных выборок) посредством суммирования полученного остаточного сигнала с прогнозным сигналом (прогнозированным блоком, массивом прогнозированных выборок), выводимым из модуля 330 прогнозирования. Если отсутствует остаток для блока, который должен обрабатываться, к примеру, когда режим пропуска применяется, прогнозированный блок может использоваться в качестве восстановленного блока.[91] The adder 340 may generate a reconstructed signal (recovered frame, reconstructed block, reconstructed sample array) by summing the obtained residual signal with a predictive signal (predicted block, predicted sample array) output from prediction module 330. If there is no remainder for the block to be processed, for example, when the skip mode is applied, the predicted block may be used as the reconstructed block.

[92] Сумматор 340 может называться "модулем восстановления" или "формирователем восстановленных блоков". Сформированный восстановленный сигнал может использоваться для внутреннего прогнозирования следующего блока, который должен обрабатываться в текущем кадре, может выводиться посредством фильтрации, как описано ниже, или может использоваться для взаимного прогнозирования следующего кадра.[92] The adder 340 may be referred to as a "recovery module" or "recovered block generator". The generated recovered signal may be used for intra prediction of the next block to be processed in the current frame, may be output by filtering as described below, or may be used for inter prediction of the next frame.

[93] Между тем, преобразование сигнала яркости с масштабированием сигнала цветности (LMCS) может применяться в процессе декодирования кадров.[93] Meanwhile, luminance chrominance scaling (LMCS) transform may be applied in the frame decoding process.

[94] Фильтр 350 может повышать субъективное/объективное качество изображений посредством применения фильтрации к восстановленному сигналу. Например, фильтр 350 может формировать модифицированный восстановленный кадр посредством применения различных способов фильтрации к восстановленному кадру и сохранять модифицированный восстановленный кадр в запоминающем устройстве 360, а именно, в DPB запоминающего устройства 360. Различные способы фильтрации могут включать в себя, например, фильтрацию для удаления блочности, фильтрацию на основе дискретизированного адаптивного смещения, адаптивный контурный фильтр, билатеральный фильтр и т.п.[94] The filter 350 can improve subjective/objective image quality by applying filtering to the reconstructed signal. For example, filter 350 may generate a modified reconstructed frame by applying various filtering methods to the reconstructed frame and store the modified reconstructed frame in memory 360, namely the DPB of memory 360. Various filtering methods may include, for example, filtering to deblock , filtering based on a sampled adaptive bias, an adaptive loop filter, a bilateral filter, and the like.

[95] (Модифицированный) восстановленный кадр, сохраненный в DPB запоминающего устройства 360, может использоваться в качестве опорного кадра в модуле 332 взаимного прогнозирования. Запоминающее устройство 360 может сохранять информацию движения блока, из которой информация движения в текущем кадре извлекается (или декодируется), и/или информацию движения блоков в кадре, которые уже восстановлены. Сохраненная информация движения может передаваться в модуль 260 взаимного прогнозирования, так что она используется в качестве информации движения пространственного соседнего блока или информации движения временного соседнего блока. Запоминающее устройство 360 может сохранять восстановленные выборки восстановленных блоков в текущем кадре и передавать восстановленные выборки в модуль 331 внутреннего прогнозирования.[95] The (modified) reconstructed frame stored in the DPB of the storage device 360 may be used as a reference frame in the inter prediction module 332 . The memory 360 may store block motion information from which motion information in the current frame is extracted (or decoded) and/or motion information of blocks in the frame that have already been recovered. The stored motion information may be transmitted to the inter-prediction unit 260 so that it is used as spatial neighbor block motion information or temporal neighbor block motion information. The memory device 360 may store the reconstructed samples of the reconstructed blocks in the current frame and pass the reconstructed samples to the intra prediction module 331 .

[96] В этом подробном описании, варианты осуществления, описанные в модуле 330 прогнозирования, деквантователе 321, обратном преобразователе 322 и фильтре 350 оборудования 300 декодирования, представляют собой модуль 220 прогнозирования, деквантователь 234, обратный преобразователь 235 и фильтр 260 и могут применяться идентичным или соответствующим способом.[96] In this detailed description, the embodiments described in the prediction module 330, the dequantizer 321, the inverse transformer 322, and the filter 350 of the decoding equipment 300 are the prediction module 220, the dequantizer 234, the inverse transformer 235, and the filter 260, and may be applied identically or in the appropriate way.

[97] Как описано выше, при кодировании видео, прогнозирование выполняется для того, чтобы повышать эффективность сжатия. Через это, можно формировать прогнозированный блок, включающий в себя прогнозные выборки для текущего блока, который представляет собой блок, который должен кодироваться. Здесь, прогнозированный блок включает в себя прогнозные выборки в пространственной области (или пиксельной области). Прогнозированный блок извлекается одинаково из устройства кодирования и устройства декодирования, и устройство кодирования декодирует информацию (остаточную информацию) относительно остатка между исходным блоком и прогнозированным блоком, а не исходное выборочное значение самого исходного блока. Посредством передачи служебных сигналов в устройство, может повышаться эффективность кодирования изображений. Оборудование декодирования может извлекать остаточный блок, включающий в себя остаточные выборки на основе остаточной информации, и формировать восстановленный блок, включающий в себя восстановленные выборки, посредством суммирования остаточного блока с прогнозированным блоком и формировать восстановленный кадр, включающий в себя восстановленные блоки.[97] As described above, when encoding video, prediction is performed in order to improve compression efficiency. Through this, it is possible to generate a prediction block including prediction samples for the current block, which is a block to be encoded. Here, the prediction block includes prediction samples in the spatial domain (or pixel domain). The predicted block is extracted equally from the encoder and the decoder, and the encoder decodes information (residual information) about the residual between the original block and the predicted block, rather than the original sample value of the original block itself. By signaling to the device, image encoding efficiency can be improved. The decoding equipment can extract a residual block including the residual samples based on the residual information, and generate a reconstructed block including the reconstructed samples by summing the residual block with the predicted block, and generate a reconstructed frame including the reconstructed blocks.

[98] Остаточная информация может формироваться через процессы преобразования и квантования. Например, оборудование кодирования может извлекать остаточный блок между исходным блоком и прогнозированным блоком и выполнять процесс преобразования для остаточных выборок (массива остаточных выборок), включенных в остаточный блок, чтобы извлекать коэффициенты преобразования, и после этого, посредством выполнения процесса квантования для коэффициентов преобразования, извлекать квантованные коэффициенты преобразования, чтобы передавать в служебных сигналах остаточную связанную информацию в оборудование декодирования (через поток битов). Здесь, остаточная информация может включать в себя информацию местоположения, технологию преобразования, ядро преобразования и параметр квантования, информацию значений квантованных коэффициентов преобразования и т.д. Оборудование декодирования может выполнять процесс деквантования/обратного преобразования на основе остаточной информации и извлекать остаточные выборки (или остаточные блоки). Оборудование декодирования может формировать восстановленный кадр на основе прогнозированного блока и остаточного блока. Оборудование кодирования также может деквантовать/обратно преобразовывать квантованные коэффициенты преобразования для ссылки для взаимного прогнозирования более позднего кадра, чтобы извлекать остаточный блок и формировать восстановленный кадр на его основе.[98] Residual information may be generated through transformation and quantization processes. For example, the encoding equipment may extract the residual block between the original block and the predicted block, and perform a transform process on the residual samples (array of residual samples) included in the residual block to extract transform coefficients, and thereafter, by performing a quantization process on the transform coefficients, extract quantized transform coefficients to signal the residual associated information to the decoding equipment (via the bitstream). Here, the residual information may include location information, transform technology, transform kernel and quantization parameter, quantized transform coefficient value information, and so on. The decoding equipment may perform a dequantization/inverse transform process based on the residual information and extract residual samples (or residual blocks). The decoding equipment may generate a reconstructed frame based on the predicted block and the residual block. The encoding equipment may also dequantize/inversely transform the quantized transform coefficients for a later frame inter-prediction reference to extract the residual block and generate a reconstructed frame based on it.

[99] В настоящем документе, по меньшей мере, одно из квантования/деквантования и/или преобразования/обратного преобразования может опускаться. Когда квантование/деквантование опускается, квантованный коэффициент преобразования может называться "коэффициентом преобразования". Когда преобразование/обратное преобразование опускается, коэффициенты преобразования могут называться "коэффициентами" или "остаточными коэффициентами" либо по-прежнему могут называться "коэффициентами преобразования" для единообразности выражения.[99] Herein, at least one of quantization/dequantization and/or transformation/inverse transformation may be omitted. When quantization/dequantization is omitted, the quantized transform coefficient may be referred to as a "transform coefficient". When the transform/inverse transform is omitted, the transform coefficients may be referred to as "coefficients" or "residual coefficients", or may still be referred to as "transform coefficients" for uniformity of expression.

[100] В настоящем документе, квантованный коэффициент преобразования и коэффициент преобразования могут называться "коэффициентом преобразования" и "масштабированным коэффициентом преобразования", соответственно. В этом случае, остаточная информация может включать в себя информацию относительно коэффициента(ов) преобразования, и информация относительно коэффициента(ов) преобразования может передаваться в служебных сигналах через синтаксис остаточного кодирования. Коэффициенты преобразования могут извлекаться на основе остаточной информации (или информации относительно коэффициента(ов) преобразования), и масштабированные коэффициенты преобразования могут извлекаться через обратное преобразование (масштабирование) для коэффициентов преобразования. Остаточные выборки могут извлекаться на основе обратного преобразования (преобразования) масштабированных коэффициентов преобразования. Это также может применяться/выражаться в других частях настоящего документа.[100] Herein, the quantized transform coefficient and the transform coefficient may be referred to as "transform coefficient" and "scaled transform coefficient", respectively. In this case, the residual information may include information on the transform coefficient(s), and information on the transform coefficient(s) may be signaled via the residual coding syntax. The transform coefficients may be derived based on the residual information (or information regarding the transform coefficient(s)), and the scaled transform coefficients may be derived via an inverse transform (scaling) of the transform coefficients. Residual samples may be derived based on an inverse transform (transform) of the scaled transform coefficients. This may also apply/express in other parts of this document.

[101] Модуль прогнозирования оборудования кодирования/оборудования декодирования может извлекать прогнозную выборку посредством выполнения взаимного прогнозирования в единицах блоков. Взаимное прогнозирование может представлять собой прогнозирование, извлекаемое таким способом, который зависит от элементов данных (например, выборочных значений или информации движения и т.д.) кадра(ов), отличного от текущего кадра. Когда взаимное прогнозирование применяется к текущему блоку, прогнозированный блок (массив прогнозных выборок) для текущего блока может извлекаться на основе опорного блока (массива опорных выборок), указываемого посредством вектора движения в опорном кадре, указываемом посредством индекса опорного кадра. Здесь, чтобы уменьшать объем информации движения, передаваемой в режиме взаимного прогнозирования, информация движения текущего блока может прогнозироваться в единицах блоков, субблоков или выборок на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорного кадра. Информация движения дополнительно может включать в себя информацию типа взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование, бипрогнозирование и т.д.). В случае взаимного прогнозирования, соседний блок может включать в себя пространственный соседний блок, присутствующий в текущем кадре, и временной соседний блок, присутствующий в опорном кадре. Опорный кадр, включающий в себя опорный блок, и опорный кадр, включающий в себя временной соседний блок, могут быть идентичными или отличающимися. Временной соседний блок может называться "совместно размещенным опорным блоком", "совместно размещенной CU (colCU)" и т.п., и опорный кадр, включающий в себя временной соседний блок, может называться "совместно размещенным кадром (colPic)". Например, список возможных вариантов информации движения может быть сконфигурирован на основе соседних блоков текущего блока, и информация флага или индекса, указывающая то, какой возможный вариант выбирается (используется), может передаваться в служебных сигналах, чтобы извлекать вектор движения и/или индекс опорного кадра текущего блока. Взаимное прогнозирование может выполняться на основе различных режимов прогнозирования. Например, в случае режима пропуска и режима объединения, информация движения текущего блока может быть идентичной информации движения соседнего блока. В режиме пропуска, в отличие от режима объединения, остаточный сигнал может не передаваться. В случае режима прогнозирования векторов движения (MVP), вектор движения выбранного соседнего блока может использоваться в качестве предиктора вектора движения, и вектор движения текущего блока может передаваться в служебных сигналах. В этом случае, вектор движения текущего блока может извлекаться с использованием суммы предиктора вектора движения и разности векторов движения.[101] The prediction unit of the encoding equipment/decoding equipment can extract a predictive sample by performing inter prediction in units of blocks. Inter-prediction may be a prediction derived in a manner that depends on data elements (eg, sample values or motion information, etc.) of a frame(s) other than the current frame. When inter prediction is applied to a current block, a predicted block (predictive sample array) for the current block may be derived based on a reference block (reference sample array) indicated by a motion vector in a reference frame indicated by a reference frame index. Here, in order to reduce the amount of motion information transmitted in the inter-prediction mode, the motion information of the current block may be predicted in units of blocks, sub-blocks, or samples based on the correlation of the motion information between the adjacent block and the current block. The motion information may include a motion vector and a reference frame index. The motion information may further include inter-prediction type information (L0 prediction, L1 prediction, bi-prediction, etc.). In the case of inter prediction, an adjacent block may include a spatial adjacent block present in the current frame and a temporal adjacent block present in the reference frame. The reference frame including the reference block and the reference frame including the temporal neighbor block may be the same or different. The temporal neighbor block may be referred to as a "collocated reference block", "collocated CU (colCU)" or the like, and a reference frame including the temporal neighbor block may be referred to as a "collocated frame (colPic)". For example, a list of motion information candidates may be configured based on adjacent blocks of the current block, and flag or index information indicating which candidate is selected (used) may be signaled to derive a motion vector and/or a reference frame index. current block. Inter prediction may be performed based on various prediction modes. For example, in the case of the skip mode and the join mode, the motion information of the current block may be identical to the motion information of the adjacent block. In the skip mode, unlike the combine mode, the residual signal may not be transmitted. In the case of a motion vector prediction (MVP) mode, the motion vector of a selected neighboring block may be used as a motion vector predictor, and the motion vector of the current block may be signaled. In this case, the motion vector of the current block may be extracted using the sum of the motion vector predictor and the motion vector difference.

[102] Информация движения может включать в себя L0-информацию движения и/или L1-информацию движения согласно типу взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование, бипрогнозирование и т.д.). Вектор движения в L0-направлении может называться "L0-вектором движения" или "MVL0", и вектор движения в L1-направлении может называться "L1-вектором движения" или "MVL1". Прогнозирование на основе L0-вектора движения может называться "L0-прогнозированием", прогнозирование на основе L1-вектора движения может называться "L1-прогнозированием", и прогнозирование на основе как L0-вектора движения, так и L1-вектора движения может называться "бипрогнозированием". Здесь, L0-вектор движения может указывать вектор движения, ассоциированный со списком L0 опорных кадров (L0), и L1-вектор движения может указывать вектор движения, ассоциированный со списком L1 опорных кадров (L1). Список L0 опорных кадров может включать в себя кадры, которые находятся раньше в порядке вывода, чем текущий кадр, в качестве опорных кадров, и список L1 опорных кадров может включать в себя кадры, которые находятся позже в порядке вывода, чем текущий кадр. Предыдущие кадры могут называться "прямыми (опорными) кадрами", и последующие кадры могут называться "обратными (опорными) кадрами". Список L0 опорных кадров дополнительно может включать в себя кадры, которые находятся позже в порядке вывода, чем текущий кадр, в качестве опорных кадров. В этом случае, предыдущие кадры могут индексироваться сначала в списке L0 опорных кадров, и последующие кадры могут индексироваться позже. Список L1 опорных кадров дополнительно может включать в себя предыдущие кадры в порядке вывода относительно текущего кадра в качестве опорных кадров. В этом случае, последующие кадры могут индексироваться сначала в списке 1 опорных кадров, и предыдущие кадры могут индексироваться позже. Порядок вывода может соответствовать порядку номеров в последовательности кадров (POC).[102] The motion information may include L0 motion information and/or L1 motion information according to the type of mutual prediction (L0 prediction, L1 prediction, bi-prediction, etc.). The motion vector in the L0 direction may be referred to as the "L0 motion vector" or "MVL0", and the motion vector in the L1 direction may be referred to as the "L1 motion vector" or "MVL1". Prediction based on the L0 motion vector may be referred to as "L0 prediction", prediction based on the L1 motion vector may be referred to as "L1 prediction", and prediction based on both the L0 motion vector and the L1 motion vector may be referred to as "biprediction". ". Here, the L0 motion vector may indicate a motion vector associated with the L0 list of reference frames (L0), and the L1 motion vector may indicate a motion vector associated with the L1 list of reference frames (L1). The reference frame list L0 may include frames that are earlier in the output order than the current frame as reference frames, and the reference frame list L1 may include frames that are later in the output order than the current frame. Previous frames may be referred to as "forward (reference) frames", and subsequent frames may be referred to as "reverse (reference) frames". The reference frame list L0 may further include frames that are later in the output order than the current frame as reference frames. In this case, previous frames may be indexed first in the reference frame list L0, and subsequent frames may be indexed later. The reference frame list L1 may further include previous frames in output order relative to the current frame as reference frames. In this case, subsequent frames may be indexed first in the reference frame list 1, and previous frames may be indexed later. The output order may correspond to the order of the numbers in the sequence of frames (POC).

[103] Фиг. 4 примерно показывает иерархическую структуру для кодированного изображения/видео.[103] FIG. 4 roughly shows the hierarchical structure for an encoded picture/video.

[104] Ссылаясь на фиг. 4, кодированное изображение/видео разделяется на слой кодирования видео (VCL), который обрабатывает процесс декодирования изображения/видео и себя, подсистему, которая передает и сохраняет кодированную информацию, и NAL (слой абстрагирования от сети), отвечающий за функцию и присутствующий между VCL и подсистемой.[104] Referring to FIG. 4, the encoded image/video is divided into a video coding layer (VCL) that handles the process of decoding the image/video and itself, a subsystem that transmits and stores the encoded information, and a NAL (network abstraction layer) responsible for the function and present between the VCL. and subsystem.

[105] В VCL, формируются VCL-данные, включающие в себя сжатые данные изображений (данные срезов), либо может формироваться набор параметров, включающий в себя набор параметров кадра (PSP), набор параметров последовательности (SPS) и набор параметров видео (VPS), или сообщение с дополнительной улучшающей информацией (SEI), дополнительно требуемое для процесса декодирования изображений.[105] In the VCL, VCL data including compressed image data (slice data) is generated, or a parameter set including a frame parameter set (PSP), a sequence parameter set (SPS), and a video parameter set (VPS) may be generated. ), or a Supplementary Enhancement Information (SEI) message additionally required for the picture decoding process.

[106] В NAL, NAL-единица может формироваться посредством добавления информации заголовка (заголовка NAL-единицы) в первичную байтовую последовательность данных (RBSP), сформированную в VCL. В этом случае, RBSP означает данные срезов, набор параметров, SEI-сообщение и т.д., сформированные в VCL. Заголовок NAL-единицы может включать в себя информацию типа NAL-единиц, указываемую согласно RBSP-данным, включенным в соответствующую NAL-единицу.[106] In the NAL, a NAL unit may be generated by adding header information (NAL unit header) to a Primary Data Byte Sequence (RBSP) generated in the VCL. In this case, RBSP means slice data, parameter set, SEI message, etc. generated in the VCL. The NAL unit header may include NAL unit type information indicated according to the RBSP data included in the corresponding NAL unit.

[107] Как показано на чертеже, NAL-единица может классифицироваться на VCL NAL-единицу и не-VCL NAL-единицу согласно RBSP, сформированной в VCL. VCL NAL-единица может означать NAL-единицу, которая включает в себя информацию относительно изображения (данных срезов) в изображении, и не-VCL NAL-единица может означать NAL-единицу, которая включает в себя информацию (набор параметров или SEI-сообщение) требуемый для декодирования изображения.[107] As shown in the drawing, a NAL unit can be classified into a VCL NAL unit and a non-VCL NAL unit according to the RBSP generated in the VCL. A VCL NAL unit may mean a NAL unit that includes information about an image (slice data) in an image, and a non-VCL NAL unit may mean a NAL unit that includes information (parameter set or SEI message) required for image decoding.

[108] Вышеуказанные VCL NAL-единица и не-VCL NAL-единица могут передаваться через сеть посредством присоединения информации заголовка согласно стандарту данных подсистемы. Например, NAL-единица может преобразовываться в формат данных предварительно определенного стандарта, такого как формат файлов H.266/VVC, транспортный протокол реального времени (RTP), транспортный поток (TS) и т.д., и передаваться через различные сети.[108] The above VCL NAL unit and non-VCL NAL unit can be transmitted over the network by attaching header information according to the subsystem data standard. For example, the NAL unit may be converted to a data format of a predetermined standard such as H.266/VVC file format, Real Time Transport Protocol (RTP), Transport Stream (TS), etc., and transmitted through various networks.

[109] Как описано выше, NAL-единица может указываться с типом NAL-единицы согласно структуре RBSP-данных, включенной в соответствующую NAL-единицу, и информация относительно типа NAL-единицы может сохраняться и передаваться в служебных сигналах в заголовке NAL-единицы.[109] As described above, the NAL unit may be indicated with the type of the NAL unit according to the RBSP data structure included in the corresponding NAL unit, and information regarding the type of the NAL unit may be stored and signaled in the header of the NAL unit.

[110] Например, NAL-единица может классифицироваться на тип VCL NAL-единицы и тип не-VCL NAL-единицы согласно тому, включает или нет NAL-единица в себя информацию (данные срезов) относительно изображения. Тип VCL NAL-единицы может классифицироваться согласно природе и типу кадров, включенных в VCL NAL-единицу, и тип не-VCL NAL-единицы может классифицироваться согласно типам наборов параметров.[110] For example, the NAL unit may be classified into a VCL type of NAL unit and a non-VCL NAL unit type according to whether or not the NAL unit includes information (slice data) about an image. The VCL type of the NAL unit may be classified according to the nature and type of frames included in the VCL NAL unit, and the type of the non-VCL NAL unit may be classified according to parameter set types.

[111] Ниже приводится пример типа NAL-единицы, указываемого согласно типу набора параметров, включенного в тип не-VCL NAL-единицы.[111] The following is an example of a NAL unit type specified according to a parameter set type included in a non-VCL NAL unit type.

[112] - NAL-единица APS (набора параметров адаптации): Тип для NAL-единицы, включающей в себя APS[112] - APS (Adaptation Parameter Set) NAL Unit: A type for a NAL unit including an APS

[113] - NAL-единица DPS (набора параметров декодирования): Тип для NAL-единицы, включающей в себя DPS[113] - DPS (Decoding Parameter Set) NAL Unit: A type for a NAL unit including a DPS

[114] - NAL-единица VPS (набора параметров видео): Тип для NAL-единицы, включающей в себя VPS[114] - VPS (Video Parameter Set) NAL Unit: A type for a NAL unit including a VPS

[115] - NAL-единица SPS (набора параметров последовательности): Тип для NAL-единицы, включающей в себя SPS[115] - SPS (Sequence Parameter Set) NAL Unit: A type for a NAL unit including an SPS

[116] - NAL-единица PPS (набора параметров кадра): Тип для NAL-единицы, включающей в себя PPS[116] - PPS (Frame Parameter Set) NAL Unit: A type for a NAL unit including a PPS

[117] - NAL-единица PH (заголовка кадра): Тип для NAL-единицы, включающей в себя PH[117] - PH (Frame Header) NAL Unit: A type for a NAL unit including a PH

[118] Вышеуказанные типы NAL-единиц могут иметь синтаксическую информацию для типа NAL-единицы, и синтаксическая информация может сохраняться и передаваться в служебных сигналах в заголовке NAL-единицы. Например, синтаксическая информация может быть nal_unit_type, и типы NAL-единиц могут указываться посредством значения nal_unit_type.[118] The above NAL unit types may have syntax information for the NAL unit type, and the syntax information may be stored and signaled in the NAL unit header. For example, the syntax information may be nal_unit_type and the types of NAL units may be indicated by the value of nal_unit_type.

[119] Между тем, как описано выше, один кадр может включать в себя множество срезов, и один срез может включать в себя заголовок среза и данные срезов. В этом случае, один заголовок кадра дополнительно может добавляться во множество срезов (заголовок среза и набор данных срезов) в одном кадре. Заголовок кадра (синтаксис заголовков кадра) может включать в себя информацию/параметры, обычно применимую к кадру. В настоящем документе, срез может смешиваться или заменяться группой плиток. Кроме того, в настоящем документе, заголовок среза может смешиваться или заменяться заголовком группы плиток.[119] Meanwhile, as described above, one frame may include a plurality of slices, and one slice may include a slice header and slice data. In this case, one frame header may additionally be added to a plurality of slices (a slice header and a slice dataset) in one frame. The frame header (frame header syntax) may include information/parameters generally applicable to the frame. In this document, the slice may be mixed or replaced by a group of tiles. In addition, in this document, the slice header may be mixed with or replaced with a tile group header.

[120] Заголовок среза (синтаксис заголовка среза, информация заголовка среза) может включать в себя информацию/параметры, которая может применяться обобщенно к срезу. APS (APS-синтаксис) или PPS (PPS-синтаксис) может включать в себя информацию/параметры, которая может применяться обобщенно к одному или более срезов или кадров. SPS (SPS-cинтаксис) может включать в себя информацию/параметры, которая может применяться обобщенно к одной или более последовательностей. VPS (VPS-синтаксис) может включать в себя информацию/параметры, которая может применяться обобщенно к нескольким слоям. DPS (DPS-синтаксис) может включать в себя информацию/параметры, которая может применяться обобщенно к полному видео. DPS может включать в себя информацию/параметры, связанную с конкатенацией кодированной видеопоследовательности (CVS). Высокоуровневый синтаксис (HLS) в настоящем документе может включать в себя, по меньшей мере, одно из APS-синтаксиса, PPS-синтаксиса, SPS-cинтаксиса, VPS-синтаксиса, DPS-синтаксиса и синтаксиса заголовков срезов.[120] The slice header (slice header syntax, slice header information) may include information/parameters that may be applied generically to the slice. APS (APS Syntax) or PPS (PPS Syntax) may include information/parameters that may be applied generically to one or more slices or frames. SPS (SPS Syntax) may include information/parameters that may be applied generically to one or more sequences. VPS (VPS syntax) may include information/parameters that may be applied generically to multiple layers. DPS (DPS Syntax) may include information/parameters that may be applied generically to the full video. The DPS may include information/parameters related to coded video sequence (CVS) concatenation. The High Level Syntax (HLS) herein may include at least one of APS Syntax, PPS Syntax, SPS Syntax, VPS Syntax, DPS Syntax, and Slice Header Syntax.

[121] В настоящем документе, изображение/информация изображений, кодированная из оборудования кодирования и передаваемая в служебных сигналах в оборудование декодирования в форме потока битов, включает в себя не только связанную с сегментацией информацию в кадре, информацию внутреннего/взаимного прогнозирования, остаточную информацию, информацию внутриконтурной фильтрации и т.п., но также и информацию, включенную в заголовок среза, информацию, включенную в APS, информацию, включенную в PPS, информацию, включенную в SPS, и/или информацию, включенную в VPS.[121] Here, the image/image information encoded from the encoding equipment and signaled to the decoding equipment in the form of a bit stream includes not only segmentation-related information in a frame, intra/inter prediction information, residual information, in-loop filtering information and the like, but also information included in the slice header, information included in the APS, information included in the PPS, information included in the SPS, and/or information included in the VPS.

[122] Между тем, чтобы компенсировать разность между исходным изображением и восстановленным изображением вследствие ошибки, возникающей в процессе кодирования со сжатием, таком как, квантование, процесс внутриконтурной фильтрации может выполняться для восстановленных выборок или восстановленных кадров, как описано выше. Как описано выше, внутриконтурная фильтрация может выполняться посредством фильтра оборудования кодирования и фильтра оборудования декодирования, и может применяться фильтр удаления блочности, SAO и/или адаптивный контурный фильтр (ALF). Например, ALF-процесс может выполняться после того, как процесс фильтрации для удаления блочности и/или SAO-процесс завершаются. Тем не менее, даже в этом случае, процесс фильтрации для удаления блочности и/или SAO-процесс могут опускаться.[122] Meanwhile, in order to compensate for the difference between the original image and the reconstructed image due to an error occurring in a compression encoding process such as quantization, an in-loop filtering process may be performed on the reconstructed samples or reconstructed frames as described above. As described above, in-loop filtering may be performed by an encoding equipment filter and a decoding equipment filter, and a deblocking filter, SAO, and/or an adaptive loop filter (ALF) may be applied. For example, the ALF process may be executed after the deblocking filtering process and/or the SAO process is completed. However, even in this case, the deblocking filtering process and/or the SAO process may be omitted.

[123] В дальнейшем в этом документе приводится подробное описание восстановления и фильтрации кадров. При кодировании изображений/видео, восстановленный блок может формироваться на основе внутреннего прогнозирования/взаимного прогнозирования для каждого блока, и может формироваться восстановленный кадр, включающий в себя восстановленные блоки. Когда текущий кадр/срез представляет собой I-кадр/срез, блоки, включенные в текущий кадр/срез, могут восстанавливаться только на основе внутреннего прогнозирования. Между тем, когда текущий кадр/срез представляет собой P- или B-кадр/срез, блоки, включенные в текущий кадр/срез, могут восстанавливаться на основе внутреннего прогнозирования или взаимного прогнозирования. В этом случае, внутреннее прогнозирование может применяться к некоторым блокам в текущем кадре/срезе, и взаимное прогнозирование может применяться к оставшимся блокам.[123] Later in this document, a detailed description of frame recovery and filtering is provided. In image/video coding, a reconstructed block may be generated based on intra-prediction/inter-prediction for each block, and a reconstructed frame including the reconstructed blocks may be generated. When the current frame/slice is an I-frame/slice, blocks included in the current frame/slice can only be reconstructed based on intra prediction. Meanwhile, when the current frame/slice is a P or B frame/slice, blocks included in the current frame/slice may be reconstructed based on intra prediction or inter prediction. In this case, intra prediction may be applied to some blocks in the current frame/slice, and inter prediction may be applied to the remaining blocks.

[124] Внутреннее прогнозирование может означать прогнозирование, которое формирует прогнозные выборки для текущего блока на основе опорных выборок в кадре, которому принадлежит текущий блок (далее называется "текущим кадром"). Когда внутреннее прогнозирование применяется к текущему блоку, соседние опорные выборки, которые должны использоваться для внутреннего прогнозирования текущего блока, могут извлекаться. Соседние опорные выборки текущего блока могут включать в себя выборки, смежные с левой границей относительно текущего блока, имеющего размер nWxnH, и в сумме 2xnH выборок, граничащих с левой нижней частью, выборки, смежные с верхней границей относительно текущего блока, и в сумме 2xnW выборок, граничащих с правой верхней частью, и одну выборку, граничащую с левой верхней частью относительно текущего блока. Альтернативно, соседние опорные выборки текущего блока могут включать в себя множество верхних соседних выборок и множество левых соседних выборок. Помимо этого, соседние опорные выборки текущего блока могут включать в сумме nH выборок, смежных с правой границей относительно текущего блока, имеющего размер nWxnH, в сумме nW выборок, смежных с нижней границей относительно текущего блока, и одну выборку, смежную с правой нижней частью относительно текущего блока.[124] Intra prediction may mean prediction that generates predictive samples for a current block based on reference samples in a frame to which the current block belongs (hereinafter referred to as "current frame"). When intra prediction is applied to the current block, adjacent reference samples to be used for intra prediction of the current block may be extracted. Adjacent reference samples of the current block may include samples adjacent to the left border relative to the current block having size nWxnH and a total of 2xnH samples bordering the bottom left, samples adjacent to the upper border relative to the current block and a total of 2xnW samples , bordering the top right, and one selection bordering the top left, relative to the current block. Alternatively, the adjacent reference samples of the current block may include a plurality of upper neighbor samples and a plurality of left neighbor samples. In addition, the adjacent reference samples of the current block may include a sum of nH samples adjacent to the right boundary with respect to the current block having size nWxnH, a sum of nW samples adjacent to the lower boundary with respect to the current block, and one sample adjacent to the lower right with respect to current block.

[125] Тем не менее, некоторые соседние опорные выборки текущего блока могут еще не декодироваться или не быть доступными. В этом случае, декодер может конфигурировать соседние опорные выборки, которые следует использовать для прогнозирования, посредством подстановки вместо выборок, которые не доступны, доступных выборок. Альтернативно, соседние опорные выборки, которые должны использоваться для прогнозирования, могут быть сконфигурированы через интерполяцию доступных выборок.[125] However, some adjacent reference samples of the current block may not yet be decoded or may not be available. In this case, the decoder may configure adjacent reference samples to be used for prediction by substituting available samples for samples that are not available. Alternatively, adjacent reference samples to be used for prediction may be configured through interpolation of the available samples.

[126] Когда соседние опорные выборки извлекаются, прогнозная выборка может извлекаться на основе среднего или интерполяции соседних опорных выборок текущего блока и (ii) прогнозирования из соседних опорных выборок текущего блока. Прогнозная выборка может извлекаться на основе опорной выборки, присутствующей в конкретном направлении (прогнозирования) относительно выборки. Случай (i) может называться "ненаправленным режимом" или "неугловым режимом", и случай (ii) может называться "направленным режимом" или "угловым режимом". Кроме того, на основе прогнозной выборки текущего блока из соседних опорных выборок, вторая соседняя выборка, расположенная в противоположном направлении относительно направления прогнозирования режима внутреннего прогнозирования текущего блока, и первая соседняя выборка интерполируются. Прогнозная выборка может формироваться. Вышеописанный случай может называться "внутренним прогнозированием с линейной интерполяцией (LIP)". Помимо этого, выборки прогнозирования сигналов цветности могут формироваться на основе выборок сигнала яркости с использованием линейной модели. Этот случай может называться "LM-режимом". Помимо этого, временная прогнозная выборка текущего блока может извлекаться на основе фильтрованных соседних опорных выборок и, по меньшей мере, одной опорной выборки, извлекаемой согласно режиму внутреннего прогнозирования из существующих соседних опорных выборок, т.е. нефильтрованные соседние опорные выборки и временная прогнозная выборка могут суммироваться со взвешиванием, чтобы извлекать прогнозную выборку текущего блока. Вышеописанный случай может называться "позиционно-зависимым внутренним прогнозированием (PDPC)". Помимо этого, линия опорных выборок, имеющая наибольшую точность прогнозирования из соседних множественных опорных примерных линий текущего блока, может выбираться, чтобы извлекать прогнозную выборку посредством использования опорной выборки, расположенной в направлении прогнозирования на соответствующей линии, и затем линия опорных выборок, используемая в данном документе, может указываться (передаваться в служебных сигналах) в оборудование декодирования, за счет этого выполняя внутреннее прогнозирующее кодирование. Вышеописанный случай может называться "внутренним прогнозированием на основе множественной опорной линии (MRL)" или "внутренним прогнозированием на основе MRL". Помимо этого, внутреннее прогнозирование может выполняться на основе идентичного режима внутреннего прогнозирования посредством разделения текущего блока на вертикальные или горизонтальные субсегменты, и соседние опорные выборки могут извлекаться и использоваться в единице субсегментов. Таким образом, в этом случае, режим внутреннего прогнозирования для текущего блока в равной степени применяется к субсегментам, и производительность внутреннего прогнозирования может повышаться в некоторых случаях посредством извлечения и использования соседних опорных выборок в единице субсегментов. Такой способ прогнозирования может называться "внутренним прогнозированием на основе внутренних субсегментов (ISP) или на основе ISP". Вышеуказанные способы внутреннего прогнозирования могут называться "типом внутреннего прогнозирования" отдельно от режима внутреннего прогнозирования. Тип внутреннего прогнозирования может называться с помощью различных терминов, таких как "технология внутреннего прогнозирования" или "дополнительный режим внутреннего прогнозирования". Например, тип внутреннего прогнозирования (или дополнительный режим внутреннего прогнозирования) может включать в себя, по меньшей мере, одно из вышеуказанных LIP, PDPC, MRL и ISP. Общий способ внутреннего прогнозирования, за исключением конкретного типа внутреннего прогнозирования, такого как LIP, PDPC, MRL или ISP, может называться "типом нормального внутреннего прогнозирования". Тип нормального внутреннего прогнозирования, в общем, может применяться, когда конкретный тип внутреннего прогнозирования не применяется, и прогнозирование может выполняться на основе режима внутреннего прогнозирования, описанного выше. Между тем, постфильтрация может выполняться для прогнозированной выборки, извлекаемой по мере необходимости.[126] When adjacent reference samples are extracted, a predictive sample may be derived based on an average or interpolation of adjacent reference samples of the current block and (ii) prediction from adjacent reference samples of the current block. The predictive sample may be derived based on a reference sample present in a particular direction (prediction) relative to the sample. Case (i) may be referred to as "non-directional mode" or "non-angular mode", and case (ii) may be referred to as "directional mode" or "angular mode". In addition, based on the prediction sample of the current block from the neighboring reference samples, the second neighboring sample located in the opposite direction from the prediction direction of the intra prediction mode of the current block and the first neighboring sample are interpolated. A predictive sample can be formed. The above case may be referred to as "linear interpolation intra prediction (LIP)". In addition, the chrominance signal prediction samples may be generated based on the luminance signal samples using a linear model. This case may be referred to as "LM mode". In addition, the temporal prediction sample of the current block may be derived based on the filtered neighboring reference samples and at least one reference sample derived according to the intra prediction mode from the existing neighboring reference samples, i. e. the unfiltered adjacent reference samples and the temporal prediction sample may be added with weighting to derive the current block prediction sample. The above case may be referred to as "position dependent intra prediction (PDPC)". In addition, a reference sample line having the highest prediction accuracy of the adjacent multiple reference sample lines of the current block may be selected to derive a prediction sample by using a reference sample located in the prediction direction on the corresponding line, and then the reference sample line used herein , may be indicated (signaled) to the decoding equipment, thereby performing intra predictive coding. The above case may be referred to as "multiple reference line (MRL) intra prediction" or "MRL intra prediction". In addition, intra prediction may be performed based on the same intra prediction mode by dividing the current block into vertical or horizontal sub-segments, and adjacent reference samples may be extracted and used in a unit of sub-segments. Thus, in this case, the intra prediction mode for the current block is equally applied to the sub-segments, and the performance of the intra prediction can be improved in some cases by extracting and using neighboring reference samples in a unit of sub-segments. Such a prediction method may be referred to as "intra-sub-segment prediction (ISP) or ISP-based". The above intra prediction methods may be referred to as "intra prediction type" apart from the intra prediction mode. The type of intra prediction may be referred to by various terms such as "intra prediction technology" or "additional intra prediction mode". For example, the intra prediction type (or additional intra prediction mode) may include at least one of the above LIP, PDPC, MRL, and ISP. The general intra prediction method except for a specific type of intra prediction such as LIP, PDPC, MRL, or ISP may be referred to as "normal intra prediction type". The normal intra prediction type can generally be applied when a particular type of intra prediction is not applied, and prediction can be performed based on the intra prediction mode described above. Meanwhile, post-filtering can be performed on the predicted sample, drawn as needed.

[127] В частности, процедура внутреннего прогнозирования может включать в себя этап определения режима/типа внутреннего прогнозирования, этап извлечения соседних опорных выборок и этап извлечения прогнозных выборок на основе режима/типа внутреннего прогнозирования. Помимо этого, этап постфильтрации может выполняться для прогнозированной выборки, извлекаемой по мере необходимости.[127] Specifically, the intra prediction procedure may include an intra prediction mode/type determination step, an adjacent reference sample extraction step, and a prediction sample extraction step based on the intra prediction mode/type. In addition, the post-filtering step may be performed on the predicted sample, drawn as needed.

[128] Фиг. 5 является блок-схемой последовательности операций, иллюстрирующей способ для восстановления блока на основе внутреннего прогнозирования в оборудовании кодирования. Способ по фиг. 5 может включать в себя этапы S500, S510, S520, S530 и S540.[128] FIG. 5 is a flowchart illustrating a method for block recovery based on intra prediction in the encoding equipment. The method according to FIG. 5 may include steps S500, S510, S520, S530, and S540.

[129] S500 может выполняться посредством модуля 222 внутреннего прогнозирования оборудования кодирования, и S510-S530 могут выполняться посредством остаточного процессора 230 оборудования кодирования. В частности, S510 может выполняться посредством вычитателя 231 оборудования кодирования, S520 может выполняться посредством преобразователя 232 и квантователя 233 оборудования кодирования, и S530 может выполняться посредством деквантователя 234 и обратного преобразователя 235 оборудования кодирования. На S500, информация прогнозирования может извлекаться посредством модуля 222 внутреннего прогнозирования и кодироваться посредством энтропийного кодера 240. Остаточная информация может извлекаться на S510 и S520 и кодироваться посредством энтропийного кодера 240. Остаточная информация представляет собой информацию относительно остаточных выборок. Остаточная информация может включать в себя информацию относительно квантованных коэффициентов преобразования для остаточных выборок. Как описано выше, остаточные выборки могут извлекаться в качестве коэффициентов преобразования через преобразователь 232 оборудования кодирования, и коэффициенты преобразования могут извлекаться в качестве квантованных коэффициентов преобразования через квантователь 2330. Информация относительно квантованных коэффициентов преобразования может кодироваться посредством энтропийного кодера 240 через процедуру остаточного кодирования.[129] S500 may be performed by the encoding equipment intra prediction unit 222, and S510-S530 may be performed by the encoding equipment residual processor 230. Specifically, S510 may be performed by the encoding equipment subtractor 231, S520 may be performed by the encoding equipment converter 232 and quantizer 233, and S530 may be performed by the encoding equipment dequantizer 234 and inverse converter 235. At S500, prediction information may be extracted by intra prediction unit 222 and encoded by entropy encoder 240. Residual information may be extracted at S510 and S520 and encoded by entropy encoder 240. Residual information is information regarding residual samples. The residual information may include information regarding quantized transform coefficients for the residual samples. As described above, the residual samples may be extracted as transform coefficients via the coding equipment transform 232, and the transform coefficients may be extracted as quantized transform coefficients via a quantizer 2330. Information regarding the quantized transform coefficients may be encoded by the entropy encoder 240 via a residual encoding procedure.

[130] Оборудование кодирования выполняет внутреннее прогнозирование для текущего блока (S500). Оборудование кодирования может извлекать режим внутреннего прогнозирования для текущего блока, извлекать соседние опорные выборки текущего блока и формировать прогнозные выборки в текущем блоке на основе режима внутреннего прогнозирования и соседних опорных выборок. Здесь, процедуры определения режима внутреннего прогнозирования, извлечения периферийных опорных выборок и формирования прогнозных выборок могут выполняться одновременно, или одна процедура может выполняться перед другой процедурой. Например, модуль 222 внутреннего прогнозирования устройства кодирования может включать в себя модуль определения режима/типа прогнозирования, модуль извлечения опорных выборок и модуль извлечения прогнозных выборок, и модуль определения режима/типа прогнозирования может определять режим/тип внутреннего прогнозирования для текущего блока, модуль извлечения опорных выборок может извлекать соседние опорные выборки текущего блока, и модуль извлечения прогнозных выборок может извлекать выборки движения текущего блока. Между тем, хотя не показано, когда вышеописанная процедура фильтрации прогнозных выборок выполняется, модуль 222 внутреннего прогнозирования дополнительно может включать в себя фильтр прогнозных выборок (не показан). Оборудование кодирования может определять режим, применяемый к текущему блоку, из множества режимов внутреннего прогнозирования. Оборудование кодирования может сравнивать RD-затраты для режимов внутреннего прогнозирования и определять оптимальный режим внутреннего прогнозирования для текущего блока.[130] The encoding equipment performs intra prediction for the current block (S500). The encoding equipment may extract the intra prediction mode for the current block, extract adjacent reference samples of the current block, and generate prediction samples in the current block based on the intra prediction mode and adjacent reference samples. Here, the procedures for determining the intra prediction mode, extracting the peripheral reference samples, and generating the prediction samples may be performed simultaneously, or one procedure may be performed before the other procedure. For example, the encoder intra prediction module 222 may include a prediction mode/type determination module, a reference sample extraction module, and a prediction sample extraction module, and the prediction mode/type determination module may determine the intra prediction mode/type for the current block, the reference sample extraction module samples may extract adjacent reference samples of the current block, and a predictive sample extractor may extract motion samples of the current block. Meanwhile, although not shown when the above-described prediction sample filtering procedure is performed, the intra prediction module 222 may further include a prediction sample filter (not shown). The encoding equipment may determine the mode applied to the current block from the plurality of intra prediction modes. The encoding equipment can compare the RD costs for the intra prediction modes and determine the optimal intra prediction mode for the current block.

[131] Между тем, оборудование кодирования может выполнять процедуру фильтрации прогнозных выборок. Фильтрация прогнозных выборок может называться "постфильтрацией". Некоторые или все прогнозные выборки могут фильтроваться посредством процедуры фильтрации прогнозных выборок. В некоторых случаях, процедура фильтрации прогнозных выборок может опускаться.[131] Meanwhile, the encoding equipment may perform a filtering procedure on the predictive samples. Filtering predictive samples may be referred to as "post-filtering". Some or all of the prediction samples may be filtered by a prediction sample filtering procedure. In some cases, the filtering procedure for predictive samples may be omitted.

[132] Оборудование кодирования извлекает остаточные выборки для текущего блока на основе прогнозных выборок (S510). Оборудование кодирования может сравнивать прогнозные выборки в исходных выборках текущего блока на основе фазы и извлекать остаточные выборки.[132] The encoding equipment extracts residual samples for the current block based on the predictive samples (S510). The encoding equipment may compare the predictive samples in the original samples of the current block on a phase basis and extract the residual samples.

[133] Оборудование кодирования может преобразовывать/квантовать остаточные выборки, чтобы извлекать квантованные коэффициенты преобразования (S520), и после этого деквантует/обратно преобразует квантованные коэффициенты преобразования снова, чтобы извлекать (модифицированные) остаточные выборки (S530). Причина выполнения деквантования/обратного преобразования снова после преобразования/квантования состоит в том, чтобы извлекать остаточные выборки, идентичные остаточным выборкам, извлекаемым из оборудования декодирования, как описано выше.[133] The encoding equipment may transform/quantize the residual samples to extract quantized transform coefficients (S520), and thereafter dequantize/inversely transform the quantized transform coefficients again to extract (modified) residual samples (S530). The reason for performing the dequantization/inverse transformation again after the transformation/quantization is to extract residual samples identical to the residual samples extracted from the decoding equipment as described above.

[134] Оборудование кодирования может формировать восстановленный блок, включающий в себя восстановленные выборки для текущего блока, на основе прогнозных выборок и (модифицированных) остаточных выборок (S540). Восстановленный кадр для текущего кадра может формироваться на основе восстановленного блока.[134] The encoding equipment may generate a reconstructed block including reconstructed samples for the current block based on the predictive samples and the (modified) residual samples (S540). The reconstructed frame for the current frame may be generated based on the reconstructed block.

[135] Оборудование кодирования может кодировать информацию изображений, включающую в себя информацию прогнозирования относительно внутреннего прогнозирования (например, информацию режима прогнозирования, указывающую режим прогнозирования) и остаточную информацию относительно внутренних и остаточных выборок, и выводить кодированную информацию изображений в форме потока битов, как описано выше. Остаточная информация может включать в себя синтаксис остаточного кодирования. Оборудование кодирования может преобразовывать/квантовать остаточные выборки с тем, чтобы извлекать квантованные коэффициенты преобразования. Остаточная информация может включать в себя информацию относительно квантованных коэффициентов преобразования.[135] The encoding equipment can encode image information including prediction information about intra prediction (for example, prediction mode information indicating a prediction mode) and residual information about intra and residual samples, and output the encoded image information in the form of a bitstream, as described. higher. The residual information may include a residual encoding syntax. The encoding equipment may transform/quantize the residual samples so as to extract the quantized transform coefficients. The residual information may include information regarding the quantized transform coefficients.

[136] Фиг. 6 является блок-схемой последовательности операций, иллюстрирующей способ восстановления блоков на основе внутреннего прогнозирования в оборудовании декодирования. Способ по фиг. 6 может включать в себя этапы S600, S610, S620, S630 и S640. Оборудование декодирования может выполнять операцию, соответствующую операции, выполняемой в оборудовании кодирования.[136] FIG. 6 is a flowchart illustrating a block recovery method based on intra prediction in decoding equipment. The method according to FIG. 6 may include steps S600, S610, S620, S630, and S640. The decoding equipment may perform an operation corresponding to the operation performed in the encoding equipment.

[137] S600-S620 могут выполняться посредством модуля 331 внутреннего прогнозирования оборудования декодирования, и информация прогнозирования по S600 и остаточная информация по S630 могут получаться из потока битов посредством энтропийного декодера 310 оборудования декодирования. Остаточный процессор 320 оборудования декодирования может извлекать остаточные выборки для текущего блока на основе остаточной информации. В частности, деквантователь 321 остаточного процессора 320 извлекает коэффициенты преобразования посредством выполнения деквантования на основе квантованных коэффициентов преобразования, извлекаемых на основе остаточной информации, и обратный преобразователь 322 остаточного процессора может извлекать остаточные выборки для текущего блока посредством выполнения обратного преобразования для коэффициентов преобразования. S640 может выполняться посредством сумматора 340 или модуля восстановления оборудования декодирования.[137] S600-S620 may be executed by the intra prediction unit 331 of the decoding equipment, and the prediction information of S600 and the residual information of S630 may be obtained from the bitstream by the entropy decoder 310 of the decoding equipment. The decoding hardware residual processor 320 may derive residual samples for the current block based on the residual information. Specifically, the dequantizer 321 of the residual processor 320 extracts the transform coefficients by performing dequantization based on the quantized transform coefficients derived based on the residual information, and the inverse transform 322 of the residual processor can extract the residual samples for the current block by performing an inverse transform on the transform coefficients. S640 may be performed by adder 340 or decode hardware recovery module.

[138] В частности, оборудование декодирования может извлекать режим внутреннего прогнозирования для текущего блока на основе принимаемой информации режима прогнозирования (S600). Оборудование декодирования может извлекать периферийные опорные выборки текущего блока (S610). Оборудование декодирования формирует прогнозные выборки в текущем блоке на основе режима внутреннего прогнозирования и соседних опорных выборок (S620). В этом случае, оборудование декодирования изображений может выполнять процедуру фильтрации прогнозных выборок. Фильтрация прогнозных выборок может называться "постфильтрацией". Некоторые или все прогнозные выборки могут фильтроваться посредством процедуры фильтрации прогнозных выборок. В некоторых случаях, процедура фильтрации прогнозных выборок может опускаться.[138] In particular, the decoding equipment can derive the intra prediction mode for the current block based on the received prediction mode information (S600). The decoding equipment may extract the peripheral reference samples of the current block (S610). The decoding equipment generates prediction samples in the current block based on the intra prediction mode and neighboring reference samples (S620). In this case, the image decoding equipment may perform a prediction sample filtering procedure. Filtering predictive samples may be referred to as "post-filtering". Some or all of the prediction samples may be filtered by a prediction sample filtering procedure. In some cases, the filtering procedure for predictive samples may be omitted.

[139] Оборудование декодирования формирует остаточные выборки для текущего блока на основе принимаемой остаточной информации (S630). Оборудование декодирования может формировать восстановленные выборки для текущего блока на основе прогнозных выборок и остаточных выборок и извлекать восстановленный блок, включающий в себя восстановленные выборки (S640). Восстановленный кадр для текущего кадра может формироваться на основе восстановленного блока.[139] The decoding equipment generates residual samples for the current block based on the received residual information (S630). The decoding equipment may generate reconstructed samples for the current block based on the predictive samples and the residual samples, and extract a reconstructed block including the reconstructed samples (S640). The reconstructed frame for the current frame may be generated based on the reconstructed block.

[140] Здесь, модуль 331 внутреннего прогнозирования оборудования декодирования может включать в себя модуль определения режима/типа прогнозирования, модуль извлечения опорных выборок и модуль извлечения прогнозных выборок, и модуль определения режима/типа прогнозирования может определять режим внутреннего прогнозирования для текущего блока на основе информации режима прогнозирования, полученной посредством энтропийного декодера 310 оборудования декодирования, модуль извлечения опорных выборок может извлекать периферийные опорные выборки текущего блока, и модуль извлечения прогнозных выборок может извлекать прогнозные выборки текущего блока. Между тем, хотя не показано, когда процедура фильтрации прогнозных выборок, описанная выше, выполняется, модуль 331 внутреннего прогнозирования дополнительно может включать в себя фильтр прогнозных выборок (не показан).[140] Here, the decoding equipment intra prediction unit 331 may include a prediction mode/type determination unit, a reference sample extraction unit, and a prediction sample extraction unit, and the prediction mode/type determination unit may determine the intra prediction mode for the current block based on the information of the prediction mode obtained by the entropy decoder 310 of the decoding equipment, the reference sample extractor may extract the peripheral reference samples of the current block, and the prediction sample extractor may extract the prediction samples of the current block. Meanwhile, although not shown, when the prediction sample filtering procedure described above is executed, the intra prediction unit 331 may further include a prediction sample filter (not shown).

[141] Информация прогнозирования может включать в себя информацию режима внутреннего прогнозирования и/или информацию типа внутреннего прогнозирования. Информация режима внутреннего прогнозирования может включать в себя, например, информацию флага (например, Intra_luma_mpm_flag), указывающую то, применяется либо нет наиболее вероятный режим (MPM) к текущему блоку, либо оставшийся режим применяется, и когда MPM применяется к текущему блоку, информация режима прогнозирования дополнительно может включать в себя информацию индекса (например, intra_luma_mpm_idx), указывающую один из возможных вариантов режимов внутреннего прогнозирования (возможных MPM-вариантов). Возможные варианты режимов внутреннего прогнозирования (возможные MPM-варианты) могут включать в себя список возможных MPM-вариантов или MPM-список. Помимо этого, когда MPM не применяется к текущему блоку, информация режима внутреннего прогнозирования дополнительно может включать в себя информацию оставшихся режимов (например, Intra_luma_mpm_remainder), указывающую один из оставшихся режимов внутреннего прогнозирования, за исключением возможных вариантов режимов внутреннего прогнозирования (возможных MPM-вариантов). Оборудование декодирования может определять режим внутреннего прогнозирования текущего блока на основе информации режима внутреннего прогнозирования. Отдельный MPM-список может быть сконфигурирован для вышеуказанного MIP.[141] The prediction information may include intra prediction mode information and/or intra prediction type information. The intra prediction mode information may include, for example, flag information (eg, Intra_luma_mpm_flag) indicating whether or not the most likely mode (MPM) is applied to the current block, or the remaining mode is applied, and when the MPM is applied to the current block, the mode information The prediction may further include index information (eg, intra_luma_mpm_idx) indicating one of the possible intra prediction modes (MPM candidates). Intra prediction mode candidates (MPM candidates) may include an MPM candidate list or an MPM list. In addition, when MPM is not applied to the current block, the intra prediction mode information may further include remaining mode information (e.g., Intra_luma_mpm_remainder) indicating one of the remaining intra prediction modes except for intra prediction mode options (MPM options) . The decoding equipment may determine the intra prediction mode of the current block based on the intra prediction mode information. A separate MPM list can be configured for the above MIP.

[142] Помимо этого, информация типа внутреннего прогнозирования может реализовываться в различных формах. Например, информация типа внутреннего прогнозирования может включать в себя информацию индекса типа внутреннего прогнозирования, указывающую один из типов внутреннего прогнозирования. В качестве другого примера, информация типа внутреннего прогнозирования может включать в себя, по меньшей мере, одно из информации опорной выборочной линии (например, Intra_luma_ref_idx), указывающей то, применяется или нет MRL к текущему блоку, и если применяется, то, какая опорная выборочная линия используется, информации ISP-флага (например, Intra_subpartitions_mode_flag), указывающей то, применяется или нет ISP к текущему блоку, информации ISP-типа (например, Intra_subpartitions_split_flag), указывающей тип разбиения субсегментов, когда ISP применяется, информации флага, указывающей то, применяется или нет PDCP, либо информации флага, указывающей то, применяется или нет LIP. Помимо этого, информация типа внутреннего прогнозирования может включать в себя MIP-флаг, указывающий то, применяется или нет MIP к текущему блоку.[142] In addition, the intra-prediction type information may be implemented in various forms. For example, the intra prediction type information may include intra prediction type index information indicating one of the intra prediction types. As another example, the intra prediction type information may include at least one of reference sample line information (e.g., Intra_luma_ref_idx) indicating whether or not an MRL applies to the current block, and if so, which reference sample line. line is used, ISP flag information (for example, Intra_subpartitions_mode_flag) indicating whether or not ISP is applied to the current block, ISP type information (for example, Intra_subpartitions_split_flag) indicating the sub-partition splitting type when ISP is applied, flag information indicating whether or no PDCP, or flag information indicating whether or not LIP is applied. In addition, the intra prediction type information may include a MIP flag indicating whether or not MIP is applied to the current block.

[143] Информация режима внутреннего прогнозирования и/или информация типа внутреннего прогнозирования могут кодироваться/декодироваться через способ кодирования, описанный в настоящем раскрытии сущности. Например, информация режима внутреннего прогнозирования и/или информация типа внутреннего прогнозирования могут кодироваться/декодироваться посредством энтропийного кодирования (например, CABAC, CAVLC) на основе усеченного двоичного кода (Райса).[143] The intra prediction mode information and/or the intra prediction type information may be encoded/decoded via the encoding method described in the present disclosure. For example, the intra prediction mode information and/or the intra prediction type information may be coded/decoded by entropy coding (eg, CABAC, CAVLC) based on a truncated binary code (Rice).

[144] Модуль прогнозирования оборудования кодирования/оборудования декодирования может извлекать прогнозные выборки посредством выполнения взаимного прогнозирования на поблочной основе. Взаимное прогнозирование может представлять собой прогнозирование, извлекаемое таким способом, который зависит от элементов данных (например, выборочных значений или информаций движения) кадра(ов), отличного от текущего кадра. Когда взаимное прогнозирование применяется к текущему блоку, прогнозированный блок (массив прогнозных выборок) для текущего блока может извлекаться на основе опорного блока (массива опорных выборок), указываемого посредством вектора движения в опорном кадре, указываемом посредством индекса опорного кадра. В этом случае, чтобы уменьшать объем информации движения, передаваемой в режиме взаимного прогнозирования, информация движения текущего блока может прогнозироваться в единицах блоков, субблоков или выборок на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорного кадра. Информация движения дополнительно может включать в себя информацию типа взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование, бипрогнозирование и т.д.). Когда взаимное прогнозирование применяется, соседний блок может включать в себя пространственный соседний блок, который присутствует в текущем кадре, и временной соседний блок, который присутствует в опорном кадре. Опорный кадр, включающий в себя опорный блок, и опорный кадр, включающий в себя временной соседний блок, могут быть идентичными друг другу или отличающимися друг от друга. Временной соседний блок может упоминаться под таким названием, как "совместно размещенный опорный блок", "совместно размещенная CU (colCU)", и т.д., и опорный кадр, включающий в себя временной соседний блок, может называться "совместно размещенным кадром (colPic)". Например, список возможных вариантов информации движения может быть сконфигурирован на основе соседних блоков текущего блока, и информация флага или индекса, указывающая то, какой возможный вариант выбирается (используется) для того, чтобы извлекать вектор движения и/или индекс опорного кадра текущего блока, может передаваться в служебных сигналах. Взаимное прогнозирование может выполняться на основе различных режимов прогнозирования и, например, в случае режима пропуска и режима объединения, информация движения текущего блока может быть идентичной информации движения соседнего блока. В случае режима пропуска, остаточный сигнал может не передаваться, в отличие от режима объединения. В случае режима прогнозирования векторов движения (MVP), вектор движения выбранного соседнего блока используется в качестве предиктора вектора движения, и разность векторов движения может передаваться в служебных сигналах. В этом случае, вектор движения текущего блока может извлекаться с использованием суммы предиктора вектора движения и разности векторов движения.[144] The prediction module of the encoding equipment/decoding equipment can extract predictive samples by performing inter-prediction on a block-by-block basis. Inter-prediction may be a prediction derived in a manner that depends on data elements (eg, sample values or motion information) of a frame(s) other than the current frame. When inter prediction is applied to a current block, a predicted block (predictive sample array) for the current block may be derived based on a reference block (reference sample array) indicated by a motion vector in a reference frame indicated by a reference frame index. In this case, in order to reduce the amount of motion information transmitted in the inter-prediction mode, the motion information of the current block may be predicted in units of blocks, sub-blocks, or samples based on the correlation of the motion information between the neighboring block and the current block. The motion information may include a motion vector and a reference frame index. The motion information may further include inter-prediction type information (L0 prediction, L1 prediction, bi-prediction, etc.). When inter prediction is applied, the neighbor block may include a spatial neighbor block that is present in the current frame and a temporal neighbor block that is present in the reference frame. The reference frame including the reference block and the reference frame including the temporal neighbor block may be identical to each other or different from each other. The temporal neighbor block may be referred to as "collocated reference block", "collocated CU (colCU)", etc., and a reference frame including the temporal neighbor block may be referred to as "collocated frame ( colpic)". For example, a list of motion information candidates may be configured based on neighboring blocks of the current block, and flag or index information indicating which candidate is selected (used) in order to derive the motion vector and/or index of the reference frame of the current block may transmitted in service signals. Inter-prediction may be performed based on different prediction modes and, for example, in the case of the skip mode and the join mode, the motion information of the current block may be identical to the motion information of the adjacent block. In the case of the skip mode, the residual signal may not be transmitted, in contrast to the combine mode. In the case of a motion vector prediction (MVP) mode, the motion vector of the selected neighbor block is used as a motion vector predictor, and the motion vector difference may be signaled. In this case, the motion vector of the current block may be extracted using the sum of the motion vector predictor and the motion vector difference.

[145] Фиг. 7 является блок-схемой последовательности операций, иллюстрирующей способ восстановления блоков на основе взаимного прогнозирования в оборудовании кодирования. Способ по фиг. 7 может включать в себя этапы S700, S710, S720, S730 и S740.[145] FIG. 7 is a flowchart illustrating a block recovery method based on inter prediction in coding equipment. The method according to FIG. 7 may include steps S700, S710, S720, S730, and S740.

[146] S700 может выполняться посредством модуля 221 взаимного прогнозирования оборудования кодирования, и S710-S730 могут выполняться посредством остаточного процессора 230 оборудования кодирования. В частности, S710 может выполняться посредством вычитателя 231 оборудования кодирования, S720 может выполняться посредством преобразователя 232 и квантователя 233 оборудования кодирования, и S730 может выполняться посредством деквантователя 234 и обратного преобразователя 235 оборудования кодирования. На S700, информация прогнозирования может извлекаться посредством модуля 221 взаимного прогнозирования и кодироваться посредством энтропийного кодера 240. Остаточная информация может извлекаться через S710 и S720 и кодироваться посредством энтропийного кодера 240. Остаточная информация представляет собой информацию относительно остаточных выборок. Остаточная информация может включать в себя информацию относительно квантованных коэффициентов преобразования для остаточных выборок. Как описано выше, остаточные выборки могут извлекаться в качестве коэффициентов преобразования через преобразователь 232 оборудования кодирования, и коэффициенты преобразования могут извлекаться в качестве квантованных коэффициентов преобразования через квантователь 233. Информация относительно квантованных коэффициентов преобразования может кодироваться посредством энтропийного кодера 240 через процедуру остаточного кодирования.[146] S700 may be executed by the encoding equipment mutual prediction unit 221, and S710-S730 may be performed by the encoding equipment residual processor 230. Specifically, S710 may be performed by the encoding equipment subtractor 231, S720 may be performed by the encoding equipment converter 232 and quantizer 233, and S730 may be performed by the encoding equipment dequantizer 234 and inverse converter 235. In S700, prediction information may be extracted by inter-prediction unit 221 and encoded by entropy encoder 240. Residual information may be extracted through S710 and S720 and encoded by entropy encoder 240. Residual information is information regarding residual samples. The residual information may include information regarding quantized transform coefficients for the residual samples. As described above, the residual samples may be extracted as transform coefficients via the coding equipment transform 232, and the transform coefficients may be extracted as quantized transform coefficients via the quantizer 233. Information regarding the quantized transform coefficients may be encoded by the entropy encoder 240 via a residual encoding procedure.

[147] Оборудование кодирования выполняет взаимное прогнозирование для текущего блока (S700). Оборудование кодирования может извлекать режим взаимного прогнозирования и информацию движения текущего блока и формировать прогнозные выборки текущего блока. Здесь, процедуры для определения режима взаимного прогнозирования, извлечения информации движения и формирования прогнозных выборок могут выполняться одновременно, или одна процедура может выполняться перед другой процедурой. Например, модуль 221 взаимного прогнозирования оборудования кодирования может включать в себя модуль определения режима прогнозирования, модуль извлечения информации движения и модуль извлечения прогнозных выборок, и модуль определения режима прогнозирования может определять режим прогнозирования для текущего блока, модуль извлечения информации движения может извлекать информацию движения текущего блока, и модуль извлечения прогнозных выборок может извлекать выборки движения текущего блока. Например, модуль 221 взаимного прогнозирования оборудования кодирования может выполнять поиск блока, аналогичного текущему блоку, в предварительно определенной зоне (зоне поиска) опорных кадров через оценку движения, и может извлекать опорный блок, в котором разность относительно текущего блока является минимальной либо составляет предварительно определенное опорное значение или меньше. На основе этого, индекс опорного кадра, указывающий опорный кадр, в котором расположен опорный блок, может извлекаться, и вектор движения может извлекаться на основе разности позиций между опорным блоком и текущим блоком. Оборудование кодирования может определять режим, применяемый к текущему блоку, из числа различных режимов прогнозирования. Оборудование кодирования может сравнивать функции затрат на искажение в зависимости от скорости передачи (RD) для различных режимов прогнозирования и определять оптимальный режим прогнозирования для текущего блока.[147] The encoding equipment performs inter prediction for the current block (S700). The encoding equipment may extract the inter-prediction mode and motion information of the current block, and generate prediction samples of the current block. Here, the procedures for determining the inter-prediction mode, extracting motion information, and generating prediction samples may be performed simultaneously, or one procedure may be performed before another procedure. For example, the coding equipment inter-prediction unit 221 may include a prediction mode determination unit, a motion information extraction unit, and a prediction sample extraction unit, and the prediction mode determination unit may determine the prediction mode for the current block, the motion information extraction unit may extract the motion information of the current block. , and the prediction sample extractor may extract motion samples of the current block. For example, the coding equipment inter-prediction unit 221 may search for a block similar to the current block in a predetermined area (search area) of reference frames through motion estimation, and may extract a reference block in which the difference with respect to the current block is the minimum or is a predetermined reference value or less. Based on this, a reference frame index indicating a reference frame in which the reference block is located may be extracted, and a motion vector may be extracted based on a position difference between the reference block and the current block. The encoding equipment may determine the mode applied to the current block from among various prediction modes. The encoding equipment can compare the rate-dependent distortion cost (RD) functions for different prediction modes and determine the optimal prediction mode for the current block.

[148] Например, когда режим пропуска или режим объединения применяется к текущему блоку, оборудование кодирования может конструировать список возможных вариантов объединения, который описывается ниже, и извлекать опорный блок, в котором разность относительно текущего блока является минимальной либо составляет предварительно определенное опорное значение или меньше, из опорных блоков, указываемых посредством возможных вариантов объединения, включенных в список возможных вариантов объединения. В этом случае, возможный вариант объединения, ассоциированный с извлеченным опорным блоком, может выбираться, и информация индекса объединения, указывающая выбранный возможный вариант объединения, может формироваться и передаваться в служебных сигналах в оборудование декодирования. Информация движения текущего блока может извлекаться с использованием информации движения выбранного возможного варианта объединения.[148] For example, when the skip mode or merge mode is applied to the current block, the encoding equipment may construct a merge candidate list, which is described below, and extract a reference block in which the difference with respect to the current block is minimal or is a predetermined reference value or less , from the reference blocks indicated by the join candidates included in the join candidate list. In this case, the combining candidate associated with the extracted reference block may be selected, and combining index information indicating the selected combining candidate may be generated and signaled to the decoding equipment. The motion information of the current block may be extracted using the motion information of the selected join candidate.

[149] В качестве другого примера, когда (A)MVP-режим применяется к текущему блоку, оборудование кодирования конструирует список возможных (A)MVP-вариантов, который описывается ниже, и использует вектор движения выбранного возможного MVP-варианта, из возможных вариантов предикторов векторов движения (MVP), включенных в список возможных (A)MVP-вариантов, в качестве MVP текущего блока. В этом случае, например, вектор движения, указывающий опорный блок, извлекаемый посредством оценки движения, описанной выше, может использоваться в качестве вектора движения текущего блока, и возможный MVP-вариант, имеющий вектор движения, имеющий наименьшую разность относительно вектора движения текущего блока, из возможных MVP-вариантов, может представлять собой выбранный возможный MVP-вариант. Разность векторов движения (MVD), которая представляет собой разность, полученную посредством вычитания MVP из вектора движения текущего блока, может извлекаться. В этом случае, информация относительно MVD может передаваться в служебных сигналах в оборудование декодирования. Помимо этого, когда (A)MVP-режим применяется, значение индекса опорного кадра может быть сконфигурировано как информация индекса опорного кадра и отдельно передаваться в служебных сигналах в оборудование декодирования.[149] As another example, when the (A)MVP mode is applied to the current block, the encoding equipment constructs an (A)MVP candidate list, which is described below, and uses the motion vector of the selected MVP candidate from among the predictor candidates motion vectors (MVP) included in the list of possible (A)MVP options as the MVP of the current block. In this case, for example, a motion vector indicating a reference block derived by the motion estimation described above can be used as the motion vector of the current block, and an MVP candidate having a motion vector having the smallest difference relative to the motion vector of the current block, of possible MVPs may be the selected MVP candidate. A motion vector difference (MVD), which is a difference obtained by subtracting the MVP from the motion vector of the current block, can be extracted. In this case, information regarding the MVD may be signaled to the decoding equipment. In addition, when the (A)MVP mode is applied, a reference frame index value may be configured as reference frame index information and separately signaled to the decoding equipment.

[150] Оборудование кодирования может извлекать остаточные выборки на основе прогнозных выборок (S710). Оборудование кодирования может извлекать остаточные выборки посредством сравнения исходных выборок текущего блока с прогнозными выборками.[150] The encoding equipment may derive residual samples based on the predictive samples (S710). The encoding equipment can extract residual samples by comparing the original samples of the current block with the predictive samples.

[151] Оборудование кодирования преобразует/квантует остаточные выборки, чтобы извлекать квантованные коэффициенты преобразования (S720), и затем деквантует/обратно преобразует квантованные коэффициенты преобразования снова, чтобы извлекать (модифицированные) остаточные выборки (S730). Причина выполнения деквантования/обратного преобразования снова после преобразования/квантования состоит в том, чтобы извлекать остаточные выборки, идентичные остаточным выборкам, извлекаемым из оборудования декодирования, как описано выше.[151] The encoding equipment transforms/quantizes the residual samples to extract quantized transform coefficients (S720), and then dequantizes/inversely transforms the quantized transform coefficients again to extract (modified) residual samples (S730). The reason for performing the dequantization/inverse transformation again after the transformation/quantization is to extract residual samples identical to the residual samples extracted from the decoding equipment as described above.

[152] Оборудование кодирования может формировать восстановленный блок, включающий в себя восстановленные выборки для текущего блока, на основе прогнозных выборок и (модифицированных) остаточных выборок (S740). Восстановленный кадр для текущего кадра может формироваться на основе восстановленного блока.[152] The encoding equipment may generate a reconstructed block including reconstructed samples for the current block based on the predictive samples and the (modified) residual samples (S740). The reconstructed frame for the current frame may be generated based on the reconstructed block.

[153] Хотя не показано, как описано выше, оборудование 100 кодирования может кодировать видеоинформацию, включающую в себя информацию прогнозирования и остаточную информацию. Оборудование 100 кодирования может выводить кодированную информацию изображений в форме потока битов. Информация прогнозирования может представлять собой информацию, связанную с процедурой прогнозирования, и может включать в себя информацию режима прогнозирования (например, флаг пропуска, флаг объединения или индекс режима) и информацию движения. Информация движения может включать в себя информацию выбора возможных вариантов (например, индекс объединения, MVP-флаг или MVP-индекс), которая представляет собой информацию для извлечения вектора движения. Помимо этого, информация относительно информации движения может включать в себя вышеуказанную MVD-информацию и/или информацию индекса опорного кадра. Помимо этого, информация относительно информации движения может включать в себя информацию, указывающую то, применяется либо нет L0-прогнозирование, L1-прогнозирование или бипрогнозирование. Остаточная информация представляет собой информацию относительно остаточных выборок. Остаточная информация может включать в себя информацию относительно квантованных коэффициентов преобразования для остаточных выборок.[153] Although not shown as described above, the encoding equipment 100 can encode video information including prediction information and residual information. The encoding equipment 100 may output encoded image information in the form of a bit stream. The prediction information may be information related to the prediction procedure and may include prediction mode information (eg, skip flag, merge flag, or mode index) and motion information. The motion information may include candidate selection information (eg, merge index, MVP flag, or MVP index), which is information for extracting a motion vector. In addition, information regarding motion information may include the above MVD information and/or reference frame index information. In addition, the information on the motion information may include information indicating whether or not L0 prediction, L1 prediction, or bi-prediction is applied. The residual information is information about the residual samples. The residual information may include information regarding quantized transform coefficients for the residual samples.

[154] Выходной поток битов может сохраняться на (цифровом) носителе хранения данных и передаваться в оборудование декодирования либо может передаваться в оборудование декодирования через сеть.[154] The output bit stream may be stored on a (digital) storage medium and transmitted to the decoding equipment, or may be transmitted to the decoding equipment via a network.

[155] Фиг. 8 является блок-схемой последовательности операций, иллюстрирующей способ восстановления блоков на основе взаимного прогнозирования в оборудовании декодирования. Способ по фиг. 8 может включать в себя этапы S800, S810, S820, S830 и S840. Оборудование декодирования может выполнять операцию, соответствующую операции, выполняемой посредством оборудования кодирования.[155] FIG. 8 is a flowchart illustrating a block recovery method based on inter prediction in decoding equipment. The method according to FIG. 8 may include steps S800, S810, S820, S830, and S840. The decoding equipment may perform an operation corresponding to the operation performed by the encoding equipment.

[156] S800-S820 могут выполняться посредством модуля 332 взаимного прогнозирования оборудования декодирования, и информация прогнозирования по S800 и остаточная информация по S830 могут получаться из потока битов посредством энтропийного декодера 310 оборудования декодирования. Остаточный процессор 320 оборудования декодирования может извлекать остаточные выборки для текущего блока на основе остаточной информации. В частности, деквантователь 321 остаточного процессора 320 может извлекать коэффициенты преобразования посредством выполнения деквантования на основе квантованных коэффициентов преобразования, извлекаемых на основе остаточной информации, и обратный преобразователь 322 остаточного процессора может извлекать остаточные выборки для текущего блока посредством выполнения обратного преобразования для коэффициентов преобразования. S840 может выполняться посредством сумматора 340 или модуля восстановления оборудования декодирования.[156] S800-S820 may be performed by the decoding equipment mutual prediction unit 332, and the prediction information of S800 and the residual information of S830 may be obtained from the bit stream by the entropy decoder 310 of the decoding equipment. The decoding hardware residual processor 320 may derive residual samples for the current block based on the residual information. In particular, the dequantizer 321 of the residual processor 320 may extract the transform coefficients by performing dequantization based on the quantized transform coefficients derived based on the residual information, and the dequantizer 322 of the residual processor may extract the residual samples for the current block by performing an inverse transform on the transform coefficients. S840 may be performed by adder 340 or decode hardware recovery module.

[157] В частности, оборудование декодирования может определять режим прогнозирования для текущего блока на основе принимаемой информации прогнозирования (S800). Оборудование декодирования может определять то, какой режим взаимного прогнозирования должен применяться к текущему блоку, на основе информации режима прогнозирования в информации прогнозирования.[157] In particular, the decoding equipment may determine the prediction mode for the current block based on the received prediction information (S800). The decoding equipment can determine which inter-prediction mode is to be applied to the current block based on the prediction mode information in the prediction information.

[158] Например, может определяться то, применяется или нет режим объединения к текущему блоку, или то, определяется или нет (A)MVP-режим, на основе флага объединения. Альтернативно, один из различных возможных вариантов режимов взаимного прогнозирования может выбираться на основе индекса режима. Возможные варианты режима взаимного прогнозирования могут включать в себя режим пропуска, режим объединения и/или (A)MVP-режим либо могут включать в себя различные режимы взаимного прогнозирования, которые описываются ниже.[158] For example, it may be determined whether or not the merge mode is applied to the current block, or whether or not the (A)MVP mode is determined based on the merge flag. Alternatively, one of the various possible inter-prediction modes may be selected based on the mode index. Possible options for the inter prediction mode may include skip mode, merge mode, and/or (A)MVP mode, or may include various inter prediction modes, which are described below.

[159] Оборудование декодирования извлекает информацию движения текущего блока на основе определенного режима взаимного прогнозирования. Например, когда режим пропуска или режим объединения применяется к текущему блоку, оборудование декодирования может конфигурировать список возможных вариантов объединения, который описывается ниже, и выбирать один возможный вариант объединения из числа возможных вариантов объединения, включенных в список возможных вариантов объединения. Выбор может выполняться на основе вышеуказанной информации выбора (индекса объединения). Информация движения текущего блока может извлекаться с использованием информации движения выбранного возможного варианта объединения. Информация движения выбранного возможного варианта объединения может использоваться как информация движения текущего блока.[159] The decoding equipment extracts motion information of the current block based on the determined inter-prediction mode. For example, when the skip mode or merge mode is applied to the current block, the decoding equipment may configure a merge candidate list, which is described below, and select one merge candidate from among the merge candidates included in the merge candidate list. The selection may be performed based on the above selection information (combination index). The motion information of the current block may be extracted using the motion information of the selected join candidate. The motion information of the selected join candidate may be used as the motion information of the current block.

[160] В качестве другого примера, когда (A)MVP-режим применяется к текущему блоку, оборудование декодирования может конструировать список возможных (A)MVP-вариантов, который описывается ниже, и использовать вектор движения выбранного возможного MVP-варианта из числа возможных вариантов предикторов векторов движения (MVP), включенных в список возможных (A)MVP-вариантов, в качестве MVP текущего блока. Выбор может выполняться на основе вышеописанной информации выбора (MVP-флага или MVP-индекса), описанной выше. В этом случае, MVD текущего блока может извлекаться на основе информации относительно MVD, и вектор движения текущего блока может извлекаться на основе MVP текущего блока и MVD. Кроме того, индекс опорного кадра текущего блока может извлекаться на основе информации индекса опорного кадра. Кадр, указываемый посредством индекса опорного кадра в списке опорных кадров для текущего блока, может извлекаться в качестве опорного кадра, на который ссылаются для взаимного прогнозирования текущего блока.[160] As another example, when the (A)MVP mode is applied to the current block, the decoding equipment may construct the (A)MVP candidate list, which is described below, and use the motion vector of the selected MVP candidate from among the candidates motion vector predictors (MVP) included in the list of possible (A)MVP options as the MVP of the current block. The selection may be performed based on the selection information (MVP flag or MVP index) described above. In this case, the MVD of the current block may be derived based on the information regarding the MVD, and the motion vector of the current block may be derived based on the MVP of the current block and the MVD. In addition, the index of the key frame of the current block may be derived based on the information of the index of the key frame. The frame indicated by the reference frame index in the reference frame list for the current block may be retrieved as the reference frame referenced for inter-prediction of the current block.

[161] Между тем, как описано ниже, информация движения текущего блока может извлекаться без конфигурирования списка возможных вариантов. В этом случае, информация движения текущего блока может извлекаться согласно процедуре, раскрытой в режиме прогнозирования, который описывается ниже. В этом случае, конфигурирование списка возможных вариантов, как описано выше, может опускаться.[161] Meanwhile, as described below, the motion information of the current block can be retrieved without configuring the candidate list. In this case, the motion information of the current block may be extracted according to the procedure disclosed in the prediction mode, which is described below. In this case, the option list configuration as described above may be omitted.

[162] Оборудование декодирования может формировать прогнозные выборки для текущего блока на основе информации движения текущего блока (S820). В этом случае, опорный кадр может извлекаться на основе индекса опорного кадра текущего блока, и прогнозные выборки текущего блока могут извлекаться с использованием выборок опорного блока, указываемого посредством вектора движения текущего блока в опорном кадре. В этом случае, как описано ниже, процедура фильтрации прогнозных выборок дополнительно может выполняться для всех или некоторых прогнозных выборок текущего блока в некоторых случаях.[162] The decoding equipment may generate prediction samples for the current block based on motion information of the current block (S820). In this case, the reference frame may be derived based on the reference frame index of the current block, and the prediction samples of the current block may be derived using the reference block samples indicated by the motion vector of the current block in the reference frame. In this case, as described below, the prediction sample filtering procedure may further be performed on all or some of the prediction samples of the current block in some cases.

[163] Например, модуль 332 взаимного прогнозирования оборудования декодирования может включать в себя модуль определения режима прогнозирования, модуль извлечения информации движения и модуль извлечения прогнозных выборок, и модуль определения режима прогнозирования может определять режим прогнозирования для текущего блока на основе принимаемой информации режима прогнозирования, модуль извлечения информации движения может извлекать информацию движения (вектор движения и/или индекс опорного кадра и т.д.) текущего блока на основе принимаемой информации относительно информации движения, и модуль извлечения прогнозных выборок может извлекать прогнозные выборки текущего блока.[163] For example, the decoding equipment inter-prediction unit 332 may include a prediction mode determination unit, a motion information extraction unit, and a prediction sample extraction unit, and the prediction mode determination unit may determine the prediction mode for the current block based on the received prediction mode information, the unit the motion information extractor may extract the motion information (motion vector and/or reference frame index, etc.) of the current block based on the received information regarding the motion information, and the prediction sample extractor may extract the prediction samples of the current block.

[164] Оборудование декодирования формирует остаточные выборки для текущего блока на основе принимаемой остаточной информации (S830). Оборудование декодирования может формировать восстановленные выборки для текущего блока на основе прогнозных выборок и остаточных выборок и может извлекать восстановленный блок, включающий в себя восстановленные выборки (S840). Восстановленный кадр для текущего кадра может формироваться на основе восстановленного блока.[164] The decoding equipment generates residual samples for the current block based on the received residual information (S830). The decoding equipment may generate reconstructed samples for the current block based on the predictive samples and the residual samples, and may extract a reconstructed block including the reconstructed samples (S840). The reconstructed frame for the current frame may be generated based on the reconstructed block.

[165] Различные режимы взаимного прогнозирования могут использоваться для прогнозирования текущего блока в кадре. Например, могут использоваться различные режимы, такие как режим объединения, режим пропуска, режим прогнозирования векторов движения (MVP), аффинный режим, режим объединения на основе субблоков и режим объединения с MVD (MMVD) и т.п. Режим детализации векторов движения на стороне декодера (DMVR), режим адаптивного разрешения векторов движения (AMVR), бипрогнозирование с помощью весовых коэффициентов уровня CU (BCW), двунаправленный оптический поток (BDOF) и т.п. также могут использоваться в качестве дополнительных режимов дополнительно или вместо этого. Аффинный режим может называться "режимом аффинного прогнозирования движения". MVP-режим может называться "режимом усовершенствованного прогнозирования векторов движения (AMVP)". В этом документе, некоторые режимы и/или возможные варианты информации движения, извлекаемые посредством некоторых режимов, могут включаться в качестве одного из возможных вариантов информации движения других режимов. Например, возможный HMVP-вариант может добавляться в качестве возможного варианта объединения в режиме объединения/пропуска или может добавляться в качестве возможного MVP-варианта в MVP-режиме.[165] Various inter-prediction modes may be used to predict the current block in a frame. For example, various modes such as merge mode, skip mode, motion vector prediction (MVP) mode, affine mode, sub-block based merge mode, and MVD merge mode (MMVD), and the like, may be used. Decoder side motion vector detail mode (DMVR), adaptive motion vector resolution (AMVR) mode, CU layer weighting biprediction (BCW), bidirectional optical flow (BDOF), and the like. can also be used as additional modes in addition or instead. The affine mode may be referred to as "affine motion prediction mode". The MVP mode may be referred to as "Advanced Motion Vector Prediction (AMVP) mode". In this document, some modes and/or motion information candidates retrieved by some modes may be included as one of the motion information candidates of other modes. For example, an HMVP candidate may be added as a merge candidate in merge/skip mode, or may be added as an MVP candidate in MVP mode.

[166] Информация режима прогнозирования, указывающая режим взаимного прогнозирования текущего блока, может передаваться в служебных сигналах из оборудования кодирования в оборудование декодирования. Информация режима прогнозирования может включаться в поток битов и приниматься посредством оборудования декодирования. Информация режима прогнозирования может включать в себя информацию индекса, указывающую один из множества возможных вариантов режимов. Альтернативно, режим взаимного прогнозирования может указываться через иерархическую передачу в служебных сигналах информации флага. В этом случае, информация режима прогнозирования может включать в себя один или более флагов. Например, флаг пропуска может передаваться в служебных сигналах, чтобы указывать то, применяется или нет режим пропуска, и если режим пропуска не применяется, флаг объединения может передаваться в служебных сигналах, чтобы указывать то, применяется или нет режим объединения, и если режим объединения не применяется, указывается необходимость применять MVP-режим, или флаг для дополнительной классификации дополнительно может передаваться в служебных сигналах. Аффинный режим может передаваться в служебных сигналах в независимом режиме или может передаваться в служебных сигналах в режиме, зависимом от режима объединения или MVP-режима. Например, аффинный режим может включать в себя аффинный режим объединения и аффинный MVP-режим.[166] Prediction mode information indicating the inter-prediction mode of the current block may be signaled from the encoding equipment to the decoding equipment. The prediction mode information may be included in the bitstream and received by the decoding equipment. The prediction mode information may include index information indicating one of the plurality of possible modes. Alternatively, the inter-prediction mode may be indicated via hierarchical signaling of flag information. In this case, the prediction mode information may include one or more flags. For example, a skip flag may be signaled to indicate whether or not the skip mode is applied, and if the skip mode is not applied, a merge flag may be signaled to indicate whether or not the merge mode is applied, and if the merge mode is not applied. applied, the need to apply the MVP mode is indicated, or a flag for additional classification may optionally be signaled. The affine mode may be signaled in an independent mode, or may be signaled in a mode dependent on the combining mode or the MVP mode. For example, an affine mode may include an affine join mode and an affine MVP mode.

[167] Между тем, информация, указывающая то, используется либо нет прогнозирование на основе списка 0 (L0), прогнозирование на основе списка 1 (L1) или бипрогнозирование, описанные выше, в текущем блоке (текущей единице кодирования), может передаваться в служебных сигналах в текущем блоке. Информация может называться "информацией направления прогнозирования движения", "информацией направления взаимного прогнозирования" или "информацией индикатора взаимного прогнозирования" и может конфигурироваться/кодироваться/передаваться в служебных сигналах, например, в форме синтаксического элемента inter_pred_idc. Таким образом, синтаксический элемент inter_pred_idc может указывать то, используется либо нет вышеуказанное прогнозирование на основе списка 0 (L0), прогнозирование на основе списка 1 (L1) или бипрогнозирование для текущего блока (текущей единицы кодирования). В этом документе, для удобства описания, тип взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование или бипрогнозирование), указываемый посредством синтаксического элемента inter_pred_idc, может указываться как направление прогнозирования движения. L0-прогнозирование может представляться как pred_L0, L1-прогнозирование как pred_L1, и парное прогнозирование как pred_BI. Например, следующие типы прогнозирования могут определяться согласно значению синтаксического элемента inter_pred_idc.[167] Meanwhile, information indicating whether or not the list 0 (L0) prediction, list 1 (L1) prediction, or bi-prediction described above is used in the current block (current coding unit) may be transmitted overhead. signals in the current block. The information may be referred to as "motion prediction direction information", "inter prediction direction information", or "inter prediction indicator information", and may be configured/encoded/transmitted in signaling, for example, in the form of an inter_pred_idc syntax element. Thus, the inter_pred_idc syntax element may indicate whether or not the above list 0 (L0) prediction, list 1 (L1) prediction, or bi-prediction for the current block (current coding unit) is used. In this document, for convenience of description, an inter-prediction type (L0 prediction, L1 prediction, or bi-prediction) indicated by the inter_pred_idc syntax element may be indicated as a motion prediction direction. L0 prediction may be represented as pred_L0, L1 prediction as pred_L1, and pair prediction as pred_BI. For example, the following prediction types may be determined according to the value of the inter_pred_idc syntax element.

[168][168]

Figure 00000001
Figure 00000001

Name of - НазваниеName of - Name

n.a. - Н/дn.a. - N/A

[169] Как описано выше, один кадр может включать в себя один или более срезов. Срез может иметь одни из типов срезов, включающих в себя внутренний (I) срез, прогнозирующий (P) срез и бипрогнозирующий (B) срез. Тип среза может указываться на основе информации типа среза. Для блоков в I-срезе, взаимное прогнозирование может не использоваться для прогнозирования, и только внутреннее прогнозирование может использоваться. Конечно, даже в этом случае, исходное выборочное значение может кодироваться и передаваться в служебных сигналах без прогнозирования. Внутреннее прогнозирование или взаимное прогнозирование может использоваться для блоков в P-срезе, и только унипрогнозирование может использоваться, когда используется взаимное прогнозирование. Между тем, внутреннее прогнозирование или взаимное прогнозирование может использоваться для блоков в B-срезе, и вплоть до бипрогнозирования может использоваться, когда используется взаимное прогнозирование.[169] As described above, one frame may include one or more slices. The slice may have one of the types of slices, including an inner (I) slice, a predictive (P) slice, and a bi-predictive (B) slice. The slice type may be indicated based on the slice type information. For blocks in an I-slice, inter prediction may not be used for prediction, and only intra prediction may be used. Of course, even in this case, the original sample value may be encoded and signaled without prediction. Intra-prediction or inter-prediction may be used for blocks in a P-slice, and only uni-prediction may be used when inter-prediction is used. Meanwhile, intra-prediction or inter-prediction may be used for blocks in a B-slice, and up to bi-prediction may be used when inter prediction is used.

[170] L0 и L1 могут включать в себя опорные кадры, которые ранее кодируются/декодируются до текущего кадра. Например, L0 может включать в себя опорные кадры перед и/или после текущего кадра в POC-порядке, и L1 может включать в себя опорные кадры после и/или перед текущим кадром в POC-порядке. В этом случае, L0 может назначаться меньший индекс опорного кадра относительно предыдущих опорных кадров в POC-порядке, чем относительно текущих опорных кадров, и L1 может назначаться меньший индекс опорного кадра относительно предыдущих опорных кадров в POC-порядке, чем относительно текущего кадра. В случае B-среза, бипрогнозирование может применяться, и в этом случае, однонаправленное бипрогнозирование может применяться, либо двунаправленное бипрогнозирование может применяться. Двунаправленное бипрогнозирование может называться "истинным бипрогнозированием".[170] L0 and L1 may include reference frames that are previously encoded/decoded prior to the current frame. For example, L0 may include reference frames before and/or after the current frame in POC order, and L1 may include reference frames after and/or before the current frame in POC order. In this case, L0 may be assigned a smaller key frame index with respect to previous key frames in the POC order than with respect to the current key frames, and L1 may be assigned a smaller key frame index with respect to previous key frames in the POC order than with respect to the current frame. In the case of a B-slice, biprediction may be applied, in which case, unidirectional biprediction may be applied, or bidirectional biprediction may be applied. Bidirectional biprediction may be referred to as "true biprediction".

[171] Как описано выше, остаточный блок (остаточные выборки) может извлекаться на основе прогнозированного блока (прогнозных выборок), извлекаемого через прогнозирование в каскаде кодирования, и остаточные выборки преобразуются/квантуются посредством остаточной информации, могут формироваться. Остаточная информация может включать в себя информацию относительно квантованных коэффициентов преобразования. Остаточная информация может включаться в информацию видео/изображений, и информация видео/изображений может кодироваться и передаваться в оборудование декодирования в форме потока битов. Оборудование декодирования может получать остаточную информацию из потока битов и может извлекать остаточные выборки на основе остаточной информации. В частности, оборудование декодирования может извлекать квантованные коэффициенты преобразования на основе остаточной информации и может извлекать остаточные блоки (остаточные выборки) через процесс деквантования/обратного преобразования.[171] As described above, the residual block (residual samples) may be derived based on the predicted block (predictive samples) derived through prediction in the coding stage, and the residual samples transformed/quantized by the residual information may be generated. The residual information may include information regarding the quantized transform coefficients. The residual information may be included in the video/image information, and the video/image information may be encoded and transmitted to the decoding equipment in the form of a bitstream. The decoding equipment may obtain residual information from the bitstream and may extract residual samples based on the residual information. In particular, the decoding equipment can extract quantized transform coefficients based on the residual information, and can extract residual blocks (residual samples) through a dequantization/inverse transform process.

[172] Между тем, по меньшей мере, один процесс из (обратного) преобразования и/или (де)-квантования может опускаться.[172] Meanwhile, at least one process of (inverse) transformation and/or (de)-quantization may be omitted.

[173] В дальнейшем в этом документе описывается процесс внутриконтурной фильтрации, выполняемый для восстановленного кадра. Модифицированная восстановленная выборка, блок, кадр (или модифицированная фильтрованная выборка, блок, кадр) могут формироваться через процесс внутриконтурной фильтрации, и модифицированный (модифицированный и фильтрованный) восстановленный кадр может выводиться в качестве декодированного кадра в оборудовании декодирования и также может сохраняться в буфере декодированных кадров или запоминающем устройстве оборудования кодирования/оборудования декодирования и использоваться в качестве опорного кадра в процессе взаимного прогнозирования во время кодирования/декодирования кадра впоследствии. Процесс внутриконтурной фильтрации может включать в себя процесс фильтрации для удаления блочности, процесс фильтрации на основе дискретизированного адаптивного смещения (SAO) и/или процесс адаптивной контурной фильтрации (ALF), как описано выше. В этом случае, один или некоторые из процесса фильтрации для удаления блочности, процесса фильтрации на основе дискретизированного адаптивного смещения (SAO), процесса адаптивной контурной фильтрации (ALF) и процесса билатеральной фильтрации могут последовательно применяться, либо все могут последовательно применяться. Например, SAO-процесс может выполняться после того, как процесс фильтрации для удаления блочности применяется к восстановленному кадру. Альтернативно, например, ALF-процесс может выполняться после того, как процесс фильтрации для удаления блочности применяется к восстановленному кадру. Это также может выполняться в оборудовании кодирования.[173] Hereinafter, this document describes the in-loop filtering process performed on the reconstructed frame. The modified reconstructed sample, block, frame (or modified filtered sample, block, frame) may be generated through an in-loop filtering process, and the modified (modified and filtered) reconstructed frame may be output as a decoded frame in the decoding equipment, and may also be stored in a decoded frame buffer. or storage device of the encoding equipment/decoding equipment and used as a reference frame in the inter prediction process during encoding/decoding of the frame subsequently. The in-loop filtering process may include a deblocking filtering process, a sampled adaptive offset (SAO) filtering process, and/or an adaptive loop filtering (ALF) process, as described above. In this case, one or more of the deblocking filtering process, the sampled adaptive offset (SAO) filtering process, the adaptive loop filtering (ALF) process, and the bilateral filtering process may be sequentially applied, or all may be sequentially applied. For example, the SAO process may be performed after the deblocking filtering process is applied to the reconstructed frame. Alternatively, for example, the ALF process may be performed after the deblocking filtering process is applied to the reconstructed frame. This can also be done in the coding equipment.

[174] Фильтрация для удаления блочности представляет собой технологию фильтрации, которая удаляет искажение на границах между блоками в восстановленном кадре. Процесс фильтрации для удаления блочности, например, может извлекать целевую границу из восстановленного кадра, определять граничную интенсивность (bS) для целевой границы и выполнять фильтрацию для удаления блочности для целевой границы на основе bS; bS может определяться на основе режима прогнозирования, разности векторов движения, того, является или нет опорный кадр идентичным, того, существует или нет ненулевой значимый коэффициент и т.д., для двух блоков, смежных с целевой границей.[174] Deblocking filtering is a filtering technique that removes distortion at boundaries between blocks in a reconstructed frame. The deblocking filtering process, for example, may extract a target boundary from a reconstructed frame, determine a boundary intensity (bS) for the target boundary, and perform deblocking filtering for the target boundary based on bS; bS may be determined based on the prediction mode, motion vector difference, whether or not the reference frame is identical, whether or not a non-zero significant coefficient exists, etc., for two blocks adjacent to the target boundary.

[175] SAO представляет собой способ для компенсации разности смещения между восстановленным кадром и исходным кадром на основе выборок. Например, SAO может применяться на основе типа, к примеру, как полосовое смещение, краевое смещение и т.п. Согласно SAO, выборки могут классифицироваться на различные категории согласно каждому SAO-типу, и значение смещения может суммироваться с каждой выборкой на основе категории. Информация фильтрации для SAO может включать в себя информацию относительно того, применяется или нет SAO, информацию SAO-типа и информацию значений SAO-смещения. SAO может применяться к восстановленному кадру после того, как фильтрация для удаления блочности применяется.[175] SAO is a method for compensating for an offset difference between a reconstructed frame and an original frame based on samples. For example, SAO may be applied based on the type, such as band offset, edge offset, and the like. According to SAO, samples can be classified into different categories according to each SAO type, and a bias value can be added to each sample based on the category. The filtering information for SAO may include information regarding whether or not SAO is applied, SAO type information, and SAO offset value information. SAO may be applied to the reconstructed frame after deblocking filtering is applied.

[176] Адаптивный контурный фильтр (ALF) представляет собой технологию для фильтрации восстановленного кадра на основе выборок на основе коэффициентов фильтра согласно форме фильтра. Оборудование кодирования может определять то, следует или нет применять ALF, ALF-форму и/или коэффициент ALF-фильтра и т.д., посредством сравнения восстановленного кадра и исходного кадра и может передавать в служебных сигналах в оборудование декодирования. Таким образом, информация фильтрации для ALF может включать в себя информацию относительно того, применяется или нет ALF, информацию формы ALF-фильтра, информацию коэффициентов ALF-фильтра и т.п. ALF может применяться к восстановленному кадру после того, как применяется фильтрация для удаления блочности.[176] An adaptive loop filter (ALF) is a technique for filtering a reconstructed frame based on samples based on filter coefficients according to a filter shape. The encoding equipment may determine whether or not to apply the ALF, the ALF shape and/or the ALF filter coefficient, etc. by comparing the reconstructed frame and the original frame, and may signal to the decoding equipment. Thus, the filtering information for the ALF may include information regarding whether or not ALF is applied, ALF filter shape information, ALF filter coefficient information, and the like. ALF may be applied to the reconstructed frame after deblocking filtering is applied.

[177] Фиг. 9 показывает пример формы ALF-фильтра.[177] FIG. 9 shows an example of an ALF filter shape.

[178] На фиг. 9, (a) показывает форму ромбовидного фильтра 7×7, (b) показывает форму ромбовидного фильтра 5×5. На фиг. 9, Cn в форме фильтра представляет коэффициент фильтра. Когда n в Cn является идентичным, это указывает то, что идентичные коэффициенты фильтра могут назначаться. В настоящем раскрытии сущности, позиция и/или единица, которой назначаются коэффициенты фильтра согласно форме фильтра ALF, может называться "отводом фильтра". В этом случае, один коэффициент фильтра может назначаться каждому отводу фильтра, и компоновка отводов фильтра может соответствовать форме фильтра. Отвод фильтра, расположенный в центре формы фильтра, может называться "центральным отводом фильтра". Идентичные коэффициенты фильтра могут назначаться двум отводам фильтра, имеющим идентичное значение n, существующим в позициях, соответствующих друг другу относительно центрального отвода фильтра. Например, в случае ромбовидной формы фильтра 7×7, 25 отводов фильтра включаются, и поскольку коэффициенты C0-C11 фильтра назначаются в центрально симметричной форме, коэффициенты фильтра могут назначаться 25 отводам фильтра с использованием только 13 коэффициентов фильтра. Кроме того, например, в случае ромбовидной формы фильтра 5×5, 13 отводов фильтра включаются, и поскольку коэффициенты C0-C5 фильтра назначаются в централизованно симметричной форме, коэффициенты фильтра назначаются 13 отводам фильтра с использованием только 7 коэффициентов фильтра. Например, чтобы уменьшать объем данных информации относительно передаваемых в служебных сигналах коэффициентов фильтра, 12 из 13 коэффициентов фильтра для ромбовидной формы фильтра 7×7 могут передаваться в служебных сигналах (явно), и 1 коэффициент фильтра может (неявно) извлекаться. Кроме того, например, 6 из 7 коэффициентов фильтра для ромбовидной формы фильтра 5×5 могут передаваться в служебных сигналах (явно), и 1 коэффициент фильтра может извлекаться (неявно).[178] FIG. 9, (a) shows the shape of a 7×7 diamond filter, (b) shows the shape of a 5×5 diamond filter. In FIG. 9, Cn in filter form represents the filter coefficient. When n in Cn is identical, this indicates that identical filter coefficients may be assigned. In the present disclosure, the position and/or unit to which filter coefficients are assigned according to the filter form ALF may be referred to as a "filter tap". In this case, one filter coefficient may be assigned to each filter tap, and the arrangement of the filter taps may correspond to the shape of the filter. The filter tap located in the center of the filter shape may be referred to as the "centre filter tap". Identical filter coefficients may be assigned to two filter taps having the same value of n, existing at positions corresponding to each other relative to the center filter tap. For example, in the case of a 7×7 diamond-shaped filter, 25 filter taps are included, and since the filter coefficients C0-C11 are assigned in a centrally symmetrical form, the filter coefficients can be assigned to 25 filter taps using only 13 filter coefficients. Further, for example, in the case of a 5×5 diamond filter, 13 filter taps are included, and since filter coefficients C0-C5 are assigned in a centrally symmetrical form, filter coefficients are assigned to 13 filter taps using only 7 filter coefficients. For example, in order to reduce the data amount of information regarding signaling filter coefficients, 12 of the 13 filter coefficients for a 7×7 diamond filter may be signaled (explicitly) and 1 filter coefficient may (implicitly) be extracted. In addition, for example, 6 out of 7 filter coefficients for a 5×5 diamond filter may be signaled (explicitly) and 1 filter coefficient may be extracted (implicitly).

[179] Согласно варианту осуществления настоящего раскрытия сущности, ALF-параметр, используемый для ALF-процесса, может передаваться в служебных сигналах через набор параметров адаптации (APS). ALF-параметр может извлекаться из информации фильтра или ALF-данных для ALF.[179] According to an embodiment of the present disclosure, an ALF parameter used for an ALF process may be signaled via an adaptation parameter set (APS). The ALF parameter may be derived from filter information or ALF data for ALF.

[180] ALF представляет собой тип технологии внутриконтурной фильтрации, которая может применяться при кодировании видео/изображений, как описано выше. ALF может выполняться с использованием адаптивного фильтра Винера. Это может служить для того, чтобы минимизировать среднеквадратическую ошибку (MSE) между исходными выборками и декодированными выборками (или восстановленными выборками). Высокоуровневое проектирование для инструментального ALF-средства может включать синтаксические элементы, доступные в SPS и/или в заголовке среза (либо в заголовке группы плиток).[180] ALF is a type of in-loop filtering technology that can be applied in video/image coding as described above. ALF can be performed using an adaptive Wiener filter. This may serve to minimize the mean square error (MSE) between the original samples and the decoded samples (or reconstructed samples). The high-level design for the ALF tool may include syntax elements available in the SPS and/or in the slice header (or tile group header).

[181] В примере, перед фильтрацией для каждого блока сигналов яркости 4×4, геометрические преобразования, такие как вращение или диагональное и вертикальное переворачивание, могут применяться к коэффициентам f(k, l) фильтра в зависимости от значений градиентов, вычисленных для блока, и соответствующих значений c(k, l) отсечения в фильтре. Это является эквивалентным применению этих преобразований к выборкам в зоне носителя фильтра. Создание других блоков, к которым применяется ALF, может быть аналогичным размещению этих блоков согласно их направленности.[181] In the example, before filtering for each block of 4x4 luminance signals, geometric transformations such as rotation or diagonal and vertical flipping may be applied to the filter coefficients f(k, l) depending on the gradient values computed for the block, and the corresponding cut-off values c(k, l) in the filter. This is equivalent to applying these transformations to the samples in the filter media zone. The creation of other blocks to which ALF is applied may be similar to the placement of these blocks according to their orientation.

[182] Например, три преобразования, диагональное, вертикальное переворачивание и вращение, могут выполняться на основе следующих уравнений.[182] For example, three transformations, diagonal, vertical flip and rotation, can be performed based on the following equations.

[183] уравнение 1[183] Equation 1

Диагональное: f_D(k, l)=f(l, k), c_D(k, l)=c(l, k)Diagonal: f_D(k, l)=f(l, k), c_D(k, l)=c(l, k)

[184] уравнение 2[184] Equation 2

Вертикальное переворачивание: f_V(k, l)=f(k, K-l-1), c_V(k, l)=c(k, K-l-1)Vertical flip: f_V(k, l)=f(k, K-l-1), c_V(k, l)=c(k, K-l-1)

[185] уравнение 3[185] Equation 3

Вращение: f_R(k, l)=f(K-l-1, k), c_R(k, l)=c(K-l-1, k)Rotation: f_R(k, l)=f(K-l-1, k), c_R(k, l)=c(K-l-1, k)

[186] В уравнениях 1-3, K может представлять собой размер фильтра. 0≤k и 1≤K-1 могут представлять собой координаты коэффициентов. Например, (0, 0) может представлять собой левую верхнюю угловую координату, и/или (K-1, K-1) может представлять собой правую нижнюю угловую координату. Взаимосвязь между преобразованиями и четырьмя градиентами в четырех направлениях может обобщаться в следующей таблице.[186] In Equations 1-3, K may be a filter size. 0≤k and 1≤K-1 may represent coefficient coordinates. For example, (0, 0) may represent a left upper corner coordinate, and/or (K-1, K-1) may represent a lower right corner coordinate. The relationship between transformations and four gradients in four directions can be summarized in the following table.

[187][187]

Табл. 2Tab. 2 Значения градиентовGradient values Преобразованиеtransformation gd2<gd1 и gh<gv g d2 <g d1 and g h <g v Отсутствие преобразованияLack of conversion gd2<gd1 и gv<gh g d2 <g d1 and g v < g h ДиагональноеDiagonal gd1<gd2 и gh<gv g d1 <g d2 and g h <g v Вертикальное переворачиваниеVertical flip gd1<gd2 и gv<gh g d1 <g d2 and g v <g h ВращениеRotation

[188] Параметры ALF-фильтра могут передаваться в служебных сигналах в APS и заголовке среза. В одном APS, вплоть до 25 коэффициентов фильтра сигналов яркости и индексов значений отсечения могут передаваться в служебных сигналах. В одном APS, вплоть до 8 коэффициентов фильтра сигналов цветности и индексов значений отсечения могут передаваться в служебных сигналах. Чтобы уменьшать дополнительное число битов, коэффициенты фильтра различных классификаций для компонента сигналов яркости могут объединяться. В заголовке среза, могут передаваться в служебных сигналах индексы APS (указываемые по ссылке посредством текущего среза), используемых для текущего среза.[188] The ALF filter parameters may be signaled in the APS and the slice header. In one APS, up to 25 luma filter coefficients and cutoff indexes can be signaled. In one APS, up to 8 chrominance filter coefficients and cutoff indexes can be signaled. To reduce the extra number of bits, the filter coefficients of different classifications for the luminance component may be combined. In the slice header, the APS indices (referenced by the current slice) used for the current slice may be signaled.

[189] Индексы значений отсечения, декодированные из APS, могут позволять определять значения отсечения с использованием таблицы сигналов яркости значений отсечения и таблицы сигналов цветности значений отсечения. Эти значения отсечения могут зависеть от внутренней битовой глубины. Более конкретно, таблица сигналов яркости значений отсечения и таблица сигналов цветности значений отсечения могут извлекаться на основе следующих уравнений.[189] The clip value indexes decoded from the APS may allow clip values to be determined using the clip value luma table and the clip value chrominance table. These clipping values may depend on the internal bit depth. More specifically, the luminance signal table of the clipping values and the chrominance signal table of the clipping values can be derived based on the following equations.

[190] уравнение 4[190] Equation 4

AlfClipL={round(2^(B(N-n+1)/N)) для n [1...N]}AlfClipL={round(2^(B(N-n+1)/N)) for n [1...N]}

[191] уравнение 5[191] Equation 5

AlfClipC={round(2^((B-8)+8((N-n))/(N-1))) для n [1...N]}AlfClipC={round(2^((B-8)+8((N-n))/(N-1))) for n [1...N]}

[192] В вышеприведенных уравнениях, B может быть внутренней битовой глубиной, и N может быть числом разрешенных значений отсечения (предварительно определенным числом). Например, N может быть равным 4.[192] In the above equations, B may be the internal bit depth, and N may be the number of allowed clipping values (a predetermined number). For example, N might be 4.

[193] В заголовке среза, вплоть до 7 APS-индексов могут передаваться в служебных сигналах, чтобы указывать наборы фильтров сигналов яркости, используемые для текущего среза. Процесс фильтрации дополнительно может управляться на CTB-уровне. Например, флаг, указывающий то, применяется или нет ALF к CTB сигналов яркости, может передаваться в служебных сигналах. CTB сигналов яркости может выбирать один из 16 наборов фиксированных фильтров и наборов фильтров из APS. Индекс набора фильтров может передаваться в служебных сигналах для CTB сигналов яркости, чтобы указывать то, какой набор фильтров применяется. 16 наборов фиксированных фильтров могут предварительно задаваться и жестко кодироваться в кодере и декодере.[193] In the slice header, up to 7 APS indices may be signaled to indicate the luminance filter sets used for the current slice. The filtering process can additionally be controlled at the CTB level. For example, a flag indicating whether or not ALF is applied to the CTB of luma signals may be signaled. The luminance CTB can select from 16 fixed filter sets and APS filter sets. The filter bank index may be signaled for the luminance CTB to indicate which filter bank is applied. The 16 fixed filter sets can be predefined and hardcoded in the encoder and decoder.

[194] Для компонента сигналов цветности, APS-индекс может передаваться в служебных сигналах в заголовке среза, чтобы указывать наборы фильтров сигналов цветности, используемые для текущего среза. На CTB-уровне, когда имеется два или более наборов фильтров сигналов цветности в APS, индекс фильтра может передаваться в служебных сигналах для каждого CTB сигналов цветности.[194] For the chroma component, an APS index may be signaled in a slice header to indicate the chrominance filter sets used for the current slice. At the CTB level, when there are two or more chrominance filter sets in an APS, a filter index may be signaled for each chrominance CTB.

[195] Коэффициенты фильтра могут квантоваться с 128 в качестве нормы. Чтобы ограничивать сложность умножения, соответствие потока битов может применяться таким образом, что значения коэффициентов нецентральной позиции могут варьироваться в диапазоне от 0 до 28, и/или значения коэффициентов оставшихся позиций могут составлять в диапазоне от -27 до 27-1. Коэффициент центральной позиции может не передаваться в служебных сигналах в потоке битов и может предварительно определяться (рассматриваться) равным 128.[195] The filter coefficients may be quantized with 128 as the norm. To limit the complexity of the multiplication, bitstream matching may be applied such that the non-center position coefficient values may range from 0 to 28, and/or the coefficient values of the remaining positions may range from -27 to 27-1. The center position coefficient may not be signaled in the bitstream, and may be predetermined (considered) to be 128.

[196] Когда ALF доступна для текущего блока, каждая выборка R(i, j) может фильтроваться, и фильтрованный результат R'(i, j) может выражаться посредством следующего уравнения.[196] When ALF is available for the current block, each sample R(i, j) may be filtered, and the filtered result R'(i, j) may be expressed by the following equation.

[197] уравнение 6[197] Equation 6

Figure 00000002
Figure 00000002

[198] В вышеприведенном уравнении, f(k, l) может представлять собой декодированные коэффициенты фильтра, K (x, y) может представлять собой функцию отсечения, и c(k, l) может представлять собой декодированные параметры отсечения. Например, переменные k и/или l могут варьироваться от -L/2 до L/2. Здесь, L может представлять длину фильтра. Функция отсечения K(x, y)=min (y, max(-y, x)) может соответствовать функции Clip3(-y, y, x).[198] In the above equation, f(k, l) may be the decoded filter coefficients, K(x, y) may be a clipping function, and c(k, l) may be the decoded clipping parameters. For example, the variables k and/or l may range from -L/2 to L/2. Here, L may represent the length of the filter. The clipping function K(x, y)=min (y, max(-y, x)) can correspond to the Clip3(-y, y, x) function.

[199] В примере, чтобы уменьшать требование по линейному буферу ALF, классификация модифицированных блоков и фильтрация могут применяться для выборок, смежных с горизонтальными CTU-границами. С этой целью, виртуальные границы могут задаваться.[199] In an example, to reduce the linear ALF buffer requirement, modified block classification and filtering may be applied to samples adjacent to horizontal CTU boundaries. To this end, virtual boundaries may be defined.

[200] Фиг. 10 является схемой, иллюстрирующей виртуальную границу, применяемую к процессу фильтрации согласно варианту осуществления настоящего документа. Фиг. 11 иллюстрирует пример ALF-процесса с использованием виртуальной границы согласно варианту осуществления настоящего раскрытия сущности. В дальнейшем описывается фиг. 11 в сочетании с фиг. 10.[200] FIG. 10 is a diagram illustrating a virtual boundary applied to a filtering process according to an embodiment of the present document. Fig. 11 illustrates an example of an ALF process using a virtual boundary according to an embodiment of the present disclosure. In the following, FIG. 11 in combination with FIG. 10.

[201] Ссылаясь на фиг. 10, виртуальная граница может представлять собой линию, заданную посредством сдвига горизонтальной CTU-границы на N выборок. В примере, N может быть равным 4 для компонента сигнала яркости, и/или N может быть равным 2 для компонента сигналов цветности.[201] Referring to FIG. 10, the virtual boundary may be a line defined by shifting the horizontal CTU boundary by N samples. In an example, N may be equal to 4 for the luminance signal component, and/or N may be equal to 2 for the chrominance signal component.

[202] На фиг. 10, классификация модифицированных блоков может применяться к компоненту сигналов яркости. Для одномерного лапласова градиентного вычисления блока 4×4 на виртуальной границе, могут использоваться только выборки выше виртуальной границы. Аналогично, для вычисления одномерного лапласова градиента блока 4×4 ниже виртуальной границы, могут использоваться только выборки ниже виртуальной границы. Квантование значения A активности может масштабироваться, соответственно, с учетом сокращенного числа выборок, используемых в одномерном лапласовом градиентном вычислении.[202] FIG. 10, the modified block classification may be applied to the luma component. For a one-dimensional Laplacian gradient computation of a 4×4 block at a virtual boundary, only samples above the virtual boundary can be used. Likewise, to calculate the one-dimensional Laplace gradient of a 4×4 block below the virtual boundary, only samples below the virtual boundary can be used. The quantization of the activity value A can be scaled accordingly to account for the reduced number of samples used in the one-dimensional Laplace gradient calculation.

[203] Для процесса фильтрации, операция симметричного дополнения на виртуальных границах может использоваться для компонентов сигналов яркости и сигналов цветности. Ссылаясь на фиг. 10, когда фильтрованная выборка расположена ниже виртуальной границы, соседние выборки, расположенные выше виртуальной границы, могут дополняться. Между тем, соответствующие выборки на другой стороне также могут симметрично дополняться.[203] For the filtering process, a symmetrical padding operation on virtual boundaries can be used for the luminance and chrominance signal components. Referring to FIG. 10, when the filtered sample is located below the virtual boundary, adjacent samples located above the virtual boundary may be padded. Meanwhile, corresponding samples on the other side can also be symmetrically padded.

[204] Процесс, описанный согласно фиг. 11, также может использоваться для границ срезов, кирпичей и/или плиток, когда фильтр не доступен на границах. Для классификации ALF-блоков, могут использоваться только выборки, содержащиеся в идентичном срезе, кирпиче и/или плитке, и значение активности может масштабироваться, соответственно. Для ALF-фильтрации, симметричное дополнение может применяться для каждого из горизонтальных и/или вертикальных направлений относительно горизонтальных и/или вертикальных границ.[204] The process described in connection with FIG. 11 can also be used for slice, brick and/or tile borders when no filter is available on the borders. To classify ALF blocks, only the samples contained in the identical slice, brick, and/or tile can be used, and the activity value can be scaled accordingly. For ALF filtering, symmetrical padding may be applied for each of the horizontal and/or vertical directions relative to the horizontal and/or vertical boundaries.

[205] Фиг. 12 является схемой, иллюстрирующей процесс кросскомпонентной адаптивной контурной фильтрации (CCALF) согласно варианту осуществления настоящего документа. CCALF-процесс может называться "процессом кросскомпонентной фильтрации".[205] FIG. 12 is a diagram illustrating a cross-component adaptive loop filtering (CCALF) process according to an embodiment of the present document. The CCALF process may be referred to as a "cross-component filtering process".

[206] В аспекте, ALF-процесс может включать в себя общий ALF-процесс и CCALF-процесс. Таким образом, CCALF-процесс может означать некоторые процессы ALF-процесса. В другом аспекте, процесс фильтрации может включать в себя процесс удаления блочности, SAO-процесс, ALF-процесс и/или CCALF-процесс.[206] In an aspect, the ALF process may include a general ALF process and a CCALF process. Thus, CCALF-process can mean some processes of ALF-process. In another aspect, the filtering process may include a deblocking process, an SAO process, an ALF process, and/or a CCALF process.

[207] CCALF может детализировать каждый компонент сигналов цветности с использованием выборочных значений сигналов яркости. CCALF управляется посредством информации (изображений) потока битов, которая включает в себя (a) информацию относительно коэффициентов фильтра для каждого компонента сигналов цветности и (b) информацию относительно маски, которая управляет применением фильтрации к блокам выборок. Коэффициенты фильтра могут передаваться в служебных сигналах в APS, и размер блока и маска может передаваться в служебных сигналах на уровне среза.[207] CCALF may detail each component of the chrominance signals using sampled luma values. CCALF is controlled by bitstream information (images) that includes (a) information regarding filter coefficients for each chroma component and (b) information regarding a mask that controls the application of filtering to blocks of samples. The filter coefficients may be signaled at the APS, and the block size and mask may be signaled at the slice layer.

[208] Ссылаясь на фиг. 12, CCALF может работать посредством применения линейного ромбовидного фильтра ((b) по фиг. 12) к каналу сигналов яркости для каждого компонента сигналов цветности. Коэффициенты фильтра передаются в APS, масштабируются на коэффициент 210 и округляются в большую сторону для представления с фиксированной запятой. Применение фильтра может управляться при переменном размере блока и передаваться в служебных сигналах посредством флага контекстного кодирования, принимаемого для блоков каждой выборки. Размер блока наряду с флагом CCALF-активации может приниматься на уровне среза для каждого компонента сигналов цветности. Размер блока (для выборок сигналов цветности) может составлять 16×16, 32×32, 64×64 или 128×128.[208] Referring to FIG. 12, CCALF may operate by applying a linear diamond filter ((b) of FIG. 12) to the luma channel for each chroma component. The filter coefficients are passed to APS, scaled by a factor of 210, and rounded up for fixed point representation. The application of the filter may be controlled at a variable block size and signaled by a context encoding flag received for the blocks of each sample. The block size along with the CCALF activation flag may be received at the slice level for each chroma component. The block size (for chrominance samples) may be 16x16, 32x32, 64x64, or 128x128.

[209] В нижеприведенных вариантах осуществления, предлагается способ повторной фильтрации или модификации восстановленных выборок сигналов цветности, фильтрованных посредством ALF на основе восстановленных выборок сигналов яркости.[209] In the following embodiments, a method is provided for re-filtering or modifying recovered chrominance samples filtered by ALF based on the recovered luma samples.

[210] Вариант осуществления настоящего раскрытия сущности относится к передаче включения-выключения фильтрации и передаче коэффициентов фильтра в CCALF. Как описано выше, информация (синтаксический элемент) в синтаксической таблице, раскрытой в настоящем раскрытии сущности, может включаться в информацию изображений/видео, может конфигурироваться/кодироваться в устройстве кодирования и передаваться в устройство декодирования в форме потока битов. Оборудование декодирования может синтаксически анализировать/декодировать информацию (синтаксический элемент) в соответствующей синтаксической таблице. Оборудование декодирования может выполнять процесс декодирования кадров/изображений/видео (в частности, например, CCALF-процесс) на основе декодированной информации. Это применимо далее в этом документе к другим вариантам осуществления.[210] An embodiment of the present disclosure relates to filtering on-off transmission and filter coefficient transmission in CCALF. As described above, the information (syntax element) in the syntax table disclosed in the present disclosure may be included in image/video information, may be configured/encoded in an encoder, and transmitted to a decoder in the form of a bit stream. The decoding equipment can parse/decode the information (syntax element) in the corresponding syntax table. The decoding equipment may perform a frame/picture/video decoding process (specifically, for example, a CCALF process) based on the decoded information. This applies later in this document to other embodiments.

[211] Следующая таблица показывает некоторый синтаксис информации заголовка среза согласно варианту осуществления настоящего раскрытия сущности.[211] The following table shows some syntax of slice header information according to an embodiment of the present disclosure.

[212][212]

Figure 00000003
Figure 00000003

[213] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[213] The following table shows exemplary semantics for the syntax elements included in the above table.

[214] Табл. 4[214] Tab. four

Figure 00000004
Figure 00000004

[215] Ссылаясь на вышеприведенные две таблицы, когда sps_cross_component_alf_enabled_flag равен 1 в заголовке среза, синтаксический анализ slice_cross_component_alf_cb_enabled_flag может выполняться для того, чтобы определять то, применяется или нет Cb CCALF в срезе. Когда slice_cross_component_alf_cb_enabled_flag равен 1, CCALF применяется к соответствующему Cb-срезу, и когда slice_cross_component_alf_cb_reuse_temporal_layer_filter равен 1, фильтр идентичного существующего временного слоя может многократно использоваться. Когда slice_cross_component_alf_cb_enabled_flag равен 0, CCALF может применяться с использованием фильтра в соответствующем идентификаторе набора параметров адаптации (APS) через синтаксический анализ slice_cross_component_alf_cb_aps_id. Slice_cross_component_alf_cb_log2_control_size_minus4 может означать то, что CCALF применяет единицу блока в Cb-срезе.[215] Referring to the above two tables, when sps_cross_component_alf_enabled_flag is equal to 1 in the slice header, slice_cross_component_alf_cb_enabled_flag parsing may be performed to determine whether or not Cb CCALF is applied in the slice. When slice_cross_component_alf_cb_enabled_flag is 1, CCALF is applied to the corresponding Cb slice, and when slice_cross_component_alf_cb_reuse_temporal_layer_filter is 1, an identical existing temporal layer filter can be reused. When slice_cross_component_alf_cb_enabled_flag is 0, CCALF may be applied using a filter on the corresponding adaptation parameter set (APS) identifier via parsing slice_cross_component_alf_cb_aps_id. Slice_cross_component_alf_cb_log2_control_size_minus4 can mean that CCALF applies the block unit in the Cb slice.

[216] Например, когда значение slice_cross_component_alf_cb_log2_control_size_minus4 равно 0, то, применяется или нет CCALF, определяется в единицах 16×16. Когда значение slice_cross_component_alf_cb_log2_control_size_minus4 равно 1, то, применяется или нет CCALF, определяется в единицах 32×32. Когда значение slice_cross_component_alf_cb_log2_control_size_minus4 равно 2, то, применяется или нет CCALF, определяется в единицах 64×64. Когда значение slice_cross_component_alf_cb_log2_control_size_minus4 равно 3, то, применяется или нет CCALF, определяется в единицах 128×128. Помимо этого, синтаксис структуры, идентичной структуре, описанной выше, используется для Cr CCALF.[216] For example, when the value of slice_cross_component_alf_cb_log2_control_size_minus4 is 0, then whether or not CCALF is applied is determined in units of 16×16. When the value of slice_cross_component_alf_cb_log2_control_size_minus4 is 1, then whether or not CCALF is applied is determined in units of 32x32. When the value of slice_cross_component_alf_cb_log2_control_size_minus4 is 2, then whether or not CCALF is applied is determined in units of 64x64. When the value of slice_cross_component_alf_cb_log2_control_size_minus4 is 3, then whether or not CCALF is applied is determined in units of 128×128. In addition, a structure syntax identical to that described above is used for Cr CCALF.

[217] Следующая таблица показывает примерный синтаксис для ALF-данных.[217] The following table shows an exemplary syntax for ALF data.

[218] Табл. 5[218] Tab. five

Figure 00000005
Figure 00000005

[219] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[219] The following table shows exemplary semantics for the syntax elements included in the above table.

[220] Табл. 6[220] Tab. 6

Figure 00000006
Figure 00000006

Figure 00000007
Figure 00000007

[222] Ссылаясь на вышеприведенные две таблицы, синтаксические CCALF-элементы не придерживаются существующей (общей) синтаксической ALF-структуры, а передаются независимо и выполнены с возможностью независимо применяться. Таким образом, CCALF может применяться, даже когда инструментальное ALF-средство в SPS выключено. Новое аппаратное проектное решение по конвейеру требуется, поскольку CCALF должна иметь возможность работать независимо от существующей ALF-структуры. Это приводит к увеличению затрат на аппаратную реализацию и к увеличению аппаратной задержки.[222] Referring to the above two tables, the CCALF syntax elements do not adhere to the existing (common) ALF syntax structure, but are transmitted independently and configured to be applied independently. Thus, CCALF can be applied even when the ALF tool in the SPS is turned off. A new hardware pipeline design is required as CCALF must be able to operate independently of the existing ALF framework. This results in increased hardware implementation costs and increased hardware latency.

[223] Помимо этого, в ALF, то, применяются или нет изображения на основе сигналов яркости и сигналов цветности, определяется в единицах CTU, и результат определения передается в декодер посредством передачи служебных сигналов. Тем не менее, то, переменная или нет CCALF применяется, определяется в единицах 16×16-128×128, и это применение может вызывать коллизию между существующей ALF-структурой и CCALF. Это вызывает проблемы в аппаратной реализации и в то же время вызывает увеличение линейных буферов для различных переменных CCALF-вариантов применения.[223] In addition, in ALF, whether or not images based on luminance signals and chrominance signals are applied is determined in units of CTU, and the result of the determination is transmitted to the decoder by signaling. However, whether or not the CCALF variable is applied is specified in units of 16×16-128×128, and this application may cause a collision between the existing ALF structure and CCALF. This causes problems in the hardware implementation and at the same time causes an increase in line buffers for various CCALF application variables.

[224] В настоящем раскрытии сущности, вышеуказанные проблемы в аппаратной реализации CCALF разрешаются посредством интегрального применения синтаксической CCALF-структуры к синтаксической ALF-структуре.[224] In the present disclosure, the above problems in the CCALF hardware implementation are resolved by integrally applying the CCALF syntactic structure to the ALF syntactic structure.

[225] Согласно варианту осуществления настоящего раскрытия сущности, чтобы определять то, используется (применяется) или нет CCALF, набор параметров последовательности (SPS) может включать в себя флаг CCALF-активации (sps_ccalf_enable_flag). Флаг CCALF-активации может передаваться независимо от флага ALF-активации (sps_alf_enabled_flag) для определения того, используется (применяется) или нет ALF.[225] According to an embodiment of the present disclosure, to determine whether or not CCALF is used, a sequence parameter set (SPS) may include a CCALF-enable flag (sps_ccalf_enable_flag). The CCALF activation flag may be transmitted independently of the ALF activation flag (sps_alf_enabled_flag) to determine whether ALF is used (applied) or not.

[226] Следующая таблица показывает часть примерного синтаксиса SPS согласно настоящему варианту осуществления.[226] The following table shows a portion of an exemplary SPS syntax according to the present embodiment.

[227] Табл. 7[227] Tab. 7

Figure 00000008
Figure 00000008

[228] Ссылаясь на вышеприведенную таблицу, CCALF может применяться только тогда, когда ALF всегда работает. Таким образом, только когда флаг ALF-активации (sps_alf_enabled_flag) равен 1, флаг CCALF-активации (sps_ccalf_enabled_flag) может синтаксически анализироваться. CCALF и ALF могут комбинироваться согласно вышеприведенной таблице. Флаг CCALF-активации может указывать (и может быть связан) то/с тем, доступна или нет CCALF.[228] Referring to the above table, CCALF can only be applied when ALF is always running. Thus, only when the ALF enable flag (sps_alf_enabled_flag) is 1, the CCALF enable flag (sps_ccalf_enabled_flag) can be parsed. CCALF and ALF can be combined according to the table above. The CCALF-activation flag may indicate (and may be associated with) whether or not CCALF is available.

[229] Следующая таблица показывает часть примерного синтаксиса для заголовков срезов.[229] The following table shows part of an exemplary syntax for slice headers.

[230] Табл. 8[230] Tab. 8

Figure 00000009
Figure 00000009

[231] Ссылаясь на вышеприведенную таблицу, синтаксический анализ sps_ccalf_enabled_flag может выполняться только тогда, когда sps_alf_enabled_flag равен 1. Синтаксические элементы, включенные в таблицу, могут описываться на основе таблицы 4. В примере, информация изображений, кодированная посредством устройства кодирования или полученная (принимаемая) посредством устройства декодирования, может включать в себя информацию заголовка среза (slice_header()). На основе определения того, что значение флага CCALF-активации (sps_ccalf_flag) равно 1, информация заголовка среза включает в себя первый флаг (slice_cross_component_alf_cb_enabeld_flag), связанный с тем, доступна или нет CCALF для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и второй флаг (slice_cross_component_alf_cr_enabeld_flag), связанный с тем, доступна или нет CCALF для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности.[231] Referring to the above table, the parsing of the sps_ccalf_enabled_flag can only be performed when the sps_alf_enabled_flag is equal to 1. The syntax elements included in the table can be described based on Table 4. In the example, image information encoded by an encoding device or obtained (received) by a decoder, may include slice header information (slice_header()). Based on determining that the value of the CCALF activation flag (sps_ccalf_flag) is 1, the slice header information includes a first flag (slice_cross_component_alf_cb_enabeld_flag) related to whether or not CCALF is available for the Cb color component of the filtered reconstructed chrominance samples, and a second a flag (slice_cross_component_alf_cr_enabeld_flag) related to whether or not CCALF is available for the chrominance Cr component of the filtered reconstructed chrominance samples.

[232] В примере, на основе определения того, что значение первого флага (slice_cross_component_alf_cb_enabeld_flag) равно 1, информация заголовка среза может включать в себя идентификационную информацию (slice_cross_component_alf_cb_aps_id) первого APS для извлечения коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе определения того, что значение второго флага (slice_cross_component_alf_cr_enabeld_flag) равно 1, информация заголовка среза может включать в себя идентификационную информацию (slice_cross_component_alf_cr_aps_id) второго APS для извлечения коэффициентов кросскомпонентного фильтра для цветового Cr-компонента.[232] In an example, based on determining that the value of the first flag (slice_cross_component_alf_cb_enabeld_flag) is 1, the slice header information may include identification information (slice_cross_component_alf_cb_aps_id) of the first APS to extract cross-component filter coefficients for the Cb color component. Based on determining that the value of the second flag (slice_cross_component_alf_cr_enabeld_flag) is 1, the slice header information may include the identification information (slice_cross_component_alf_cr_aps_id) of the second APS to extract the cross-component filter coefficients for the chrominance Cr component.

[233] Следующая таблица показывает часть SPS-cинтаксиса согласно другому примеру настоящего варианта осуществления.[233] The following table shows a portion of the SPS syntax according to another example of the present embodiment.

[234] Табл. 9[234] Tab. nine

Figure 00000010
Figure 00000010

[235] Следующая таблица примерно показывает часть синтаксиса заголовков срезов.[235] The following table roughly shows part of the slice header syntax.

[236] Табл. 10[236] Tab. 10

Figure 00000011
Figure 00000011

[237] Ссылаясь на таблицу 9, когда ChromaArrayType не равен 0, и флаг ALF-активации (sps_alf_enabled_flag) равен 1, SPS может включать в себя флаг CCALF-активации (sps_ccalf_enabled_flag). Например, если ChromaArrayType не равен 0, формат сигналов цветности может не быть монохромным, и флаг CCALF-активации может передаваться через SPS на основе случая, в котором формат сигналов цветности не является монохромным.[237] Referring to Table 9, when ChromaArrayType is not equal to 0 and the ALF activation flag (sps_alf_enabled_flag) is 1, the SPS may include a CCALF activation flag (sps_ccalf_enabled_flag). For example, if ChromaArrayType is not equal to 0, the chrominance format may not be monochrome, and the CCALF activation flag may be transmitted through the SPS based on the case in which the chrominance format is not monochrome.

[238] Ссылаясь на таблицу 9, на основе случая, в котором ChromaArrayType не равен 0, информация относительно CCALF (slice_cross_component_alf_cb_enabled_flag, slice_cross_component_alf_cb_aps_id, slice_cross_component_alf_cr_enabled_flag, slice_cross_component_alf_cr) может включаться в информацию заголовка среза.[238] Referring to Table 9, based on the case in which ChromaArrayType is not equal to 0, information regarding CCALF (slice_cross_component_alf_cb_enabled_flag, slice_cross_component_alf_cb_aps_id, slice_cross_component_alf_cr_enabled_flag, slice_cross_component_alf_cr) may be included in slice header information.

[239] В примере, информация изображений, кодированная посредством устройства кодирования или полученная посредством устройства декодирования, может включать в себя SPS. SPS может включать в себя первый флаг ALF-активации (sps_alf_enabled_flag), связанный с тем, доступна или нет ALF. Например, на основе определения того, что значение первого флага ALF-активации равно 1, SPS может включать в себя флаг CCALF-активации, связанный с тем, доступна или нет кросскомпонентная фильтрация. В другом примере, если sps_ccalf_enabled_flag не используется, и sps_alf_enabled_flag равен 1, CCALF может всегда применяться (sps_ccalf_enabled_flag==1).[239] In an example, image information encoded by an encoding device or obtained by a decoding device may include an SPS. The SPS may include a first ALF enable flag (sps_alf_enabled_flag) related to whether ALF is available or not. For example, based on determining that the value of the first ALF activation flag is 1, the SPS may include a CCALF activation flag related to whether cross-component filtering is available or not. In another example, if sps_ccalf_enabled_flag is not used and sps_alf_enabled_flag is 1, CCALF may always be applied (sps_ccalf_enabled_flag==1).

[240] Следующая таблица показывает часть синтаксиса заголовков срезов согласно другому примеру этого варианта осуществления.[240] The following table shows a portion of the slice header syntax according to another example of this embodiment.

[241] Табл. 11[241] Tab. eleven

Figure 00000012
Figure 00000012

[242] Ссылаясь на вышеприведенную таблицу, синтаксический анализ флага CCALF-активации (sps_ccalf_enabled_flag) может выполняться только тогда, когда флаг ALF-активации (sps_alf_enabled_flag) равен 1.[242] Referring to the above table, parsing of the CCALF activation flag (sps_ccalf_enabled_flag) can only be performed when the ALF activation flag (sps_alf_enabled_flag) is equal to 1.

[243] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[243] The following table shows exemplary semantics for the syntax elements included in the above table.

[244] Табл. 12[244] Tab. 12

Figure 00000013
Figure 00000013

[245] slice_ccalf_chroma_idc вышеприведенной таблицы может описываться посредством семантики нижеприведенной таблицы.[245] The slice_ccalf_chroma_idc of the above table may be described by the semantics of the table below.

[246] Табл. 13[246] Tab. 13

Figure 00000014
Figure 00000014

[247] Следующая таблица показывает часть синтаксиса заголовков срезов согласно другому примеру этого варианта осуществления.[247] The following table shows a portion of the slice header syntax according to another example of this embodiment.

[248] Табл. 14[248] Tab. fourteen

Figure 00000015
Figure 00000015

[249] Синтаксические элементы, включенные в таблицу, могут описываться согласно таблице 12 или таблице 13. Помимо этого, когда формат сигналов цветности не является монохромным, связанная с CCALF информация может включаться в заголовок среза.[249] The syntax elements included in the table may be described according to Table 12 or Table 13. In addition, when the chrominance signal format is not monochrome, CCALF related information may be included in a slice header.

[250] Следующая таблица показывает часть синтаксиса заголовков срезов согласно другому примеру этого варианта осуществления.[250] The following table shows part of the slice header syntax according to another example of this embodiment.

[251] Табл. 15[251] Tab. 15

Figure 00000016
Figure 00000016

[252] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[252] The following table shows exemplary semantics for the syntax elements included in the above table.

[253] Табл. 16[253] Tab. sixteen

Figure 00000017
Figure 00000017

[254] Следующая таблица показывает часть синтаксиса заголовков срезов согласно другому примеру этого варианта осуществления. Синтаксические элементы, включенные в следующую таблицу, могут описываться согласно таблице 12 или таблице 13.[254] The following table shows a portion of the slice header syntax according to another example of this embodiment. The syntax elements included in the following table may be described according to table 12 or table 13.

[255] Табл. 17[255] Tab. 17

Figure 00000018
Figure 00000018

[256] Ссылаясь на вышеприведенную таблицу, то, применяются или нет ALF и CCALF на основе единиц срезов, может определяться сразу через slice_alf_enabled_flag. После синтаксического анализа slice_alf_chroma_idc, когда первый флаг ALF-активации (sps_alf_enabled_flag) равен 1, может синтаксически анализироваться slice_ccalf_chroma_idc.[256] Referring to the above table, whether or not ALF and CCALF based on slice units are applied can be determined immediately via slice_alf_enabled_flag. After parsing slice_alf_chroma_idc, when the first ALF activation flag (sps_alf_enabled_flag) is 1, slice_ccalf_chroma_idc may be parsed.

[257] Ссылаясь на вышеприведенную таблицу, то, равен или нет sps_ccalf_enabeld_flag 1 в информации заголовка среза, может определяться только тогда, когда slice_alf_enabled_flag равен 1. Информация заголовка среза может включать в себя второй флаг ALF-активации (slice_alf_enabled_flag), связанный с тем, доступна или нет ALF. На основе определения того, что значение второго флага ALF-активации (slice_alf_enabled_flag) равно 1, CCALF может быть доступной для среза.[257] Referring to the above table, whether or not sps_ccalf_enabeld_flag is equal to 1 in the slice header information may be determined only when slice_alf_enabled_flag is equal to 1. The slice header information may include a second ALF activation flag (slice_alf_enabled_flag) related to whether ALF is available or not. Based on the determination that the value of the second ALF activation flag (slice_alf_enabled_flag) is 1, CCALF may be enabled for the slice.

[258] Следующая таблица примерно показывает часть APS-синтаксиса. Синтаксический элемент adaptation_parameter_set_id может указывать информацию идентификатора (идентификационную информацию) APS.[258] The following table roughly shows part of the APS syntax. The adaptation_parameter_set_id syntax element may indicate identifier information (identification information) of the APS.

[259] Табл. 18[259] Tab. eighteen

Figure 00000019
Figure 00000019

[260] Следующая таблица показывает примерный синтаксис для ALF-данных.[260] The following table shows an exemplary syntax for ALF data.

[261] Табл. 19[261] Tab. nineteen

Figure 00000020
Figure 00000020

[262] Ссылаясь на вышеприведенные две таблицы, APS может включать в себя ALF-данные (alf_data). APS, включающий в себя ALF-данные, может называться "ALF APS" ("APS ALF-типа"). Таким образом, тип APS, включающий в себя ALF-данные, может представлять собой ALF-тип. Тип APS может определяться в качестве информации относительно APS-типа или синтаксического элемента (aps_params_type). ALF-данные могут включать в себя флаг передачи в служебных сигналах Cb-фильтров (alf_cross_component_cb_filter_signal_flag или alf_cc_cb_filter_signal_flag), связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-компонента. ALF-данные могут включать в себя флаг передачи в служебных сигналах Cr-фильтров (alf_cross_component_cr_filter_signal_flag или alf_cc_cr_filter_signal_flag), связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cr-компонента.[262] Referring to the above two tables, APS may include ALF data (alf_data). An APS including ALF data may be referred to as "ALF APS" ("ALF-type APS"). Thus, an APS type including ALF data may be an ALF type. The APS type may be defined as information regarding an APS type or a syntax element (aps_params_type). The ALF data may include a Cb filter signaling flag (alf_cross_component_cb_filter_signal_flag or alf_cc_cb_filter_signal_flag) related to whether or not cross-component filters for the Cb color component are signaled. The ALF data may include a Cr signaling signaling flag (alf_cross_component_cr_filter_signal_flag or alf_cc_cr_filter_signal_flag) related to whether or not cross-component filters for the Cr color component are signaled.

[263] В примере, на основе флага передачи в служебных сигналах Cr-фильтров, ALF-данные могут включать в себя информацию (alf_cross_component_cr_coeff_abs) относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информацию относительно знаков (alf_cross_component_cr_coeff_sign) относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента. На основе информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cr-компонента.[263] In an example, based on the transmit flag in the signaling of the Cr filters, the ALF data may include information (alf_cross_component_cr_coeff_abs) about the absolute values of the cross-component filter coefficients for the Cr color component and information about the signs (alf_cross_component_cr_coeff_sign) about the signs of the cross-component coefficients filter for the color Cr component. Based on information regarding the absolute values of the cross-component filter coefficients for the chrominance Cr component and information regarding the signs of the cross-component filter coefficients for the chrominance Cr component, the cross-component filter coefficients for the chrominance Cr component can be extracted.

[264] В примере, ALF-данные могут включать в себя информацию (alf_cross_component_cb_coeff_abs) относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информацию (alf_cross_component_cb_coeff_sign) относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cb-компонента.[264] In an example, the ALF data may include information (alf_cross_component_cb_coeff_abs) regarding the absolute values of the cross-component filter coefficients for the Cb color component and information (alf_cross_component_cb_coeff_sign) regarding the signs of the cross-component filter coefficients for the Cb color component. Based on information regarding the absolute values of the cross-component filter coefficients for the Cb color component and information regarding the signs of the cross-component filter coefficients for the Cb color component, the cross-component filter coefficients for the Cb color component can be extracted.

[265] Следующая таблица показывает синтаксис, связанный с ALF-данными согласно другому примеру.[265] The following table shows the syntax associated with ALF data according to another example.

[266] Табл. 20[266] Tab. 20

Figure 00000021
Figure 00000021

[267] Ссылаясь на вышеприведенную таблицу, после передачи сначала alf_cross_component_filter_signal_flag, когда alf_cross_component_filter_signal_flag равен 1, флаг передачи в служебных сигналах Cb/Cr-фильтров может передаваться. Таким образом, alf_cross_component_filter_signal_flag интегрирует Cb/Cr, чтобы определять то, следует или нет передавать коэффициенты CCALF-фильтра.[267] Referring to the above table, after transmitting alf_cross_component_filter_signal_flag first, when alf_cross_component_filter_signal_flag is equal to 1, a transmission flag in Cb/Cr filter signaling may be transmitted. Thus, alf_cross_component_filter_signal_flag integrates Cb/Cr to determine whether or not the CCALF filter coefficients should be transmitted.

[268] Следующая таблица показывает синтаксис, связанный с ALF-данными согласно другому примеру.[268] The following table shows the syntax associated with ALF data according to another example.

[269] Табл. 21[269] Tab. 21

Figure 00000022
Figure 00000022

[270] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[270] The following table shows exemplary semantics for the syntax elements included in the above table.

[271] Табл. 22[271] Tab. 22

Figure 00000023
Figure 00000023

[273] Следующая таблица показывает синтаксис, связанный с ALF-данными согласно другому примеру.[273] The following table shows the syntax associated with ALF data according to another example.

[274] Табл. 23[274] Tab. 23

Figure 00000024
Figure 00000024

[275] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[275] The following table shows exemplary semantics for the syntax elements included in the above table.

[276] Табл. 24[276] Tab. 24

Figure 00000025
Figure 00000025

[278] В вышеприведенных двух таблицах, порядок экспоненциального код Голомба преобразования в двоичную форму для синтаксического анализа синтаксиса alf_cross_component_cb_coeff_abs[j] и alf_cross_component_cr_coeff_abs[j] может задаваться посредством одного из значений 0-9.[278] In the above two tables, the exponential Golomb binarization order for parsing the syntax alf_cross_component_cb_coeff_abs[j] and alf_cross_component_cr_coeff_abs[j] may be specified by one of the values 0-9.

[279] Ссылаясь на вышеприведенные две таблицы, ALF-данные могут включать в себя флаг передачи в служебных сигналах Cb-фильтров (alf_cross_component_cb_filter_signal_flag или alf_cc_cb_filter_signal_flag), связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-компонента. На основе флага передачи в служебных сигналах Cb-фильтров (alf_cross_component_cb_filter_signal_flag), ALF-данные могут включать в себя информацию (ccalf_cb_num_alt_filters_minus1), связанную с числом кросскомпонентных фильтров для цветового Cb-компонента. На основе информации, связанной с числом кросскомпонентных фильтров для цветового Cb-компонента, ALF-данные могут включать в себя информацию (alf_cross_component_cb_coeff_abs) относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информацию (alf_cross_component_cr_coeff_sign) относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cb-компонента.[279] Referring to the above two tables, the ALF data may include a Cb filter signaling signaling flag (alf_cross_component_cb_filter_signal_flag or alf_cc_cb_filter_signal_flag) related to whether or not cross-component filters for the Cb color component are signaled. Based on the Cb signaling signaling transmit flag (alf_cross_component_cb_filter_signal_flag), the ALF data may include information (ccalf_cb_num_alt_filters_minus1) related to the number of cross component filters for the Cb color component. Based on information related to the number of cross-component filters for the Cb color component, the ALF data may include information (alf_cross_component_cb_coeff_abs) about the absolute values of the cross-component filter coefficients for the Cb color component and information (alf_cross_component_cr_coeff_sign) about the signs of the cross-component filter coefficients for the Cb color -component. Based on information regarding the absolute values of the cross-component filter coefficients for the Cb color component and information regarding the signs of the cross-component filter coefficients for the Cb color component, the cross-component filter coefficients for the Cb color component can be extracted.

[280] В примере, ALF-данные могут включать в себя флаг передачи в служебных сигналах Cr-фильтров (alf_cross_component_cr_filter_signal_flag или alf_cc_cr_filter_signal_flag), связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cr-компонента. На основе флага передачи в служебных сигналах Cr-фильтров (alf_cross_component_cr_filter_signal_flag), ALF-данные могут включать в себя информацию (ccalf_cr_num_alt_filters_minus1), связанную с числом кросскомпонентных фильтров для цветового Cr-компонента. На основе информации, связанной с числом кросскомпонентных фильтров для цветового Cr-компонента, ALF-данные могут включать в себя информацию (alf_cross_component_cr_coeff_abs) относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информацию (alf_cross_component_cr_coeff_sign) относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента. На основе информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cr-компонента.[280] In an example, the ALF data may include a Cr signaling signaling flag (alf_cross_component_cr_filter_signal_flag or alf_cc_cr_filter_signal_flag) related to whether or not cross-component filters for the Cr color component are signaled. Based on the Cr signaling signaling transmit flag (alf_cross_component_cr_filter_signal_flag), the ALF data may include information (ccalf_cr_num_alt_filters_minus1) related to the number of cross component filters for the Cr color component. Based on information related to the number of cross-component filters for the chrominance Cr component, the ALF data may include information (alf_cross_component_cr_coeff_abs) regarding the absolute values of the cross-component filter coefficients for the chrominance Cr component and information (alf_cross_component_cr_coeff_sign) regarding the signs of the cross-component filter coefficients for the chroma Cr -component. Based on information regarding the absolute values of the cross-component filter coefficients for the chrominance Cr component and information regarding the signs of the cross-component filter coefficients for the chrominance Cr component, the cross-component filter coefficients for the chrominance Cr component can be extracted.

[281] Следующая таблица показывает синтаксис относительно единицы дерева кодирования согласно варианту осуществления настоящего раскрытия сущности.[281] The following table shows the syntax regarding the coding tree unit according to an embodiment of the present disclosure.

[282] Табл. 25[282] Tab. 25

Figure 00000026
Figure 00000026

[283] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[283] The following table shows exemplary semantics for the syntax elements included in the above table.

[284] Табл. 26[284] Tab. 26

Figure 00000027
Figure 00000027

[285] Следующая таблица показывает синтаксис единиц дерева кодирования согласно другому примеру этого варианта осуществления.[285] The following table shows the syntax of coding tree units according to another example of this embodiment.

[286] Табл. 27[286] Tab. 27

Figure 00000028
Figure 00000028

[287] Обращаясь к вышеприведенной таблице, CCALF может применяться в единицах CTU. В примере, информация изображений может включать в себя информацию (coding_tree_unit()) относительно единицы дерева кодирования. Информация относительно единицы дерева кодирования может включать в себя информацию (ccalf_ctb_flag[0) относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-компонента, и/или информацию (ccalf_ctb_flag[1]) относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cr-компонента. Помимо этого, информация относительно единицы дерева кодирования может включать в себя информацию (ccalf_ctb_filter_alt_idx[0) относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cb-компонента, и/или информацию (ccalf_ctb_filter_alt_idx[1]) относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cr-компонента. Синтаксис может адаптивно передаваться согласно синтаксису slice_ccalf_enabled_flag и slice_ccalf_chroma_idc.[287] Referring to the above table, CCALF may be applied in CTU units. In an example, the image information may include information (coding_tree_unit()) regarding a coding tree unit. The information regarding the coding tree unit may include information (ccalf_ctb_flag[0) regarding whether or not a cross-component filter is applied to the current Cb color component block, and/or information (ccalf_ctb_flag[1]) regarding whether or not a cross-component filter is applied to to the current block of the color Cr-component. In addition, information regarding a coding tree unit may include information (ccalf_ctb_filter_alt_idx[0) regarding a filterbank index for a cross-component filter applied to the current Cb chroma component block and/or information (ccalf_ctb_filter_alt_idx[1]) regarding a filterbank index for cross-component filter applied to the current Cr-color block. The syntax may be adaptively transmitted according to the syntax of slice_ccalf_enabled_flag and slice_ccalf_chroma_idc.

[288] Следующая таблица показывает синтаксис единиц дерева кодирования согласно другому примеру этого варианта осуществления.[288] The following table shows the syntax of coding tree units according to another example of this embodiment.

[289] Табл. 28[289] Tab. 28

Figure 00000029
Figure 00000029

[290] Следующая таблица показывает примерную семантику для синтаксических элементов, включенных в вышеприведенную таблицу.[290] The following table shows exemplary semantics for the syntax elements included in the above table.

[291] Табл. 29[291] Tab. 29

Figure 00000030
Figure 00000030

[292] Следующая таблица показывает синтаксис единиц дерева кодирования согласно другому примеру этого варианта осуществления. Синтаксические элементы, включенные в нижеприведенную таблицу, могут описываться согласно таблице 29.[292] The following table shows the syntax of coding tree units according to another example of this embodiment. The syntax elements included in the table below may be described according to table 29.

[293] Табл. 30[293] Tab. thirty

Figure 00000031
Figure 00000031

[294] В примере, информация изображений может включать в себя информацию относительно единицы дерева кодирования (coding_tree_unit()). Информация относительно единицы дерева кодирования может включать в себя информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-компонента (ccalf_ctb_flag[0), и/или информацию (ccalf_ctb_flag[1]) относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cr-компонента. Помимо этого, информация относительно единицы дерева кодирования может включать в себя информацию (ccalf_ctb_filter_alt_idx[0) относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cb-компонента, и/или информацию (ccalf_ctb_filter_alt_idx[1]) относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cr-компонента.[294] In an example, the image information may include information regarding a coding tree unit (coding_tree_unit()). Information regarding a coding tree unit may include information regarding whether or not a cross-component filter is applied to the current Cb color component block (ccalf_ctb_flag[0)] and/or information (ccalf_ctb_flag[1]) regarding whether or not a cross-component filter is applied to to the current block of the color Cr-component. In addition, information regarding a coding tree unit may include information (ccalf_ctb_filter_alt_idx[0) regarding a filterbank index for a cross-component filter applied to the current Cb chroma component block and/or information (ccalf_ctb_filter_alt_idx[1]) regarding a filterbank index for cross-component filter applied to the current Cr-color block.

[295] Фиг. 13 и 14 схематично показывают пример способа кодирования видео/изображений и связанных компонентов согласно варианту(ам) осуществления настоящего раскрытия сущности.[295] FIG. 13 and 14 schematically show an example of a video/image coding method and related components according to the embodiment(s) of the present disclosure.

[296] Способ, раскрытый на фиг. 13, может осуществляться посредством оборудования кодирования, раскрытого на фиг. 2 или фиг. 14. В частности, например, S1300-S1330 по фиг. 13 могут выполняться посредством остаточного процессора 230 оборудования кодирования по фиг. 14, S1340 по фиг. 13 может выполняться посредством сумматора 250 оборудования кодирования по фиг. 14, S1350 по фиг. 13 может выполняться посредством фильтра 260 оборудования кодирования по фиг. 14, и S1360 по фиг. 13 может выполняться посредством энтропийного кодера 240 оборудования кодирования по фиг. 14. Помимо этого, хотя не показано на фиг. 13, прогнозные выборки или связанная с прогнозированием информация могут извлекаться посредством модуля 220 прогнозирования оборудования кодирования на фиг. 13, и поток битов может формироваться из остаточной информации или связанной с прогнозированием информации посредством энтропийного кодера 240 оборудования кодирования. Способ, раскрытый на фиг. 13, может включать в себя варианты осуществления, описанные выше, в настоящем раскрытии сущности.[296] The method disclosed in FIG. 13 may be performed by the encoding equipment disclosed in FIG. 2 or fig. 14. In particular, for example, S1300-S1330 of FIG. 13 may be performed by the encoding equipment residual processor 230 of FIG. 14, S1340 of FIG. 13 may be performed by the adder 250 of the encoding equipment of FIG. 14, S1350 of FIG. 13 may be performed by the coding equipment filter 260 of FIG. 14 and S1360 of FIG. 13 may be performed by the entropy encoder 240 of the encoding equipment of FIG. 14. In addition, although not shown in FIG. 13, prediction samples or prediction-related information may be retrieved by the prediction module 220 of the encoding equipment in FIG. 13, and the bit stream may be generated from the residual information or prediction-related information by the entropy encoder 240 of the encoding equipment. The method disclosed in FIG. 13 may include the embodiments described above in the present disclosure.

[297] Ссылаясь на фиг. 13, оборудование кодирования может извлекать остаточные выборки (S1300). Оборудование кодирования может извлекать остаточные выборки для текущего блока, и остаточные выборки для текущего блока могут извлекаться на основе исходных выборок и прогнозных выборок текущего блока. В частности, оборудование кодирования может извлекать прогнозные выборки текущего блока на основе режима прогнозирования. В этом случае, могут применяться различные способы прогнозирования, раскрытые в настоящем раскрытии сущности, такие как взаимное прогнозирование или внутреннее прогнозирование. Остаточные выборки могут извлекаться на основе прогнозных выборок и исходных выборок.[297] Referring to FIG. 13, the encoding equipment may extract residual samples (S1300). The encoding equipment may derive residual samples for the current block, and residual samples for the current block may be derived based on the original samples and the predictive samples of the current block. In particular, the encoding equipment may extract the prediction samples of the current block based on the prediction mode. In this case, various prediction methods disclosed in the present disclosure may be applied, such as mutual prediction or intra prediction. Residual samples may be derived from the predictive samples and the original samples.

[298] Оборудование кодирования может извлекать коэффициенты преобразования (S1310). Оборудование кодирования может извлекать коэффициенты преобразования на основе процесса преобразования для остаточных выборок. Например, процесс преобразования может включать в себя, по меньшей мере, одно из DCT, DST, GBT или CNT.[298] The encoding equipment may extract transform coefficients (S1310). The encoding equipment may derive transform coefficients based on the transform process for the residual samples. For example, the conversion process may include at least one of DCT, DST, GBT, or CNT.

[299] Оборудование кодирования может извлекать квантованные коэффициенты преобразования (S1320). Оборудование кодирования может извлекать квантованные коэффициенты преобразования на основе процесса квантования для коэффициентов преобразования. Квантованные коэффициенты преобразования могут иметь одномерную векторную форму на основе порядка сканирования коэффициентов.[299] The encoding equipment may extract quantized transform coefficients (S1320). The encoding equipment may derive quantized transform coefficients based on a quantization process for the transform coefficients. The quantized transform coefficients may be in one-dimensional vector form based on the scan order of the coefficients.

[300] Оборудование кодирования может формировать остаточную информацию (S1330). Оборудование кодирования может формировать остаточную информацию, указывающую квантованные коэффициенты преобразования. Остаточная информация может формироваться через различные способы кодирования, такие как экспоненциальный код Голомба, CAVLC, CABAC и т.п.[300] The encoding equipment may generate residual information (S1330). The encoding equipment may generate residual information indicative of the quantized transform coefficients. The residual information may be generated through various coding methods such as exponential Golomb code, CAVLC, CABAC, and the like.

[301] Оборудование кодирования может формировать восстановленные выборки (S1340). Оборудование кодирования может формировать восстановленные выборки на основе остаточной информации. Восстановленные выборки могут формироваться посредством суммирования остаточных выборок на основе остаточной информации с прогнозной выборкой. В частности, оборудование кодирования может выполнять прогнозирование (внутреннее или взаимное прогнозирование) для текущего блока и может формировать восстановленные выборки на основе исходных выборок и прогнозных выборок, сформированных из прогнозирования.[301] The encoding equipment may generate recovered samples (S1340). The encoding equipment may generate reconstructed samples based on the residual information. The reconstructed samples may be generated by summing the residual samples based on the residual information with the predictive sample. In particular, the encoding equipment may perform prediction (intra prediction or inter prediction) for the current block, and may generate reconstructed samples based on the original samples and the prediction samples generated from the prediction.

[302] Восстановленные выборки могут включать в себя восстановленные выборки сигналов яркости и восстановленные выборки сигналов цветности. В частности, остаточные выборки могут включать в себя остаточные выборки сигналов яркости и остаточные выборки сигналов цветности. Остаточные выборки сигналов яркости могут формироваться на основе исходных выборок сигналов яркости и прогнозированных выборок сигналов яркости. Остаточные выборки сигналов цветности могут формироваться на основе исходных выборок сигналов цветности и прогнозированных выборок сигналов цветности. Оборудование кодирования может извлекать коэффициенты преобразования (коэффициенты преобразования сигналов яркости) для остаточных выборок сигналов яркости и/или коэффициенты преобразования (коэффициенты преобразования сигналов цветности) для остаточных выборок сигналов цветности. Квантованные коэффициенты преобразования могут включать в себя квантованные коэффициенты преобразования сигналов яркости и/или квантованные коэффициенты преобразования сигналов цветности.[302] The reconstructed samples may include reconstructed luminance samples and reconstructed chrominance samples. In particular, the residual samples may include luma residual samples and chrominance residual samples. The residual luminance samples may be generated based on the original luminance samples and the predicted luminance samples. The residual chrominance samples may be generated based on the original chrominance samples and the predicted chrominance samples. The encoding equipment may extract transform coefficients (luminance transform coefficients) for the residual luminance samples and/or transform coefficients (chrominance transform coefficients) for the residual chrominance samples. The quantized transform coefficients may include quantized luminance transform coefficients and/or quantized chrominance transform coefficients.

[303] Оборудование кодирования может формировать связанную с ALF информацию и/или связанную с CCALF (CC-ALF) информацию для восстановленных выборок (S1350). Оборудование кодирования может формировать связанную с ALF информацию для восстановленных выборок. Оборудование кодирования извлекает связанный с ALF параметр, который может применяться для фильтрации восстановленных выборок, и формирует связанную с ALF информацию. Например, связанная с ALF информация может включать в себя связанную с ALF информацию, описанную выше в настоящем раскрытии сущности.[303] The encoding equipment may generate ALF related information and/or CCALF related (CC-ALF) information for the recovered samples (S1350). The coding hardware may generate ALF related information for the recovered samples. The encoding hardware extracts the ALF-related parameter that can be used to filter the reconstructed samples and generates the ALF-related information. For example, ALF related information may include ALF related information described above in this disclosure.

[304] Устройство кодирования может кодировать информацию видео/изображений (S1360). Информация изображений может включать в себя остаточную информацию, связанную с ALF информацию и/или связанную с CCALF информацию. Кодированная информация видео/изображений может выводиться в форме потока битов. Поток битов может передаваться в устройство декодирования через сеть или носитель хранения данных.[304] The encoding device may encode video/image information (S1360). The image information may include residual information, ALF-related information, and/or CCALF-related information. The encoded video/image information may be output in the form of a bitstream. The bitstream may be transmitted to the decoder via a network or a storage medium.

[305] В примере, связанная с CCALF информация может включать в себя флаг CCALF-активации, флаг, связанный с тем, доступна или нет CCALF для цветового Cb-(или Cr-)компонента, флаг передачи в служебных сигналах Cb-(или Cr-)фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-(или Cr-)компонента, информацию, связанную с числом кросскомпонентных фильтров для цветового Cb-(или Cr-)компонента, информацию относительно значений коэффициентов кросскомпонентного фильтра для цветового Cb-(или Cr-)компонента, информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-(или Cr-)компонента, информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-(или Cr-)компонента и/или информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-(или Cr-)компонента в информации (синтаксисе единиц дерева кодирования) относительно единицы дерева кодирования.[305] In an example, the CCALF-related information may include a CCALF activation flag, a flag related to whether or not CCALF is available for the Cb- (or Cr-) color component, a transmission flag in the Cb- (or Cr -) filters related to whether or not cross-component filters for the Cb (or Cr-) color component are signaled, information related to the number of cross-component filters for the Cb- (or Cr-) color component, information regarding the values of the coefficients of the cross-component filter for the Cb (or Cr) color component, information regarding the absolute values of the cross-component filter coefficients for the Cb (or Cr-) color component, information regarding the signs of the cross-component filter coefficients for the Cb (or Cr-) color component, and/or information regarding whether or not a cross-component filter is applied to the current block of the Cb- (or Cr-) color component in the information (coding tree unit syntax) regarding the tree unit wa coding.

[306] Информация изображений/видео может включать в себя различные типы информации согласно варианту осуществления настоящего документа. Например, информация изображений/видео может включать в себя информацию, раскрытую, по меньшей мере, в одной из таблиц 1-30, описанных выше.[306] The image/video information may include various types of information according to an embodiment of the present document. For example, the image/video information may include information disclosed in at least one of Tables 1-30 described above.

[307] В варианте осуществления, информация изображений может включать в себя информацию заголовка и набор параметров адаптации (APS). Информация заголовка может включать в себя информацию, связанную с идентификатором APS, включающую в себя ALF-данные. Например, коэффициенты кросскомпонентного фильтра могут извлекаться на основе ALF-данных.[307] In an embodiment, the image information may include header information and an adaptation parameter set (APS). The header information may include information associated with the APS identifier, including ALF data. For example, cross-component filter coefficients may be derived from ALF data.

[308] В варианте осуществления, информация изображений может включать в себя набор параметров последовательности (SPS). SPS может включать в себя флаг CCALF-активации, связанный с тем, доступна или нет кросскомпонентная фильтрация.[308] In an embodiment, the image information may include a sequence parameter set (SPS). The SPS may include a CCALF activation flag related to whether cross-component filtering is available or not.

[309] В варианте осуществления, SPS может включать в себя флаг ALF-активации (sps_alf_enabled_flag), связанный с тем, доступна или нет ALF. На основе определения того, что значение флага ALF-активации равно 1, SPS может включать в себя флаг CCALF-активации, связанный с тем, доступна или нет кросскомпонентная фильтрация.[309] In an embodiment, the SPS may include an ALF activation flag (sps_alf_enabled_flag) related to whether ALF is available or not. Based on determining that the value of the ALF activation flag is 1, the SPS may include a CCALF activation flag related to whether cross-component filtering is available or not.

[310] В варианте осуществления, информация изображений может включать в себя информацию заголовка среза. Информация заголовка среза может включать в себя флаг ALF-активации (slice_alf_enabled_flag), связанный с тем, доступна или нет ALF. На основе определения того, что значение флага ALF-активации равно 1, может определяться то, равно или нет значение флага активации флага, связанное с тем, доступна или нет CCALF, 1. В примере, CCALF может быть доступна для среза на основе определения того, что значение флага ALF-активации равно 1.[310] In an embodiment, the image information may include slice header information. The slice header information may include an ALF enable flag (slice_alf_enabled_flag) related to whether ALF is available or not. Based on the determination that the value of the ALF activation flag is 1, it may be determined whether or not the value of the flag activation flag associated with whether CCALF is available or not is 1. In an example, CCALF may be available for the slice based on determining whether that the value of the ALF activation flag is 1.

[311] В варианте осуществления, информация заголовка (информация заголовка среза) может включать в себя первый флаг, связанный с тем, доступна или нет CCALF для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и второй флаг, связанный с тем, доступна или нет CCLF для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности. В другом примере, на основе определения того, что значение флага ALF-активации (slice_alf_enabled_flag) равно 1, информация заголовка (информация заголовка среза) может включать в себя первый флаг, связанный с тем, доступна или нет CCALF для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и второй флаг, связанный с тем, доступна или нет CCLF для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности.[311] In an embodiment, the header information (slice header information) may include a first flag related to whether or not CCALF is available for the Cb color component of the filtered recovered chrominance samples, and a second flag related to whether or not no CCLF for the chrominance Cr component of the filtered reconstructed chrominance samples. In another example, based on determining that the value of the ALF enable flag (slice_alf_enabled_flag) is 1, the header information (slice header information) may include a first flag related to whether or not CCALF is available for the Cb color component of the filtered reconstructed chrominance samples, and a second flag related to whether or not CCLF is available for the chrominance Cr component of the filtered reconstructed chrominance samples.

[312] В варианте осуществления, информация изображений может включать в себя наборы параметров адаптации (APS). В примере, информация заголовка среза может включать в себя идентификационную информацию первого APS (информацию, связанную с идентификатором второго APS) для извлечения коэффициентов кросскомпонентного фильтра для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности. Информация заголовка среза может включать в себя идентификационную информацию (информацию, связанную с идентификатором второго APS) второго APS для извлечения коэффициентов кросскомпонентного фильтра для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности. В другом примере, на основе определения того, что значение первого флага равно 1, информация заголовка среза может включать в себя идентификационную информацию первого APS (информацию относительно идентификатора второго APS) для извлечения коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе определения того, что значение второго флага равно 1, информация заголовка среза может включать в себя идентификационную информацию второго APS (информацию, связанную с идентификатором второго APS) для извлечения коэффициентов кросскомпонентного фильтра для цветового Cr-компонента.[312] In an embodiment, the image information may include adaptation parameter sets (APS). In an example, the slice header information may include identification information of the first APS (information associated with the identifier of the second APS) for extracting cross-component filter coefficients for the Cb color component of the filtered reconstructed chrominance samples. The slice header information may include identification information (information associated with the second APS identifier) of the second APS for extracting cross-component filter coefficients for the chrominance Cr component of the filtered reconstructed chrominance samples. In another example, based on determining that the value of the first flag is 1, the slice header information may include identification information of the first APS (information regarding the identifier of the second APS) for extracting cross-component filter coefficients for the Cb color component. Based on determining that the value of the second flag is 1, the slice header information may include identification information of the second APS (second APS ID related information) for extracting cross-component filter coefficients for the Cr color component.

[313] В варианте осуществления, первые ALF-данные, включенные в первый APS, могут включать в себя флаг передачи в служебных сигналах Cb-фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-компонента. На основе флага передачи в служебных сигналах Cb-фильтров, первые ALF-данные могут включать в себя информацию, связанную с числом кросскомпонентных фильтров для цветового Cb-компонента. На основе информации, связанной с числом кросскомпонентных фильтров для цветового Cb-компонента, первые ALF-данные могут включать в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе информации относительно информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cb-компонента.[313] In an embodiment, the first ALF data included in the first APS may include a Cb filter signaling signaling flag related to whether cross-component filters for the Cb color component are signaled. Based on the transmit flag in the Cb filter signaling, the first ALF data may include information related to the number of cross-component filters for the Cb color component. Based on information related to the number of cross-component filters for the Cb color component, the first ALF data may include information on the absolute values of the cross-component filter coefficients for the Cb color component and information on the signs of the cross-component filter coefficients for the Cb color component. Based on information regarding information regarding absolute values of the Cb color component cross-filter coefficients and information regarding the signs of the Cb color component cross-component filter coefficients, the cross-component filter coefficients for the Cb color component can be extracted.

[314] В варианте осуществления, информация, связанная с числом кросскомпонентных фильтров для цветового Cb-компонента, может кодироваться экспоненциальным кодом Голомба нулевого порядка (нулевым EG).[314] In an embodiment, information related to the number of cross-component filters for the Cb color component may be encoded with a zero-order exponential Golomb code (zero EG).

[315] В варианте осуществления, вторые ALF-данные, включенные во второй APS, могут включать в себя флаг передачи в служебных сигналах Cr-фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cr-компонента. На основе флага передачи в служебных сигналах Cr-фильтров, вторые ALF-данные могут включать в себя информацию, связанную с числом кросскомпонентных фильтров для цветового Cr-компонента. На основе информации, связанной с числом кросскомпонентных фильтров для цветового Cr-компонента, вторые ALF-данные могут включать в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента. На основе абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cr-компонента.[315] In an embodiment, the second ALF data included in the second APS may include a Cr signaling signaling flag related to whether or not cross-component filters for the Cr color component are signaled. Based on the transmit flag in the Cr signaling, the second ALF data may include information related to the number of cross filters for the Cr color component. Based on information related to the number of cross-component filters for the chrominance Cr component, the second ALF data may include information regarding the absolute values of the cross-component filter coefficients for the chrominance Cr component and information regarding the signs of the cross-component filter coefficients for the chrominance Cr component. Based on the absolute values of the cross-component filter coefficients for the Cr color component and information regarding the signs of the cross-component filter coefficients for the Cr color component, the cross-component filter coefficients for the Cr color component can be extracted.

[316] В варианте осуществления, информация, связанная с числом кросскомпонентных фильтров для цветового Cr-компонента, может кодироваться экспоненциальным кодом Голомба нулевого порядка (нулевым EG).[316] In an embodiment, information related to the number of cross-component filters for the chrominance Cr component may be encoded with a zero-order exponential Golomb code (zero EG).

[317] В варианте осуществления, информация изображений может включать в себя информацию относительно единицы дерева кодирования. Информация относительно единицы дерева кодирования может включать в себя информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-компонента, и/или информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cr-компонента.[317] In an embodiment, the image information may include information regarding a coding tree unit. Information regarding a coding tree unit may include information regarding whether or not a cross-component filter is applied to the current Cb chroma component block and/or information regarding whether or not a cross-component filter is applied to the current Cr chroma component.

[318] В варианте осуществления, информация относительно единицы дерева кодирования может включать в себя информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cb-компонента, и/или информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cr-компонента.[318] In an embodiment, information regarding a coding tree unit may include information regarding a filterbank index for a cross-component filter applied to the current block of the Cb color component and/or information regarding a filterbank index for a cross-component filter applied to the current block. color Cr-component.

[319] Фиг. 15 и 16 схематично показывают пример способа декодирования видео/изображений и связанных компонентов согласно варианту(ам) осуществления настоящего раскрытия сущности.[319] FIG. 15 and 16 schematically show an example of a method for decoding video/images and related components according to embodiment(s) of the present disclosure.

[320] Способ, раскрытый на фиг. 15, может осуществляться посредством оборудования декодирования, проиллюстрированного на фиг. 3 или 16. В частности, например, S1500 по фиг. 15 может выполняться посредством энтропийного декодера 310 оборудования декодирования, S1510 может выполняться посредством сумматора 340 оборудования декодирования, и S1520-S1550 могут выполняться посредством фильтра 350 оборудования декодирования. Способ, раскрытый на фиг. 15, может включать в себя варианты осуществления, описанные выше, в настоящем раскрытии сущности.[320] The method disclosed in FIG. 15 may be performed by the decoding equipment illustrated in FIG. 3 or 16. In particular, for example, the S1500 of FIG. 15 may be performed by the entropy decoder 310 of the decoding equipment, S1510 may be performed by the adder 340 of the decoding equipment, and S1520-S1550 may be performed by the filter 350 of the decoding equipment. The method disclosed in FIG. 15 may include the embodiments described above in the present disclosure.

[321] Ссылаясь на фиг. 15, оборудование декодирования может принимать/получать информацию видео/изображений (S1500). Информация видео/изображений может включать в себя остаточную информацию. Оборудование декодирования может принимать/получать информацию изображений/видео через поток битов. В примере, информация видео/изображений дополнительно может включать в себя CCAL-связанную информацию. Например, в примере, связанная с CCALF информация может включать в себя флаг CCALF-активации, флаг, связанный с тем, доступна или нет CCALF для цветового Cb-(или Cr-)компонента, флаг передачи в служебных сигналах Cb-(или Cr-)фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-(или Cr-)компонента, информацию, связанную с числом кросскомпонентных фильтров для цветового Cb-(или Cr-)компонента, информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-(или Cr-)компонента, информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-(или Cr-)компонента и/или информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-(или Cr-)компонента в информации (синтаксисе единиц дерева кодирования) относительно единицы дерева кодирования.[321] Referring to FIG. 15, the decoding equipment can receive/acquire video/image information (S1500). The video/image information may include residual information. The decoding equipment can receive/receive image/video information via a bit stream. In an example, the video/image information may further include CCAL related information. For example, in an example, the CCALF related information may include a CCALF activation flag, a flag related to whether or not CCALF is available for the Cb- (or Cr-) color component, a transmit flag in the Cb- (or Cr-) signaling. ) filters related to whether or not cross-component filters for the Cb- (or Cr-) color component are signaled, information related to the number of cross-component filters for the Cb- (or Cr-) color component, information regarding the absolute values of the coefficients of the cross-component filter for the Cb- (or Cr-) color component, information regarding the signs of the cross-component filter coefficients for the Cb- (or Cr-) color component, and/or information regarding whether or not the cross-component filter is applied to the current Cb- (or Cr-) color block. )component in the information (syntax of coding tree units) relative to the coding tree unit.

[322] Информация изображений/видео может включать в себя различные типы информации согласно варианту осуществления настоящего документа. Например, информация изображений/видео может включать в себя информацию, раскрытую, по меньшей мере, в одной из таблиц 1-30, описанных выше.[322] The image/video information may include various types of information according to an embodiment of the present document. For example, the image/video information may include information disclosed in at least one of Tables 1-30 described above.

[323] Оборудование декодирования может извлекать квантованные коэффициенты преобразования. Оборудование декодирования может извлекать квантованные коэффициенты преобразования на основе остаточной информации. Квантованные коэффициенты преобразования могут иметь одномерную векторную форму на основе порядка сканирования коэффициентов. Квантованные коэффициенты преобразования могут включать в себя квантованные коэффициенты преобразования сигналов яркости и/или квантованные коэффициенты преобразования сигналов цветности.[323] The decoding equipment may extract the quantized transform coefficients. The decoding equipment may derive quantized transform coefficients based on the residual information. The quantized transform coefficients may be in one-dimensional vector form based on the scan order of the coefficients. The quantized transform coefficients may include quantized luminance transform coefficients and/or quantized chrominance transform coefficients.

[324] Оборудование декодирования может извлекать коэффициенты преобразования. Оборудование декодирования может извлекать коэффициенты преобразования на основе процесса деквантования для квантованных коэффициентов преобразования. Оборудование декодирования может извлекать коэффициенты преобразования сигналов яркости через деквантование на основе квантованных коэффициентов преобразования сигналов яркости. Оборудование декодирования может извлекать коэффициенты преобразования сигналов цветности через деквантование на основе квантованных коэффициентов преобразования сигналов цветности.[324] The decoding equipment may extract transform coefficients. The decoding equipment may derive transform coefficients based on a dequantization process for the quantized transform coefficients. The decoding equipment can extract luminance transform coefficients through dequantization based on the quantized luminance transform coefficients. The decoding equipment can extract chrominance transform coefficients through dequantization based on the quantized chrominance transform coefficients.

[325] Оборудование декодирования может формировать/извлекать остаточные выборки. Оборудование декодирования может извлекать остаточные выборки на основе процесса обратного преобразования для коэффициентов преобразования. Оборудование декодирования может извлекать остаточные выборки сигналов яркости через процесс обратного преобразования на основе коэффициентов преобразования сигналов яркости. Оборудование декодирования может извлекать остаточные выборки сигналов цветности через процесс обратного преобразования на основе коэффициентов преобразования сигналов цветности.[325] The decoding equipment may generate/extract residual samples. The decoding equipment may derive residual samples based on an inverse transform process for the transform coefficients. The decoding equipment may extract the residual luma samples through an inverse transform process based on the luminance transform coefficients. The decoding equipment can extract the residual chrominance samples through an inverse transform process based on the chrominance transform coefficients.

[326] Оборудование декодирования может формировать/извлекать восстановленные выборки сигналов яркости и/или восстановленные выборки сигналов цветности (S1510). Оборудование декодирования может формировать восстановленные выборки сигналов яркости и/или восстановленные выборки сигналов цветности на основе остаточной информации. Оборудование декодирования может формировать восстановленные выборки на основе остаточной информации. Восстановленные выборки могут включать в себя восстановленные выборки сигналов яркости и/или восстановленные выборки сигналов цветности. Компонент сигналов яркости восстановленных выборок может соответствовать восстановленным выборкам сигналов яркости, и компонент сигналов цветности восстановленных выборок может соответствовать восстановленным выборкам сигналов цветности. Оборудование декодирования может формировать прогнозированные выборки сигналов яркости и/или прогнозированные выборки сигналов цветности через процесс прогнозирования. Оборудование декодирования может формировать восстановленные выборки сигналов яркости на основе прогнозированных выборок сигналов яркости и остаточных выборок сигналов яркости. Оборудование декодирования может формировать восстановленные выборки сигналов цветности на основе прогнозированных выборок сигналов цветности и остаточных выборок сигналов цветности.[326] The decoding equipment may generate/extract recovered luminance samples and/or recovered chrominance samples (S1510). The decoding equipment may generate reconstructed luma samples and/or reconstructed chrominance samples based on the residual information. The decoding hardware may generate reconstructed samples based on the residual information. The reconstructed samples may include reconstructed luma samples and/or reconstructed chrominance samples. The luma component of the reconstructed samples may correspond to the reconstructed luminance samples, and the chroma component of the reconstructed samples may correspond to the reconstructed chrominance samples. The decoding equipment may generate predicted luminance samples and/or predicted chrominance samples through a prediction process. The decoding equipment may generate reconstructed luma samples based on the predicted luminance samples and the residual luma samples. The decoding equipment may generate reconstructed chrominance samples based on the predicted chrominance samples and the residual chrominance samples.

[327] Оборудование декодирования может извлекать коэффициенты ALF-фильтра для ALF-процесса восстановленных выборок сигналов цветности (S1520). Помимо этого, оборудование декодирования может извлекать коэффициенты ALF-фильтра для ALF-процесса восстановленных выборок сигналов яркости. Коэффициенты ALF-фильтра могут извлекаться на основе ALF-параметров, включенных в ALF-данные в APS.[327] The decoding equipment may extract the ALF filter coefficients for the recovered chrominance samples ALF process (S1520). In addition, the decoding hardware can extract the ALF filter coefficients for the ALF process of the reconstructed luminance samples. The ALF filter coefficients may be derived based on the ALF parameters included in the ALF data in the APS.

[328] Оборудование декодирования может формировать фильтрованные восстановленные выборки сигналов цветности (S1530). Оборудование декодирования может формировать фильтрованные восстановленные выборки на основе восстановленных выборок сигналов цветности и коэффициентов ALF-фильтра.[328] The decoding equipment may generate filtered reconstructed chrominance samples (S1530). The decoding hardware may generate filtered reconstructed samples based on the reconstructed chrominance samples and ALF filter coefficients.

[329] Оборудование декодирования может извлекать коэффициенты кросскомпонентного фильтра для кросскомпонентной фильтрации (S1540). Коэффициенты кросскомпонентного фильтра могут извлекаться на основе связанной с CCALF информации в ALF-данных, включенных в вышеуказанный APS, и идентификационная информация соответствующего APS может включаться в заголовок среза (может передаваться в служебных сигналах через него).[329] The decoding equipment may extract cross-component filter coefficients for cross-component filtering (S1540). The cross-component filter coefficients may be derived based on the CCALF-related information in the ALF data included in the above APS, and the identification information of the corresponding APS may be included in (may be signaled through) the slice header.

[330] Оборудование декодирования может формировать модифицированные фильтрованные восстановленные выборки сигналов цветности (S1550). Оборудование декодирования может формировать модифицированные и фильтрованные восстановленные выборки сигналов цветности на основе восстановленных выборок сигналов яркости, фильтрованных восстановленных выборок сигналов цветности и коэффициентов кросскомпонентного фильтра. В примере, оборудование декодирования может извлекать разность между двумя выборками из восстановленных выборок сигналов яркости и умножать разность на один коэффициент фильтра из коэффициентов кросскомпонентного фильтра. На основе результата умножения и фильтрованных восстановленных выборок сигналов цветности, оборудование декодирования может формировать модифицированные фильтрованные восстановленные выборки сигналов цветности. Например, оборудование декодирования может формировать модифицированные фильтрованные восстановленные выборки сигналов цветности на основе суммы произведения и одной из фильтрованных восстановленных выборок сигналов цветности.[330] The decoding equipment may generate modified filtered chrominance reconstructed samples (S1550). The decoding equipment may generate modified and filtered chrominance reconstructed samples based on the luminance reconstructed samples, filtered chrominance reconstructed samples, and cross-component filter coefficients. In an example, the decoding hardware may extract the difference between the two samples from the reconstructed luminance samples and multiply the difference by one filter coefficient from the cross-component filter coefficients. Based on the result of the multiplication and the filtered chrominance reconstructed samples, the decoding equipment may generate modified filtered chrominance reconstructed samples. For example, the decoding hardware may generate modified filtered chrominance reconstructed samples based on the sum of the product and one of the filtered chrominance reconstructed samples.

[331] В варианте осуществления, информация изображений может включать в себя информацию заголовка и набор параметров адаптации (APS). Информация заголовка может включать в себя информацию, связанную с идентификатором APS, включающую в себя ALF-данные. Например, коэффициенты кросскомпонентного фильтра могут извлекаться на основе ALF-данных.[331] In an embodiment, the image information may include header information and an adaptation parameter set (APS). The header information may include information associated with the APS identifier, including ALF data. For example, cross-component filter coefficients may be derived from ALF data.

[332] В варианте осуществления, информация изображений может включать в себя набор параметров последовательности (SPS). SPS может включать в себя флаг CCALF-активации, связанный с тем, доступна или нет кросскомпонентная фильтрация.[332] In an embodiment, the image information may include a sequence parameter set (SPS). The SPS may include a CCALF activation flag related to whether cross-component filtering is available or not.

[333] В варианте осуществления, SPS может включать в себя флаг ALF-активации (sps_alf_enabled_flag), связанный с тем, доступна или нет ALF. На основе определения того, что значение флага ALF-активации равно 1, SPS может включать в себя флаг CCALF-активации, связанный с тем, доступна или нет кросскомпонентная фильтрация.[333] In an embodiment, the SPS may include an ALF activation flag (sps_alf_enabled_flag) related to whether ALF is available or not. Based on determining that the value of the ALF activation flag is 1, the SPS may include a CCALF activation flag related to whether cross-component filtering is available or not.

[334] В варианте осуществления, информация изображений может включать в себя информацию заголовка среза. Информация заголовка среза может включать в себя флаг ALF-активации (slice_alf_enabled_flag), связанный с тем, доступна или нет ALF. На основе определения того, что значение флага ALF-активации равно 1, может определяться то, равно или нет значение флага CCALF-активации 1. В примере, CCALF может быть доступна для среза на основе определения того, что значение флага ALF-активации равно 1.[334] In an embodiment, the image information may include slice header information. The slice header information may include an ALF enable flag (slice_alf_enabled_flag) related to whether ALF is available or not. Based on the determination that the value of the ALF activation flag is 1, it may be determined whether or not the value of the CCALF activation flag is 1. In an example, CCALF may be available for slice based on the determination that the value of the ALF activation flag is 1 .

[335] В варианте осуществления, информация заголовка (информация заголовка среза) может включать в себя первый флаг, связанный с тем, доступна или нет CCALF для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и второй флаг, связанный с тем, доступна или нет CCLF для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности. В другом примере, на основе определения того, что значение флага ALF-активации (slice_alf_enabled_flag) равно 1, информация заголовка (информация заголовка среза) может включать в себя первый флаг, связанный с тем, доступна или нет CCALF для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и второй флаг, связанный с тем, доступна или нет CCLF для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности.[335] In an embodiment, the header information (slice header information) may include a first flag related to whether or not CCALF is available for the color Cb component of the filtered recovered chrominance samples, and a second flag related to whether or not no CCLF for the chrominance Cr component of the filtered reconstructed chrominance samples. In another example, based on determining that the value of the ALF enable flag (slice_alf_enabled_flag) is 1, the header information (slice header information) may include a first flag related to whether or not CCALF is available for the Cb color component of the filtered reconstructed chrominance samples, and a second flag related to whether or not CCLF is available for the chrominance Cr component of the filtered reconstructed chrominance samples.

[336] В варианте осуществления, информация изображений может включать в себя наборы параметров адаптации (APS). В примере, информация заголовка среза может включать в себя идентификационную информацию первого APS (информацию, связанную с идентификатором второго APS) для извлечения коэффициентов кросскомпонентного фильтра для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности. Информация заголовка среза может включать в себя идентификационную информацию (информацию, связанную с идентификатором второго APS) второго APS для извлечения коэффициентов кросскомпонентного фильтра для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности. В другом примере, на основе определения того, что значение первого флага равно 1, информация заголовка среза может включать в себя идентификационную информацию первого APS (информацию относительно идентификатора второго APS) для извлечения коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе определения того, что значение второго флага равно 1, информация заголовка среза может включать в себя идентификационную информацию второго APS (информацию, связанную с идентификатором второго APS) для извлечения коэффициентов кросскомпонентного фильтра для цветового Cr-компонента.[336] In an embodiment, the image information may include adaptation parameter sets (APS). In an example, the slice header information may include identification information of the first APS (information associated with the identifier of the second APS) for extracting cross-component filter coefficients for the Cb color component of the filtered reconstructed chrominance samples. The slice header information may include identification information (information associated with the second APS identifier) of the second APS for extracting cross-component filter coefficients for the chrominance Cr component of the filtered reconstructed chrominance samples. In another example, based on determining that the value of the first flag is 1, the slice header information may include identification information of the first APS (information regarding the identifier of the second APS) for extracting cross-component filter coefficients for the Cb color component. Based on determining that the value of the second flag is 1, the slice header information may include identification information of the second APS (second APS ID related information) for extracting cross-component filter coefficients for the Cr color component.

[337] В варианте осуществления, первые ALF-данные, включенные в первый APS, могут включать в себя флаг передачи в служебных сигналах Cb-фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-компонента. На основе флага передачи в служебных сигналах Cb-фильтров, первые ALF-данные могут включать в себя информацию, связанную с числом кросскомпонентных фильтров для цветового Cb-компонента. На основе информации, связанной с числом кросскомпонентных фильтров для цветового Cb-компонента, первые ALF-данные могут включать в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента. На основе информации относительно информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cb-компонента.[337] In an embodiment, the first ALF data included in the first APS may include a Cb filter signaling signaling flag related to whether cross-component filters for the Cb color component are signaled. Based on the transmit flag in the Cb filter signaling, the first ALF data may include information related to the number of cross-component filters for the Cb color component. Based on information related to the number of cross-component filters for the Cb color component, the first ALF data may include information on the absolute values of the cross-component filter coefficients for the Cb color component and information on the signs of the cross-component filter coefficients for the Cb color component. Based on information regarding information regarding absolute values of the Cb color component cross-filter coefficients and information regarding the signs of the Cb color component cross-component filter coefficients, the cross-component filter coefficients for the Cb color component can be extracted.

[338] В варианте осуществления, информация, связанная с числом кросскомпонентных фильтров для цветового Cb-компонента, может кодироваться экспоненциальным кодом Голомба нулевого порядка (нулевым EG).[338] In an embodiment, information related to the number of cross-component filters for the Cb color component may be encoded with a zero-order exponential Golomb code (zero EG).

[339] В варианте осуществления, вторые ALF-данные, включенные во второй APS, могут включать в себя флаг передачи в служебных сигналах Cr-фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cr-компонента. На основе флага передачи в служебных сигналах Cr-фильтров, вторые ALF-данные могут включать в себя информацию, связанную с числом кросскомпонентных фильтров для цветового Cr-компонента. На основе информации, связанной с числом кросскомпонентных фильтров для цветового Cr-компонента, вторые ALF-данные могут включать в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента. На основе абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента, могут извлекаться коэффициенты кросскомпонентного фильтра для цветового Cr-компонента.[339] In an embodiment, the second ALF data included in the second APS may include a Cr signaling signaling flag related to whether or not cross-component filters for the Cr color component are signaled. Based on the transmit flag in the Cr signaling, the second ALF data may include information related to the number of cross filters for the Cr color component. Based on information related to the number of cross-component filters for the chrominance Cr component, the second ALF data may include information regarding the absolute values of the cross-component filter coefficients for the chrominance Cr component and information regarding the signs of the cross-component filter coefficients for the chrominance Cr component. Based on the absolute values of the cross-component filter coefficients for the Cr color component and information regarding the signs of the cross-component filter coefficients for the Cr color component, the cross-component filter coefficients for the Cr color component can be extracted.

[340] В варианте осуществления, информация, связанная с числом кросскомпонентных фильтров для цветового Cr-компонента, может кодироваться экспоненциальным кодом Голомба нулевого порядка (нулевым EG).[340] In an embodiment, information related to the number of cross-component filters for the chrominance Cr component may be encoded with a zero-order exponential Golomb code (zero EG).

[341] В варианте осуществления, информация изображений может включать в себя информацию относительно единицы дерева кодирования. Информация относительно единицы дерева кодирования может включать в себя информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-компонента, и/или информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cr-компонента.[341] In an embodiment, the image information may include information regarding a coding tree unit. Information regarding a coding tree unit may include information regarding whether or not a cross-component filter is applied to the current Cb chroma component block and/or information regarding whether or not a cross-component filter is applied to the current Cr chroma component.

[342] В варианте осуществления, информация относительно единицы дерева кодирования может включать в себя информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cb-компонента, и/или информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cr-компонента.[342] In an embodiment, information regarding a coding tree unit may include information regarding a filterbank index for a cross-component filter applied to the current block of the Cb color component and/or information regarding a filterbank index for a cross-component filter applied to the current block. color Cr-component.

[343] Когда имеется остаточная выборка для текущего блока, оборудование декодирования может принимать информацию относительно остатка для текущего блока. Информация относительно остатка может включать в себя коэффициенты преобразования для остаточных выборок. Оборудование декодирования может извлекать остаточные выборки (или массив остаточных выборок) для текущего блока на основе остаточной информации. В частности, оборудование декодирования может извлекать квантованные коэффициенты преобразования на основе остаточной информации. Квантованные коэффициенты преобразования могут иметь одномерную векторную форму на основе порядка сканирования коэффициентов. Оборудование декодирования может извлекать коэффициенты преобразования на основе процесса деквантования для квантованных коэффициентов преобразования. Оборудование декодирования может извлекать остаточные выборки на основе коэффициентов преобразования.[343] When there is a residual sample for the current block, the decoding equipment may receive information regarding the residual for the current block. The residual information may include transform coefficients for the residual samples. The decoding hardware may derive residual samples (or an array of residual samples) for the current block based on the residual information. In particular, the decoding equipment may derive quantized transform coefficients based on the residual information. The quantized transform coefficients may be in one-dimensional vector form based on the scan order of the coefficients. The decoding equipment may derive transform coefficients based on a dequantization process for the quantized transform coefficients. The decoding hardware may extract residual samples based on the transform coefficients.

[344] Оборудование декодирования может формировать восстановленные выборки на основе (взаимных) прогнозных выборок и остаточных выборок и может извлекать восстановленный блок или восстановленный кадр на основе восстановленных выборок. Подробнее, оборудование декодирования может формировать восстановленные выборки на основе суммы (внутренних) прогнозных выборок и остаточных выборок. После этого, как описано выше, оборудование декодирования может применять процесс внутриконтурной фильтрации, к примеру, процесс фильтрации для удаления блочности и/или SAO-процесс, к восстановленному кадру, с тем чтобы повышать субъективное/объективное качество кадров, при необходимости.[344] The decoding equipment may generate reconstructed samples based on the (mutual) predictive samples and residual samples, and may extract a reconstructed block or a reconstructed frame based on the reconstructed samples. More specifically, the decoding hardware may generate reconstructed samples based on the sum of (inner) predictive samples and residual samples. Thereafter, as described above, the decoding equipment may apply an in-loop filtering process, such as a deblocking filtering process and/or an SAO process, to the reconstructed frame so as to improve the subjective/objective quality of the frames, if necessary.

[345] Например, оборудование декодирования может получать информацию изображений, включающую в себя все или часть вышеуказанной информации (или синтаксических элементов), посредством декодирования потока битов или кодированной информации. Помимо этого, информация потока битов или кодированная информация может сохраняться на компьютерно-читаемом носителе хранения данных и может инструктировать осуществление вышеуказанного способа декодирования.[345] For example, the decoding equipment can obtain image information including all or part of the above information (or syntax elements) by decoding the bit stream or encoded information. In addition, the bitstream information or encoded information may be stored in a computer-readable storage medium and may cause the above decoding method to be performed.

[346] В вышеуказанном варианте осуществления, способы описываются на основе блок-схемы последовательности операций способа, имеющей последовательность этапов или блоков. Настоящее раскрытие сущности не ограничено порядком вышеуказанных этапов или блоков. Некоторые этапы или блоки могут возникать одновременно или в порядке, отличном от других этапов или блоков, как описано выше. Дополнительно, специалисты в данной области техники должны понимать, что этапы, показанные на вышеприведенной блок-схеме последовательности операций способа, не являются исчерпывающими, и другие этапы могут включаться, либо один или более этапов на блок-схеме последовательности операций способа могут удаляться без влияния на объем настоящего раскрытия сущности.[346] In the above embodiment, the methods are described based on a flowchart having a sequence of steps or blocks. The present disclosure is not limited to the order of the above steps or blocks. Some steps or blocks may occur simultaneously or in a different order than other steps or blocks, as described above. Additionally, those skilled in the art should understand that the steps shown in the above flowchart are not exhaustive, and other steps may be included, or one or more steps in the flowchart may be removed without affecting the scope of this disclosure.

[347] Способ согласно вышеуказанным вариантам осуществления настоящего документа может реализовываться в программной форме, и оборудование кодирования и/или оборудование декодирования согласно настоящему документу, например, может включаться в оборудование, которое выполняет обработку изображений, для телевизора, компьютера, смартфона, абонентской приставки, устройства отображения и т.д.[347] The method according to the above embodiments of the present document may be implemented in software form, and the encoding equipment and/or decoding equipment according to the present document, for example, may be included in equipment that performs image processing for a TV, computer, smartphone, set-top box, display devices, etc.

[348] Когда варианты осуществления в настоящем документе реализуются в программном обеспечении, вышеуказанный способ может реализовываться как модуль (процесс, функция и т.д.), который выполняет вышеуказанную функцию. Модуль может сохраняться в запоминающем устройстве и выполняться посредством процессора. Запоминающее устройство может быть внутренним или внешним для процессора и может соединяться с процессором посредством различных известных средств. Процессор может включать в себя специализированную интегральную схему (ASIC), другие наборы микросхем, логические схемы и/или устройства обработки данных. Запоминающее устройство может включать в себя постоянное запоминающее устройство (ROM), оперативное запоминающее устройство (RAM), флэш-память, карты памяти, носители хранения данных и/или другие устройства хранения данных. Таким образом, варианты осуществления, описанные в настоящем документе, могут выполняться посредством реализации на процессоре, микропроцессоре, контроллере или микросхеме. Например, функциональные модули, показанные на каждом чертеже, могут реализовываться и выполняться на компьютере, процессоре, микропроцессоре, контроллере или микросхеме. В этом случае, информация относительно инструкций или алгоритма для реализации может сохраняться в цифровом носителе хранения данных.[348] When the embodiments herein are implemented in software, the above method may be implemented as a module (process, function, etc.) that performs the above function. The module may be stored in a storage device and executed by a processor. The storage device may be internal or external to the processor and may be connected to the processor through various known means. The processor may include an application specific integrated circuit (ASIC), other chipsets, logic circuits, and/or data processing devices. The storage device may include Read Only Memory (ROM), Random Access Memory (RAM), flash memory, memory cards, storage media, and/or other data storage devices. Thus, the embodiments described herein may be implemented by implementation on a processor, microprocessor, controller, or chip. For example, the functional modules shown in each figure may be implemented and executed on a computer, processor, microprocessor, controller, or chip. In this case, information regarding the instructions or algorithm to be implemented may be stored in the digital storage medium.

[349] Помимо этого, оборудование декодирования и оборудование кодирования, к которому применяется настоящее раскрытие сущности, могут включаться в мультимедийное широковещательное приемо-передающее оборудование, терминал мобильной связи, видеооборудование системы домашнего кинотеатра, видеооборудование системы цифрового кинотеатра, камеру наблюдения, оборудование проведения видеочатов, оборудование связи в реальном времени, к примеру, видеосвязи, мобильное оборудование потоковой передачи, носитель хранения данных, записывающую видеокамеру, оборудование предоставления VoD-услуг, видеооборудование поверх сетей (OTT), оборудование предоставления услуг потоковой передачи по Интернету, трехмерное видеооборудование, видеооборудование телеконференц-связи, транспортировочное абонентское устройство (т.е. абонентское устройство в транспортном средстве, абонентское устройство в самолете, абонентское устройство в морском судне и т.д.) и медицинское видеооборудование, и могут использоваться для того, чтобы обрабатывать видеосигналы и сигналы данных. Например, видеоборудование поверх сетей (OTT) может включать в себя игровую приставку, Blu-Ray-проигрыватель, телевизор с доступом в Интернет, систему домашнего кинотеатра, смартфон, планшетный PC, цифровое записывающее видеоустройство (DVR) и т.п.[349] In addition, the decoding equipment and encoding equipment to which the present disclosure applies may be included in multimedia broadcast transceiver equipment, a mobile communication terminal, a home theater system video equipment, a digital cinema system video equipment, a surveillance camera, a video chat equipment, real-time communication equipment such as video communication, mobile streaming equipment, storage media, video camera recording, VoD service equipment, video over network (OTT) equipment, Internet streaming service equipment, 3D video equipment, teleconferencing video equipment communications, mobile subscriber unit (i.e. vehicle subscriber unit, aircraft subscriber unit, marine vessel subscriber unit, etc.) and medical video equipment, and can be used to o to process video and data signals. For example, video over network (OTT) equipment may include a game console, Blu-ray player, Internet access TV, home theater system, smartphone, tablet PC, digital video recorder (DVR), and the like.

[350] Дополнительно, способ обработки, к которому применяется настоящий документ, может формироваться в форме программы, которая должна выполняться посредством компьютера, и может сохраняться на компьютерно-читаемом носителе записи. Мультимедийные данные, имеющие структуру данных согласно настоящему раскрытию сущности, также могут сохраняться на компьютерно-читаемых носителях записи. Компьютерно-читаемые носители записи включают в себя все типы устройств хранения данных, на которых сохраняются данные, считываемые посредством компьютерной системы. Компьютерно-читаемые носители записи, например, могут включать в себя BD, универсальную последовательную шину (USB), ROM, PROM, EPROM, EEPROM, RAM, CD-ROM, магнитную ленту, гибкий диск и оптическое устройство хранения данных. Кроме того, компьютерно-читаемые носители записи включают в себя среды, реализованные в форме несущих волн (т.е. как передача через Интернет). Помимо этого, поток битов, сформированный посредством способа кодирования, может сохраняться на компьютерно-читаемом носителе записи или может передаваться по сетям проводной/беспроводной связи.[350] Additionally, the processing method to which the present document applies may be formed in the form of a program to be executed by a computer, and may be stored in a computer-readable recording medium. Multimedia data having a data structure according to the present disclosure may also be stored on computer-readable recording media. Computer-readable recording media includes all types of data storage devices that store data readable by a computer system. Computer-readable recording media, for example, may include BD, Universal Serial Bus (USB), ROM, PROM, EPROM, EEPROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical storage. In addition, computer-readable recording media includes media implemented in the form of carrier waves (ie, as transmission over the Internet). In addition, the bit stream generated by the encoding method may be stored in a computer-readable recording medium, or may be transmitted over wired/wireless communication networks.

[351] Помимо этого, варианты осуществления настоящего документа могут реализовываться с компьютерным программным продуктом согласно программным кодам, и программные коды могут выполняться в компьютере посредством вариантов осуществления настоящего документа. Программные коды могут сохраняться на носителе, который может считываться посредством компьютера.[351] In addition, embodiments of the present document may be implemented with a computer program product according to program codes, and the program codes may be executed on a computer through the embodiments of this document. The program codes may be stored on a medium that can be read by a computer.

[352] Фиг. 17 показывает пример системы потоковой передачи контента, к которой могут применяться варианты осуществления, раскрытые в настоящем документе.[352] FIG. 17 shows an example of a content streaming system to which the embodiments disclosed herein may be applied.

[353] Ссылаясь на фиг. 17, система потоковой передачи контента, к которой применяется вариант(ы) осуществления настоящего документа, может включать в себя, главным образом, сервер кодирования, потоковый сервер, веб-сервер, хранилище мультимедиа, пользовательское устройство и устройство ввода мультимедиа.[353] Referring to FIG. 17, the content streaming system to which the embodiment(s) of the present document is applied may mainly include an encoding server, a streaming server, a web server, a media storage, a user device, and a media input device.

[354] Сервер кодирования сжимает контент, вводимый из устройств ввода мультимедиа, таких как смартфон, камера, записывающая видеокамера и т.д., в цифровые данные, чтобы формировать поток битов и передавать поток битов в потоковый сервер. В качестве другого примера, когда устройства ввода мультимедиа, к примеру, смартфоны, камеры, записывающие видеокамеры и т.д. Чтобы непосредственно формировать поток битов, сервер кодирования может опускаться.[354] The encoding server compresses content input from media input devices such as a smartphone, camera, camcorder, etc. into digital data to generate a bit stream and transmit the bit stream to the stream server. As another example, when media input devices such as smartphones, cameras, camcorders, etc. In order to generate the bitstream directly, the encoding server may be omitted.

[355] Поток битов может формироваться посредством способа кодирования или способа формирования потока битов, к которому применяется вариант(ы) осуществления настоящего раскрытия сущности, и потоковый сервер может временно сохранять поток битов в процессе передачи или приема потока битов.[355] The bit stream may be generated by the encoding method or the bit stream generation method to which the embodiment(s) of the present disclosure applies, and the stream server may temporarily store the bit stream in the process of transmitting or receiving the bit stream.

[356] Потоковый сервер передает мультимедийные данные в пользовательское устройство на основе запроса пользователя через веб-сервер, и веб-сервер служит в качестве среды для информирования пользователя в отношении услуги. Когда пользователь запрашивает требуемую услугу из веб-сервера, веб-сервер доставляет ее на потоковый сервер, и потоковый сервер передает мультимедийные данные пользователю. В этом случае, система потоковой передачи контента может включать в себя отдельный сервер управления. В этом случае, сервер управления служит для того, чтобы управлять командой/ответом между устройствами в системе потоковой передачи контента.[356] The streaming server transmits media data to the user device based on the user's request through the web server, and the web server serves as a medium for informing the user about the service. When a user requests a desired service from a web server, the web server delivers it to the streaming server, and the streaming server transmits media data to the user. In this case, the content streaming system may include a separate control server. In this case, the control server serves to manage the command/response between devices in the content streaming system.

[357] Потоковый сервер может принимать контент из хранилища мультимедиа и/или сервера кодирования. Например, когда контент принимается из сервера кодирования, контент может приниматься в реальном времени. В этом случае, чтобы предоставлять плавную услугу потоковой передачи, потоковый сервер может сохранять поток битов в течение предварительно определенного времени.[357] The streaming server may receive content from a media store and/or an encoding server. For example, when content is received from an encoding server, the content may be received in real time. In this case, in order to provide a smooth streaming service, the streaming server may keep the bitstream for a predetermined time.

[358] Примеры пользовательского устройства могут включать в себя мобильный телефон, смартфон, переносной компьютер, цифровой широковещательный терминал, персональное цифровое устройство (PDA), портативный мультимедийный проигрыватель (PMP), навигационное устройство, грифельный планшетный PC, планшетные PC, ультрабуки, носимые устройства (например, интеллектуальные часы, интеллектуальные очки, наголовные дисплеи), цифровые телевизоры, настольные компьютеры, систему цифровых информационных табло и т.п. Каждый сервер в системе потоковой передачи контента может работать в качестве распределенного сервера, причем в этом случае данные, принимаемые из каждого сервера, могут распределяться.[358] Examples of a user device may include a mobile phone, smartphone, laptop computer, digital broadcast terminal, personal digital assistant (PDA), portable media player (PMP), navigation device, stylus tablet PC, tablet PCs, ultrabooks, wearable devices (e.g., smart watches, smart glasses, head-mounted displays), digital TVs, desktop computers, digital signage system, etc. Each server in the content streaming system may operate as a distributed server, in which case the data received from each server may be distributed.

[359] Каждый сервер в системе потоковой передачи контента может работать в качестве распределенного сервера, причем в этом случае данные, принимаемые из каждого сервера, могут распределяться.[359] Each server in the content streaming system may operate as a distributed server, in which case the data received from each server may be distributed.

[360] Формула изобретения, описанная в данном документе, может комбинироваться различными способами. Например, технические признаки формулы изобретения на способ настоящего документа могут комбинироваться и реализовываться в качестве оборудования, и технические признаки формулы изобретения на оборудование настоящего документа могут комбинироваться и реализовываться в качестве способа. Помимо этого, технические признаки пункта формулы изобретения на способ настоящего документа и технические признаки пункта формулы изобретения на оборудование могут комбинироваться для реализации в качестве оборудования, и технические признаки пункта формулы изобретения на способ настоящего документа и технические признаки пункта формулы изобретения на оборудование могут комбинироваться и реализовываться в качестве способа.[360] The claims described herein can be combined in various ways. For example, the technical features of the claims for the method of this document may be combined and implemented as an equipment, and the technical features of the claims for the equipment of this document may be combined and implemented as a method. In addition, the technical features of the method claim of this document and the technical features of the equipment claim can be combined to be implemented as equipment, and the technical features of the method claim of this document and the technical features of the equipment claim can be combined and implemented. as a way.

Claims (108)

1. Способ для декодирования изображений, осуществляемый посредством оборудования декодирования, при этом способ содержит этапы, на которых:1. A method for decoding images carried out by means of decoding equipment, the method comprising the steps of: получают информацию изображений, включающую в себя остаточную информацию через поток битов;obtaining image information including residual information via the bit stream; формируют восстановленные выборки сигналов яркости и восстановленные выборки сигналов цветности на основе остаточной информации;generating recovered luminance samples and recovered chrominance samples based on the residual information; извлекают коэффициенты адаптивной контурной фильтрации (ALF) для ALF-процесса восстановленных выборок сигналов цветности;extracting adaptive loop filtering (ALF) coefficients for the ALF process of the reconstructed chrominance samples; формируют фильтрованные восстановленные выборки сигналов цветности на основе восстановленных выборок сигналов цветности и коэффициентов ALF-фильтра;generating filtered reconstructed chrominance samples based on the reconstructed chrominance samples and ALF filter coefficients; извлекают коэффициенты кросскомпонентного фильтра для кросскомпонентной фильтрации; иextracting cross-component filter coefficients for cross-component filtering; and формируют модифицированные фильтрованные восстановленные выборки сигналов цветности на основе восстановленных выборок сигналов яркости, фильтрованных восстановленных выборок сигналов цветности и коэффициентов кросскомпонентного фильтра,generating modified filtered reconstructed chroma samples based on the reconstructed luminance samples, filtered reconstructed chrominance samples, and cross-component filter coefficients, при этом информация изображений включает в себя набор параметров последовательности (SPS) и информацию заголовка среза,wherein the image information includes a sequence parameter set (SPS) and slice header information, при этом SPS включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF-процесс,wherein the SPS includes an ALF activation flag related to whether the ALF process is activated or not, при этом на основе определения того, что значение флага ALF-активации равно 1, SPS включает в себя флаг активации кросскомпонентной адаптивной контурной фильтрации (CCALF), связанный с тем, доступна или нет кросскомпонентная фильтрация,wherein, based on determining that the value of the ALF activation flag is 1, the SPS includes a cross-component adaptive loop filtering (CCALF) activation flag related to whether or not cross-component filtering is available, при этом на основе определения того, что значение флага ALF-активации в SPS равно 1, информация заголовка среза включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF,wherein, based on determining that the value of the ALF activation flag in the SPS is 1, the slice header information includes an ALF activation flag related to whether ALF is activated or not, при этом на основе определения того, что значение флага ALF-активации, включенного в информацию заголовка среза, равно 1, и значение флага CCALF-активации, включенного в SPS, равно 1, информация заголовка среза включает в себя информацию относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, иwherein, based on determining that the value of the ALF activation flag included in the slice header information is 1 and the value of the CCALF activation flag included in the SPS is 1, the slice header information includes information as to whether or not CCALF for filtered reconstructed chrominance samples, and при этом на основе значения информации относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, равного 1, информация заголовка среза включает в себя идентификационную информацию (ID) набора параметров адаптации (APS), ассоциированного с CCALF для фильтрованных восстановленных выборок сигналов цветности. wherein, based on the information value of whether or not CCALF for filtered chrominance reconstructed samples is enabled or not, equal to 1, slice header information includes identification information (ID) of an adaptation parameter set (APS) associated with CCALF for filtered chrominance reconstructed samples. . 2. Способ по п. 1, в котором информация заголовка среза включает в себя первый флаг, связанный с тем, доступна или нет CCALF для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и второй флаг, связанный с тем, доступна или нет CCALF для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности.2. The method of claim 1, wherein the slice header information includes a first flag related to whether or not CCALF is available for the Cb color component of the filtered reconstructed chrominance samples, and a second flag related to whether or not CCALF is available. for the chrominance Cr component of the filtered reconstructed chrominance samples. 3. Способ по п. 2, 3. The method according to p. 2, в котором на основе значения первого флага, равного 1, информация заголовка среза включает в себя идентификационную информацию первого APS для извлечения коэффициентов кросскомпонентного фильтра для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, иwherein, based on the value of the first flag equal to 1, the slice header information includes identification information of the first APS for extracting cross-component filter coefficients for the Cb color component of the filtered recovered chrominance samples, and при этом на основе значения второго флага, равного 1, информация заголовка среза включает в себя идентификационную информацию второго APS для извлечения коэффициентов кросскомпонентного фильтра для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности.wherein, based on the second flag value of 1, the slice header information includes identification information of the second APS for extracting cross-component filter coefficients for the chrominance Cr component of the filtered reconstructed chrominance samples. 4. Способ по п. 3, в котором:4. The method according to claim 3, in which: первые ALF-данные, включенные в первый APS, включают в себя флаг передачи в служебных сигналах Cb-фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-компонента, the first ALF data included in the first APS includes a Cb filter signaling signaling flag related to whether or not cross-component filters for the Cb color component are signaled, первые ALF-данные включают в себя информацию, связанную с числом кросскомпонентных фильтров для цветового Cb-компонента на основе флага передачи в служебных сигналах Cb-фильтров, the first ALF data includes information related to the number of cross-component filters for the Cb color component based on the transmission flag in the Cb filter signaling, первые ALF-данные включают в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента на основе информации, связанной с числом кросскомпонентных фильтров для цветового Cb-компонента, иthe first ALF data includes information on the absolute values of the cross-component filter coefficients for the Cb color component and information on the signs of the cross-component filter coefficients for the Cb color component, based on information related to the number of cross-component filters for the Cb color component, and коэффициенты кросскомпонентного фильтра для цветового Cb-компонента извлекаются на основе информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента.the cross-component filter coefficients for the Cb color component are derived based on information regarding the absolute values of the cross-component filter coefficients for the Cb color component and information regarding the signs of the cross-component filter coefficients for the Cb color component. 5. Способ по п. 3, в котором:5. The method according to claim 3, in which: вторые ALF-данные, включенные во второй APS, включают в себя флаг передачи в служебных сигналах Cr-фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cr-компонента, the second ALF data included in the second APS includes a Cr signaling signaling flag related to whether cross-component filters for the Cr color component are signaled or not, вторые ALF-данные включают в себя информацию, связанную с числом кросскомпонентных фильтров для цветового Cr-компонента на основе флага передачи в служебных сигналах Cr-фильтров, the second ALF data includes information related to the number of cross-component filters for the Cr color component based on the transmission flag in the Cr filter signaling, вторые ALF-данные включают в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента на основе информации, связанной с числом кросскомпонентных фильтров для цветового Cr-компонента, иthe second ALF data includes information on the absolute values of the cross-filter coefficients for the chrominance Cr component and information on the signs of the cross-filter coefficients for the chrominance Cr component, based on information related to the number of cross-filter coefficients for the chrominance Cr component, and коэффициенты кросскомпонентного фильтра для цветового Cr-компонента извлекаются на основе информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cr-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cr-компонента.the cross-component filter coefficients for the chrominance Cr component are derived based on information regarding the absolute values of the cross-component filter coefficients for the chrominance Cr component and information regarding the signs of the cross-component filter coefficients for the chrominance Cr component. 6. Способ по п. 5, в котором6. The method according to claim 5, in which информация относительно числа кросскомпонентных фильтров для цветового Cr-компонента кодируется экспоненциальным кодом Голомба нулевого порядка (нулевым EG).information regarding the number of cross-component filters for the Cr-color component is encoded with a zero-order exponential Golomb code (zero EG). 7. Способ по п. 1, в котором:7. The method according to claim 1, in which: информация изображений включает в себя информацию относительно единицы дерева кодирования иthe image information includes information regarding the unit of the coding tree and информация относительно единицы дерева кодирования включает в себя:information regarding the coding tree unit includes: - информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-компонента; и- information as to whether or not a cross-component filter is applied to the current block of the Cb color component; and - информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cr-компонента.- information as to whether or not a cross-component filter is applied to the current Cr-color block. 8. Способ по п. 1, в котором:8. The method according to claim 1, in which: информация изображений включает в себя информацию относительно единицы дерева кодирования иthe image information includes information regarding the unit of the coding tree and информация относительно единицы дерева кодирования включает в себя:information regarding the coding tree unit includes: - информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cb-компонента; и- information regarding the index of the filter bank for the cross-component filter applied to the current block of the Cb color component; and - информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cr-компонента.- information regarding the filter bank index for the cross-component filter applied to the current Cr-color block. 9. Способ кодирования изображений, осуществляемый посредством оборудования кодирования, при этом способ содержит этапы, на которых:9. An image encoding method carried out by encoding equipment, the method comprising the steps of: извлекают остаточные выборки для текущего блока;extracting residual samples for the current block; извлекают коэффициенты преобразования на основе процесса преобразования для остаточных выборок;extracting transform coefficients based on the transform process for the residual samples; извлекают квантованные коэффициенты преобразования на основе процесса квантования для коэффициентов преобразования;extracting quantized transform coefficients based on a quantization process for the transform coefficients; формируют остаточную информацию, указывающую квантованные коэффициенты преобразования;generating residual information indicative of the quantized transform coefficients; формируют восстановленные выборки на основе остаточной информации;form recovered samples based on the residual information; формируют информацию, связанную с адаптивной контурной фильтрацией (ALF), и информацию, связанную с кросскомпонентной ALF (CCALF), для восстановленных выборок; иgenerating adaptive loop filtering (ALF) related information and cross-component ALF (CCALF) related information for the reconstructed samples; and кодируют информацию изображений, включающую в себя остаточную информацию, связанную с ALF информацию и связанную с CCALF информацию,encoding image information including residual information, ALF-related information, and CCALF-related information, при этом восстановленные выборки включают в себя восстановленные выборки сигналов яркости и восстановленные выборки сигналов цветности,wherein the reconstructed samples include reconstructed luminance samples and reconstructed chrominance samples, при этом способ кодирования изображений дополнительно содержит этапы, на которых:wherein the image encoding method further comprises the steps of: извлекают коэффициенты ALF-фильтра для ALF-процесса восстановленных выборок сигналов цветности;extracting the coefficients of the ALF filter for the ALF process of the reconstructed chrominance samples; формируют фильтрованные восстановленные выборки сигналов цветности на основе восстановленных выборок сигналов цветности и коэффициентов ALF-фильтра;generating filtered reconstructed chrominance samples based on the reconstructed chrominance samples and ALF filter coefficients; извлекают коэффициенты кросскомпонентного фильтра для кросскомпонентной фильтрации; иextracting cross-component filter coefficients for cross-component filtering; and формируют модифицированные фильтрованные восстановленные выборки сигналов цветности на основе восстановленных выборок сигналов яркости, фильтрованных восстановленных выборок сигналов цветности и коэффициентов кросскомпонентного фильтра,generating modified filtered reconstructed chroma samples based on the reconstructed luminance samples, filtered reconstructed chrominance samples, and cross-component filter coefficients, при этом информация изображений включает в себя набор параметров последовательности (SPS) и информацию заголовка среза,wherein the image information includes a sequence parameter set (SPS) and slice header information, при этом SPS включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF-процесс,wherein the SPS includes an ALF activation flag related to whether the ALF process is activated or not, при этом на основе определения того, что значение флага ALF-активации равно 1, SPS включает в себя флаг активации кросскомпонентной адаптивной контурной фильтрации (CCALF), связанный с тем, доступна или нет кросскомпонентная фильтрация,wherein, based on determining that the value of the ALF activation flag is 1, the SPS includes a cross-component adaptive loop filtering (CCALF) activation flag related to whether or not cross-component filtering is available, при этом на основе определения того, что значение флага ALF-активации в SPS равно 1, информация заголовка среза включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF,wherein, based on determining that the value of the ALF activation flag in the SPS is 1, the slice header information includes an ALF activation flag related to whether ALF is activated or not, при этом на основе определения того, что значение флага ALF-активации, включенного в информацию заголовка среза, равно 1, и значение флага CCALF-активации, включенного в SPS, равно 1, информация заголовка среза включает в себя информацию относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, иwherein, based on determining that the value of the ALF activation flag included in the slice header information is 1 and the value of the CCALF activation flag included in the SPS is 1, the slice header information includes information as to whether or not CCALF for filtered reconstructed chrominance samples, and при этом на основе значения информации относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, равного 1, информация заголовка среза включает в себя идентификационную информацию (ID) набора параметров адаптации (APS), ассоциированного с CCALF для фильтрованных восстановленных выборок сигналов цветности. wherein, based on the information value of whether or not CCALF for filtered chrominance reconstructed samples is enabled or not, equal to 1, slice header information includes identification information (ID) of an adaptation parameter set (APS) associated with CCALF for filtered chrominance reconstructed samples. . 10. Способ по п. 9, в котором информация заголовка среза включает в себя первый флаг, связанный с тем, доступна или нет CCALF для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и второй флаг, связанный с тем, доступна или нет CCALF для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности.10. The method of claim 9, wherein the slice header information includes a first flag related to whether or not CCALF is available for the Cb color component of the filtered reconstructed chrominance samples, and a second flag related to whether or not CCALF is available. for the chrominance Cr component of the filtered reconstructed chrominance samples. 11. Способ по п. 10, в котором на основе значения первого флага, равного 1, информация заголовка среза включает в себя идентификационную информацию первого APS для извлечения коэффициентов кросскомпонентного фильтра для цветового Cb-компонента фильтрованных восстановленных выборок сигналов цветности, и11. The method of claim 10, wherein, based on a first flag value of 1, the slice header information includes identification information of the first APS for extracting cross-component filter coefficients for the Cb color component of the filtered recovered chrominance samples, and при этом на основе значения второго флага, равного 1, информация заголовка среза включает в себя идентификационную информацию второго APS для извлечения коэффициентов кросскомпонентного фильтра для цветового Cr-компонента фильтрованных восстановленных выборок сигналов цветности.wherein, based on the second flag value of 1, the slice header information includes identification information of the second APS for extracting cross-component filter coefficients for the chrominance Cr component of the filtered reconstructed chrominance samples. 12. Способ по п. 11, в котором:12. The method according to claim 11, in which: первые ALF-данные, включенные в первый APS, включают в себя флаг передачи в служебных сигналах Cb-фильтров, связанный с тем, передаются в служебных сигналах или нет кросскомпонентные фильтры для цветового Cb-компонента, the first ALF data included in the first APS includes a Cb filter signaling signaling flag related to whether or not cross-component filters for the Cb color component are signaled, первые ALF-данные включают в себя информацию, связанную с числом кросскомпонентных фильтров для цветового Cb-компонента на основе флага передачи в служебных сигналах Cb-фильтров, the first ALF data includes information related to the number of cross-component filters for the Cb color component based on the transmission flag in the Cb filter signaling, первые ALF-данные включают в себя информацию относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информацию относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента на основе информации, связанной с числом кросскомпонентных фильтров для цветового Cb-компонента, иthe first ALF data includes information on the absolute values of the cross-component filter coefficients for the Cb color component and information on the signs of the cross-component filter coefficients for the Cb color component, based on information related to the number of cross-component filters for the Cb color component, and коэффициенты кросскомпонентного фильтра для цветового Cb-компонента извлекаются на основе информации относительно абсолютных значений коэффициентов кросскомпонентного фильтра для цветового Cb-компонента и информации относительно знаков коэффициентов кросскомпонентного фильтра для цветового Cb-компонента.the cross-component filter coefficients for the Cb color component are derived based on information regarding the absolute values of the cross-component filter coefficients for the Cb color component and information regarding the signs of the cross-component filter coefficients for the Cb color component. 13. Способ по п. 12, в котором13. The method according to claim 12, in which информация относительно числа кросскомпонентных фильтров для цветового Cr-компонента кодируется экспоненциальным кодом Голомба нулевого порядка (нулевым EG).information regarding the number of cross-component filters for the Cr-color component is encoded with a zero-order exponential Golomb code (zero EG). 14. Способ по п. 9, в котором:14. The method according to claim 9, in which: информация изображений включает в себя информацию относительно единицы дерева кодирования иthe image information includes information regarding the unit of the coding tree and информация относительно единицы дерева кодирования включает в себя:information regarding the coding tree unit includes: - информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cb-компонента; и- information as to whether or not a cross-component filter is applied to the current block of the Cb color component; and - информацию относительно того, применяется или нет кросскомпонентный фильтр к текущему блоку цветового Cr-компонента.- information as to whether or not a cross-component filter is applied to the current Cr-color block. 15. Способ по п. 9, в котором:15. The method according to claim 9, in which: информация изображений включает в себя информацию относительно единицы дерева кодирования иthe image information includes information regarding the unit of the coding tree and информация относительно единицы дерева кодирования включает в себя:information regarding the coding tree unit includes: - информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cb-компонента; и- information regarding the index of the filter bank for the cross-component filter applied to the current block of the Cb color component; and - информацию относительно индекса набора фильтров для кросскомпонентного фильтра, применяемого к текущему блоку цветового Cr-компонента.- information regarding the filter bank index for the cross-component filter applied to the current Cr-color block. 16. Энергонезависимый компьютерно-читаемый носитель хранения данных, сохраняющий поток битов для способа, сформированный посредством способа кодирования изображений, при этом способ кодирования изображений содержит:16. A non-volatile computer-readable storage medium that stores a bit stream for a method generated by an image encoding method, wherein the image encoding method comprises: извлечение остаточных выборок для текущего блока;extracting residual samples for the current block; извлечение коэффициентов преобразования на основе процесса преобразования для остаточных выборок;extracting transform coefficients based on the transform process for the residual samples; извлечение квантованных коэффициентов преобразования на основе процесса квантования для коэффициентов преобразования;extracting quantized transform coefficients based on a quantization process for the transform coefficients; формирование остаточной информации, указывающей квантованные коэффициенты преобразования;generating residual information indicative of the quantized transform coefficients; формирование восстановленных выборок на основе остаточной информации;formation of restored samples based on residual information; формирование информации, связанной с адаптивной контурной фильтрацией (ALF), и информации, связанной с кросскомпонентной ALF (CCALF), для восстановленных выборок; иgenerating adaptive loop filtering (ALF) related information and cross-component ALF (CCALF) related information for the reconstructed samples; and кодирование информации изображений для того, чтобы формировать поток битов, при этом информация изображений включает в себя остаточную информацию, связанную с ALF информацию и связанную с CCALF информацию,encoding image information to form a bit stream, wherein the image information includes residual information, ALF related information, and CCALF related information, при этом восстановленные выборки включают в себя восстановленные выборки сигналов яркости и восстановленные выборки сигналов цветности,wherein the reconstructed samples include reconstructed luminance samples and reconstructed chrominance samples, при этом способ кодирования изображений дополнительно содержит:wherein the image encoding method further comprises: извлечение коэффициентов ALF-фильтра для ALF-процесса восстановленных выборок сигналов цветности;extracting the coefficients of the ALF filter for the ALF process of the reconstructed chrominance samples; формирование фильтрованных восстановленных выборок сигналов цветности на основе восстановленных выборок сигналов цветности и коэффициентов ALF-фильтра;generating filtered reconstructed chrominance samples based on the reconstructed chrominance samples and ALF filter coefficients; извлечение коэффициентов кросскомпонентного фильтра для кросскомпонентной фильтрации; иextraction of cross-component filter coefficients for cross-component filtering; and формирование модифицированных фильтрованных восстановленных выборок сигналов цветности на основе восстановленных выборок сигналов яркости, фильтрованных восстановленных выборок сигналов цветности и коэффициентов кросскомпонентного фильтра,generation of modified filtered reconstructed chrominance samples based on reconstructed luma samples, filtered reconstructed chrominance samples, and cross-component filter coefficients, при этом информация изображений включает в себя набор параметров последовательности (SPS) и информацию заголовка среза,wherein the image information includes a sequence parameter set (SPS) and slice header information, при этом SPS включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF-процесс,wherein the SPS includes an ALF activation flag related to whether the ALF process is activated or not, при этом на основе определения того, что значение флага ALF-активации равно 1, SPS включает в себя флаг активации кросскомпонентной адаптивной контурной фильтрации (CCALF), связанный с тем, доступна или нет кросскомпонентная фильтрация,wherein, based on determining that the value of the ALF activation flag is 1, the SPS includes a cross-component adaptive loop filtering (CCALF) activation flag related to whether or not cross-component filtering is available, при этом на основе определения того, что значение флага ALF-активации в SPS равно 1, информация заголовка среза включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF,wherein, based on determining that the value of the ALF activation flag in the SPS is 1, the slice header information includes an ALF activation flag related to whether ALF is activated or not, при этом на основе определения того, что значение флага ALF-активации, включенного в информацию заголовка среза, равно 1, и значение флага CCALF-активации, включенного в SPS, равно 1, информация заголовка среза включает в себя информацию относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, иwherein, based on determining that the value of the ALF activation flag included in the slice header information is 1 and the value of the CCALF activation flag included in the SPS is 1, the slice header information includes information as to whether or not CCALF for filtered reconstructed chrominance samples, and при этом на основе значения информации относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, равного 1, информация заголовка среза включает в себя идентификационную информацию (ID) набора параметров адаптации (APS), ассоциированного с CCALF для фильтрованных восстановленных выборок сигналов цветности. wherein, based on the information value of whether or not CCALF for filtered chrominance reconstructed samples is enabled or not, equal to 1, slice header information includes identification information (ID) of an adaptation parameter set (APS) associated with CCALF for filtered chrominance reconstructed samples. . 17. Способ передачи данных для изображения, при этом способ содержит этапы, на которых:17. A method for transmitting data for an image, the method comprising the steps of: получают поток битов для изображения, при этом поток битов формируется на основе извлечения остаточных выборок для текущего блока, извлечения коэффициентов преобразования на основе процесса преобразования для остаточных выборок, извлечения квантованных коэффициентов преобразования на основе процесса квантования для коэффициентов преобразования, формирования остаточной информации, указывающей квантованные коэффициенты преобразования, формирования восстановленных выборок на основе остаточной информации, формирования информации, связанной с адаптивной контурной фильтрацией (ALF), и формирования информации, связанной с кросскомпонентной ALF (CCALF), для восстановленных выборок, и кодирования информации изображений, включающей в себя остаточную информацию, связанную с ALF информацию и связанную с CCALF информацию; иobtaining a bit stream for the image, wherein the bit stream is generated based on extracting the residual samples for the current block, extracting transform coefficients based on the transform process for the residual samples, extracting quantized transform coefficients based on the quantization process for the transform coefficients, generating residual information indicating the quantized coefficients transforming, generating reconstructed samples based on the residual information, generating information related to adaptive loop filtering (ALF), and generating information related to cross-component ALF (CCALF) for the reconstructed samples, and encoding image information including residual information related to with ALF information and CCALF related information; and передают данные, содержащие поток битов,transmit data containing a stream of bits, при этом информация изображений включает в себя набор параметров последовательности (SPS) и информацию заголовка среза,wherein the image information includes a sequence parameter set (SPS) and slice header information, при этом SPS включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF-процесс,wherein the SPS includes an ALF activation flag related to whether the ALF process is activated or not, при этом на основе определения того, что значение флага ALF-активации равно 1, SPS включает в себя флаг активации кросскомпонентной адаптивной контурной фильтрации (CCALF), связанный с тем, доступна или нет кросскомпонентная фильтрация,wherein, based on determining that the value of the ALF activation flag is 1, the SPS includes a cross-component adaptive loop filtering (CCALF) activation flag related to whether or not cross-component filtering is available, при этом на основе определения того, что значение флага ALF-активации в SPS равно 1, информация заголовка среза включает в себя флаг ALF-активации, связанный с тем, активируется или нет ALF,wherein, based on determining that the value of the ALF activation flag in the SPS is 1, the slice header information includes an ALF activation flag related to whether ALF is activated or not, при этом на основе определения того, что значение флага ALF-активации, включенного в информацию заголовка среза, равно 1, и значение флага CCALF-активации, включенного в SPS, равно 1, информация заголовка среза включает в себя информацию относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, иwherein, based on determining that the value of the ALF activation flag included in the slice header information is 1 and the value of the CCALF activation flag included in the SPS is 1, the slice header information includes information as to whether or not CCALF for filtered reconstructed chrominance samples, and при этом на основе значения информации относительно того, активируется или нет CCALF для фильтрованных восстановленных выборок сигналов цветности, равного 1, информация заголовка среза включает в себя идентификационную информацию (ID) набора параметров адаптации (APS), ассоциированного с CCALF для фильтрованных восстановленных выборок сигналов цветности.wherein, based on the information value of whether or not CCALF for filtered chrominance reconstructed samples is enabled or not, equal to 1, slice header information includes identification information (ID) of an adaptation parameter set (APS) associated with CCALF for filtered chrominance reconstructed samples. .
RU2022108053A 2019-08-29 2020-08-31 Equipment and method for image coding based on filtering RU2787884C1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US62/893,754 2019-08-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
RU2023100028A Division RU2806728C2 (en) 2019-08-29 2020-08-31 Equipment and method for image coding based on filtering

Publications (1)

Publication Number Publication Date
RU2787884C1 true RU2787884C1 (en) 2023-01-13

Family

ID=

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9723311B2 (en) * 2012-06-29 2017-08-01 Electronics And Telecommunications Research Institute Method and device for encoding/decoding images
RU2633117C2 (en) * 2012-01-14 2017-10-11 Квэлкомм Инкорпорейтед Encoding of parameter sets and nal unit headers for video encoding
WO2018045207A1 (en) * 2016-08-31 2018-03-08 Qualcomm Incorporated Cross-component filter
US9992515B2 (en) * 2011-06-14 2018-06-05 Lg Electronics Inc. Method for encoding and decoding image information
US20180176594A1 (en) * 2016-12-19 2018-06-21 Qualcomm Incorporated Linear model prediction mode with sample accessing for video coding
US20190014317A1 (en) * 2011-06-24 2019-01-10 Lg Electronics Inc. Image information encoding and decoding method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9992515B2 (en) * 2011-06-14 2018-06-05 Lg Electronics Inc. Method for encoding and decoding image information
US20190014317A1 (en) * 2011-06-24 2019-01-10 Lg Electronics Inc. Image information encoding and decoding method
RU2633117C2 (en) * 2012-01-14 2017-10-11 Квэлкомм Инкорпорейтед Encoding of parameter sets and nal unit headers for video encoding
US9723311B2 (en) * 2012-06-29 2017-08-01 Electronics And Telecommunications Research Institute Method and device for encoding/decoding images
WO2018045207A1 (en) * 2016-08-31 2018-03-08 Qualcomm Incorporated Cross-component filter
US20180176594A1 (en) * 2016-12-19 2018-06-21 Qualcomm Incorporated Linear model prediction mode with sample accessing for video coding

Similar Documents

Publication Publication Date Title
US20240187602A1 (en) In-loop filtering-based image coding apparatus and method
EP3843405A1 (en) Image coding method using history-based motion information, and device therefor
US11496734B2 (en) Cross component filtering-based image coding apparatus and method
EP4024859B1 (en) Device and method for coding video on basis of filtering
EP4024858A1 (en) Cross-component adaptive loop filtering-based image coding apparatus and method
AU2020335843B2 (en) Apparatus and method for coding image
US20240298038A1 (en) Adaptive loop filtering-based image coding apparatus and method
US20230344986A1 (en) Filtering-based image coding device and method
EP4084479A1 (en) Image coding apparatus and method based on sub-picture
KR20220097997A (en) Video coding apparatus and method for controlling loop filtering
RU2787884C1 (en) Equipment and method for image coding based on filtering
RU2820296C1 (en) Filtration-based image encoding equipment and method
RU2806728C2 (en) Equipment and method for image coding based on filtering
RU2785998C1 (en) Equipment and method for image encoding
RU2822989C1 (en) Equipment and method of encoding images based on cross-component adaptive contour filtering
RU2807256C2 (en) Method and equipment for image encoding
RU2803187C1 (en) Method and device for image coding based on sub-image